WO2022009745A1 - 基地局装置、端末装置及び通信方法 - Google Patents

基地局装置、端末装置及び通信方法 Download PDF

Info

Publication number
WO2022009745A1
WO2022009745A1 PCT/JP2021/024721 JP2021024721W WO2022009745A1 WO 2022009745 A1 WO2022009745 A1 WO 2022009745A1 JP 2021024721 W JP2021024721 W JP 2021024721W WO 2022009745 A1 WO2022009745 A1 WO 2022009745A1
Authority
WO
WIPO (PCT)
Prior art keywords
base station
terminal device
moving image
image data
sps
Prior art date
Application number
PCT/JP2021/024721
Other languages
English (en)
French (fr)
Inventor
信一郎 津田
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Priority to JP2022535263A priority Critical patent/JPWO2022009745A1/ja
Priority to US18/003,617 priority patent/US20230239818A1/en
Publication of WO2022009745A1 publication Critical patent/WO2022009745A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W56/00Synchronisation arrangements
    • H04W56/001Synchronization between nodes
    • H04W56/0015Synchronization between nodes one node acting as a reference for the others
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W28/00Network traffic management; Network resource management
    • H04W28/16Central resource management; Negotiation of resources or communication parameters, e.g. negotiating bandwidth or QoS [Quality of Service]
    • H04W28/18Negotiating wireless communication parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W72/00Local resource management
    • H04W72/04Wireless resource allocation
    • H04W72/11Semi-persistent scheduling

Definitions

  • This disclosure relates to a base station device, a terminal device, and a communication method.
  • LTE Long Term Evolution
  • LTE-A Long Term Evolution
  • LTE-A Pro Long Term Evolution Pro
  • NR New Radio
  • NRAT New Radio Access Technology
  • EUTRA Evolved Universal Terrestrial Radio Access
  • FEUTRA Further EUTRA
  • LTE includes LTE-A, LTE-A Pro, and EUTRA
  • NR includes NLAT and FEUTRA.
  • the base station device (base station, communication device) is eNodeB (evolved NodeB), in NR, the base station device (base station, communication device) is gNodeB, and in LTE and NR, the terminal device (mobile station, mobile station device, terminal, Communication device) is also referred to as UE (User Equipment).
  • LTE and NR are cellular communication systems in which a plurality of areas covered by a base station device are arranged in a cell shape. A single base station appliance may manage multiple cells.
  • NR has the features of ultra-high speed, low delay, high reliability, and multiple simultaneous connections.
  • utilization in services using Augmented Reality (AR) and Virtual Reality (VR) is being considered.
  • AR Augmented Reality
  • VR Virtual Reality
  • Non-Patent Document 1 and Non-Patent Document 2 disclose use cases and (potential) requirements for services (e.g., AR / VR games) using Augmented Reality (AR) and Virtual Reality (VR).
  • NR is expected to transmit 4K and 8K video because of its features of ultra-high speed, low delay, high reliability, and multiple simultaneous connections.
  • Wearable devices are also expected to become widespread as post-smartphones.
  • VR content is displayed on an HMD (Head Mounted Display) via wireless
  • HMD Head Mounted Display
  • it is important to keep the Motion-to-photon latency within a certain value in order to prevent VR sickness. In this way, it is required to deliver video content that requires real-time performance so that it can be stably displayed.
  • a base station device includes a wireless communication unit and a control unit.
  • the wireless communication unit transmits the moving image data to the terminal device at a predetermined cycle.
  • the control unit the difference between the periodic reception timing at which the terminal device receives the moving image data and the display timing of the moving image data displayed on the terminal device at a predetermined frame rate satisfies a predetermined condition. In this case, the setting related to the reception timing is changed.
  • Each of the one or more embodiments (including examples and modifications) described below can be implemented independently. On the other hand, at least a part of the plurality of embodiments described below may be carried out in combination with at least a part of other embodiments as appropriate. These plurality of embodiments may contain novel features that differ from each other. Therefore, these plurality of embodiments may contribute to solving different purposes or problems, and may have different effects.
  • FIG. 1 is a diagram showing a configuration example of the content distribution system 100 according to the embodiment of the present disclosure.
  • the content distribution system 100 is a system that distributes video content to the terminal device 110 via a wireless access network.
  • the radio access network may be E-UTRAN (Evolved Universal Terrestrial Radio Access Network) or NG-RAN (Next Generation Radio Access Network).
  • the content distribution system 100 includes a terminal device 110, a base station device 130, and an information processing device 150.
  • moving image content is distributed from the information processing device 150 to the terminal device 110 via the base station device 130.
  • the terminal device 110 and the base station device 130 are connected via the above-mentioned radio access network.
  • the base station device 130 and the information processing device 150 may be connected via a wireless or wired access network.
  • the device in the figure may be considered as a device in a logical sense. That is, a part of the device in the figure may be realized by a virtual machine (VM: Virtual Machine), a container (Container), a docker (Docker), etc., and they may be mounted on physically the same hardware.
  • VM Virtual Machine
  • Container Container
  • Docker docker
  • the LTE base station may be referred to as eNodeB (Evolved Node B) or eNB.
  • the NR base station may be referred to as NGRAN Node (Next Generation RAN node), gNodeB or gNB.
  • a terminal device also referred to as a mobile station, mobile station device, or terminal
  • UE User Equipment
  • the terminal device is a kind of communication device, and is also referred to as a mobile station, a mobile station device, or a terminal.
  • the concept of a communication device includes not only a portable mobile device (terminal device) such as a mobile terminal, but also a device installed in a structure or a mobile body.
  • the structure or the moving body itself may be regarded as a communication device.
  • the concept of a communication device includes not only a terminal device but also a base station device.
  • a communication device is a kind of processing device and information processing device. Further, the communication device can be paraphrased as a transmission device or a reception device.
  • the information processing device 150 is a content management device that manages moving image content in the terminal device 110.
  • the information processing device 150 is, for example, a personal computer, a workstation, or a game device. Further, the information processing device 150 may be a device collectively referred to as a cloud server (Cloud Server) or an edge server (Edge Server).
  • Cloud Server Cloud Server
  • Etge Server edge server
  • the base station device 130 is a wireless communication device that wirelessly communicates with the terminal device 110.
  • the base station device 130 is a kind of communication device. Further, the base station device 130 is a kind of information processing device.
  • the base station device 130 may be composed of a set of a plurality of physical or logical devices.
  • the base station device 130 is classified into a plurality of devices of BBU (Baseband Unit) and RU (Radio Unit), and may be interpreted as an aggregate of these plurality of devices.
  • the base station apparatus 130 may be either or both of the BBU and the RU.
  • the BBU and RU may be connected by a predetermined interface (for example, eCPRI).
  • the RU may be referred to as a Remote Radio Unit (RRU) or Radio DoT (RD).
  • the RU may correspond to gNB-DU described later.
  • the BBU may be compatible with gNB-CU, which will be described later.
  • the RU may be a device integrally formed with the antenna.
  • the antenna included in the base station device 130 may adopt the Advanced Antenna System and support MIMO (for example, FD-MIMO) or beamforming.
  • the antenna included in the base station device 130 may include, for example, 64 transmitting antenna ports and 64 receiving antenna ports. ..
  • the antenna mounted on the RU may be an antenna panel composed of one or more antenna elements, and the RU may mount one or more antenna panels.
  • the RU has two types of antenna panels, a horizontally polarized antenna panel and a vertically polarized antenna panel, or two types of antenna panels, a right-handed circularly polarized antenna panel and a left-handed circularly polarized antenna panel. It may be installed. Further, the RU may form and control an independent beam for each antenna panel.
  • a plurality of base station devices 130 may be connected to each other.
  • One or more base station devices 130 may be included in a radio access network (RAN). That is, the base station apparatus 130 may be simply referred to as a RAN, a RAN node, an AN (Access Network), or an AN node.
  • RAN in LTE is called EUTRAN (Enhanced Universal Terrestrial RAN).
  • RAN in NR is called NGRAN.
  • RAN in W-CDMA (UMTS) is called UTRAN.
  • the LTE base station device 130 is referred to as an eNodeB (Evolved Node B) or an eNB. That is, EUTRAN includes one or more eNodeBs (eNBs).
  • EUTRAN includes one or more eNodeBs (eNBs).
  • the NR base station device 130 is referred to as gNodeB or gNB. That is, NGRAN contains one or more gNBs. Further, the EUTRAN may include a gNB (en-gNB) connected to a core network (EPC) in the LTE communication system (EPS). Similarly, NGRAN may include an ng-eNB connected to the core network 5GC in a 5G communication system (5GS). Further or instead, when the base station device 130 is an eNB, gNB, or the like, it may be referred to as 3GPP Access. Further or instead, when the base station device 130 is a wireless access point (Access Point), it may be referred to as Non-3GPP Access.
  • Access Point wireless access point
  • the base station apparatus 130 may be an optical overhanging apparatus called RRH (Remote Radio Head).
  • RRH Remote Radio Head
  • the base station device 130 may be referred to as a combination of the above-mentioned gNB CU (Central Unit) and gNB DU (Distributed Unit) or any one of them. ..
  • the gNB CU Central Unit hosts a plurality of upper layers (for example, RRC, SDAP, PDCP) of the Access Stratum for communication with the UE.
  • gNB-DU hosts a plurality of lower layers (for example, RLC, MAC, PHY) in Access Stratum.
  • RRC signaling for example, various SIBs including MIB and SIB1, RRCSetup message, RRCReconfiguration message
  • gNB CU DCI and various Physical Channels described later (for example, various Physical Channels) are generated.
  • PDCCH, PBCH may generate gNB-DU.
  • some configurations such as IE: cellGroupConfig may be generated by gNB-DU, and the remaining configurations may be generated by gNB-CU. These configurations may be transmitted and received by the F1 interface described later.
  • the base station device 130 may be configured to be communicable with another base station device 130.
  • the base station devices 130 may be connected by an X2 interface.
  • the devices may be connected by an Xn interface.
  • the devices may be connected by the above-mentioned F1 interface.
  • the message information (information included in RRC signaling or DCI) described later may be communicated between the plurality of base station devices 130 (for example, via the X2, Xn, and F1 interfaces).
  • the base station apparatus 130 may be configured to manage a plurality of cells.
  • the cell provided by the base station apparatus 130 is called a Serving cell.
  • Serving cell includes PCell (Primary Cell) and SCell (Secondary Cell).
  • Dual Connectivity for example, EUTRA-EUTRA Dual Connectivity, EUTRA-NR Dual Connectivity (ENDC), EUTRA-NR Dual Connectivity with 5GC, NR-EUTRA Dual Connectivity (NEDC), NR-NR Dual Connectivity
  • the UE for example, terminal device.
  • the PCell provided by the MN (Master Node) and the zero or more SCell (s) are referred to as the Master Cell Group.
  • the Serving cell may include a PS Cell (Primary Secondary Cell or Primary SCG Cell).
  • the PS Cell provided by the SN (Secondary Node) and the zero or more SCell (s) are called the Secondary Cell Group (SCG).
  • SCG Secondary Cell Group
  • PUCCH physical uplink control channel
  • SCell Radio Link Failure is also detected by PCell and PSCell, but not by SCell (it does not have to be detected).
  • PCell and PSCell have a special role in Serving Cell (s), so they are also called Special Cell (SpCell).
  • One Downlink Component Carrier and one Uplink Component Carrier may be associated with one cell.
  • the system bandwidth corresponding to one cell may be divided into a plurality of bandwidth parts (Bandwidth Part).
  • Bandwidth Part one or more Bandwidth Parts (BWP) may be set in the UE, and one Bandwidth Part may be used in the UE as an Active BWP.
  • the radio resources for example, frequency band, numerology (subcarrier spacing), slot format (Slot configuration)
  • Slot configuration slot format
  • the terminal device 110 is a wireless communication device that wirelessly communicates with the base station device 130.
  • the terminal device 110 is, for example, a mobile phone, a smart device (smartphone or tablet), a PDA (Personal Digital Assistant), or a personal computer.
  • the terminal device 110 may be a head mounted display, VR goggles, or the like having a function of transmitting and receiving data via wireless.
  • the terminal device 110 may be capable of side link communication with another terminal device 110.
  • the terminal device 110 may be able to use an automatic retransmission technique such as HARQ (Hybrid Automatic Repeat reQuest) when performing side link communication.
  • the terminal device 110 may be capable of NOMA (Non Orthogonal Multiple Access) communication with the base station device 130.
  • the terminal device 110 may also be capable of NOMA communication in communication (side link) with another terminal device 110.
  • the terminal device 110 may be capable of LPWA (Low Power Wide Area) communication with another communication device (for example, the base station device 130 and the other terminal device 110).
  • the wireless communication used by the terminal device 110 may be wireless communication using millimeter waves.
  • the wireless communication (including side link communication) used by the terminal device 110 may be wireless communication using radio waves or wireless communication using infrared rays or visible light (optical radio). good.
  • the terminal device 110 may be connected to a plurality of base station devices or a plurality of cells at the same time to perform communication. For example, if one base station device can provide a plurality of cells, the terminal device 110 can perform carrier aggregation by using one cell as a pCell and another cell as an sCell. Further, when the plurality of base station devices 130 can each provide one or a plurality of cells, the terminal device 110 pCells one or a plurality of cells managed by one of the base station devices (MN (for example, MeNB or MgNB)).
  • MN for example, MeNB or MgNB
  • DC Dual Connectivity
  • MC Multi Connectivity
  • CA Carrier Aggregation
  • DC Dual Connectivity
  • MC Multi-Connectivity
  • the terminal device 110 and the plurality of base station devices 130 can communicate with each other via the cells of different base station devices 130 by the coordinated transmission / reception (CoMP: Coordinated Multi-Point Transmission and Reception) technology.
  • CoMP Coordinated Multi-Point Transmission and Reception
  • each device constituting the content distribution system 100 will be specifically described.
  • the configuration of each device shown below is just an example.
  • the configuration of each device may be different from the configuration below.
  • FIG. 2 is a diagram showing a configuration example of the information processing apparatus 150 according to the embodiment of the present disclosure.
  • the information processing device 150 is, for example, a device that manages or generates moving image content.
  • the information processing device 150 includes a communication unit 151, a storage unit 152, and a control unit 153.
  • the configuration shown in FIG. 2 is a functional configuration, and the hardware configuration may be different from this. Further, the functions of the information processing apparatus 150 may be distributed and implemented in a plurality of physically separated configurations.
  • the information processing device 150 may be composed of a plurality of server devices.
  • the communication unit 151 is a communication interface for communicating with other devices.
  • the communication unit 151 may be a network interface or a device connection interface.
  • the communication unit 151 may be a LAN (Local Area Network) interface such as a NIC (Network Interface Card), or a USB interface composed of a USB (Universal Serial Bus) host controller, a USB port, or the like. It is also good.
  • the communication unit 151 may be a wired interface or a wireless interface.
  • the communication unit 151 functions as a communication means of the information processing device 150.
  • the communication unit 151 communicates with the base station device 130 according to the control of the control unit 153.
  • the storage unit 152 is a storage device capable of reading and writing data such as DRAM (Dynamic Random Access Memory), SRAM (Static Random Access Memory), flash memory, and hard disk.
  • the storage unit 152 functions as a storage means for the information processing device 150.
  • the storage unit 152 stores, for example, moving image content.
  • the control unit 153 is a controller that controls each unit of the information processing device 150.
  • the control unit 153 is realized by a processor such as a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or a GPU (Graphics Processing Unit), for example.
  • the control unit 153 is realized by the processor executing various programs stored in the storage device inside the information processing device 150 using a RAM (Random Access Memory) or the like as a work area.
  • the control unit 153 may be realized by an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).
  • the CPU, MPU, GPU, ASIC, and FPGA can all be regarded as controllers.
  • the control unit 153 includes an inertial measurement information acquisition unit 1531, a moving image data generation unit 1532, and a radio resource allocation request unit 1533.
  • Each block (inertial measurement information acquisition unit 1531 to radio resource allocation request unit 1533) constituting the control unit 153 is a functional block indicating the function of the control unit 153, respectively.
  • These functional blocks may be software blocks or hardware blocks.
  • each of the above-mentioned functional blocks may be one software module realized by software (including a microprogram), or may be one circuit block on a semiconductor chip (die).
  • each functional block may be one processor or one integrated circuit.
  • the method of configuring the functional block is arbitrary.
  • the control unit 153 may be configured in a functional unit different from the above-mentioned functional block.
  • the inertial measurement information acquisition unit 1531 acquires inertial measurement information from the terminal device 110 via the base station device 130.
  • the inertial measurement information is information related to inertia, and is information on detection results (for example, the direction of the user's line of sight) detected by a sensor mounted on the terminal device 110, such as acceleration information and angular velocity information of the terminal device 110. ..
  • the inertial measurement information is, for example, information indicating a state (for example, the direction of the head or the line of sight) of a user who uses the terminal device 110.
  • the information related to inertia may be the amount of change in each component in the yaw direction, the pitch direction, and the roll direction as the movement of the user's head. .. These components may be detected by a sensor (accelerometer or angular velocity sensor (gyro sensor)) mounted on the terminal device 110.
  • the moving image data generation unit 1532 determines the area of the moving image based on the acquired inertial measurement information, and generates the moving image data to be distributed to the terminal device 110. Based on the inertial measurement information, the moving image data generation unit 1532 determines the moving image area to distribute the moving image in the direction in which the user is watching, and generates the moving image data.
  • the radio resource allocation request unit 1533 requests the base station device 130 to allocate the radio resource used for transmitting the moving image data.
  • the control unit 153 acquires the information related to the operation input by the user from the terminal device 110 via the base station device 130, determines the region of the moving image based on the information related to this operation, and determines the area of the moving image, and the terminal device 110. You may want to generate the video data to be delivered to.
  • the operation input by the user is, for example, an operation in a game, an operation for remotely controlling the device, an operation for driving, and the like.
  • FIG. 3 is a diagram showing a configuration example of the base station device 130 according to the embodiment of the present disclosure.
  • the base station device 130 includes a communication unit 131, a storage unit 132, a network communication unit 133, and a control unit 134.
  • the configuration shown in FIG. 3 is a functional configuration, and the hardware configuration may be different from this. Further, the functions of the base station apparatus 130 may be distributed and implemented in a plurality of physically separated configurations.
  • the communication unit 131 is a signal processing unit for wireless communication with another wireless communication device (for example, a terminal device 110 and another base station device 130).
  • the communication unit 131 operates according to the control of the control unit 134.
  • the communication unit 131 may be a wireless transceiver corresponding to one or a plurality of wireless access methods.
  • the communication unit 131 corresponds to both NR and LTE.
  • the communication unit 131 may support W-CDMA and cdma2000 in addition to NR and LTE. Further, the communication unit 131 may support communication using NOMA.
  • the communication unit 131 may be an X2 interface, an Xn interface, or an F1 interface.
  • the communication unit 131 includes a reception processing unit 1311, a transmission processing unit 1312, and an antenna 1314.
  • the communication unit 131 may include a plurality of reception processing units 1311, transmission processing units 1312, and antennas 1314, respectively.
  • each unit of the communication unit 131 may be individually configured for each wireless access method.
  • the reception processing unit 1311 and the transmission processing unit 1312 may be individually configured by LTE and NR.
  • the reception processing unit 1311 processes the uplink signal received via the antenna 1314.
  • the reception processing unit 1311 operates as a reception unit for receiving the received signal.
  • the reception processing unit 1311 includes a wireless reception unit 1311a, a multiple separation unit 1311b, a demodulation unit 1311c, and a decoding unit 1311d.
  • the wireless receiver 1311a performs down-conversion, removal of unnecessary frequency components, control of amplification level, orthogonal demodulation, conversion to digital signal, removal of guard interval (cyclic prefix), and fast Fourier transform for the uplink signal.
  • the frequency domain signal is extracted by.
  • the multiplex separation unit 1311b separates uplink channels such as PUSCH (Physical Uplink Shared Channel) and PUCCH (Physical Uplink Control Channel) and uplink reference signals from the signal output from the wireless reception unit 1311a.
  • PUSCH Physical Uplink Shared Channel
  • PUCCH Physical Uplink Control Channel
  • the demodulation unit 1311c demodulates the received signal for the modulation symbol of the uplink channel by using a modulation method such as BPSK (Binary Phase Shift Keying) or QPSK (Quadrature Phase shift Keying).
  • the modulation method used by the demodulation unit 1311c may be 16QAM (Quadrature Amplitude Modulation), 64QAM, or 256QAM. In this case, the signal points on the constellation do not necessarily have to be equidistant.
  • the constellation may be a non-uniform constellation (NUC: Non Uniform Constellation).
  • the decoding unit 1311d performs decoding processing on the coded bits of the demodulated uplink channel.
  • the decoded uplink data and uplink control information are output to the control unit 134.
  • the transmission processing unit 1312 performs transmission processing of downlink control information and downlink data.
  • the transmission processing unit 1312 is an acquisition unit that acquires, for example, a bit sequence such as downlink control information and downlink data from the control unit 134.
  • the transmission processing unit 1312 includes a coding unit 1312a, a modulation unit 1312b, a multiplexing unit 1312c, and a wireless transmission unit 1312d.
  • the coding unit 1312a encodes the downlink control information and the downlink data input from the control unit 134 by using a coding method such as block coding, convolutional coding, or turbo coding.
  • the coding unit 1312a may be encoded by a polar code or an LDPC code (Low Density Parity Check Code).
  • the modulation unit 1312b modulates the coding bits output from the coding unit 1312a by a predetermined modulation method such as BPSK, QPSK, 16QAM, 64QAM, 256QAM and the like.
  • a predetermined modulation method such as BPSK, QPSK, 16QAM, 64QAM, 256QAM and the like.
  • the signal points on the constellation do not necessarily have to be equidistant.
  • the constellation may be a non-uniform constellation.
  • the multiplexing unit 1312c multiplexes the modulation symbol of each channel and the downlink reference signal and arranges them in a predetermined resource element.
  • the wireless transmission unit 1312d performs various signal processing on the signal from the multiplexing unit 1312c. For example, the radio transmission unit 1312d converts the time domain to the frequency domain by fast Fourier transform, adds a guard interval (cyclic prefix), generates a baseband digital signal, converts it to an analog signal, orthogonal modulation, and up-converts. , Removal of excess frequency components, amplification of power, etc.
  • the signal generated by the transmission processing unit 1312 is transmitted from the antenna 1314.
  • the storage unit 132 is a storage device that can read and write data such as DRAM, SRAM, flash memory, and hard disk.
  • the storage unit 132 functions as a storage means for the base station device 130.
  • the network communication unit 133 is a communication interface for communicating with a node (for example, an information processing device 150) located at a higher level on the network.
  • the network communication unit 133 may be a LAN interface such as a NIC.
  • the network communication unit 133 may be an S1 interface or an NG interface for connecting to the core network node.
  • the network communication unit 133 may be a wired interface or a wireless interface.
  • the network communication unit 133 functions as a network communication means of the base station device 130.
  • the control unit 134 is a controller that controls each unit of the base station device 130.
  • the control unit 134 is realized by, for example, a processor (hardware processor) such as a CPU (Central Processing Unit) and an MPU (Micro Processing Unit).
  • the control unit 134 is realized by the processor executing various programs stored in the storage device inside the base station device 130 using a RAM (Random Access Memory) or the like as a work area.
  • the control unit 134 may be realized by an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).
  • the CPU, MPU, ASIC, and FPGA can all be regarded as controllers.
  • the control unit 134 includes a radio resource allocation setting unit 1341.
  • the block (radio resource allocation setting unit 1341) constituting the control unit 134 is a functional block indicating the function of the control unit 134.
  • the functional block may be a software block or a hardware block.
  • the above-mentioned functional block may be one software module realized by software (including microprogram) or one circuit block on a semiconductor chip (die).
  • the functional block may be one processor or one integrated circuit.
  • the method of configuring the functional block is arbitrary.
  • the control unit 134 may be configured in a functional unit different from the above-mentioned functional block.
  • the wireless resource allocation setting unit 1341 executes allocation of wireless resources in response to a request from, for example, the information processing device 150.
  • the radio resource allocation setting unit 1341 may be, for example, a function called a scheduler.
  • FIG. 4 is a diagram showing a configuration example of the terminal device 110 according to the embodiment of the present disclosure.
  • the terminal device 110 includes a communication unit 111, a storage unit 112, an inertial measurement unit 114, a control unit 115, and a display unit 116.
  • the configuration shown in FIG. 4 is a functional configuration, and the hardware configuration may be different from this. Further, the functions of the terminal device 110 may be distributed and implemented in a plurality of physically separated configurations.
  • the communication unit 111 is a signal processing unit for wireless communication with another wireless communication device (for example, a base station device 130 and another terminal device 110).
  • the communication unit 111 operates according to the control of the control 115.
  • the communication unit 111 may be a wireless transceiver corresponding to one or a plurality of wireless access methods.
  • the communication unit 41 corresponds to both NR and LTE.
  • the communication unit 111 may support W-CDMA and cdma2000 in addition to NR and LTE. Further, the communication unit 111 may support communication using NOMA.
  • the communication unit 111 includes a reception processing unit 1111, a transmission processing unit 1112, a network communication unit 113, and an antenna 1114.
  • the communication unit 111 may include a plurality of reception processing units 1111, transmission processing units 1112, and antennas 1114, respectively.
  • the configurations of the communication unit 111, the reception processing unit 1111, the transmission processing unit 1112, and the antenna 1114 are the same as those of the communication unit 131, the reception processing unit 1311, the transmission processing unit 1312, and the antenna 1314 of the base station apparatus 130.
  • the storage unit 112 is a storage device that can read and write data such as DRAM, SRAM, flash memory, and hard disk.
  • the storage unit 112 functions as a storage means for the terminal device 110.
  • the network communication unit 113 is a communication interface for communicating with other devices connected via the network.
  • the network communication unit 113 is a LAN interface such as a NIC.
  • the network communication unit 113 may be a wired interface or a wireless interface.
  • the network communication unit 113 functions as a network communication means of the terminal device 110.
  • the network communication unit 113 communicates with other devices according to the control of the control unit 115.
  • the other device is, for example, a controller in which the user inputs information related to the operation.
  • the inertial measurement unit 114 is called an IMU (Inertial Measurement Unit) and is a device that detects the angular velocity and acceleration of three axes.
  • the inertial measurement unit 114 includes, for example, an acceleration sensor and a gyro sensor.
  • the inertial measurement unit 114 may be equipped with a magnetic field sensor, a barometric pressure sensor, a temperature sensor, or the like in order to improve reliability.
  • the acceleration information and the angular velocity information detected by the inertial measurement unit 114 are transmitted to the information processing device 150 as information related to inertia (inertial measurement information, an example of information about the user).
  • control unit 115 calculates the user's state (for example, the direction of the head or the line of sight) based on the acceleration information and the angular velocity information detected by the inertial measurement unit 114, and transmits the user's state to the information processing device 150. You may do so.
  • the state of the user is, for example, information collectively referred to as pose information (Pose Information).
  • the control unit 115 is a controller that controls each unit of the terminal device 110.
  • the control unit 115 is realized by, for example, a processor such as a CPU, MPU, or GPU.
  • the control unit 115 is realized by the processor executing various programs stored in the storage device inside the terminal device 110 with the RAM or the like as a work area.
  • the control unit 115 may be realized by an integrated circuit such as an ASIC or FPGA.
  • the CPU, MPU, GPU, ASIC, and FPGA can all be considered as controllers.
  • the control unit 115 includes a video application control unit 1151, a display area specifying unit 1152, and a rendering unit 1153.
  • Each block (video application control unit 1151 to rendering unit 1153) constituting the control unit 115 is a functional block indicating the function of the control unit 115, respectively.
  • These functional blocks may be software blocks or hardware blocks.
  • each of the above-mentioned functional blocks may be one software module realized by software (including a microprogram), or may be one circuit block on a semiconductor chip (die).
  • each functional block may be one processor or one integrated circuit.
  • the method of configuring the functional block is arbitrary.
  • the control unit 45 may be configured in a functional unit different from the above-mentioned functional block.
  • the video application control unit 1151 is a control unit that controls a video application that plays back video content and the like.
  • the video application control unit 1151 activates the video application, for example, in response to an instruction from the user.
  • the display area specifying unit 1152 estimates the user's viewpoint using information related to inertia, and specifies the display area to be displayed on the display unit 116 from the acquired moving image data.
  • the rendering unit 1153 generates an image to be displayed in each frame according to the display area specified by the display area specifying unit 1152 based on the moving image data acquired from the information processing device 150, and edits the moving image.
  • the display unit 116 is a display device such as a display, and displays various information such as an image generated by the rendering unit 1153.
  • the display unit 116 is, for example, a non-transmissive type, a video transmissive (Video See-Through) type, or an optical transmissive (Optical See-Through) type display.
  • the display unit 116 displays the image at a predetermined frame rate to reproduce the moving image edited by the rendering unit 1153.
  • FIG. 5 is a diagram showing an example of a 5G architecture.
  • the 5G architecture includes a UE (User Equipment) 10, a RAN (Radio Access Network) / AN (Access Network) 230, an NGC (Next Generation Core) / 5GC (5G Core) 20, and a DN (Data Network) 240.
  • UE User Equipment
  • RAN Radio Access Network
  • AN Access Network
  • NGC Next Generation Core
  • 5G Core 5G Core
  • 5GC / NGC20 is also called a 5G core network.
  • the 5GC / NGC 20 is connected to the UE 10 via the RAN / AN 230.
  • the RAN 230 is a base station device that provides a wireless interface
  • the AN 230 is, for example, an access point or a router that provides a wired interface
  • RAN / AN230 includes a base station apparatus called gNB or ng-eNB.
  • the 5GC / NGC 20 includes a control plane function group 21 and an UPF (User Plane Function) 220.
  • UPF User Plane Function
  • the control plane function group 21 includes AUSF (Authentication Server Function) 201, NEF (Network Exposure Function) 202, NRF (Network Repository Function) 203, NSSF (Network Slice Selection Function) 204, and PCF (Policy Control Function). ) 205, SMF (Session Management Function) 206, UDM (Unified Data Management) 207, AF (Application Function) 208, and AMF (Access Management Function) 209.
  • AUSF Authentication Server Function
  • NEF Network Exposure Function
  • NRF Network Repository Function
  • NSSF Network Slice Selection Function
  • PCF Policy Control Function
  • SMF Session Management Function
  • UDM Unified Data Management
  • AF Application Function
  • AMF Access Management Function
  • the UDM207 has the functions of generating 3GPP AKA authentication information and processing the user ID.
  • the UDM207 includes a UDR (Unified Data Repository) that retains and manages subscriber information, and an FE (Front End) unit that processes subscriber information.
  • UDR Unified Data Repository
  • FE Front End
  • AMF209 has functions such as registration processing, connection management, and mobility management of UE10.
  • SMF206 has functions such as session management, IP allocation and management of UE10.
  • AUSF201 has an authentication function.
  • NSSF204 has a function for selecting a network slice.
  • the NEF202 has a function of providing network function capabilities and events to third parties, AF208 and edge computing functions.
  • NRF203 has a function of discovering a network function and holding a profile of the network function.
  • the PCF 205 has a policy control function.
  • the AF208 has a function of interacting with the core network to provide services.
  • the UPF (User Plane Function) 220 has a user plane processing function.
  • the DN240 is, for example, an entity that provides a connection to an operator's own service such as an MNO (Mobile Network Operator), an entity that provides an Internet connection, or an entity that provides a connection to a third-party service.
  • MNO Mobile Network Operator
  • Namf is a service-based interface provided by AMF209
  • Nsmf is a service-based interface provided by SMF206
  • Nnef is a service-based interface provided by NEF202
  • Npcf is a service-based interface provided by PCF205.
  • Nudm is a service-based interface provided by UDM207
  • Naf is a service-based interface provided by AF208.
  • Nnrf is a service-based interface provided by NRF203
  • Nnssf is a service-based interface provided by NSSF204.
  • Nausf is a service-based interface provided by AUSF201.
  • Each of these NFs (Network Functions) exchanges information with other NFs via each service-based interface.
  • N1 is a reference point between UE10 and AMF209
  • N2 is a reference point between RAN / AN230 and AMF209.
  • N4 is a reference point between SMF206 and UPF220, and information is exchanged between each of these NFs (Network Functions).
  • An example of the UE 10 is the terminal device 110 of the present embodiment.
  • An example of RAN / AN230 is the base station apparatus 130 of the present embodiment.
  • the information processing apparatus 150 may be an edge server installed in the 5GC / NGC 20 (or installed in the vicinity of the 5GC / NGC 20), a cloud server (not shown), or in the Internet. It may be an installed cloud server.
  • the information processing device 150 may be composed of a plurality of devices including, for example, 5GC.
  • the inertial measurement information acquisition unit 1531 may be mounted on the AF 208, and the radio resource allocation request unit 1533 may be mounted as a function of the AMF 209 or the SMF 206.
  • the moving image data generation unit 1532 corresponds to an edge server installed in the 5GC / NGC20, a cloud server (not shown), or a cloud server installed in the Internet (not shown). Further, the moving image data generation unit 1532 may be mounted on the AF 208.
  • FIG. 6 is a sequence diagram showing an example of content distribution processing according to the embodiment of the present disclosure.
  • the terminal device 110 activates the video application according to, for example, a user's instruction (step S101), and requests the information processing device 150 to distribute the video content specified by the video application via the base station device 130 (step S101). Step S102).
  • the terminal device 110 measures information related to inertia (step S103), and transmits the measured information related to inertia to the information processing device 150 via the base station device 130 (step S104).
  • the processes of steps S103 and S104 are executed according to a fixed or variable cycle or an event.
  • the information processing device 150 determines an area of the moving image to be transmitted to the terminal device 110 based on the acquired information related to the inertia (step S105), and generates moving image data of the determined area (step S106).
  • the information processing device 150 transmits the generated moving image data to the terminal device 110 via the base station device 130 (step S107).
  • the terminal device 110 determines the display area of the acquired moving image data based on the latest measured inertial information (step S108).
  • the terminal device 110 generates an image to be displayed in each frame from the acquired moving image data according to the determined display area, edits the moving image, and then displays the image on the display unit 116 (step S109).
  • FIG. 7 is a diagram for explaining an example of the rendering process according to the embodiment of the present disclosure.
  • the rendering process described here is executed, for example, in step S109 of FIG.
  • FIG. 7 shows the display timing of the image generated by the terminal device 110 (hereinafter, also referred to as a frame image), in other words, the timing of displaying the frame image.
  • the terminal device 110 displays a moving image on the display unit 116 by updating (generating) a frame image, which is a still image, at a cycle corresponding to the frame rate.
  • K frame images #n (n is an integer of 1 or more (K + 1) or less) are generated and displayed on the display unit 116 per second.
  • the update cycle of the frame image is 1 / K seconds.
  • FIG. 8 is a diagram for explaining another example of the rendering process according to the embodiment of the present disclosure.
  • the rendering process described here is executed, for example, in step S109 of FIG.
  • the frame image When rendering a frame image, the frame image may be drawn using a technique called Timewarp.
  • Time warp is a technology that generates an image of the display area predicted based on the acquired video data and the latest information related to inertia in order to keep the Motion-to-photon latency within a certain value.
  • the rendering unit 1153 sets the frame rate displayed on the display unit 116 to m times (m> 1) the frame rate of the moving image data acquired from the information processing apparatus 150.
  • the rendering unit 1153 draws each frame image in order to keep the Motion-to-photon latency within a certain value in a delayed environment caused by wireless communication between the information processing device 150 and the terminal device 110. You may want to apply a time warp.
  • VR the phenomenon of VR sickness occurs due to the "difference" between the screen seen in front of the head-mounted display (HMD) and the feeling of one's own life.
  • HMD head-mounted display
  • the scenery actually displayed on the HMD in front of the user is displayed with a slight delay from the scenery that the user thinks it should be like this. May be done.
  • Motion-to-photon latency is called Motion-to-photon latency.
  • the scenery actually displayed on the HMD in front of the user may deviate from the scenery that is expected to be seen after the movement. When such a delay or deviation occurs, VR sickness is likely to occur.
  • VR sickness can be improved by applying the above-mentioned time warp and reducing Motion-to-photon latency.
  • the frame rate is K [fps], and the frame image is updated every 1 / K second. More specifically, the terminal device 110 generates frame images # 1, # 2, ... From the moving image data acquired from the information processing device 150 every 1 / K second. At this time, the terminal device 110 generates frame images # 1, # 2, ... Using the moving image data acquired each time.
  • the terminal device 110 tries to increase the frame rate in order to suppress the occurrence of VR sickness, for example, it is necessary to shorten the cycle of acquiring video data, which increases the load on wireless communication.
  • the terminal device 110 uses the time warp technique to increase the frame rate of the frame image displayed on the display unit 116 without changing the cycle of acquiring the moving image data from the information processing device 150.
  • the terminal device 110 generates a frame image # 1 using the acquired moving image data D1 and displays it on the display unit 116. Further, the terminal device 110 generates a frame image # 1-1 using the acquired moving image data D1 and displays it on the display unit 116. At this time, the terminal device 110 performs a time warp process on the moving image data D1 using the latest information related to the inertia to generate a frame image # 1-1. The terminal device 110 determines the user's viewpoint or the visual field including the viewpoint by using the latest information related to inertia, and determines the display area based on the determined line-of-sight direction. This display area is also known as the viewport.
  • the terminal device 110 extracts the determined display area from the moving image data D1 and generates a frame image # 1-1.
  • the information related to the inertia can be measured in a cycle shorter than the display cycle of the frame image displayed on the display unit 116, for example.
  • the terminal device 110 shortens the acquisition cycle of the moving image data by generating a plurality of frame images from one moving image data using the information related to the latest inertia measured at different times. Instead, the frame rate can be increased.
  • the terminal device 110 generates two frame images # 1 and # 1-1 from one moving image data D1.
  • the terminal device 110 reduces the period displayed on the display unit 116 (hereinafter, also referred to as a frame period) to 1/2 as compared with the case where one frame image # 1 is generated from one moving image data D1. Can be shortened.
  • the terminal device 110 can reduce the motion-to-photon latency and suppress VR sickness by reflecting the change in the information related to the inertia in the same moving image data and shortening the frame period.
  • the method of reflecting the change of the information related to the inertia in the same moving image data is called the above-mentioned time warp or asynchronous time warp (ATW: Asynchronous Timewarp).
  • ATW Asynchronous Timewarp
  • the UE 10 in order for the UE 10 to receive the service via the 5GC / NGC 20, for example, registration to the 5GC / NGC 20 is performed.
  • the UE 10 selects, for example, a PLMN (Public Land Mobile Network) corresponding to 5GC / NGC20 and executes a registration process (Registration Procedure).
  • PLMN Public Land Mobile Network
  • FIG. 9 is a sequence diagram showing an example of the registration process according to the embodiment of the present disclosure.
  • the UE 10 in the RM-DEREGISTERED state that is, the UE 10 not registered in the 5GC / NGC 20, sends a registration request message to the RAN / AN 230 in order to execute the initial registration. (Step S301). At this time, the UE 10 includes the UE identity in the registration request message and transmits the message.
  • UE identity is 5G-GUTI mapped from EPS GUTI if it has a valid EPS GUTI.
  • EPS Evolved Packet System
  • LTE Long Term Evolution
  • EPC Evolved Packet System
  • EPS GUTI Globally Unique Temporary Identifier
  • IMSI International Mobile Subscriber Identity
  • IMEI International Mobile Equipment Identity
  • the UE identity is a PLMN-specific 5G-GUTI assigned by the PLMN that the UE 10 is trying to register.
  • the UE identity is a PLMN-specific 5G-GUTI assigned by the PLMM treated as an equivalent PLMN to the PLMN (Public Land Mobile Network) that the UE 10 is trying to register, if available.
  • PLMN Public Land Mobile Network
  • the UE identity is a PLMN-specific 5G-GUTI assigned by the PLMN from any, if available.
  • the UE 10 includes SUCI (Subscription Concealed Identifier) in the registration request message.
  • SUCI is an ID that encrypts SUPI (Subscription Permanent Identifier), which is an ID uniquely assigned to each UE 10.
  • the UE 10 includes the mapping of each S-NSSAI (Single NSSAI) of the Requested NSSAI with the S-NSSAIs of the HPLMN (Home PLMN) in the registration request message. This makes it possible to confirm whether or not S-NSSAI (s) of Requested NSSAI (Network Slice Selection Assistance Information) can be permitted based on Subscribed S-NSSAIs.
  • S-NSSAI Single NSSAI
  • s Network Slice Selection Assistance Information
  • the UE 10 includes the Default Configured NSSAI Indication in the registration request message.
  • S-NSSAI is a mandatory SST (Slice / Service Type) that identifies the slice type and an optional SD (Slice Differentiator) for distinguishing different slices within the same SST. It is composed of pairs.
  • the mandatory SST is 8 bits
  • the optional SD is 24 bits.
  • services for AR, VR, MR, SR, XR applications may be realized by one or more network slices. That is, one or more S-NSSAIs may be associated with services for AR, VR, MR, SR, and XR applications.
  • AR is also called augmented reality, and is a technology that expands the virtual world such as 3D images and characters created by CG (Computer Graphics) on top of the real world.
  • CG Computer Graphics
  • VR is also called virtual reality, and is a technology that allows you to experience a virtual world with omnidirectional images taken by CG or a 360 ° camera.
  • MR also called mixed reality
  • mixed reality is a technology that closely fuses the real world and the virtual world to express the virtual world more realistically.
  • SR also called alternative reality, is a technology that replaces the virtual world with the real world and makes it recognized.
  • XR is a general term for technologies that create experiences that have changed the real world, including AR, VR, MR, and SR.
  • the RAN / AN230 When the RAN / AN230 receives the registration request message from the UE 10, it executes AMF Selection (step S302). If the registration request message does not include 5G-S-TMSI (5G S-Temporary Mobile Subscription Identifier) or GUAMI (Globally Unique AMF Identifier), RAN / AN230 will use (R) AT (Radio Access). Technology) and, if available, select AMF209 based on Requested NSSAI. Alternatively, the RAN / AN230 may use (R) AT (Radio Access Technology) if 5G-S-TMSI or GUAMI does not indicate a valid AMF209 in the registration request message, and if available. Select AMF209 based on Requested NSSAI.
  • 5G-S-TMSI 5G S-Temporary Mobile Subscription Identifier
  • GUAMI Globally Unique AMF Identifier
  • the registration request including the selected PLMN ID or the combination of PLMN ID and NID (Network Identifier) that identifies SNPN (Standalone NonPublic Network) is transferred to AMF209. (Step S303).
  • the AMF209 activates the Identity Request process, sends an Identity Request message to the UE 10, and requests the SUCI (step S304).
  • the UE 10 When the UE 10 receives the Identity Request message in step S304, the UE 10 responds with an Identity Response message including SUCI (step S305).
  • the UE 10 can acquire the SUCI using the public key (Public Key) of the HPLMN.
  • AMF209 executes AUSF Selection (step S306) based on SUPI or SUCI to activate authentication of UE10.
  • the AUSF201 Upon receiving the authentication request from AMF209, the AUSF201 must execute the authentication of the UE 10.
  • AUSF201 selects UDM207 as the authentication process and acquires authentication data from UDM207.
  • the AUSF 201 When the UE 10 is authenticated, the AUSF 201 provides the AMF 209 with security information.
  • AMF209 activates the NGAP (NG Application Protocol) process and provides the security context to RAN / AN230.
  • NGAP NG Application Protocol
  • RAN / AN230 holds a security context and returns a response to AMF209.
  • the RAN / AN230 will use this security context to protect the messages exchanged with the UE 10 thereafter.
  • AMF209 executes UDM Selection based on SUPI and selects UDM207 (step S307).
  • AMF209 is registered in UDM207 using Nudm_UECM_Registration (step S308).
  • AMF209 does not have UE10 subscriber information (Subscription Data)
  • Nudm_SDM_Get step S309 to acquire Subscription Data such as Access and Mobility Subscription data and SMF Selection Subscription data (step S310).
  • AMF209 generates UE context after acquiring Access and Mobility Subscription data from UDM207.
  • Access and Mobility Subscription data includes information indicating whether or not NSSAI may be included in plain text in the RRC Connection Establishment in 3GPP Access.
  • AMF209 transmits a registration permission (Registration Accept) to the UE 10 (step S311).
  • the registration permission message includes 5G-GUTI and Registration Area. Allowed NSSAI is included in the N2 message including the registration permission message.
  • Allowed NSSAI includes only S-NSSAIs that do not require Network Slice-Specific Authentication and Authorization based on contractor information, or S-NSSAIs that succeeded in Network Slice-Specific Authentication and Authorization based on the UE context of AMF209. Is done.
  • the AMF209 may provide a list of equivalent PLMNs for the UE 10 registered in the PLMN, but the AMF209 must not provide a list of the equivalent PLMNs for the UE 10 registered in the SNPN.
  • the UE 10 sends a Registration Complete message to AMF209 in order to notify that a new 5G-GUTI has been assigned (step S312).
  • the UE 10 is in the registered state for 5GC / NGC20, that is, in the RM-REGISTERED state.
  • FIG. 10 is a sequence diagram showing an example of the PDU session establishment process according to the embodiment of the present disclosure.
  • the UE 10 registered in the AMF 209 transmits a PDU session establishment request (PDU Session Establishment Request) message to the AMF 209 (step S401).
  • the PDU session establishment request message includes S-NSSAI corresponding to the requested service and UE Requested DNN (Data Network Name) among the Allowed NSSAI.
  • UE Requested DNN is, for example, a DNN that enables connection to AR, VR, MR, SR, and XR services.
  • AMF209 Upon receiving the PDU session establishment request message, AMF209 executes SMF Selection (step S402).
  • the default DNN for this S-NSSAI is selected as DNN.
  • the default DNN for a specific S-NSSAI is a DNN that enables connection to AR, VR, MR, SR, and XR services.
  • Nsmf_PDUSession_CreateSMContextRequest includes SUPI, S-NSSAI, UE Requested DNN, or DNN.
  • Session Management Subscription data corresponding to SUPI, DNN and S-NSSAI is not available, SMF206 uses Nudm_SDM_Get to get Session Management Subscription data from UDM207. In addition, SMF206 is registered using Nudm_SDM_Subscribe so that it will be notified when Session Management Subscription data is updated.
  • Nsmf_PDUSession_CreateSMContextRequest creates SM context if it can process the PDU session establishment request. Then, the SMF 206 responds to the AMF209 with an Nsmf_PDUSession_CreateSMContextResponse and provides the SMContext ID (step S404).
  • the SMF 206 activates the PDU Session establishment authentication / authorization process (step S405).
  • SMF206 executes PCF Selection (step S406). Otherwise, SMF206 may apply a local policy.
  • the SMF 206 may execute the SM Policy Association Establishment procedure in order to establish the SM Policy Association with the PCF 205 and acquire the default PCC Rules for the PDU session (step S407). This makes it possible to acquire PCC Rules before selecting UPF220.
  • SMF206 executes UPF Selection and selects one or more UPF220 (step S408).
  • SMF206 sends an N4 Session Establishment Request message to the selected UPF220 (step S409).
  • the UPF 220 returns an N4 Session Establishment Response message and responds to the SMF 206 (step S410).
  • this N4 session establishment process is started for each UPF220.
  • the SMF206 transmits a Namf_Communication_N1N2MessageTransfer message to AMF209 (step S411).
  • the Namf_Communication_N1N2MessageTransfer message includes PDU Session ID, N2 SM information, CN Tunnel Info, Allowed NSSAI S-NSSAI, and N1 SM container.
  • the N2 SM information includes the PDU Session ID, QFI (s), QoS Profile (s), and the like.
  • the CN Tunnel Info includes tunneling information related to the plurality of UPF 220s terminating N3.
  • the N1 SM container includes a PDU Session Establishment Accept that AMF209 must supply to UE10.
  • PDU Session Establishment Accept includes S-NSSAI of Allowed NSSAI.
  • the Namf_Communication_N1N2MessageTransfer message contains a PDU Session ID so that AMF209 knows which access to use for UE10.
  • AMF209 transmits an N2 PDU session request (N2 PDU Session Request) message to RAN / AN230 (step S412).
  • N2 PDU Session Request N2 PDU Session Request
  • the AMF 209 receives from the NAS (Non-Access-Stratum) message including the PDU Session ID to which the UE 10 is sent and the PDU session establishment permission (PDU Session Establishment Accept) and the SMF 206 via the N2 PDU session request message.
  • NAS Non-Access-Stratum
  • PDU Session Establishment Accept PDU Session Establishment Accept
  • the RAN / AN230 transfers the NAS message including the PDU Session ID and the N1 SM container to the UE 10 (step S413).
  • the N1 SM container includes the PDU Session Establishment Accept.
  • the RAN / AN230 responds to the AMF209 with an N2 PDU session response (N2 PDU Session Response) message (step S414).
  • N2 PDU Session Response N2 PDU Session Response
  • the AMF209 transfers the N2 SM information received from the RAN / AN230 to the SMF206 via the Nsmf_PDUSession_UpdateSMContextRequest message including the SMContext ID and N2 SM information (step S415).
  • SMF206 activates an N4 session modification procedure (N4 Session Modification procedure) with UPF220, and sends an N4 session modification request (N4 Session Modification Request) message to UPF220 (step S416).
  • N4 Session Modification Request N4 Session Modification Request
  • the SMF 206 provides the UPF 220 with AN tunneling information (AN Tunnel Info) in addition to the forwarding rule.
  • the UPF 220 responds to the SMF 206 with an N4 Session Modification Response message (step S417).
  • N4 Session Modification Response message (step S417).
  • the target to which the above N4 session change procedure is performed is all UPF220s that terminate N3.
  • the PDU session is established.
  • the QoS Profile must include the QoS parameter for each QoS flow.
  • the QoS parameters are, for example, 5QI (5G QoS Identifier) and ARP (Allocation and Retention Priority).
  • the QoS flow may be either "GBR (Guaranteed Bit Rate)” or “Non-GBR” depending on the QoS Profile.
  • the QoS Profile may include a QoS parameter called RQA (Reflective QoS Attribute).
  • the uplink and downlink GFBR (Guaranteed Flow Bit Rate) and MFBR (Maximum Flow Bit Rate) QoS parameters must be included.
  • 5QI is a parameter for the access node for controlling the transfer processing of the QoS flow. For example, scheduling weights, admission thresholds, queue management thresholds, link layer settings, and the like.
  • ARP contains information on priority level, pre-emption capability, and pre-emption vulnerability.
  • the ARP priority level defines the relative importance of the QoS flow, and is set in the range of 1 to 15 with the highest importance being 1.
  • ARP pre-emption capability is an index that defines whether a QoS flow can use resources already allocated to a QoS flow with a lower priority level.
  • ARP pre-emption vulnerability is an index that defines whether or not the resources allocated to a QoS flow are surrendered in order to allow another QoS flow with a higher priority level.
  • the signaling between the UE 10 and the core network is done by NAS signaling.
  • a NAS signaling connection is used to enable this NAS signaling.
  • the NAS signaling connection is composed of an AN signaling connection between the UE 10 and AN (Access Network) and an N2 connection between AN and AMF209.
  • the AN signaling connection is, for example, an RRC (Radio Resource Control) connection.
  • FIG. 11 is a sequence diagram showing an example of RRC_CONNECTED transition processing according to the embodiment of the present disclosure.
  • the RRC_CONNECTED transition process is started by the UE 10 (an example of the terminal device 110) when transitioning from RRC_IDLE to RRC_CONNECTED.
  • the UE 10 is in the RRC_IDLE and CM-IDLE state (step S500).
  • the RRC_IDLE state is a state in which an RRC connection has not been established with the base station apparatus 130.
  • the CM-IDLE state is a state in which a NAS signaling connection via N1 has not been established with AMF209.
  • the UE 10 transmits an RRC setup request (RRCSetupRequest) message via SRB (Signalling Radio Bearer) 0 for a new connection with the base station device 130 (step S501).
  • RRCSetupRequest RRC setup request
  • SRB Synignalling Radio Bearer
  • the UE 10 When the UE 10 receives the RRC setup message from the base station apparatus 130 (step S502), the UE 10 changes the RRC state from RRC_IDLE to RRC_CONNECTED, and keeps the CM-IDLE as it is (step S503).
  • step S504 When the base station apparatus 130 receives the RRC setup complete (RRCSetupComplete) message from the UE 10 (step S504), the RRC setting process is completed, and the UE 10 transitions to CM-CONNECTED (step S505).
  • RRC setup complete RRCSetupComplete
  • the first NAS message (INITIAL UE MESSAGE) transmitted from the UE 10 included in the RRC SetupComplete message is transmitted to the AMF209 (step S506).
  • the first NAS message is, for example, a registration request message (see step S301 in FIG. 9) or a PDU session establishment request (PDU Session Establishment Request) message (step S401 in FIG. 10).
  • PDU Session Establishment Request PDU Session Establishment Request
  • some NAS messages are exchanged between the UE 10 and the AMF 209.
  • AMF209 prepares UE context data and transmits the UE context data to the base station apparatus 130 via the initial context setting request (INITIAL CONTEXT SETUP REQUEST) message (step S507).
  • the UE context data includes the PDU session context, Security Key, UE Radio Capability, UE Security Capabilities, and the like.
  • the base station apparatus 130 transmits a SecurityModeCommand message to the UE 10 (step S508) and the UE 10 transmits a SecurityModeComplete message to the base station apparatus 130 via SRB1 (step S509), the base station apparatus 130 sends an AS (Access-Stratum). ) Activate security (AS security).
  • AS Access-Stratum
  • the base station apparatus 130 sends an RRC reconfiguration (RRCReconfiguration) message to the UE 10 (step S510), and the UE 10 completes the RRC reconfiguration via SRB1 (RRCReconfigurationComplete).
  • RRC reconfiguration RRCReconfiguration
  • SRB1 RRCReconfigurationComplete
  • the base station apparatus 130 sends an initial context setting completion (INITIAL CONTEXT SETUP RESPONSE) message to AMF209 (step S512) to notify that the setting process is completed.
  • IITIAL CONTEXT SETUP RESPONSE initial context setting completion
  • the AMF209 receives a PDU session establishment request message (see step S401 in FIG. 10) including an S-NSSAI (for example, S-NSSAI1) corresponding to a specific service from the terminal device 110, the AMF209 receives the S-NSSAI1.
  • S-NSSAI for example, S-NSSAI1
  • Select SMF206 to provide the corresponding service.
  • the specific service is, for example, a service for AR, VR, MR, SR, and XR applications.
  • the SMF206 selected to provide the service corresponding to S-NSSAI1 selects, for example, the PCF205 and UPF220 necessary to provide the service for the AR, VR, MR, SR, and XR applications.
  • the base station device 130 may determine the SPS-Config and the Configured Grant Config to be set for the downlink and the uplink with the terminal device 110 in response to the instruction of the AMF 209, respectively.
  • the base station device 130 can set SPS-Config and Configured Grant Config to the terminal device 110 via RRC.
  • the base station apparatus 130 is set in the terminal apparatus 110 by transmitting the RRC reconstruction message (see step S508 in FIG. 11) including the SPS-Config and the Configured Grant Config.
  • SPS-Config is used to set the downlink Semi-Persistent Transmission.
  • a plurality of SPS (Semi-Persistent Scheduling) can be set for one BWP (Bandwidth Part) of the serving cell.
  • Multiple SPSs are set in SPS-ConfigList.
  • the Configured Grant Config should be set by a method via PDCCH specifying CS-RNTI (Radio Network Temporary Identifier) called type 2. You can also.
  • CS-RNTI Radio Network Temporary Identifier
  • the SPS-Config information element included in the RRC message includes fields called periodicity, periodicityExt, and SPS-ConfigIndex.
  • the SPS-Config information element does not include the periodicityExt, refer to the periodicity, and if the periodicityExt is included, ignore the periodicity.
  • values of 10 ms, 20 ms, 32 ms, 40 ms, 64 ms, 80 ms, 128 ms, 160 ms, 320 ms, and 640 ms are defined as the periodicity of SPS-Config.
  • any number of slots between 1 slot and 640 slots is defined so that it can be set as the periodicity Ext.
  • the SCS is 30 kHz, it is defined so that any number of slots between 1 slot and 1280 slots can be set as the periodicity Ext.
  • the SCS is 60 kHz, any number of slots between 1 slot and 2560 slots is defined so that it can be set as a periodicity Ext.
  • the SCS is 120 kHz, any number of slots between 1 slot and 5120 slots is defined so that it can be set as a periodicity Ext.
  • the MAC entity When SPS is set, the MAC entity does not determine that the Nth downlink will be assigned to the slot (Slot # _N) in the SFN (System Frame Number) that satisfies the following formula (1). Must not be.
  • numberOfSlotsPerFrame is the number of slots in the wireless frame (for example, 10 when SCS is 15 kHz), and SFNinit and slotinit are SFNs in which SPS is set and the first PDSCH (Physical Downlink Shared Channel) is transmitted. And slot #.
  • a parameter called numberOfSlotsPerSPS may be introduced.
  • the MAC entity determines that the Nth downlink is assigned to the slots for numberOfSlotsPerSps that are consecutive at the beginning of the slot (Slot # _N) in the SFN that satisfies the above equation (1).
  • the ConfiguredGrantConfig information element includes fields called periodicity, periodicityExt, and ConfiguredGrantConfigIndex.
  • periodicityExt is not included in the ConfiguredGrantConfig information element, refer to periodicity, and if periodicityExt is included, ignore periodicity.
  • n * 14 symbols are defined as the periodicity of Configured GrantConfig.
  • n is any one of 1, 2, 4, 5, 8, 10, 16, 20, 32, 40, 64, 80, 128, 160, 320, and 640.
  • the periodicityExt of ConfiguredGrantConfig for example, when SCS is 15 kHz, the number of symbols between 1 symbol and 640 symbols is defined so that it can be set as the periodicityExt, and the period of periodicityExt * 14 symbols can be set.
  • MAC entity When CG (Configured Grant) is set, MAC entity assigns the Nth uplink to the symbol (Symbol # _N) in Slot # of SFN (System Frame Number) that satisfies the following formula (2). You have to decide what to do.
  • numberOfSlotsPerFrame is the number of slots in the wireless frame (for example, 10 when SCS is 15 kHz), and numberOfSymbolsPerSlot is the number of symbols in the slot (14 in the case of Normal CP).
  • timeDomainOffset and S are parameters obtained from SLIV (Start and length indicator value).
  • a parameter called numberOfSymbolsPerCg may be introduced.
  • the MAC entity determines that the Nth uplink is assigned to the symbols for numberOfSymbolsPerCg that are consecutive at the beginning of the symbol (Symbol # _N) in Slot # in SFN that satisfies the above equation (2).
  • FIG. 12 is a diagram for explaining an example of distribution of video data by a content distribution system.
  • moving image data is communicated between the base station device 130 and the terminal device 110 via the SPS.
  • the terminal device 110 shall use the above-mentioned time warp to double the frame rate and display a moving image.
  • the terminal device 110 which is an HMD, sends a PDU session establishment request message (see step S401 in FIG. 10) including the S-NSSAI1 to the AMF209 in order to use the XR service.
  • the AMF 209 instructs the base station device 130 to set the SPS-Config and the Configured Grant Config for the downlink and the uplink with the terminal device 110, respectively.
  • the terminal device 110 receives, for example, video data having a frame rate of 45 fps via the base station device 130 by downlink SPS (Semi-Persistent Scheduling).
  • the frame rate of the moving image data transmitted by the information processing apparatus 150 is also described as the first frame rate.
  • the terminal device 110 transmits information related to the inertia measured by the inertial measurement unit 114 via the base station device 130 by the uplink CG (Configured Grant).
  • the terminal device 110 utilizes the time warp to display the received video data at the first frame rate (45 fps) as, for example, a video at a frame rate of 90 fps.
  • the frame rate of the moving image displayed on the display unit 116 by the terminal device 110 is also referred to as a second frame rate.
  • the moving image at the second frame rate (90 fps) is displayed on the display of the terminal device 110 at a cycle of 11.11 ms. Further, it is desirable that the moving image data having the first frame rate (45 fps) can be received at a cycle of 22.22 ms ideally. However, since the SPS cycle is set in slot units (1 ms when the SCS is 15 kHz), the closest cycle is set to, for example, 22 ms.
  • Information related to the format including the frame rate of the video handled by the service corresponding to S-NSSAI1 is stored in, for example, UDR (Unified Data Repository).
  • the SMF206 acquires the information related to the format including the frame rate of the video handled by the service corresponding to S-NSSAI1 from UDR. Provided to AMF209 via NAS message.
  • the AMF209 determines the SPS cycle from the information related to the format of the acquired moving image, and instructs the base station apparatus 130 to set the SPS of the determined cycle.
  • the SMF 206 determines the SPS cycle based on the information related to the format including the frame rate of the video handled by the service corresponding to the S-NSSAI1 acquired from UDR, and the SPS is transmitted to the base station apparatus 130 via the AMF 209.
  • a cycle may be provided.
  • the period of this SPS is included in the QoS Profile included in the N2 SM information provided by the SMF 206 to the base station apparatus 130 via the AMF209, or in the QoS parameter.
  • the QoS Profile or the QoS parameter may include information for explicitly instructing the SPS setting. For example, set “sps-enabled”.
  • the SMF 206 may include the SPS cycle and information for explicitly instructing the SPS setting, for example, "sps-enabled" in the Alternative QoS Profile provided to the base station apparatus 130.
  • the information related to the format including the frame rate of the moving image handled by the service corresponding to S-NSSAI1 may be included in the PCC Rules provided from PCF205 to SMF206.
  • QFI QoS Flow Identifier
  • 5QI 5G QoS Identifier
  • the QoS flow is characterized by a QoS Profile provided by the 5GC to the base station device 130 and a QoS rule (s) provided by the 5GC to the terminal device 110.
  • the QoS Profile is used by the base station apparatus 130 to determine how to process on the wireless interface.
  • the QoS Profile includes a QoS parameter, and the QoS parameters are, for example, 5QI and ARP.
  • QoS rule (s) is used to indicate the correspondence between uplink user plane data and QoS flow.
  • the CG setting is included in the QoS rule.
  • the CG setting is the CG cycle, and information for explicitly instructing the CG setting, for example, "cg-enabled".
  • the DRB determines how packets are processed on the wireless interface.
  • the mapping between the QoS flow and the DRB by the base station apparatus 130 is performed based on the QoS Profile related to the QFI.
  • the terminal device 110 receives the moving image data at a cycle of 22 ms, and displays the moving image (frame image) on the display unit 116 at a cycle of 11.11 ms.
  • the terminal device 110 receives the moving image data D1 from the point A in a predetermined reception period.
  • the terminal device 110 displays the first moving image generated from the moving image data D1 received at the next display timing (B1 point) received. Further, the terminal device 110 displays the second moving image generated from the moving image data D1 at the B2 point as the time warp of the first moving image displayed at the B1 point (hereinafter, also referred to as a time warp display).
  • the terminal device 110 receives the moving image data in a cycle of 22 ms and displays the moving image in a display cycle of 11.11 ms. More specifically, the terminal device 110 displays the first moving image in a cycle of 22.22 ms and displays the second moving image in a time warp in a cycle of 22.22 ms.
  • the cycle in which the terminal device 110 receives the moving image data (SPS cycle) and the cycle in which the terminal device 110 displays the first moving image (first frame rate) are different. Therefore, as shown at point A in FIG. 12, even if the reception timing of the video data and the display timing of the video at the first frame rate (45 fps) are aligned at a certain point in time, the reception timing and the display timing gradually become longer. There will be a gap. Although this deviation is slight, the gradual accumulation of the deviation causes a problem that the delay amount until the display becomes too large to be ignored from the viewpoint of Motion-to-photon latency, or conversely, the display cannot be made in time. It ends up.
  • the base station apparatus 130 changes the setting regarding the reception timing when the difference between the periodic reception timing of the moving image data in the terminal device 110 and the display timing of the moving image satisfies a predetermined condition.
  • FIG. 13 is a diagram for explaining the resetting of the SPS by the base station apparatus 130 according to the embodiment of the present disclosure.
  • the terminal device 110 receives the moving image data in a cycle of 22 ms, and the terminal device 110 displays the first moving image in a cycle of 22.22 ms.
  • the base station device 130 When the absolute value of the difference between the reception timing at which the terminal device 110 receives the moving image data and the display timing of the first moving image becomes equal to or higher than a predetermined threshold value, the base station device 130 resets the SPS. conduct.
  • the base station apparatus 130 resets the current SPS setting and sets the SPS again.
  • the base station device 130 resets the SPS-Config so that the reception timing at which the terminal device 110 receives the moving image data and the display timing of the first moving image are aligned.
  • the terminal device 110 is based on the SPS-Config after resetting when the absolute value of the difference between the reception timing for receiving the moving image data and the display timing of the first moving image becomes equal to or more than a predetermined threshold value. Receive video data at the changed reception timing.
  • FIG. 14 is a flowchart showing the flow of the SPS resetting process according to the embodiment of the present disclosure.
  • FIG. 14 shows a case where the terminal device 110 performs the SPS reset processing.
  • the terminal device 110 sets the SPS based on the notification from the base station device 130 (for example, an RRC message including SPS-Config) (step 601).
  • the terminal device 110 receives moving image data from the base station device 130 at a set SPS cycle (step S602).
  • the terminal device 110 measures the cumulative time of the difference between the SPS cycle (for example, 22 ms) and the frame rate of the moving image data (for example, the first frame rate; 22.22 ms) (step S603). More specifically, each time the terminal device 110 receives the video data, the terminal device 110 accumulates the difference (0.22 ms) between the SPS cycle and the first frame rate, and displays the video data at the reception timing when the video data is received. Calculate the difference from the timing.
  • the terminal device 110 may calculate the difference between the reception timing and the display timing by calculating the difference between the time when the moving image data is received and the time when the moving image data is displayed.
  • the terminal device 110 determines whether or not the measured cumulative time is equal to or greater than a preset predetermined threshold value (step S604). If the cumulative time is less than the threshold value (step S604; No), the process returns to step S602, and the terminal device 110 receives the moving image data in the cycle of SPS.
  • step S604 when the cumulative time is equal to or longer than the threshold value (step S604; Yes), the terminal device 110 activates a process for requesting the base station device 130 to reset the SPS (step S605), and returns to step S601.
  • step S605 the terminal device 110 includes the cumulative time to be corrected or the number of slots corresponding to the cumulative time to be corrected as an offset value in the request for resetting the SPS (resetting the SPS-Config). You may want to report.
  • the base station device 130 When the base station device 130 receives the request for resetting the SPS-Config from the terminal device 110 terminal device 110, the base station device 130 resets the SPS based on the reported information on the cumulative time to be corrected.
  • the request for resetting SPS-Config is made via an RRC message.
  • the terminal device 110 executes the above SPS resetting process while receiving the moving image data.
  • the terminal device 110 requests the resetting of the SPS, but the present invention is not limited to this (that is, the request for the resetting of the SPS by the terminal device 110 does not have to be an indispensable component).
  • the base station apparatus 130 may calculate the difference from the display timing at the reception timing at which the moving image data is received to determine whether or not to reset the SPS.
  • the base station apparatus 130 acquires information regarding the frame rate of the moving image data from, for example, the information processing apparatus 150.
  • the base station apparatus 130 may acquire information regarding the frame rate of the moving image data from the NF of the UDR or the 5GC / NGC 20. Further or instead, even if the base station apparatus 130 obtains information on a higher layer that is not originally terminated (that is, information on the frame rate of video data) by reading it using DPI (Deep Packet Inspection) or the like. good.
  • DPI Deep Packet Inspection
  • the SPS may be reset to the base station apparatus 130 based on the difference from the display timing at the reception timing when the NF of the 5GC / NGC 20 receives the moving image data.
  • the SMF 206 instructs the base station apparatus 130 to reset the SPS will be described.
  • the terminal device 110 can tolerate the PDU session establishment request message (see step S401 in FIG. 10) transmitted to receive the service corresponding to the S-NSSAI1 by the terminal device 110 in addition to the S-NSSAI1. Includes the absolute value of the cumulative time of the difference between the SPS cycle and the video frame rate cycle.
  • the SMF 206 acquires the cumulative time that the S-NSSAI1 and the terminal device 110 can tolerate from the AMF209 via the Nsmf_PDUSession_CreateSMContextRequest (see step S401 in FIG. 10).
  • the terminal device 110 notifies the allowable cumulative time, but the present invention is not limited to this.
  • the SMF 206 may have a cumulative time that allows a predetermined value based on Motion-to-photon latency or the like.
  • SMF206 acquires information related to the format including the frame rate of the video handled by the service corresponding to S-NSSAI1 from UDR.
  • the SMF 206 determines the SPS cycle based on the frame rate of the moving image, and determines the period for setting the SPS based on the allowable cumulative time.
  • the period for setting the SPS is a period from the time when the SPS is set until the time when the SPS needs to be reset.
  • AMF209 acquires the cycle of SPS and the period for setting SPS from SMF206 via N2 SM information of Namf_Communication_N1N2MessageTransfer (see step S411 in FIG. 10).
  • AMF209 sets the period of SPS acquired from SMF206, the period for setting SPS, and the number of slots corresponding to the cumulative time to be corrected as an offset value via the N2 PDU session request message (see step S412 in FIG. 10). Notify the base station device 130.
  • the base station apparatus 130 sets the SPS cycle in the downlink with the terminal device 110 based on the SPS cycle acquired from the AMF 209 and the period for setting the SPS, and activates a timer for setting the SPS setting period. ..
  • the base station device 130 When the expiration date of this timer expires, the base station device 130 resets the SPS by offsetting the slot starting the SPS by the number of slots corresponding to the offset value, and resets the timer.
  • this SPS resetting process is repeated until the terminal device 110 terminates the service corresponding to S-NSSAI1.
  • 15 and 16 are diagrams for explaining an example of SPS setting by the base station apparatus 130 according to the embodiment of the present disclosure.
  • the base station apparatus 130 may set a plurality of SPSs in a plurality of consecutive slots within the period of the SPS (for example, 22 ms).
  • the base station apparatus 130 may set a plurality of SPSs in a plurality of distributed slots.
  • the base station device 130 allocates moving image data to a plurality of slots in which SPS is set and transmits the video data, for example.
  • the base station apparatus 130 may realize the resetting of the SPS by switching each SPS of the plurality of SPS.
  • the base station apparatus 130 sets SPS in a plurality of slots from the beginning of the SPS cycle, but the present invention is not limited to this.
  • the base station apparatus 130 may set SPS in a plurality of slots from the end of the SPS cycle, or may set SPS in a plurality of slots located in the center of the SPS cycle.
  • the number of resource allocations for which the base station apparatus 130 sets the SPS is set to 3, but the number is not limited to this, and may be 2 or 4 or more.
  • the base station device 130 sets intermittent reception and DRX (Discontinuous Reception) in the terminal device 110 in order to periodically monitor the PDCCH.
  • DRX discontinuous Reception
  • One of the processes performed by the terminal device 110 in the idle mode (Idle mode) is to monitor the PDCCH notifying the paging from the base station device 130. Therefore, in the idle mode, DRX for periodically monitoring the PDCCH is set in order to suppress the power consumption during standby.
  • the base station apparatus 130 can set C-DRX (Connected mode DRX) by using RRC Connection Setup or RRC Connection Reconnection.
  • C-DRX Connected mode DRX
  • the values of longDRX-Cycle are set according to the monitoring cycle of PDCCH, and the values of drxStartOffset and onDurationTimer are set based on the slot position to which PDCCH is assigned. Further, the drx-InactivityTimer is set as the period for receiving the scheduling information via the PDCCH and receiving the data indicated by the scheduling information. Further, the base station apparatus 130 can set the Short DRX in addition to the Long DRX.
  • Short DRX is set by drxShortCycleTimer and shortDRX-Cycle.
  • the connected mode terminal device 110 monitors the PDCCH according to the Long DRX setting.
  • the onDurationTimer succeeds in demolishing the PDCCH including the scheduling information over a valid period
  • the drx-InactivityTimer can be started and the data indicated by the scheduling information can be received over the valid period of the drx-InactivityTimer.
  • the terminal device 110 When the expiration date of the drx-InactivityTimer expires, the terminal device 110 starts the drxShortCycleTimer and PDs the shortDRX-Cycle with a higher frequency than the longDRX-Cycle for the period during which the drxShortCycleTimer is valid. By monitoring PDCCH with this shortDRX-Cycle, for example, the QoS of packets transmitted in a short period can be ensured. When the expiration date of the drxShortCycleTimer expires, the terminal device 110 resumes periodic monitoring of the PDCCH according to the Long DRX setting.
  • the base station device 130 sets the C-DRX in the terminal device 110 based on the PDCCH monitoring cycle and the SPS cycle. For example, when notifying PDCCH in the slot in which SPS is set, one Long DRX is set. The value of longDRX-Cycle is set according to the SPS cycle, and the values of drxStartOffset and onDurationTimer are set based on the slot position in which SPS is set. Here, when SPS is set in a plurality of consecutive slots (FIG. 15), the value of onDurationTimer is set according to the number of consecutive slots.
  • the values of DrxStartOffset and onDurationTimer of Long DRX are set according to the position of the first slot in which SPS is set, and the value of drx-InactivityTimer is set according to the position of the second and subsequent slots.
  • the value of onDurationTimer is set so that all the distributed plurality of slots are included.
  • the values of DrxStartOffset and onDurationTimer of Long DRX are set according to the position of the first slot in which SPS is set, and the values are set according to the positions of the second and subsequent slots.
  • the value of drxShortCycleTimer is set based on the period of the slots distributed and set in the SPS cycle, and the shortDRX-Cycle is set based on the period including the plurality of slots set distributedly.
  • one longDRX-Cycle value is set according to the SPS cycle, and the position of the adjacent slot and the slot in which SPS is set is set.
  • the values of drxStartOffset and onDurationTimer are set based on. That is, over the period of onDurationTimer, the PDCCH monitoring and the data sent using the slot in which the SPS is set are received.
  • the setting of this one Long DRX is reset at the timing when the SPS is reset.
  • the Long DRX is reset every time the SPS is switched.
  • the values of drxStartOffset and onDurationTimer or drx-InactivityTimer are reset based on the slot position of the switched SPS.
  • each parameter may be notified via DCI.
  • the PDCCH monitoring cycle and the SPS cycle may be flexibly set, that is, two independent Long DRXs may be set in order to set different cycles.
  • a first Long DRX is set for PDCCH monitoring and a second Long DRX is set for receiving data via the SPS.
  • the value of the first longDRX-Cycle is set according to the monitoring cycle of the PDCCH, and the values of the first drxStartOffset and the first onDurationTimer are set according to the slot for notifying the PDCCH.
  • the value of the second longDRX-Cycle is set according to the SPS cycle, and the values of the second drxStartOffset and the second onDurationTimer are set based on the slot position in which the SPS is set.
  • the terminal device 110 is the logical sum of the period of the first onDurationTimer and the period of the second onDurationTimer ( The period of OR) is determined to be the period of onDurationTimer.
  • the terminal device 110 when the end timing of the first onDurationTimer and the start period of the second onDurationTimer, or the end timing of the second onDurationTimer and the start period of the first onDurationTimer are equal to or less than a certain threshold value, the terminal device 110 It may be difficult to control the on / off of the receiving system. In such a case, the terminal device 110 avoids the problem of on / off control of the receiving system by setting a continuous period including the period of the first onDurationTimer and the period of the second onDurationTimer as the period of the third onDurationTimer. be able to.
  • the threshold value for this determination may be notified to the terminal device 110 as one of the parameters of the Long DRX (for example, DurationThold) when the second Long DRX is set. good. It should be noted that the above-mentioned concept of a slot in the setting of SPS or DRX may include a mini slot.
  • FIG. 17 is a diagram for explaining an example of setting SPS by the base station apparatus 130 according to the embodiment of the present disclosure.
  • the base station apparatus 130 sets a plurality of SPS having the same cycle within the cycle of the SPS (for example, 22 ms).
  • the base station device 130 sets resource allocations 701 to 704 corresponding to four SPSs having an arbitrary slot spacing in the downlink with the terminal device 110, for example.
  • the base station apparatus 130 can individually activate each resource allocation of a plurality of set resource allocations by using DCI (Downlink Control Information).
  • DCI Downlink Control Information
  • the base station apparatus 130 initially activates only the SPS corresponding to the resource allocation 701.
  • the base station apparatus 130 uses DCI to deactivate the SPS corresponding to the resource allocation 701 and activate the SPS corresponding to the resource allocation 702.
  • the base station apparatus 130 uses DCI to deactivate the SPS corresponding to the resource allocation 702 and activate the SPS corresponding to the resource allocation 703.
  • the base station apparatus 130 uses DCI to deactivate the SPS corresponding to the resource allocation 703, and the base station apparatus 130 activates the SPS corresponding to the resource allocation 704.
  • the base station apparatus 130 uses DCI to deactivate the SPS corresponding to the resource allocation 704 and activates the SPS corresponding to the resource allocation 701.
  • the base station device 130 may notify the terminal device 110 of the offset of the SPS before and after the switching by using, for example, DCI.
  • the SMF 206 notifies the base station apparatus 130.
  • CG resetting> In applications such as AR, VR, MR, SR, and XR that watch free-viewpoint video and real-time video with HMD, it is important to keep Motion-to-photon latency within a certain value as described above. Become. Therefore, in order to reflect the movement of the head, the viewpoint, or the change in the visual field including the viewpoint in each frame image of the moving image, a periodic uplink is generated to transmit the latest inertia information detected by the terminal device 110. do. Therefore, when the terminal device 110 sends a PDU session establishment request for receiving the service corresponding to S-NSSAI1 to AMF209, 5GC sets CG (Configured Grant) in addition to the above-mentioned SPS.
  • the CG setting method the same method as the SPS setting method described so far can be used.
  • the selected SMF206 may use AF208 to provide the service corresponding to S-NSSAI1.
  • the AF208 determines the SPS setting, for example, when the application used by the terminal device 110 requires periodic downlink reception. Further, if the application involves receiving a video, the AF 208 identifies the format of the video and determines the required SPS settings according to the format of the identified video.
  • the AF 208 may determine the CG setting when the application used by the terminal device 110 requires periodic uplink transmission. For example, in order to reflect the information related to the inertia detected by the terminal device 110 in the moving image received by the application, the CG setting in consideration of the frame rate of the moving image is determined. That is, the AF208 assists the settings required for receiving the video data and the settings required for transmitting the information used for generating the video data (for example, information related to inertia) based on the video format handled by the application. The information to be used is provided to another NF or the base station device 130.
  • the SPS setting and CG setting determined by AF208 are provided to the base station apparatus 130 via SMF206 and AMF209.
  • the base station device 130 may reconfigure the Configured GrantConfig (CGConfig). Such points will be described with reference to FIGS. 18 and 19.
  • 18 and 19 are diagrams for explaining the resetting of CG by the base station apparatus 130 according to the embodiment of the present disclosure.
  • the information processing apparatus 150 periodically receives the inertial measurement information via the base station apparatus 130 during the inertial measurement information receiving period.
  • the cycle at this time is determined by the cycle of the uplink communication in which the base station device 130 receives the inertial measurement information from the terminal device 110, and coincides with, for example, the CG cycle set by the Configured Grant Config.
  • the information processing device 150 executes a moving image data generation process based on the received inertial measurement information to generate moving image data, and transmits the moving image data to the terminal device 110 via the base station device 130.
  • Such moving image data is transmitted in the SPS cycle by data transmission using SPS.
  • the information processing device 150 can generate moving image data based on the most recently received inertial measurement information.
  • the base station apparatus 130 resets the SPS. This causes a shift in data transmission using the SPS.
  • the SPS is reset so that the transmission timing of the data transmission using the SPS is earlier. Therefore, even if the information processing device 150 generates the moving image data based on the inertial measurement information received most recently, the moving image data cannot be transmitted because the transmission timing after the resetting is not met. Alternatively, in order to transmit the moving image data, the information processing apparatus 150 has to generate the moving image data using the inertial measurement information received before the latest.
  • the base station apparatus 130 resets the Configured Grant (CG) when the SPS is reset. At this time, it is desirable that the base station apparatus 130 resets the CG before the timing of resetting the SPS. As a result, even if the SPS is reset, the moving image data can be generated based on the latest inertial measurement information received by the information processing apparatus 150 most recently.
  • CG Configured Grant
  • the base station apparatus 130 resets the SPS or CG to reduce the deviation between the communication timing and the display timing generated in the terminal apparatus 110, but the method for reducing the deviation is not limited to this. ..
  • the terminal device 110 may reduce the deviation by adjusting the number of time warp images displayed by using the time warp.
  • FIG. 20 is a diagram for explaining an example of display processing by the terminal device 110 according to the embodiment of the present disclosure.
  • the terminal device 110 generates and displays a frame image (hereinafter, also referred to as a first image) from the moving image data received in the reception period of the SPS cycle using the latest information on inertia. .. Further, the terminal device 110 displays the frame image (time warp image) generated in the same manner in a time warp. The terminal device 110 displays the first image or the time warp image as a frame image at the second frame rate.
  • a frame image hereinafter, also referred to as a first image
  • the terminal device 110 displays the frame image (time warp image) generated in the same manner in a time warp.
  • the terminal device 110 displays the first image or the time warp image as a frame image at the second frame rate.
  • the reception of the moving image data may not be in time for the display timing of the first image.
  • FIG. 20 there is a state in which the reception of the moving image data is not in time for the display timing of the first image at the point B.
  • the terminal device 110 displays a time warp image in which a time warp is applied to the moving image data received at the reception timing before that at the timing when the first image is originally displayed.
  • the terminal device 110 can delay the display timing of the first image by half a cycle, and can display the first image generated by using the most recently received moving image data.
  • FIG. 21 is a diagram for explaining another example of display processing by the terminal device 110 according to the embodiment of the present disclosure.
  • the cumulative time of the difference between the SPS cycle and the first frame rate cycle is greater than or equal to a certain threshold value, and the delay from receiving the video data to the display timing for displaying the first image is Motion-. It is assumed that the to-photon latency has become so large that it cannot be ignored.
  • the terminal device 110 is from the most recently received video data at the timing (point C) of displaying the time warp image in which the time warp is applied to the video data received at the previous reception timing.
  • the generated first image is displayed.
  • the terminal device 110 can advance the display timing of the first image by half a cycle, and can reduce the influence of Motion-to-photon latency.
  • the base station apparatus 130 may allocate the moving image data divided into a plurality of areas to a plurality of SPSs according to the priority of each area.
  • each of the divided moving image data is, for example, data called a segment.
  • 22 to 25 are diagrams for explaining an example of video data allocation processing by the base station apparatus 130 according to the embodiment of the present disclosure.
  • the information processing device 150 sets the user's viewpoint or the field of view including the viewpoint based on the latest inertial information acquired from the terminal device 110. Further, the information processing apparatus 150 determines a region so that the set visual field or the visual field point is at the center, and generates moving image data of the determined region.
  • the information processing apparatus 150 divides the generated moving image data into a plurality of areas. Then, the information processing apparatus 150 changes the resolution of the divided area according to the distance between the set user's viewpoint and the divided area.
  • the information processing apparatus 150 generates moving image data assuming that the user's viewpoint is located at the center of the moving image data, and divides the generated moving image data into nine areas of 3 ⁇ 3.
  • the information processing apparatus 150 sets the highest resolution of the centrally located region 801 of the divided regions (high resolution). Further, the information processing apparatus 150 sets the resolution of the regions 806 to 809 farthest from the viewpoint and located at the corners of the moving image data among the divided regions to be the lowest (low resolution). The information processing apparatus 150 sets the resolution of the remaining areas 802 to 805 to a resolution between high resolution and low resolution (medium resolution).
  • the regions 802 to 805 are regions that are in contact with the region 801 closest to the viewpoint on the side, and the regions 806 to 809 are regions that are in contact with the regions 802 to 805 on the sides.
  • the number of divisions of the image data is not limited to nine.
  • the number of divisions may be 2 or more and 8 or less, or 10 or more.
  • the case where the resolution of the area is divided into three, low, medium, and high, has been described, but the number of resolutions is not limited to three.
  • the number of resolutions may be two or four or more.
  • the present invention is not limited to the case where the sizes of the regions are the same. For example, it may be divided into regions of different sizes.
  • the information processing apparatus 150 selects moving image formats having different resolutions according to the distance from the viewpoint to generate moving image data.
  • the information processing device 150 may select a moving image format having a different resolution based on the communication quality between the terminal device 110 and the base station device 130 in addition to the distance from the viewpoint.
  • the AF 208 includes a wireless communication quality acquisition unit (not shown) to acquire the communication quality between the terminal device 110 and the base station device 130 from the base station device 130.
  • the wireless communication quality acquisition unit provides the information processing device 150 with the communication quality between the terminal device 110 and the base station device 130 acquired from the base station device 130.
  • the AF 208 assigns a priority according to the resolution of each region of the moving image.
  • High-resolution regions 801 are assigned high priority
  • medium-resolution regions 802 to 805 are assigned medium priority
  • low-resolution regions 806 to 809 are assigned low priority.
  • the priorities are, for example, QFI (QoS Flow identifier) and 5QI (5G QoS Identifier).
  • QoS flow is the finest grain size concept that differentiates QoS within a PDU session, and in 5GS, QoS flows are identified by QoS.
  • N3 between the UPF 220 and the RAN / AN230 corresponding to the base station apparatus 130 each data flow is sent with an encapsulated QFI attached to the header.
  • QFI may be equivalent to 5QI.
  • AMF209 determines the SPS setting including the SPS cycle based on the frame rate of the moving image in each priority area.
  • the AMF 209 may have the same frame rate of the moving image in each priority area, or may lower the frame rate of the moving image in the lower priority area.
  • the SPS setting for each priority is determined in consideration of receiving the moving image in the higher priority area to the terminal device 110 in time before the moving image in the lower priority area. ..
  • the setting of SPS for each priority determined by AMF209 is provided to the base station apparatus 130 via SMF206 and AMF209.
  • the base station apparatus 130 executes SPS resource allocation based on the SPS setting for each priority acquired from AMF209.
  • the base station apparatus 130 has a periodic resource allocation of SPS for high priority 810, a periodic resource allocation of SPS for medium priority 811 and a periodic resource allocation of SPS for low priority. Set the allocation 812.
  • the base station device 130 identifies the priority based on the QFI added to the data flow received from the UPF 220, and transmits the data of each area of the moving image data by using the resource allocation according to the priority. For example, the base station apparatus 130 transmits the high priority region 801 to the terminal apparatus 110 using the resource allocation 810. Similarly, the base station apparatus 130 transmits the medium priority areas 802 to 805 to the terminal device 110 using the resource allocation 811 and the low priority areas 806 to 809 using the resource allocation 812 to terminal. It is transmitted to the device 110.
  • the information including the mapping required for the rendering unit 1153 of the terminal device 110 to restore the divided moving image into one moving image and the format of each area is a periodic resource allocation for sending high priority data. Sent using 810.
  • the information including the mapping required for restoring the divided moving image to one moving image and the format of each area may be, for example, MPD (Media Presentation Description) or a file for a similar purpose. ..
  • the rendering unit 1153 can apply a decoding method suitable for the format of each divided area and restore it as moving image data of one area.
  • the rendering unit 1153 displays the timing of the frame of the moving image (for example, FIG. 12) based on the timing set by the SPS that first received the data via the periodic resource allocation 810 (see, for example, point A in FIG. 12). Refer to point B1 of). For example, a period required for decoding, a period required for rendering processing, and an offset period in consideration of a margin are applied to the timing of the frame of this moving image. This offset period is controlled by the video application control unit 1151.
  • the information processing apparatus 150 sets the highest priority of the centrally located area 801 closest to the viewpoint among the divided areas (high priority). Further, the information processing apparatus 150 sets the priority of the regions 806 to 809 farthest from the viewpoint and located at the corners of the moving image data among the divided regions to be the lowest (low priority). The information processing apparatus 150 sets the priority of the remaining areas 802 to 805 to the priority between the high priority and the low priority (medium priority).
  • the priorities are, for example, QFI and 5QI.
  • the order of transmission may be determined based on pixels.
  • the information processing apparatus 150 gives priority to the information of pixels at a specific part of the frame image so that the information processing apparatus 150 can display a low-resolution image even if the terminal apparatus 110 cannot receive the information of all the pixels within a predetermined period. And send. Then, it is controlled to send the information of the remaining pixels.
  • the base station apparatus 130 transmits data of each region to the terminal apparatus 110 according to the priority based on the pixel.
  • the rendering unit 1153 synthesizes a plurality of received low-resolution frame images to generate a high-resolution frame image.
  • the information processing device 150 generates moving image data based on the information related to inertia and transmits it to the terminal device 110. That is, the information processing apparatus 150 is supposed to generate moving image data according to the user's viewpoint from, for example, 360-degree moving image information and transmit it to the terminal device 110, but the present invention is not limited to this.
  • the information processing device 150 may transmit the 360-degree moving image data as it is to the terminal device 110.
  • the information processing apparatus 150 may reduce the amount of transmitted data by transmitting, for example, 360-degree moving image data having a low resolution. Further, the information processing apparatus 150 may transmit both the moving image data according to the user's viewpoint and the 360-degree moving image data having a reduced resolution to the terminal device 110.
  • the NF of the base station device 130 or the 5GC / NGC 20 acquires the frame rate, but the present invention is not limited to this. That is, the information regarding the frame rate acquired by the NF of the base station apparatus 130 or 5GC / NGC 20 is not only the frame rate value itself (for example, 45 fps or 90 fps) but also the index corresponding to the frame rate (for example, QFI or 5QI). ) May be.
  • the frame rate is included in the information for restoring this divided video to one video. May include information about.
  • the NF of the base station apparatus 130 or the 5GC / NGC 20 may acquire the frame rate via the information for restoring the divided moving image into one moving image.
  • the terminal device 110 receives the moving image data by the downlink and transmits the information related to the inertia by the uplink has been described, but the present invention is not limited to this.
  • the data received by the terminal device 110 may be any data that is received in real time and periodically, and may be other than moving image data.
  • the data transmitted by the terminal device 110 may be any data that is transmitted in real time and periodically, and may be other than the information related to inertia.
  • the technique of the present disclosure can be applied to various data communications performed in real time and periodically.
  • the SPS or CG settings described above are augmented reality (Argument Reality (AR)) / virtual reality (VR) / mixed reality (MR) / alternative reality.
  • AR Augment Reality
  • VR virtual reality
  • MR mixed reality
  • SR substitutional Reality
  • 5G NR New Radio
  • AR / VR services are expected to be 5G NR killer content.
  • 3GPP TR 22.842 v17.1.0 and TS 22.261 v17.0.1 stipulate the requirements for rendering game images for cloud games using AR / VR. More specifically, these technical specifications and reports describe motion-to-photon delay and motion- as permissible delays at a level that AR / VR users do not feel uncomfortable with the movement of images in rendering game images. The to-sound delay is described as follows.
  • -Motion-to-photon delay The motion-to-photon delay is in the range of 7-15ms while maintaining the required data rate (1Gbps). -Motion-to-sound delay: less than 20ms.
  • the motion-to-photon delay is defined as the delay between the physical movement of the user's head and the updated image in the AR / VR headset (eg Head Mount Display).
  • the motion-to-sound delay is also defined as the delay between the physical movement of the user's head and the updated sound waves within the head-mounted speaker that reach the user's ears.
  • the AR / VR headset and the head mount speaker here may be the terminal device 110 in the present disclosure.
  • -Max Allowed End-to-end latency 5ms (ie, uplink and downlink between the interface to the terminal (eg, terminal device 110) and the data network (eg, the network where the Application Function (AF) is located)).
  • the total allowable delay of the link is 5ms
  • -Service bit rate user-experienced data rate: 0.1 Gbps (100 Mbps) (that is, throughput that can support AR / VR content).
  • the rendering here includes Cloud rendering, Edge rendering or Split rendering.
  • Cloud rendering renders AR / VR data on the cloud of the network (on a certain entity based on the core network (including UPF) deployment and data network (including application server and AF) deployment that does not consider the user's location). Will be done.
  • Edge rendering is based on the placement of the core network (including UPF) and the data network (including application server and AF) on the edge of the network (for example, Edge Computing Server (Edge Computing)).
  • AR / VR data is rendered on the application server)) in the network deployment for network deployment.
  • Split rendering is done partly on the cloud and partly on the edge. Means rendering.
  • FIG. 26 is an image diagram of a rendering server and an AR / VR client related to rendering.
  • FIG. 26 is described in the technical report described above.
  • the AR / VR client may correspond to the terminal device 110 in the present disclosure.
  • the Cloud Render Server may correspond to the information processing device 150 in the present disclosure.
  • the Cloud Render Server is an application server (for example, Edge Computing Server) for edge computing in LADN (Local Area Data Network) whose interface is the Local UPF connected to the base station device 130 in the present disclosure. You may.
  • the Cloud Render Server may be named Edge Render Server or Split Render Server.
  • each component of each device shown in the figure is a functional concept, and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or part of them may be functionally or physically distributed / physically in arbitrary units according to various loads and usage conditions. Can be integrated and configured.
  • a wireless communication unit that sends video data to the terminal device at a predetermined cycle, When the difference between the periodic reception timing at which the terminal device receives the moving image data and the display timing of the moving image data displayed on the terminal device at a predetermined frame rate satisfies a predetermined condition, the said A control unit that changes the settings related to reception timing, and Base station equipment.
  • the setting regarding the reception timing is a Semi-Persistent Scheduling (SPS) setting.
  • SPS Semi-Persistent Scheduling
  • the base station device changes the setting regarding the reception timing in response to a request from the terminal device.
  • the control unit changes the setting regarding the reception timing in response to an instruction from a network function belonging to the network to be connected.
  • the base station apparatus acquires information regarding the frame rate from a content server that acquires the moving image data.
  • the terminal device generates an image from the moving image data based on information about a user's viewpoint, and when displaying the moving image data at a second frame rate larger than the frame rate, the terminal device is generated according to the difference.
  • the base station apparatus according to any one of (1) to (9), wherein the number of the images is adjusted.
  • the control unit transmits each region obtained by dividing the moving image data into a plurality of regions with the setting of the reception timing according to the priority of the region.
  • the priority of the area is set based on information about the user's point of view.
  • the base station apparatus according to any one of (1) to (10).
  • (12) The priority of the area is set according to the resolution of the area set based on the information about the viewpoint of the user.
  • the base station apparatus according to (11).
  • a wireless communication unit that receives video data from a base station device at a predetermined cycle, and A control unit that displays the moving image data at a predetermined frame rate, and Equipped with The wireless communication unit is changed when the difference between the periodic reception timing for receiving the moving image data and the display timing for displaying the moving image data at the predetermined frame rate satisfies a predetermined condition.
  • a wireless communication unit that receives information about the user from the terminal device in the first cycle and transmits moving image data generated based on the information about the user in the second cycle.
  • the said A control unit that changes the setting related to the transmission timing at which the terminal device periodically transmits information about the user, and Base station equipment.
  • the control unit further sets an intermittent reception cycle and an ON period based on the setting regarding the reception timing.
  • the base station apparatus wherein the control unit sets one intermittent reception as the setting of the intermittent reception, and allocates a downlink control channel to the on period in the setting of the one intermittent reception.
  • the control unit sets a second intermittent reception different from the first intermittent reception setting for monitoring the downlink control channel.
  • the base station apparatus according to (17), wherein the second intermittent reception cycle and the on period are set based on the setting regarding the reception timing.
  • the control unit sets a threshold value related to the interval between the first on period of the first intermittent reception and the second on period of the second intermittent reception.
  • the base station apparatus according to (19).
  • the wireless communication unit sets a threshold value related to the interval between the first on period of the first intermittent reception and the second on period of the second intermittent reception.
  • the first 22 is equal to or less than the threshold value.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

基地局装置(130)は、無線通信部(131)と、制御部(134)と、を備える。無線通信部(131)は、動画データを端末装置(110)に所定の周期で送信する。制御部(134)は、端末装置(110)が動画データを受信する周期的な受信タイミングと、所定のフレームレートで端末装置(110)に表示される動画データの表示タイミングと、の差が、所定の条件を満たす場合に、受信タイミングに関する設定を変更する。

Description

基地局装置、端末装置及び通信方法
 本開示は、基地局装置、端末装置及び通信方法に関する。
 セルラー移動通信の無線アクセス方式および無線ネットワーク(以下、「Long Term Evolution(LTE)」、「LTE-Advanced(LTE-A)」、「LTE-Advanced Pro(LTE-A Pro)」、「New Radio(NR)」、「New Radio Access Technology(NRAT)」、「Evolved Universal Terrestrial Radio Access(EUTRA)」、または「Further EUTRA(FEUTRA)」とも称する。)が、第三世代パートナーシッププロジェクト(3rd Generation Partnership Project: 3GPP)において検討されている。なお、以下の説明において、LTEは、LTE-A、LTE-A Pro、およびEUTRAを含み、NRは、NRAT、およびFEUTRAを含む。LTEでは基地局装置(基地局、通信装置)はeNodeB(evolved NodeB)、NRでは基地局装置(基地局、通信装置)はgNodeB、LTE及びNRでは端末装置(移動局、移動局装置、端末、通信装置)はUE(User Equipment)とも称する。LTE及びNRは、基地局装置がカバーするエリアをセル状に複数配置するセルラー通信システムである。単一の基地局装置は複数のセルを管理してもよい。
 NRは、超高速、低遅延・高信頼、多数同時接続という特徴を有する。かかる特徴を生かしたNRのユースケースの一つとして、例えば、Augmented Reality (AR)及びVirtual Reality(VR)を用いたサービスでの活用が検討されている。例えば、AR技術であれば、実空間の画像に撮像された実オブジェクトに対して、テキスト、アイコン、またはアニメーション等の様々な態様の仮想的なコンテンツを重畳してユーザに提示することが可能となる。非特許文献1や非特許文献2は、Augmented Reality (AR)及びVirtual Reality(VR)を用いたサービス(e.g., AR/VRゲーム)のユースケース及び(潜在的な)要求条件を開示する。
3GPP TR 22.842, V17.1.0 (2019-09) 3rd Generation Partnership Project; Technical Specification Group Services and System Aspects; Study on Network Controlled Interactive Services (Release 17) 3GPP TS 22.261 v17.0.1 (2019-10) 3rd Generation Partnership Project; Technical Specification Group Services and System Aspects ; Service requirements for next generation new services and markets (Release 17)
 NRは、超高速、低遅延・高信頼、多数同時接続という特徴から、4Kや8Kの動画の伝送が期待される。また、ポスト・スマートフォンとして、ウェアラブルデバイスの普及も予想される。ウェアラブルデバイスのユースケースの中には、超高速という側面だけでなく、低遅延・高信頼という側面の考慮も必要なユースケースがある。例えば、無線を介してHMD(Head Mounted Display)にVRコンテンツを表示するようなケースでは、VR酔いを起こさせないためにMotion-to-photon latencyを一定値以内に抑えることが重要となる。このように、リアルタイム性が要求される動画コンテンツを、安定して表示できるように配信することが求められる。
 そこで、本開示では、安定して表示可能な動画コンテンツ配信の実現に寄与する技術を提案する。
 なお、上記課題又は目的は、本明細書に開示される複数の実施形態が解決し得、又は達成し得る複数の課題又は目的の1つに過ぎない。
 本開示によれば、基地局装置が提供される。基地局装置は、無線通信部と、制御部と、を備える。無線通信部は、動画データを端末装置に所定の周期で送信する。制御部は、前記端末装置が前記動画データを受信する周期的な受信タイミングと、所定のフレームレートで前記端末装置に表示される前記動画データの表示タイミングと、の差が、所定の条件を満たす場合に、前記受信タイミングに関する設定を変更する。
本開示の実施形態に係るコンテンツ配信システムの構成例を示す図である。 本開示の実施形態に係る情報処理装置の構成例を示す図である。 本開示の実施形態に係る基地局装置の構成例を示す図である。 本開示の実施形態に係る端末装置の構成例を示す図である。 5Gのアーキテクチャの一例を示す図である。 本開示の実施形態に係るコンテンツ配信処理の一例を示すシーケンス図である。 本開示の実施形態に係るレンダリング処理の一例を説明するための図である。 本開示の実施形態に係るレンダリング処理の他の例を説明するための図である。 本開示の実施形態に係る登録処理の一例を示すシーケンス図である。 本開示の実施形態に係るPDUセッション確立処理の一例を示すシーケンス図である。 本開示の実施形態に係るRRC_CONNECTED遷移処理の一例を示すシーケンス図である。 コンテンツ配信システムによる動画データの配信の一例について説明するための図である。 本開示の実施形態に係る基地局装置によるSPSの再設定について説明するための図である。 本開示の実施形態に係るSPS再設定処理の流れを示すフローチャートである。 本開示の実施形態に係る基地局装置によるSPS設定例を説明するための図である。 本開示の実施形態に係る基地局装置によるSPS設定例を説明するための図である。 本開示の実施形態に係る基地局装置によるSPSの設定例を説明するための図である。 本開示の実施形態に係る基地局装置によるCGの再設定について説明するための図である。 本開示の実施形態に係る基地局装置によるCGの再設定について説明するための図である。 本開示の実施形態に係る端末装置による表示処理の一例を説明するための図である。 本開示の実施形態に係る端末装置による表示処理の他の例を説明するための図である。 本開示の実施形態に係る基地局装置による動画データの割り当て処理の一例について説明するための図である。 本開示の実施形態に係る基地局装置による動画データの割り当て処理の一例について説明するための図である。 本開示の実施形態に係る基地局装置による動画データの割り当て処理の一例について説明するための図である。 本開示の実施形態に係る基地局装置による動画データの割り当て処理の一例について説明するための図である。 レンダリングに関するレンダリングサーバとAR/VRクライアントのイメージ図である。
 以下に添付図面を参照しながら、本開示の実施形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 また、本明細書及び図面において、実施形態の類似する構成要素については、同一の符号の後に異なるアルファベットを付して区別する場合がある。ただし、類似する構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
 以下に説明される1又は複数の実施形態(実施例、変形例を含む)は、各々が独立に実施されることが可能である。一方で、以下に説明される複数の実施形態は少なくとも一部が他の実施形態の少なくとも一部と適宜組み合わせて実施されてもよい。これら複数の実施形態は、互いに異なる新規な特徴を含み得る。したがって、これら複数の実施形態は、互いに異なる目的又は課題を解決することに寄与し得、互いに異なる効果を奏し得る。
 なお、説明は以下の順序で行うものとする。
  1.コンテンツ配信システムの構成例
   1.1.コンテンツ配信システムの全体構成例
   1.2.情報処理装置の構成例
   1.3.基地局装置の構成例
   1.4.端末装置の構成例
   1.5.ネットワークアーキテクチャの構成例
  2.コンテンツ配信システムの情報処理例
   2.1.コンテンツ配信処理例
   2.2.レンダリング処理例
   2.3.通信処理例
  3.技術的課題
  4.技術的特徴
   4.1.SPSの再設定
   4.2.複数のSPS設定
   4.3.CGの再設定
   4.4.タイムワープの変更
   4.5.優先度の設定
  5.その他の実施形態
  6.適用例
  7.むすび
 <<1.コンテンツ配信システムの構成例>>
 <1.1.コンテンツ配信システムの全体構成例>
 図1は、本開示の実施形態に係るコンテンツ配信システム100の構成例を示す図である。コンテンツ配信システム100は、無線アクセスネットワークを介して端末装置110に動画コンテンツを配信するシステムである。ここで、無線アクセスネットワークは、E-UTRAN(Evolved Universal Terrestrial Radio Access Network)やNG-RAN(Next Generation Radio Access Network)であってもよい。
 コンテンツ配信システム100は、端末装置110と、基地局装置130と、情報処理装置150と、を備える。コンテンツ配信システム100では、基地局装置130を介して、情報処理装置150から端末装置110へと動画コンテンツが配信される。
 端末装置110及び基地局装置130は、上述した無線アクセスネットワークを介して接続される。基地局装置130及び情報処理装置150は、無線又は有線のアクセスネットワークを介して接続され得る。
 なお、図中の装置は、論理的な意味での装置と考えてもよい。つまり、同図の装置の一部が仮想マシン(VM:Virtual Machine)、コンテナ(Container)、ドッカー(Docker)などで実現され、それらが物理的に同一のハードウェア上で実装されてもよい。
 なお、LTEの基地局は、eNodeB(Evolved Node B)又はeNBと称されることがある。また、NRの基地局は、NGRAN Node(Next Generation RAN node)、gNodeB又はgNBと称されることがある。また、LTE及びNRでは、端末装置(移動局、移動局装置、又は端末ともいう。)はUE(User Equipment)と称されることがある。なお、端末装置は、通信装置の一種であり、移動局、移動局装置、又は端末とも称される。
 本実施形態において、通信装置という概念には、携帯端末等の持ち運び可能な移動体装置(端末装置)のみならず、構造物や移動体に設置される装置も含まれる。構造物や移動体そのものを通信装置とみなしてもよい。また、通信装置という概念には、端末装置のみならず、基地局装置も含まれる。通信装置は、処理装置及び情報処理装置の一種である。また、通信装置は、送信装置又は受信装置と言い換えることが可能である。
 [情報処理装置]
 情報処理装置150は、端末装置110に動画コンテンツを管理するコンテンツ管理装置である。情報処理装置150は、例えばパーソナルコンピュータ、ワークステーション、或いは、ゲーム装置である。また、情報処理装置150は、クラウドサーバ(Cloud Server)、エッジサーバ(Edge Server)と総称される装置であってもよい。
 [基地局装置]
 基地局装置130は、端末装置110と無線通信する無線通信装置である。基地局装置130は通信装置の一種である。また、基地局装置130は情報処理装置の一種である。
 基地局装置130は、複数の物理的又は論理的装置の集合で構成されていてもよい。例えば、本開示の実施形態において基地局装置130は、BBU(Baseband Unit)及びRU(Radio Unit)の複数の装置に区別され、これら複数の装置の集合体として解釈されてもよい。さらに又はこれに代えて、本開示の実施形態において基地局装置130は、BBU及びRUのうちいずれか又は両方であってもよい。BBUとRUとは所定のインタフェース(例えば、eCPRI)で接続されていてもよい。さらに又はこれに代えて、RUはRemote Radio Unit(RRU)又はRadio DoT(RD)と称されていてもよい。さらに又はこれに代えて、RUは後述するgNB-DUに対応していてもよい。さらに又はこれに代えてBBUは、後述するgNB-CUに対応していてもよい。さらに又はこれに代えて、RUはアンテナと一体的に形成された装置であってもよい。基地局装置130が有するアンテナ(例えば、RUと一体的に形成されたアンテナ)はAdvanced Antenna Systemを採用し、MIMO(例えば、FD-MIMO)やビームフォーミングをサポートしていてもよい。Advanced Antenna Systemは、基地局装置130が有するアンテナ(例えば、RUと一体的に形成されたアンテナ)は、例えば、64個の送信用アンテナポート及び64個の受信用アンテナポートを備えていてもよい。また、RUに搭載されるアンテナは、1つ以上のアンテナ素子から構成されるアンテナパネルであってもよく、RUは、1つ以上のアンテナパネルを搭載してもよい。例えば、RUは、水平偏波のアンテナパネルと垂直偏波のアンテナパネルの2種類のアンテナパネル、或いは、右旋円偏波のアンテナパネルと左旋円偏波のアンテナパネルの2種類のアンテナパネルを搭載してもよい。また、RUは、アンテナパネル毎に独立したビームを形成し、制御してもよい。
 また、基地局装置130は、複数が互いに接続されていてもよい。1つ又は複数の基地局装置130は無線アクセスネットワーク(Radio Access Network:RAN)に含まれていてもよい。すなわち、基地局装置130は単にRAN、RANノード、AN(Access Network)、ANノードと称されてもよい。LTEにおけるRANはEUTRAN(Enhanced Universal Terrestrial RAN)と呼ばれる。NRにおけるRANはNGRANと呼ばれる。W-CDMA(UMTS)におけるRANはUTRANと呼ばれる。LTEの基地局装置130は、eNodeB(Evolved Node B)又はeNBと称される。すなわち、EUTRANは1又は複数のeNodeB(eNB)を含む。また、NRの基地局装置130は、gNodeB又はgNBと称される。すなわち、NGRANは1又は複数のgNBを含む。さらに、EUTRANは、LTEの通信システム(EPS)におけるコアネットワーク(EPC)に接続されたgNB(en-gNB)を含んでいてもよい。同様にNGRANは5G通信システム(5GS)におけるコアネットワーク5GCに接続されたng-eNBを含んでいてもよい。さらに又はこれに代えて、基地局装置130がeNB、gNBなどである場合、3GPP Accessと称されてもよい。さらに又はこれに代えて、基地局装置130が無線アクセスポイント(Access Point)である場合、Non-3GPP Accessと称されてもよい。さらに又はこれに代えて、基地局装置130は、RRH(Remote Radio Head)と呼ばれる光張り出し装置であってもよい。さらに又はこれに代えて、基地局装置130がgNBである場合、基地局装置130は前述したgNB CU(Central Unit)とgNB DU(Distributed Unit)の組み合わせ又はこれらのうちいずれかと称されてもよい。gNB CU(Central Unit)は、UEとの通信のために、Access Stratumのうち、複数の上位レイヤ(例えば、RRC、SDAP、PDCP)をホストする。一方、gNB-DUは、Access Stratumのうち、複数の下位レイヤ(例えば、RLC、MAC、PHY)をホストする。すなわち、後述されるメッセージ・情報のうち、RRC signalling(例えば、MIB、SIB1を含む各種SIB、RRCSetup message、RRCReconfiguration message)はgNB CUで生成され、一方で後述されるDCIや各種Physical Channel(例えば、PDCCH、PBCH)はgNB-DUは生成されてもよい。又はこれに代えて、RRC signallingのうち、例えばIE:cellGroupConfigなど一部のconfigurationについてはgNB-DUで生成され、残りのconfigurationはgNB-CUで生成されてもよい。これらのconfigurationは、後述されるF1インタフェースで送受信されてもよい。基地局装置130は、他の基地局装置130と通信可能に構成されていてもよい。例えば、複数の基地局装置130がeNB同士又はeNBとen-gNBの組み合わせである場合、当該基地局装置130間はX2インタフェースで接続されてもよい。さらに又はこれに代えて、複数の基地局装置130がgNB同士又はgn-eNBとgNBの組み合わせである場合、当該装置間はXnインタフェースで接続されてもよい。さらに又はこれに代えて、複数の基地局装置130がgNB CU(Central Unit)とgNB DU(Distributed Unit)の組み合わせである場合、当該装置間は前述したF1インタフェースで接続されてもよい。後述されるメッセージ・情報(RRC signalling又はDCIに含まれる情報)は複数基地局装置130間で(例えばX2、Xn、F1インタフェースを介して)通信されてもよい。
 さらに、前述の通り、基地局装置130は、複数のセルを管理するように構成されていてもよい。基地局装置130により提供されるセルはServing cellと呼ばれる。Serving cellはPCell(Primary Cell)及びSCell(Secondary Cell)を含む。Dual Connectivity (例えば、EUTRA-EUTRA Dual Connectivity、EUTRA-NR Dual Connectivity(ENDC)、EUTRA-NR Dual Connectivity with 5GC、NR-EUTRA Dual Connectivity(NEDC)、NR-NR Dual Connectivity)がUE(例えば、端末装置110)に提供される場合、MN(Master Node)によって提供されるPCell及びゼロ又は1以上のSCell(s)はMaster Cell Groupと呼ばれる。さらに、Serving cellはPSCell(Primary Secondary Cell又はPrimary SCG Cell)を含んでもよい。すなわち、Dual ConnectivityがUEに提供される場合、SN(Secondary Node)によって提供されるPSCell及びゼロ又は1以上のSCell(s)はSecondary Cell Group(SCG)と呼ばれる。特別な設定(例えば、PUCCH on SCell)がされていない限り、物理上りリンク制御チャネル(PUCCH)はPCell及びPSCellで送信されるが、SCellでは送信されない。また、Radio Link FailureもPCell及びPSCellでは検出されるが、SCellでは検出されない(検出しなくてよい)。このようにPCell及びPSCellは、Serving Cell(s)の中で特別な役割を持つため、Special Cell(SpCell)とも呼ばれる。1つのセルには、1つのDownlink Component Carrierと1つのUplink Component Carrierが対応付けられてもよい。また、1つのセルに対応するシステム帯域幅は、複数の帯域幅部分(Bandwidth Part)に分割されてもよい。この場合、1又は複数のBandwidth Part(BWP)がUEに設定され、1つのBandwidth PartがActive BWPとして、UEに使用されてもよい。また、セル毎、コンポーネントキャリア毎又はBWPごとに、端末装置110が使用できる無線資源(例えば、周波数帯域、ヌメロロジー(サブキャリアスペーシング)、スロットフォーマット(Slot configuration))が異なっていてもよい。
 [端末装置]
 端末装置110は、基地局装置130と無線通信する無線通信装置である。端末装置110は、例えば、携帯電話、スマートデバイス(スマートフォン、又はタブレット)、PDA(Personal Digital Assistant)、パーソナルコンピュータである。端末装置110は、無線を介してデータを送受信する機能を有するヘッドマウントディスプレイ(Head Mounted Display)やVRゴーグル等であってもよい。
 また、端末装置110は、他の端末装置110とサイドリンク通信が可能であってもよい。端末装置110は、サイドリンク通信を行う際、HARQ(Hybrid Automatic Repeat reQuest)等の自動再送技術を使用可能であってもよい。端末装置110は、基地局装置130とNOMA(Non Orthogonal Multiple Access)通信が可能であってもよい。なお、端末装置110は、他の端末装置110との通信(サイドリンク)においてもNOMA通信が可能であってもよい。また、端末装置110は、他の通信装置(例えば、基地局装置130、及び他の端末装置110)とLPWA(Low Power Wide Area)通信が可能であってもよい。その他、端末装置110が使用する無線通信は、ミリ波を使った無線通信であってもよい。なお、端末装置110が使用する無線通信(サイドリンク通信を含む。)は、電波を使った無線通信であってもよいし、赤外線や可視光を使った無線通信(光無線)であってもよい。
 端末装置110は、同時に複数の基地局装置または複数のセルと接続して通信を実施してもよい。例えば、1つの基地局装置が複数のセルを提供できる場合、端末装置110は、あるセルをpCellとして使用し、他のセルをsCellとして使用することでキャリアアグリゲーションを実行することができる。また、複数の基地局装置130がそれぞれ1又は複数のセルを提供できる場合、端末装置110は、一方の基地局装置(MN(例えば、MeNB又はMgNB))が管理する1又は複数のセルをpCell、又はpCellとsCell(s)として使用し、他方の基地局装置(SN(例えば、SeNB又はSgNB))が管理する1又は複数のセルをpCell(PSCell)、又はpCell(PSCell)とsCell(s)として使用することでDC(Dual Connectivity)を実現することができる。DCはMC(Multi Connectivity)と称されてもよい。
 なお、異なる基地局装置130のセル(異なるセル識別子又は同一セル識別子を持つ複数セル)を介して通信エリアをサポートしている場合に、キャリアアグリゲーション(CA:Carrier Aggregation)技術やデュアルコネクティビティ(DC:Dual Connectivity)技術、マルチコネクティビティ(MC:Multi-Connectivity)技術によって、それら複数のセルを束ねて基地局装置130と端末装置110とで通信することが可能である。或いは、異なる基地局装置130のセルを介して、協調送受信(CoMP:Coordinated Multi-Point Transmission and Reception)技術によって、端末装置110とそれら複数の基地局装置130が通信することも可能である。
 以下、コンテンツ配信システム100を構成する各装置の構成について具体的に説明する。なお、以下に示す各装置の構成はあくまで一例である。各装置の構成は、以下の構成とは異なっていてもよい。
 <1.2.情報処理装置の構成例>
 図2は、本開示の実施形態に係る情報処理装置150の構成例を示す図である。情報処理装置150は、例えば動画コンテンツを管理、或いは、生成する装置である。情報処理装置150は、通信部151と、記憶部152と、制御部153と、を備える。なお、図2に示した構成は機能的な構成であり、ハードウェア構成はこれとは異なっていてもよい。また、情報処理装置150の機能は、複数の物理的に分離された構成に分散して実装されてもよい。例えば、情報処理装置150は、複数のサーバ装置により構成されていてもよい。
 通信部151は、他の装置と通信するための通信インタフェースである。通信部151は、ネットワークインタフェースであってもよいし、機器接続インタフェースであってもよい。例えば、通信部151は、NIC(Network Interface Card)等のLAN(Local Area Network)インタフェースであってもよいし、USB(Universal Serial Bus)ホストコントローラ、USBポート等により構成されるUSBインタフェースであってもよい。また、通信部151は、有線インタフェースであってもよいし、無線インタフェースであってもよい。通信部151は、情報処理装置150の通信手段として機能する。通信部151は、制御部153の制御に従って基地局装置130と通信する。
 記憶部152は、DRAM(Dynamic Random Access Memory)、SRAM(Static Random Access Memory)、フラッシュメモリ、ハードディスク等のデータ読み書き可能な記憶装置である。記憶部152は、情報処理装置150の記憶手段として機能する。記憶部152は、例えば、動画コンテンツを記憶する。
 制御部153は、情報処理装置150の各部を制御するコントローラ(controller)である。制御部153は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)等のプロセッサにより実現される。例えば、制御部153は、情報処理装置150内部の記憶装置に記憶されている各種プログラムを、プロセッサがRAM(Random Access Memory)等を作業領域として実行することにより実現される。なお、制御部153は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。CPU、MPU、GPU、ASIC、及びFPGAは何れもコントローラとみなすことができる。
 制御部153は、慣性計測情報取得部1531と、動画データ生成部1532と、無線リソース割り当て要求部1533と、を備える。制御部153を構成する各ブロック(慣性計測情報取得部1531~無線リソース割り当て要求部1533)はそれぞれ制御部153の機能を示す機能ブロックである。これら機能ブロックはソフトウェアブロックであってもよいし、ハードウェアブロックであってもよい。例えば、上述の機能ブロックが、それぞれ、ソフトウェア(マイクロプログラムを含む。)で実現される1つのソフトウェアモジュールであってもよいし、半導体チップ(ダイ)上の1つの回路ブロックであってもよい。勿論、各機能ブロックがそれぞれ1つのプロセッサ又は1つの集積回路であってもよい。機能ブロックの構成方法は任意である。なお、制御部153は上述の機能ブロックとは異なる機能単位で構成されていてもよい。
 慣性計測情報取得部1531は、基地局装置130を介して慣性計測情報を端末装置110から取得する。慣性計測情報は、慣性に係る情報であり、例えば、端末装置110の加速度情報や角速度情報等、端末装置110に搭載されたセンサが検出した検出結果(例えばユーザの視線の向き)の情報である。慣性計測情報は、例えば、端末装置110を使用するユーザの状態(例えば頭や視線の向き等)を示す情報である。より具体的な例示として、慣性に係る情報は、ユーザの頭部の動きとして、ヨー(yaw)方向、ピッチ(pitch)方向、及びロール(roll)方向それぞれの成分の変化量であってもよい。これらの成分が、端末装置110に搭載されたセンサ(加速度センサや、角速度センサ(ジャイロセンサ))によって検出されてもよい。
 動画データ生成部1532は、取得した慣性計測情報に基づいて動画の領域を決定し、端末装置110に配信する動画データを生成する。動画データ生成部1532は、慣性計測情報に基づき、ユーザが見ている方向の動画を配信する動画領域に決定し、動画データを生成する。
 無線リソース割り当て要求部1533は、基地局装置130に対して動画データの送信に使用する無線リソースの割り当てを要求する。
 なお、制御部153は、基地局装置130を介して、ユーザが入力した操作に係る情報を端末装置110から取得して、この操作に係る情報に基づいて動画の領域を決定し、端末装置110に配信する動画データを生成するようにしてもよい。ここで、ユーザが入力する操作は、例えば、ゲームでの操作、装置を遠隔で制御、或いは、運転するための操作等である。
 <1.3.基地局装置の構成例>
 次に、基地局装置130の構成を説明する。図3は、本開示の実施形態に係る基地局装置130の構成例を示す図である。
 基地局装置130は、通信部131と、記憶部132と、ネットワーク通信部133と、制御部134と、を備える。なお、図3に示した構成は機能的な構成であり、ハードウェア構成はこれとは異なっていてもよい。また、基地局装置130の機能は、複数の物理的に分離された構成に分散して実装されてもよい。
 通信部131は、他の無線通信装置(例えば、端末装置110及び他の基地局装置130)と無線通信するための信号処理部である。通信部131は、制御部134の制御に従って動作する。他の無線通信装置が端末装置110の場合、通信部131は1又は複数の無線アクセス方式に対応する無線トランシーバであってもよい。例えば、通信部131は、NR及びLTEの双方に対応する。通信部131は、NRやLTEに加えて、W-CDMAやcdma2000に対応していてもよい。また、通信部131は、NOMAを使った通信に対応していてもよい。他の無線通信装置が他の基地局装置130である場合、通信部131はX2インタフェース、Xnインタフェース、又は、F1インタフェースであってもよい。
 通信部131は、受信処理部1311と、送信処理部1312と、アンテナ1314と、を備える。通信部131は、受信処理部1311、送信処理部1312、及びアンテナ1314をそれぞれ複数備えていてもよい。なお、通信部131が複数の無線アクセス方式に対応する場合、通信部131の各部は、無線アクセス方式毎に個別に構成されうる。例えば、受信処理部1311及び送信処理部1312は、LTEとNRとで個別に構成されてもよい。
 受信処理部1311は、アンテナ1314を介して受信された上りリンク信号の処理を行う。受信処理部1311は、受信信号を受信する受信部として動作する。受信処理部1311は、無線受信部1311aと、多重分離部1311bと、復調部1311cと、復号部1311dと、を備える。
 無線受信部1311aは、上りリンク信号に対して、ダウンコンバート、不要な周波数成分の除去、増幅レベルの制御、直交復調、デジタル信号への変換、ガードインターバル(サイクリックプレフィックス)の除去、高速フーリエ変換による周波数領域信号の抽出等を行う。多重分離部1311bは、無線受信部1311aから出力された信号から、PUSCH(Physical Uplink Shared Channel)、PUCCH(Physical Uplink Control Channel)等の上りリンクチャネル及び上りリンク参照信号を分離する。
 復調部1311cは、上りリンクチャネルの変調シンボルに対して、BPSK(Binary Phase Shift Keying)、QPSK(Quadrature Phase shift Keying)等の変調方式を使って受信信号の復調を行う。復調部1311cが使用する変調方式は、16QAM(Quadrature Amplitude Modulation)、64QAM、又は256QAMであってもよい。この場合、コンスタレーション上の信号点は必ずしも等距離である必要はない。コンスタレーションは、不均一コンスタレーション(NUC:Non Uniform Constellation)であってもよい。
 復号部1311dは、復調された上りリンクチャネルの符号化ビットに対して、復号処理を行う。復号された上りリンクデータ及び上りリンク制御情報は制御部134へ出力される。
 送信処理部1312は、下りリンク制御情報及び下りリンクデータの送信処理を行う。このように、送信処理部1312は、制御部134から例えば、下りリンク制御情報や下りリンクデータ等のビット系列を取得する取得部である。送信処理部1312は、符号化部1312aと、変調部1312bと、多重部1312cと、無線送信部1312dと、を備える。
 符号化部1312aは、制御部134から入力された下りリンク制御情報及び下りリンクデータを、ブロック符号化、畳み込み符号化、ターボ符号化等の符号化方式を用いて符号化を行う。なお、符号化部1312aは、ポーラ符号(Polar code)による符号化、LDPC符号(Low Density Parity Check Code)による符号化を行ってもよい。
 変調部1312bは、符号化部1312aから出力された符号化ビットをBPSK、QPSK、16QAM、64QAM、256QAM等の所定の変調方式で変調する。この場合、コンスタレーション上の信号点は必ずしも等距離である必要はない。コンスタレーションは、不均一コンスタレーションであってもよい。
 多重部1312cは、各チャネルの変調シンボルと下りリンク参照信号とを多重化し、所定のリソースエレメントに配置する。無線送信部1312dは、多重部1312cからの信号に対して、各種信号処理を行う。例えば、無線送信部1312dは、高速フーリエ変換による時間領域から周波数領域への変換、ガードインターバル(サイクリックプレフィックス)の付加、ベースバンドのデジタル信号の生成、アナログ信号への変換、直交変調、アップコンバート、余分な周波数成分の除去、電力の増幅等の処理を行う。送信処理部1312で生成された信号は、アンテナ1314から送信される。
 記憶部132は、DRAM、SRAM、フラッシュメモリ、ハードディスク等のデータ読み書き可能な記憶装置である。記憶部132は、基地局装置130の記憶手段として機能する。
 ネットワーク通信部133は、ネットワーク上で上位に位置するノード(例えば、情報処理装置150)と通信するための通信インタフェースである。例えば、ネットワーク通信部133は、NIC等のLANインタフェースであってもよい。さらに又はこれに代えて、ネットワーク通信部133は、コアネットワークノードと接続するためのS1インタフェース又はNGインタフェースであってもよい。ネットワーク通信部133は、有線インタフェースであってもよいし、無線インタフェースであってもよい。ネットワーク通信部133は、基地局装置130のネットワーク通信手段として機能する。
 制御部134は、基地局装置130の各部を制御するコントローラ(controller)である。制御部134は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等のプロセッサ(ハードウェアプロセッサ)により実現される。例えば、制御部134は、基地局装置130内部の記憶装置に記憶されている各種プログラムを、プロセッサがRAM(Random Access Memory)等を作業領域として実行することにより実現される。なお、制御部134は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。CPU、MPU、ASIC、及びFPGAは何れもコントローラとみなすことができる。
 制御部134は、無線リソース割り当て設定部1341を備える。制御部134を構成するブロック(無線リソース割り当て設定部1341)は制御部134の機能を示す機能ブロックである。機能ブロックはソフトウェアブロックであってもよいし、ハードウェアブロックであってもよい。例えば、上述の機能ブロックが、ソフトウェア(マイクロプログラムを含む。)で実現される1つのソフトウェアモジュールであってもよいし、半導体チップ(ダイ)上の1つの回路ブロックであってもよい。勿論、機能ブロックが1つのプロセッサ又は1つの集積回路であってもよい。機能ブロックの構成方法は任意である。なお、制御部134は上述の機能ブロックとは異なる機能単位で構成されていてもよい。
 無線リソース割り当て設定部1341は、例えば、情報処理装置150からの要求に応じて無線リソースの割り当てを実行する。無線リソース割り当て設定部1341は、例えば、スケジューラーと呼称される機能であってもよい。
 <1.4.端末装置の構成例>
 次に、端末装置110の構成を説明する。図4は、本開示の実施形態に係る端末装置110の構成例を示す図である。
 端末装置110は、通信部111と、記憶部112と、慣性計測装置114と、制御部115と、表示部116を備える。なお、図4に示した構成は機能的な構成であり、ハードウェア構成はこれとは異なっていてもよい。また、端末装置110の機能は、複数の物理的に分離された構成に分散して実装されてもよい。
 通信部111は、他の無線通信装置(例えば、基地局装置130及び他の端末装置110)と無線通信するための信号処理部である。通信部111は、制御115の制御に従って動作する。通信部111は1又は複数の無線アクセス方式に対応する無線トランシーバであってもよい。例えば、通信部41は、NR及びLTEの双方に対応する。通信部111は、NRやLTEに加えて、W-CDMAやcdma2000に対応していてもよい。また、通信部111は、NOMAを使った通信に対応していてもよい。
 通信部111は、受信処理部1111と、送信処理部1112と、ネットワーク通信部113と、アンテナ1114と、を備える。通信部111は、受信処理部1111、送信処理部1112、及びアンテナ1114をそれぞれ複数備えていてもよい。通信部111、受信処理部1111、送信処理部1112、及びアンテナ1114の構成は、基地局装置130の通信部131、受信処理部1311、送信処理部1312、及びアンテナ1314と同様である。
 記憶部112は、DRAM、SRAM、フラッシュメモリ、ハードディスク等のデータ読み書き可能な記憶装置である。記憶部112は、端末装置110の記憶手段として機能する。
 ネットワーク通信部113は、ネットワークを介して接続する他の装置と通信するための通信インタフェースである。例えば、ネットワーク通信部113は、NIC等のLANインタフェースである。ネットワーク通信部113は、有線インタフェースであってもよいし、無線インタフェースであってもよい。ネットワーク通信部113は、端末装置110のネットワーク通信手段として機能する。ネットワーク通信部113は、制御部115の制御に従って、他の装置と通信する。他の装置は、例えば、ユーザが操作に係る情報を入力するコントローラである。
 慣性計測装置114は、IMU(Inertial Measurement Unit)と呼ばれ、3軸の角速度及び加速度を検出する装置である。慣性計測装置114は、例えば、加速度センサやジャイロセンサを含む。慣性計測装置114は、信頼性を向上させるために、磁界センサ、気圧センサ、温度センサ等を搭載してもよい。
 慣性計測装置114が検出した加速度情報及び角速度情報は、慣性に係る情報(慣性計測情報、ユーザに関する情報の一例)として情報処理装置150に送信される。
 或いは、慣性計測装置114が検出した加速度情報及び角速度情報に基づいて、制御部115がユーザの状態(例えば頭や視線の向き等)を算出して、ユーザの状態を情報処理装置150に送信するようにしてもよい。ユーザの状態は、例えば、ポーズ情報(Pose Information)と総称される情報である。
 制御部115は、端末装置110の各部を制御するコントローラである。制御部115は、例えば、CPU、MPU、GPU等のプロセッサにより実現される。例えば、制御部115は、端末装置110内部の記憶装置に記憶されている各種プログラムを、プロセッサがRAM等を作業領域として実行することにより実現される。なお、制御部115は、ASICやFPGA等の集積回路により実現されてもよい。CPU、MPU、GPU、ASIC、およびFPGAは何れもコントローラとみなすことができる。
 制御部115は、動画アプリ制御部1151と、表示領域特定部1152と、レンダリング部1153と、を備える。制御部115を構成する各ブロック(動画アプリ制御部1151~レンダリング部1153)はそれぞれ制御部115の機能を示す機能ブロックである。これら機能ブロックはソフトウェアブロックであってもよいし、ハードウェアブロックであってもよい。例えば、上述の機能ブロックが、それぞれ、ソフトウェア(マイクロプログラムを含む。)で実現される1つのソフトウェアモジュールであってもよいし、半導体チップ(ダイ)上の1つの回路ブロックであってもよい。勿論、各機能ブロックがそれぞれ1つのプロセッサ又は1つの集積回路であってもよい。機能ブロックの構成方法は任意である。なお、制御部45は上述の機能ブロックとは異なる機能単位で構成されていてもよい。
 動画アプリ制御部1151は、動画コンテンツの再生等を行う動画アプリを制御する制御部である。動画アプリ制御部1151は、例えばユーザからの指示に応じて動画アプリを起動する。
 表示領域特定部1152は、慣性に関する情報を用いてユーザの視点を推定し、取得した動画データから表示部116に表示する表示領域を特定する。
 レンダリング部1153は、情報処理装置150から取得した動画データに基づき、表示領域特定部1152が特定した表示領域にあわせて、各フレームで表示する画像を生成し、動画を編集する。
 表示部116は、ディスプレイ等の表示装置であり、レンダリング部1153で生成された画像等の各種情報を表示する。表示部116は、例えば、非透過型、ビデオ透過(Video See-Through)型、或いは、光学透過(Optical See-Through)型のディスプレイである。表示部116は、画像を所定のフレームレートで表示することで、レンダリング部1153が編集した動画を再生する。
 <1.5.ネットワークアーキテクチャの構成例>
 ここで、本開示の実施形態に係るコンテンツ配信システム100に適用される通信システムの一例として第5世代移動体通信システム(5G)のアーキテクチャについて説明する。図5は、5Gのアーキテクチャの一例を示す図である。5Gのアーキテクチャは、UE(User Equipment)10、RAN(Radio Access Network)/AN(Access Network)230、NGC(Next Generation Core)/5GC(5G Core)20及びDN(Data Network)240を含む。
 5GC/NGC20は、5Gコアネットワークとも呼ばれる。5GC/NGC20は、RAN/AN230を介してUE10と接続される。
 RAN230は、無線インタフェースを提供する基地局装置であり、AN230は、有線インタフェースを提供する、例えば、アクセスポイントやルータである。RAN/AN230は、gNB、或いは、ng-eNBと呼ばれる基地局装置を含む。
 5GC/NGC20は、コントロール・プレーン機能群21およびUPF(User Plane Function)220を含んで構成される。
 コントロール・プレーン機能群21は、AUSF(Authentication Server Function)201と、NEF(Network Exposure Function)202と、NRF(Network Repository Function)203と、NSSF(Network Slice Selection Function)204と、PCF(Policy Control Function)205と、SMF(Session Management Function)206と、UDM(Unified Data Management)207と、AF(Application Function)208と、AMF(Access Management Function)209と、を含む。
 UDM207は、3GPP AKA認証情報の生成、ユーザIDの処理の機能を有する。UDM207は、加入者情報を保持、管理するUDR(Unified Data Repository)と、加入者情報を処理するFE(Front End)部を含む。
 また、AMF209は、UE10のレジストレーション処理や接続管理、モビリティ管理等の機能を有する。
 SMF206は、セッション管理、UE10のIP割り当てと管理等の機能を有する。AUSF201は、認証機能を有する。NSSF204は、ネットワークスライスの選択にかかる機能を有する。NEF202は、サードパーティー、AF208やエッジコンピューティング機能に対してネットワーク機能のケイパビリティやイベントを提供する機能を有する。
 NRF203は、ネットワーク機能の発見やネットワーク機能のプロファイルを保持する機能を有する。PCF205は、ポリシー制御の機能を有する。AF208は、コアネットワークと相互に作用してサービスを提供する機能を有する。
 また、UPF(User Plane Function)220は、ユーザ・プレーン処理の機能を有する。DN240は、例えば、MNO(Mobile Network Operator)等、オペレータ独自のサービスへの接続を提供するエンティティ、インターネット接続を提供するエンティティ、或いは、サードパーティーのサービスへの接続を提供するエンティティである。
 ここで、Namfは、AMF209が提供するサービスベースドインタフェース(Service-based interface)、Nsmfは、SMF206が提供するサービスベースドインタフェースである。また、Nnefは、NEF202が提供するサービスベースドインタフェース、Npcfは、PCF205が提供するサービスベースドインタフェースである。Nudmは、UDM207が提供するサービスベースドインタフェース、Nafは、AF208が提供するサービスベースドインタフェースである。Nnrfは、NRF203が提供するサービスベースドインタフェース、Nnssfは、NSSF204が提供するサービスベースドインタフェースである。Nausfは、AUSF201が提供するサービスベースドインタフェースである。これらの各NF(Network Function)は、各サービスベースドインタフェースを介して他のNFと情報の交換を行う。
 また、N1は、UE10とAMF209間のリファレンスポイント(Reference Point)、N2は、RAN/AN230とAMF209間のリファレンスポイントである。N4は、SMF206とUPF220間のリファレンスポイントであり、これらの各NF(Network Function)間で相互に情報の交換が行われる。
 UE10の一例は、本実施形態の端末装置110である。RAN/AN230の一例が、本実施形態の基地局装置130である。
 また、情報処理装置150は、5GC/NGC20内に設置される(又は5GC/NGC20の近傍に設置される)エッジサーバ、或いは、クラウドサーバ(図示せず)であってもよいし、インターネット内に設置されたクラウドサーバであってもよい。
 或いは、情報処理装置150は、例えば、5GCを含む複数の装置で構成されてもよい。この場合、慣性計測情報取得部1531はAF208に実装され、無線リソース割り当て要求部1533はAMF209、或いは、SMF206の一機能として実装されてもよい。動画データ生成部1532は、5GC/NGC20内に設置されるエッジサーバ、或いは、クラウドサーバ(図示せず)、若しくは、インターネット内に設置されたクラウドサーバ(図示せず)に対応する。また、動画データ生成部1532をAF208に実装するようにしてもよい。
 <<2.コンテンツ配信システムの情報処理例>>
 次に、コンテンツ配信システム100が実行する情報処理の一例について説明する。
 <2.1.コンテンツ配信処理例>
 図6は、本開示の実施形態に係るコンテンツ配信処理の一例を示すシーケンス図である。
 まず、端末装置110は、例えばユーザの指示に応じて動画アプリを起動し(ステップS101)、基地局装置130を介して、動画アプリが指定する動画コンテンツの配信を情報処理装置150にリクエストする(ステップS102)。
 端末装置110は、慣性に係る情報を計測し(ステップS103)、基地局装置130を介して情報処理装置150に計測した慣性に係る情報を送信する(ステップS104)。なお、ステップS103及びステップS104の処理は、固定、可変の周期、或いは、イベントに応じて実行される。
 情報処理装置150は、取得した慣性に係る情報に基づいて、端末装置110に送信する動画の領域を決定し(ステップS105)、決定した領域の動画データを生成する(ステップS106)。
 情報処理装置150は、基地局装置130を介して、生成した動画データを端末装置110に送信する(ステップS107)。
 端末装置110は、計測した最新の慣性に係る情報に基づいて取得した動画データの表示領域を決定する(ステップS108)。端末装置110は、取得した動画データから、決定した表示領域に合わせて、各フレームで表示する画像を生成して動画を編集した後に、表示部116に表示する(ステップS109)。
 <2.2.レンダリング処理例>
 続いて、図7を用いて、端末装置110が実行するレンダリング処理の一例について説明する。図7は、本開示の実施形態に係るレンダリング処理の一例を説明するための図である。ここで説明するレンダリング処理は、例えば図6のステップS109で実行される。
 図7では、端末装置110が生成する画像(以下、フレーム画像とも記載する)の表示タイミング、換言するとフレーム画像を表示するタイミングを示している。
 端末装置110は、静止画像であるフレーム画像をフレームレートに応じた周期で更新(生成)することで、表示部116に動画を表示する。
 例えば、フレームレートがK[fps]である場合、1秒間にK枚のフレーム画像#n(nは、1以上(K+1)以下の整数)が生成され表示部116に表示される。この場合、フレーム画像の更新周期は1/K秒となる。
 次に、図8を用いて、端末装置110が実行するレンダリング処理の他の例について説明する。図8は、本開示の実施形態に係るレンダリング処理の他の例を説明するための図である。ここで説明するレンダリング処理は、例えば図6のステップS109で実行される。
 フレーム画像のレンダリング処理を行う場合に、タイムワープ(Timewarp)と呼ばれる技術を利用して、フレーム画像の描画が行われることがある。タイムワープは、Motion-to-photon latencyを一定値以内におさめるために、取得済みの動画データと最新の慣性に係る情報に基づいて予測される表示領域の画像を生成する技術である。このタイムワープの応用例の1つとして、レンダリング部1153は、表示部116に表示するフレームレートを、情報処理装置150から取得した動画データのフレームレートのm倍(m>1)にする。
 また、レンダリング部1153は、情報処理装置150と端末装置110との無線通信に起因した遅延環境下で、Motion-to-photon latencyを一定値以内におさめるために、各フレーム画像の描画に対してタイムワープを適用するようにしてもよい。
 ここで、VRでは、ヘッドマウントディスプレイ(HMD)で目の前に見ている画面と、自分の生身の感覚との「ずれ」によってVR酔いという現象が生じることが知られている。例えば、ユーザが振り向いて画面の景色が変わる場合において、ユーザが自身の感覚でこうなっているはずと思っている景色から、実際に目の前のHMDに表示される景色が少しだけ遅れて表示されることがある。かかる遅延は、Motion-to-photon latencyと呼ばれる。或いは、ユーザが奥行き(空間)を認識して移動したときに、移動後に見えるであろうと思っている景色から、実際に目の前のHMDに表示される景色がずれていることがある。このような遅延やずれが生じた場合に、VR酔いが起こりやすくなる。
 このVR酔いを改善する方法として、表示部に表示するフレーム画像のフレームレートを上げる方法が知られている。フレームレートを上げることで、ユーザが想定する景色と実際に表示部に表示される景色との差が小さくなり、VR酔いの発生を抑制することができる。
 さらに、上述のタイムワープを適用して、Motion-to-photon latencyを低減することでVR酔いを改善することができる。
 図7を用いて説明したレンダリング処理では、フレームレートがK[fps]であり、1/K秒ごとにフレーム画像が更新される。より具体的には、端末装置110は、情報処理装置150から取得した動画データからフレーム画像#1、#2、・・・を、1/K秒ごとに生成する。このとき、端末装置110は、都度取得した動画データを用いてフレーム画像#1、#2、・・・を生成する。
 そのため、端末装置110が、例えばVR酔いの発生を抑制するためにフレームレートを上げようとすると、動画データを取得する周期を短くする必要があり、無線通信への負荷が大きくなってしまう。
 そこで、端末装置110は、タイムワープ技術を使用して、情報処理装置150から動画データを取得する周期を変えずに、表示部116に表示するフレーム画像のフレームレートを上げる。
 図8に示すように、端末装置110は、取得した動画データD1を用いてフレーム画像#1を生成し、表示部116に表示する。また、端末装置110は、取得した動画データD1を用いてフレーム画像#1-1を生成し、表示部116に表示する。このとき、端末装置110は、最新の慣性に係る情報を用いて、動画データD1にタイムワープ処理を施してフレーム画像#1-1を生成する。端末装置110は、最新の慣性に係る情報を用いて、ユーザの視点、或いは、視点を含む視野を決定し、決定した視線方向に基づいて表示領域を決定する。この表示領域は、ビューポートとも呼ばれる。端末装置110は、決定した表示領域を動画データD1から抽出してフレーム画像#1-1を生成する。なお、この場合、慣性に係る情報は、例えば表示部116に表示するフレーム画像の表示周期より短い周期で計測され得る。
 このように、端末装置110は、1つの動画データから、異なる時刻に計測された最新の慣性に係る情報を用いて、複数のフレーム画像を生成することで、動画データの取得周期を短くすることなく、フレームレートを増加させることができる。例えば、図8では、端末装置110は、1つの動画データD1から2つのフレーム画像#1、#1-1を生成している。これにより、端末装置110は、表示部116に表示する周期(以下、フレーム周期とも記載する)を、1つの動画データD1から1つのフレーム画像#1を生成する場合と比較して1/2に短くすることができる。
 端末装置110は、同じ動画データに慣性に係る情報の変化を反映させてフレーム周期を短くすることで、Motion-to-photon latencyを低減し、VR酔いを抑制することができる。このように、同じ動画データに慣性に係る情報の変化を反映させる手法は、上述したタイムワープ、或いは、非同期タイムワープ(ATW:Asynchronous Timewarp)と呼ばれる。このタイムワープ、或いは、非同期タイムワープを応用することで、Motion-to-photon latencyを低減し、かつ、フレーム周期を短くことができる。
 <2.3.通信処理例>
 続いて、図9~図11を用いて、コンテンツ配信システム100で実行される通信処理の一例について説明する。図5を用いて上述したように、コンテンツ配信システム100では、NRのネットワークアーキテクチャが適用される。
 ここで、NRのネットワークアーキテクチャでは、UE10が5GC/NGC20を介したサービスの提供を受けるために、例えば5GC/NGC20への登録(Registration)が行われる。UE10は、例えば5GC/NGC20に対応するPLMN(Public Land Mobile Network)を選択して、登録処理(Registration Procedure)を実行する。
 以下、かかる登録処理を含む、UE10が5GC/NGC20を介したサービスの提供を受けるために行われる通信処理の一例について、図9~図11を用いて説明する。
 (登録処理)
 まず、図9を用いて、UE10が行う登録処理について説明する。図9は、本開示の実施形態に係る登録処理の一例を示すシーケンス図である。
 図9に示すように、RM-DEREGISTERED状態、つまり、5GC/NGC20に未登録状態のUE10は、初期登録(Initial Registration)を実行するために、RAN/AN230に登録要求(Registration Request)メッセージを送信する(ステップS301)。このとき、UE10は、登録要求メッセージにUE identityを含めて送信する。
 UE identityは、有効なEPS GUTIを持つ場合は、EPS GUTIからマッピングされる5G-GUTIである。ここで、EPS(Evolved Packet System)は、LTE(Long Term Evolution)に相当する4Gシステムを指し、EUTRANとEPCから構成される。EPS GUTI(Globally Unique Temporary Identifier)は、セキュリティの観点から、IMSI(International Mobile Subscriber Identity)やIMEI(International Mobile Equipment Identity)といった各UEに固有に割り当てられたIDの代わりに、EPS内でUEを識別するために用いられるテンポラリーなIDである。
 或いは、UE identityは、利用可能であるならば、UE10が登録を試みているPLMNによって割り当てられたPLMN固有の5G-GUTIである。
 或いは、UE identityは、利用可能であるならば、UE10が登録を試みているPLMN(Public Land Mobile Network)に対して、equivalent PLMNとして扱われるPLMMによって割り当てられたPLMN固有の5G-GUTIである。
 或いは、UE identityは、利用可能であるならば、いずれからのPLMNによって割り当てられたPLMN固有の5G-GUTIである。
 さもなければ、UE10は、登録要求メッセージにSUCI(Subscription Concealed Identifier)を含める。ここで、SUCIは、各UE10に固有に割り当てられるIDであるSUPI(Subscription Permanent Identifier)を暗号化したIDである。
 UE10は、Requested NSSAIのそれぞれのS-NSSAI(Single NSSAI)のHPLMN(Home PLMN)のS-NSSAIsとのマッピングを登録要求メッセージに含める。これにより、Requested NSSAI(Network Slice Selection Assistance Information)のS-NSSAI(s)がSubscribed S-NSSAIsに基づいて許可できるか否かが確認され得る。
 また、UE10は、Default Configured NSSAIを利用しているならば、Default Configured NSSAI Indicationを登録要求メッセージに含める。
 ここで、S-NSSAIは、スライスの型(slice type)を識別するmandatoryのSST(Slice/Service Type)と、同一のSSTの中で異なるスライスを区別するためのoptionalのSD(Slice Differentiator)の組で構成される。なお、mandatoryのSSTは、8ビットであり、optionalのSDは24ビットである。
 なお、AR、VR、MR(Mixed Reality)、SR(Substitutional Reality)、XR(X Reality、或いは、eXtended Reality)のアプリケーション向けのサービスの全て、或いは、それぞれは、このS-NSSAIで識別されるスライスとして定義されてもよい。言い換えると、AR、VR、MR、SR、XRのアプリケーション向けのサービスは、1又は複数のネットワークスライスによって実現されてもよい。すなわち、AR、VR、MR、SR、XRのアプリケーション向けのサービスには、1又は複数のS-NSSAIが関連付けられていてもよい。
 ここで、ARは、拡張現実とも呼ばれ、例えば、CG(Computer Graphics)で作られた3D映像やキャラクター等の仮想世界を現実世界に重ねて拡張する技術である。
 VRは、仮想現実とも呼ばれ、CGや360°カメラ等で撮られた全周囲映像による仮想世界を体験できる技術である。
 MRは、複合現実とも呼ばれ、現実世界と仮想世界を密接に融合させて、仮想世界をよりリアルに表現する技術である。
 SRは、代替現実とも呼ばれ、仮想世界を現実世界に置き換えて認識させる技術である。
 XRは、AR、VR、MR、SRを含め、現実世界に何らかの変化を加えた体験を作り出す技術を総称する呼称である。
 RAN/AN230は、UE10から登録要求メッセージを受信すると、AMF Selectionを実行する(ステップS302)。RAN/AN230は、もし、登録要求メッセージに5G-S-TMSI(5G S-Temporary Mobile Subscription Identifier)、若しくは、GUAMI(Globally Unique AMF Identifier)が含まれてない場合は、(R)AT(Radio Access Technology)、及び、利用可能ならば、Requested NSSAIに基づいてAMF209を選択する。或いは、RAN/AN230は、もし、登録要求メッセージに5G-S-TMSI、若しくは、GUAMIが、有効なAMF209を示していない場合、(R)AT(Radio Access Technology)、及び、利用可能ならば、Requested NSSAIに基づいてAMF209を選択する。
 RAN/AN230がNG-RANである場合には、選択されたPLMN ID、若しくは、SNPN(Standalone NonPublic Network)を識別するPLMN IDとNID(Network Identifier)の組みを含めた登録要求をAMF209に転送する(ステップS303)。
 もし、UE10がAMF209にSUCIを提供していない場合には、AMF209はIdentity Request処理を起動し、UE10にIdentity Requestメッセージを送信して、SUCIを要求する(ステップS304)。
 UE10は、ステップS304でIdentity Requestメッセージを受信した場合、SUCIを含んだIdentity Responseメッセージを応答する(ステップS305)。ここで、UE10は、HPLMNの公開鍵(Public Key)を使ってSUCIを取得し得る。
 AMF209は、SUPI、或いは、SUCIに基づいて、AUSF Selectionを実行して(ステップS306)、UE10の認証を起動する。
 AUSF201は、AMF209から認証(Authentication)の要求を受信すると、UE10の認証を実行しなくてはならない。
 AUSF201は、認証(Authentication)処理として、UDM207を選択し、UDM207から認証データを取得する。
 UE10が認証されると、AUSF201は、AMF209にセキュリティに関する情報を提供する。
 AMF209で認証が成功すると、AMF209は、NGAP(NG Application Protocol)処理を起動して、RAN/AN230にsecurity contextを提供する。
 RAN/AN230は、security contextを保持して、AMF209に応答を返す。
 RAN/AN230は、以降、UE10との間で交換するメッセージを保護するために、このsecurity contextを用いる。
 AMF209は、SUPIに基づいてUDM Selectionを実行し、UDM207を選択する(ステップS307)。
 AMF209は、Nudm_UECM_Registrationを使って、UDM207に登録される(ステップS308)。
 AMF209がUE10の契約者情報(Subscription Data)を持っていない場合には、Nudm_SDM_Getを使って(ステップS309)、Access and Mobility Subscription data、SMF Selection Subscription data等のSubscription Dataを取得する(ステップS310)。
 AMF209は、UDM207からAccess and Mobility Subscription dataを取得した後、UE contextを生成する。Access and Mobility Subscription dataは、3GPP AccessでのRRC Connection EstablishmentにNSSAIを平文で含んでよいか否かを示す情報を含む。
 AMF209は、UE10に登録許可(Registration Accept)を送信する(ステップS311)。登録許可メッセージは、5G-GUTIとRegistration Areaを含んでいる。登録許可メッセージを含むN2 messageには、Allowed NSSAIが含まれる。
 Allowed NSSAIには、契約者情報に基づいてNetwork Slice-Specific AuthenticationとAuthorizationを要求しないS-NSSAIs、若しくは、AMF209のUE contextに基づいてNetwork Slice-Specific AuthenticationとAuthorizationに成功したS-NSSAIsのみが含まれる。
 また、PLMNに登録されるUE10に対して、AMF209はequivalent PLMNsのリストを提供してもよいが、SNPNに登録されるUE10に対しては、AMF209はequivalent PLMNsのリストを提供してはいけない。
 UE10は、新たな5G-GUTIが割り当てられたことを通知するために、登録完了(Registration Complete)メッセージをAMF209に送信する(ステップS312)。
 以上の登録処理に従って、UE10は5GC/NGC20に対して登録状態、つまり、RM-REGISTERED状態となる。
 (PDUセッション確立処理)
 次に、図10を用いて、UE10が行うPDUセッション確立処理について説明する。図10は、本開示の実施形態に係るPDUセッション確立処理の一例を示すシーケンス図である。
 AMF209に登録されているUE10は、図10に示すように、AMF209にPDUセッション確立要求(PDU Session Establishment Request)メッセージを送信する(ステップS401)。ここで、PDUセッション確立要求メッセージは、Allowed NSSAIの内、要求するサービスに対応するS-NSSAIと、UE Requested DNN(Data Network Name)を含んでいる。UE Requested DNNは、例えば、AR、VR、MR、SR、XRのサービスへの接続を可能にするDNNである。
 PDUセッション確立要求メッセージを受信すると、AMF209はSMF Selectionを実行する(ステップS402)。ここで、PDUセッション確立要求メッセージがS-NSSAIを含んでいて、DNNを含んでいない場合には、このS-NSSAIに対するdefault DNNをDNNとして選択する。例えば、AR、VR、MR、SR、XRのアプリケーション向けのサービスの全て、或いは、それぞれが、特定のS-NSSAIで識別されるスライスとして定義されているとする。この場合、特定のS-NSSAIに対するdefault DNNは、AR、VR、MR、SR、XRのサービスへの接続を可能にするDNNとなる。
 AMF209は、選択したSMF206にAllowed NSSAIのS-NSSAIを含むNsmf_PDUSession_CreateSMContext Requestを送信する(ステップS403)。ここで、Nsmf_PDUSession_CreateSMContext Requestは、SUPI、S-NSSAI、UE Requested DNN、若しくは、DNNを含んでいる。
 もし、SUPI、DNNとS-NSSAIに対応するSession Management Subscription dataが利用可能でないならば、SMF206は、Nudm_SDM_Getを使ってUDM207からSession Management Subscription dataを取得する。また、SMF206は、Session Management Subscription dataが更新された時には通知してもらうようにNudm_SDM_Subscribeを使って登録しておく。
 Nsmf_PDUSession_CreateSMContext Requestを受信したSMF206は、PDUセッション確立要求を処理することができるならば、SM contextを生成する。そして、SMF206は、AMF209にNsmf_PDUSession_CreateSMContext Responseを応答してSM Context IDを提供する(ステップS404)。
 もし、PDUセッションの確立の間にDN-AAAサーバによる第2の認証、承諾処理を実行する必要がある場合には、SMF206は、PDU Session establishment authentication/authorization処理を起動する(ステップS405)。
 確立するPDUセッションにdynamic PCC(Policy and Charging Control)が適用される場合には、SMF206は、PCF Selectionを実行する(ステップS406)。さもなければ、SMF206は、ローカルなポリシーを適用してもよい。
 また、SMF206は、PCF205との間でSM Policy Associationを確立して、PDUセッションのためのdefault PCC Rulesを取得するために、SM Policy Association Establishment procedureを実行してもよい(ステップS407)。これにより、UPF220を選択する前にPCC Rulesを取得することができる。
 SMF206は、UPF Selectionを実行して、1つ以上のUPF220を選択する(ステップS408)。
 SMF206は、選択されたUPF220にN4セッション確立要求(N4 Session Establishment Request)メッセージを送信する(ステップS409)。
 UPF220は、N4セッション確立応答(N4 Session Establishment Response)メッセージを返信して、SMF206に応答する(ステップS410)。
 もし、PDUセッションのために複数のUPF220が選択された場合には、このN4セッション確立処理は、それぞれのUPF220に対して起動される。
 SMF206は、AMF209にNamf_Communication_N1N2MessageTransferメッセージを送信する(ステップS411)。ここで、Namf_Communication_N1N2MessageTransferメッセージは、PDU Session ID、N2 SM information、CN Tunnel Info、Allowed NSSAIのS-NSSAI、N1 SM containerを含む。ここで、N2 SM informationには、PDU Session ID、QFI(s)、QoS Profile(s)等を含む。また、PDUセッションのために複数のUPF220が使われる場合には、CN Tunnel Infoは、N3を終端するこれら複数のUPF220に関連するトンネリング情報(tunnel information)を含んでいる。
 N1 SM containerは、AMF209がUE10に供給しなければならないPDU Session Establishment Acceptを含んでいる。また、PDU Session Establishment Acceptは、Allowed NSSAIのS-NSSAIを含んでいる。
 Namf_Communication_N1N2MessageTransferメッセージは、AMF209がUE10に対してどのアクセスを使うかがわかるように、PDU Session IDを含んでいる。
 AMF209は、N2 PDUセッション要求(N2 PDU Session Request)メッセージをRAN/AN230に送信する(ステップS412)。ここで、AMF209は、N2 PDUセッション要求メッセージを介して、UE10を送り先とするPDU Session IDとPDUセッション確立許可(PDU Session Establishment Accept)を含むNAS(Non-Access-Stratum)メッセージと、SMF206から受信したN2 SM informationをRAN/AN230に送信する。
 RAN/AN230は、PDU Session IDとN1 SM containerを含むNASメッセージをUE10に転送する(ステップS413)。ここで、N1 SM containerは、PDU Session Establishment Acceptを含んでいる。
 RAN/AN230は、N2 PDUセッション応答(N2 PDU Session Response)メッセージをAMF209に応答する(ステップS414)。
 AMF209は、SM Context IDとN2 SM informationを含むNsmf_PDUSession_UpdateSMContext Requestメッセージを介して、RAN/AN230から受信したN2 SM informationをSMF206に転送する(ステップS415)。
 SMF206は、UPF220との間でN4セッション変更手順(N4 Session Modification procedure)を起動して、N4セッション変更要求(N4 Session Modification Request)メッセージをUPF220に送信する(ステップS416)。SMF206は、UPF220に転送ルールに加え、ANトンネリング情報(AN Tunnel Info)を提供する。
 UPF220は、SMF206にN4セッション変更応答(N4 Session Modification Response)メッセージを応答する(ステップS417)。PDUセッションで複数のUPF220が用いられている場合には、上記のN4セッション変更手順が行われる対象は、N3を終端する全てのUPF220となる。
 以上の処理に従って、PDUセッションが確立される。
 なお、それぞれのQoSフローに対して、QoS ProfileはQoSパラメータを含まなければならない。QoSパラメータは、例えば、5QI(5G QoS Identifier)とARP(Allocation and Retention Priority)である。
 QoSフローは、QoS Profileに応じて、“GBR(Guaranteed Bit Rate)”と“Non-GBR”のいずれかであってもよい。
 Non-GBR QoSフローに対しては、QoS ProfileはRQA(Reflective QoS Attribute)というQoSパラメータを含んでもよい。
 GBR QoSフローに対しては、アップリンクとダウンリンクのGFBR(Guaranteed Flow Bit Rate)とMFBR(Maximum Flow Bit Rate)というQoSパラメータを含まなければならない。
 5QIは、QoSフローの転送処理を制御するためのアクセスノード向けのパラメータである。例えば、スケジューリングの重み、アドミッションの閾値、キュー管理の閾値、リンク層の設定等である。
 ARPは、priority level、pre-emption capability、pre-emption vulnerabilityに関する情報を含んでいる。
 ARPのpriority levelは、QoSフローの相対的な重要度を定義するもので、最も高い重要度を1として、1から15の範囲で設定される。
 ARPのpre-emption capabilityは、QoSフローが他のより低いpriority levelを持つQoSフローに既に割り当てられているリソースを使用することができるか、否かを定義する指標である。
 ARPのpre-emption vulnerabilityは、他のより高いpriority levelを持つQoSフローを許可するために、QoSフローに割り当てられているリソースを明け渡してしまうか、否かを定義する指標である。
 ARPのpre-emption capabilityとARPのpre-emption vulnerabilityには、“enabled”、若しくは、“disabled”のいずれかを設定しなければならない。
 (RRC_CONNECTED遷移処理)
 UE10とコアネットワーク(例えば、AMF209)間のシグナリングは、NASシグナリングによって行われる。このNASシグナリングを可能にするためにNASシグナリング接続が使われる。
 NASシグナリング接続は、UE10とAN(Access Network)間のANシグナリング接続と、ANとAMF209間のN2接続とで構成される。ここで、ANシグナリング接続は、例えば、RRC(Radio Resource Control)接続である。
 そこで、図11を用いて、UE10のRRC状態をRRC_IDLEからRRC_CONNECTEDへ遷移させるRRC_CONNECTED遷移処理について説明する。図11は、本開示の実施形態に係るRRC_CONNECTED遷移処理の一例を示すシーケンス図である。RRC_CONNECTED遷移処理は、RRC_IDLEからRRC_CONNECTEDへ遷移する場合にUE10(端末装置110の一例)によって起動される。
 まず、UE10は、RRC_IDLE、かつ、CM-IDLE状態であるとする(ステップS500)。ここで、RRC_IDLE状態は、基地局装置130との間でRRC接続が確立されていない状態である。CM-IDLE状態は、AMF209との間でN1を介したNASシグナリング接続が確立されていない状態である。
 UE10は、基地局装置130との新たな接続のために、SRB(Signalling Radio Bearer)0を介してRRC設定要求(RRCSetupRequest)メッセージを送信する(ステップS501)。
 UE10は、基地局装置130からRRC設定(RRCSetup)メッセージを受信すると(ステップS502)、RRC状態をRRC_IDLEからRRC_CONNECTEDに遷移し、CM-IDLEはそのまま維持する(ステップS503)。
 基地局装置130は、UE10からRRC設定完了(RRCSetupComplete)メッセージを受信すると(ステップS504)、RRC設定処理を完了し、UE10は、CM-CONNECTEDに遷移する(ステップS505)。
 RRC設定完了(RRCSetupComplete)メッセージに含めて送信されたUE10からの最初のNASメッセージ(INITIAL UE MESSAGE)がAMF209に送信される(ステップS506)。
 ここで、最初のNASメッセージは、例えば、登録要求(Registration Request)メッセージ(図9のステップS301参照)、或いは、PDUセッション確立要求(PDU Session Establishment Request)メッセージ(図10のステップS401)である。また、UE10とAMF209との間では、いくつかのNASメッセージが交換される。
 AMF209はUE context dataを準備し、初期コンテキスト設定要求(INITIAL CONTEXT SETUP REQUEST)メッセージを介して、UE context dataを基地局装置130に送信する(ステップS507)。ここで、UE context dataは、PDU session context、Security Key、UE Radio CapabilityとUE Security Capabilities等を含んでいる。
 基地局装置130は、UE10にSecurityModeCommandメッセージに送信し(ステップS508)、UE10がSRB1を介してSecurityModeCompleteメッセージを基地局装置130に送信すると(ステップS509)、基地局装置130は、AS(Access-Stratum)セキュリティ(AS security)をアクティベートする。
 SRB2とDRBs(Data Radio Bearers)を設定するために、基地局装置130は、UE10にRRC再構成(RRCReconfiguration)メッセージを送信し(ステップS510)、UE10がSRB1を介してRRC再構成完了(RRCReconfigurationComplete)メッセージを基地局装置130に送信すると(ステップS511)、RRC再構成処理を完了する。
 基地局装置130は、AMF209に初期コンテキスト設定完了(INITIAL CONTEXT SETUP RESPONSE)メッセージを送信して(ステップS512)、設定処理が完了したことを通知する。
 (SPS-Config及びConfiguredGrantConfigの設定)
 AMF209は、端末装置110から特定のサービスに対応するS-NSSAI(例えば、S-NSSAI1)を含むPDUセッション確立要求メッセージ(図10のステップS401参照)を受信した場合には、このS-NSSAI1に対応するサービスを提供するためのSMF206を選択する。ここで、特定のサービスは、例えば、AR、VR、MR、SR、XRのアプリケーション向けのサービスである。
 また、S-NSSAI1に対応するサービスを提供するために選択されたSMF206は、例えば、AR、VR、MR、SR、XRのアプリケーション向けのサービスを提供するために必要なPCF205とUPF220を選択する。
 さらに、例えば基地局装置130は、AMF209の指示に応答して、端末装置110とのダウンリンクとアップリンクに設定するSPS-Config及びConfiguredGrantConfigをそれぞれ決定してもよい。
 基地局装置130は、RRCを介してSPS-Config及びConfiguredGrantConfigを端末装置110に設定することができる。例えば、基地局装置130は、RRC再構成メッセージ(図11のステップS508参照)にSPS-Config及びConfiguredGrantConfigを含めて送信することで端末装置110に設定する。
 SPS-Configは、ダウンリンクのセミパーシステント送信(Semi-Persistent Transmission)を設定するために用いられる。複数のSPS(Semi-Persistent Scheduling)がサービングセルの1つのBWP(Bandwidth Part)に対して設定され得る。複数のSPSは、SPS-ConfigListで設定される。
 また、基地局装置130は、上述のRRCを介したタイプ1と呼ばれる方法に加えて、タイプ2と呼ばれるCS-RNTI(Radio Network Temporary Identifier)を指定したPDCCHを介した方法でConfiguredGrantConfigを設定することもできる。
 RRCメッセージに含まれるSPS-Config information elementは、periodicity、periodicityExt、及び、SPS-ConfigIndexというフィールドを含む。
 ここで、SPS-Config information elementにperiodicityExtが含まれていない場合はperiodicityを参照し、periodicityExtが含まれている場合はperiodicityを無視する。
 TS38.331には、SPS-Configのperiodicityとして10ms、20ms、32ms、40ms、64ms、80ms、128ms、160ms、320ms、及び、640msの値が定義されている。
 また、SPS-ConfigのperiodicityExtに関しては、SCS(Subcarrier Spacing)が15kHzの場合には、1slotから640slotsの間のいずれかのスロット数がperiodicityExtとして設定できるように定義されている。また、SCSが30kHzの場合には、1slotから1280slotsの間のいずれかのスロット数がperiodicityExtとして設定できるように定義されている。SCSが60kHzの場合には、1slotから2560slotsの間のいずれかのスロット数がperiodicityExtとして設定できるように定義されている。SCSが120kHzの場合には、1slotから5120slotsの間のいずれかのスロット数がperiodicityExtとして設定できるように定義されている。
 SPSが設定されると、MAC entityは、以下の式(1)を満たすSFN(System Frame Number)内のスロット(Slot#_N)にN番目のダウンリンクの割り当てが発生するものと判断しなくてはならない。
 (numberOfSlotsPerFrame×SFN+Slot#_N)=
  [(numberOfSlotsPerFrame×SFNinit+slotinit)
  +N×periodicity×numberOfSlotsPerFrame/10]
  modulo(1024×numberOfSlotsPerFrame)・・・(1)
 ここで、numberOfSlotsPerFrameは無線フレーム内のスロット数(例えば、SCSが15kHzの場合は10)、SFNinitとslotinitはそれぞれ、SPSが設定されて最初のPDSCH(Physical Downlink Shared Channel)の送信が行われたSFNとslot#である。
 また、時間軸上で連続して複数のスロットをSPSのリソースとして割り当てるために、さらにnumberOfSlotsPerSPSというパラメータを導入してもよい。MAC entityは、上記式(1)を満たすSFN内のスロット(Slot#_N)を先頭に連続したnumberOfSlotsPerSps分のスロットにN番目のダウンリンクの割り当てが発生するものと判断する。
 ConfiguredGrantConfig information elementは、periodicity、periodicityExt、及び、ConfiguredGrantConfigIndexというフィールドを含む。
 ここで、ConfiguredGrantConfig information elementにperiodicityExtが含まれていない場合はperiodicityを参照し、periodicityExtが含まれている場合はperiodicityを無視する。
 TS38.331には、ConfiguredGrantConfigのperiodicityとして、例えば、SCSが15kHzの場合には、2、7、n*14symbolsが定義されている。ここで、nは、1、2、4、5、8、10、16、20、32、40、64、80、128、160、320、640のいずれかの値である。
 また、ConfiguredGrantConfigのperiodicityExtに関しては、例えば、SCSが15kHzの場合には、1symbolから640symbolsの間のいずれかのシンボル数がperiodicityExtとして設定できるように定義され、periodicityExt*14symbolsの周期が設定できる。
 CG(Configured Grant)が設定されると、MAC entityは、以下の式(2)を満たすSFN(System Frame Number)のSlot#内のシンボル(Symbol#_N)にN番目のアップリンクの割り当てが発生するものと判断しなくてはならない。
 [(SFN×numberOfSlotsPerFrame×numberOfSymbolsPerSlot)
   +(Slot#×numberOfSymbolsPerSlot)+Symbol#_N]=
 (timeDomainOffset×numberOfSymbolsPerSlot+S+N×periodicity)
   modulo(1024×numberOfSlotsPerFrame×numberOfSymbolsPerSlot)・・・(2)
 ここで、numberOfSlotsPerFrameは無線フレーム内のスロット数(例えば、SCSが15kHzの場合は10)、numberOfSymbolsPerSlot はスロット内のシンボル数(Normal CPの場合は14)である。また、timeDomainOffsetとSは、SLIV(Start and length indicator value)から得られるパラメータである。timeDomainOffsetはSFN=0におけるリソースの時間軸でのオフセット値、SはPUSCH(Physical Uplink Shared Channel)を最初に割り当てたシンボル(Symbol#)である。
 また、時間軸上で連続して複数のシンボルをCGのリソースとして割り当てるために、さらにnumberOfSymbolsPerCgというパラメータを導入してもよい。MAC entityは、上記式(2)を満たすSFN内のSlot#内のシンボル(Symbol#_N)を先頭に連続したnumberOfSymbolsPerCg分のシンボルにN番目のアップリンクの割り当てが発生するものと判断する。
 <<3.技術的課題>>
 続いて、本開示の実施形態に係るコンテンツ配信システム100の技術的課題について、特に、セミパーシステント送信で動画データを送信する場合に着目して説明する。
 図12は、コンテンツ配信システムによる動画データの配信の一例について説明するための図である。図12では、基地局装置130と端末装置110との間でSPSを介した動画データの通信が行われる。また、端末装置110は、上述したタイムワープを用いてフレームレートを2倍に上げて動画を表示するものとする。
 例えば、HMDである端末装置110が、XRのサービスを利用するために、S-NSSAI1を含むPDUセッション確立要求メッセージ(図10のステップS401参照)をAMF209に送る。PDUセッション確立要求メッセージを受信したAMF209は、端末装置110とのダウンリンクとアップリンクにSPS-ConfigとConfiguredGrantConfigをそれぞれ設定するよう基地局装置130に指示する。
 端末装置110は、基地局装置130を介して、例えば、45fpsのフレームレートの動画データをダウンリンクのSPS(Semi-Persistent Scheduling)によって受信する。以下、情報処理装置150が送信する動画データのフレームレートを第1のフレームレートとも記載する。
 また、端末装置110は、基地局装置130を介して、慣性計測装置114が計測した慣性に係る情報をアップリンクのCG(Configured Grant)によって送信する。
 端末装置110は、受信した第1のフレームレート(45fps)の動画データにタイムワープを活用して例えば90fpsのフレームレートの動画として表示する。以下、端末装置110が表示部116に表示する動画のフレームレートを第2のフレームレートとも記載する。
 第2のフレームレート(90fps)の動画は、11.11msの周期で端末装置110のディスプレイ上に表示される。また、第1のフレームレート(45fps)の動画データの受信は、理想的には、22.22msの周期で受信できることが望ましい。ところが、SPSの周期はスロット単位(SCSが15kHzの場合には1ms)で設定されるため、最も近い周期として、例えば、22msに設定される。
 ここで、SPSの周期を設定する方法について説明する。S-NSSAI1に対応するサービスが扱う動画のフレームレートを含むフォーマットに係る情報は、例えば、UDR(Unified Data Repository)に保存されている。
 SMF206は、S-NSSAI1に対応するサービスの提供のためにPDUセッションの確立が要求されると、S-NSSAI1に対応するサービスが扱う動画のフレームレートを含むフォーマットに係る情報をUDRから取得し、NASメッセージを介してAMF209に提供する。
 AMF209は、取得した動画のフォーマットに係る情報からSPSの周期を決定し、決定した周期のSPSの設定を基地局装置130に指示する。
 また、UDRから取得したS-NSSAI1に対応するサービスが扱う動画のフレームレートを含むフォーマットに係る情報に基づいて、SMF206がSPSの周期を決定して、AMF209を介して基地局装置130にSPSの周期を提供するようにしてもよい。例えば、SMF206がAMF209を介して基地局装置130に提供するN2 SM informationに含まれるQoS Profile、或いは、QoSパラメータにこのSPSの周期を含める。
 さらに、QoS Profile、或いは、QoSパラメータには、SPSの設定を明示的に指示するための情報を含めてもよい。例えば、“sps-enabled”を設定する。
 なお、SMF206は、基地局装置130に提供するAlternative QoS ProfileにSPSの周期、さらには、SPSの設定を明示的に指示するための情報、例えば、“sps-enabled”を含めてもよい。
 或いは、S-NSSAI1に対応するサービスが扱う動画のフレームレートを含むフォーマットに係る情報は、PCF205からSMF206に提供されるPCC Rulesに含めてもよい。
 また、S-NSSAI1に対応するサービスが扱う動画のフォーマット、或いは、SPSの周期に対応するQFI(QoS Flow Identifier)と5QI(5G QoS Identifier)を定義して、SMF206は、基地局装置130にこのQFIと5QIを通知するようにしてもよい。
 QoSフローは、NASレベルでは、5GCから基地局装置130に提供されるQoS Profileと、5GCから端末装置110に提供されるQoS rule(s)によって特徴づけられる。QoS Profileは、基地局装置130が無線インタフェースでの処理の仕方を決定するために用いられる。
 QoS Profileは、QoSパラメータを含んでいて、QoSパラメータは、例えば、5QIとARPである。
 QoS rule(s)は、アップリンクのユーザ・プレーンのデータとQoSフローの対応を指示するために使われる。例えば、CGの設定は、QoS ruleに含める。
 ここで、CGの設定は、CGの周期、さらには、CGの設定を明示的に指示するための情報、例えば、“cg-enabled”である。
 ASレベルでは、DRBが無線インタフェースでのパケットの処理の仕方を決定する。基地局装置130によるQoSフローとDRBのマッピングは、QFIと関係するQoS Profileに基づいて行われる。
 上述したように、端末装置110は、22msの周期で動画データを受信し、11.11msの周期で動画(フレーム画像)を表示部116に表示する。
 図12に示す例では、端末装置110は、A点から所定の受信期間で動画データD1を受信する。端末装置110は、受信した次の表示タイミング(B1点)で受信した動画データD1から生成した第1の動画を表示する。また、端末装置110は、B1点で表示した第1の動画のタイムワープとしてB2点で、動画データD1から生成した第2の動画を表示(以下、タイムワープ表示とも記載する)する。
 端末装置110は、22msの周期で動画データを受信するとともに、11.11msの表示周期で動画を表示する。より具体的には、端末装置110は、22.22msの周期で第1の動画を表示し、22.22msの周期で第2の動画をタイムワープ表示する。
 このように、端末装置110が動画データを受信する周期(SPSの周期)と、端末装置110が第1の動画を表示する周期(第1のフレームレート)が異なる。そのため、図12のA点のように、ある時点では動画データの受信タイミングと第1のフレームレート(45fps)の動画の表示タイミングが揃っていたとしても、受信タイミングと表示タイミングとの間に徐々にずれが生じてくる。このずれはわずかではあるが、ずれが徐々に累積することにより、表示までの遅延量がMotion-to-photon latencyの観点から無視できないほど大きくなる、或いは、逆に表示に間に合わなくなるといった問題が生じてしまう。
・提案技術の概要
 そこで、本開示では、周期的に動画データを受信し、周期的に動画を表示する端末装置110において、安定して動画を表示させることができる技術を提案する。提案技術として、基地局装置130は、端末装置110における動画データの周期的な受信タイミングと、動画の表示タイミングと、の差が、所定の条件を満たす場合に、受信タイミングに関する設定を変更する。
 <<4.技術的特徴>>
 <4.1.SPSの再設定>
 図13は、本開示の実施形態に係る基地局装置130によるSPSの再設定について説明するための図である。
 上述したように、端末装置110は、22msの周期で動画データを受信するとともに、端末装置110は、22.22msの周期で第1の動画を表示する。
 このように、端末装置110が動画データを受信する周期(SPSの周期)と、端末装置110が第1の動画を表示する周期が異なると受信タイミングと表示タイミングとの間にずれ(差)が生じる。
 端末装置110が動画データを受信する受信する受信タイミングと、第1の動画の表示タイミングとの差の絶対値が所定の閾値以上になった場合に、基地局装置130は、SPSの再設定を行う。基地局装置130は、現在のSPSの設定をリセットし、再度SPSの設定を行う。基地局装置130は、端末装置110が動画データを受信する受信する受信タイミングと、第1の動画の表示タイミングとが揃うように、SPS-Configを再設定する。
 端末装置110は、動画データを受信する受信する受信タイミングと、第1の動画の表示タイミングとの差の絶対値が所定の閾値以上になった場合に、再設定後のSPS-Configに基づき、変更後の受信タイミングで動画データを受信する。
 図14は、本開示の実施形態に係るSPS再設定処理の流れを示すフローチャートである。図14では、SPS再設定処理を端末装置110が行う場合について示している。
 端末装置110は、基地局装置130からの通知(例えば、SPS-Configを含むRRC message)に基づき、SPSを設定する(ステップ601)。端末装置110は、設定したSPSの周期で基地局装置130から動画データを受信する(ステップS602)。
 端末装置110は、SPSの周期(例えば、22ms)と動画データのフレームレート(例えば第1のフレームレート。22.22ms)との差の累積時間を測定する(ステップS603)。より具体的には、端末装置110は、動画データを受信するごとに、SPSの周期と第1のフレームレートとの差(0.22ms)を累積し、動画データを受信した受信タイミングでの表示タイミングとの差を算出する。
 なお、端末装置110は、動画データを受信した時刻と、動画データを表示した時刻と、の差を算出することで、受信タイミングと表示タイミングとの差を算出してもよい。
 端末装置110は、測定した累積時間が予め設定された所定の閾値以上であるか否かを判定する(ステップS604)。累積時間が閾値未満である場合(ステップS604;No)、ステップS602に戻り、端末装置110はSPSの周期で動画データを受信する。
 一方、累積時間が閾値以上である場合(ステップS604;Yes)、端末装置110は、SPSの再設定を基地局装置130に要求する処理を起動し(ステップS605)、ステップS601に戻る。
 ステップS605で、端末装置110は、SPSの再設定(SPS-Configの再設定)の要求に、補正すべき累積時間、或いは、この補正すべき累積時間に相当するスロット数をオフセット値として含めて報告するようにしてもよい。
 基地局装置130は、端末装置110端末装置110からSPS-Configの再設定の要求を受信すると、報告された補正すべき累積時間に係る情報に基づいて、SPSを再設定する。なお、このSPS-Configの再設定の要求は、RRCメッセージを介して行われる。
 端末装置110は、動画データを受信している間、上記SPS再設定処理を実行する。
 なお、ここでは、端末装置110が、SPSの再設定を要求するとしたが、これに限定されない(すなわち、端末装置110によるSPSの再設定の要求は必須の構成要素でなくともよい)。例えば、基地局装置130が、動画データを受信した受信タイミングでの表示タイミングとの差を算出して、SPSの再設定を行うか否かを判定するようにしてもよい。この場合、基地局装置130は、例えば情報処理装置150から動画データのフレームレートに関する情報を取得する。さらに又はこれに代えて、基地局装置130は、UDRや5GC/NGC20のNFから動画データのフレームレートに関する情報を取得してもよい。さらに又はこれに代えて、基地局装置130が、本来終端しない上位レイヤの情報(すなわち、動画データのフレームレートに関する情報)をDPI(Deep Packet Inspection)等を用いて読み取ることで、取得してもよい。
 或いは、5GC/NGC20のNFが動画データを受信した受信タイミングでの表示タイミングとの差に基づき、基地局装置130に対してSPSを再設定させるようにしてもよい。ここでは、SMF206が、基地局装置130に対して、SPSを再設定するタイミングを指示する場合について説明する。
 この場合、端末装置110は、S-NSSAI1に対応するサービスを受けるために送信するPDUセッションの確立要求メッセージ(図10のステップS401参照)に、S-NSSAI1に加えて、端末装置110が許容できるSPSの周期と動画のフレームレートの周期の差の累積時間の絶対値を含める。
 SMF206は、Nsmf_PDUSession_CreateSMContext Request(図10のステップS401参照)を介して、AMF209からS-NSSAI1と端末装置110が許容できる累積時間を取得する。
 なお、ここでは、端末装置110が許容できる累積時間を通知するとしたが、これに限定されない。例えばSMF206が、Motion-to-photon latency等に基づいて予め決められた値を許容できる累積時間としてもよい。
 SMF206は、S-NSSAI1に対応するサービスが扱う動画のフレームレートを含むフォーマットに係る情報をUDRから取得する。
 SMF206は、動画のフレームレートに基づいてSPSの周期を決定し、許容できる累積時間に基づいてSPSを設定する期間を決定する。ここで、SPSを設定する期間は、SPSが設定されてからSPSの再設定が必要になるまで期間である。
 AMF209は、Namf_Communication_N1N2MessageTransfer(図10のステップS411参照)のN2 SM informationを介して、SMF206からSPSの周期とSPSを設定する期間を取得する。
 AMF209は、N2 PDUセッション要求メッセージ(図10のステップS412参照)を介して、SMF206から取得したSPSの周期とSPSを設定する期間と、オフセット値として、補正すべき累積時間に相当するスロット数を基地局装置130に通知する。
 基地局装置130は、AMF209から取得したSPSの周期とSPSを設定する期間に基づいて、端末装置110とのダウンリンクにSPSの周期を設定し、SPSを設定する期間を設定したタイマーを起動する。
 このタイマーの有効期限が切れると、基地局装置130は、SPSを開始するスロットをオフセット値に相当するスロット数分オフセットさせたSPSを再設定し、タイマーをリセットする。
 以降、端末装置110がS-NSSAI1に対応するサービスを終了するまで、このSPSの再設定処理は繰り返される。
 <4.2.複数のSPS設定>
 上述した例では、基地局装置130が1つのSPSを設定する場合について説明したが、基地局装置130が、複数のSPSを設定するようにしてもよい。これにより、基地局装置130は、SPSに割り当てるリソースを増やすことができる。
 図15、図16は、本開示の実施形態に係る基地局装置130によるSPS設定例を説明するための図である。
 図15に示すように、基地局装置130は、SPSの周期(例えば22ms)内で連続する複数のスロットに複数のSPSを設定してもよい。或いは、基地局装置130は、図16に示すように、分散した複数のスロットに複数のSPSを設定してもよい。
 基地局装置130は、例えばSPSを設定した複数のスロットに動画データを割り当てて送信する。
 また、基地局装置130は、SPSの再設定を複数のSPSの各SPSを切り替えて実現してもよい。
 なお、図15及び図16では、基地局装置130は、SPS周期の先頭から複数のスロットにSPSを設定しているが、これに限定されない。基地局装置130が、SPS周期の末尾から複数のスロットにSPSを設定してもよく、或いは、SPS周期の中央に位置する複数のスロットにSPSを設定してもよい。また、図15及び図16では、基地局装置130がSPSを設定するリソース割り当て数を3つとしているが、これに限定されず、2つであっても4つ以上であってもよい。
 また、基地局装置130は、PDCCHを周期的にモニタリングするために端末装置110に間欠受信、DRX(Discontinuous Reception)を設定する。アイドルモード(Idle mode)の端末装置110が行う処理の1つは、基地局装置130からページングを通知するPDCCHをモニタリングすることである。そこで、アイドルモードでは待ち受け時の消費電力を抑えるために、周期的にPDCCHをモニタリングするためのDRXが設定される。
 また、コネクテッドモード(Connected mode)の端末装置110においても消費電力を削減することは重要である。そこで、基地局装置130は、RRC Connection Setup、或いはRRC ConnectionReconfigurationを使ってC-DRX(Connected mode DRX)を設定することができる。PDCCHのモニタリング周期に合わせてlongDRX-Cycleの値が設定され、PDCCHを割り当てるスロット位置に基づいて、drxStartOffsetとonDurationTimerの値が設定される。さらに、PDCCHを介してスケジューリング情報を受信して、そのスケジューリング情報が示すデータを受信する期間としてdrx-InactivityTimerを設定する。さらに、基地局装置130は、このLong DRXに加えて、Short DRXを設定することができる。
 Short DRXは、drxShortCycleTimerとshortDRX-Cycleによって設定される。コネクテッドモードの端末装置110は、Long DRXの設定に従って、PDCCHをモニタリングする。onDurationTimerが有効な期間に渡ってスケジューリング情報を含むPDCCHの復調に成功すると、drx-InactivityTimerをスタートさせ、drx-InactivityTimerが有効な期間に渡って、スケジューリング情報が示すデータを受信することができる。drx-InactivityTimerの有効期限が満了すると、端末装置110は、drxShortCycleTimerをスタートさせ、drxShortCycleTimerが有効な期間に渡って、longDRX-Cycleより高い頻度のshortDRX-Cycleの周期でPDCCHをモニタリングする。このshortDRX-CycleでのPDCCHのモニタリングによって、例えば、短い期間で送信されるパケットのQoSを確保することができる。drxShortCycleTimerの有効期限が満了すると、端末装置110は、Long DRXの設定に従って、PDCCHの周期的なモニタリングを再開する。
 基地局装置130は、PDCCHのモニタリング周期とSPS周期に基づいて端末装置110にC-DRXを設定する。例えば、PDCCHをSPSが設定されたスロット内で通知する場合には、1つのLong DRXが設定される。SPS周期に合わせてlongDRX-Cycleの値を設定し、SPSが設定されたスロット位置に基づいてdrxStartOffsetとonDurationTimerの値が設定される。ここで、連続する複数のスロットにSPSが設定される場合(図15)には、その連続するスロット数に応じてonDurationTimerの値が設定される。或いは、SPSが設定された先頭のスロット位置に合わせてLong DRXのdrxStartOffsetとonDurationTimerの値を設定し、2番目以降のスロットの位置に合わせてdrx-InactivityTimerの値が設定される。分散した複数のスロットにSPSが設定される場合(図16)には、その分散した複数のスロットがすべて含まれるようにonDurationTimerの値が設定される。或いは、分散した複数のスロットにSPSが設定される場合には、SPSが設定された最初のスロット位置に合わせてLong DRXのdrxStartOffsetとonDurationTimerの値を設定し、2番目以降のスロットの位置に合わせてShort DRXのdrxShortCycleTimerとshortDRX-Cycleを設定する。SPS周期内で分散して設定されたスロットの周期に基づいてdrxShortCycleTimerの値を設定し、分散して設定された複数のスロットが含まれる期間に基づいてshortDRX-Cycleを設定する。
 また、PDCCHをSPSが設定されたスロットに隣接するスロットで通知する場合には、SPS周期に合わせて1つlongDRX-Cycleの値を設定し、その隣接するスロットとSPSが設定されたスロットの位置に基づいてdrxStartOffsetとonDurationTimerの値を設定する。つまり、onDurationTimerの期間に渡って、PDCCHのモニタリングとSPSが設定されたスロットを使って送られるデータを受信する。
 なお、この1つのLong DRXの設定は、SPSが再設定されるタイミングで再設定される。SPSの再設定を複数のSPSの各SPSを切り替えて実現する場合には、SPSを切り替える度にLong DRXが再設定される。切り替えられたSPSのスロット位置に基づいてdrxStartOffsetと、onDurationTimer、或いはdrx-InactivityTimerの値が再設定される。このDRXの再設定においてDRXの各パラメータを更新するために、DCIを介して各パラメータを通知するようにしてもよい。
 また、PDCCHのモニタリング周期とSPSの周期を柔軟に設定する、つまり、異なる周期を設定するために独立した2つのLong DRXを設定するようにしてもよい。PDCCHのモニタリングのために第1のLong DRXが設定され、SPSを介したデータの受信のために第2のLong DRXが設定される。PDCCHのモニタリング周期に合わせて第1のlongDRX-Cycleの値を設定し、PDCCHを通知するスロットに合わせて第1のdrxStartOffsetと第1のonDurationTimerの値が設定される。SPS周期に合わせて第2のlongDRX-Cycleの値を設定し、SPSが設定されたスロット位置に基づいて第2のdrxStartOffsetと第2のonDurationTimerの値が設定される。なお、第2のLong DRXの設定には、上述の1つのLong DRXを設定する場合で示した方法を用いることができる。ここで、第1のonDurationTimerの期間と第2のonDurationTimerの期間の一部、若しくは全てが重複する場合には、端末装置110は第1のonDurationTimerの期間と第2のonDurationTimerの期間の論理和(OR)となる期間をonDurationTimerの期間と判断する。また、第1のonDurationTimerの終了のタイミングと第2のonDurationTimerの開始の期間、或いは、第2のonDurationTimerの終了のタイミングと第1のonDurationTimerの開始の期間がある閾値以下の場合、端末装置110の受信系のオンとオフの制御が難しくなることが考えられる。このような場合には、端末装置110は第1のonDurationTimerと第2のonDurationTimerの期間を含む連続した期間を第3のonDurationTimerの期間として、この受信系のオンとオフの制御の課題を回避することができる。また、この判断のための閾値(例えば、5スロット等)は、第2のLong DRXを設定する際にLong DRXのパラメータの1つ(例えば、DurationThreshold)として端末装置110に通知するようにしてもよい。なお、SPS、或いはDRXの設定における上述のスロットの概念は、ミニスロットを含み得る。
 図17は、本開示の実施形態に係る基地局装置130によるSPSの設定例を説明するための図である。
 図17では、基地局装置130は、SPSの周期(例えば22ms)内で同一の周期を有する複数のSPSを設定する。
 基地局装置130は、端末装置110とのダウンリンクに、例えば、任意のスロットの間隔を有する4つのSPSに対応するリソース割り当て701~704を設定する。図17では、リソース割り当て701、702の間、リソース割り当て702、703の間、及び、リソース割り当て703、704の間が6スロット分空いている。また、リソース割り当て704と次の周期のリソース割り当て701との間が4スロット分空いている。
 基地局装置130は、設定された複数のリソース割り当ての各リソース割り当てをDCI(Downlink Control Information)を使って個々にアクティベートし得る。ここでは、例えば、基地局装置130は、最初に、リソース割り当て701に対応するSPSのみをアクティベートする。
 SPSの周期と動画の第1のフレームレートの周期の差の累積時間が、リソース割り当て701とリソース割り当て702の時間差、つまり、図17の例では6スロット分以上になったとする。この場合、基地局装置130は、DCIを使ってリソース割り当て701に対応するSPSをディアクティベートし、リソース割り当て702に対応するSPSをアクティベートする。
 次に、またSPSの周期と動画の第1のフレームレートの周期の差の累積時間が、リソース割り当て702とリソース割り当て703の時間差である6スロット分以上になったとする。この場合、基地局装置130は、DCIを使ってリソース割り当て702に対応するSPSをディアクティベートし、リソース割り当て703に対応するSPSをアクティベートする。
 続いて、SPSの周期と動画の第1のフレームレートの周期の差の累積時間が、リソース割り当て703とリソース割り当て704の時間差である6スロット分以上になったとする。この場合、基地局装置130は、DCIを使ってリソース割り当て703に対応するSPSをディアクティベートし、基地局装置130は、リソース割り当て704に対応するSPSをアクティベートする。
 同様に、SPSの周期と動画の第1のフレームレートの周期の差の累積時間が、リソース割り当て704と次の周期のリソース割り当て701の時間差である4スロット分以上になったとする。この場合、基地局装置130は、DCIを使ってリソース割り当て704に対応するSPSをディアクティベートし、リソース割り当て701に対応するSPSをアクティベートする。
 以降、端末装置110がS-NSSAI1に対応するサービスを終了するまで、この設定された複数のSPSの各SPSのアクティベート/ディアクティベート処理は継続される。
 基地局装置130は、上述したように、動画データの送信に使用するSPSを切り替える場合、切り替え前後のSPSのオフセットを例えばDCIを用いて端末装置110に通知してもよい。
 ここで、SPSの周期、SPSの周期内に設定するSPSの数、SPSの周期内での各SPSに対応するリソース割り当ての配置、各SPSをアクティベートしてからディアクティベートまでの期間に関する情報は、PDUセッションの確立処理において、SMF206から基地局装置130に通知される。
 <4.3.CGの再設定>
 AR、VR、MR、SR、XRのように、HMDで自由視点映像やリアルタイム動画を視聴するようなアプリケーションにおいては、上述のようにMotion-to-photon latencyを一定値以内に抑えることが重要となる。そこで、頭の動き、視点、或いは、視点を含む視野の変化を動画の各フレーム画像に反映させるために、端末装置110が検出した最新の慣性に係る情報を送信する周期的なアップリンクが発生する。そこで、端末装置110がS-NSSAI1に対応するサービスを受けるためのPDUセッション確立要求をAMF209に送ると、5GCは、上述のSPSに加えてCG(Configured Grant)を設定する。ここで、CGの設定方法は、ここまでに説明してきたSPSの設定方法と同じ方法を用いることができる。
 また、S-NSSAI1に対応するサービスのためのPDUセッション確立処理において、選択されたSMF206は、S-NSSAI1に対応するサービスを提供するためにAF208を使用してもよい。
 AF208は、例えば、端末装置110が利用するアプリケーションが周期的なダウンリンクの受信が必要である場合には、SPSの設定を決定する。さらに、アプリケーションが動画の受信を伴う場合には、AF208は、動画のフォーマットを特定し、特定した動画のフォーマットに応じて必要なSPSの設定を決定する。
 また、AF208は、端末装置110が利用するアプリケーションが周期的なアップリンクの送信が必要である場合には、CGの設定を決定するようにしてもよい。例えば、アプリケーションが受信する動画に端末装置110が検出する慣性に係る情報を反映させるために、動画のフレームレートを勘案したCGの設定が決定される。つまり、AF208は、アプリケーションが扱う動画のフォーマットに基づいて、動画のデータの受信に必要な設定と、動画のデータの生成に用いる情報(例えば、慣性に係る情報)の送信に必要な設定をアシストする情報を他のNF、或いは、基地局装置130に提供する。
 AF208で決定されたSPSの設定とCGの設定は、SMF206及びAMF209を介して、基地局装置130に提供される。
 ここで、上述した例では、基地局装置130がSPSの再設定を行う場合について説明したが、基地局装置130が、ConfiguredGrantConfig(CGConfig)の再設定を行うようにしてもよい。係る点について図18、図19を用いて説明する。
 図18及び図19は、本開示の実施形態に係る基地局装置130によるCGの再設定について説明するための図である。
 図18に示すように、情報処理装置150は、慣性計測情報受信期間において、基地局装置130を介して慣性計測情報を周期的に受信する。このときの周期は、基地局装置130が端末装置110から慣性計測情報を受信するアップリンク通信の周期によって決まり、例えば、ConfiguredGrantConfigで設定されるCG周期と一致する。
 情報処理装置150は、受信した慣性計測情報に基づき、動画データ生成処理を実行して動画データを生成し、基地局装置130を介して端末装置110に送信する。かかる動画データは、SPSを使ったデータ送信にて、SPS周期で送信される。
 SPS周期とCG周期が同じである場合、情報処理装置150は、直近で受信した慣性計測情報に基づいて動画データを生成することができる。
 この場合において、SPS周期と第1のフレームレートとの差の累積時間が閾値以上になると、基地局装置130は、SPS再設定を行う。これにより、SPSを使ったデータ送信にずれが発生する。
 図18の例では、SPSを使ったデータ送信の送信タイミングが早くなるように、SPSの再設定が行われる。そのため、情報処理装置150が直近で受信した慣性計測情報に基づいて動画データを生成しても、再設定後の送信タイミングに間に合わず、動画データが送信できなくなってしまう。或いは、情報処理装置150が、動画データを送信するために、直近以前に受信した慣性計測情報を用いて動画データを生成しなければならなくなってしまう。
 そこで、図19に示すように、本実施形態に係る基地局装置130は、SPSの再設定を行う場合に、ConfiguredGrant(CG)の再設定を行う。このとき、基地局装置130は、SPSの再設定を行うタイミングよりも前にCGの再設定を行うことが望ましい。これにより、SPSの再設定を行っても、情報処理装置150が直近で受信した最新の慣性計測情報に基づいて動画データを生成することができる。
 <4.4.タイムワープの変更>
 上述した例では、基地局装置130がSPS又はCGの再設定を行うことで、端末装置110で発生する通信タイミングと表示タイミングとのずれを小さくしたが、ずれを小さくする方法はこれに限定されない。例えば、端末装置110が、タイムワープを使用して表示するタイムワープ画像の数を調整することで、かかるずれを小さくしてもよい。
 図20は、本開示の実施形態に係る端末装置110による表示処理の一例を説明するための図である。
 図20に示すように、端末装置110は、SPS周期の受信期間で受信した動画データから最新の慣性に関する情報を用いてフレーム画像(以下、第1の画像とも記載する)を生成して表示する。また、端末装置110は、同様にして生成したフレーム画像(タイムワープ画像)をタイムワープ表示する。端末装置110は、第2のフレームレートで第1の画像、若しくは、タイムワープ画像をフレーム画像として表示する。
 この場合において、SPSの周期と第1のフレームレート(45fps)の周期のわずかなずれの累積によって、動画データの受信が第1の画像の表示タイミングに間に合わない状態が発生する。図20では、B点で動画データの受信が第1の画像の表示タイミングに間に合わない状態が発生している。
 SPSの周期と第1のフレームレートの周期の差の累積時間がある閾値以上になり、第1の画像の表示タイミングに間に合わない状態になったとする。端末装置110は、図20の下図のように、本来第1の画像を表示するタイミングで、その前の受信タイミングで受信した動画データにタイムワープを適用したタイムワープ画像を表示する。これにより、端末装置110は、第1の画像の表示タイミングを半周期遅らせることができ、直近に受信した動画データを用いて生成した第1の画像を表示することができる。
 上記例では、動画データの受信タイミングが遅くなり第1の画像の表示タイミングに間に合わない場合について説明したが、動画データの受信タイミングが早くなる場合について説明する。
 図21は、本開示の実施形態に係る端末装置110による表示処理の他の例を説明するための図である。
 SPSの周期と第1のフレームレート(45fps)の周期のわずかなずれの累積によって、動画データを受信してから、当該動画データに基づいて生成された第1の画像を表示する表示タイミングまでの遅延が、大きくなってしまう状態が発生する。図21では、D点で、動画データを受信してから第1の画像を表示する表示タイミングまでの遅延が、例えばMotion-to-photon latencyを無視できない程大きくなってしまっている。
 このように、SPSの周期と第1のフレームレートの周期の差の累積時間がある閾値以上になり、動画データを受信してから第1の画像を表示する表示タイミングまでの遅延が、Motion-to-photon latencyを無視できない程大きくなってしまったとする。
 端末装置110は、図21の下図に示すように、その前の受信タイミングで受信した動画データにタイムワープを適用したタイムワープ画像を表示するタイミング(C点)で、直近に受信した動画データから生成した第1の画像を表示する。これにより、端末装置110は、第1の画像の表示タイミングを半周期早くすることができ、Motion-to-photon latencyの影響を低減することができる。
 <4.5.優先度の設定>
 上述したいくつかの例では、1つの動画データが1つのSPSに割り当てられる場合について説明したが、これに限定されない。例えば、基地局装置130が、複数の領域に分割された動画データを、各領域の優先度に応じて、複数のSPSに割り当てるようにしてもよい。ここで、分割された各動画データは、例えば、セグメントと呼ばれるデータである。
 図22~図25は、本開示の実施形態に係る基地局装置130による動画データの割り当て処理の一例について説明するための図である。
 情報処理装置150は、端末装置110から取得した最新の慣性に係る情報に基づき、ユーザの視点、或いは、視点を含む視野を設定する。さらに、情報処理装置150は、設定した視、或いは、視野点が中心になるよう領域を決定し、決定した領域の動画データを生成する。
 このとき、図22に示すように、情報処理装置150は、生成した動画データを複数の領域に分割する。そして、情報処理装置150は、設定したユーザの視点と分割した領域との距離に応じて分割した領域の解像度を変更する。
 例えば、図22に示すように、情報処理装置150は、ユーザの視点が動画データの中央に位置するものとして動画データを生成し、生成した動画データを3×3の9つの領域に分割する。
 この場合、図23に示すように、情報処理装置150は、分割した領域のうち、視点に最も近い、中央に位置する領域801の解像度を最も高く設定する(高解像度)。また、情報処理装置150は、分割した領域のうち、視点から最も遠く、動画データの角部に位置する領域806~809の解像度を最も低く設定する(低解像度)。情報処理装置150は、残りの領域802~805の解像度を高解像度と低解像度の間の解像度に設定する(中解像度)。領域802~805は、視点に最も近い領域801と辺で接する領域であり、領域806~809は、領域802~805と辺で接する領域である。
 なお、ここでは、動画データを9つに分割する場合について説明したが、画像データの分割数は9に限定されない。分割数は、2以上8以下であってもよく、10以上であってもよい。また、ここでは、領域の解像度を低、中、高の3つに分ける場合について説明したが、解像度の数は3つに限定されない。解像度の数は、2つであってもよく、4つ以上であってもよい。さらに、ここでは、分割される各領域の大きさは同一である場合について説明したが、各領域の大きさが同一である例に限定されない。例えば、異なる大きさの領域に分割するようにしてもよい。
 ここで、各領域に適用し得る動画データとして、解像度の異なる複数のフォーマットが予め定義されていてもよい。つまり、情報処理装置150は、視点からの距離に応じて異なる解像度の動画フォーマットを選択して動画データを生成する。
 情報処理装置150は、視点からの距離に加えて、さらに、端末装置110と基地局装置130との間の通信品質に基づいて異なる解像度の動画フォーマットを選択してもよい。例えば、AF208は無線通信品質取得部(図示せず)を具備して、基地局装置130から端末装置110と基地局装置130との間の通信品質を取得する。無線通信品質取得部は、基地局装置130から取得した端末装置110と基地局装置130との間の通信品質を情報処理装置150に提供する。
 図24に示すように、AF208は、動画の各領域の解像度に応じて、優先度を割り当てる。高解像度の領域801には高い優先度、中解像度の領域802~805には中の優先度、低解像度の領域806~809には低い優先度を割り当てる。ここで、優先度は、例えば、QFI(QoS Flow identifier)と5QI(5G QoS Identifier)である。
 ここで、QoSフローは、PDUセッション内でQoSを差異化する最も細かい粒度の概念であり、5GSでは、QFIによってQoSフローを識別する。UPF220と基地局装置130に対応するRAN/AN230との間のN3において、各データフローは、カプセル化されたQFIをヘッダーに付加して送られる。なお、QFIは5QIと等価であってもよい。
 AMF209は、各優先度の領域の動画のフレームレートに基づいて、SPSの周期を含めたSPSの設定を決定する。ここで、AMF209は、各優先度の領域の動画のフレームレートを同一にしてもよいし、優先度が低い領域の動画のフレームレートを下げるようにしてもよい。
 また、各優先度に対するSPSの設定は、優先度のより高い領域の動画が優先度のより低い領域の動画よりも時間的に先に端末装置110に受信されるように勘案して決定される。
 AMF209で決定された各優先度に対するSPSの設定は、SMF206及びAMF209を介して、基地局装置130に提供される。
 基地局装置130は、AMF209から取得した各優先度に対するSPSの設定に基づいて、SPSのリソース割り当てを実行する。
 図25に示す例では、基地局装置130は、高い優先度に対するSPSの周期的なリソース割り当て810、中の優先度に対するSPSの周期的なリソース割り当て811、低い優先度に対するSPSの周期的なリソース割り当て812を設定する。
 基地局装置130は、UPF220から受信したデータフローに付加されたQFIに基づいて優先度を識別し、動画データの各領域のデータを優先度に応じたリソース割り当てを使用して送信する。例えば、基地局装置130は、高い優先度の領域801を、リソース割り当て810を使って端末装置110に送信する。同様に、基地局装置130は、中の優先度の領域802~805を、リソース割り当て811を使って端末装置110に送信し、低い優先度の領域806~809を、リソース割り当て812を使って端末装置110に送信する。
 また、端末装置110のレンダリング部1153が分割された動画を1つの動画に復元するために必要なマッピングや各領域のフォーマットを含む情報は、高い優先度のデータを送るための周期的なリソース割り当て810を使って送信される。ここで、分割された動画を1つの動画に復元するために必要なマッピングや各領域のフォーマットを含む情報は、例えば、MPD(Media Presentation Description)、若しくは、類似の目的のファイルであってもよい。
 レンダリング部1153は、このマッピングや各領域のフォーマットを含む情報に基づいて、分割された各領域のフォーマットに適したデコード方法を適用して、1つの領域の動画データとして復元することができる。
 レンダリング部1153は、周期的なリソース割り当て810を介して最初にデータを受信したSPSで設定されたタイミング(例えば図12のA点参照)に基づいて、表示する動画のフレームのタイミング(例えば図12のB1点参照)を設定する。この動画のフレームのタイミングには、例えば、デコードに要する期間、レンダリング処理に要する期間、及び、マージンを考慮したオフセット期間が適用される。このオフセット期間は、動画アプリ制御部1151から制御される。
 ここでは、ユーザの視点と分割した領域との距離に応じて分割した領域の解像度を変更する例を示したが、分割した各領域の解像度を変えずに優先度のみを変えるようにしてもよい。情報処理装置150は、分割した領域のうち、視点に最も近い、中央に位置する領域801の優先度を最も高く設定する(高優先度)。また、情報処理装置150は、分割した領域のうち、視点から最も遠く、動画データの角部に位置する領域806~809の優先度を最も低く設定する(低優先度)。情報処理装置150は、残りの領域802~805の優先度を高優先度と低優先度の間の優先度に設定する(中優先度)。ここで、優先度は、例えば、QFIと5QIである。
 また、各領域のデータを送信する際、ピクセルに基づいて送信する順序を決定してもよい。例えば、端末装置110が所定の期間内に全てのピクセルの情報を受信できない場合でも、低解像度の画像を表示できるように、情報処理装置150は、フレーム画像の特定の箇所のピクセルの情報を優先して送信する。続いて、残りの部分のピクセルの情報を送信するように制御する。基地局装置130は、このピクセルに基づいた優先度に応じて、各領域のデータを端末装置110に送信する。レンダリング部1153は、受信した複数の低解像度のフレーム画像を合成して高解像度のフレーム画像を生成する。
 <<5.その他の実施形態>>
 上述の実施形態は一例を示したものであり、種々の変更及び応用が可能である。
 上述の実施形態では、45fpsのフレームレートの動画を、タイムワープを使って90fpsの動画を表示する例を示したが、フレームレートはこの例に限定されない。本開示の技術は、様々なフレームレートの動画の表示に適用し得る。
 上述の実施形態では、情報処理装置150が慣性に係る情報に基づき、動画データを生成して端末装置110に送信するとした。すなわち、情報処理装置150は、例えば、360度の動画情報からユーザの視点に応じた動画データを生成して端末装置110に送信するとしたが、これに限定されない。例えば、情報処理装置150が、360度の動画データをそのまま端末装置110に送信するようにしてもよい。この場合、情報処理装置150は、例えば解像度の低い360度の動画データを送信することで、送信データ量を削減するようにしてもよい。また、情報処理装置150がユーザの視点に応じた動画データと、解像度を落とした360度の動画データの両方を端末装置110に送信するようにしてもよい。
 また上述の実施形態では、基地局装置130又は5GC/NGC20のNFがフレームレートを取得するとしたが、これに限定されない。すなわち、基地局装置130や5GC/NGC20のNFが取得するフレームレートに関する情報は、フレームレートの値そのもの(例えば45fpsや90fps)だけでなく、フレームレートに対応するインデックス(例えば、QFI、或いは、5QI)であってもよい。
 また、分割された動画を1つの動画に復元するための情報として、マッピングや各領域のフォーマットを含む例を示したが、この分割された動画を1つの動画に復元するための情報にフレームレートに関する情報を含めるようにしてもよい。基地局装置130や5GC/NGC20のNFは、この分割された動画を1つの動画に復元するための情報を介してフレームレートを取得するようにしてもよい。
 また、上述の実施形態では、端末装置110がダウンリンクで動画データを受信し、アップリンクで慣性に係る情報を送信する場合について説明したが、これに限定されない。例えば、端末装置110が受信するデータは、リアルタイムかつ周期的に受信されるデータであればよく、動画データ以外であってもよい。また、端末装置110が送信するデータも、リアルタイムかつ周期的に送信されるデータであればよく、慣性に係る情報以外であってもよい。このように、本開示の技術は、リアルタイムかつ周期的に行われる種々のデータの通信に適用し得る。
 <<6.適用例>>
 また、いくつかの実施形態において上述した、SPS又はCGの設定は、拡張現実(Argument Reality(AR))/仮想現実 (Virtual Reality (VR))/複合現実 (Mixed Reality (MR))/代替現実 (Substitutional Reality (SR))を用いたサービス(例えば、クラウドゲーム)の要求条件が考慮されてもよい。
 5G NR(New Radio)ではユースケースとしていくつかのサービスが検討されている。このうち、AR/VRサービスは5G NRのキラーコンテンツとして期待されている。3GPP TR 22.842 v17.1.0及びTS 22.261 v17.0.1は、AR/VRを用いたクラウドゲームについて、ゲーム画像のレンダリングに関する要求条件を規定している。より具体的には、これらの技術仕様書、報告書は、ゲーム画像のレンダリングにおいて、AR/VRユーザが映像の動きに違和感を覚えないレベルの許容遅延として、motion-to-photon遅延とmotion-to-sound遅延について次のように記載している。
・motion-to-photon遅延:要求されるデータレート(1Gbps)を維持しつつ、motion-to-photon遅延は7-15msの範囲、
・motion-to-sound遅延:20ms未満。
 なお、motion-to-photon遅延は、ユーザの頭の物理的な動きとAR/VR headset(例えば、Head Mount Display)内の更新された画像との間の遅延として定義される。また、motion-to-sound遅延は、ユーザの頭の物理的な動きとユーザの耳に届くヘッドマウントスピーカーからの内の更新された音波との間の遅延として定義される。ここでのAR/VR headsetやヘッドマウントスピーカーは本開示における端末装置110であってもよい。
 これら遅延に関する条件を満たすために、5G systemとしてはレンダリングに関して次の2つの要求条件を満たすよう、上述の技術仕様書、報告書は規定している。
・Max Allowed End-to-end latency:5ms(すなわち、端末(例えば、端末装置110)とデータネットワーク(例えば、Application Function(AF)が配置されるネットワーク)へのインタフェースとの間の上りリンク及び下りリンクの合計の許容遅延が5ms)、
・Service bit rate: user-experienced data rate:0.1Gbps(100Mbps)(すなわち、AR/VRコンテンツをサポートできるスループット)。
 なお、ここでのレンダリングは、Cloudレンダリング、Edgeレンダリング又はSplitレンダリングを含む。Cloudレンダリングは、ネットワークのクラウド上(ユーザの位置を考慮しないコアネットワーク(UPFを含む)配置とデータネットワーク(アプリケーションサーバやAFを含む)配置に基づく、とあるエンティティ上)においてAR/VRデータがレンダリングされる。Edgeレンダリングは、ネットワークのエッジ上(ユーザの位置に近いコアネットワーク(UPFを含む)配置とデータネットワーク(アプリケーションサーバやAFを含む)配置に基づく、とあるエンティティ(例えば、Edge Computing Server (Edge Computing のためのネットワーク配置におけるデータネットワーク内のアプリケーションサーバ))上において、AR/VRデータがレンダリングされる。Splitレンダリングは、レンダリングの一部がクラウド上で行われ、他の一部がエッジ上で行われるレンダリングを意味する。
 図26は、レンダリングに関するレンダリングサーバとAR/VRクライアントのイメージ図である。図26は、上述の技術報告書に記載されている。ここで、AR/VRクライアントは、本開示における端末装置110に対応してもよい。また、Cloud Render Serverは、本開示における情報処理装置150に対応してもよい。また、Cloud Render Serverは、本開示における基地局装置130に接続されたLocal UPFがインタフェースとなるLADN(Local Area Data Network)内のエッジコンピューティングのためのアプリケーションサーバ(例えば、Edge Computing Server)であってもよい。また、Cloud Render Serverは、Edge Render Serverという名称であってもよいし、Split Render Serverという名称であってもよい。
 この適用例において、例えば、motion-to-photon遅延(7-15ms)又はmotion-to-sound遅延(20ms未満)が要求されるデータ通信(例えば、セッション(PDU session)、ベアラ(Radio Bearer)、パケットフロー(QoSフロー))の場合に、上述したSPS又はCGの再設定が行われてもよい。
 他の側面では、レンダリングに関する要求条件Max Allowed End-to-end latency(5ms)が要求されるデータ通信(例えば、セッション(PDU session)、ベアラ(Radio Bearer)、パケットフロー(QoSフロー))の場合に、上述したSPS又はCGの再設定が行われてもよい。
 <<7.むすび>>
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 上記実施形態において説明した処理のうち、自動的に行われるものとして説明した処理の全部又は一部を手動的に行うこともでき、或いは、手動的に行われるものとして説明した処理の全部又は一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
 また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。
 また、上述してきた実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
 また、本明細書に記載された効果は、あくまで説明的又は例示的なものであって限定的ではない。つまり、本開示にかかる技術は、上記の効果とともに、又は上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 動画データを端末装置に所定の周期で送信する無線通信部と、
 前記端末装置が前記動画データを受信する周期的な受信タイミングと、所定のフレームレートで前記端末装置に表示される前記動画データの表示タイミングと、の差が、所定の条件を満たす場合に、前記受信タイミングに関する設定を変更する制御部と、
 を備える基地局装置。
(2)
 前記受信タイミングに関する前記設定は、Semi-Persistent Scheduling(SPS)設定である、(1)に記載の基地局装置。
(3)
 前記制御部は、前記受信タイミングと前記表示タイミングとが揃うように前記受信タイミングをリセットすることで、前記受信タイミングに関する前記設定を変更する、(1)又は(2)に記載の基地局装置。
(4)
 前記制御部は、変更後の前記受信タイミングを示すオフセットを前記端末装置に通知することで、前記受信タイミングに関する前記設定を変更する、(1)~(3)のいずれか1つに記載の基地局装置。
(5)
 前記制御部は、複数の前記受信タイミングに関する前記設定が前記端末装置に設定されている場合に、複数の前記受信タイミングに関する前記設定のうち、ディアクティベートする前記設定及び新たにアクティベートする前記設定を前記端末装置に通知することで、前記受信タイミングに関する前記設定を変更する、(1)~(4)のいずれか1つに記載の基地局装置。
(6)
 前記所定の条件は、前記差が閾値以上、又は前記差の累積が閾値以上である、(1)~(5)のいずれか1つに記載の基地局装置。
(7)
 前記制御部は、前記端末装置からの要求に応じて前記受信タイミングに関する前記設定を変更する、(1)~(6)のいずれか1つに記載の基地局装置。
(8)
 前記制御部は、接続するネットワークに属するネットワークファンクションからの指示に応じて前記受信タイミングに関する前記設定を変更する、(1)~(7)のいずれか1つに記載の基地局装置。
(9)
 前記制御部は、前記動画データを取得するコンテンツサーバから前記フレームレートに関する情報を取得する、(1)~(8)のいずれか1つに記載の基地局装置。
(10)
 前記端末装置は、ユーザの視点に関する情報に基づき、前記動画データから画像を生成することで、前記フレームレートより大きい第2のフレームレートで前記動画データを表示する場合に、前記差に応じて生成する前記画像の数を調整する、(1)~(9)のいずれか1つに記載の基地局装置。
(11)
 前記制御部は、前記動画データを複数に分割した各領域を、前記領域の優先度に応じた前記受信タイミングの前記設定で送信し、
 前記領域の前記優先度は、ユーザの視点に関する情報に基づいて設定される、
 (1)~(10)のいずれか1つに記載の基地局装置。
(12)
 前記領域の前記優先度は、前記ユーザの視点に関する情報に基づいて設定された前記領域の解像度に応じて設定される、
 (11)に記載の基地局装置。
(13)
 基地局装置から動画データを所定の周期で受信する無線通信部と、
 前記動画データを所定のフレームレートで表示する制御部と、
 を備え、
 前記無線通信部は、前記動画データを受信する周期的な受信タイミングと、前記所定のフレームレートで前記動画データを表示する表示タイミングと、の差が、所定の条件を満たす場合に、変更された前記受信タイミングの設定に基づいて前記動画データを受信する、
 端末装置。
(14)
 動画データを端末装置に所定の周期で送信することと、
 前記端末装置が前記動画データを受信する周期的な受信タイミングと、所定のフレームレートで前記端末装置に表示される前記動画データの表示タイミングと、の差が、所定の条件を満たす場合に、前記受信タイミングに関する設定を変更することと、
 を含む通信方法。
(15)
 基地局装置から動画データを所定の周期で受信することと、
 前記動画データを所定のフレームレートで表示することと、
 前記動画データを受信する場合に、前記動画データを受信する周期的な受信タイミングと、前記所定のフレームレートで前記動画データを表示する表示タイミングと、の差が、所定の条件を満たす場合に、変更された前記受信タイミングの設定に基づいて前記動画データを受信することと、
 を含む通信方法。
(16)
 ユーザに関する情報を端末装置から第1の周期で受信し、前記ユーザに関する情報に基づいて生成された動画データを第2の周期で送信する無線通信部と、
 前記端末装置が前記動画データを受信する周期的な受信タイミングと、所定のフレームレートで前記端末装置に表示される前記動画データの表示タイミングと、の差が、所定の条件を満たす場合に、前記端末装置が前記ユーザに関する情報を周期的に送信する送信タイミングに関する設定を変更する制御部と、
 を備える基地局装置。
(17)
 前記制御部は、さらに、前記受信タイミングに関する設定に基づいて間欠受信の周期とオンの期間を設定する、(1)に記載の基地局装置。
(18)
 前記制御部は、前記間欠受信の設定として1つの間欠受信を設定し、ダウンリンクの制御チャンネルを当該1つの間欠受信の設定におけるオンの期間に割り当てる、(17)に記載の基地局装置。
(19)
 前記制御部は、前記間欠受信の設定として、ダウンリンクの制御チャンネルをモニタリングするための第1の間欠受信の設定とは異なる第2の間欠受信を設定し、
 前記第2の間欠受信の周期とオンの期間は、前記受信タイミングに関する設定に基づいて設定される、(17)に記載の基地局装置。
(20)
 前記制御部は、前記第2の間欠受信の設定として、前記第1の間欠受信の第1のオンの期間と、前記第2の間欠受信の第2のオンの期間の間隔に係る閾値を設定する、(19)に記載の基地局装置。
(21)
 前記無線通信部は、前記受信タイミングの設定に基づいた間欠受信の周期とオンの期間を設定する、(13)に記載の端末装置。
(22)
 前記無線通信部は、前記間欠受信の設定として、ダウンリンクの制御チャンネルをモニタリングするための第1の間欠受信の設定とは異なる第2の間欠受信を設定し、
 ここで、前記第2の間欠受信の周期とオンの期間は、前記受信タイミングの設定に基づいて設定される、(21)に記載の端末装置。
(23)
 前記無線通信部は、前記第1の間欠受信の第1のオンの期間と、前記第2の間欠受信の第2のオンの期間の一部、若しくは全てが重複する場合に、前記第1のオンの期間と前記第2のオンの期間を含む第3のオンの期間を設定する、(22)に記載の端末装置。
(24)
 前記無線通信部は、前記第2の間欠受信の設定として、前記第1の間欠受信の第1のオンの期間と、前記第2の間欠受信の第2のオンの期間の間隔に係る閾値を設定し、前記第1の間欠受信の第1のオンの期間と、前記第2の間欠受信の第2のオンの期間の間隔が前記閾値以下、若しくは未満であった場合に、前記第1のオンの期間と前記第2のオンの期間を含む第3のオンの期間を設定する、(22)に記載の端末装置。
100 コンテンツ配信システム
110 端末装置
130 基地局装置
131 通信部
134 制御部
150 情報処理装置

Claims (16)

  1.  動画データを端末装置に所定の周期で送信する無線通信部と、
     前記端末装置が前記動画データを受信する周期的な受信タイミングと、所定のフレームレートで前記端末装置に表示される前記動画データの表示タイミングと、の差が、所定の条件を満たす場合に、前記受信タイミングに関する設定を変更する制御部と、
     を備える基地局装置。
  2.  前記受信タイミングに関する前記設定は、Semi-Persistent Scheduling(SPS)設定である、請求項1に記載の基地局装置。
  3.  前記制御部は、前記受信タイミングと前記表示タイミングとが揃うように前記受信タイミングをリセットすることで、前記受信タイミングに関する前記設定を変更する、請求項1に記載の基地局装置。
  4.  前記制御部は、変更後の前記受信タイミングを示すオフセットを前記端末装置に通知することで、前記受信タイミングに関する前記設定を変更する、請求項1に記載の基地局装置。
  5.  前記制御部は、複数の前記受信タイミングに関する前記設定が前記端末装置に設定されている場合に、複数の前記受信タイミングに関する前記設定のうち、ディアクティベートする前記設定及び新たにアクティベートする前記設定を前記端末装置に通知することで、前記受信タイミングに関する前記設定を変更する、請求項1に記載の基地局装置。
  6.  前記所定の条件は、前記差が閾値以上、又は前記差の累積が閾値以上である、請求項1に記載の基地局装置。
  7.  前記制御部は、前記端末装置からの要求に応じて前記受信タイミングに関する前記設定を変更する、請求項1に記載の基地局装置。
  8.  前記制御部は、接続するネットワークに属するネットワークファンクションからの指示に応じて前記受信タイミングに関する前記設定を変更する、請求項1に記載の基地局装置。
  9.  前記制御部は、前記動画データを取得するコンテンツサーバから前記フレームレートに関する情報を取得する、請求項1に記載の基地局装置。
  10.  前記端末装置は、ユーザの視点に関する情報に基づき、前記動画データから画像を生成することで、前記フレームレートより大きい第2のフレームレートで前記動画データを表示する場合に、前記差に応じて生成する前記画像の数を調整する、請求項1に記載の基地局装置。
  11.  前記制御部は、前記動画データを複数に分割した各領域を、前記領域の優先度に応じた前記受信タイミングの前記設定で送信し、
     前記領域の前記優先度は、ユーザの視点に関する情報に基づいて設定される、
     請求項1に記載の基地局装置。
  12.  前記領域の前記優先度は、前記ユーザの視点に関する情報に基づいて設定された前記領域の解像度に応じて設定される、
     請求項11に記載の基地局装置。
  13.  基地局装置から動画データを所定の周期で受信する無線通信部と、
     前記動画データを所定のフレームレートで表示する制御部と、
     を備え、
     前記無線通信部は、前記動画データを受信する周期的な受信タイミングと、前記所定のフレームレートで前記動画データを表示する表示タイミングと、の差が、所定の条件を満たす場合に、変更された前記受信タイミングの設定に基づいて前記動画データを受信する、
     端末装置。
  14.  動画データを端末装置に所定の周期で送信することと、
     前記端末装置が前記動画データを受信する周期的な受信タイミングと、所定のフレームレートで前記端末装置に表示される前記動画データの表示タイミングと、の差が、所定の条件を満たす場合に、前記受信タイミングに関する設定を変更することと、
     を含む通信方法。
  15.  基地局装置から動画データを所定の周期で受信することと、
     前記動画データを所定のフレームレートで表示することと、
     前記動画データを受信する場合に、前記動画データを受信する周期的な受信タイミングと、前記所定のフレームレートで前記動画データを表示する表示タイミングと、の差が、所定の条件を満たす場合に、変更された前記受信タイミングの設定に基づいて前記動画データを受信することと、
     を含む通信方法。
  16.  ユーザに関する情報を端末装置から第1の周期で受信し、前記ユーザに関する情報に基づいて生成された動画データを第2の周期で送信する無線通信部と、
     前記端末装置が前記動画データを受信する周期的な受信タイミングと、所定のフレームレートで前記端末装置に表示される前記動画データの表示タイミングと、の差が、所定の条件を満たす場合に、前記端末装置が前記ユーザに関する情報を周期的に送信する送信タイミングに関する設定を変更する制御部と、
     を備える基地局装置。
PCT/JP2021/024721 2020-07-10 2021-06-30 基地局装置、端末装置及び通信方法 WO2022009745A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022535263A JPWO2022009745A1 (ja) 2020-07-10 2021-06-30
US18/003,617 US20230239818A1 (en) 2020-07-10 2021-06-30 Base station device, terminal device, and communication method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020119484 2020-07-10
JP2020-119484 2020-07-10

Publications (1)

Publication Number Publication Date
WO2022009745A1 true WO2022009745A1 (ja) 2022-01-13

Family

ID=79552440

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/024721 WO2022009745A1 (ja) 2020-07-10 2021-06-30 基地局装置、端末装置及び通信方法

Country Status (3)

Country Link
US (1) US20230239818A1 (ja)
JP (1) JPWO2022009745A1 (ja)
WO (1) WO2022009745A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023184189A1 (zh) * 2022-03-29 2023-10-05 北京小米移动软件有限公司 一种业务处理方法及业务处理装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013038525A1 (ja) * 2011-09-14 2013-03-21 富士通株式会社 無線端末および基地局
JP2019531632A (ja) * 2016-08-11 2019-10-31 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン レイテンシ制約があり信頼性のある無線通信システムのスケジューリング強化

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013038525A1 (ja) * 2011-09-14 2013-03-21 富士通株式会社 無線端末および基地局
JP2019531632A (ja) * 2016-08-11 2019-10-31 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン レイテンシ制約があり信頼性のある無線通信システムのスケジューリング強化

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023184189A1 (zh) * 2022-03-29 2023-10-05 北京小米移动软件有限公司 一种业务处理方法及业务处理装置

Also Published As

Publication number Publication date
US20230239818A1 (en) 2023-07-27
JPWO2022009745A1 (ja) 2022-01-13

Similar Documents

Publication Publication Date Title
US11558857B2 (en) Wireless communications for uplink preemption and downlink preemption
KR20190143782A (ko) 차세대 이동 통신 시스템에서 rrc 비활성화 모드 단말의 이중 접속을 지원하는 방법 및 장치
JP2023521568A (ja) 能力削減型nr(新無線)デバイスのための制御リソースセット0
KR102207128B1 (ko) Nr v2x에서 bwp 기반의 통신을 수행하는 방법 및 장치
KR102390350B1 (ko) Dci를 기반으로 lte sl 통신을 수행하는 방법 및 장치
KR102464965B1 (ko) 무선 통신 시스템에서 기준 포인트를 결정하는 방법 및 장치
US11356985B2 (en) Method for establishing evolved packet system bearer and base station
EP3820072A1 (en) Bandwidth part processing method and device
WO2020083039A1 (zh) 一种被用于无线通信的节点中的方法和装置
CA3127095A1 (en) Procedures enabling v2x unicast communication over pc5 interface
JP2021158605A (ja) 情報処理装置、端末装置、情報処理装置の制御方法および端末装置の制御方法
KR102516156B1 (ko) Nr v2x에서 pssch를 위한 dmrs를 전송하는 방법 및 동기화
KR20200003635A (ko) 이동 통신 시스템에서 통신 방법 및 장치
KR102353366B1 (ko) Lte 사이드링크 통신을 제어하는 dci
KR20200088161A (ko) 이동통신 시스템에서 2 단계 랜덤 엑세스 과정을 통해 사용자 데이터를 전송하는 방법 및 장치
WO2022009745A1 (ja) 基地局装置、端末装置及び通信方法
KR102401124B1 (ko) 사이드링크 통신을 수행하는 장치의 장치 능력 보고
KR102618368B1 (ko) 무선 장치들 사이의 rrc 연결을 위한 mac 리셋 기반 소프트 버퍼 플러싱
WO2019028922A1 (zh) 一种发送小区配置信息的方法及装置
KR20230164680A (ko) Mr-dc 개선들
WO2022044722A1 (ja) 情報処理装置、基地局装置、通信方法及び通信システム
TWI839496B (zh) 用於支援存取回載一體化網路中的空分多工操作的本端協調
WO2023204195A1 (ja) 通信制御方法
WO2022045061A1 (ja) 情報処理装置、情報処理方法、通信システム及びエンティティ
WO2023098209A1 (zh) 一种数据传输保护方法、设备及系统

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21837984

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022535263

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21837984

Country of ref document: EP

Kind code of ref document: A1