WO2023214851A1 - 이동 통신 시스템에서 실시간 미디어 전송을 위한 방법 및 장치 - Google Patents

이동 통신 시스템에서 실시간 미디어 전송을 위한 방법 및 장치 Download PDF

Info

Publication number
WO2023214851A1
WO2023214851A1 PCT/KR2023/006175 KR2023006175W WO2023214851A1 WO 2023214851 A1 WO2023214851 A1 WO 2023214851A1 KR 2023006175 W KR2023006175 W KR 2023006175W WO 2023214851 A1 WO2023214851 A1 WO 2023214851A1
Authority
WO
WIPO (PCT)
Prior art keywords
split
workflow
information related
service
rtc
Prior art date
Application number
PCT/KR2023/006175
Other languages
English (en)
French (fr)
Inventor
이학주
양현구
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Publication of WO2023214851A1 publication Critical patent/WO2023214851A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/10Architectures or entities
    • H04L65/1063Application servers providing network services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/80Responding to QoS
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/131Protocols for games, networked simulations or virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/2866Architectures; Arrangements
    • H04L67/289Intermediate processing functionally located close to the data consumer application, e.g. in same machine, in same home or in same sub-network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/56Provisioning of proxy services
    • H04L67/59Providing operational support to end devices by off-loading in the network or by emulation, e.g. when they are unavailable
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • H04L65/762Media network packet handling at the source 

Definitions

  • This disclosure relates to a method and device for real-time media transmission in a mobile communication system, and in particular, to a method and device that supports split rendering, in which a terminal and an edge server divide and transmit the entire process.
  • 5G mobile communication technology defines a wide frequency band to enable fast transmission speeds and new services, and includes sub-6 GHz ('Sub 6GHz') bands such as 3.5 gigahertz (3.5 GHz) as well as millimeter wave (mm) bands such as 28 GHz and 39 GHz. It is also possible to implement it in the ultra-high frequency band ('Above 6GHz') called Wave.
  • 'Sub 6GHz' sub-6 GHz
  • mm millimeter wave
  • Wave ultra-high frequency band
  • 6G mobile communication technology which is called the system of Beyond 5G
  • Terra is working to achieve a transmission speed that is 50 times faster than 5G mobile communication technology and an ultra-low delay time that is reduced to one-tenth. Implementation in Terahertz bands (e.g., 95 GHz to 3 THz) is being considered.
  • ultra-wideband services enhanced Mobile BroadBand, eMBB
  • ultra-reliable low-latency communications URLLC
  • massive machine-type communications mMTC
  • numerology support multiple subcarrier interval operation, etc.
  • dynamic operation of slot format initial access technology to support multi-beam transmission and broadband
  • definition and operation of BWP Band-Width Part
  • New channel coding methods such as LDPC (Low Density Parity Check) codes for data transmission and Polar Code for highly reliable transmission of control information
  • L2 pre-processing L2 pre-processing
  • dedicated services specialized for specific services. Standardization of network slicing, etc., which provides networks, has been carried out.
  • V2X Vehicle-to-Everything
  • NR-U New Radio Unlicensed
  • UE Power Saving NR terminal low power consumption technology
  • NTN Non-Terrestrial Network
  • IAB provides a node for expanding the network service area by integrating intelligent factories (Industrial Internet of Things, IIoT) to support new services through linkage and convergence with other industries, and wireless backhaul links and access links.
  • Intelligent factories Intelligent Internet of Things, IIoT
  • Mobility Enhancement including Conditional Handover and DAPS (Dual Active Protocol Stack) handover
  • 2-step Random Access (2-step RACH for simplification of random access procedures)
  • Standardization in the field of wireless interface architecture/protocol for technologies such as NR is also in progress
  • a 5G baseline for incorporating Network Functions Virtualization (NFV) and Software-Defined Networking (SDN) technology Standardization in the field of system architecture/services for architecture (e.g., Service based Architecture, Service based Interface) and Mobile Edge Computing (MEC), which provides services based on the location of the terminal, is also in progress.
  • NFV Network Functions Virtualization
  • SDN Software-Defined Networking
  • FD-MIMO full dimensional MIMO
  • array antennas to ensure coverage in the terahertz band of 6G mobile communication technology.
  • multi-antenna transmission technology such as Large Scale Antenna, metamaterial-based lens and antenna to improve coverage of terahertz band signals, high-dimensional spatial multiplexing technology using OAM (Orbital Angular Momentum), RIS ( In addition to Reconfigurable Intelligent Surface technology, Full Duplex technology, satellite, and AI (Artificial Intelligence) to improve the frequency efficiency of 6G mobile communication technology and system network are utilized from the design stage and end-to-end.
  • a method of operating a Real-Time Media Communication (RTC) application function (AF) includes receiving control information related to a service from a service provider; Based on the control information, determining an initial value for a workflow split for the service; Transmitting information related to the workflow split to at least one of a Real-Time Media Communication (RTC) application server (AS) and a user equipment (UE); changing the workflow split based on delay information related to processing of the service; and recall information related to the changed workflow split.
  • RTC Real-Time Media Communication
  • the work when transmitting AR (augmented reality)/3D media that requires high level processing using an edge server in a 5G network, the work is adaptive to the channel and terminal environment. By configuring flow splits, transmission is possible at a very low level of latency.
  • Figure 1 is a diagram to explain a split rendering structure that transmits media using an edge server.
  • Figure 2 is a diagram for explaining the 5G Media Streaming (5GMS) structure.
  • Figure 3 is a diagram illustrating a split rendering structure for real-time media transmission according to an embodiment of the present disclosure.
  • FIGS 4 and 5 are diagrams showing information transmitted through the R1 interface according to an embodiment of the present disclosure.
  • Figure 6 is a diagram showing additional information transmitted through the R5 interface according to an embodiment of the present disclosure.
  • Figure 7 is a diagram showing additional information transmitted through the R6 interface according to an embodiment of the present disclosure.
  • Figure 8 is a diagram showing additional information transmitted through the R7 interface according to an embodiment of the present disclosure.
  • Figure 9 is a diagram showing additional information transmitted through the R10 interface according to an embodiment of the present disclosure.
  • FIG. 10 is a diagram illustrating a flowchart of media and control information according to an embodiment of the present disclosure.
  • FIG. 11 is a flowchart explaining Step 8 of FIG. 10 in more detail.
  • FIG. 12 is a flowchart explaining Step 16 of FIG. 10 in more detail.
  • Figure 13 shows the configuration of a terminal according to embodiments of the present disclosure.
  • Figure 14 is a diagram showing the configuration of an edge server according to an embodiment of the present disclosure.
  • a method of operating a Real-Time Media Communication (RTC) application function (AF) includes receiving control information related to a service from a service provider; Based on the control information, determining an initial value for a workflow split for the service; Transmitting information related to the workflow split to at least one of a Real-Time Media Communication (RTC) application server (AS) and a user equipment (UE); changing the workflow split based on delay information related to processing of the service; And it may include transmitting information related to the changed workflow split to at least one of the AS and the UE.
  • RTC Real-Time Media Communication
  • control information required for the service may include the number of processes required for the service, identification information of the process, and QoS information required for each process.
  • control information required for the service includes the number of process sets required for the service, identification information of the process set, identification information of processes included in the process set, and QoS information required for each process set. may include.
  • the information related to the workflow split includes an initial value for the workflow split, and determines an initial value for the workflow split for the service based on the control information.
  • the steps include: receiving information related to processing capabilities of the UE; determining a maximum number of processes that the UE can handle, based on information related to processing capabilities of the UE; And based on the maximum number of processes that the UE can process, it may include determining a process to be processed by the UE and a process to be processed by the AS.
  • the step of changing the workflow split based on delay information related to processing of the service includes the delay value measured at the UE, the delay value measured at the AS, and the target delay value. If it is greater than or equal to the delay value, the step of re-determining the process to be processed by the UE and the process to be processed by the AS may be included.
  • a method of operating a Real-Time Media Communication (RTC) application server (AS) includes receiving information related to a workflow split from an RTC application function (AF); processing media based on information related to the workflow split; Receiving changed information related to the workflow split; and processing the media based on the changed information.
  • RTC Real-Time Media Communication
  • the information related to the workflow split includes an initial value for the workflow split determined based on the processing capability of the UE, and the changed information related to the workflow split is stored in the UE. It may be determined based on the measured delay value, the delay value measured at the AS, and the target delay value.
  • the step of transmitting information related to the workflow split to a user equipment (UE) may be further included.
  • UE user equipment
  • a Real-Time Media Communication (RTC) application function (AF) includes a transmitter and receiver; and a control unit connected to the transceiver unit, wherein the control unit receives control information related to a service from a service provider, and determines an initial value for a workflow split for the service based on the control information. , Transmit information related to the workflow split to at least one of a Real-Time Media Communication (RTC) application server (AS) and user equipment (UE), and transmit the workflow split based on delay information related to processing of the service. It may be configured to change a split and transmit information related to the changed workflow split to at least one of the AS and the UE.
  • RTC Real-Time Media Communication
  • control information required for the service may include the number of processes required for the service, identification information of the process, and QoS information required for each process.
  • control information required for the service includes the number of process sets required for the service, identification information of the process set, identification information of processes included in the process set, and QoS information required for each process set. may include.
  • the information related to the workflow split includes an initial value for the workflow split
  • the control unit receives information related to the processing capability of the UE and determines the processing capability of the UE. Based on information related to, determine the maximum number of processes that the UE can handle, and determine the processes that the UE should process and the processes that the AS should process, based on the maximum number of processes that the UE can handle. It can be.
  • the control unit determines a process to be processed by the UE and the AS It can be configured to re-determine which process to handle.
  • An RTC (Real-Time Media Communication) AS (application server) according to an embodiment of the present disclosure includes a transceiver; and a control unit connected to the transceiver unit, wherein the control unit receives information related to a workflow split from an RTC AF (application function), and based on the information related to the workflow split, media may be configured to process, receive changed information related to the workflow split, and process the media based on the changed information.
  • RTC AF application function
  • the information related to the workflow split includes an initial value for the workflow split determined based on the processing capability of the UE, and the changed information related to the workflow split is stored in the UE. It may be determined based on the measured delay value, the delay value measured at the AS, and the target delay value.
  • New Radio NR
  • 3GPP 3rd Generation Partnership Project
  • Packet Core 5G System Packet Core 5G System
  • core network 5G
  • 5G 5G
  • NG Core Next Generation Core
  • the main gist of the present disclosure can be applied to other communication systems with similar technical background with slight modifications without significantly departing from the scope of the present disclosure. It is possible, and this will be possible at the discretion of a person skilled in the technical field of the present disclosure.
  • connection node terms referring to network entities, terms referring to messages, terms referring to the interface between network entities, and various identification information. Terms referring to these are exemplified for convenience of explanation. Therefore, it is not limited to the terms used in the present disclosure, and other terms referring to objects having equivalent technical meaning may be used.
  • the base station is the entity that performs resource allocation for the terminal and may be at least one of gNode B, eNode B, Node B, BS (Base Station), wireless access unit, base station controller, or node on the network.
  • a terminal may include a user equipment (UE), a mobile station (MS), a cellular phone, a smartphone, a computer, or a multimedia system capable of performing communication functions.
  • UE user equipment
  • MS mobile station
  • UL uplink
  • UL refers to a wireless transmission path of a signal transmitted from a terminal to a base station.
  • each block of the processing flow diagrams and combinations of the flow diagram diagrams can be performed by computer program instructions.
  • These computer program instructions can be mounted on a processor of a general-purpose computer, special-purpose computer, or other programmable data processing equipment, so that the instructions performed through the processor of the computer or other programmable data processing equipment are described in the flow chart block(s). It creates the means to perform functions.
  • These computer program instructions may also be stored in computer-usable or computer-readable memory that can be directed to a computer or other programmable data processing equipment to implement a function in a particular manner, so that the computer-usable or computer-readable memory It is also possible to produce manufactured items containing instruction means that perform the functions described in the flowchart block(s).
  • Computer program instructions can also be mounted on a computer or other programmable data processing equipment, so that a series of operational steps are performed on the computer or other programmable data processing equipment to create a process that is executed by the computer, thereby generating a process that is executed by the computer or other programmable data processing equipment. Instructions that perform processing equipment may also provide steps for executing the functions described in the flow diagram block(s).
  • each block may represent a module, segment, or portion of code that includes one or more executable instructions for executing specified logical function(s).
  • each block may represent a module, segment, or portion of code that includes one or more executable instructions for executing specified logical function(s).
  • the term ' ⁇ unit' used in this embodiment refers to software or hardware components such as FPGA (field programmable gate array) or ASIC (Application Specific Integrated Circuit), and the ' ⁇ unit' performs certain roles. do.
  • ' ⁇ part' is not limited to software or hardware.
  • the ' ⁇ part' may be configured to reside in an addressable storage medium and may be configured to reproduce on one or more processors. Therefore, as an example, ' ⁇ part' refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, and procedures. , subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables.
  • components and 'parts' may be combined into a smaller number of components and 'parts' or may be further separated into additional components and 'parts'.
  • the components and 'parts' may be implemented to reproduce one or more central processing units (CPUs) within a device or a secure multimedia card.
  • ' ⁇ part' may include one or more processors.
  • Wireless communication systems have moved away from providing early voice-oriented services to, for example, 3GPP's HSPA (High Speed Packet Access), LTE (Long Term Evolution or E-UTRA (Evolved Universal Terrestrial Radio Access)), and LTE-Advanced.
  • Broadband wireless that provides high-speed, high-quality packet data services such as communication standards such as (LTE-A), LTE-Pro, 3GPP2's High Rate Packet Data (HRPD), UMB (Ultra Mobile Broadband), and IEEE's 802.16e. It is evolving into a communication system.
  • the LTE system uses OFDM (Orthogonal Frequency Division Multiplexing) in the downlink (DL), and SC-FDMA (Single Carrier Frequency Division Multiple Access) in the uplink (UL). ) method is adopted.
  • Uplink refers to a wireless link in which a terminal (UE (User Equipment) or MS (Mobile Station)) transmits data or control signals to a base station (eNode B, or base station (BS)), and downlink refers to a wireless link in which the base station transmits data or control signals to the base station (eNode B, or base station (BS)). It refers to a wireless link that transmits data or control signals.
  • the above multiple access method usually distinguishes each user's data or control information by allocating and operating the time-frequency resources to carry data or control information for each user so that they do not overlap, that is, orthogonality is established. You can.
  • the 5G communication system must be able to freely reflect the various requirements of users and service providers, so services that simultaneously satisfy various requirements must be supported.
  • Services considered for the 5G communication system include enhanced Mobile Broadband (eMBB), massive Machine Type Communication (mMTC), and Ultra Reliability Low Latency Communication (URLLC). There is.
  • eMBB aims to provide more improved data transmission speeds than those supported by existing LTE, LTE-A or LTE-Pro.
  • eMBB in a 5G communication system, eMBB must be able to provide a peak data rate of 20Gbps in the downlink and a peak data rate of 10Gbps in the uplink from the perspective of one base station.
  • the 5G communication system must provide the maximum transmission rate and at the same time provide increased user perceived data rate.
  • improvements in various transmission and reception technologies are required, including more advanced multi-antenna (Multi Input Multi Output, MIMO) transmission technology.
  • MIMO Multi Input Multi Output
  • the 5G communication system uses a frequency bandwidth wider than 20MHz in the 3 ⁇ 6GHz or above 6GHz frequency band to transmit the data required by the 5G communication system. Transmission speed can be satisfied.
  • mMTC is being considered to support application services such as the Internet of Things (IoT) in 5G communication systems.
  • IoT Internet of Things
  • mMTC requires support for access to a large number of terminals within a cell, improved coverage of terminals, improved battery time, and reduced terminal costs.
  • the Internet of Things provides communication functions by attaching various sensors and various devices, it must be able to support a large number of terminals (for example, 1,000,000 terminals/km2) within a cell.
  • terminals that support mMTC are likely to be located in shadow areas that cannot be covered by cells, such as the basement of a building, so they may require wider coverage than other services provided by the 5G communication system.
  • Terminals that support mMTC must be composed of low-cost terminals, and since it is difficult to frequently replace the terminal's battery, a very long battery life time, such as 10 to 15 years, may be required.
  • URLLC is a cellular-based wireless communication service used for a specific purpose (mission-critical). For example, remote control of robots or machinery, industrial automation, unmanned aerial vehicles, remote health care, and emergency situations. Services used for emergency alerts, etc. can be considered. Therefore, the communication provided by URLLC must provide very low latency and very high reliability. For example, a service that supports URLLC must satisfy an air interface latency of less than 0.5 milliseconds and has a packet error rate of less than 10-5. Therefore, for services supporting URLLC, the 5G system must provide a smaller Transmit Time Interval (TTI) than other services, and at the same time, a design that requires allocating wide resources in the frequency band to ensure the reliability of the communication link. Specifications may be required.
  • TTI Transmit Time Interval
  • the three 5G services namely eMBB, URLLC, and mMTC, can be multiplexed and transmitted in one system. At this time, different transmission/reception techniques and transmission/reception parameters can be used between services to satisfy the different requirements of each service.
  • the 5G communication system is not limited to the three services mentioned above.
  • 3D media Due to the recent spread of 5G communication systems, demand for services such as large-capacity media such as 3D media and real-time media transmission is increasing.
  • new types of terminals other than existing smartphones, such as AR glasses are emerging as a way to effectively display 3D media.
  • a lightweight design is essential so that users do not feel uncomfortable when actually wearing them.
  • 3D media requires very complex rendering processing compared to existing 2D methods, which has the problem of resulting in high battery consumption.
  • an edge server capable of more complex calculations than AR glasses to share the rendering process between the terminal and the edge server, effective 3D media rendering can be achieved while reducing terminal power consumption.
  • This rendering method using a split process is called split rendering, and the series of processes required at this time is called a workflow.
  • Figure 1 is a diagram to explain a split rendering structure that transmits media using an edge server.
  • the service provider 120 When a service is requested by running an app installed on the terminal 101, such as AR glasses, the service provider 120 starts transmitting an AR media service such as 3D. At this time, the service provider 120 first provides media to the edge server 110 near the terminal to reduce latency, and this is called content hosting (160). The edge server 110 converts the original media (for example, AR media) into processed media that can be processed by the terminal through primary processing, and transmits it to the terminal 101 through the 5G network 130. It will be delivered to (150). Additionally, for processing required by the edge server 110, the terminal 101 can provide necessary status information through a reverse channel (151). At this time, the terminal status information includes, for example, the current location of the terminal and the direction the user is facing.
  • the terminal status information includes, for example, the current location of the terminal and the direction the user is facing.
  • 3GPP supports a 5G media streaming structure (5G Media Streaming, 5GMS) that transmits media to devices using edge servers, including split rendering, through the 5G network.
  • 5G Media Streaming 5G Media Streaming, 5GMS
  • Figure 2 is a diagram for explaining the 5G Media Streaming (5GMS) structure.
  • FIG. 2 is a detailed diagram of the 5GMS structure, showing more detailed entities for the terminal 201, edge servers 210, 211, and service provider 220.
  • the terminal 201 transmits and receives control information about the transmission path (session setup, information necessary for maintenance) between the user application 202 and the Media Player 204, which performs actual media reception and terminal processes (decoding, etc.). It may include Media Session Handler (203).
  • the edge server may include a 5GMSd AS (5G Media Streaming for Downlink Application Server, 211) that performs actual media transmission and processing, and a 5GMSd AF (Application Function, 210) that is responsible for transmitting and receiving control information to and from the terminal.
  • 5GMSd AS 5G Media Streaming for Downlink Application Server, 211
  • 5GMSd AF Application Function
  • the actual media delivery path includes M2d (261), where the service provider 220 delivers to the edge server, M4d path (262), where media processed by the edge server is delivered to the terminal, and media processed by the terminal is transmitted to the terminal.
  • M7d path 265 that is passed to user application 202.
  • the path through which control information is transmitted is the M1d path (260) between the service provider (220) and the edge server, M5d (263) for AF to communicate control information with the terminal, and M6d (264) for transmitting control information inside the terminal. ) includes.
  • the 266 path is used to communicate with the service provider to check information about what services the user can receive by executing the user application 202 of the terminal, and the policy for service QoS (qaulity of service) ( To receive policy), PCF/NEF (250) and transmission path 251 can be used.
  • the 5GMS structure defined in Figure 2 is a basic structure that enables edge server-based media transmission through a 5G network. It is a structure that enables basic split rendering as well as general 2D media transmission, but is applied to real-time media transmission that requires low latency. There is a problem that is difficult to overcome.
  • the user application is located only on the terminal, making it impossible to access processes performed on the edge server.
  • This method allows for workflow splitting in a predefined manner, but has the disadvantage of not being able to respond to changes in the channel environment and terminal status that change in real time.
  • the terminal will send this information to a distant service provider. After notifying the situation, the service provider must re-perform the content hosting process on the edge server according to the changed method, which causes latency in this process.
  • the latency occurring in the entire path is composed of the delay processed by the edge server and terminal, the delay occurring in the wireless channel path, and the delay occurring in other wired networks, but in the existing structure, it is controlled There is no defined method for reporting how much actual processing delay occurs in the terminal through the information channel. In this case, it may not be a big problem in the case of 2D/3D movie streaming services that require latency of hundreds of ms, but it can be a problem in scenarios that require transmission latency of tens of ms, such as real-time 3D video calls.
  • Figure 3 is a diagram illustrating a split rendering structure for real-time media transmission according to an embodiment of the present disclosure.
  • Figure 3 is basically similar to or has the same structure as the existing Figure 2, and hereinafter, description of the same content will be omitted and only the necessary content will be described.
  • control information for content hosting is transferred between the service provider 322 and the AF 310 (350).
  • the service provider 322 provides the type and number of necessary processes, QoS information required for each process, etc. to the AF 310 in advance.
  • the required QoS information may provide the calculation amount for each process in the form of FLOPS (Floating Point Operation per Second), or may include information such as expected latency depending on the process processing speed.
  • the user application 316 When content hosting is performed and the requested content is delivered from the service provider 322 to the AS 315, the user application 316 is run within the AS 315.
  • the user application 316 running within the AS 315 is connected to the user application 302 of the terminal 301 through a separate interface 360.
  • This interface 360 will be used to measure the latency measured by the terminal 301 in the future. It can be used as a route to notify information and workflow split results.
  • the user applications (316, 302) running on the AS (315) and the terminal (301) may be the same type of application, but considering that the processing capacity of the edge server is usually superior to that of the terminal (301), the terminal
  • the user application 302 of AS only performs the function of processing basic user input, and the user application 316 of AS can perform functions such as more complex 3D processing.
  • the user application 302 running in the terminal 301 and AS 315 is connected to the media player/streamer and R7 interface 357, respectively.
  • the R7 interface 357 serves to transmit the actual measured latency when processing processes in the AS 315 and the terminal 301.
  • the latency measured by the terminal 301 includes not only the processing delay processed by the terminal 301 but also the delay required in the wireless channel transmitted through the 5G network.
  • the AF 310 in the edge server transmits target latency information and separate QoS policy to the terminal 301 through the R5 interface 355.
  • the delivered target latency information is the total latency goal required to support the entire service and is delivered to the user application 302 of the terminal through the R6 interface 356 and can be used as a target value for future QoS management.
  • FIGS 4 and 5 are diagrams showing an example of information transmitted through the R1 interface 350 according to an embodiment of the present disclosure.
  • the required QoS information can be expressed in the form of information about the actual amount of computation or processing speed or processing latency according to processing ability, as described above.
  • Figure 6 is a diagram showing additional information transmitted through the R5 interface 355 according to an embodiment of the present disclosure.
  • the TargetLatency parameter is a value representing the overall latency target required for the service to perform throughout the entire process, and can be passed as an integer value in millisecond units.
  • a dynamic policy other than latency for the service may be transmitted, and the dynamic policy included here may include data rate, jitter, required bandwidth, etc. for each individual stream that makes up the service.
  • Dynamic policy can be composed of dynamicPolicyID, which distinguishes individual policies, and policyTemplateID, which contains detailed policy information.
  • Figure 7 is a diagram showing additional information transmitted through the R6 interface according to an embodiment of the present disclosure.
  • the R6 interface 356 is a path that transmits control information between the user application and the media session handler, and plays the role of forwarding the previously transmitted TargetLatency information to the terminal and AS user application.
  • the transmitted TargetLatency information is the same as described in FIG. 6.
  • Figure 8 is a diagram showing additional information transmitted through the R7 interface according to an embodiment of the present disclosure.
  • the R7 interface 357 is a path that transmits media-related information between the media player/streamer and the user application. It measures the delay for processing performed in the terminal and AS and transmits it to the user application. As described above, the delay measured in the terminal includes the wireless channel delay, and the measured latency can be expressed as an integer value in millisecond units.
  • Figure 9 is a diagram showing additional information transmitted through the R10 interface according to an embodiment of the present disclosure.
  • the R10 interface 360 is a path for exchanging necessary information between the terminal and the user application running in the AS. MeasuredLatency information measured in the terminal is transmitted to the AS, and the workflow split result determined in the AS is transmitted to the terminal.
  • FIG. 10 is a diagram illustrating a flowchart of media and control information according to an embodiment of the present disclosure.
  • the service provider 1030 When the user executes the user application 1002 of the terminal (Step 1) and selects which media service to perform (Step 2), the service provider 1030 provides control information for service initiation to the AF 1010. (Step 3). At this time, the information transmitted through the R1 interface includes the information described in the embodiment of FIG. 4 or FIG. 5. Afterwards, the service provider (1030) transfers the QoS filter to AF (1010) to ensure the required QoS (Step 4), and the edge server selects the optimal AF (1010) and AS (1020) to achieve this QoS. and perform the registration process (Step 5). At this time, the process of selecting and registering AF (1010) and AS (1020) can be performed according to conventional procedures.
  • the user application (1022) When AS (1020) is selected, the user application (1022) is installed and run within AS (1020) (Step 6), and the terminal can then perform the operation through the path between the user application of the terminal (1001) and AS (1020).
  • Exchange initial information about available processing capabilities (Step 7).
  • the AF (1010) determines the initial value of the workflow split for service initiation based on the processing capability of the received terminal (Step 8), which will be described in detail later.
  • the determined initial value of the workflow split is delivered to the AS (1020) and the terminal (1001), respectively (Step 9, Step 10).
  • AF (1010) transmits the initial value of dyamic policy and target latency to the terminal (1001), and is used as initial information for processing configuration in the media player (1003) within the terminal.
  • the actual media is delivered from the AS streamer (1021) to the media player (Media Player, 1005) of the terminal (1001) (Step 13), and the media player (1005) performs processing such as decoding and transmits the rendered screen to the terminal. Expressed on the display of (1001).
  • the latency that occurs in this process is measured and delivered to the Media Session handler (1003), and QoS information, including the MeasuredLatency information described in FIG. 8, is reported to the AF (1010) of the edge server (Step 15).
  • the reported QoS information (including measured latency) is then used to determine whether the AF 1010 needs to change the workflow split again, and if necessary, goes through the process of reconfiguring the workflow split (Step 16).
  • the changed workflow split information is notified to the user application of AS (1020) and terminal (1001) (Step 17), and then returns to Step 11 to update the new dynamic policy information according to the workflow split. . If changing the workflow split is not necessary, the process returns to transmitting the next media streaming packet as in Step 18.
  • the terminal continuously measures latency and adaptively updates the workflow split based on the measured latency information to successfully transmit real-time media.
  • FIG. 11 is a flowchart explaining Step 8 of FIG. 10 in more detail.
  • AS receives overall QoS requirements, total number of processes, and QoS requirements for individual processes from the service provider (1101).
  • basic information about processes that the terminal can handle is received from Step 7 in FIG. 10 (1102), and the initial value of the workflow split is determined based on this.
  • the decision method at this time is the entire process P 1 , P 2 , ... , P N (assuming that the workflow order for actual rendering is performed in reverse order. That is, it is assumed to be processed in the order of N, N-1, ..., 1), D is the number of processes that the terminal can process. Select.
  • the selection method sequentially determines whether the terminal can process, starting from P 1 (1103, 1104), and selects the maximum number that the terminal can process. According to the selected D value, set S1 of the process to be performed by the terminal and set S2 of the process to be performed by AS are finally selected (1106), and then the selected S1 and S2 are delivered to the terminal and AS, respectively ( 1107).
  • FIG. 12 is a flowchart explaining Step 16 of FIG. 10 in more detail.
  • the overall Latency (D D +D E ) is target. Compare with latency L total (1202). If the total latency is less than the target, it is determined that the workflow split does not need to be updated (1203) and the current workflow split is maintained. If not, the number of processes to be performed in the terminal, D', is newly calculated. At this time, the method of newly determining D' is as described above in FIG. 11, assuming that the terminal processes sequentially starting from P 1 , the total delay The D' value is determined by determining whether it exceeds the target (1204). Set S1' and S2' are determined based on the modified D' value (1205), and the determined S1' and S2' are delivered back to the terminal and AS to notify the change in workflow split.
  • Figure 13 is a diagram showing the configuration of a terminal according to an embodiment of the present disclosure.
  • the terminal of the present disclosure may include a transceiver 1310, a memory 1320, and a processor 1330.
  • the processor 1330, transceiver 1310, and memory 1320 of the terminal may operate according to the above-described terminal communication method.
  • the components of the terminal are not limited to the examples described above.
  • the terminal may include more or fewer components than the aforementioned components.
  • the processor 1330, the transceiver 1310, and the memory 1320 may be implemented in the form of a single chip.
  • the transmitting and receiving unit 1310 is a general term for the terminal's receiving unit and the terminal's transmitting unit, and can transmit and receive signals with a base station or network entity. Signals transmitted and received from the base station may include control information and data.
  • the transceiver 1310 may be composed of an RF transmitter that up-converts and amplifies the frequency of the transmitted signal, and an RF receiver that amplifies the received signal with low noise and down-converts the frequency.
  • this is only an example of the transceiver 1310, and the components of the transceiver 1310 are not limited to the RF transmitter and RF receiver.
  • the transceiver 1310 may include a wired or wireless transceiver and may include various components for transmitting and receiving signals.
  • the transceiver 1310 may receive a signal through a wireless channel and output it to the processor 1330, and transmit the signal output from the processor 1330 through a wireless channel.
  • the transceiver unit 1310 may receive a communication signal, output it to a processor, and transmit the signal output from the processor to a network entity through a wired or wireless network.
  • the memory 1320 can store programs and data necessary for operation of the terminal. Additionally, the memory 1320 may store control information or data included in signals obtained from the terminal.
  • the memory 1320 may be composed of a storage medium such as ROM, RAM, hard disk, CD-ROM, and DVD, or a combination of storage media.
  • the processor 1330 can control a series of processes so that the terminal can operate according to the above-described embodiment of the present disclosure.
  • Processor 1330 may include at least one processor.
  • the processor 1330 may include a communication processor (CP) that performs control for communication and an application processor (AP) that controls upper layers such as application programs.
  • CP communication processor
  • AP application processor
  • Figure 14 is a diagram showing the configuration of an edge server according to an embodiment of the present disclosure.
  • the edge server of the present disclosure may include a transceiver 1410, a memory 1420, and a processor 1430.
  • the processor 1430, transceiver 1410, and memory 1420 of the network entity can operate according to the operation method of the edge server described above.
  • the components of the edge server are not limited to the examples described above.
  • an edge server may include more or fewer components than the components described above.
  • the transceiving unit 1410 is a general term for the receiving unit of the edge server and the transmitting unit of the edge server, and can transmit and receive signals with a terminal or other network entity. At this time, the transmitted and received signals may include control information and data. To this end, the transceiver 1410 may be composed of an RF transmitter that up-converts and amplifies the frequency of the transmitted signal, and an RF receiver that amplifies the received signal with low noise and down-converts the frequency. However, this is only an example of the transceiver 1410, and the components of the transceiver 1410 are not limited to the RF transmitter and RF receiver. The transceiver 1410 may include a wired or wireless transceiver and may include various components for transmitting and receiving signals.
  • the transceiver 1410 may receive a signal through a communication channel (eg, a wireless channel), output the signal to the processor 1430, and transmit the signal output from the processor 1430 through the communication channel.
  • a communication channel eg, a wireless channel
  • the transceiver unit 1410 may receive a communication signal, output it to a processor, and transmit the signal output from the processor to a terminal or network entity through a wired or wireless network.
  • the memory 1420 can store programs and data necessary for the operation of the edge server. Additionally, the memory 1420 can store control information or data included in signals obtained from the edge server.
  • the memory 1420 may be composed of a storage medium such as ROM, RAM, hard disk, CD-ROM, and DVD, or a combination of storage media.
  • the processor 1430 can control a series of processes so that the edge server can operate according to the embodiment of the present disclosure described above.
  • Processor 1430 may include at least one processor.
  • a computer-readable storage medium that stores one or more programs (software modules) may be provided.
  • One or more programs stored in a computer-readable storage medium are configured to be executable by one or more processors in an electronic device (configured for execution).
  • One or more programs include instructions that cause the electronic device to execute methods according to embodiments described in the claims or specification of the present disclosure.
  • These programs include random access memory, non-volatile memory including flash memory, read only memory (ROM), and electrically erasable programmable ROM.
  • EEPROM Electrically Erasable Programmable Read Only Memory
  • magnetic disc storage device Compact Disc-ROM (CD-ROM: Compact Disc-ROM), Digital Versatile Discs (DVDs), or other types of It can be stored in an optical storage device or magnetic cassette. Alternatively, it may be stored in a memory consisting of a combination of some or all of these. Additionally, multiple configuration memories may be included.
  • the program can be accessed through a communication network such as the Internet, Intranet, LAN (Local Area Network), WLAN (Wide LAN), or SAN (Storage Area Network), or a combination of these. It may be stored in an attachable storage device that can be accessed. This storage device can be connected to a device performing an embodiment of the present disclosure through an external port. Additionally, a separate storage device on a communication network may be connected to the device performing an embodiment of the present disclosure.
  • a communication network such as the Internet, Intranet, LAN (Local Area Network), WLAN (Wide LAN), or SAN (Storage Area Network), or a combination of these. It may be stored in an attachable storage device that can be accessed. This storage device can be connected to a device performing an embodiment of the present disclosure through an external port. Additionally, a separate storage device on a communication network may be connected to the device performing an embodiment of the present disclosure.
  • Embodiments of the present disclosure may be implemented by combining some or all of the content included in each embodiment within the scope without impairing the essence of the present disclosure.

Abstract

본 개시는 보다 높은 데이터 전송률을 지원하기 위한 5G 또는 6G 통신 시스템에 관련된 것이다. 본 개시의 일 실시예에 따른 RTC(Real-Time Media Communication) AF(application fucntion)의 동작 방법은, 서비스 제공자로부터, 서비스와 관련된 제어 정보를 수신하는 단계; 상기 제어 정보에 기초하여, 상기 서비스에 대한 워크플로우 스플릿에 대한 초기값을 결정하는 단계; 상기 워크플로우 스플릿과 관련된 정보를 RTC(Real-Time Media Communication) AS(application server) 및 UE(user equipment) 중 적어도 하나 이상으로 전송하는 단계; 상기 서비스의 처리와 관련된 지연 정보에 기초하여 상기 워크플로우 스플릿을 변경하는 단계; 및 상기 변경된 워크플로우 스플릿과 관련된 정보를 상기 AS 및 UE 중 적어도 하나 이상으로 전송하는 단계를 포함할 수 있다.

Description

이동 통신 시스템에서 실시간 미디어 전송을 위한 방법 및 장치
본 개시는 이동 통신 시스템에서 실시간 미디어 전송을 위한 방법 및 장치에 관한 것으로, 특히, 단말과 엣지(Edge) 서버가 전체 프로세스를 분할하여 전송하는 스플릿 렌더링을 지원하는 방법 및 장치에 관한 것이다.
5G 이동통신 기술은 빠른 전송 속도와 새로운 서비스가 가능하도록 넓은 주파수 대역을 정의하고 있으며, 3.5 기가헤르츠(3.5GHz) 등 6GHz 이하 주파수('Sub 6GHz') 대역은 물론 28GHz와 39GHz 등 밀리미터파(㎜Wave)로 불리는 초고주파 대역('Above 6GHz')에서도 구현이 가능하다. 또한, 5G 통신 이후(Beyond 5G)의 시스템이라 불리어지는 6G 이동통신 기술의 경우, 5G 이동통신 기술 대비 50배 빨라진 전송 속도와 10분의 1로 줄어든 초저(Ultra Low) 지연시간을 달성하기 위해 테라헤르츠(Terahertz) 대역(예를 들어, 95GHz에서 3 테라헤르츠(3THz) 대역과 같은)에서의 구현이 고려되고 있다.
5G 이동통신 기술의 초기에는, 초광대역 서비스(enhanced Mobile BroadBand, eMBB), 고신뢰/초저지연 통신(Ultra-Reliable Low-Latency Communications, URLLC), 대규모 기계식 통신 (massive Machine-Type Communications, mMTC)에 대한 서비스 지원과 성능 요구사항 만족을 목표로, 초고주파 대역에서의 전파의 경로손실 완화 및 전파의 전달 거리를 증가시키기 위한 빔포밍(Beamforming) 및 거대 배열 다중 입출력(Massive MIMO), 초고주파수 자원의 효율적 활용을 위한 다양한 뉴머롤로지 지원(복수 개의 서브캐리어 간격 운용 등)와 슬롯 포맷에 대한 동적 운영, 다중 빔 전송 및 광대역을 지원하기 위한 초기 접속 기술, BWP(Band-Width Part)의 정의 및 운영, 대용량 데이터 전송을 위한 LDPC(Low Density Parity Check) 부호와 제어 정보의 신뢰성 높은 전송을 위한 폴라 코드(Polar Code)와 같은 새로운 채널 코딩 방법, L2 선-처리(L2 pre-processing), 특정 서비스에 특화된 전용 네트워크를 제공하는 네트워크 슬라이싱(Network Slicing) 등에 대한 표준화가 진행되었다.
현재, 5G 이동통신 기술이 지원하고자 했던 서비스들을 고려하여 초기의 5G 이동통신 기술 개선(improvement) 및 성능 향상(enhancement)을 위한 논의가 진행 중에 있으며, 차량이 전송하는 자신의 위치 및 상태 정보에 기반하여 자율주행 차량의 주행 판단을 돕고 사용자의 편의를 증대하기 위한 V2X(Vehicle-to-Everything), 비면허 대역에서 각종 규제 상 요구사항들에 부합하는 시스템 동작을 목적으로 하는 NR-U(New Radio Unlicensed), NR 단말 저전력 소모 기술(UE Power Saving), 지상 망과의 통신이 불가능한 지역에서 커버리지 확보를 위한 단말-위성 직접 통신인 비 지상 네트워크(Non-Terrestrial Network, NTN), 위치 측위(Positioning) 등의 기술에 대한 물리계층 표준화가 진행 중이다.
뿐만 아니라, 타 산업과의 연계 및 융합을 통한 새로운 서비스 지원을 위한 지능형 공장 (Industrial Internet of Things, IIoT), 무선 백홀 링크와 액세스 링크를 통합 지원하여 네트워크 서비스 지역 확장을 위한 노드를 제공하는 IAB(Integrated Access and Backhaul), 조건부 핸드오버(Conditional Handover) 및 DAPS(Dual Active Protocol Stack) 핸드오버를 포함하는 이동성 향상 기술(Mobility Enhancement), 랜덤액세스 절차를 간소화하는 2 단계 랜덤액세스(2-step RACH for NR) 등의 기술에 대한 무선 인터페이스 아키텍쳐/프로토콜 분야의 표준화 역시 진행 중에 있으며, 네트워크 기능 가상화(Network Functions Virtualization, NFV) 및 소프트웨어 정의 네트워킹(Software-Defined Networking, SDN) 기술의 접목을 위한 5G 베이스라인 아키텍쳐(예를 들어, Service based Architecture, Service based Interface), 단말의 위치에 기반하여 서비스를 제공받는 모바일 엣지 컴퓨팅(Mobile Edge Computing, MEC) 등에 대한 시스템 아키텍쳐/서비스 분야의 표준화도 진행 중이다.
이와 같은 5G 이동통신 시스템이 상용화되면, 폭발적인 증가 추세에 있는 커넥티드 기기들이 통신 네트워크에 연결될 것이며, 이에 따라 5G 이동통신 시스템의 기능 및 성능 강화와 커넥티드 기기들의 통합 운용이 필요할 것으로 예상된다. 이를 위해, 증강현실(Augmented Reality, AR), 가상현실(Virtual Reality, VR), 혼합 현실(Mixed Reality, MR) 등을 효율적으로 지원하기 위한 확장 현실(eXtended Reality, XR), 인공지능(Artificial Intelligence, AI) 및 머신러닝(Machine Learning, ML)을 활용한 5G 성능 개선 및 복잡도 감소, AI 서비스 지원, 메타버스 서비스 지원, 드론 통신 등에 대한 새로운 연구가 진행될 예정이다.
또한, 이러한 5G 이동통신 시스템의 발전은 6G 이동통신 기술의 테라헤르츠 대역에서의 커버리지 보장을 위한 신규 파형(Waveform), 전차원 다중입출력(Full Dimensional MIMO, FD-MIMO), 어레이 안테나(Array Antenna), 대규모 안테나(Large Scale Antenna)와 같은 다중 안테나 전송 기술, 테라헤르츠 대역 신호의 커버리지를 개선하기 위해 메타물질(Metamaterial) 기반 렌즈 및 안테나, OAM(Orbital Angular Momentum)을 이용한 고차원 공간 다중화 기술, RIS(Reconfigurable Intelligent Surface) 기술 뿐만 아니라, 6G 이동통신 기술의 주파수 효율 향상 및 시스템 네트워크 개선을 위한 전이중화(Full Duplex) 기술, 위성(Satellite), AI(Artificial Intelligence)를 설계 단계에서부터 활용하고 종단간(End-to-End) AI 지원 기능을 내재화하여 시스템 최적화를 실현하는 AI 기반 통신 기술, 단말 연산 능력의 한계를 넘어서는 복잡도의 서비스를 초고성능 통신과 컴퓨팅 자원을 활용하여 실현하는 차세대 분산 컴퓨팅 기술 등의 개발에 기반이 될 수 있을 것이다.
본 개시의 일 실시예에 따른 RTC(Real-Time Media Communication) AF(application fucntion)의 동작 방법은, 서비스 제공자로부터, 서비스와 관련된 제어 정보를 수신하는 단계; 상기 제어 정보에 기초하여, 상기 서비스에 대한 워크플로우 스플릿에 대한 초기값을 결정하는 단계; 상기 워크플로우 스플릿과 관련된 정보를 RTC(Real-Time Media Communication) AS(application server) 및 UE(user equipment) 중 적어도 하나 이상으로 전송하는 단계; 상기 서비스의 처리와 관련된 지연 정보에 기초하여 상기 워크플로우 스플릿을 변경하는 단계; 및 상기 변경된 워크플로우 스플릿과 관련된 정보를 상기
본 개시의 다양한 실시 예들에 따른 장치 및 방법에 의하면, 5G 망에서 Edge 서버를 활용하여 높은 수준의 프로세싱이 요구되는 AR(augmented reality)/3D 미디어를 전송할 때, 채널 및 단말 환경에 적응적으로 워크플로우 스플릿을 구성함으로써 매우 낮은 수준의 latency 로 전송이 가능하다.
본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 Edge 서버를 활용하여 미디어를 전송하는 스플릿 렌더링 구조를 설명하기 위한 도면이다.
도 2는 5G 미디어 스트리밍 구조 (5G Media Streaming, 5GMS) 구조를 설명하기 위한 도면이다.
도 3은 본 개시의 일 실시예에 따른 실시간 미디어 전송을 위한 스플릿 렌더링 구조를 나타내는 도면이다.
도 4 및 도 5는 본 개시의 일 실시예에 따른 R1 인터페이스를 통해 전달되는 정보를 나타내는 도면이다.
도 6은 본 개시의 일 실시예에 따른 R5 인터페이스를 통해 전달되는 추가 정보를 나타내는 도면이다.
도 7은 본 개시의 일 실시예에 따른 R6 인터페이스를 통해 전달되는 추가 정보를 나타내는 도면이다.
도 8은 본 개시의 일 실시예에 따른 R7 인터페이스를 통해 전달되는 추가 정보를 나타내는 도면이다.
도 9는 본 개시의 일 실시예에 따른 R10 인터페이스를 통해 전달되는 추가 정보를 나타내는 도면이다.
도 10에서는 본 개시의 일 실시예에 따른 미디어 및 제어 정보의 흐름도를 나타내는 도면이다.
도 11은 도 10의 Step 8을 보다 상세히 설명하는 순서도이다.
도 12는 도 10의 Step 16을 보다 상세히 설명하는 순서도이다.
도 13은 본 개시의 일 실시예들에 따른 단말의 구성을 도시한다.
도 14는 본 개시의 일 실시예에 따른 Edge 서버의 구성을 나타내는 도면이다.
본 개시의 일 실시예에 따른 RTC(Real-Time Media Communication) AF(application fucntion)의 동작 방법은, 서비스 제공자로부터, 서비스와 관련된 제어 정보를 수신하는 단계; 상기 제어 정보에 기초하여, 상기 서비스에 대한 워크플로우 스플릿에 대한 초기값을 결정하는 단계; 상기 워크플로우 스플릿과 관련된 정보를 RTC(Real-Time Media Communication) AS(application server) 및 UE(user equipment) 중 적어도 하나 이상으로 전송하는 단계; 상기 서비스의 처리와 관련된 지연 정보에 기초하여 상기 워크플로우 스플릿을 변경하는 단계; 및 상기 변경된 워크플로우 스플릿과 관련된 정보를 상기 AS 및 UE 중 적어도 하나 이상으로 전송하는 단계를 포함할 수 있다.
본 개시의 일 실시예에서, 상기 서비스에 필요한 제어 정보는, 상기 서비스에 필요한 프로세스의 개수, 프로세스의 식별 정보 및 각 프로세스 별로 요구되는 QoS 정보를 포함할 수 있다.
본 개시의 일 실시예에서, 상기 서비스에 필요한 제어 정보는, 상기 서비스에 필요한 프로세스 세트의 개수, 상기 프로세스 세트의 식별 정보, 상기 프로세스 세트에 포함되는 프로세스의 식별 정보 및 프로세스 세트 별로 요구되는 QoS 정보를 포함할 수 있다.
본 개시의 일 실시예에서, 상기 워크플로우 스플릿과 관련된 정보는, 상기 워크플로우 스플릿에 대한 초기값을 포함하고, 상기 제어 정보에 기초하여, 상기 서비스에 대한 워크플로우 스플릿에 대한 초기값을 결정하는 단계는, 상기 UE의 처리 능력에 관련된 정보를 수신하는 단계; 상기 UE의 처리 능력에 관련된 정보에 기초하여, 상기 UE가 처리 가능한 최대 프로세스의 수를 결정하는 단계; 및 상기 UE가 처리 가능한 최대 프로세스의 수에 기초하여, 상기 UE가 처리해야할 프로세스와 상기 AS가 처리해야할 프로세스를 결정하는 단계를 포함할 수 있다.
본 개시의 일 실시예에서, 상기 서비스의 처리와 관련된 지연 정보에 기초하여 상기 워크플로우 스플릿을 변경하는 단계는, 상기 UE에서 측정된 지연 값과 상기 AS에서 측정된 지연 값과 목표 지연 값이 목표 지연 값보다 크거나 같은 경우, 상기 UE가 처리해야할 프로세스와 상기 AS가 처리해야할 프로세스를 다시 결정하는 단계를 포함할 수 있다.
본 개시의 일 실시예에 따른 RTC(Real-Time Media Communication) AS(application server)의 동작 방법은, RTC AF(application function)으로부터, 워크플로우 스플릿(workflow split)과 관련된 정보를 수신하는 단계; 상기 워크플로우 스플릿과 관련된 정보에 기초하여, 미디어를 처리하는 단계; 상기 워크플로우 스플릿과 관련하여 변경된 정보를 수신하는 단계; 및 상기 변경된 정보에 기초하여, 상기 미디어를 처리하는 단계를 포함할 수 있다.
본 개시의 일 실시예에서, 상기 워크플로우 스플릿과 관련된 정보는, UE의 처리 능력에 기초하여 결정된 상기 워크플로우 스플릿에 대한 초기값을 포함하고, 상기 워크플로우 스플릿과 관련하여 변경된 정보는, UE에서 측정된 지연 값, 상기 AS에서 측정된 지연 값 및 목표 지연 값에 기초하여 결정될 수 있다.
본 개시의 일 실시예에서, 상기 워크플로우 스플릿과 관련된 정보를 UE(user equipment)로 전송하는 단계를 더 포함할 수 있다.
본 개시의 일 실시예에 따른 RTC(Real-Time Media Communication) AF(application fucntion)은, 송수신부; 및 상기 송수신부와 연결되는 제어부를 포함하고, 상기 제어부는, 서비스 제공자로부터, 서비스와 관련된 제어 정보를 수신하고, 상기 제어 정보에 기초하여, 상기 서비스에 대한 워크플로우 스플릿에 대한 초기값을 결정하고, 상기 워크플로우 스플릿과 관련된 정보를 RTC(Real-Time Media Communication) AS(application server) 및 UE(user equipment) 중 적어도 하나 이상으로 전송하고, 상기 서비스의 처리와 관련된 지연 정보에 기초하여 상기 워크플로우 스플릿을 변경하고, 상기 변경된 워크플로우 스플릿과 관련된 정보를 상기 AS 및 UE 중 적어도 하나 이상으로 전송하도록 구성될 수 잇다.
본 개시의 일 실시예에서, 상기 서비스에 필요한 제어 정보는, 상기 서비스에 필요한 프로세스의 개수, 프로세스의 식별 정보 및 각 프로세스 별로 요구되는 QoS 정보를 포함할 수 있다.
본 개시의 일 실시예에서, 상기 서비스에 필요한 제어 정보는, 상기 서비스에 필요한 프로세스 세트의 개수, 상기 프로세스 세트의 식별 정보, 상기 프로세스 세트에 포함되는 프로세스의 식별 정보 및 프로세스 세트 별로 요구되는 QoS 정보를 포함할 수 있다.
본 개시의 일 실시예에서, 상기 워크플로우 스플릿과 관련된 정보는, 상기 워크플로우 스플릿에 대한 초기값을 포함하고, 상기 제어부는, 상기 UE의 처리 능력에 관련된 정보를 수신하고, 상기 UE의 처리 능력에 관련된 정보에 기초하여, 상기 UE가 처리 가능한 최대 프로세스의 수를 결정하고, 상기 UE가 처리 가능한 최대 프로세스의 수에 기초하여, 상기 UE가 처리해야할 프로세스와 상기 AS가 처리해야할 프로세스를 결정하도록 구성될 수 있다.
본 개시의 일 실시예에서, 상기 제어부는, 상기 UE에서 측정된 지연 값과 상기 AS에서 측정된 지연 값과 목표 지연 값이 목표 지연 값보다 크거나 같은 경우, 상기 UE가 처리해야할 프로세스와 상기 AS가 처리해야할 프로세스를 다시 결정하도록 구성될 수 있다.
본 개시의 일 실시예에 따른 RTC(Real-Time Media Communication) AS(application server)는, 송수신부; 및 상기 송수신부와 연결되는 제어부를 포함하고, 상기 제어부는, RTC AF(application function)으로부터, 워크플로우 스플릿(workflow split)과 관련된 정보를 수신하고, 상기 워크플로우 스플릿과 관련된 정보에 기초하여, 미디어를 처리하고, 상기 워크플로우 스플릿과 관련하여 변경된 정보를 수신하고, 상기 변경된 정보에 기초하여, 상기 미디어를 처리하도록 구성될 수 있다.
본 개시의 일 실시예에서, 상기 워크플로우 스플릿과 관련된 정보는, UE의 처리 능력에 기초하여 결정된 상기 워크플로우 스플릿에 대한 초기값을 포함하고, 상기 워크플로우 스플릿과 관련하여 변경된 정보는, UE에서 측정된 지연 값, 상기 AS에서 측정된 지연 값 및 목표 지연 값에 기초하여 결정될 수 있다.
이하, 첨부된 도면을 참조하여 본 개시의 바람직한 실시예들을 상세히 설명한다. 이 때, 첨부된 도면에서 동일한 구성 요소는 가능한 동일한 부호로 나타내고 있음에 유의해야 한다. 또한 본 개시의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략할 것이다.
본 개시의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 개시는 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 개시의 개시가 완전하도록 하고, 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 개시의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 개시는 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다. 또한 본 개시를 설명함에 있어서 관련된 기능 또는 구성에 대한 구체적인 설명이 본 개시의 요지를 불필요하게 흐릴 수 있다고 판단된 경우 그 상세한 설명은 생략한다. 그리고 후술되는 용어들은 본 개시에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
본 개시의 실시예들을 설명함에 있어서, 이동통신 규격 표준화 단체인 3GPP(3rd Generation Partnership Project)가 명시하고 있는 5G 이동통신 규격 상의 무선 접속망인 New Radio (NR)과 코어 망인 패킷 코어 5G System, 혹은 5G Core Network, 혹은 NG Core(Next Generation Core)를 주된 대상으로 하지만, 본 개시의 주요한 요지는 유사한 기술적 배경을 가지는 여타의 통신 시스템에도 본 개시의 범위를 크게 벗어 나지 아니 하는 범위에서 약간의 변형으로 적용 가능하며, 이는 본 개시의 기술 분야에서 숙련된 기술적 지식을 가진 자의 판단으로 가능 할 것이다.
이하, 설명의 편의를 위하여, 3GPP 규격(5G, NR, LTE 또는 이와 유사한 시스템의 규격)에서 정의하고 있는 용어 및 명칭들이 일부 사용될 수 있다. 하지만, 본 개시가 용어 및 명칭들에 의해 한정되는 것은 아니며, 다른 규격에 따르는 시스템에도 동일하게 적용될 수 있다.
이하, 설명에서 사용되는 접속 노드(node)를 식별하기 위한 용어, 망 객체(network entity, 네트워크 엔티티)들을 지칭하는 용어, 메시지들을 지칭하는 용어, 네트워크 엔티티들 간 인터페이스를 지칭하는 용어, 다양한 식별 정보들을 지칭하는 용어 등은 설명의 편의를 위해 예시된 것이다. 따라서, 본 개시에서 사용하는 용어들에 한정되는 것은 아니며, 동등한 기술적 의미를 가지는 대상을 지칭하는 다른 용어가 사용될 수 있다.
이하, 기지국은 단말의 자원할당을 수행하는 주체로서, gNode B, eNode B, Node B, BS (Base Station), 무선 접속 유닛, 기지국 제어기, 또는 네트워크 상의 노드 중 적어도 하나일 수 있다. 단말은 UE (User Equipment), MS (Mobile Station), 셀룰러폰, 스마트폰, 컴퓨터, 또는 통신 기능을 수행할 수 있는 멀티미디어 시스템을 포함할 수 있다. 본 개시에서 하향링크(Downlink; DL)는 기지국이 단말에게 전송하는 신호의 무선 전송경로이고, 상향링크는(Uplink; UL)는 단말이 기국에게 전송하는 신호의 무선 전송경로를 의미한다.
이때, 처리 흐름도 도면들의 각 블록과 흐름도 도면들의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수 있음을 이해할 수 있을 것이다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도 블록(들)에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 흐름도 블록(들)에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도 블록(들)에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.
또한, 각 블록은 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실행 예들에서는 블록들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예를 들면, 잇달아 도시되어 있는 두 개의 블록들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.
이때, 본 실시예에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA(field Programmable Gate Array) 또는 ASIC(Application Specific Integrated Circuit)과 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU (central processing unit)들을 재생시키도록 구현될 수도 있다. 또한 실시예에서 '~부'는 하나 이상의 프로세서를 포함할 수 있다.
무선 통신 시스템은 초기의 음성 위주의 서비스를 제공하던 것에서 벗어나 예를 들어, 3GPP의 HSPA(High Speed Packet Access), LTE(Long Term Evolution 또는 E-UTRA (Evolved Universal Terrestrial Radio Access)), LTE-Advanced (LTE-A), LTE-Pro, 3GPP2의 HRPD(High Rate Packet Data), UMB(Ultra Mobile Broadband), 및 IEEE의 802.16e 등의 통신 표준과 같이 고속, 고품질의 패킷 데이터 서비스를 제공하는 광대역 무선 통신 시스템으로 발전하고 있다.
광대역 무선 통신 시스템의 대표적인 예로, LTE 시스템에서는 하향링크(Downlink; DL)에서는 OFDM(Orthogonal Frequency Division Multiplexing) 방식을 채용하고 있고, 상향링크(Uplink; UL)에서는 SC-FDMA(Single Carrier Frequency Division Multiple Access) 방식을 채용하고 있다. 상향링크는 단말(UE(User Equipment) 또는 MS(Mobile Station))이 기지국(eNode B, 또는 base station(BS))으로 데이터 또는 제어신호를 전송하는 무선링크를 뜻하고, 하향링크는 기지국이 단말로 데이터 또는 제어 신호를 전송하는 무선 링크를 뜻한다. 상기와 같은 다중 접속 방식은, 통상 각 사용자 별로 데이터 또는 제어정보를 실어 보낼 시간-주파수 자원을 서로 겹치지 않도록, 즉 직교성 (Orthogonality)이 성립하도록, 할당 및 운용함으로써 각 사용자의 데이터 또는 제어정보를 구분할 수 있다.
LTE 이후의 향후 통신 시스템으로서, 즉, 5G 통신 시스템은 사용자 및 서비스 제공자 등의 다양한 요구 사항을 자유롭게 반영할 수 있어야 하기 때문에 다양한 요구사항을 동시에 만족하는 서비스가 지원되어야 한다. 5G 통신시스템을 위해 고려되는 서비스로는 향상된 모바일 광대역 통신(enhanced Mobile Broadband, eMBB), 대규모 기계형 통신(massive Machine Type Communication, mMTC), 초신뢰 저지연 통신(Ultra Reliability Low Latency Communication, URLLC) 등이 있다.
eMBB는 기존의 LTE, LTE-A 또는 LTE-Pro가 지원하는 데이터 전송 속도보다 더욱 향상된 데이터 전송 속도를 제공하는 것을 목표로 한다. 예를 들어, 5G 통신 시스템에서 eMBB는 하나의 기지국 관점에서 하향링크에서는 20Gbps의 최대 전송 속도(peak data rate), 상향링크에서는 10Gbps의 최대 전송 속도를 제공할 수 있어야 한다. 또한 5G 통신 시스템은 최대 전송 속도를 제공하는 동시에, 증가된 단말의 실제 체감 전송 속도(User perceived data rate)를 제공해야 한다. 이와 같은 요구 사항을 만족시키기 위해, 더욱 향상된 다중 안테나 (Multi Input Multi Output, MIMO) 전송 기술을 포함하여 다양한 송수신 기술의 향상을 요구한다. 또한 LTE가 사용하는 2GHz 대역에서 최대 20MHz 전송대역폭을 사용하여 신호를 전송하는 반면에, 5G 통신시스템은 3~6GHz 또는 6GHz 이상의 주파수 대역에서 20MHz 보다 넓은 주파수 대역폭을 사용함으로써 5G 통신시스템에서 요구하는 데이터 전송 속도를 만족시킬 수 있다.
동시에, 5G 통신 시스템에서 사물 인터넷(Internet of Thing, IoT)와 같은 응용 서비스를 지원하기 위해 mMTC가 고려되고 있다. mMTC는 효율적으로 사물 인터넷을 제공하기 위해 셀 내에서 대규모 단말의 접속 지원, 단말의 커버리지 향상, 향상된 배터리 시간, 단말의 비용 감소 등이 요구된다. 사물 인터넷은 여러 가지 센서 및 다양한 기기에 부착되어 통신 기능을 제공하므로 셀 내에서 많은 수의 단말(예를 들어, 1,000,000 단말/km2)을 지원할 수 있어야 한다. 또한 mMTC를 지원하는 단말은 서비스의 특성상 건물의 지하와 같이 셀이 커버하지 못하는 음영지역에 위치할 가능성이 높으므로 5G 통신시스템에서 제공하는 다른 서비스 대비 더욱 넓은 커버리지를 요구할 수 있다. mMTC를 지원하는 단말은 저가의 단말로 구성되어야 하며, 단말의 배터리를 자주 교환하기 힘들기 때문에 10~15년과 같이 매우 긴 배터리 생명시간(battery life time)이 요구될 수 있다.
마지막으로, URLLC의 경우, 특정한 목적(mission-critical)으로 사용되는 셀룰라 기반 무선 통신 서비스이다. 예를 들어, 로봇(Robot) 또는 기계 장치(Machinery)에 대한 원격 제어(remote control), 산업 자동화(industrial automation), 무인 비행장치(Unmaned Aerial Vehicle), 원격 건강 제어(Remote health care), 비상 상황 알림(emergency alert) 등에 사용되는 서비스 등을 고려할 수 있다. 따라서 URLLC가 제공하는 통신은 매우 낮은 저지연 및 매우 높은 신뢰도 제공해야 한다. 예를 들어, URLLC을 지원하는 서비스는 0.5 밀리초 보다 작은 무선 접속 지연시간(Air interface latency)를 만족해야 하며, 동시에 10-5 이하의 패킷 오류율(Packet Error Rate)의 요구사항을 갖는다. 따라서, URLLC을 지원하는 서비스를 위해 5G 시스템은 다른 서비스보다 작은 전송 시간 구간(Transmit Time Interval, TTI)를 제공해야 하며, 동시에 통신 링크의 신뢰성을 확보하기 위해 주파수 대역에서 넓은 리소스를 할당해야 하는 설계사항이 요구될 수 있다.
5G의 세가지 서비스들, 즉 eMBB, URLLC, mMTC는 하나의 시스템에서 다중화되어 전송될 수 있다. 이 때, 각각의 서비스들이 갖는 상이한 요구사항을 만족시키기 위해 서비스간에 서로 다른 송수신 기법 및 송수신 파라미터를 사용할 수 있다. 물론 5G 통신 시스템은 전술한 세가지 서비스들에 제한되지 않는다.
최근 5G 통신 시스템의 확산으로 인해 3D 미디어와 같은 대용량 미디어 및 실시간 미디어 전송과 같은 서비스에 대한 수요가 증가하고 있다. 또한 3D 미디어를 효과적으로 보여줄 수 있는 방식으로 AR 글라스와 같이 기존의 스마트폰이 아닌 새로운 형태의 단말이 출현하고 있는데, 이러한 단말의 경우 사용자가 실제 착용하고도 불편함이 없도록 경량화된 설계를 필수로 하고 있다. 그러나 3D 미디어의 경우에는 기존의 2D 방식에 비해 매우 복잡한 렌더링 처리를 필요로 하고 있으며, 이는 곧 높은 배터리 소모를 가져오게 하는 문제가 있다.
이러한 문제점을 해결하기 위한 대안으로, Edge 서버를 활용하는 방안이 있다. 예를 들어, AR 글라스에 비해 복잡한 연산이 가능한 Edge 서버를 활용하여 렌더링 프로세스를 단말과 Edge 서버가 분담하게 함으로써, 단말의 소모 전력을 줄이면서도 효과적으로 3D 미디어 렌더링이 가능하게 할 수 있다. 이러한 분할 프로세스에 의한 렌더링 방식을 스플릿 렌더링이라고 하며, 이때 필요한 일련의 프로세스를 워크플로우 (workflow) 라고 부른다.
도 1은 Edge 서버를 활용하여 미디어를 전송하는 스플릿 렌더링 구조를 설명하기 위한 도면이다.
AR 글라스와 같은 단말(101)에 설치된 앱을 실행하여 서비스를 요청하면, 서비스 제공자 (120)은 3D 와 같은 AR 미디어 서비스 전송을 시작하게 된다. 이때, 서비스 제공자 (120)는 latency 감소를 위해 단말이 위치한 인근 Edge 서버(110)로 미디어를 우선 제공하게 되며 이를 Content hosting 이라 부른다 (160). Edge 서버 (110)에서는 이한 원본 미디어(예를 들어, AR media)를 1차 프로세싱을 통해 단말이 처리 가능한 수준의 미디어(processed media)로 변환하고, 이를 5G 망(130)을 통해 단말(101)에게 전달(150)하게 된다. 또한, Edge 서버 (110)에서 필요한 프로세싱을 위해 단말(101)은 필요한 상태 정보을 역방향 채널을 통해 제공할 수 있다(151). 이때, 단말 상태 정보는 예를 들어, 단말의 현재 위치 및 사용자가 바라보고 있는 방향 정보등을 포함하게 된다.
3GPP에서는 5G 망을 통해, 이러한 스플릿 렌더링을 포함하여 Edge 서버를 활용하여 미디어를 단말에게 전송하는 5G 미디어 스트리밍 구조 (5G Media Streaming, 5GMS)를 지원한다.
도 2는 5G 미디어 스트리밍 구조 (5G Media Streaming, 5GMS) 구조를 설명하기 위한 도면이다.
도 2는 5GMS 구조에 대한 상세한 도면으로, 단말 (201), Edge 서버 (210, 211), 및 서비스 제공자 (220)에 대한 보다 상세한 entity 등을 나타내고 있다. 단말(201)은, 사용자 어플리케이션 (202)과 실제 미디어 수신 및 단말 프로세스 (디코딩 등)을 수행하는 Media Player (204), 그리고 전송 경로에 대한 제어 정보 (Session setup, 유지 관리에 필요한 정보)를 송수신하는 Media Session Handler (203)를 포함할 수 있다. Edge 서버는 실제 미디어 전송 및 프로세싱을 수행하는 5GMSd AS (5G Media Streaming for Downlink Application Server, 211)와 단말과의 제어 정보 송수신을 담당하는 5GMSd AF (Application Function, 210)을 포함할 수 있다.
각각의 entity 들은 도면에 표시된 인터페이스를 통해 연결되었고, 각 인터페이스에는 어떤 정보가 오고가는지에 대한 parameter가 정의되어 있다. 실제 미디어가 전달되는 경로에는, 우선 서비스 제공자(220)가 Edge 서버에 전달하는 M2d (261), Edge 서버 에서 프로세싱된 미디어가 단말에 전달되는 M4d 경로 (262), 단말에서 처리된 미디어가 단말의 사용자 애플리케이션 (202)로 전달되는 M7d 경로 (265)를 포함한다. 그리고 제어 정보가 전달되는 경로로는 서비스 제공자 (220)와 Edge 서버간의 M1d 경로 (260), AF가 단말과의 제어 정보 통신을 위한 M5d (263), 단말 내부에서 제어 정보 전달을 위한 M6d (264) 를 포함한다. 사용자가 단말의 사용자 애플리케이션 (202)을 실행하여 어떤 서비스를 제공받을 수 있는지에 대한 정보 등을 확인하기 위하여 서비스 제공자와 통신하기 위해서는 266 경로가 활용되며, 서비스 QoS (qaulity of service) 에 대한 정책(policy)을 전달받기 위해서 PCF/NEF (250) 및 전송 경로 251을 활용할 수 있다.
도 2에서 정의한 5GMS 구조는 5G 망을 통해 Edge 서버 기반의 미디어 전송을 가능하게 하는 기본적인 구조로, 일반적인 2D 미디어 전송 뿐 아니라 기본적인 스플릿 렌더링이 가능한 구조이나, 이를 low latency 가 요구되는 실시간 미디어 전송에는 적용되기 어려운 문제를 갖고 있다.
첫번째로 해당 구조에 따르면 사용자 애플리케이션이 단말에만 위치하게 되어 Edge 서버에서 수행되는 프로세스에 대한 접근이 불가능하다. 이러한 방식은 미리 사전에 규정된 방식의 워크플로우 스플릿은 가능하지만 실시간으로 변하는 채널 환경 및 단말 상태 변화에 대한 대응이 불가능한 단점이 있다. 다시 말해서 AR 글라스와 같은 단말에서 AR 영상 통화 도중 다른 App을 구동함으로 인해서 단말의 처리 능력이 저하된 경우, 단말과 Edge 서버 간의 워크플로우 스플릿을 변경하려고 할 때, 단말은 멀리 떨어져 있는 서비스 제공자에 이러한 상황을 알리고, 서비스 제공자는 다시 변경된 방식에 따라 Edge 서버에 Content hosting 과정을 다시 수행해야 하는데 이 과정에서 latency 가 발생하게 된다.
두번째로, 스플릿 렌더링 방식의 경우 전체 경로에서 발생하는 latency 는 각각 Edge 서버 및 단말에서 처리되는 지연 및 무선 채널 경로에서 발생하는 지연, 그리고 기타 유선 네트워크에서 발생하는 지연으로 구성되는데, 기존의 구조에서는 제어 정보 통로를 통해 단말에서 얼마나 실제 프로세싱 지연이 발생하는지를 보고(reporting)하는 방식이 정의되지 않고 있다. 이 경우 수백 ms 수준의 latency 가 요구되는 2D/3D 영화 스트리밍 서비스의 경우는 그리 큰 문제가 안될 수 있지만, 실시간 3D 영상 통화 같이 수십 ms 수준의 전송 latency 가 요구되는 시나리오에서는 문제가 될 수 있다.
도 3은 본 개시의 일 실시예에 따른 실시간 미디어 전송을 위한 스플릿 렌더링 구조를 나타내는 도면이다.
도 3은 기본적으로 기존의 도 2와 유사하거나 동일한 구조로 되어 있으며, 이하에서는 동일한 내용에 대해서는 설명을 생략하고, 본 필요한 내용에 대해서만 기술하도록 한다.
서비스가 개시되면 우선, 서비스 제공자 (322)와 AF (310) 간에 content hosting을 위한 제어 정보가 전달된다 (350). 이때, 워크플로우 스플릿을 적응적으로(adaptively) 변경하기 위해서 서비스 제공자 (322)는 필요한 프로세스의 종류와 개수, 개별 프로세스 별로 요구되는 QoS 정보 등을 사전에 AF (310)에게 제공한다. 이때, 요구되는 QoS 정보는 프로세스별 연산량을 FLOPS (Floating Point Operation per Seconds) 형태로 제공하거나, 프로세스 처리 속도에 따라 예상되는 latency 등의 정보 등을 포함할 수 있다.
Content hosting이 수행되어 요청받은 컨텐츠가 서비스 제공자 (322)로부터 AS (315)로 전달되면, AS (315) 내에서 사용자 애플리케이션 (316)이 구동된다. AS (315) 내에 구동된 사용자 애플리케이션 (316)은 단말 (301)의 사용자 애플리케이션 (302)과 별도의 인터페이스 (360)를 통해 연결되는데, 이러한 인터페이스 (360)는 향후 단말 (301)에서 측정된 latency 정보 및 워크플로우 스플릿 결과를 통보하는 경로로 활용될 수 있다. AS (315) 및 단말(301)에서 구동되는 사용자 애플리케이션 (316, 302)은 서로 같은 종류의 애플리케이션일 수도 있으나, 통상적으로 Edge 서버의 처리 능력이 단말 (301)의 처리 능력보다 우수한 것을 고려할때 단말의 사용자 애플리케이션 (302)에서는 기본적인 사용자 입력만을 처리하는 기능만 수행하고, AS의 사용자 애플리케이션 (316)은 이 보다 복잡한 3D 처리와 같은 기능을 수행할 수 있다.
단말 (301) 및 AS (315) 내에 구동된 사용자 애플리케이션 (302)은 각각 Media player/streamer 와 R7 인터페이스 (357)로 연결된다. R7 인터페이스 (357)로는 AS (315) 및 단말 (301)에서 프로세스를 처리할 때, 실제 측정된 latency를 전달하는 역할을 수행한다. 이때, 단말 (301)에서 측정되는 latency에는 단말 (301)에서 처리되는 프로세싱 지연(delay) 뿐만 아니라 5G 망을 통해 전달되는 무선 채널에서 소요된 지연(delay)을 포함한다.
제어 정보 측면에서는 서비스에 대한 content hosting이 완료되면 Edge 서버 내 AF (310)에서는 R5 인터페이스 (355)를 통해 단말 (301)에 target latency 정보 및 별도의 QoS 정책 (policy) 등을 전달하게 된다. 전달된 target latency 정보는 전체 서비스를 지원하기 위해 필요한 total latency 목표로 단말의 사용자 애플리케이션 (302)에 R6 인터페이스 (356)를 통해 전달되어 향후 QoS 관리를 위한 목표값으로 활용될 수 있다.
도 4 및 도 5는 본 개시의 일 실시예에 따른 R1 인터페이스 (350)를 통해 전달되는 정보에 대한 실시예를 나타내는 도면이다.
도 4를 참조하면, 서비스 ID 및 서비스 이름 뿐 아니라, 앞서 서술한대로 전체 프로세스에 대한 개수가 포함되어 있으며, 각 개별 프로세스들에 대해 프로세스 ID 및 각각 요구되는 QoS 정보 등을 포함하고 있다. 이때 요구되는 QoS 정보는 앞서 서술한 바와 같이 실제 연산량에 대한 정보 또는 프로세싱 능력에 따른 처리 속도 또는 프로세싱 latency 등의 형태로 표현될 수 있다.
도 5를 참조하면, 개별 프로세스에 대한 required QoS 정보를 제공하는 대신, 사전에 몇가지 가용한 워크플로우 스플릿에 대한 set 을 제공하는 방식에 대해 보여주고 있다. 도 5에서는 y개의 워크플로우 스플릿 set 을 정의하고, 각각의 워크플로우 스플릿 set에 대해 어떤 프로세스들이 포함되어 있는지, 그리고 그러한 set 전체에 대한 요구되는 QoS 정보를 포함한다. 이때의 요구되는 QoS 정보는 도 4에서 설명했던 정보와 동일하다.
도 6은 본 개시의 일 실시예에 따른 R5 인터페이스(355) 를 통해 전달되는 추가 정보를 나타내는 도면이다.
TargetLatency parameter는 전체 프로세스를 통해 해당 서비스가 수행하기 위해 필요한 전체 latency 목표를 나타내는 값으로 millisecond 단위의 integer 값이 전달될 수 있다. 또한, 해당 서비스에 대한 latency 외의 dynamic policy가 전달될 수 있으며, 이때 포함되는 dynamic policy에는 서비스를 구성하는 개별 스트림별로 data rate이나 jitter, 요구되는 bandwidth 등이 포함될 수 있다. Dynamic policy는 개별 정책 (policy)을 구별하는 dynamicPolicyID 및 상세 정책 정보가 포함된 policyTemplateID 로 구성될 수 있다.
도 7은 본 개시의 일 실시예에 따른 R6 인터페이스를 통해 전달되는 추가 정보를 나타내는 도면이다.
앞서 서술한대로 R6 인터페이스 (356)는 사용자 애플리케이션과 media session handler 간 제어 정보를 전달하는 경로로, 앞서 전달된 TargetLatency 정보를 단말 및 AS 사용자 애플리케이션으로 포워딩하는 역할을 수행한다. 전달되는 TargetLatency 정보는 도 6에서 설명한 것과 동일하다.
도 8은 본 개시의 일 실시예에 따른 R7 인터페이스를 통해 전달되는 추가 정보를 나타내는 도면이다.
R7 인터페이스 (357)는 Media player/streamer 와 사용자 애플리케이션 간 미디어 관련 정보를 전달하는 경로로, 단말 및 AS에서 수행된 프로세싱에 대한 지연(delay) 을 측정하여 이를 사용자 애플리케이션으로 전달한다. 앞서 서술한 대로 단말에서 측정되는 지연 (delay) 에는 무선 채널 지연 (delay)을 포함하며 측정된 latency 는 millisecond 단위의 integer 값으로 표현될 수 있다.
도 9는 본 개시의 일 실시예에 따른 R10 인터페이스를 통해 전달되는 추가 정보를 나타내는 도면이다.
R10 인터페이스 (360)는 단말 및 AS 내에 구동된 사용자 애플리케이션 간의 필요한 정보를 주고받는 경로로써, 단말에서 측정된 MeasuredLatency 정보가 AS 로 전달되며, 또한 AS에서 결정된 워크플로우 스플릿 결과를 단말로 전달한다.
도 10에서는 본 개시의 일 실시예에 따른 미디어 및 제어 정보의 흐름도를 나타내는 도면이다.
사용자가 단말의 사용자 애플리케이션 (1002)을 실행하고 (Step 1), 어떠한 미디어 서비스를 수행할지 선택하면 (Step 2), 서비스 제공자 (1030)는 AF (1010)에 서비스 개시를 위한 제어 정보를 제공하다 (Step 3). 이때, R1 인터페이스를 통해 전달되는 정보는 도 4 또는 도 5의 실시예에서 설명한 정보를 포함한다. 이후, 서비스 제공자 (1030)는 required QoS 보장을 위한 QoS filter를 AF (1010)로 전달하고 (Step 4), Edge 서버에서는 이러한 QoS 를 달성하기 위한 최적의 AF (1010) 및 AS (1020)를 선택하고 등록하는 절차를 수행한다 (Step 5). 이때 AF (1010) 및 AS (1020)를 선택하고 등록하는 절차는 종래 절차에 따라 수행될 수 있다. AS (1020)가 선택되면 이후 AS (1020) 내에 사용자 애플리케이션 (1022)이 설치 및 구동되며 (Step 6), 이후 단말 (1001)및 AS (1020)의 사용자 애플리케이션 간의 경로를 통해 단말이 수행할 수 있는 프로세싱 능력에 대한 초기 정보를 교환한다 (Step 7). AF (1010)에서는 전달받은 단말의 처리 능력을 바탕으로 서비스 개시를 위한 워크플로우 스플릿 초기값을 결정하는데 (Step 8), 이에 대한 상세한 설명은 후술하도록 한다. 결정된 워크플로우 스플릿 초기값은 각각 AS (1020) 및 단말 (1001)에 전달된다 (Step 9, Step 10). 또한, AF (1010)가 dyamic policy 초기값 및 target latency 초기값을 단말 (1001)에게 전달하고, 단말 내 media player (1003)에서 프로세싱 설정(configuration) 을 위한 초기 정보로 활용된다. 위에서 설명한 과정을 통해 실제 미디어가 전달되기 위한 초기 세팅을 마치게 된다.
이후에서 실제 미디어가 AS streamer (1021) 로부터 단말 (1001)의 미디어 플레이어 (Media Player, 1005)로 전달되며 (Step 13), 미디어 플레이어 (1005)는 디코딩 등의 프로세싱을 수행하고 렌더링된 화면을 단말 (1001)의 디스플레이에 표현한다. 이 과정에서 발생하는 latency 를 측정하여 이를 Media Session handler (1003) 으로 전달하고, 도 8에서 설명한 MeasuredLatency 정보를 포함한 QoS 정보가 Edge 서버의 AF (1010)로 보고된다 (Step 15). 보고된 QoS 정보 (측정된 latency 포함)는 이후 AF (1010)에서 워크플로우 스플릿을 다시 변경할 필요가 있는지를 판단하고, 필요한 경우 워크플로우 스플릿을 다시 구성하는 과정을 거치게 된다 (Step 16). 만약 변경이 필요한 경우에는 변경된 워크플로우 스플릿 정보를 AS (1020) 및 단말 (1001)의 사용자 애플리케이션으로 통보하고 (Step 17), 다시 Step 11로 돌아가서 해당 워크플로우 스플릿에 따른 새로운 dynamic policy 정보를 갱신한다. 만약에 워크플로우 스플릿 변경이 필요하지 않은 경우 Step 18과 같이 다음 미디어 스트리밍 패킷을 전송하는 단계로 돌아가게 된다. 이상의 과정을 통해 미디어가 스트리밍되는 과정에서 단말에서는 latency를 지속적으로 측정하고, 측정된 latency 정보 기반으로 워크플로우 스플릿를 적응적으로(adaptatively) 갱신하여 실시간 미디어를 성공적으로 전송할 수 있다.
도 11은 도 10의 Step 8을 보다 상세히 설명하는 순서도이다.
AS 에서는 서비스 제공자로부터 전체 QoS 요구사항, 전체 프로세스 개수 및 개별 프로세스에 대한 QoS 요구사항을 전달받는다 (1101). 또한, 도 10의 Step 7로부터 단말이 처리 가능한 프로세스에 대한 기본 정보를 전달받게 되고 (1102), 이를 기반으로 워크플로우 스플릿 초기값을 결정하게 된다. 이때 결정하는 방식은 전체 프로세스 P1, P2, …, PN 중에서 (실제 렌더링을 위한 워크플로우 순서는 역순으로 수행한다고 가정한다. 즉, N, N-1, …, 1의 순서로 처리되는 것을 가정으로 한다) 단말이 처리 가능한 프로세스의 개수 D를 선정한다. 선정하는 방식은 P1 부터 순차적으로 단말이 처리 가능한가를 판단하여 (1103, 1104), 단말이 처리가능한 최대 개수를 선정하게 된다. 선정된 D값에 따라 최종적으로 단말이 수행해야 할 프로세스의 set S1 및 AS에서 수행하게될 프로세스 set S2를 선정하게 되고 (1106), 이후 선정된 S1 및 S2를 각각 단말과 AS 로 전달하게 된다 (1107).
도 12는 도 10의 Step 16을 보다 상세히 설명하는 순서도이다.
현재 워크플로우 스플릿 결과 S1, S2 및 단말로부터 전달받은 현재 측정 delay 값 DD, 그리고 Edge AS 내에서 측정한 프로세싱 delay DE 값을 기반으로 (1201), 전체 Latency (DD+DE) 가 target latency Ltotal 과 비교한다 (1202). 만약 전체 latency 가 target 보다 작은 경우에는 워크플로우 스플릿을 갱신하지 않아도 된다라고 판단하고 (1203) 현재의 워크플로우 스플릿을 유지한다. 만약 그렇지 않은 경우에는 단말에서 수행해야 하는 프로세스의 개수 D' 을 새로 계산하게 되고, 이때 D' 를 새로 결정하는 방식은 앞서 도 11에서 설명한 바와 같이 P1 부터 순차적으로 단말이 처리한다고 했을때 전체 delay 가 target을 넘지 않느냐를 판단하여 D' 값을 결정하게 된다 (1204). 다시 수정된 D' 값을 기준으로 set S1' 과 S2' 를 결정하고 (1205), 결정된 S1' 과 S2'을 다시 단말과 AS로 전달해서 워크플로우 스플릿 변경을 통보하게 된다.
도 13은 본 개시의 일 실시예에 따른 단말의 구성을 나타내는 도면이다.
도 13에서 도시되는 바와 같이, 본 개시의 단말은 송수신부(1310), 메모리(1320), 프로세서(1330)를 포함할 수 있다. 전술한 단말의 통신 방법에 따라 단말의 프로세서(1330), 송수신부(1310) 및 메모리(1320)가 동작할 수 있다. 다만, 단말의 구성 요소가 전술한 예에 한정되는 것은 아니다. 예를 들어, 단말은 전술한 구성 요소들 보다 더 많은 구성 요소를 포함하거나 더 적은 구성 요소를 포함할 수도 있다. 뿐만 아니라 프로세서(1330), 송수신부(1310) 및 메모리(1320)가 하나의 칩(chip) 형태로 구현될 수도 있다.
송수신부(1310)는 단말의 수신부와 단말의 송신부를 통칭한 것으로 기지국 혹은 네트웍 엔티티와 신호를 송수신할 수 있다. 기지국과 송수신하는 신호는 제어 정보와 데이터를 포함할 수 있다. 이를 위해, 송수신부(1310)는 송신되는 신호의 주파수를 상승 변환 및 증폭하는 RF 송신기와, 수신되는 신호를 저 잡음 증폭하고 주파수를 하강 변환하는 RF 수신기 등으로 구성될 수 있다. 다만, 이는 송수신부(1310)의 일 실시예일 뿐이며, 송수신부(1310)의 구성요소가 RF 송신기 및 RF 수신기에 한정되는 것은 아니다.
또한, 송수신부(1310)는 유무선 송수신부를 포함할 수 있으며, 신호를 송수신하기 위한 다양한 구성을 포함할 수 있다.
또한, 송수신부(1310)는 무선 채널을 통해 신호를 수신하여 프로세서(1330)로 출력하고, 프로세서(1330)로부터 출력된 신호를 무선 채널을 통해 전송할 수 있다.
또한, 송수신부(1310)는 통신 신호를 수신하여 프로세서로 출력하고, 프로세서로부터 출력된 신호를 유무선망을 통해 네트웍 엔티티로 전송할 수 있다.
메모리(1320)는 단말의 동작에 필요한 프로그램 및 데이터를 저장할 수 있다. 또한, 메모리(1320)는 단말에서 획득되는 신호에 포함된 제어 정보 또는 데이터를 저장할 수 있다. 메모리(1320)는 롬(ROM), 램(RAM), 하드디스크, CD-ROM 및 DVD 등과 같은 저장 매체 또는 저장 매체들의 조합으로 구성될 수 있다.
프로세서(1330)는 상술한 본 개시의 실시 예에 따라 단말이 동작할 수 있도록 일련의 과정을 제어할 수 있다. 프로세서(1330)는 적어도 하나 이상의 프로세서를 포함할 수 있다. 예를 들어, 프로세서(1330)는 통신을 위한 제어를 수행하는 CP(communication processor) 및 응용 프로그램 등 상위 계층을 제어하는 AP(application processor)를 포함할 수 있다.
도 14는 본 개시의 일 실시예에 따른 Edge 서버의 구성을 나타내는 도면이다.
도 14에서 도시되는 바와 같이, 본 개시의 Edge 서버는 송수신부(1410), 메모리(1420), 프로세서(1430)를 포함할 수 있다. 전술한 Edge 서버의 동작 방법에 따라 네트워크 엔티티의 프로세서(1430), 송수신부(1410) 및 메모리(1420)가 동작할 수 있다. 다만, Edge 서버의 구성 요소가 전술한 예에 한정되는 것은 아니다. 예를 들어, Edge 서버는 전술한 구성 요소들 보다 더 많은 구성 요소를 포함하거나 더 적은 구성 요소를 포함할 수도 있다.
송수신부(1410)는 Edge 서버의 수신부와 Edge 서버의 송신부를 통칭한 것으로 단말 또는 다른 네트워크 엔티티와 신호를 송수신할 수 있다. 이때, 송수신하는 신호는 제어 정보와 데이터를 포함할 수 있다. 이를 위해, 송수신부(1410)는 송신되는 신호의 주파수를 상승 변환 및 증폭하는 RF 송신기와, 수신되는 신호를 저 잡음 증폭하고 주파수를 하강 변환하는 RF 수신기 등으로 구성될 수 있다. 다만, 이는 송수신부(1410)의 일 실시예일 뿐이며, 송수신부(1410)의 구성요소가 RF 송신기 및 RF 수신기에 한정되는 것은 아니다. 송수신부(1410)는 유무선 송수신부를 포함할 수 있으며, 신호를 송수신하기 위한 다양한 구성을 포함할 수 있다.
또한, 송수신부(1410)는 통신 채널(예를 들어, 무선 채널)을 통해 신호를 수신하여 프로세서(1430)로 출력하고, 프로세서(1430)로부터 출력된 신호를 통신 채널을 통해 전송할 수 있다.
또한, 송수신부(1410)는 통신 신호를 수신하여 프로세서로 출력하고, 프로세서로부터 출력된 신호를 유무선망을 통해 단말 또는 네트웍 엔티티로 전송할 수 있다.
메모리(1420)는 Edge 서버의 동작에 필요한 프로그램 및 데이터를 저장할 수 있다. 또한, 메모리(1420)는 Edge 서버에서 획득되는 신호에 포함된 제어 정보 또는 데이터를 저장할 수 있다. 메모리(1420)는 롬(ROM), 램(RAM), 하드디스크, CD-ROM 및 DVD 등과 같은 저장 매체 또는 저장 매체들의 조합으로 구성될 수 있다.
프로세서(1430)는 상술한 본 개시의 실시 예에 따라 Edge 서버가 동작할 수 있도록 일련의 과정을 제어할 수 있다. 프로세서(1430)는 적어도 하나 이상의 프로세서를 포함할 수 있다.
본 개시의 청구항 또는 명세서에 기재된 실시예들에 따른 방법들은 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 조합의 형태로 구현될(implemented) 수 있다.
소프트웨어로 구현하는 경우, 하나 이상의 프로그램(소프트웨어 모듈)을 저장하는 컴퓨터 판독 가능 저장 매체가 제공될 수 있다. 컴퓨터 판독 가능 저장 매체에 저장되는 하나 이상의 프로그램은, 전자 장치(device) 내의 하나 이상의 프로세서에 의해 실행 가능하도록 구성된다(configured for execution). 하나 이상의 프로그램은, 전자 장치로 하여금 본 개시의 청구항 또는 명세서에 기재된 실시 예들에 따른 방법들을 실행하게 하는 명령어(instructions)를 포함한다.
이러한 프로그램(소프트웨어 모듈, 소프트웨어)은 랜덤 액세스 메모리 (random access memory), 플래시(flash) 메모리를 포함하는 불휘발성(non-volatile) 메모리, 롬(ROM: Read Only Memory), 전기적 삭제가능 프로그램가능 롬(EEPROM: Electrically Erasable Programmable Read Only Memory), 자기 디스크 저장 장치(magnetic disc storage device), 컴팩트 디스크 롬(CD-ROM: Compact Disc-ROM), 디지털 다목적 디스크(DVDs: Digital Versatile Discs) 또는 다른 형태의 광학 저장 장치, 마그네틱 카세트(magnetic cassette)에 저장될 수 있다. 또는, 이들의 일부 또는 전부의 조합으로 구성된 메모리에 저장될 수 있다. 또한, 각각의 구성 메모리는 다수 개 포함될 수도 있다.
또한, 프로그램은 인터넷(Internet), 인트라넷(Intranet), LAN(Local Area Network), WLAN(Wide LAN), 또는 SAN(Storage Area Network)과 같은 통신 네트워크, 또는 이들의 조합으로 구성된 통신 네트워크를 통하여 접근(access)할 수 있는 부착 가능한(attachable) 저장 장치(storage device)에 저장될 수 있다. 이러한 저장 장치는 외부 포트를 통하여 본 개시의 실시 예를 수행하는 장치에 접속할 수 있다. 또한, 통신 네트워크상의 별도의 저장장치가 본 개시의 실시 예를 수행하는 장치에 접속할 수도 있다.
본 개시의 실시예들에서, 발명에 포함되는 구성 요소는 제시된 실시예에 따라 단수 또는 복수로 표현되었다. 그러나, 단수 또는 복수의 표현은 설명의 편의를 위해 제시한 상황에 적합하게 선택된 것으로서, 본 개시가 단수 또는 복수의 구성 요소에 제한되는 것은 아니며, 복수로 표현된 구성 요소라하더라도 단수로 구성되거나, 단수로 표현된 구성 요소라 하더라도 복수로 구성될 수 있다.
본 개시의 실시예들을 설명하는 도면에서, 설명의 순서가 반드시 실행의 순서와 대응되지는 않으며, 선후 관계가 변경되거나 병렬적으로 실행 될 수도 있다. 또한, 본 개시의 실시예들을 설명하는 도면은 본 개시의 본질을 해치지 않는 범위 내에서 일부의 구성 요소가 생략되고 일부의 구성요소만을 포함할 수도 있다.
본 개시의 실시예들은 본 개시의 본질을 해치지 않는 범위 내에서 각 실시예에 포함된 내용의 일부 또는 전부가 조합되어 실행될 수도 있다.
한편, 본 명세서와 도면에 개시된 본 개시의 실시예들은 본 개시의 기술 내용을 쉽게 설명하고 본 개시의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 개시의 범위를 한정하고자 하는 것은 아니다. 즉, 여기에 개시된 실시예들 이외에도 본 개시의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.

Claims (15)

  1. RTC(Real-Time Media Communication) AF(application fucntion)의 동작 방법에 있어서,
    서비스 제공자로부터, 서비스와 관련된 제어 정보를 수신하는 단계;
    상기 제어 정보에 기초하여, 상기 서비스에 대한 워크플로우 스플릿에 대한 초기값을 결정하는 단계;
    상기 워크플로우 스플릿과 관련된 정보를 RTC(Real-Time Media Communication) AS(application server) 및 UE(user equipment) 중 적어도 하나 이상으로 전송하는 단계;
    상기 서비스의 처리와 관련된 지연 정보에 기초하여 상기 워크플로우 스플릿을 변경하는 단계; 및
    상기 변경된 워크플로우 스플릿과 관련된 정보를 상기 AS 및 UE 중 적어도 하나 이상으로 전송하는 단계를 포함하는, 방법.
  2. 제1항에 있어서,
    상기 서비스에 필요한 제어 정보는,
    상기 서비스에 필요한 프로세스의 개수, 프로세스의 식별 정보 및 각 프로세스 별로 요구되는 QoS 정보를 포함하는, 방법.
  3. 제1항에 있어서,
    상기 서비스에 필요한 제어 정보는,
    상기 서비스에 필요한 프로세스 세트의 개수, 상기 프로세스 세트의 식별 정보, 상기 프로세스 세트에 포함되는 프로세스의 식별 정보 및 프로세스 세트 별로 요구되는 QoS 정보를 포함하는, 방법.
  4. 제1항에 있어서,
    상기 워크플로우 스플릿과 관련된 정보는,
    상기 워크플로우 스플릿에 대한 초기값을 포함하고,
    상기 제어 정보에 기초하여, 상기 서비스에 대한 워크플로우 스플릿에 대한 초기값을 결정하는 단계는,
    상기 UE의 처리 능력에 관련된 정보를 수신하는 단계;
    상기 UE의 처리 능력에 관련된 정보에 기초하여, 상기 UE가 처리 가능한 최대 프로세스의 수를 결정하는 단계; 및
    상기 UE가 처리 가능한 최대 프로세스의 수에 기초하여, 상기 UE가 처리해야할 프로세스와 상기 AS가 처리해야할 프로세스를 결정하는 단계를 포함하는, 방법.
  5. 제1항에 있어서,
    상기 서비스의 처리와 관련된 지연 정보에 기초하여 상기 워크플로우 스플릿을 변경하는 단계는,
    상기 UE에서 측정된 지연 값과 상기 AS에서 측정된 지연 값과 목표 지연 값이 목표 지연 값보다 크거나 같은 경우, 상기 UE가 처리해야할 프로세스와 상기 AS가 처리해야할 프로세스를 다시 결정하는 단계를 포함하는, 방법.
  6. RTC(Real-Time Media Communication) AS(application server)의 동작 방법에 있어서,
    RTC AF(application function)으로부터, 워크플로우 스플릿(workflow split)과 관련된 정보를 수신하는 단계;
    상기 워크플로우 스플릿과 관련된 정보에 기초하여, 미디어를 처리하는 단계;
    상기 워크플로우 스플릿과 관련하여 변경된 정보를 수신하는 단계; 및
    상기 변경된 정보에 기초하여, 상기 미디어를 처리하는 단계를 포함하는, 방법.
  7. 제1항에 있어서,
    상기 워크플로우 스플릿과 관련된 정보는,
    UE의 처리 능력에 기초하여 결정된 상기 워크플로우 스플릿에 대한 초기값을 포함하고,
    상기 워크플로우 스플릿과 관련하여 변경된 정보는,
    UE에서 측정된 지연 값, 상기 AS에서 측정된 지연 값 및 목표 지연 값에 기초하여 결정되는, 방법.
  8. 제1항에 있어서,
    상기 워크플로우 스플릿과 관련된 정보를 UE(user equipment)로 전송하는 단계를 더 포함하는, 방법.
  9. RTC(Real-Time Media Communication) AF(application fucntion)에 있어서,
    송수신부; 및
    상기 송수신부와 연결되는 제어부를 포함하고,
    상기 제어부는,
    서비스 제공자로부터, 서비스와 관련된 제어 정보를 수신하고,
    상기 제어 정보에 기초하여, 상기 서비스에 대한 워크플로우 스플릿에 대한 초기값을 결정하고,
    상기 워크플로우 스플릿과 관련된 정보를 RTC(Real-Time Media Communication) AS(application server) 및 UE(user equipment) 중 적어도 하나 이상으로 전송하고,
    상기 서비스의 처리와 관련된 지연 정보에 기초하여 상기 워크플로우 스플릿을 변경하고,
    상기 변경된 워크플로우 스플릿과 관련된 정보를 상기 AS 및 UE 중 적어도 하나 이상으로 전송하도록 구성되는, RTC AF.
  10. 제9항에 있어서,
    상기 서비스에 필요한 제어 정보는,
    상기 서비스에 필요한 프로세스의 개수, 프로세스의 식별 정보 및 각 프로세스 별로 요구되는 QoS 정보를 포함하는, RTC AF.
  11. 제9항에 있어서,
    상기 서비스에 필요한 제어 정보는,
    상기 서비스에 필요한 프로세스 세트의 개수, 상기 프로세스 세트의 식별 정보, 상기 프로세스 세트에 포함되는 프로세스의 식별 정보 및 프로세스 세트 별로 요구되는 QoS 정보를 포함하는, RTC AF.
  12. 제9항에 있어서,
    상기 워크플로우 스플릿과 관련된 정보는,
    상기 워크플로우 스플릿에 대한 초기값을 포함하고,
    상기 제어부는,
    상기 UE의 처리 능력에 관련된 정보를 수신하고,
    상기 UE의 처리 능력에 관련된 정보에 기초하여, 상기 UE가 처리 가능한 최대 프로세스의 수를 결정하고,
    상기 UE가 처리 가능한 최대 프로세스의 수에 기초하여, 상기 UE가 처리해야할 프로세스와 상기 AS가 처리해야할 프로세스를 결정하도록 구성되는, RTC AF.
  13. 제9항에 있어서,
    상기 제어부는,
    상기 UE에서 측정된 지연 값과 상기 AS에서 측정된 지연 값과 목표 지연 값이 목표 지연 값보다 크거나 같은 경우, 상기 UE가 처리해야할 프로세스와 상기 AS가 처리해야할 프로세스를 다시 결정하도록 구성되는, RTC AF.
  14. RTC(Real-Time Media Communication) AS(application server)에 있어서,
    송수신부; 및
    상기 송수신부와 연결되는 제어부를 포함하고,
    상기 제어부는,
    RTC AF(application function)으로부터, 워크플로우 스플릿(workflow split)과 관련된 정보를 수신하고,
    상기 워크플로우 스플릿과 관련된 정보에 기초하여, 미디어를 처리하고,
    상기 워크플로우 스플릿과 관련하여 변경된 정보를 수신하고,
    상기 변경된 정보에 기초하여, 상기 미디어를 처리하도록 구성되는, RTC AS.
  15. 제14항에 있어서,
    상기 워크플로우 스플릿과 관련된 정보는,
    UE의 처리 능력에 기초하여 결정된 상기 워크플로우 스플릿에 대한 초기값을 포함하고,
    상기 워크플로우 스플릿과 관련하여 변경된 정보는,
    UE에서 측정된 지연 값, 상기 AS에서 측정된 지연 값 및 목표 지연 값에 기초하여 결정되는, RTC AS.
PCT/KR2023/006175 2022-05-04 2023-05-04 이동 통신 시스템에서 실시간 미디어 전송을 위한 방법 및 장치 WO2023214851A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020220055296A KR20230155740A (ko) 2022-05-04 2022-05-04 이동 통신 시스템에서 실시간 미디어 전송을 위한 방법 및 장치
KR10-2022-0055296 2022-05-04

Publications (1)

Publication Number Publication Date
WO2023214851A1 true WO2023214851A1 (ko) 2023-11-09

Family

ID=88646743

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/006175 WO2023214851A1 (ko) 2022-05-04 2023-05-04 이동 통신 시스템에서 실시간 미디어 전송을 위한 방법 및 장치

Country Status (2)

Country Link
KR (1) KR20230155740A (ko)
WO (1) WO2023214851A1 (ko)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210320955A1 (en) * 2020-04-10 2021-10-14 Samsung Electronics Co., Ltd. Offering media services through network edge
US20210352113A1 (en) * 2020-05-07 2021-11-11 Tencent America LLC Methods for discovery of media capabilities of 5g edge
US20220058065A1 (en) * 2020-08-18 2022-02-24 Plaid Inc. System and method for managing user interaction flows within third party applications
US20220109722A1 (en) * 2020-10-07 2022-04-07 Nokia Technologies Oy Method and apparatus for dynamic workflow task management

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210320955A1 (en) * 2020-04-10 2021-10-14 Samsung Electronics Co., Ltd. Offering media services through network edge
US20210352113A1 (en) * 2020-05-07 2021-11-11 Tencent America LLC Methods for discovery of media capabilities of 5g edge
US20220058065A1 (en) * 2020-08-18 2022-02-24 Plaid Inc. System and method for managing user interaction flows within third party applications
US20220109722A1 (en) * 2020-10-07 2022-04-07 Nokia Technologies Oy Method and apparatus for dynamic workflow task management

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"3rd Generation Partnership Project; Technical Specification Group Services and System Aspects; 5G Media Streaming (5GMS); General description and architecture (Release 17)", 3GPP DRAFT; 26501-H10_RM, 3RD GENERATION PARTNERSHIP PROJECT (3GPP), MOBILE COMPETENCE CENTRE ; 650, ROUTE DES LUCIOLES ; F-06921 SOPHIA-ANTIPOLIS CEDEX ; FRANCE, no. 20220301, 26 March 2022 (2022-03-26), Mobile Competence Centre ; 650, route des Lucioles ; F-06921 Sophia-Antipolis Cedex ; France, XP052129037 *

Also Published As

Publication number Publication date
KR20230155740A (ko) 2023-11-13

Similar Documents

Publication Publication Date Title
WO2023090820A1 (en) Method and apparatus for ue authentication for remote provisioning
CN116783840A (zh) 对多trp场景中波束组报告的增强
WO2023080621A1 (en) Method and device for providing split computing service in wireless communications system
WO2023214851A1 (ko) 이동 통신 시스템에서 실시간 미디어 전송을 위한 방법 및 장치
WO2022118223A1 (en) Method and system for unsupervised user clustering and power allocation in non-orthogonal multiple access (noma)-aided massive multiple input-multiple output (mimo) networks
WO2021194926A1 (en) Ue split architecture with distributed tx/rx chains
WO2023239071A1 (ko) 무선 통신 시스템에서 단말 간 직접 통신을 위한 빔 제어 방법 및 장치
WO2023136599A1 (en) Supporting slices on a cell level in a telecommunication network
WO2024096457A1 (ko) 무선 통신 시스템에서 단말의 분석 정보를 제공하는 방법 및 장치
WO2024071857A1 (ko) 무선 통신 시스템에서 신호를 처리하기 위한 방법 및 장치
WO2023224381A1 (ko) 네트워크 장비 내의 컴퓨팅과 결합된 차세대 이동통신 시스템을 위한 방법 및 장치
WO2024076126A1 (ko) 에지 컴퓨팅 연동 컨텍스트 재배치 방법
WO2022154543A1 (ko) 논리 채널의 사용 가능한 harq 프로세스를 설정하는 방법 및 장치
WO2023243929A1 (ko) 무선 통신 시스템에서 유휴모드 및 비활성모드 단말의 nes 모드 동작을 위한 방법 및 장치
WO2024071953A1 (ko) 무선 통신 시스템에서 네트워크 에너지 절약을 위한 sps 및 cg 송수신 방법 및 장치
WO2024090641A1 (ko) 무선 통신 시스템에서 빔을 선택하기 위한 방법 및 장치
WO2023085824A1 (en) Method and apparatus for configuring session connection mode using network data analytics function in wireless communications system
WO2024101924A1 (ko) 무선 통신 시스템에서 빔포밍 수행하는 공중 단말을 위한 모빌리티 관리 방법 및 장치
WO2024049070A1 (ko) 셀룰러 통신 시스템에서 응용 성능을 위한 응용 계층 정보/전송 계층 정보 전달 방법 및 장치
WO2023211091A1 (ko) 무선 통신 시스템에서 사이드링크 통신을 위한 단말 간 협력 정보의 관리 방법 및 장치
WO2024019573A1 (ko) 무선 통신 시스템에서 네트워크 응답 정보를 제공하는 방법 및 장치
WO2023146335A1 (en) Communication method and device using upf event exposure service for charging service in wireless communication system
WO2023048539A1 (en) Method and apparatus for transceiving data by using dual connectivity of integrated access and backhaul node in wireless communication system
WO2022240093A1 (en) Apparatus and method for multiplexing of integrated access and backhaul (iab) node in wireless communication system
WO2023132677A1 (en) A method and apparatus to send user consent on user equipment location

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23799732

Country of ref document: EP

Kind code of ref document: A1