WO2012011743A2 - 스트리밍 컨텐츠 제공 장치 및 방법 - Google Patents

스트리밍 컨텐츠 제공 장치 및 방법 Download PDF

Info

Publication number
WO2012011743A2
WO2012011743A2 PCT/KR2011/005357 KR2011005357W WO2012011743A2 WO 2012011743 A2 WO2012011743 A2 WO 2012011743A2 KR 2011005357 W KR2011005357 W KR 2011005357W WO 2012011743 A2 WO2012011743 A2 WO 2012011743A2
Authority
WO
WIPO (PCT)
Prior art keywords
content
media
metadata
attribute
representation
Prior art date
Application number
PCT/KR2011/005357
Other languages
English (en)
French (fr)
Other versions
WO2012011743A3 (ko
Inventor
탕쯔엉꽁
이진영
배성준
강정원
정순흥
박상택
류원
김재곤
Original Assignee
한국전자통신연구원
한국항공대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=45497301&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=WO2012011743(A2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by 한국전자통신연구원, 한국항공대학교산학협력단 filed Critical 한국전자통신연구원
Priority to US13/811,376 priority Critical patent/US9325558B2/en
Priority to CN2011800452802A priority patent/CN103181181A/zh
Priority to EP18191382.3A priority patent/EP3441932A1/en
Priority to EP11809870.6A priority patent/EP2597884A4/en
Publication of WO2012011743A2 publication Critical patent/WO2012011743A2/ko
Publication of WO2012011743A3 publication Critical patent/WO2012011743A3/ko
Priority to US15/069,443 priority patent/US10362130B2/en
Priority to US16/179,767 priority patent/US10819815B2/en
Priority to US16/227,921 priority patent/US20190124173A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/80Responding to QoS
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/56Provisioning of proxy services
    • H04L67/561Adding application-functional data or data for application control, e.g. adding metadata
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2381Adapting the multiplex stream to a specific network, e.g. an Internet Protocol [IP] network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/10Flow control; Congestion control
    • H04L47/30Flow control; Congestion control in combination with information about buffer occupancy at either end or at transit nodes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/1066Session management
    • H04L65/1101Session protocols
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/61Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
    • H04L65/613Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio for the control of the source by the destination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/65Network streaming protocols, e.g. real-time transport protocol [RTP] or real-time control protocol [RTCP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • H04L65/752Media network packet handling adapting media to network capabilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • H04L65/762Media network packet handling at the source 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • H04L65/764Media network packet handling at the destination 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/24Monitoring of processes or resources, e.g. monitoring of server load, available bandwidth, upstream requests
    • H04N21/2401Monitoring of the client buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/24Monitoring of processes or resources, e.g. monitoring of server load, available bandwidth, upstream requests
    • H04N21/2402Monitoring of the downstream path of the transmission network, e.g. bandwidth available
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44004Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving video buffer management, e.g. video decoder buffer or video display buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/654Transmission by server directed to the client
    • H04N21/6543Transmission by server directed to the client for forcing some client operations, e.g. recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/654Transmission by server directed to the client
    • H04N21/6547Transmission by server directed to the client comprising parameters, e.g. for client setup
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • H04N21/2353Processing of additional data, e.g. scrambling of additional data or processing content descriptors specifically adapted to content descriptors, e.g. coding, compressing or processing of metadata
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/23805Controlling the feeding rate to the network, e.g. by controlling the video pump

Definitions

  • the technical field of the present invention relates to a streaming content providing technology, and more particularly, to an apparatus and method for providing media content using adaptive streaming.
  • Streaming is one of the methods for transmitting and playing multimedia content such as sound and video.
  • the client can play the content while receiving the content through streaming.
  • the adaptive streaming service means providing a streaming service through a communication scheme consisting of a client request and a server response to the request.
  • the client may request a media sequence suitable for its environment (for example, its transport channel) through an adaptive streaming service, and the server may select a media sequence that matches the client's request among various quality media sequences that it has. Can provide.
  • the adaptive streaming service can be provided based on various protocols.
  • the HTTP adaptive streaming service refers to an adaptive streaming service provided based on the HTTP protocol.
  • Clients of the HTTP adaptive streaming service can be provided with content from a server using the HTTP protocol, and can send a request related to the streaming service to the server.
  • One embodiment of the present invention may provide an apparatus and method for specifying a minimum amount of media that is initially buffered in playing content.
  • One embodiment of the present invention can provide an apparatus and method for receiving content within a specific range from a target indicated by a URL to play content.
  • a method of providing media content comprising a one or more periods by a client, the method comprising: receiving metadata for the media content from a server, the metadata for playing the media content; A minimum buffer time attribute indicating a minimum amount of initial buffered media content required, comprising: receiving the media content from the server, buffering at least the minimum amount, and playing the media content; A content providing method is provided.
  • the metadata may be media presentation description (MPD) of the media content.
  • MPD media presentation description
  • the minimum buffer time attribute may indicate the minimum amount of initial buffered media required to play the content media when the content is continuously transmitted above the value of the bandwidth attribute of the metadata or above the value of the bandwidth attribute.
  • Each period may include one or more representations of the media content.
  • the representation is a structured collection of one or more media components within the period
  • the bandwidth attribute may be an attribute for the representation.
  • the bandwidth attribute may be the minimum bandwidth of a virtual constant bitrate channel through which the representation can be continuously transmitted after the client buffers the representation by at least the minimum buffer time.
  • the representation may include one or more segments.
  • the metadata for the media content is received, the metadata being an initial buffer necessary for playing the media content.
  • a minimum buffer time attribute indicating a minimum amount of media content that has been received, the media content being received from the server and receiving the media content from the server and buffering the media content at least by the minimum amount
  • a terminal includes a media engine for playing the data.
  • a method of providing media content including a one or more periods by a client comprising: receiving metadata about the media content from a server, wherein the metadata includes a URL attribute and a range attribute; Including-receiving the bytes specified by the range attribute from the URL pointed to by the URL attribute and playing the media content using the received bytes.
  • the bytes specified by the byte range may designate a segment of the media content.
  • the range attribute may point to multiple byte ranges.
  • the bytes may be received by a partial HTTP GET command indicated by the byte range for the URL.
  • the terminal receives metadata about the media content, wherein the metadata includes a URL attribute and a range attribute.
  • An access engine that receives the bytes specified by the range attribute from a URL pointed to by the URL attribute; And a media engine for playing the media content using the received bytes.
  • the bytes designated by the byte range may designate a segment of the media content.
  • the range attribute may point to multiple byte ranges.
  • the bytes may be received by a partial HTTP GET command indicated by the byte range for the URL.
  • a method of processing a content including one or more intervals by a client comprising: receiving metadata about an interval of the content from a server, processing the metadata, and processing the metadata Requesting a server for a suitable fragment for the interval based on and receiving the fragment from the server.
  • the content may be content on demand or live content.
  • the metadata may include general information, and the general information may include a general description of the content and a general description of the interval.
  • the general description of the content may include one or more of a duration and a start time.
  • the metadata may include quality information of the service, and the quality information of the service may describe the characteristics of each of the alternatives of the content.
  • the characteristics may include one or more of bitrate, resolution and quality.
  • the suitable fragment may be selected based on the information of the alternatives.
  • the metadata may include mapping information, and the mapping information may describe locations to extract the content.
  • the metadata may include content-level information and interval level information, and calculations for determination of all alternatives and for resolution of locations may be performed by the server.
  • the request may define an order value of the fragment within the interval and a start time of the fragment within the interval.
  • the metadata may include content-level information, interval level information and QoS information, and calculations for determination of all alternatives and for resolution of locations may be performed distributed by the client and the server.
  • the request may include one of an alternative ordering value, the alternative appearing in QoS information according to the ordering value, values of an adaptation operator appearing in the QoS information, values of a resource appearing in the QoS information. have.
  • the adaptation operator includes the number of scalable audio layers to be discarded, the number of temporal layers of scalable video to be discarded, the number of spatial layers of scalable video to be discarded, the number of quality layers of scalable video to be discarded, and the extensions to be discarded. It may include one or more of the number of priority layers of the video.
  • the type of resource may include one or more of the average bitrate of the alternative, the vertical resolution of the alternative, the horizontal resolution of the alternative, and the alternative framerate.
  • the metadata may include content-level information, interval level information, QoS information and mapping information, and calculations for determination of all alternatives and for resolution of locations may be performed by the client.
  • the request may include one or more of the parameters for an MPEG-2 TS boundary, a parameter for an ISO media file boundary, and a parameter for a file that is considered as a raw bike-sequence.
  • the metadata is physically separated into content-level information, interval level information, QoS information and mapping information such that linking of the relevant portions of the content-level information, the interval level information, the QoS information and the mapping information is referred to. It can be made by.
  • a method for providing content including one or more intervals by a server comprising: transmitting metadata about an interval of the content to a client, receiving a request for a fragment from the client;
  • the fragment is a fragment suitable for the interval selected based on the metadata, parsing the content, extracting a data part suitable for the fragment, and sending the fragment to the client.
  • a content service providing method is provided.
  • the server receives metadata about an interval of the content from the server, requests a server for a suitable fragment for the interval, and
  • a client including a transceiver for receiving the fragment from a server and a controller for processing the metadata and for selecting the appropriate fragment for the interval based on the processing.
  • the method and apparatus according to one embodiment of the invention may specify the minimum amount of media that is initially buffered in playing content.
  • Method and apparatus can receive the content within a specific range from the object pointed to by the URL to play the content.
  • FIG 1 illustrates categories of signaling information according to an example of the present invention.
  • FIG 2 illustrates categories of signaling information according to an example of the present invention.
  • FIG 3 illustrates layers of content division and levels of signaling information according to an embodiment of the present invention.
  • FIG. 4 illustrates detection of virtual boundaries in an MPEG-2 TS according to an example of the present invention.
  • FIG. 5 is a structural diagram of a client 100 according to an embodiment of the present invention.
  • FIG. 6 is a structural diagram of a client 100 according to an embodiment of the present invention.
  • Dynamic Adaptive Streaming over HTTP allows 1) the delivery of media content from an HTTP server to an HTTP client, and 2) the delivery of content by standard HTTP caches. Specifies the formats that enable caching.
  • FIG. 1 is a signal flow diagram of a content processing method according to an embodiment of the present invention.
  • a media component is, for example, audio, video or timed text with specific attributes, such as bandwidth, language or resolution. It is an encoded version of individual media types.
  • Media content is a collection of media components with a common timeline, such as video, audio and subtitles.
  • media components can be used as a program or movie to establish relationships (eg, individually, jointly, or mutually exclusive) with respect to how media components are presented.
  • Media content and content may be used in the same sense.
  • a media presentation is a structured collection of data that establishes a bounded or unbounded presentation of media content consisting of components of continuous media.
  • a media presentation is a structured collection of data accessible to a DASH client to provide a streaming service to a user.
  • the media presentation description may be a stylized description of the media presentation.
  • the media presentation may be described by the MPD, including possible updates of the MPD.
  • the content may be content on demand or live content.
  • the content can be divided into one or more intervals. That is, content can include one or more intervals.
  • Period may be a term of Generation Partnership Project (3GPP) adaptive HTTP streaming.
  • 3GPP Generation Partnership Project
  • the period may be an interval of media presentation.
  • a continuous sequence of all periods constitutes a media presentation.
  • the media presentation can include one or more periods.
  • One or more intervals may be a base unit.
  • One or more intervals may be described by signaling metadata. That is, metadata may describe each of one or more intervals.
  • the metadata may be MPD.
  • the MPD may define a format for informing resource identifiers for the segment.
  • the MPD may provide a context for the identified resources within the media presentation.
  • Resource identifiers may be HTTP-URL. URLs may be limited by the byte range attribute.
  • Each interval may be divided into fragments.
  • Segment may be a term of Generation Partnership Project (3GPP) adaptive HTTP streaming.
  • 3GPP Generation Partnership Project
  • a segment may be an object (eg, an object in response to an HTTP / 1.1 GET request for an HTTP-URL (or a GET request for a portion indicated by a byte range), as defined in RFC 2616).
  • entity may mean a body.
  • the metadata may include a URL attribute and a scope attribute.
  • the client can receive the bytes specified by the range attribute from the URL pointed to by the URL attribute. That is, the bytes can be received by the partial HTTP GET command indicated in the byte range for the URL, where the bytes specified by the range attribute can represent the aforementioned segment.
  • the range attribute can point to multiple byte ranges.
  • the client can play the media content using the received bytes (ie, the segment).
  • Sub-segment may mean the smallest unit in segments that can be indexed by segment index at the segment level.
  • each set of fragments may be two or more sets of fragments corresponding to one interval. Name each set of fragments as an alternative.
  • Each period may include one or more groups.
  • Each group may include one or more representations of the same media content.
  • Representation is a structured collection of one or more media components within one period.
  • the MPD (or MPD element) provides descriptive information that enables the client to select one or more representations.
  • Random Access Point is a specific location within a media segment.
  • the RAP is identified as being a location that can continue playback from the location of the RAP using only the information contained within the media segment.
  • Each representation may consist of one or more segments. That is, the representation may include one or more segments.
  • the MPD is a document that contains metadata required by the DASH client to 1) access segments, and 2) construct HTTP-URLs suitable for providing a streaming service to the user.
  • HTTP-URLs can be absolute or relative.
  • the MPD may be an XML-document.
  • the MPD may include an MPD element.
  • the MPD may contain only one MPD element.
  • Client 100 may be a DA SH client.
  • the DASH client can be compatible with the client specified in RFC 2616.
  • the DASH client may generally use the HTTP GET method or the HTTP partial GET method, as specified in RFC 2616, to join segments or portions of segments.
  • Server 110 may host the DASH segments. Server 110 may be compatible with the server specified in RFC 2616.
  • step 120 client 100 receives 1) metadata for content or 2) metadata for a particular interval of content from server 110. That is, the server 110 transmits 1) metadata about the content or metadata about a specific interval of the content to the client 100.
  • the particular interval represents an interval currently being processed among one or more intervals constituting the content.
  • step 130 the client 100 processes metadata for a particular interval.
  • the client 100 requests a fragment from the server 110.
  • the client 100 may request the server 110 for appropriate fragments for a specific interval based on the metadata processing. In other words, the requested fragments are selected based on the metadata.
  • step 145 in some cases, the server needs to parse the content (eg, an MP4 file for SVC) and extract a data part that fits the requested fragment.
  • the content eg, an MP4 file for SVC
  • step 150 server 110 sends a suitable fragment to client 100 for each request from client 100.
  • the client 100 receives a fragment from a server.
  • step 120 is repeated for the next interval of a particular interval.
  • the client 100 can play the content using the received fragment as the steps 120-150 are repeated.
  • FIG 2 illustrates categories of signaling information according to an example of the present invention.
  • the signaling information (ie metadata) is divided into the following categories 1) to 4).
  • general information 210 includes a general description of the content and a general description of each interval, such as duration and start time, for example.
  • Quality of Service (QoS information) 220 Describes the characteristics of each alternative, such as bitrate, resolution, and quality. That is, the quality information of the service describes the characteristics of each of the alternatives of the content.
  • Alternatives may be physical (ie, pre-generated) and virtual (ie, generated on-the-fly). Based on the information of the alternatives, the client selects a suitable alternative fragment. Thus, it supports the adaptability to the contexts of terminals and networks.
  • Mapping Information 230 Describes locations to retrieve content. Depending on the specific cases, different alternatives may have the same or different positions.
  • Client request 240 This kind of signaling information conforms to the format of an HTTP 1.1 request message. As shown in FIG. 1, the parameters requested by the client derive from the information of the categories 1) to 3) above.
  • signaling information may be e.g. Advanced Video Coding (AVC) / Scalable Video Coding (SVC) Can support typical (also variable) cases of MP4 file storage and delivery, such as MPEG-2 Transport Stream (TS), including alternatives). It is common enough to be. In addition, multi-channel transport is needed for evolved scenarios (eg, SVC layer within one HTTP connection).
  • AVC Advanced Video Coding
  • SVC Scalable Video Coding
  • signaling information may be decision-making, such as, for example, client-based, distributed and server-based. It is flexible to support different positions of.
  • the format of the signaling information allows for a small data size and facilitates handling (eg parsing, modifying).
  • the signaling information is an HTTP 1.1 request message without request parameters requiring any extensions (e.g. new header fields). Provide appropriate description items to be enclosed within.
  • FIG 3 illustrates layers of content division and levels of signaling information according to an embodiment of the present invention.
  • the signaling of metadata may be physically separated into content-level information 310, interval level information 320, QoS information 330, and mapping 340 information.
  • the linking of the content-level information 310, the interval level information 320, the QoS information 330, and the relevant portions of the mapping 340 is accomplished by referencing.
  • Metadata of content-level information 310 may be sent once, and only interval level information 320 may be updated periodically.
  • one file containing QoSInfo part 330 can be used for different intervals and different content.
  • XML is a common language for explanation. XML provides a wealth of tools for describing almost everything. XML is also very well-structured and suitable for building databases. However, the disadvantages of XML are large datasize and complexity. In particular, descriptions within XML may include special software (eg, Document Object Model (DOM), Simple Application Programming Interface for XML) to parse and process metadata; SAX)). XML is often used for the syntax of bitstreams (MPEG-1, MPEG-2 video bitstreams and file formats). The advantage of this approach is the compactness of the description, but it is not very flexible to describe the various types of syntax elements.
  • DOM Document Object Model
  • SAX Simple Application Programming Interface for XML
  • Embodiments of the present invention may use both XML and pseudo-code to indicate signaling syntax.
  • XML syntax can be used for clients that support XLM profiles based on MPEG-21 and similar schemas.
  • Pseudo-code syntax may be based on a "language" such as an ISO base media file format and may be used within non-XML clients.
  • the profile of the pseudo-code syntax may employ a Fassil module similar to the parsing module of file-format parsing.
  • a table of common elements will be defined and the elements in each format will be represented.
  • 0 ... N means that the number of instances of the occurrences element can be from 0 to " unbounded. &Quot; However, the minimum number of occurrences of zero means that the element may be optional (ie, not present). 1 The minimum number of occurrences of sub-phases means that the element is mandatory in the syntax.
  • Occurrence may be used in the same sense as cardinality.
  • A represents an attribute and E represents an element.
  • M means mandatory and O means optional.
  • O means optional
  • OD means optional with default values
  • CM means conditionally mandatory.
  • the element may be expressed as: ⁇ minOccurs> ... ⁇ maxOccurs>. In this case, N represents unbounded.
  • QoSInfo may also be called, more specifically, AdaptationInfo. Moreover, some elements have been revised to increase the flexibility of the syntax.
  • Table 4 shows common semantics of (1) Resource, (2) AdaptationOperator, and (3) Utility elements of Table 3.
  • the semantics of the Location elements may be further provided as shown in Table 6 below.
  • the client request is described below.
  • the signaling of the metadata obtained by the client may include different parts or levels of signaling information.
  • the request from the client to the server may include parameters of different levels of detail.
  • the main parameters of the client are URIs and the main parameters are associated with the query part.
  • the metadata provided from the server to the client is composed of general content information 310 and general interval information 320.
  • DefaultContentIntLoc (if not, DefaultContentIntLoc) is used.
  • the following parameters a) and b) are defined within the query portion (of the request of step 140).
  • fragmentno the order value of the fragment within the above interval
  • the metadata provided from the server to the client includes the general content information 310, the general interval information 320, and the QoS information 330.
  • the following QoS-related parameters a) to c) are defined in the query part (of the request of step 140) to enable the client to request a suitable alternative.
  • Adaptive operators are as follows a) to e).
  • a) audiolayers indicates the number of scalable audio layers to be discarded.
  • temporallayers indicates the number of temporal layers of the scalable video to be discarded.
  • c) spatiallayers indicates the number of spatial layers of the scalable video to be discarded.
  • quality layers indicates the number of spatial layers in the scalable video to be discarded.
  • priority layers indicates the number of priority layers of the scalable video to be discarded.
  • Resource types are as follows a) to d).
  • bitrate indicates the average bitrate (in Kbps) of the requested alternative.
  • d) framerate indicates the framerate of the requested alternative.
  • the metadata provided from the server to the client includes general content, general interval information, QoS information, and mapping information.
  • QoS-related parameters used in the request are indicated by the ReqQoSPara part of the QoSInfo metadata. If RefIndex of ReqQoSPara is 0 or null, the "alter" parameter is used instead of the other options.
  • the URI of the content comes from the rich description of MappingInfo.
  • PIDs are used to locate the content within the stream.
  • the following parameters 1) to 3) for the query part (of the request of step 140) may be used.
  • syntax representation of the XML format is described.
  • representations of the above syntax elements are provided in XML format. The semantics of each element can be traced back in Tables 1-7 above.
  • Some elements may be extensions of some types defined within the MPEG-21 DIA. Some elements may take some types defined within the MPEG-21 DIA.
  • Table 8 below is a syntax presentation using the XML format of HTTPStreamingType.
  • Table 9 is a syntax representation using the XML format of GeneralInfoType.
  • Table 10 below is a syntax representation using the XML format of IntervalRefType.
  • Table 11 is a syntax representation using the XML format of IntervalType.
  • Table 12 below is a syntax representation using the XML format of IntervalInfoType.
  • Table 13 below is a syntax representation using the XML format of QoSInfoType.
  • Table 14 below is a syntax representation using the XML format of MappingInfoType.
  • Table 15 below is a syntax representation using the XML format of ReqQoSParaType.
  • Table 16 below is a syntax representation using the XML format of LocationListType.
  • Table 17 below is a syntax representation using a LocationType XML format.
  • Table 18 below is a syntax representation using the XML format of StrLocationType.
  • Table 19 below is a syntax representation using the XML format of MP2TSParaType.
  • Table 20 below is a syntax representation using the XML format of the FragBoundariesType.
  • Table 21 below is a syntax representation using the XML format of MP2TSBoundaryType.
  • Table 22 below is a syntax representation using the XML format of ISOFileBoundaryType and ByteRangesType.
  • Table 23 below is a syntax representation using MP4 pseudo-code of HTTPStreamingBox.
  • Table 24 below is a syntax representation using MP4 pseudo-code from GeneralInfoBox.
  • interval-level information is described.
  • Table 25 below is a syntax representation using MP4 pseudo-code from IntervalBox.
  • Table 26 below is a syntax representation using MP4 pseudo-code of IntervalRefBox.
  • Table 27 is a syntax representation using MP4 pseudo-code of QoSInfoRefBox.
  • Table 28 below is a syntax representation using MP4 pseudo-code of MappingInfoRefBox.
  • Table 29 below is a syntax representation using MP4 pseudo-code of IntervalInfoBox.
  • Table 30 below is a syntax representation using MP4 pseudo-code of NextIntervalRefBox.
  • Table 31 below is a syntax representation using MP4 pseudo-code of QoSInfoBox.
  • Table 32 below is a syntax representation using MP4 pseudo-code of ClassSchemeRefBox.
  • Table 33 below is a syntax representation using MP4 pseudo-code from ResourceBox.
  • Table 34 is a syntax representation using MP4 pseudo-code of AdaptationOperatorBox.
  • Table 35 below is a syntax representation using MP4 pseudo-code from UtilityBox.
  • Table 36 below is a syntax representation using MP4 pseudo-code from UtilityRankBox.
  • mapping information is described.
  • Table 37 below is a syntax representation using MP4 pseudo-code of MappingInfoBox.
  • Table 38 below is a syntax representation using AlterLocIDBox's MP4 pseudo-code.
  • Table 39 below is a syntax representation using MP4 pseudo-code from ReqQoSParaBox.
  • Table 40 below is a syntax representation using MP4 pseudo-code from ReqQoSParaBox.
  • Table 41 below is a syntax representation using MP4 pseudo-code from LocationBox.
  • Table 42 below is a syntax representation using MP4 pseudo-code of FragTimeBox.
  • Table 43 below is a syntax representation using MP4 pseudo-code from RandAccessBox.
  • Table 44 below is a syntax representation using the MP4 pseudo-code of StrLocationBox.
  • Table 45 below is a syntax representation using MP4 pseudo-code from MP2TSParaBox.
  • Table 46 is a syntax representation using MP4 pseudo-code of FragBoundariesBox.
  • Table 47 below is a syntax representation using MP4 pseudo-code of MP2TSBoundaryBox.
  • Table 48 below is a syntax representation using MP4 pseudo-code of ISOFileBoundaryBox.
  • Table 49 below is a syntax representation using MP4 pseudo-code of ISOFileBoundaryBox.
  • FIG. 4 illustrates detection of virtual boundaries in an MPEG-2 TS according to an example of the present invention.
  • PCR packets of a given program are carried with a fixed PID (ie, PCR_PID) and inserted at least every 100 ms.
  • PCR packets can be considered as anchor points of a program (with increasing values).
  • each media of the program can be carried by packets of a given PID (ie, Media_PID).
  • the fragment boundary of the media stream may be defined or identified by 1) a particular anchor point and 2) an offset from the anchor to the packet at the boundary.
  • the offset may be counted by packets of the same Media_PID.
  • PCR values may be reset (discontinuous). In this case, when there are one or more PCR packets of the same PCR value in the interval, the order of appearance of the PCR packets used as anchors is masked.
  • the fragment boundary of the media stream in the MPEG-2 TS stream can be identified by the parameters of Table 50 below.
  • Period is the same as in Interval discussed above.
  • the semantics of the added elements / attributes are shown in Table 51 below.
  • the semantics of the range attribute of UrlType can be extended to support multiple byte ranges, such as "0-500, 1000-1500". This variant makes the range attribute equivalent to the ByteRanges element of the syntax above.
  • sourceURL attribute may be changed from being required to optional. This is because baseURL already provides a complete URL. sourceURL may not be required.
  • a low frame rate segment (which may be used in trickmode) may be extracted on-the-fly from the stream or the original segment.
  • Each level of the description (top-level, Period level, Representation level) provides only a single base URL for building absolute URLs from the description.
  • multiple base URLs may be provided.
  • Multiple base URLs signal the availability of resources at multiple locations.
  • the client may select one or more base URLs in the procedure for extracting the resource.
  • Such a variant may be implemented in different ways.
  • One way is to use an additional attribute called “morebaseURLs” or an element called “BaseURLs”.
  • This attribute or element may be a string of multiple (base) URLs.
  • the string may be separated by some special characters, such as ";" (ie, semicolon and white space).
  • the semicolon or space character may be encoded according to the rules of RFC 2616.
  • the attribute of the morebaseURL at the lower description level (or BaseURLs element) overrides the same attribute (element) at the higher description level.
  • the morebaseURLs attribute and the BaseURLs element may be restricted to mutual exclusion. That is, only one type may exist within the entire description.
  • the order of appearance of a UrlTemplate instance or a set of Url instances may indicate the importance of its "location / stream". More important locations may appear before less important locations.
  • the video representation may consist of two streams (spatial base layer and spatial enhancement layer). Each is passed from the location described by the UrlTemplate. Next, the first instance of UrlTemplate becomes the location for the spatial base layer.
  • nth instance of InitialisationSegmentURL corresponds to the nth instance of location (by the UrlTemplate element or Url element set).
  • InitialisationSegmentURL If there is only one instance of InitialisationSegmentURL, the instance can be used for all locations.
  • Tables 52 to 55 below show a scheme of AdaptiveHTTPStreaming of 3GPP.
  • XInclude is a W3C technology that provides an inclusion mechanism for merging XML documents.
  • PeriodsRef and XInclude above are similar in that they use any URI type (with Location element and href attribute) to refer to the resource / description. However, there are major differences between these two approaches.
  • PeriodsRef is used to refer to past or future periods. Past or future cycles do not always need to be merged. The intent of PeriodsRef may simply be to allow the user to extract the appropriate period information when desired.
  • the startTime and availableTime of PeriodsRef may be unique for period information retrieval.
  • the attributes / elements of XInclude “fallback” and “xpointer” can be used to enhance the functionality of PeriodsRef.
  • "parse”, “encoding”, “accept”, and “accept-language” may be unnecessary for PeriodsRef.
  • Enhanced PeroidsRef In this option, the existing PeriodsRef can be enhanced by the fallback element and xpointer attribute of XInclude.
  • One advantage of this option is simplicity in syntax and processing.
  • the syntax of the modified PeriodsRef is provided in Table 57 below.
  • PeriodRef can be constructed by simply extending XInclude with respect to the startTime and availableTime attributes.
  • the advantage of this option is that it uses the standard XInclude. In order to always avoid merging documents initially, it is mandatory for PeriodsRef's semantics that "the client is allowed to decide whether or not the merge should be done.” This syntax of PeriodsRef is provided in Table 58 below.
  • an ids attribute may be added to indicate the ids of the Periods referenced in the current media presentation.
  • the Location element can be changed to an optional location attribute.
  • Each cycle may have a start attribute indicating the start time of the cycle.
  • this approach may not be flexible to modify the timeline of periods.
  • the start times of all periods after the inserted period must be changed. Moreover, if the same advertisement period is played repeatedly (eg every hour), this period is inserted continuously. In the same way, when one or more periods are removed from the MPD, the start time of the remaining periods after the removed period in space time is changed.
  • the PeriodTimeline element may provide information about the presentation of periods along the timeline.
  • the semantics and syntax of the PeriodTimeline element are provided in Tables 60-62 below.
  • the description of the Period can be independent of the presentation time.
  • the Period can be reused (in whole or in part) within the same media presentation or another media presentation.
  • the Period Timeline needs to be changed.
  • the PartialPlay element may allow (re) playing one or more parts of a Period. For example, after an advertisement Period is presented, a portion of that period (denoted by beginning and ending) may sometimes be repeated during the entire session.
  • the PeriodTimeline element may implicit an explicit timeline of Periods. Without the PeriodTimeline element, an implicit timeline of Periods may be inferred from an ordered sequence of Periods. In the case of an implied timeline, in order to support replay of Period, PartialPlay element may also be provided as a child element of Period element.
  • the minimum number of Representation instances can be changed to zero.
  • a provider For professional service provisioning, a provider needs to have clients display supplemental information (with main content) on the screen, such as the provider's logo or advertising banners, for example. There is. This information may be independent of the timeline of the Period.
  • Each supplemental item may be provided for the highest resolution of the content. If the content is downscaled for some small terminals, the supplemental item and its positional parameters (xOffset, yOffset) can also be downscaled proportionally.
  • SupplementaryInfo The semantics and syntax of SupplementaryInfo is provided by Tables 63-65 below.
  • the minimum amount of media initially buffered by the client can be defined in units of time. In some cases, it is difficult for the client to be sure that the temporary duration of the buffered media is sufficient. Other options may be provided to allow initial buffered media to be specified in datasize units.
  • the provider can specify the priority of each option. Selecting an option can be up to the client.
  • minBufferSize Another optional attribute named minBufferSize to the MPD, as shown in Tables 66 and 67 below. There must be at least one of two attributes (minBufferTime and minBufferSize).
  • Table 66 shows the semantics of minBufferSize.
  • Bandwidth information of each representation may be provided for a given minimum amount of initially buffered media.
  • different clients may initially have different pre-set amounts of buffered media from one another. This results in requiring different bandwidth information for different clients.
  • the amount of buffering may be in units of time or data size.
  • Table 69 shows semantics of BandwidthInfo.
  • Table 70 and Table 71 are XML syntax of Bandwidth Info.
  • the segment bandwidth is described below.
  • the bandwidth attribute can be provided for each representation over the entire duration of the period.
  • the bitrate of the encoded video usually has bursty characteristics.
  • the bitrate of one segment may be several times higher than the bitrate of another segment.
  • bandwidth information of each segment may be additionally provided.
  • Table 72 describes the semantics of SegmentBandwidth.
  • Table 73 and Table 74 are syntax of SegmentBandwidth.
  • Table 75 shows the semantics of IntervalBandwidth.
  • Table 76 shows the syntax of IntervalBandwidth.
  • the media is prepared before delivery.
  • the original media file must be segmented and some in-band metadata signals are inserted into the media data.
  • Virtual segments describing different representations are described that minimize the demand for media manipulation.
  • a virtual segment may be defined as a collection of data part (s) in a stream (or segment).
  • the purpose of the virtual segment may include the following objectives 1) to 2). :
  • the media segment requested by the client can be specified by URL and byte range. Especially when the media stream contains different representations therein, this designation may be somewhat limited because the media segment may consist of different parts of the media stream.
  • the URL can be used with multiple byte ranges to identify the virtual segment. Also, different techniques can be used to reduce the increased metadata size caused by using multiple byte ranges.
  • the semantics of the UrlType of the MPD may be changed as follows.
  • some of the media header boxes may contain different information than the representation description. In this case, the above information can be ignored.
  • a new element MoreAddressingInfo can be added to represent the byte ranges in a compact manner. Metadata fragmentation may be added to the MoreAddressingInfo element to reduce the size of the initial MPD.
  • segment index boxes and other related boxes, eg, boxes corresponding to the Ranges element
  • the MoreAddressingInfo element may also contain information, including URL and byte ranges, to indicate the segment index boxes of each media segment.
  • the SegmentInfo element enhanced by the MoreAddressInfo element is described in Table 77 below.
  • Tables 78 and 79 below show XML syntax of the MoreAddressingInfo element.
  • the MoreAddressingInfo element can be represented by a pseudo-code format.
  • same_rep may indicate whether each sequence of byte ranges below is for segments of the same representation or segments having the same order within different representations.
  • segment_count represents the number of segments in each representation.
  • rep_count represents the number of representations.
  • range_count represents the number of byte ranges.
  • start and end represent the start and end values of the byte ranges.
  • same_start indicates whether the following set of byte ranges has the same start values as the set of previous byte ranges.
  • the SegmentInfoDefaultType of the RepresentationGroup element may be extended directly from the SegmentInfo type, as shown in Table 81 below. If the SegmentInfoDefault element of the RepresentationGroup element is used to convey information indicating addressing of segments, the SegmentInfo element of the Representation element is absent. Each representation of the representation group may have the same identifier value as the (corresponding) identifier value indicated by the Ranges element of MoreAddressingInfo.
  • SubReps a new element called SubReps is used to describe the different (sub-) representations of the (parent) representation.
  • the SegmentInfo element of the parent representation may be used to convey information indicating an address (as described above).
  • Table 82 describes the semantics of SubReps.
  • Table 83 shows the XML syntax of the SubReps element.
  • measuring quality values can be expensive.
  • the provider may provide some hints in selecting different representations.
  • Adaptive hints can be child elements of Period or Subset. When used within a SubSet, the AdaptationHint may only consider representations belonging to that SubSet.
  • the client can use not only to select representations within the described context, but also to infer (eg, interpolate) representations within other possible contexts.
  • Table 84 shows the semantics of AdaptationHint.
  • Tables 85 and 86 show the syntax of AdaptationHint.
  • bandwidthRange provides bandwidth values of sub-streams (or sub-representation) that can be extracted from the full stream / representation.
  • Table 87 describes the semantics of bandwidthRange.
  • bandwidthRange can also be used for RepresentationGroup.
  • the sub-representations can be representations of the RepresentationGroup.
  • the bandwidth information is further described below.
  • bandwidth and initial buffering delay can be enhanced to enable flexibility and accuracy in supporting adaptability.
  • the bandwidth value of each representation may be defined for any initial buffering time value minBufferTime.
  • Initial buffering time may be provided for the MPD level. However, it may be unclear whether this minBufferTime applies only to the beginning of the media presentation, or to any RAPs.
  • minBufferTime at the MPD level can be revised to one of the following options.
  • each Representation When each Representation is delivered with a value equal to or greater than the value of the bandwidth attribute of the Representation, it provides the minimum amount of initially buffered media (at the beginning of the media presentation) needed to ensure smooth playback.
  • each Representation When each Representation is delivered with a value equal to or greater than the value of the bandwidth attribute of the Representation, it provides the minimum amount of initially buffered media (at the beginning of any Period of the media presentation) necessary to ensure smooth playback. .
  • minBufferTime can be added to each Period. Adding minBufferTime to each Period can override the minBufferTime value at the MPD level. This override enables proper initial buffering before the Period begins.
  • minBufferTime at the MPD level can be changed to an optional attribute.
  • Table 88 describes minBufferTime.
  • bandwidth can guarantee the continuous reproduction of the representation within a period. However, there is no guarantee that the representation (s) in the next Period (if present) will be sufficiently buffered before the representation begins. In order to ensure continuous playback across the peroids, the semantics of the bandwidth attribute may be changed as shown in Table 91 below.
  • All media data of the current period can be well received before the start of the next period.
  • all media data of the next period can be sufficiently buffered (for continuous playback) before the start of the next period.
  • Different devices receiving the same MPD respect the minBufferTime in the MPD. However, different devices may require different amounts of initially buffered media (or different minimum initial buffering delays).
  • one device may prefer a low delay (cost high bandwidth), while another device with a low-bandwidth connection may tolerate a large delay.
  • the schema change of MPEG DASH for this purpose may be as the following options.
  • This change may be implemented by 1) MinBufferTime elements at the MPD and Period levels and 2) BandwidthInfo elements in the Representation.
  • Table 92 shows the semantics of MinBufferTime at the MPD level.
  • Table 93 shows the semantics of MinBufferTime at Period level.
  • Table 94 shows the semantics of BandwidthInfo.
  • Tables 95 to 97 are syntaxes of MinBufferTime and BandwidthInfo.
  • each RAP of the representation may be provided with multiple pairs of bandwidth-minBufferTime. This information enables the client to buffer enough initial data before playing from the RAP (eg in the case of random accessing).
  • Table 98 describes the semantics of RAPInfo.
  • Table 99 and Table 100 describe the syntax of RAPInfo.
  • the child elements of the RAPInfo element and the RAPInfo element may be converted to pseudo-code formats / boxes for compactness. Furthermore, the pseudo-code boxes of the RAPInfo element and the child elements of the RAPInfo element may be stored separately (eg, before each RAP) or inserted into the media bitstream.
  • Table 101 describes the semantics of AppPlayoutCurve.
  • Table 102 shows the syntax of IntervalBandwidth.
  • FIG. 5 is a structural diagram of a client 100 according to an embodiment of the present invention.
  • the controller 510 performs steps 130 and 140. That is, the controller 510 processes the metadata for the interval and selects the appropriate fragment for the interval based on the processing.
  • the transceiver 520 performs steps 120, 140, and 150. That is, the transceiver 520 receives metadata about an interval of content from the server 110, requests the server for an appropriate fragment for the interval, and receives the fragment from the server.
  • FIG. 6 is a structural diagram of a client 100 according to an embodiment of the present invention.
  • the client 100 includes an access engine 610 and a media engine 620.
  • the access engine 610 may be a DASH access engine.
  • the access engine 610 receives metadata (eg, MPD) from the server 110.
  • metadata eg, MPD
  • the access engine 610 constructs the requests and issues the constructed requests to the server 110.
  • the access engine 610 receives the content (eg, calendar, segments or portions of segments) from the server 110.
  • content eg, calendar, segments or portions of segments
  • the access engine 610 provides the content to the media engine 620.
  • the output of the access engine 610 is media (or media) of an MPEG container (e.g., ISO / IEC 14492-12 ISO Base Media File Format or ISO / IEC 13818-2 MPEG-2 Transport Stream). May be included).
  • the output of the access engine 610 may include timing information that maps the internal timing of the media to the timeline of the media presentation.
  • Media engine 610 plays the provided content. That is, the media engine 610 may output the media using the media and timing information output from the access engine 610.
  • Method according to an embodiment of the present invention is implemented in the form of program instructions that can be executed by various computer means may be recorded on a computer readable medium.
  • the computer readable medium may include program instructions, data files, data structures, etc. alone or in combination.
  • Program instructions recorded on the media may be those specially designed and constructed for the purposes of the present invention, or they may be of the kind well-known and available to those having skill in the computer software arts.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks.
  • Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.
  • the hardware device described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Library & Information Science (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

콘텐츠에 대한 메타데이터를 사용하는 적응형 HTTP 스트리밍 서비스를 위한 방법 및 장치가 개시된다. 상기의 메타데이터는 초기의 버퍼된 미디어 콘텐츠의 최소 양을 가리키는 최소 버퍼 시간 속성을 포함한다. 단말은 콘텐츠의 재생 전에 서버로부터 콘텐츠를 전송받아 적어도 상기의 최소 양만큼 버퍼링한다. 상기의 메타데이터는 URL이 가리키는 대상의 범위를 지정하는 범위 속성을 포함한다. 단말은 상기 URL로부터 상기 범위 속성이 지정하는 바이트들을 수신하고, 수신된 바이트들을 사용하여 콘텐츠를 재생한다.

Description

스트리밍 컨텐츠 제공 장치 및 방법
본 발명의 기술 분야는 스트리밍 컨텐츠 제공 기술에 관한 것으로, 특히, 적응적 스트리밍을 이용한 미디어 콘텐츠 제공 장치 및 방법에 관한 것이다.
스트리밍(streaming)은 소리 및 동영상 등의 멀티미디어 콘텐츠를 전송 및 재생하기 위한 방식 중 하나이다. 클라이언트는 스트리밍을 통해 콘텐츠을 수신하는 동시에 상기의 콘텐츠를 재생할 수 있다.
적응적 스트리밍 서비스는, 클라이언트의 요청 및 상기의 요청에 대한 서버의 응답으로 구성되는 통신 방식을 통해 스트리밍 서비스를 제공하는 것을 의미한다.
클라이언트는 적응적 스트리밍 서비스를 통해 자신의 환경(예컨대, 자신의 전송 채널)에 적합한 미디어 시퀀스를 요청할 수 있으며, 서버는 자신이 갖고 있는 다양한 퀄리티의 미디어 시퀀스들 중 클라이언트의 요청에 부합하는 미디어 시퀀스를 제공할 수 있다.
적응적 스트리밍 서비스는 다양한 프로토콜에 기반하여 제공될 수 있다.
HTTP 적응적 스트리밍 서비스는 HTTP 프로코콜에 기반하여 제공되는 적응적 스트리밍 서비스를 의미한다. HTTP 적응적 스트리밍 서비스의 클라이언트는 HTTP 프로토콜을 사용하여 서버로부터 콘텐츠를 제공받을 수 있으며, 스트리밍 서비스와 관련된 요청을 서버에게 전송할 수 있다.
본 발명의 일 실시예는 콘텐츠를 재생함에 있어 초기에 버퍼링되는 미디어의 최소 양을 지정하는 장치 및 방법을 제공할 수 있다.
본 발명의 일 실시예는 URL이 가리키는 대상으로부터 특정한 범위 내의 바이트들을 수신하여 콘텐츠를 재생하는 장치 및 방법을 제공할 수 있다.
본 발명의 일 측에 따르면, 클라이언트가 하나 이상의 주기들을 포함하는 미디어 콘텐츠를 제공하는 방법에 있어서, 서버로부터 상기 미디어 콘텐츠에 대한 메타데이터를 수신하는 단계 - 상기 메타데이터는 상기 미디어 콘텐츠를 재생하기 위해 필요한 초기의 버퍼된 미디어 콘텐츠의 최소 양을 가리키는 최소 버퍼 시간 속성을 포함함 -, 상기 서버로부터 상기 미디어 콘텐츠를 전송받아 적어도 상기 최소 양만큼 버퍼링하는 단계 및 상기 미디어 콘텐츠를 재생하는 단계를 포함하는, 콘텐츠 제공 방법이 제공된다.
상기 메타데이터는 상기 미디어 콘텐츠의 미디어 정보(media presentation description; MPD)일 수 있다.
상기 최소 버퍼 시간 속성은 상기 콘텐츠가 상기 메타데이터의 대역폭 속성의 값 또는 상기 대역폭 속성의 값 이상으로 연속적으로 전송될 때 상기 콘텐츠 미디어를 재생하기 위해 필요한 초기의 버퍼된 미디어의 최소 양을 가리킬 수 있다.
각 주기는 상기 미디어 콘텐츠 하나 이상의 레프리젠테이션(representation)들을 포함할 수 있다. - 상기 레프리젠테이션은 상기 주기 내의 하나 이상의 미디어 컴포넌트들의 구조화된 컬렉션임 -
상기 대역폭 속성은 상기 레프리젠테이션에 대한 속성일 수 있다.
상기 대역폭 속성은 상기 클라이언트가 적어도 상기 최소 버퍼 시간만큼 상기 레프리젠테이션을 버퍼링한 후, 상기 레프리젠테이션이 연속적으로 전송될 수 있는 가상적인 상수 비트레이트 채널의 최소 대역폭일 수 있다.
상기 레프리젠테이션은 하나 이상의 세그먼트들을 포함할 수 있다.
본 발명의 다른 일 측에 따르면, 하나 이상의 주기들을 포함하는 미디어 콘텐츠를 제공하는 단말에 있어서, 상기 미디어 콘텐츠에 대한 메타데이터를 수신하고 - 상기 메타데이터는 상기 미디어 콘텐츠를 재생하기 위해 필요한 초기의 버퍼된 미디어 콘텐츠의 최소 양을 가리키는 최소 버퍼 시간 속성을 포함함 -, 상기 서버로부터 상기 미디어 콘텐츠를 전송받아 적어도 상기 최소 양만큼 버퍼링하는, 접근 엔진 및 상기 접근 엔진으로부터 상기 미디어 콘텐츠를 제공받아 상기 미디어 콘텐츠를 재생하는 미디어 엔진을 포함하는 단말이 제공된다.
본 발명의 또 다른 일측에 따르면, 클라이언트가 하나 이상의 주기들을 포함하는 미디어 콘텐츠를 제공하는 방법에 있어서, 서버로부터 상기 미디어 콘텐츠에 대한 메타데이터를 수신하는 단계 - 상기 메타데이터는 URL 속성 및 범위 속성을 포함함 -, 상기 URL 속성이 가리키는 URL로부터 상기 범위 속성이 지정하는 바이트들을 수신하는 단계 및 상기 수신된 바이트들을 사용하여 상기 미디어 콘텐츠를 재생하는 단계를 포함하는, 콘텐츠 제공 방법이 제공된다.
상기 바이트 범위가 지정하는 바이트들은 상기 미디어 콘텐츠의 세그먼트를 지정하할 수 있다.
상기 범위 속성은 다중의 바이트 범위들을 가리킬 수 있다.
상기 바이트들은 상기 URL에 대한 상기 바이트 범위에 의해 지시되는 부분 HTTP GET 명령에 의해 수신될 수 있다.
본 발명의 또 다른 일측에 따르면, 하나 이상의 주기들을 포함하는 미디어 콘텐츠를 제공하는 단말에 있어서, 상기 미디어 콘텐츠에 대한 메타데이터를 수신하고 - 상기 메타데이터는 URL 속성 및 범위 속성을 포함함 -, 상기 URL 속성이 가리키는 URL로부터 상기 범위 속성이 지정하는 바이트들을 수신하는, 접근 엔진; 및 상기 수신된 바이트들을 사용하여 상기 미디어 콘텐츠를 재생하는 미디어 엔진을 포함하는 단말이 제공된다.
상기 바이트 범위가 지정하는 바이트들은 상기 미디어 콘텐츠의 세그먼트를 지정할 수 있다.
상기 범위 속성은 다중의 바이트 범위들을 가리킬 수 있다.
상기 바이트들은 상기 URL에 대한 상기 바이트 범위에 의해 지시되는 부분 HTTP GET 명령에 의해 수신될 수 있다, 단말.
본 발명의 또 다른 일 측에 따르면, 클라이언트가 하나 이상의 인터벌을 포함하는 콘텐츠를 처리하는 방법에 있어서, 서버로부터 상기 콘텐츠의 인터벌에 대한 메타데이터를 수신하는 단계, 상기 메타데이터를 처리하고, 상기 처리에 기반하여 상기 인터벌에 대해 적합한 프래그먼트를 서버에게 요청하는 단계 및 상기 서버로부터 상기 프래그먼트를 수신하는 단계를 포함하는 콘텐츠 처리 방법이 제공된다.
상기 콘텐츠는 요청에 따른 콘텐츠 또는 라이브 콘텐츠일 수 있다.
상기 메타데이터는 일반 정보를 포함할 수 있고, 상기 일반 정보는 상기 콘텐츠의 일반 설명 및 상기 인터벌의 일반 설명을 포함할 수 있다.
상기 콘텐츠의 일반 설명은 지속시간 및 시작 시각 중 하나 이상을 포함할 수 있다.
상기 메타데이터는 서비스의 품질 정보를 포함할 수 있고, 상기 서비스의 품질 정보는 상기 콘텐츠의 대안들 각각의 특성들을 설명할 수 있다.
상기 특성들은 비트레이트, 해상도 및 품질 중 하나 이상을 포함할 수 있다.
상기 대안들 각각은 물리적 또는 가상일 수 있다.
상기 적합한 프래그먼트는 상기 대안들의 정보에 기반하여 선택될 수 있다.
상기 메타데이터는 매핑 정보를 포함할 수 있고, 상기 매핑 정보는 상기 콘텐츠를 추출할 위치들을 설명할 수 있다.
상기 메타데이터는 콘텐츠-레벨 정보 및 인터벌 레벨 정보를 포함할 수 있고, 모든 대안들의 결정 및 위치들의 해결을 위한 계산은 상기 서버에 의해 수행될 수 있다.
상기의 요청은 상기 인터벌 내에서 상기 프래그먼트의 순서 값 및 상기 인터벌 내에서 상기 프래그먼트의 시작 시각을 정의할 수 있다.
상기 메타데이터는 콘텐츠-레벨 정보, 인터벌 레벨 정보 및 QoS 정보를 포함할 수 있고, 모든 대안들의 결정 및 위치들의 해결을 위한 계산은 상기 클라이언트 및 상기 서버에 의해 분산하여 수행될 수 있다.
상기의 요청은 대안의 순서 값 - 상기 대안은 상기 순서 값에 따라 QoS 정보 내에서 나타남 -, 상기 QoS 정보 내에서 나타나는 적응 연산자의 값들, 상기 QoS 정보 내에서 나타나는 자원의 값들 중 하나를 포함할 수 있다.
상기 적응 연산자는 버려질 확장가능한 오디오 레이어들의 개수, 버려질 확장가능한 비디오의 템포럴 레이어들의 개수, 버려질 확장가능한 비디오의 공간적 레이어들의 개수, 버려질 확장가능한 비디오의 품질 레이어들의 개수, 버려질 확장가능한 비디오의 우선순위 레이어들의 개수 중 하나 이상을 포함할 수 있다.
상기 자원의 타입은 상기 대안의 평균 비트레이트, 상기 대안의 수직 해상도, 상기 대안의 수평 해상도 및 상기 대안의 프레임레이트 중 하나 이상을 포함할 수 있다.
상기 메타데이터는 콘텐츠-레벨 정보, 인터벌 레벨 정보, QoS 정보 및 매핑 정보를 포함할 수 있고, 모든 대안들의 결정 및 위치들의 해결을 위한 계산은 상기 클라이언트에 의해 수행될 수 있다.
상기 요청은 MPEG-2 TS 경계를 위한 파라미터, ISO 미디어 파일 경계를 위한 파라미터, 로(raw) 바이크-시퀀스로서 간주되는 파일을 위한 파라미터들 중 하나 이상을 포함할 수 있다.
상기 메타데이터는 콘텐츠-레벨 정보, 인터벌 레벨 정보, QoS 정보 및 매핑 정보로 물리적으로 분리되여, 상기 콘텐츠-레벨 정보, 상기 인터벌 레벨 정보, 상기 QoS 정보 및 상기 매핑 정보의 관련된 부분들의 링킹은 참조에 의해 이루어질 수 있다.
본 발명의 또 다른 일 측에 따르면, 서버가 하나 이상의 인터벌을 포함하는 콘텐츠를 제공하는 방법에 있어서, 상기 콘텐츠의 인터벌에 대한 메타데이터를 클라이언트에게 전송하는 단계, 상기 클라이언트로부터 프래그먼트의 요청을 수신하는 단계 - 상기 프래그먼트는 상기 메타데이터에 기반하여 선택된 상기 인터벌에 적합한 프래그먼트임 -, 상기 콘텐츠를 파스하고, 상기 프래그먼트에 적합한 데이터 파트를 추출하는 단계 및 상기 프래그먼트를 상기 클라이언트에게 전송하는 단계를 포함하는, 콘텐츠 서비스 제공 방법이 제공된다.
본 발명의 또 다른 일측에 따르면, 하나 이상의 인터벌을 포함하는 콘텐츠를 처리하는 클라이언트에 있어서, 서버로부터 상기 콘텐츠의 인터벌에 대한 메타데이터를 수신하고, 상기 인터벌에 대해 적합한 프래그먼트를 서버에게 요청하고, 상기 서버로부터 상기 프래그먼트를 수신하는 송수신부 및 상기 메타데이터를 처리하고, 상기 처리에 기반하여 상기 인터벌에 대해 적합한 상기 프래그먼트를 선택하는 제어부를 포함하는, 클라이언트가 제공된다.
본 발명의 일 실시예에 따른 방법 및 장치는 콘텐츠를 재생함에 있어 초기에 버퍼링되는 미디어의 최소 양을 지정할 수 있다.
본 발명의 일 실시예에 따른 방법 및 장치는 URL이 가리키는 대상으로부터 특정한 범위 내의 바이트들을 수신하여 콘텐츠를 재생할 수 있다.
도 1은 본 발명의 일 예에 따른 시그널링 정보의 카테고리들을 도시한다.
도 2는 본 발명의 일 예에 따른 시그널링 정보의 카테고리들을 도시한다.
도 3은 본 발명의 일 예에 따른 콘텐츠 디비전(division)의 계층 및 시그널링 정보의 레벨들(levels)을 나타낸다.
도 4는 본 발명의 일 예에 따른 MPEG-2 TS 내에서의 가상 경계들의 감지를 설명한다.
도 5는 본 발명의 일 실시예에 따른 클라이언트(100)의 구조도이다.
도 6은 본 발명의 일 실시예에 따른 클라이언트(100)의 구조도이다.
이하에서, 본 발명의 일 실시예를, 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
HTTP 상의 동적 적응적 스트리밍(Dynamic Adaptive Streaming over HTTP; DASH)는 1) HTTP 서버로부터 HTTP 클라이언트로의 미디어 콘텐츠의 전달을 가능하게 하고, 2) 표준(standard) HTTP 캐쉬(cache)들에 의한 콘텐츠의 캐슁(caching)을 가능하게 하는 포맷(format)들을 명세한다.
도 1은 본 발명의 일 실시예에 따른 콘텐츠 처리 방법의 신호 흐름도이다.
미디어 컴포넌트(media component)는, 예컨대 대역폭(bandwidth), 언어(language) 또는 해상도(resolution)와 같은, 특정한 속성(attribute)들을 갖는 오디오(audio), 비디오(video) 또는 자막(timed text)과 같은 개별(individual) 미디어 타입(type)들의 인코드된(encoded) 버전(version)이다.
미디어 콘텐츠는, 예컨대 비디오, 오디오 및 자막과 같은, 공통(common) 타임라인(timeline)을 갖는 미디어 컴포넌트들의 집합이다. 또한, 미디어 컴포넌트들은 프로그램 또는 영화로서 어떻게(예를 들면, 개별적으로(individually), 결합하여(jointly) 또는 상호 배타적(mutually exclusive)으로) 미디어 컴포넌트들이 상연(present)될 지에 대한 관계(relationships)를 갖는다.
미디어 콘텐츠 및 콘텐츠는 동일한 의미로 사용될 수 있다.
미디어 프리젠테이션은 연속적인 미디어의 컴포넌트들로 구성된 미디어 콘텐츠의 제한되거나(bounded) 제한되지 않은(unbounded) 프리젠테이션(presentation)을 설정하는(establish) 데이터의 구조화된(structured) 컬렉션(collection)이다.
즉, 미디어 프리젠테이션은 스트리밍 서비스를 사용자에게 제공하기 위해, DASH 클라이언트에게 접근 가능한 데이터의 구조화된 컬렉션이다.
미디어 정보(media presentation description; MPD)는 미디어 프리젠테이션의 양식화된(formalized) 설명(description)일 수 있다.
미디어 프리젠테이션은, MPD의 가능한 업데이트들(possible updates)을 포함하여, MPD에 의해 설명될 수 있다.
콘텐츠는 요청(demand)에 따른 콘텐츠 또는 라이브(live) 콘텐츠일 수 있다.
콘텐츠는 하나 이상의 인터벌들(interval)로 나뉘어질 수 있다. 즉, 콘텐츠는 하나 이상의 인터벌들을 포함할 수 있다.
인터벌 및 주기(period)는 동일한 의미로 사용될 수 있다. 주기는 3GPP(Generation Partnership Project) 적응적 HTTP 스트리밍의 용어일 수 있다.
주기는 미디어 프리젠테이션의 인터벌일 수 있다. 모든 주기들의 연속적인 일련(sequence)은 미디어 프리젠테이션을 구성한다.
즉, 미디어 프리젠테이션은 하나 이상의 주기들을 포함할 수 있다.
하나 이상의 인터벌들은 기본 유닛일 수 있다. 하나 이상의 인터벌들은 메타데이터를 시그널링함에 의해 설명될 수 있다. 즉, 메타데이터는 하나 이상의 인터벌들 각각을 설명할 수 있다.
상기의 메타데이터는 MPD일 수 있다.
MPD는 세그먼트를 위한 자원 식별자들을 알리기 위한 포맷을 정의할 수 있다. MPD는 미디어 프리젠테이션 내에서의 식별된 자원들에 대한 컨텍스트(context)를 제공할 수 있다. 자원 식별자들은 HTTP-URL일 수 있다. URL들은 바이트 범위(byte range) 속성에 의해 제한될 수 있다.
각 인터벌은 프래그먼트(fragment)들로 나뉘어질 수 있다.
프래그먼트 및 세그먼트(segment)는 동일한 의미로 사용될 수 있다. 세그먼트는 3GPP(Generation Partnership Project) 적응적 HTTP 스트리밍의 용어일 수 있다.
세그먼트는, 예컨대 RFC 2616에서 정의된, HTTP-URL에 대한 HTTP/1.1 GET 요청(또는, 바이트 범위(range)에 의해 가리켜진(indicated) 일부에 대한 GET 요청)에 대한 응답(response)의 객체(entity) 바디(body)를 의미할 수 있다.메타데이터는 URL 속성 및 범위 속성을 포함할 수 있다. 클라이언트는 URL 속성이 가리키는 URL로부터, 범위 속성이 지정하는 바이트들을 수신할 수 있다. 즉, 상기 바이트들은 URL에 대한, 바이트 범위에 지시되는 부분(partial HTTP GET 명령에 의해 수신될 수 있다. 여기서, 범위 속성이 지정하는 바이트들은 전술된 세그먼트를 나타낼 수 있다.
범위 속성은 다중의 바이트 범위들을 가리킬 수 있다.
클라이언트는, 수신된 바이트들(즉, 세그먼트)을 사용하여 미디어 콘텐츠를 재생할 수 있다.
부(sub)-세그먼트는 세그먼트 레벨에서의 세그먼트 인덱스(index)에 의해 인덱스될 수 있는 세그먼트들 내의 가장 작은(smallest) 유닛(unit)을 의미할 수 있다.
하나의 인터벌에 대응하는 두 개 이상의 프래그먼트의 집합들이 있을 수 있다. 프래그먼트의 집합들 각각을 대안(alternative)으로 명명한다.
대안 및 레프리젠테이션(representation)(또는, 표현)은 동일한 의미로 사용될 수 있다.
각 주기는 하나 이상의 그룹들을 포함할 수 있다.
각 그룹은 동일한 미디어 콘텐츠의 하나 이상의 레프리젠테이션들을 포함할 수 있다.
레프리젠테이션은 하나의 주기 내의 하나 이상의 미디어 컴포넌트들의 구조화된(structured) 컬렉션이다.
MPD(또는, MPD 요소)는 클라이언트가 하나 이상의 레프리젠테이션을 선택하는 것을 가능하게 하는 설명적인 정보를 제공한다.
임의 접근 포인트(Random Access Point; RAP)는 미디어 세그먼트 내의 특정한 위치이다. RAP는 단지 미디어 세그먼트 내에 포함된 정보만을 사용하여 RAP의 위치로부터 계속하여 재생(playback)을 시작할 수 있는 위치인 것으로 식별된다.
각 레프리젠테이션은 하나 이상의 세그먼트들로 구성될 수 있다. 즉, 레프리젠테이션은 하나 이상의 세그먼트들을 포함할 수 있다.
MPD는 1) 세그먼트들을 접근하고, 2) 사용자에게 스트리밍 서비스를 제공하기 위해 적합한(appropriate) HTTP-URL들을 구성하기 위해 DASH 클라이언트에게 요구되는 메타데이터를 포함하는 문서이다. HTTP-URL들은 절대적이거나 상대적일 수 있다.
MPD는 XML-문서일 수 있다.
MPD는 MPD 요소(element)를 포함할 수 있다. MPD는 단지 1 개의 MPD 요소만을 포함할 수 있다.
클라이언트(100)는 DA SH 클라이언트일 수 있다.
DASH 클라이언트는 RFC 2616에 명세된 클라이언트와 호환될 수 있다.
DASH 클라이언트는, 세그먼트들 또는 세그먼트들의 일부들에 접군하기 위해, RFC 2616에서 명세된 것처럼, 일반적으로 HTTP GET 메쏘드(method) 또는 HTTP partial GET 메쏘드를 사용할 수 있다.
서버(110)는 DASH 세그먼트들을 호스팅(hosting)할 수 있다. 서버(110)는 RFC 2616에 명세된 서버와 호환될 수 있다.
단계(120)에서, 클라이언트(100)는 서버(110)로부터 1) 콘텐츠에 대한 메타데이터 또는 2) 콘텐츠의 특정 인터벌에 대한 메타데이터를 수신한다. 즉, 서버(110)는 클라이언트(100)에게 1) 콘텐츠에 대한 메타데이터 또는 콘텐츠의 특정 인터벌에 대한 메타데이터를 전송한다. 특정 인터벌은 콘텐츠를 구성하는 하나 이상의 인터벌들 중 현재 처리되는 인터벌을 나타낸다.
단계(130)에서, 클라이언트(100)는 특정인터벌에 대한 메타데이터를 처리한다.
단계(140)에서, 클라이언트(100)는 프래그먼트를 서버(110)에게 요청한다. 클라이언트(100)는 상기의 메타데이터 처리에 기반하여 특정 인터벌에 대한 적합한 프래그먼트들을 서버(110)에게 요청할 수 있다. 즉, 요청되는 프래그먼트들은 메타데이터에 기반하여 선택된 것이다.
단계(145)에서, 몇몇 경우에 있어서, 서버는 콘텐츠(예컨대, SVC를 위한 MP4 파일)를 파스(parse)할 필요가 있고, 상기 요청된 프래그먼트에 적합한 데이터 파트를 추출할 필요가 있다.
단계(150)에서, 서버(110)는 클라이언트로(100)부터의 각 요청에 대해 적합한 프래그먼트를 클라이언트(100)로 전송한다. 클라이언트(100)는 서버로부터 프래그먼트를 수신한다.
다음, 전체 프로세스가 처음부터 실행된다. 즉, 특정 인터벌의 다음 인터벌에 대해 단계(120)가 반복된다.
클라이언트(100)는, 단계들(120 내지 150)이 반복됨에 따라 수신된 프래그먼트를 사용하여, 콘텐츠를 재생할 수 있다.
도 2는 본 발명의 일 예에 따른 시그널링 정보의 카테고리들을 도시한다.
시그널링 정보(즉, 메타데이터)는 하기의 카테고리들 1) 내지 4)로 나뉘어진다.
1) 일반 정보(general information)(210) : 일반 정보는, 예컨대 지속시간(duration) 및 시작 시각과 같은, 콘텐츠의 일반 설명(description) 및 각 인터벌의 일반 설명을 포함한다.
2) 서비스의 품질 정보(QoS information)(220) : 비트레이트(bitrate), 해상도(resolution), 품질(quality)와 같은, 각 대안의 특성들(characteristics)을 설명한다. 즉, 서비스의 품질 정보는 콘텐츠의 대안들 각각의 특성들을 설명한다.
대안은 물리적(physical)(즉, 미리 생성된)일 수 있고, 가상(virtual)(즉, 온-더-플라이(on the fly)로 생성될)일 수 있다. 대안들의 정보에 기반하여, 클라이언트는 적합한 대안의 프래그먼트를 선택한다. 따라서, 단말들 및 네트워크들의 문맥(context)들에 대한 적합성(adaptivity)을 지원한다.
3) 매핑 정보(Mapping Information)(230) : 콘텐츠를 추출(retrieve)할 위치들(locations)을 설명한다. 특정 경우들(cases)에 의존하여, 상이한 대안들은 동일하거나 상이한 위치들을 가질 수 있다.
4) 클라이언트 요청(Client request)(240) : 이러한 종류의 시그널링 정보는 HTTP 1.1 요청(request) 메시지의 포멧을 따른다(conform). 도 1에서 도시된 것과 같이, 클라이언트에 의해서 요청된 파라미터들은 상기의 1) 내지 3) 카테고리들의 정보로부터 비롯한다(derive).
시그널링의 목표들은 하기의 1) 내지 4)와 같다.
1) 상이한 미디어 스토리지(storage)/전달(delivery) 접근방법들(approaches)에 대한 지원 : 시그널링 정보는, 예컨대 진화한 비디오 코딩(Advanced Video Coding; AVC)/스케일러블 비디오 코딩(Scalable Video Coding; SVC) 대안들(alternatives)을 포함하는 MPEG-2 트랜스포트 스트림(Transport Stream; TS)와 같은, MP4 파일 스토리지 및 전달의 전형적인(typical)(또한, 다양한(various)) 경우들(cases)을 지원할 수 있도록 충분히 일반적이다. 또한, 멀티-채널 전송은 진화한 시나리오들을 위해 필요하다.(예를 들면, 하나의 HTTP 연결(connection) 내에서의 SVC 레이어(layer))
2) 적응성(adaptivity)를 위한 디시전-메이킹(decision-making)의 상이한 경우들에 대한 지원 : 시그널링 정보는, 예컨대 클라이언트-기반, 분산된(distributed) 및 서버-기반과 같은, 디시전-메이킹의 상이한 위치들을 지원할 수 있도록 유연(flexible)하다.
3) 효율성 : 또한, 시그널링 정보의 포맷은 적은 데이터 크기를 허용하고, 용이한 핸들링(예를 들면, 파싱(parsing), 수정(modifying))
4) 표준적인(standard) HTTP 요청과의 호환성 : 시그널링 정보는, 요청 파라미터들이 어떤 확장들(extensions)(예를 들면, 새로운 헤더(header) 필드들(fields))을 요구함이 없이 HTTP 1.1 요청 메시지 내에 넣어질 수 있도록, 적절한(appropriate) 설명(description) 아이템들(items)을 제공한다.
도 3은 본 발명의 일 예에 따른 콘텐츠 디비전(division)의 계층 및 시그널링 정보의 레벨들(levels)을 나타낸다.
본 발명의 일시예들에 따른 메타데이터의 시그널링은 콘텐츠-레벨 정보(310), 인터벌 레벨 정보(320), QoS 정보(330) 및 매핑(340) 정보로 물리적으로 분리될(separated) 수 있다. 콘텐츠-레벨 정보(310), 인터벌 레벨 정보(320), QoS 정보(330) 및 매핑(340)의 관련된 부분들의 링킹(linking)은 참조(referencing)에 의해 이루어진다.
시그널링 정보의 이러한 부분들은 유연성을 지원하기 위한 상이한 방법들(ways)으로 조합(combine)될 수 있다.
예를 들면, 단지 콘텐츠-레벨 정보(310) 및 인터벌 레벨 정보(320)만이 클라이언트로 전송될 때, 모든 대안들의 결정 및 위치들의 해결(resolve)을 위한 계산들은 서버에 의해 수행된다. 따라서, 콘텐츠-레벨 정보(310) 및 인터벌 레벨 정보(320)만이 클라이언트로 전송될 때 의 프로세싱 모델은 "서버-기반"이다.
만약, 콘텐츠-레벨 정보(310), 인터벌-레벨 정보(320) 및 QoS 정보(330)가 클라이언트로 전송되면, 모든 대안들의 결정 및 위치들의 해결(resolve)을 위한 계산들은 클라이언트 및 서버에 의해 분산하여 수행된다. 따라서, 콘텐츠-레벨 정보(310), 인터벌-레벨 정보(320) 및 QoS 정보(330)가 클라이언트로 전송될 때, 상기의 모델은 "분산된"이 될 것이다.
모든 시그널링 정보들(콘텐츠-레벨 정보(310), 인터벌-레벨 정보(320), QoS 정보(330) 및 매핑 정보(340))이 클라이언트로 전송될 때, 이러한 모델에서 대부분(또는, 전부)의 프로세싱(즉, 대안들의 결정 및 위치들의 해결을 위한 계산)은 클라이언트에서 되기 수행 때문에, 상기 모델은 클라이언트-기반(client-based)이다.
메타데이터 파트들의 분리는 저장 및 전달에 있어서 효율성을 가능하게 한다. 예를 들면, 세션 동안, 콘텐츠-레벨 정보(310)의 메타데이터는 1회 보내질 수 있고, 인터벌 레벨 정보(320)만이 주기적으로 갱신될 수 있다. 유사하게, QoSInfo 파트(330)를 포함하는 하나의 파일이 상이한 인터벌들 및 상이한 콘텐츠를 위해 사용될 수 있다.
XML, 슈도-코드(pseudo-code), 세션 설명 프로토콜(Session Description Protocol; SDP) 등과 같은, 메타데이터의 집합을 표현(represent)하기 위한 상이한 방법들이 있다.
XML은 설명을 위한 일반적인 언어이다. XML은 거의 모든 것을 설명하기 위한 풍부한 툴들(tools)을 제공한다. XML은 또한 매우 잘-구성되고(well-structured), 데이터베이스(database)를 구축(building)하기에 적합하다. 그러나, XML의 단점들은 큰 데이터사이즈(datasize) 및 복잡도이다. 특히, XML 내에서의 설명은 메타데이터를 파스 및 처리(process)하기 위해 특별한 소프트웨어(예컨대, 문서 객체 모델(Document Object Model; DOM), XML을 위한 단순 어플리케이션 프로그래밍 인터페이스(Simple Application Programming Interface for XML; SAX))를 요한다. XML은 비트스트림(bitstream)(MPEG-1, MPEG-2 비디오 비트스트림 및 파일 포멧들)의 신택스를 위해 종종 사용된다. 이러한 접근방법(approach)의 장점은 설명의 간결성(compactness)이지만, 신택스 요소(element)의 다양한 타입들을 설명하기에 매우 유연하지는 않다.
본 발명의 실시예들은 시그널링 신택스를 나타내기 위해 XML 및 슈도-코드 양자를 사용할 수 있다. XML 신택스는 MPEG-21 및 그와 유사한 스키마를 기반으로 하는 XLM 프로파일을 지원하는 클라이언트들을 위해 사용될 수 있다. 반면, 슈도-코드 신택스는 ISO 베이스 미디어 파일 포멧 등의 "언어(language)"에 기반할 수 있으며, 비-XML 클라이언트들 내에서 사용될 수 있다. 특히, 슈도-코드 신택스의 프로파일은 파일-포멧 파싱의 파싱 모듈과 유사한 파실 모듈을 채용(employ)할 수 있다. 이러한 목적을 위한 신택스를 설계하기 위해서, 하기의 실시예들에서 공통 요소들의 테이블(table)이 정의될 것이고, 각 포멧 내의 요소들이 나타내어질 것이다.
이러한 제안된 신택스들은, 임의의 다른 언어들에 의해서도 표현될 수 있다.
하기에서 일반 신택스 요소들의 테이블이 설명된다.
하기의 표들에서, 신택스 요소들은 계층적으로 설명된다. 즉, 자식(child) 요소는 그것의 부모(parent) 요소의 우측에 있는 열(column) 내에서 보인다. "리프"-레벨 요소들은 이텔릭체(italic)로 보인다. 부모 요소들은 볼드체(bold letters)로 보인다. 부모 요소는 대응하는 XML 타입 및 파일 박스로 나타내어진다.
발생횟수(occurrence)의 열 내에서, "0...N"은 발생횟수 요소의 인스턴스들의 개수가 0으로부터 "무제한(unbounded)"까지일 수 있음을 의미한다. 그러나, 0의 최소 발생횟수는 요소가 선택적인(optional)(즉, 존재하지 않음)일 수 있음을 의미한다. 1 아상의 최소 발생횟수는 요소가 신택스 내에서 의무적임(mandatory)을 의미한다.
발생횟수(occurrence)는 카디널리티(cardinality)와 동일한 의미로 사용될 수 있다.
타입 행에서, A는 속성을 나타내고, E는 요소를 나타낸다. 선택성(optionality) 행에서, M은 의무적인 것을 의미하고, O는 선택적인 것을 의미한다. 속성에 있어서, M은 의무적인 것을 의미하고, O는 선택적인 것을 의미하고, OD는 디폴트(default) 값을 갖는 선택적인 것을 의미하고, CM은 조건적으로(conditionally) 의무적인 것을 의미한다. 요소에 있어서, 요소는 <최소 발생들(minOccurs)> ... <최대 발생들(maxOccurs)>과 같이 표현될 수 있다. 이때, N은 무제한(unbounded)를 나타낸다.
이러한 의미는, 본 명세서의 다른 표들에서도 동일하다.
또한, QoSInfo는 더 특정하게는, AdaptationInfo로 불릴 수 있다. 더욱이, 몇몇 요소들은 신택스의 유동성(flexibility)을 높이기 위해 개정(revise)되었다.
하기의 표 1은 일반 정보를 설명한다.
Figure PCTKR2011005357-appb-I000001
Figure PCTKR2011005357-appb-I000002
Figure PCTKR2011005357-appb-I000003
Figure PCTKR2011005357-appb-I000004
Figure PCTKR2011005357-appb-I000005
하기의 표 2는 IntervalsRef, NextIntervalsRef, PreviousIntervalsRef, QoSInfoRef, MappingInfoRef a및 IntervalInfo 요소를 설명한다.
Figure PCTKR2011005357-appb-I000006
Figure PCTKR2011005357-appb-I000007
하기의 표 3은 QoSInfo 요소를 설명한다.
Figure PCTKR2011005357-appb-I000008
Figure PCTKR2011005357-appb-I000009
Figure PCTKR2011005357-appb-I000010
하기의 표 4는 표 3의 (1) Resource, (2) AdaptationOperator 및 (3) Utility 요소들의 공통 시맨틱을 나타낸다.
Figure PCTKR2011005357-appb-I000011
Figure PCTKR2011005357-appb-I000012
하기의 표 5는 매핑 정보를 나타낸다.
Figure PCTKR2011005357-appb-I000013
Figure PCTKR2011005357-appb-I000014
Location 요소들의 시맨틱스는 하기의 표 6과 같이 더 제공될 수 있다.
Figure PCTKR2011005357-appb-I000015
Figure PCTKR2011005357-appb-I000016
Figure PCTKR2011005357-appb-I000017
MP2TSBoundary, ISOFileBoundary 및 ByteRanges 요소들의 시맨틱스는 하기의 표 7과 같이 더 제공될 수 있다.
Figure PCTKR2011005357-appb-I000018
Figure PCTKR2011005357-appb-I000019
하기에서 클라이언트 요청이 설명된다.
클라이언트에 의해 획득된 메타데이터의 시그널링은 시그널링 정보의 상이한 파트들 또는 레벨들을 포함할 수 있다. 따라서, 클라이언트로부터 서버로의 요청은 세부사항(detail)의 상이한 레벨들의 파라미터들을 포함할 수 있다.
클라이언트의 주 파라미터들은 URI이고, 주 파라미터들은 쿼리 파트와 연관되었다.
하기에서 3개의 주요한 시나리오들을 검토한다.
1) 서버-기반 시나리오
이 경우, 서버로부터 클라이언트로 제공되는 메타데이터는 일반 콘텐츠 정보(310) 및 일반 인터벌 정보(320)로 구성된다.
요청된 콘텐츠의 URI에 대해, DefaultContentIntLoc(만약 아니라면, DefaultContentIntLoc)가 사용된다. 클라이언트가 콘텐츠의 특정 프래그먼트를 요청하는 것을 가능하게 하기 위해, (단계(140)의 요청의) 쿼리 부분 내에서 하기의 파라미터들 a) 및 b)가 정의된다.
a) "fragno" : 상기의 인터벌 내에서, 프래그먼트의 순서 값
b) "fragti" : 상기의 인터벌 내에서, 프래그먼트의 시작 시각
예컨대, 요청 URI는 "HTTP://server.com/file.mp4?fragno=5"가 될 수 있다.
2) 분산된 시나리오
이 경우, 서버로부터 클라이언트로 제공되는 메타데이터는 일반 콘텐츠 정보(310), 일반 인터벌 정보(320) 및 QoS 정보(330)를 포함한다.
상기의 파라미터들에 더해, 클라이언트가 적합한 대안을 요청하는 것을 가능하게 하기 위해 하기의 QoS-관련 파라미터들 a) 내지 c)가 (단계(140)의 요청의) 쿼리(query) 파트에서 정의된다.
a) "alter" : 대안의 순서 값이다. 대안의 순서 값에 따라 대안은 QoS 정보 내에서 나타난다.
b) "oper1", "oper2", ... "operN" : "operi"는 QoS 정보 내에서 나타나는 i 번째 적응 연산자(operation)의 값을 나른다(carry).
c) "res1", "res2", ... "resN" : "resi"는 QoS 정보 내에서 나타나는 i 번째 자원의 값을 나른다.
하나의 요청 내에서, 상기의 3 개의 옵션들 중 하나만이 사용될 수 있다.
전형적인 적응 연산자들 및 자원 타입들과 함께, 더 낳은 명료성(intelligibility) 및 상호운용성(interoperability) 특별 파라미터 명칭들이 정의될 수 있다.
적응 연산자들은 하기의 a) 내지 e)와 같다.
a) 오디오레이어들(audiolayers) : 버려질 확장가능한 오디오 레이어들의 개수를 가리킴.
b) 템포럴레이어들(temporallayers) : 버려질 확장가능한 비디오의 템포럴 레이어들의 개수를 가리킴.
c) 공간적레이어들(spatiallayers) : 버려질 확장가능한 비디오의 공간적 레이어들의 개수를 가리킴.
d) 품질레이어들(qualitylayers) : 버려질 확장가능한 비디오의 공간적 레이어들의 개수를 가리킴.
e) 우선순위레이어들(prioritylayers) : 버려질 확장가능한 비디오의 우선순위 레이어들의 개수를 가리킴.
자원 타입들은 하기의 a) 내지 d)와 같다.
a) 비트레이트(bitrate) : 요청된 대안의 평균 비트레이트(Kbps 단위로)를 가리킴.
b) 수직해상도(vertresolution) : 요청된 대안의 수직 해상도를 가리킴.
c) 수평해상도(horiresolution) : 요청된 대안의 수평 해상도를 가리킴.
d) 프레임레이트(framerate): 요청된 대안의 프레임레이트를 가리킴.
이러한 미리 정의된 파라미터들을 사용하는 것으로서, "http://server.com/file.mp4?fragno=5&bitrate=550"이 bitrate에 기반한 URI 요청의 일 예가 될 수 있다.
3) 클라이언트-기반 시나리오
이 경우, 서버로부터 클라이언트로 제공되는 메타데이터는 일반 콘텐츠, 일반 인터벌 정보, QoS 정보 및 매핑 정보를 포함한다.
요청 내에서 사용되는 QoS-관련 파라미터들은 QoSInfo 메타데이터의 ReqQoSPara 파트에 의해 가리켜진다. 만약, ReqQoSPara의 RefIndex가 0 또는 널(null)이면, "alter" 파라미터가 다른 옵션들 대신에 사용된다.
QoSInfo 메타데이터 내에 ReqQoSPara가 없으면, QoS-연관 파라미터들이 사용되지 않는다. 이 경우에서의 대안들은 MappingInfo의 위치들에 의해 암시된다.
콘텐츠의 URI는 MappingInfo의 풍부한 설명으로부터 유래한다. 콘텐츠/프로그램이 MPEG-2 TS 스트림 내에서 운반될 때, 하나 이상의 PID가 상기 스트림 내에서 콘텐츠의 위치를 찾기 위해 사용된다.
프래그먼트 경계들을 감지하기 위한 추가적인 정보가 제공될 때, (단계(140)의 요청의) 쿼리 파트를 위한 하기의 파라미터들 1) 내지 3)이 사용될 수 있다.
1) MPEG-2 TS 경계를 위해, Apperance, PCR_PID, PCR_base, PCR_ext, Media_PID 및 Media_Offset
2) ISO 미디어 파일 경계를 위해, SequenceNo
3) 로(raw) 바이트-시퀀스로서 간주되는 파일을 위해, Start 및 End
이러한 파라미터들의 시맨틱스는 FragBoundaries 요소의 시맨틱스 내에서 제공된다.
Start-End 페어들은 HTTP 요청 메시지의 범위 헤더에 의해 사용될 수 있다. 예컨대, 만약 {(Start=0, End=99); (Start=200, End=299)}이면, 헤더는 “Range: bytes=0-99,200-299”일 수 있다.
하기에서, XML 포멧의 신택스 레프리젠테이션(representation)이 설명된다. 하기에서, 상기의 신택스 요소들의 레프리젠테이션이 XML 포멧으로 제공된다. 각 요소의 시맨틱스는 상기의 표 1 내지 표 7 내에서 추적(trace back)될 수 있다.
몇몇 요소들은 MPEG-21 DIA 내에서 정의된 몇몇 타입들의 확장일 수 있다. 몇몇 요소들은 MPEG-21 DIA 내에서 정의된 몇몇 타입들을 취할 수 있다.
하기의 표 8은 HTTPStreamingType의 XML 포멧을 사용한 신택스 레프리젠테이션이다
Figure PCTKR2011005357-appb-I000020
Figure PCTKR2011005357-appb-I000021
하기의 표 9는 GeneralInfoType의 XML 포멧을 사용한 신택스 레프리젠테이션이다.
Figure PCTKR2011005357-appb-I000022
하기의 표 10은 IntervalRefType의 XML 포멧을 사용한 신택스 레프리젠테이션이다.
Figure PCTKR2011005357-appb-I000023
하기의 표 11은 IntervalType의 XML 포멧을 사용한 신택스 레프리젠테이션이다.
Figure PCTKR2011005357-appb-I000024
Figure PCTKR2011005357-appb-I000025
하기의 표 12는 IntervalInfoType의 XML 포멧을 사용한 신택스 레프리젠테이션이다.
Figure PCTKR2011005357-appb-I000026
Figure PCTKR2011005357-appb-I000027
하기의 표 13은 QoSInfoType의 XML 포멧을 사용한 신택스 레프리젠테이션이다.
Figure PCTKR2011005357-appb-I000028
하기의 표 14는 MappingInfoType의 XML 포멧을 사용한 신택스 레프리젠테이션이다.
Figure PCTKR2011005357-appb-I000029
하기의 표 15는 ReqQoSParaType 의 XML 포멧을 사용한 신택스 레프리젠테이션이다.
Figure PCTKR2011005357-appb-I000030
Figure PCTKR2011005357-appb-I000031
하기의 표 16은 LocationListType의 XML 포멧을 사용한 신택스 레프리젠테이션이다.
Figure PCTKR2011005357-appb-I000032
하기의 표 17은 LocationType의 XML 포멧을 사용한 신택스 레프리젠테이션이다.
Figure PCTKR2011005357-appb-I000033
Figure PCTKR2011005357-appb-I000034
하기의 표 18은 StrLocationType의 XML 포멧을 사용한 신택스 레프리젠테이션이다.
Figure PCTKR2011005357-appb-I000035
하기의 표 19는 MP2TSParaType의 XML 포멧을 사용한 신택스 레프리젠테이션이다.
Figure PCTKR2011005357-appb-I000036
하기의 표 20은 FragBoundariesType의 XML 포멧을 사용한 신택스 레프리젠테이션이다.
Figure PCTKR2011005357-appb-I000037
하기의 표 21은 MP2TSBoundaryType의 XML 포멧을 사용한 신택스 레프리젠테이션이다.
Figure PCTKR2011005357-appb-I000038
하기의 표 22는 ISOFileBoundaryType 및 ByteRangesType의 XML 포멧을 사용한 신택스 레프리젠테이션이다.
Figure PCTKR2011005357-appb-I000039
Figure PCTKR2011005357-appb-I000040
하기에서, MP4 슈도-코드 포멧의 신택스 레프리젠테이션이 설명된다. 하기에서, 상기의 신택스 요소들의 레프리젠테이션이 MP4 슈도-코드로 제공된다.
하기의 표 23은 HTTPStreamingBox의 MP4 슈도-코드를 사용한 신택스 레프리젠테이션이다.
Figure PCTKR2011005357-appb-I000041
하기의 표 24는 GeneralInfoBox의 MP4 슈도-코드를 사용한 신택스 레프리젠테이션이다.
Figure PCTKR2011005357-appb-I000042
Figure PCTKR2011005357-appb-I000043
하기에서, 인터벌-레벨 정보가 설명된다.
하기의 표 25는 IntervalBox의 MP4 슈도-코드를 사용한 신택스 레프리젠테이션이다.
Figure PCTKR2011005357-appb-I000044
하기의 표 26은 IntervalRefBox의 MP4 슈도-코드를 사용한 신택스 레프리젠테이션이다.
Figure PCTKR2011005357-appb-I000045
Figure PCTKR2011005357-appb-I000046
하기의 표 27은 QoSInfoRefBox의 MP4 슈도-코드를 사용한 신택스 레프리젠테이션이다.
Figure PCTKR2011005357-appb-I000047
Figure PCTKR2011005357-appb-I000048
하기의 표 28은 MappingInfoRefBox의 MP4 슈도-코드를 사용한 신택스 레프리젠테이션이다.
Figure PCTKR2011005357-appb-I000049
하기의 표 29는 IntervalInfoBox의 MP4 슈도-코드를 사용한 신택스 레프리젠테이션이다.
Figure PCTKR2011005357-appb-I000050
Figure PCTKR2011005357-appb-I000051
하기의 표 30은 NextIntervalRefBox의 MP4 슈도-코드를 사용한 신택스 레프리젠테이션이다.
Figure PCTKR2011005357-appb-I000052
하기에서 QoS 정보가 설명된다.
하기의 표 31은 QoSInfoBox의 MP4 슈도-코드를 사용한 신택스 레프리젠테이션이다.
Figure PCTKR2011005357-appb-I000053
Figure PCTKR2011005357-appb-I000054
하기의 표 32는 ClassSchemeRefBox의 MP4 슈도-코드를 사용한 신택스 레프리젠테이션이다
Figure PCTKR2011005357-appb-I000055
Figure PCTKR2011005357-appb-I000056
하기의 표 33은 ResourceBox의 MP4 슈도-코드를 사용한 신택스 레프리젠테이션이다.
Figure PCTKR2011005357-appb-I000057
Figure PCTKR2011005357-appb-I000058
하기의 표 34는 AdaptationOperatorBox의 MP4 슈도-코드를 사용한 신택스 레프리젠테이션이다.
Figure PCTKR2011005357-appb-I000059
Figure PCTKR2011005357-appb-I000060
하기의 표 35는 UtilityBox의 MP4 슈도-코드를 사용한 신택스 레프리젠테이션이다.
Figure PCTKR2011005357-appb-I000061
Figure PCTKR2011005357-appb-I000062
Figure PCTKR2011005357-appb-I000063
하기의 표 36은 UtilityRankBox의 MP4 슈도-코드를 사용한 신택스 레프리젠테이션이다.
Figure PCTKR2011005357-appb-I000064
하기에서, 매핑 정보가 설명된다.
하기의 표 37은 MappingInfoBox의 MP4 슈도-코드를 사용한 신택스 레프리젠테이션이다.
Figure PCTKR2011005357-appb-I000065
하기의 표 38은 AlterLocIDBox의 MP4 슈도-코드를 사용한 신택스 레프리젠테이션이다.
Figure PCTKR2011005357-appb-I000066
Figure PCTKR2011005357-appb-I000067
하기의 표 39는 ReqQoSParaBox의 MP4 슈도-코드를 사용한 신택스 레프리젠테이션이다.
Figure PCTKR2011005357-appb-I000068
Figure PCTKR2011005357-appb-I000069
하기의 표 40은 ReqQoSParaBox의 MP4 슈도-코드를 사용한 신택스 레프리젠테이션이다.
Figure PCTKR2011005357-appb-I000070
하기의 표 41은 LocationBox의 MP4 슈도-코드를 사용한 신택스 레프리젠테이션이다.
Figure PCTKR2011005357-appb-I000071
하기의 표 42는 FragTimeBox의 MP4 슈도-코드를 사용한 신택스 레프리젠테이션이다.
Figure PCTKR2011005357-appb-I000072
Figure PCTKR2011005357-appb-I000073
하기의 표 43은 RandAccessBox의 MP4 슈도-코드를 사용한 신택스 레프리젠테이션이다.
Figure PCTKR2011005357-appb-I000074
하기의 표 44는 StrLocationBox의 MP4 슈도-코드를 사용한 신택스 레프리젠테이션이다.
Figure PCTKR2011005357-appb-I000075
하기의 표 45는 MP2TSParaBox의 MP4 슈도-코드를 사용한 신택스 레프리젠테이션이다.
Figure PCTKR2011005357-appb-I000076
하기의 표 46은 FragBoundariesBox의 MP4 슈도-코드를 사용한 신택스 레프리젠테이션이다.
Figure PCTKR2011005357-appb-I000077
Figure PCTKR2011005357-appb-I000078
하기의 표 47은 MP2TSBoundaryBox의 MP4 슈도-코드를 사용한 신택스 레프리젠테이션이다.
Figure PCTKR2011005357-appb-I000079
Figure PCTKR2011005357-appb-I000080
하기의 표 48은 ISOFileBoundaryBox의 MP4 슈도-코드를 사용한 신택스 레프리젠테이션이다.
Figure PCTKR2011005357-appb-I000081
하기의 표 49는 ISOFileBoundaryBox의 MP4 슈도-코드를 사용한 신택스 레프리젠테이션이다.
Figure PCTKR2011005357-appb-I000082
Figure PCTKR2011005357-appb-I000083
도 4는 본 발명의 일 예에 따른 MPEG-2 TS 내에서의 가상 경계들의 감지를 설명한다.
TS 스트림에서, 주어진 프로그램의 PCR 패킷은 고정된 PID(즉, PCR_PID)와 함께 수송(carry)되며, 적어도 매 100ms 마다 삽입된다.
PCR 패킷들은 (증가하는 값들과 함께) 프로그램의 앵커 포인트들로서 간주될 수 있다. 다른 한 편으로, 프로그램의 각 미디어들은 주어진 PID(즉, Media_PID)의 패킷들에 의해 수송될 수 있다.
따라서, 미디어 스트림의 프래그먼트 경계는 1) 특정 앵커 포인트 및 2) 상기 앵커로부터 경계에 있는 패킷까지의 옵셋에 의해 정의 또는 식별될 수 있다.
옵셋은 동일한 Media_PID의 패킷들에 의해 카운트될 수 있다..
때때로 PCR 값들은 리셋(불연속성)될 수 있다. 이 경우, 인터벌 내에 동일한 PCR 값의 하나 이상의 PCR 패킷들이 있는 경우, 앵커로서 사용되는 PCR 패킷의 출현 순서가 가리진다..
따라서, MPEG-2 TS 스트림 내의 미디어 스트림의 프래그먼트 경계는 하기의 표 50의 파라미터들에 의해 식별될 수 있다.
Figure PCTKR2011005357-appb-I000084
하기에서 3GPP 적응적 HTTP 스트리밍 스키마 내에서의 몇몇 신택스 요소들의 매핑 및 확장들을 설명한다.
3GPP에 의해 적응적 HTTP 스트리밍을 위한 표준이 표준화되었다. 상기의 몇몇 신택스 요소들의 3GPP 적응적 HTTP 스트리밍의 스키마로의 매핑이 개시된다.
하기의 실시예 내에서의 아이디어를 나타내기 위해 몇몇 다른 상이한 신택스들이 사용될 수 있다.
이 스키마에서, 용어 Period는 상기에서 논의된 Interval에서와 동일하다. 추가된 요소들/속성들의 시맨틱스는 하기의 표 51과 같다.
Figure PCTKR2011005357-appb-I000085
Figure PCTKR2011005357-appb-I000086
Figure PCTKR2011005357-appb-I000087
더욱이, UrlType의 range 속성의 시맨틱스는, 예컨데 "0-500,1000-1500"와 같은, 다중 바이트 범위들을 지원하기 위해 확장될 수 있다. 이러한 변형은 range 속성을 상기의 신택스의 ByteRanges 요소와 동등하게 만든다.
추가적으로, sourceURL 속성은 요구되는 것에서 선택적인 것으로 변경될 수 있다. 이는, baseURL이 이미 완전한 URL을 제공하기 때문이다. sourceURL은 요구되지 않을 수 있다.
다중 바이트 범위들의 사용은 "가상 세그먼트들"을 다운로딩함에 있어서 유동성을 제공한다. 예컨대, (트릭모드(trickmode)에서 사용될 수 있는) 저(low) 프레임 레이트의 세그먼트는 스트림 또는 원 세그먼트로부터 온-더-플라이로 추출될 수 있다.
추가로, Representation을 위해 다중 URL을 사용하는 것을 지원하기 위해, 하기의 변형이 3GPP 적응적 HTTP 스트리밍의 스키마에 가해질 수 있다.
하기에서, 동일한 자원/콘텐츠를 위한 다중 위치들이 설명된다.
설명의 각 레벨(톱(top)-레벨, Period 레벨, Representation 레벨)은 설명으로부터 절대 URL들을 구축하기 위한 단지 단일한 베이스 URL을 제공한다.
각 설명 레벨에, 다중의 베이스 URL들이 제공될 수 있다. 다중 베이스 URL들은 다중 위치에서의 자원들의 가용성을 시그널한다.
클라이언트의 실제 위치에 의존하여, 클라이언트는 자원을 추출하는 절차에 있어서의 하나 이상의 베이스 URL을 선택할 수 있다.
이러한 변형은 상이한 방식들로 구현될 수 있다. 하나의 방식은 "morebaseURLs"라고 불리는 추가적인 속성 또는 "BaseURLs"라 불리는 요소를 사용하는 것이다.
이러한 속성 또는 요소는 다중 (베이스) URL들로 구성된 문자열일 수 있다. 문자열은, 예컨대 "; "(즉, 세미콜론 및 공백문자)와 같은, 몇몇 특별 문자들에 의해 분리될 수 있다.
만약, 임의의 세미콜론 또는 공백 문자가 URL 내에서 나타나면, 세미콜론 또는 공백 문자는 RFC 2616의 규칙에 의해 인코드될 수 있다.
더 낮은 설명 레벨의 morebaseURL의 속성(또는 BaseURLs 요소)는 더 높은 설명 레벨의 동일한 속성(요소)를 오버라이드한다.
명확성을 위해, morebaseURLs 속성 및 BaseURLs 요소는 상호 배제인 것으로 제한될 수 있다. 즉, 전체 설명 내에서 하나의 타입 만이 존재할 수 있다.
각 인스턴스가 베이스 URL을 제공할 때, 또 다른 방식은, 다중 인스턴스들과 함께 임의의 URI 타입의 MoreBaseURL 요소를 사용하는 것이다.
이러한 상이한 방식들은 단지 다중 베이스 URL들을 제공하기 위한 아이디어의 일 예일 뿐이다. 이러한 아이디어는 많은 상이한 방식들 또는 상이한 언어들로서 구현될 수 있다.
하기에서 자윈/콘텐츠 구성요소들을 위한 다중 location들을 설명한다.
자원/콘텐츠는 하나 이상의 콤포넌트/스트림으로 나뉘어질 수 있다. 하나 이상의 콤포넌트/스트림 각각은 location로부터 전달된다. 이러한 전달은, UriTemplate 요소의 다중 인스턴스들 또는 SegmentInfoType 내의 Url 요소 집합을 허용함으로써 지원될 수 있다. SegmentInfoType 내에서의 변경 "<xs:choice maxOccurs="unbounded">"이 이러한 목적을 위해 사용될 수 있다.
UrlTemplate 인스턴스 또는 Url 집합 인스턴스의 출현 순서는 그것의 "location/stream"의 중요성을 가리킬 수 있다. 더 중요한 location이 덜 중요한 location 전에 나타날 수 있다. 예컨대, 비디오 Representation은 2 개의 스트림들(공간적 베이스 레이어 및 공간적 향상(enhancement) 레이어)로 구성될 수 있다. 각각은 UrlTemplate에 의해 설명된 location로부터 전달된다. 그 다음, UrlTemplate의 첫 인스턴스가 공간적 베이스 레이어를 위한 location이 된다.
더욱이, InitialisationSegmentURL의 다중 인스턴스들이 허용될 수 있다. InitialisationSegmentURL의 n 번째 인스턴스는 (UrlTemplate 요소 또는 Url 요소 집합에 의해) location의 n 번째 인스턴스에 대응한다.
만약, InitialisationSegmentURL의 단 하나의 인스턴스만 있으면, 상기 인스턴스는 모든 location들을 위해 사용될 수 있다.
하기의 표 52 내지 표 55은 3GPP의 AdaptiveHTTPStreaming의 스키마를 나타낸다.
Figure PCTKR2011005357-appb-I000088
Figure PCTKR2011005357-appb-I000089
Figure PCTKR2011005357-appb-I000090
Figure PCTKR2011005357-appb-I000091
Figure PCTKR2011005357-appb-I000092
Figure PCTKR2011005357-appb-I000093
Figure PCTKR2011005357-appb-I000094
Figure PCTKR2011005357-appb-I000095
Figure PCTKR2011005357-appb-I000096
Figure PCTKR2011005357-appb-I000097
Figure PCTKR2011005357-appb-I000098
Figure PCTKR2011005357-appb-I000099
Figure PCTKR2011005357-appb-I000100
Figure PCTKR2011005357-appb-I000101
Figure PCTKR2011005357-appb-I000102
Figure PCTKR2011005357-appb-I000103
하기에서 PeriodsRef 요소의 몇몇 다른 옵션들이 설명된다.
XInclude는 XML 문서들을 병합하기 위한 포함(inclusion) 매커니즘을 제공하는 W3C 기술(technology)이다.
상기의 PeriodsRef 및 XInclude는 자원/설명을 참조하기 위해 임의의 URI 타입(Location 요소 및 href 속성과 함께)을 사용한다는 점에서 유사하다. 그러나 이러한 두 접근방법들 간에는 주요한 차이가 있다.
XInclude는 XML 문서들을 병합하기 위해 사용될 수 있다. : 이는 병합된 문서가 임의의 그 이상의 처리 이전에 획득되어야 한다는 것을 의미할 수 있다. 반면, PeriodsRef는 과거 또는 미래의 주기들을 참조하기 위해 사용된다. 과거 또는 미래의 주기들은 항상 병합될 필요가 있는 것은 아니다. PeriodsRef의 의도는 단지 사용자가 원할 때 적절한 주기 정보를 추출할 수 있도록 허용하는 것일 수 있다.
특정한(specific) 속성들/요소들에 대해서, PeriodsRef의 startTime 및 availableTime는 주기 정보 추출(retrieval)에 대해 고유할 수 있다. XInclude의 속성들/요소들 중, "fallback" 및 "xpointer"는 PeriodsRef의 기능성(functionality)을 향상시키기 위해 사용될 수가 있다. 반면, "parse", "encoding", "accept", "accept-language"는 PeriodsRef에 대해 불필요할 수 있다.
상기의 설명에 기반하여, Period들을 참조함에 있어서 2 개의 추가적인 선택사항들이 제안될 수 있다. : 1) 향상된(enhanced) PeroidsRef 및 2) XInclude-확장(extending) PeriodsRef.
향상된 PeroidsRef : 이 선택 사항에서, 현존하는(existing) PeriodsRef는 XInclude의 fallback 요소 및 xpointer 속성에 의해 향상될 수 있다. 이 선택사항의 하나의 이점(advantage)은 신택스 및 처리에 있어서의 단순성(simplicity)이다. 변형된 PeriodsRef의 신택스는 하기의 표 57에서 제공된다.
XInclude-확장 PeriodsRef : 이 선택사항에서 PeriodRef는 XInclude를 startTime 및 availableTime 속성에 관하여 단순히 확장함으로써 구축될 수 있다. 이 선택사항의 이점은 표준적인(standard) XInclude를 사용한다는 것이다. 항상 초기에 문서들을 병합하는 것을 피하기 위해, "클라이언트는 병합이 이루어져야 할지 아니면 그렇지 않은지 여부에 대해 결정하도록 허락된다"는 것이 PeriodsRef의 시맨틱스에 있어서 의무적이다. 이러한 PeriodsRef의 신택스는 하기의 표 58에서 제공된다.
이러한 신택스들에서, ids 속성이 현재의 미디어 프리젠테이션(media presentation) 내에서 참조되는 Period들의 id들을 가리키기 위해 부가될 수 있다. 또한, XInclude의 href 속성과 일관성을 갖기 위해, Location 요소는 선택적인 location 속성으로 변경될 수 있다.
Figure PCTKR2011005357-appb-I000104
Figure PCTKR2011005357-appb-I000105
Figure PCTKR2011005357-appb-I000106
Figure PCTKR2011005357-appb-I000107
상기의 요소들/속성들의 시맨틱은 하기의 표 59와 같이 제공될 수 있다.
Figure PCTKR2011005357-appb-I000108
Figure PCTKR2011005357-appb-I000109
하기에서, Period Timeline을 설명한다.
각 주기는 주기의 시작 시각을 가리키는 start 속성을 가질 수 있다. 그러나, 이러한 접근방법은 주기들의 타임라인을 변경(modify)하기에 유동성있지 않을 수 있다.
예컨대, VOD를 위한 MPD 내에 광고 주기를 삽입하기 위해, 삽입된 주기 이후의 모든 주기들의 시작 시각들이 변경되어야 한다. 더욱이, 동일한 광고 주기가 반복적으로(예컨대, 매 1 시간 마다) 재생된다면, 이 주기는 계속하여 삽입된다. 동일한 방식으로, 하나 이상의 주기가 MPD로부터 제거될 때, 시공간상 제거된 주기 이후의 남은 주기들의 시작 시각이 변경된다.
본 실시예에서, 주기 관리에 있어서의 유동성을 위해, 하기와 같은 변형들이 제안될 수 있다.
1) Period에 새 속성 "duration" 추가
2) Period의 현 start 속성을 선택적인 것으로 변경
3) MPD 타입에 새로운 PeriodTimeline 요소 추가
PeriodTimeline 요소는 타임라인에 따른 주기들의 프리젠테이션에 대한 정보를 제공할 수 있다. PeriodTimeline 요소의 시맨틱스 및 신택스가 하기의 표 60 내지 표 62에서 제공된다.
PeriodTimeline을 사용함에 의해, Period의 설명은 프리젠테이션 시간에 독립적일 수 있다.. 따라서, Period는 (전적 또는 부분적으로) 동일한 미디어 프리젠테이션 또는 다른 미디어 프리젠테이션 내에서 재사용될 수 있다. 프리젼테이션 시간을 변형할 때, 단지 Period Timeline이 변경될 필요가 있다.
추가로, PartialPlay 요소는 Period의 하나 이상의 부분을 (다시)재생((re)play)하는 것을 허용할 수 있다. 예컨대, 광고 Period가 상연(present)된 후, (beginning 및 ending에 의해 나타내어진(denoted)) 그 Period의 일 부분이 전체 세션(session) 동안 때때로 반복될 수 있다.
PeriodTimeline 요소는 Period들의 명시적인(explicit) 타임라인을 가할 수 있다(impose). PeriodTimeline 요소 없이, Period들의 묵시적인(implicit) 타임라인은 Period들의 순서가 정해진(ordered) 연쇄(sequence)로부터 추론(infer)될 수 있다. 묵시적인 타임라인의 경우에 있어서, Period의 다시재생을 지원하기 위해, PartialPlay 요소는 Period 요소의 자식 요소로서도 제공될 수 있다.
Figure PCTKR2011005357-appb-I000110
Figure PCTKR2011005357-appb-I000111
Figure PCTKR2011005357-appb-I000112
Figure PCTKR2011005357-appb-I000113
Figure PCTKR2011005357-appb-I000114
Figure PCTKR2011005357-appb-I000115
Figure PCTKR2011005357-appb-I000116
Figure PCTKR2011005357-appb-I000117
Figure PCTKR2011005357-appb-I000118
반복되는 Period가 어떤 Representation 설명을 다시 포함하지 않는 것과 같이, Representation 인스턴스들의 최소 개수는 0으로 변경될 수 있다.
id 속성을 직접적으로 사용하는 것 대신, 반복되어야 하는 이전의 Period의 id 값을 가리키기 위해 특별한(special) 속성을 사용할 수 있다.
하기에서 보충 정보(Supplementary Info)를 설명한다.
전문적인(professional) 서비스 공급(provisioning)을 위해, 제공자는 클라이언트들이, 예컨대 제공자의 로고(logo) 또는 광고 배너들(banners)과 같은, 보충적인 정보를 (주 콘텐츠와 함께) 화면에 나타나게 할 필요가 있다. 이 정보는 Period의 타임라인에 독립적일 수 있다.
각 보충적인 아이템은 콘텐츠의 가장 높은 해상도를 위해 제공될 수 있다. 만약, 콘텐츠가 몇몇 작은 단말들을 위해 다운스케일(downscale)된다면, 보충적인 아이템 및 그것의 위치 파라미터들(xOffset, yOffset)도 비례하여 다운-스케일될 수 있다.
SupplementaryInfo의 시맨틱스 및 신택스는 하기의 표 63 내지 표 65에 의해 제공된다.
Figure PCTKR2011005357-appb-I000120
Figure PCTKR2011005357-appb-I000121
Figure PCTKR2011005357-appb-I000122
Figure PCTKR2011005357-appb-I000123
Figure PCTKR2011005357-appb-I000124
Figure PCTKR2011005357-appb-I000125
Figure PCTKR2011005357-appb-I000126
하기에서 버퍼링 양(buffering amount)의 정의들이 설명된다.
클라이언트의 초기의(initially) 버퍼되는(buffered) 미디어의 최소 양은 시간 단위로 정의될 수 있다. 몇몇 경우에는, 클러이언트는 버퍼된 미디어의 임시(temporal) 지속시간(duration)이 충분한가를 확신하기 어렵다. 초기의 버퍼되는 미디어가 데이터크기(datasize) 유닛으로 명세될 수 있게 하기 위해 다른 선택사항이 제공될 수 있다.
만약 두 선택사항들(시간 유닛 단위 및 데이터크기 유닛 단위)가 동시에 제공되면, 제공자는 각 선택사항의 우선순위를 명세할 수 있다. 선택사항을 선택하는 것이 클라이언트에게 부여(up to)될 수 있다.
이 아이디어는, 하기의 표 66 및 표 67에서 나타난 것처럼, minBufferSize로 명명되는 다른 선택적인 속성을 MPD에 부가함으로써 구현될 수 있다. 2 개의 속성들(minBufferTime 및 minBufferSize) 중 적어도 하나가 있어야 한다.
표 66은 minBufferSize의 시맨틱스다.
Figure PCTKR2011005357-appb-I000128
Figure PCTKR2011005357-appb-I000129
Figure PCTKR2011005357-appb-I000130
하기에서 초기에 버퍼된 미디어의 상이한 양들에 대한 대역폭(bandwidth) 정보를 설명한다.
각 representation의 대역폭 정보는 초기에 버퍼된 미디어의 주어진 최소 양에 대해 제공될 수 있다. 그러나, 상이한 클라이언트들은 초기에 버퍼된 미디어의 서로 상이한 미리-설정된(pre-set) 양들을 가질 수 있다. 이는, 상이한 클라이언트들에 대해 상이한 대역폭 정보를 필요로 하는 것을 결과로서 낳는다.
하기에서, 각 representation에 대해, 초기에 버퍼된 미디어의 상이한 최소 양들에 대응하는 상이한 대역폭 값들이 설명된다.
이러한 해법의 이점은 초기에 버퍼된 미디어의 다중 최소 양들에 대응하는 다중 MPD들이 필요하지 않다는 것이다.
이러한 목적을 위해 MPEG DASH의 스키마가 하기와 같이 변경될 수 있다.
1) 초기에 버퍼된 미디어의 최소 양들을 위해 더 많은 값들을 MPD에 더한다. 전술된 것과 유사하게, 버퍼링의 양은 시간 단위 또는 데이터크기 단위가 될 수 있다.
2) 각 representation에 대해, 상기의 초기에 버퍼된 미디어의 최소 양들에 대응하는 대역폭 값들을 제공한다.
이러한 변경들은 MPDtype 내의 MinBUffer 요소 또는 RepresentationType 내의 BandwidthInfo@repBandwidth 요소 의해 구현될 수 있다.
하기의 표 68은 MinBuffer의 시맨틱스를 나타낸다.
Figure PCTKR2011005357-appb-I000131
하기의 표 69는 BandwidthInfo의 시맨틱스를 나타낸다.
Figure PCTKR2011005357-appb-I000132
Figure PCTKR2011005357-appb-I000133
표 70 및 표 71은 Bandwidth Info의 XML 신택스이다.
Figure PCTKR2011005357-appb-I000134
Figure PCTKR2011005357-appb-I000135
Figure PCTKR2011005357-appb-I000136
Figure PCTKR2011005357-appb-I000137
Figure PCTKR2011005357-appb-I000138
Figure PCTKR2011005357-appb-I000139
하기에서 세그먼트 대역폭이 설명된다.
bandwidth 속성은 period의 전체 지속시간에 걸쳐 각 representation을 위해 제공될 수 있다. 그러나, 품질 일관성(consistence)을 위해, 인코드된 비디오의 비트레이트는 보통 버스티(busty) 특성들(characteristics)을 갖는다. 한 세그먼트의 비트레이트는 다른 세그먼트의 비트레이트 보다 몇 배 높을 수 있다. 클라이언트가 네트워크 변동들(variations)에 더 효율적으로 적응(adapt)할 수 있게 하기 위해, 각 세그 먼트의 대역폭 정보가 추가적으로 제공될 수 있다.
표 72는 SegmentBandwidth의 시맨틱스를 설명한다.
Figure PCTKR2011005357-appb-I000140
Figure PCTKR2011005357-appb-I000141
표 73 및 표 74는 SegmentBandwidth의 신택스이다.
Figure PCTKR2011005357-appb-I000142
Figure PCTKR2011005357-appb-I000143
Figure PCTKR2011005357-appb-I000144
Figure PCTKR2011005357-appb-I000145
Figure PCTKR2011005357-appb-I000146
세그먼트가 길어서, 상기 세그먼트의 지속시간 내에 대역폭의 큰 변동들(fluctuations)이 있는 경우, 대역폭들의 부-세그먼트를 설명할 필요가 있다. 상기의 설명은, 세그먼트들 대신에 부-세그먼트들의 인터벌(interval)을 가리키기 위해, repeat 속성을 duration 속성(타입 = "xs:duration")로 변경함으로써 구현될 수 있다.
상기의 아이디어는 하기와 같이 IntervalBandwidth 요소를 사용함으로써 더 일반적인 방식으로 나타내어질 수 있다. 이 방석의 장점은 인터벌이 세그먼트 경계들과 정렬될 필요가 없다는 것이다. 이 신택스에서 최소 초기의 버퍼링의 다중 값들이 고려된다.
표 75는 IntervalBandwidth의 시맨틱스다.
Figure PCTKR2011005357-appb-I000147
Figure PCTKR2011005357-appb-I000148
표 76은 IntervalBandwidth의 신택스를 나타낸다.
Figure PCTKR2011005357-appb-I000149
Figure PCTKR2011005357-appb-I000150
Figure PCTKR2011005357-appb-I000151
하기에서 가상 세그먼트들을 지원하기 위한 확장을 설명한다.
미디어는 전달 전 준비(prepared)된다. 특히, 원본 미디어 파일은 세그먼트되어야 하고, 몇몇 밴드 내(in-band) 메타데이터 신호는 미디어 데이터 내로 삽입된다.
미디어 조작(manipulation)에 대한 요구(demand)를 최소화하는, 상이한 representation들을 설명하는 "가상 세그먼트들"이 설명된다. 가상 세그먼트는 스트림(또는, 세그먼트) 내의 데이터 파트(들)의 집합으로서 정의될 수 있다.
가상 세그먼트의 목적은 하기의 목적 1) 내지 목적 2)를 포함할 수 있다. :
1) 미디어 파일들의 생성 및 관리에 있어서의 용이 : 명백히 가상 세그먼트들을 사용함으로서, 물리적 파일들의 개수는 작아질 수 있다. 또한, 원본 미디어 파일들은 변경되지 않을 수 있고, 밴드 외(out-of-band) 메타데이터 신호(signaling)에 의해 인자전달(augment)될 수 있다.
2) 세그먼트 공급에 있어서의 유동성 : 세그먼트들의 상이한 타입들이 스트림으로부터 획득될 수 있다.
MPEG DASH에서, 클라이언트에 의해 요청되는 미디어 세그먼트는 URL 및 바이트 범위(range)에 의해 지정될 수 있다. 특히 미디어 스트림이 상이한 representation들을 내부에 포함할 때, 미디어 세그먼트는 미디어 스트림의 상이한 일부들로 구성될 수 있기 때문에, 이러한 지정은 다소 제한될 수 있다. 가상 세그먼트를 식별하기 위해 다중 바이트 범위들과 함께 URL이 사용될 수 있다. 또한, 상이한 기법들(techniques)이 다중 바이트 범위들을 사용함으로써 야기되는 증가된 메타데이터 크기를 감소시키기 위해 사용될 수 있다.
MPD의 UrlType의 시맨틱스는 하기와 같이 변경될 수 있다.
range 속성: [...]. 이 문자열의 포맷은 다중 바이트 범위들을 지원할 수 있다. (예컨대, "0-500, 1000-1500")
바이트 범위들에 의해 획득된 representation을 디코딩할 때, 미디어 헤더 박스들(예컨대, moov 또는 moof 박스들)의 몇몇 일부는 representation 설명과 상이한 정보를 포함할 수 있다. 이러한 경우, 상기의 정보는 무시될 수 있다.
바이트 범위들을 컴팩트한 방식으로 표현하기 위해 새 요소 MoreAddressingInfo가 추가될 수 있다. 메타데이터 프래그맨테이션이 초기의 MPD의 크기를 감소시키기 위해 MoreAddressingInfo 요소에 가해질 수 있다.
원본 미디어 파일(들)을 변형할 필요가 없다는 특성을 지원하기 위해, 세그먼트 인덱스 박스들(및 다른 관련된 박스들. 예컨대, Ranges 요소에 대응하는 박스)가 밴드-외로 드러내어질 수 있다(convey). 이러한 목적을 위해, MoreAddressingInfo 요소 또한 각 미디어 세그먼트의 세그먼트 인덱스 박스들을 가리키기 위해, URL 및 바이트 범위들을 포함하는, 정보를 포함할 수 있다.
MoreAddressInfo 요소에 의해 향상되는 SegmentInfo 요소가 하기의 표 77에서 설명된다.
Figure PCTKR2011005357-appb-I000152
Figure PCTKR2011005357-appb-I000153
Figure PCTKR2011005357-appb-I000154
여기서, 조건들은 xlink:href가 사용되지 않을 때만 유지된다(hold). 링킹이 사용되면 모든 속성들은 "선택적인"이며, <minOccurs= 0> 이다.
요소들은 볼드(bold)체, 속성들은 비-볼드(non-bold)체이다.
하기의 표 78 및 표 79는 MoreAddressingInfo 요소의 XML 신택스를 나타낸다.
Figure PCTKR2011005357-appb-I000155
Figure PCTKR2011005357-appb-I000156
Figure PCTKR2011005357-appb-I000157
Figure PCTKR2011005357-appb-I000158
Figure PCTKR2011005357-appb-I000159
MoreAddressingInfo 요소의 크기를 더 줄이기 위해, MoreAddressingInfo 요소는 슈도-코드 포맷에 의해 표현될 수 있다.
ByteRanges 요소를 슈도-코드로 나타낸 예는 하기의 표 80과 같다.
Figure PCTKR2011005357-appb-I000160
Figure PCTKR2011005357-appb-I000161
여기서, same_rep는 아래의 바이트 범위들의 각 시퀀스가 동일한 representation의 세그먼트들 또는 상이한 representation들 내에서 동일한 순서를 갖는 세그먼트들을 위한 것인지 여부를 가리킬 수 있다.
segment_count는 각 representation 내의 세그먼트들의 개수를 나타낸다.
rep_count는 representation들의 개수를 나타낸다.
range_count는 바이트 범위들의 개수를 나타낸다.
start 및 end는 바이트 범위들의 시작 및 끝 값들을 나타낸다.
same_start는 하기의 바이트 범위들의 집합이 이전의 바이트 범위들의 집합과 동일한 시작 값들을 갖는지 여부를 가리킨다.
MoreAddressingInfo 요소에 의해 제공되는 representation들의 특성을 설명하기 위해, 상이한 방식들이 사용될 수 있다. 하기에서, 2 개의 일반적인 방식들이 설명된다. : 1) representation 그룹의 representation들을 사용하는 방식 및 2) representation의 부-representations들을 사용하는 방식.
representation 그룹의 representation들을 사용하는 방식
이 방식에서, RepresentationGroup 요소의 SegmentInfoDefaultType는 하기의 표 81에서처럼, 상기의 SegmentInfo 타입으로부터 직접적으로 확장될 수 있다. RepresentationGroup 요소의 SegmentInfoDefault 요소가 세그먼트들의 주소를 가리키는(addressing) 정보를 전달하기 위해 사용되면, Representation 요소의 SegmentInfo 요소는 부재이다. representation 그룹의 각 representation은 MoreAddressingInfo의 Ranges 요소에 의해 지시되는 (대응하는) 식별자 값과 동일한 식별자 값을 가질 수 있다.
Figure PCTKR2011005357-appb-I000162
representation 내의 부-representation을 사용하는 방식
이 방식에서, SubReps로 불리는 새 요소가 (부모) representation의 상이한 (부-)representation을 설명하기 위해 사용된다. 부모 representation의 SegmentInfo 요소는 (상기에서 설명된 것과 같이) 주소를 가리키는 정보를 전달하기 위해 사용될 수 있다.
표 82는 SubReps의 시맨틱스를 설명한다.
Figure PCTKR2011005357-appb-I000163
Figure PCTKR2011005357-appb-I000164
표 83은 SubReps 요소의 XML 신택스를 나타낸다.
Figure PCTKR2011005357-appb-I000165
Figure PCTKR2011005357-appb-I000166
하기에서, 적응 힌트(adaptation hint)를 설명한다.
몇몇 경우, 품질(quality) 값들을 측정하는 것은 많은 비용이 들 수 있다. 따라서, 명시적으로 품절 정보를 제공하는 대신에, 제공자는 상이한 representation들을 선택함에 있어서, 몇몇 힌트들을 제공할 수 있다.
하기에서, 주어진 컨텍스트(context)(예컨대, 1Mbps의 대역폭 제한)에 있어서 선택된 representation들을 제안하는 적응 힌트가 설명된다. 이러한적응 힌트의 요소 및 시맨틱스는 하기에서 개시된다. 적응 힌트는 Period 또는 Subset의 자식 요소가 될 수 있다. SubSet 내에서 사용될 때, AdaptationHint는 그 SubSet에 속하는 representation들만을 고려할 수 있다.
실질적으로, 클라이언트는 설명된 컨텍스트 내에서 representation들을 선택하기 위해서뿐만 아니라, 다른 가능한 컨텍스트들 내에서 representation들을 추론(infer)(예컨대, 보간(interpolate))하기 위해서 사용할 수 있다.
표 84는 AdaptationHint의 시맨틱스를 나타낸다.
Figure PCTKR2011005357-appb-I000167
표 85 및 표 86은 AdaptationHint의 신택스를 나타낸다.
Figure PCTKR2011005357-appb-I000168
Figure PCTKR2011005357-appb-I000169
Figure PCTKR2011005357-appb-I000170
Figure PCTKR2011005357-appb-I000171
Figure PCTKR2011005357-appb-I000172
Figure PCTKR2011005357-appb-I000173
하기에서 부-representation들의 그룹에 대한 대역폭 범위를 설명한다.
사용자 장치(device)들의 다양한 제약들을 만족시키는(meet) 부-스트림들을 추출함에 있어서의 유동성에 기인하여, 확장가능한(scalable) 콘텐츠는 점점 더 대중적이 된다. 파일 포맷은 풀(full) (확장가능한) 스트림으로부터 부-스트림을 추출하는 툴에 대한 폭넓은 다양성을 제공할 수 있다. DASH에서 확장가능한 콘텐츠를 제공하기 위해, Representation을 위한 bandwidthRange로 불리는 새로운 속성이 제안된다. bandwithRange 속성은 풀 스트림/representation으로부터 추출가능한 부-스트림들(또는, 부-representation)의 대역폭 값들을 제공한다.
풀 representation의 세그먼트들을 다운로드하기 위해, 클라이언트는 representation 설명과 함께 제공된 URL만을 사용할 수 있다. 그러나, 부-representation의 세그먼트들을 다운로드하기 위해, 클라이언트는 각 URL에 대해 "bandwith"로 불리는 질의 파라미터(query parameter)를 포함한다. (예컨대, "?bandwitdh=1000")
표 87은 bandwidthRange의 시맨틱스를 설명한다.
Figure PCTKR2011005357-appb-I000174
Figure PCTKR2011005357-appb-I000175
bandwidthRange는 RepresentationGroup를 위해서도 사용될 수 있다. 여기서, 부-representation들은 RepresentationGroup의 representation들이 될 수 있다.
대역폭과 유사하게, resolution, frame rate와 같은 다른 속성들도 대응하는 resoultionRange 및 framerateRange에 의해 인자전달될 수 있다.
하기에서 대역폭 정보에 대해 추가적으로 설명한다.
대역폭 및 초기의 버퍼링 지연에 대한 설명은 적응성을 지원함에 있어서 유동성 및 정확성을 가능하게 하기 위해 향상될 수 있다.
MPD 레벨에서의 minBufferTime
각 representation의 대역폭 값은 어떤(certain) 초기의 버퍼링 시간 값(minBufferTime)에 대하여 정의될 수 있다. 초기의 버퍼링 시간은 MPD 레벨에 대해서 제공될 수 있다. 그러나, 이 minBufferTime이 미디어 프리젠테이션의 처음에만 적용되는지, 또는 임의의 RAP들에 적용되는지 여부는 불명확할 수 있다.
MPD 레벨에서의 minBufferTime의 시맨틱스는 하기의 선택사항들 중 하나로 수정(revise)될 수 있다.
1) 각 Representation이 Representation의 bandwidth 속성의 값 또는 그 이상의 값으로 전달될 때, 부드러운 재생을 보장하기 위해 필요한 (미디어 프리젠테이션의 시작에서) 초기에 버퍼된 미디어의 최소 양을 제공한다.
2) 각 Representation이 Representation의 bandwidth 속성의 값 또는 그 이상의 값으로 전달될 때, 부드러운 재생을 보장하기 위해 필요한 (미디어 프리젠테이션의 임의의 Period의 시작에서) 초기에 버퍼된 미디어의 최소 양을 제공한다.
3) 각 Representation이 Representation의 bandwidth 속성의 값 또는 그 이상의 값으로 전달될 때, 부드러운 재생을 보장하기 위해 필요한 (미디어 프리젠테이션의
임의의 RAP들에서) 초기에 버퍼된 미디어의 최소 양을 제공한다.
Period 레벨에서의 minBufferTime
만약, MPD 레벨에서의 minBufferTime 속성이 프리젠테이션의 시작 점에 특별할 때, 각 Period에 minBufferTime이 더해질 수 있다. 각 Period에 minBufferTime을 더하는 것은 MPD 레벨에서의 minBufferTime 값을 오버라이드할 수 있다. 이러한 오버라이드는 Period가 시작하기 이전에 적절한 초기의 버퍼링을 가능하게 한다.
우선, 표 88에서, MPD 레벨에서의 minBufferTime이 선택적인 속성으로 변경될 수 있다.
표 88은 minBufferTime을 설명한다.
Figure PCTKR2011005357-appb-I000176
Figure PCTKR2011005357-appb-I000177
다음으로, Period 레벨에서의 minBufferTime 속성의 시맨틱스 및 신택스는 하기의 표 89 및 표 90과 같다.
Figure PCTKR2011005357-appb-I000178
Figure PCTKR2011005357-appb-I000179
Figure PCTKR2011005357-appb-I000180
Figure PCTKR2011005357-appb-I000181
하기에서, bandwidth의 변경된 정의를 설명한다.
bandwidth의 정의는 Period 내의 representation의 연속적인 재생을 보장할 수 있다. 그러나, (만약, 존재한다면) 다음 Period 내의 representation(들)이 representation이 시작하기 전에 충분히 버퍼될 것인지에 대한 보장이 없다. Peroid들을 걸치는(across) 연속적인 재생을 보장하기 위해, bandwidth 속성의 시맨틱스가 하기의 표 91과 같이 변경될 수 있다.
Figure PCTKR2011005357-appb-I000182
현재 Period의 모든 미디어 데이터가 다음 Period의 시작 전에 잘 수신될 수 있다. 따라서, 다음 Period의 모든 미디어 데이터는 다음 Period의 시작 이전에 (연속적인 재생을 위해) 충분히 버퍼될 수 있다.
하기에서 bandwidth-minBufferTime의 다중 쌍(pair)들이 설명된다.
동일한 MPD를 수신하는 상이한 장치들은 MPD 내의 minBufferTime을 존중(respect)한다. 그러나, 상이한 장치들은 초기에 버퍼된 미디어(또는, 상이한 최소 초기의 버퍼링 지연(delay)들)의 상이한 양을 필요로할 수 있다.
예를 들어, 한 장치는 (고 대역폭을 지불(cost)하여) 적은 지연을 선호할 수 있고, 반면 저-대역폭 연결을 갖는 다른 장치는 큰 지연을 용인할 수 있다.
bandwidth-minBufferTime의 다중 쌍들을 갖는 것은 QoS 레벨들을 선택함에 있어서 큰 유동성을 제공할 수 있다.
하기에서 1) minBufferTime의 상이한 값들/인스턴스들 및 2) minBufferTime의 상이한 값들에 대응하는 (각 representation에 대한) 상이한 대역폭 값들이 설명된다. 이러한 해법의 이점은 minBufferTime의 다중 값들에 대응하는 다증 MPD들이 필요하지 않다는 것에 있다.
이러한 목적을 위한 MPEG DASH의 스키마의 변경은 하기의 선택사항들과 같을 수 있다.
1) MPD의 최소 초기의 버퍼링 지연을 위한 더 많은 값들을 추가한다.
2) 각 representation에 대해, 상기의 최소 초기의 버퍼링 지연의 값들에 대응하는 대역폭 값들을 제공한다.
이러한 변경은 1) MPD 및 Period 레벨에서의 MinBufferTime 요소들 및 2) Representation 내의 BandwidthInfo 요소에 의해 구현될 수 있다.
bandwidth-minBufferTime의 다른 쌍들도 bandwidth-minBufferTime의 쌍들을 제공하기 위해 보간될 수 있다.
표 92는 MPD 레벨에서의 MinBufferTime의 시맨틱스다.
Figure PCTKR2011005357-appb-I000183
표 93는 Period 레벨에서의 MinBufferTime의 시맨틱스다.
Figure PCTKR2011005357-appb-I000184
Figure PCTKR2011005357-appb-I000185
표 94는 BandwidthInfo의 시맨틱스다.
Figure PCTKR2011005357-appb-I000186
표 95 내지 표 97은 MinBufferTime 및 BandwidthInfo의 신택스이다.
Figure PCTKR2011005357-appb-I000187
Figure PCTKR2011005357-appb-I000188
Figure PCTKR2011005357-appb-I000189
Figure PCTKR2011005357-appb-I000190
Figure PCTKR2011005357-appb-I000191
Figure PCTKR2011005357-appb-I000192
Figure PCTKR2011005357-appb-I000193
Figure PCTKR2011005357-appb-I000194
하기에서 각 RAP를 위한 bandwidth-minBufferTime의 다중 쌍들이 설명된다.
일반적으로 representation의 각 RAP는 bandwidth-minBufferTime의 다중 쌍들을 제공받을 수 있다. 이러한 정보는 클라이언트가 (예컨대, 임의 접근(random accessing)의 경우에) RAP로부터 재생하기 전에 충분한 초기의 데이터를 버퍼하는 것을 가능하게 한다.
표 98은 RAPInfo의 시맨틱스를 설명한다.
Figure PCTKR2011005357-appb-I000195
표 99 및 표 100은 RAPInfo의 신택스를 설명한다.
Figure PCTKR2011005357-appb-I000196
Figure PCTKR2011005357-appb-I000197
Figure PCTKR2011005357-appb-I000198
Figure PCTKR2011005357-appb-I000199
RAPInfo 요소 및 RAPInfo 요소의 자식 요소들은 컴팩트함을 위해 슈도-코드 포맷/박스들로 변환될 수 있다. 나아가, RAPInfo 요소 및 RAPInfo 요소의 자식 요소들의 슈도-코드 박스들은 분리되어 저장되거나 (예컨대, 각 RAP의 앞) 미디어 비트스트림 내로 삽입될 수 있다.
하기에서, 재생 커브(Playout Curve)가 설명된다.
각 RAP에 대한 bandwidth-delay 정보를 제공하는 것은 많은 비용을 소모할 수 있다. 또 다른 해법은 representation의 재생 커브의 근사를 표현하는 것이다. 재생 커브(또는 재생 커브의 근사) 및 (특정한 초기의 지연에 대응하는) 선택된 대역폭을 알면, 각 RAP의 초기 지연은 재생 커브의 타임 오프셋 및 선택된 대역폭을 표현하는 커브로서 쉽게 계산될 수 있다..
표 101은 AppPlayoutCurve의 시맨틱스를 설명한다.
Figure PCTKR2011005357-appb-I000200
표 102는 IntervalBandwidth의 신택스를 나타낸다.
Figure PCTKR2011005357-appb-I000201
Figure PCTKR2011005357-appb-I000202
Figure PCTKR2011005357-appb-I000203
Figure PCTKR2011005357-appb-I000204
도 5는 본 발명의 일 실시예에 따른 클라이언트(100)의 구조도이다.
제어부(510)는 단계(130) 및 단계(140)을 수행한다. 즉, 제어부(510)는 인터벌에 대한 메타데이터를 처리하고, 처리에 기반하여 인터벌에 대해 적합한 상기 프래그먼트를 선택하는
송수신부(520)는 단계(120), 단계(140) 및 단계(150)을 수행한다. 즉, 송수신부(520)는 서버(110)로부터 콘텐츠의 인터벌에 대한 메타데이터를 수신하고, 인터벌에 대해 적합한 프래그먼트를 서버에게 요청하고, 서버로부터 상기 프래그먼트를 수신한다.
도 6은 본 발명의 일 실시예에 따른 클라이언트(100)의 구조도이다.
클라이언트(100)는 접근 엔진(610) 및 미디어 엔진(620)을 포함한다.
접근 엔진(610)은 DASH 접근 엔진일 수 있다.
접근 엔진(610)은 서버(110)로부터, 메타데이터(예컨대, MPD)를 수신한다.
접근 엔진(610)은, 요청들을 구성하고, 구성된 요청들을 서버(110)에게 발행(issue)한다.
접근 엔진(610)은, 콘텐츠(예켄더, 세그먼트들 또는 세그먼트들의 일부들)을 서버(110)로부터 수신한다.
접근 엔진(610)은 콘텐츠를 미디어 엔진(620)에게 제공한다.
접근 엔진(610)의 출력은, MPEG 컨테니어(container)(예컨대, ISO/IEC 14492-12 ISO 베이스 미디어 파일 포멧 또는 ISO/IEC 13818-2 MPEG-2 트랜스포트 스트림)의 미디어(또는, 미디어의 일부들)을 포함할 수 있다. 또한, 접근 엔진(610)의 출력은 상기 미디어의 내부적(internal) 타이밍을 미디어 프리젠테이션의 타임 라인으로 사상(map)하는 타이밍 정보를 포함할 수 있다.
미디어 엔진(610)은 제공된 콘텐츠를 재생한다. 즉, 미디어 엔진(610)은 접근 엔진(610)으로부터 출력된 미디어 및 타이밍 정보를 사용하여 미디어를 출력할 수 있다.
앞서 도 1 내지 도 4를 참조하여 설명된 본 발명의 일 실시예에 따른 기술 적 내용들이 본 실시예에도 그대로 적용될 수 있다. 따라서 보다 상세한 설명은 이하 생략하기로 한다.
본 발명의 일 실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.

Claims (40)

  1. 클라이언트가 하나 이상의 주기들을 포함하는 미디어 콘텐츠를 제공하는 방법에 있어서,
    서버로부터 상기 미디어 콘텐츠에 대한 메타데이터를 수신하는 단계 - 상기 메타데이터는 상기 미디어 콘텐츠를 재생하기 위해 필요한 초기의 버퍼된 미디어 콘텐츠의 최소 양을 가리키는 최소 버퍼 시간 속성을 포함함 -;
    상기 서버로부터 상기 미디어 콘텐츠를 전송받아 적어도 상기 최소 양만큼 버퍼링하는 단계; 및
    상기 미디어 콘텐츠를 재생하는 단계
    를 포함하는, 콘텐츠 제공 방법.
  2. 제1항에 있어서,
    상기 메타데이터는 상기 미디어 콘텐츠의 미디어 정보(media presentation description; MPD)인, 콘텐츠 제공 방법.
  3. 제1항에 있어서,
    상기 최소 버퍼 시간 속성은 상기 콘텐츠가 상기 메타데이터의 대역폭 속성의 값 또는 상기 대역폭 속성의 값 이상으로 연속적으로 전송될 때 상기 콘텐츠 미디어를 재생하기 위해 필요한 초기의 버퍼된 미디어의 최소 양을 가리키는, 콘텐츠 제공 방법.
  4. 제1항에 있어서,
    각 주기는 상기 미디어 콘텐츠의 하나 이상의 레프리젠테이션(representation)들을 포함하고 - 상기 레프리젠테이션은 상기 주기 내의 하나 이상의 미디어 컴포넌트들의 구조화된 컬렉션임 -,
    상기 대역폭 속성은 상기 레프리젠테이션에 대한 속성이며,
    상기 대역폭 속성은 상기 클라이언트가 적어도 상기 최소 버퍼 시간만큼 상기 레프리젠테이션을 버퍼링한 후, 상기 레프리젠테이션이 연속적으로 전송될 수 있는 가상적인 상수 비트레이트 채널의 최소 대역폭인, 콘텐츠 제공 방법.
  5. 제4항에 있어서,
    상기 레프리젠테이션은 하나 이상의 세그먼트들을 포함하는, 콘텐츠 제공 방법.
  6. 하나 이상의 주기들을 포함하는 미디어 콘텐츠를 제공하는 단말에 있어서,
    상기 미디어 콘텐츠에 대한 메타데이터를 수신하고 - 상기 메타데이터는 상기 미디어 콘텐츠를 재생하기 위해 필요한 초기의 버퍼된 미디어 콘텐츠의 최소 양을 가리키는 최소 버퍼 시간 속성을 포함함 -, 상기 서버로부터 상기 미디어 콘텐츠를 전송받아 적어도 상기 최소 양만큼 버퍼링하는, 접근 엔진; 및
    상기 접근 엔진으로부터 상기 미디어 콘텐츠를 제공받아 상기 미디어 콘텐츠를 재생하는 미디어 엔진
    을 포함하는 단말.
  7. 제6항에 있어서,
    상기 메타데이터는 상기 미디어 콘텐츠의 미디어 정보(media presentation description; MPD)인, 단말.
  8. 제6항에 있어서,
    상기 최소 버퍼 시간 속성은 상기 콘텐츠가 상기 메타데이터의 대역폭 속성의 값 또는 상기 대역폭 속성의 값 이상으로 연속적으로 전송될 때 상기 콘텐츠 미디어를 재생하기 위해 필요한 초기의 버퍼된 미디어의 최소 양을 가리키는, 단말.
  9. 제6항에 있어서,
    각 주기는 상기 미디어 콘텐츠의 하나 이상의 레프리젠테이션(representation)들을 포함하고 - 상기 레프리젠테이션은 상기 주기 내의 하나 이상의 미디어 컴포넌트들의 구조화된 컬렉션임 -;
    상기 대역폭 속성은 상기 레프리젠테이션에 대한 속성이며,
    상기 대역폭 속성은 상기 단말이 적어도 상기 최소 버퍼 시간만큼 상기 레프리젠테이션을 버퍼링한 후, 상기 레프리젠테이션이 연속적으로 전송될 수 있는 가상적인 상수 비트레이트 채널의 최소 대역폭인, 단말.
  10. 제9항에 있어서,
    상기 레프리젠테이션은 하나 이상의 세그먼트들을 포함하는, 단말.
  11. 클라이언트가 하나 이상의 주기들을 포함하는 미디어 콘텐츠를 제공하는 방법에 있어서,
    서버로부터 상기 미디어 콘텐츠에 대한 메타데이터를 수신하는 단계 - 상기 메타데이터는 URL 속성 및 범위 속성을 포함함 -;
    상기 URL 속성이 가리키는 URL로부터 상기 범위 속성이 지정하는 바이트들을 수신하는 단계; 및
    상기 수신된 바이트들을 사용하여 상기 미디어 콘텐츠를 재생하는 단계
    를 포함하는, 콘텐츠 제공 방법.
  12. 제11항에 있어서,
    상기 메타데이터는 상기 미디어 콘텐츠의 미디어 정보(media presentation description; MPD)인, 콘텐츠 제공 방법.
  13. 제11항에 있어서,
    각 주기는 상기 미디어 콘텐츠 하나 이상의 레프리젠테이션(representation)들을 포함하고 - 상기 레프리젠테이션은 상기 주기 내의 하나 이상의 미디어 컴포넌트들의 구조화된 컬렉션임 -;
    상기 레프리젠테이션은 하나 이상의 세그먼트들을 포함하고,
    상기 바이트 범위가 지정하는 바이트들은 상기 미디어 콘텐츠의 세그먼트를 지정하는, 콘텐츠 제공 방법.
  14. 제11항에 있어서,
    상기 범위 속성은 다중의 바이트 범위들을 가리키는, 콘텐츠 제공 방법.
  15. 제11항에 있어서,
    상기 바이트들은 상기 URL에 대한 상기 바이트 범위에 의해 지시되는 부분 HTTP GET 명령에 의해 수신되는, 콘텐츠 제공 방법.
  16. 하나 이상의 주기들을 포함하는 미디어 콘텐츠를 제공하는 단말에 있어서,
    상기 미디어 콘텐츠에 대한 메타데이터를 수신하고 - 상기 메타데이터는 URL 속성 및 범위 속성을 포함함 -, 상기 URL 속성이 가리키는 URL로부터 상기 범위 속성이 지정하는 바이트들을 수신하는, 접근 엔진; 및
    상기 수신된 바이트들을 사용하여 상기 미디어 콘텐츠를 재생하는 미디어 엔진을 포함하는 단말.
  17. 제16항에 있어서,
    상기 메타데이터는 상기 미디어 콘텐츠의 미디어 정보(media presentation description; MPD)인, 단말.
  18. 제16항에 있어서,
    각 주기는 상기 미디어 콘텐츠 하나 이상의 레프리젠테이션(representation)들을 포함하고 - 상기 레프리젠테이션은 상기 주기 내의 하나 이상의 미디어 컴포넌트들의 구조화된 컬렉션임 -;
    상기 레프리젠테이션은 하나 이상의 세그먼트들을 포함하고,
    상기 바이트 범위가 지정하는 바이트들은 상기 미디어 콘텐츠의 세그먼트를 지정하는, 단말.
  19. 제16항에 있어서,
    상기 범위 속성은 다중의 바이트 범위들을 가리키는, 콘텐츠 제공 방법.
  20. 제16항에 있어서,
    상기 바이트들은 상기 URL에 대한 상기 바이트 범위에 의해 지시되는 부분 HTTP GET 명령에 의해 수신되는, 단말.
  21. 클라이언트가 하나 이상의 인터벌을 포함하는 콘텐츠를 처리하는 방법에 있어서,
    서버로부터 상기 콘텐츠의 인터벌에 대한 메타데이터를 수신하는 단계;
    상기 메타데이터를 처리하고, 상기 처리에 기반하여 상기 인터벌에 대해 적합한 프래그먼트를 서버에게 요청하는 단계; 및
    상기 서버로부터 상기 프래그먼트를 수신하는 단계;
    를 포함하는 콘텐츠 처리 방법.
  22. 제21항에 있어서,
    상기 콘텐츠는 요청에 따른 콘텐츠 또는 라이브 콘텐츠인, 콘텐츠 처리 방법.
  23. 제21항에 있어서,
    상기 메타데이터는 일반 정보를 포함하고, 상기 일반 정보는 상기 콘텐츠의 일반 설명 및 상기 인터벌의 일반 설명을 포함하는, 콘텐츠 처리 방법.
  24. 제23항에 있어서,
    상기 콘텐츠의 일반 설명은 지속시간 및 시작 시각 중 하나 이상을 포함하는, 콘텐츠 처리 방법.
  25. 제21항에 있어서,
    상기 메타데이터는 서비스의 품질 정보를 포함하고, 상기 서비스의 품질 정보는 상기 콘텐츠의 대안들 각각의 특성들을 설명하는, 콘텐츠 처리 방법.
  26. 제25항에 있어서,
    상기 특성들은 비트레이트, 해상도 및 품질 중 하나 이상을 포함하는, 콘텐츠 처리 방법.
  27. 제25항에 있어서,
    상기 대안들 각각은 물리적 또는 가상인, 콘텐츠 처리 방법.
  28. 제25항에 있어서,
    상기 적합한 프래그먼트는 상기 대안들의 정보에 기반하여 선택된, 콘텐츠 처리 방법.
  29. 제21항에 있어서,
    상기 메타데이터는 매핑 정보를 포함하고, 상기 매핑 정보는 상기 콘텐츠를 추출할 위치들을 설명하는, 콘텐츠 처리 방법.
  30. 제21항에 있어서,
    상기 메타데이터는 콘텐츠-레벨 정보 및 인터벌 레벨 정보를 포함하고,
    모든 대안들의 결정 및 위치들의 해결을 위한 계산은 상기 서버에 의해 수행되는, 콘텐츠 처리 방법.
  31. 제30항에 있어서,
    상기의 요청은 상기 인터벌 내에서 상기 프래그먼트의 순서 값 및 상기 인터벌 내에서 상기 프래그먼트의 시작 시각을 정의하는, 콘텐츠 처리 방법.
  32. 제21항에 있어서,
    상기 메타데이터는 콘텐츠-레벨 정보, 인터벌 레벨 정보 및 QoS 정보를 포함하고,
    모든 대안들의 결정 및 위치들의 해결을 위한 계산은 상기 클라이언트 및 상기 서버에 의해 분산하여 수행되는, 콘텐츠 처리 방법.
  33. 제32항에 있어서,
    상기의 요청은 대안의 순서 값 - 상기 대안은 상기 순서 값에 따라 QoS 정보 내에서 나타남 -, 상기 QoS 정보 내에서 나타나는 적응 연산자의 값들, 상기 QoS 정보 내에서 나타나는 자원의 값들 중 하나를 포함하는, 콘텐츠 처리 방법.
  34. 제33항에 있어서,
    상기 적응 연산자는 버려질 확장가능한 오디오 레이어들의 개수, 버려질 확장가능한 비디오의 템포럴 레이어들의 개수, 버려질 확장가능한 비디오의 공간적 레이어들의 개수, 버려질 확장가능한 비디오의 공간적 레이어들의 개수, 버려질 확장가능한 비디오의 우선순위 레이어들의 개수 중 하나 이상을 포함하는, 콘텐츠 처리 방법.
  35. 제33항에 있어서,
    상기 자원의 타입은 상기 대안의 평균 비트레이트, 상기 대안의 수직 해상도, 상기 대안의 수평 해상도 및 상기 대안의 프레임레이트 중 하나 이상을 포함하는 콘텐츠 처리 방법
  36. 제21항에 있어서,
    상기 메타데이터는 콘텐츠-레벨 정보, 인터벌 레벨 정보, QoS 정보 및 매핑 정보를 포함하고,
    모든 대안들의 결정 및 위치들의 해결을 위한 계산은 상기 클라이언트에 의해 수행되는, 콘텐츠 처리 방법.
  37. 제36항에 있어서,
    상기 요청은 MPEG-2 TS 경계를 위한 파라미터, ISO 미디어 파일 경계를 위한 파라미터, 로(raw) 바이크-시퀀스로서 간주되는 파일을 위한 파라미터들 중 하나 이상을 포함하는, 콘텐츠 처리 방법.
  38. 제21항에 있어서,
    상기 메타데이터는 콘텐츠-레벨 정보, 인터벌 레벨 정보, QoS 정보 및 매핑 정보로 물리적으로 분리되여, 상기 콘텐츠-레벨 정보, 상기 인터벌 레벨 정보, 상기 QoS 정보 및 상기 매핑 정보의 관련된 부분들의 링킹은 참조에 의해 이루어진, 콘텐츠 처리 방법.
  39. 서버가 하나 이상의 인터벌을 포함하는 콘텐츠를 제공하는 방법에 있어서,
    상기 콘텐츠의 인터벌에 대한 메타데이터를 클라이언트에게 전송하는 단계;
    상기 클라이언트로부터 프래그먼트의 요청을 수신하는 단계 - 상기 프래그먼트는 상기 메타데이터에 기반하여 선택된 상기 인터벌에 적합한 프래그먼트임 -;
    상기 콘텐츠를 파스하고, 상기 프래그먼트에 적합한 데이터 파트를 추출하는 단계; 및
    상기 프래그먼트를 상기 클라이언트에게 전송하는 단계
    를 포함하는, 콘텐츠 서비스 제공 방법.
  40. 하나 이상의 인터벌을 포함하는 콘텐츠를 처리하는 클라이언트에 있어서,
    서버로부터 상기 콘텐츠의 인터벌에 대한 메타데이터를 수신하고, 상기 인터벌에 대해 적합한 프래그먼트를 서버에게 요청하고, 상기 서버로부터 상기 프래그먼트를 수신하는 송수신부; 및
    상기 메타데이터를 처리하고, 상기 처리에 기반하여 상기 인터벌에 대해 적합한 상기 프래그먼트를 선택하는 제어부를 포함하는, 클라이언트.
PCT/KR2011/005357 2010-07-20 2011-07-20 스트리밍 컨텐츠 제공 장치 및 방법 WO2012011743A2 (ko)

Priority Applications (7)

Application Number Priority Date Filing Date Title
US13/811,376 US9325558B2 (en) 2010-07-20 2011-07-20 Apparatus and method for providing streaming contents
CN2011800452802A CN103181181A (zh) 2010-07-20 2011-07-20 提供串流内容的装置及方法
EP18191382.3A EP3441932A1 (en) 2010-07-20 2011-07-20 Apparatus and method for providing streaming contents
EP11809870.6A EP2597884A4 (en) 2010-07-20 2011-07-20 DEVICE AND METHOD FOR PROVIDING STREAMING CONTENT
US15/069,443 US10362130B2 (en) 2010-07-20 2016-03-14 Apparatus and method for providing streaming contents
US16/179,767 US10819815B2 (en) 2010-07-20 2018-11-02 Apparatus and method for providing streaming content
US16/227,921 US20190124173A1 (en) 2010-07-20 2018-12-20 Apparatus and method for providing streaming content

Applications Claiming Priority (20)

Application Number Priority Date Filing Date Title
US36586010P 2010-07-20 2010-07-20
US61/365,860 2010-07-20
US36620310P 2010-07-21 2010-07-21
US61/366,203 2010-07-21
US37526210P 2010-08-20 2010-08-20
US61/375,262 2010-08-20
US38027710P 2010-09-06 2010-09-06
US61/380,277 2010-09-06
US39032810P 2010-10-06 2010-10-06
US61/390,328 2010-10-06
US40567410P 2010-10-22 2010-10-22
US61/405,674 2010-10-22
US41446210P 2010-11-17 2010-11-17
US61/414,462 2010-11-17
US41793110P 2010-11-30 2010-11-30
US61/417,931 2010-11-30
US201161434036P 2011-01-19 2011-01-19
US61/434,036 2011-01-19
KR10-2011-0071671 2011-07-19
KR1020110071671A KR20120034550A (ko) 2010-07-20 2011-07-19 스트리밍 컨텐츠 제공 장치 및 방법

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US13/811,376 A-371-Of-International US9325558B2 (en) 2010-07-20 2011-07-20 Apparatus and method for providing streaming contents
US15/069,443 Continuation US10362130B2 (en) 2010-07-20 2016-03-14 Apparatus and method for providing streaming contents

Publications (2)

Publication Number Publication Date
WO2012011743A2 true WO2012011743A2 (ko) 2012-01-26
WO2012011743A3 WO2012011743A3 (ko) 2012-05-24

Family

ID=45497301

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2011/005357 WO2012011743A2 (ko) 2010-07-20 2011-07-20 스트리밍 컨텐츠 제공 장치 및 방법

Country Status (5)

Country Link
US (4) US9325558B2 (ko)
EP (2) EP2597884A4 (ko)
KR (1) KR20120034550A (ko)
CN (2) CN108513143A (ko)
WO (1) WO2012011743A2 (ko)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014113604A1 (en) * 2013-01-16 2014-07-24 Huawei Technologies Co., Ltd. Url parameter insertion and addition in adaptive streaming
CN104255010A (zh) * 2012-04-27 2014-12-31 华为技术有限公司 用于在模板模式下有效支持短加密区间的系统和方法
CN104704793A (zh) * 2012-08-14 2015-06-10 瑞典爱立信有限公司 多媒体数据的处理
CN104718763A (zh) * 2012-10-09 2015-06-17 奥林奇公司 统一资源标识符(uri)参数的遗传
CN104937583A (zh) * 2013-01-18 2015-09-23 华为技术有限公司 一种对媒体内容进行自适应的方法和装置
WO2017150753A1 (ko) * 2016-03-04 2017-09-08 주식회사 큐버 동적 적응 버퍼링 기반의 ott 데이터 처리 방법
CN107682436A (zh) * 2017-10-09 2018-02-09 武汉斗鱼网络科技有限公司 一种更新文件的方法、装置和设备
RU2652789C2 (ru) * 2013-04-19 2018-05-03 Сони Корпорейшн Устройство обработки информации, способ запроса содержания и компьютерная программа
RU2668549C2 (ru) * 2013-04-19 2018-10-02 Сони Корпорейшн Устройство сервера, устройство клиент, способ распределения содержания и компьютерная программа

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120034550A (ko) 2010-07-20 2012-04-12 한국전자통신연구원 스트리밍 컨텐츠 제공 장치 및 방법
US9467493B2 (en) 2010-09-06 2016-10-11 Electronics And Telecommunication Research Institute Apparatus and method for providing streaming content
WO2012125006A2 (ko) 2011-03-16 2012-09-20 한국전자통신연구원 레프리젠테이션을 사용하는 스트리밍 콘텐츠 제공 장치 및 방법
US9590814B2 (en) * 2011-08-01 2017-03-07 Qualcomm Incorporated Method and apparatus for transport of dynamic adaptive streaming over HTTP (DASH) initialization segment description fragments as user service description fragments
US10218756B2 (en) 2012-01-06 2019-02-26 Comcast Cable Communications, Llc Streamlined delivery of video content
US9276989B2 (en) * 2012-03-30 2016-03-01 Adobe Systems Incorporated Buffering in HTTP streaming client
US9438883B2 (en) 2012-04-09 2016-09-06 Intel Corporation Quality of experience reporting for combined unicast-multicast/broadcast streaming of media content
KR101995270B1 (ko) 2012-04-25 2019-07-03 삼성전자주식회사 비디오 데이터를 재생하는 방법 및 장치
KR101358806B1 (ko) * 2012-05-29 2014-02-10 주식회사에어플러그 무선통신 단말기가 무선 통신망의 자원을 최소 사용하여 데이터를 수신하면서 이종망간 전환할 수 있게 하는 방법 및 장치
US10616297B2 (en) 2012-07-09 2020-04-07 Futurewei Technologies, Inc. Content-specific identification and timing behavior in dynamic adaptive streaming over hypertext transfer protocol
JP6697879B2 (ja) * 2012-07-10 2020-05-27 ヴィド スケール インコーポレイテッド 品質ドリブンストリーミング
US9804668B2 (en) * 2012-07-18 2017-10-31 Verimatrix, Inc. Systems and methods for rapid content switching to provide a linear TV experience using streaming content distribution
WO2014015110A1 (en) 2012-07-18 2014-01-23 Verimatrix, Inc. Systems and methods for rapid content switching to provide a linear tv experience using streaming content distribution
US9125073B2 (en) 2012-08-03 2015-09-01 Intel Corporation Quality-aware adaptive streaming over hypertext transfer protocol using quality attributes in manifest file
US9680689B2 (en) * 2013-02-14 2017-06-13 Comcast Cable Communications, Llc Fragmenting media content
US10866952B2 (en) 2013-03-04 2020-12-15 Fisher-Rosemount Systems, Inc. Source-independent queries in distributed industrial system
US10649424B2 (en) 2013-03-04 2020-05-12 Fisher-Rosemount Systems, Inc. Distributed industrial performance monitoring and analytics
US10909137B2 (en) 2014-10-06 2021-02-02 Fisher-Rosemount Systems, Inc. Streaming data for analytics in process control systems
US9558220B2 (en) 2013-03-04 2017-01-31 Fisher-Rosemount Systems, Inc. Big data in process control systems
US10691281B2 (en) 2013-03-15 2020-06-23 Fisher-Rosemount Systems, Inc. Method and apparatus for controlling a process plant with location aware mobile control devices
US9444863B2 (en) * 2013-06-06 2016-09-13 Intel Corporation Manager for DASH media streaming
KR102080116B1 (ko) * 2013-06-10 2020-02-24 삼성전자 주식회사 이동통신 시스템에서 비디오 비트레이트 할당 방법 및 장치
JP6059820B2 (ja) * 2013-07-18 2017-01-11 コニンクリーケ・ケイピーエヌ・ナムローゼ・フェンノートシャップ 低レイテンシ・ストリーミング
US9432427B2 (en) * 2013-07-25 2016-08-30 Futurewei Technologies, Inc. System and method for effectively controlling client behavior in adaptive streaming
EP2973228B1 (en) 2013-07-26 2019-08-28 Huawei Technologies Co., Ltd. Spatial adaptation in adaptive streaming
KR102221066B1 (ko) 2013-11-27 2021-02-26 인터디지탈 패튼 홀딩스, 인크 미디어 프리젠테이션 디스크립션
CN104717555B (zh) * 2013-12-11 2018-01-02 华为技术有限公司 视频码流的获取方法及装置
US11310302B2 (en) * 2014-01-09 2022-04-19 Samsung Electronics Co., Ltd. Method and apparatus for streaming dash content over broadcast channels
JP6340882B2 (ja) * 2014-04-04 2018-06-13 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
JP6262880B2 (ja) * 2014-04-09 2018-01-17 エルジー エレクトロニクス インコーポレイティド 放送伝送装置、放送受信装置、放送伝送装置の動作方法及び放送受信装置の動作方法
FR3020544A1 (fr) * 2014-04-24 2015-10-30 Orange Transmission et telechargement de contenu decompose en segments de donnees temporels
US10110652B2 (en) * 2014-10-14 2018-10-23 Intel IP Corporation Carriage of media content quality information
EP3761654A1 (en) * 2019-07-04 2021-01-06 THEO Technologies Media streaming
KR20210076727A (ko) 2019-12-16 2021-06-24 주식회사 엘지유플러스 콘텐츠 재생을 위한 장치 및 방법
CN113364728B (zh) * 2020-03-03 2023-04-14 腾讯美国有限责任公司 媒体内容接收方法、装置、存储介质和计算机设备
US20220321918A1 (en) * 2021-04-02 2022-10-06 Qualcomm Incorporated Picture orientation and quality metrics supplemental enhancement information message for video coding
KR20240052832A (ko) * 2021-10-01 2024-04-23 바이트댄스 아이엔씨 비디오 처리 방법, 장치 및 매체
US11750865B1 (en) * 2022-04-08 2023-09-05 CodeShop, B.V. Method and system for synchronization of adaptive streaming transcoder and packager outputs

Family Cites Families (100)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030093790A1 (en) 2000-03-28 2003-05-15 Logan James D. Audio and video program recording, editing and playback systems using metadata
US7330875B1 (en) 1999-06-15 2008-02-12 Microsoft Corporation System and method for recording a presentation for on-demand viewing over a computer network
US6510464B1 (en) 1999-12-14 2003-01-21 Verizon Corporate Services Group Inc. Secure gateway having routing feature
KR20040041082A (ko) 2000-07-24 2004-05-13 비브콤 인코포레이티드 멀티미디어 북마크와 비디오의 가상 편집을 위한 시스템및 방법
US20050203927A1 (en) 2000-07-24 2005-09-15 Vivcom, Inc. Fast metadata generation and delivery
US20050193408A1 (en) 2000-07-24 2005-09-01 Vivcom, Inc. Generating, transporting, processing, storing and presenting segmentation information for audio-visual programs
US20050193425A1 (en) 2000-07-24 2005-09-01 Sanghoon Sull Delivery and presentation of content-relevant information associated with frames of audio-visual programs
US20050204385A1 (en) 2000-07-24 2005-09-15 Vivcom, Inc. Processing and presentation of infomercials for audio-visual programs
US7512665B1 (en) 2000-08-17 2009-03-31 International Business Machines Corporation Chained uniform resource locators
US20050273514A1 (en) 2000-12-22 2005-12-08 Ray Milkey System and method for automated and optimized file transfers among devices in a network
FI118830B (fi) * 2001-02-08 2008-03-31 Nokia Corp Tietovirran toisto
EP1263183A1 (en) 2001-06-01 2002-12-04 Alcatel Processor system, method and computer program product for monitoring remote terminal
US20050005308A1 (en) 2002-01-29 2005-01-06 Gotuit Video, Inc. Methods and apparatus for recording and replaying sports broadcasts
US20030069991A1 (en) * 2001-10-09 2003-04-10 Brescia Paul T. Location-based address provision
US7739601B1 (en) 2002-01-23 2010-06-15 Microsoft Corporation Media authoring and presentation
GB2402247B (en) 2002-02-25 2005-11-16 Sony Electronics Inc Sample group metadata for multimedia data
US7451229B2 (en) 2002-06-24 2008-11-11 Microsoft Corporation System and method for embedding a streaming media format header within a session description message
US7418494B2 (en) 2002-07-25 2008-08-26 Intellectual Ventures Holding 40 Llc Method and system for background replication of data objects
KR100486713B1 (ko) 2002-09-17 2005-05-03 삼성전자주식회사 멀티미디어 스트리밍 장치 및 방법
US7535900B2 (en) 2003-01-21 2009-05-19 Symmetricom, Inc. Multiple transmission bandwidth streams with defferentiated quality of service
US7606928B2 (en) * 2003-03-21 2009-10-20 Nokia Corporation Method and device for controlling receiver buffer fullness level in multimedia streaming
KR20040096718A (ko) 2003-05-10 2004-11-17 삼성전자주식회사 멀티미디어 데이터 재생장치, 오디오 데이터 수신방법 및오디오 데이터 구조
JP4340483B2 (ja) 2003-06-27 2009-10-07 富士通株式会社 複合コンテンツの配信方法および配信システム
JP2005071318A (ja) 2003-08-01 2005-03-17 Toshiyuki Yamamoto ホームページ管理装置
US20050102371A1 (en) * 2003-11-07 2005-05-12 Emre Aksu Streaming from a server to a client
KR100563659B1 (ko) 2003-12-09 2006-03-23 한국전자통신연구원 실시간 스트리밍 서비스 장치
KR101022471B1 (ko) 2004-01-17 2011-03-16 삼성전자주식회사 멀티미디어 데이터를 기록한 정보저장매체, 그 재생방법및 재생장치
US8218439B2 (en) * 2004-11-24 2012-07-10 Sharp Laboratories Of America, Inc. Method and apparatus for adaptive buffering
US7680785B2 (en) 2005-03-25 2010-03-16 Microsoft Corporation Systems and methods for inferring uniform resource locator (URL) normalization rules
US20060235883A1 (en) 2005-04-18 2006-10-19 Krebs Mark S Multimedia system for mobile client platforms
US20060251093A1 (en) 2005-05-03 2006-11-09 Nokia Corporation Signaling quality of service (QoS) parameters for a multimedia session
WO2007134196A2 (en) 2006-05-10 2007-11-22 Digital Fountain, Inc. Code generator and decoder using hybrid codes
US9209934B2 (en) 2006-06-09 2015-12-08 Qualcomm Incorporated Enhanced block-request streaming using cooperative parallel HTTP and forward error correction
US9380096B2 (en) * 2006-06-09 2016-06-28 Qualcomm Incorporated Enhanced block-request streaming system for handling low-latency streaming
US9386064B2 (en) 2006-06-09 2016-07-05 Qualcomm Incorporated Enhanced block-request streaming using URL templates and construction rules
US9432433B2 (en) 2006-06-09 2016-08-30 Qualcomm Incorporated Enhanced block-request streaming system using signaling or block creation
US20080034424A1 (en) 2006-07-20 2008-02-07 Kevin Overcash System and method of preventing web applications threats
US7711797B1 (en) 2006-07-31 2010-05-04 Juniper Networks, Inc. Optimizing batch size for prefetching data over wide area networks
KR20080018778A (ko) 2006-08-25 2008-02-28 삼성전자주식회사 Av 컨텐츠를 세그먼트 단위로 실행하는 방법, 제어포인트 장치 및 홈 네트워크 시스템
CN101155260A (zh) 2006-09-30 2008-04-02 华为技术有限公司 电子设备的控制方法、鉴权方法和服务器
US20080155602A1 (en) 2006-12-21 2008-06-26 Jean-Luc Collet Method and system for preferred content identification
US8069260B2 (en) 2007-01-12 2011-11-29 Microsoft Corporation Dynamic buffer settings for media playback
US8533310B2 (en) 2007-03-09 2013-09-10 Riverbed Technology, Inc. Method and apparatus for acceleration by prefetching associated objects
JP2008259001A (ja) 2007-04-06 2008-10-23 Japan Radio Co Ltd ディジタルコンテンツ配信システム
US9542394B2 (en) 2007-06-14 2017-01-10 Excalibur Ip, Llc Method and system for media-based event generation
US8635360B2 (en) 2007-10-19 2014-01-21 Google Inc. Media playback point seeking using data range requests
US20090157859A1 (en) 2007-12-17 2009-06-18 Morris Robert P Methods And Systems For Accessing A Resource Based On URN Scheme Modifiers
WO2009078810A1 (en) * 2007-12-19 2009-06-25 Linda Seah Contact-less and dual interface inlays and methods for producing the same
US8365271B2 (en) 2008-02-27 2013-01-29 International Business Machines Corporation Controlling access of a client system to access protected remote resources supporting relative URLs
US7860996B2 (en) 2008-05-30 2010-12-28 Microsoft Corporation Media streaming with seamless ad insertion
US20100011274A1 (en) * 2008-06-12 2010-01-14 Qualcomm Incorporated Hypothetical fec decoder and signalling for decoding control
KR20100040545A (ko) * 2008-10-10 2010-04-20 삼성전자주식회사 구조화된 리치 미디어 데이터 기반의 사용자 인터페이스를 제공하기 위한 장치 및 방법
US20100107090A1 (en) 2008-10-27 2010-04-29 Camille Hearst Remote linking to media asset groups
EP2351325B1 (en) * 2008-10-30 2018-09-26 Nokia Technologies Oy Method and apparatus for interleaving a data block
US8209609B2 (en) 2008-12-23 2012-06-26 Intel Corporation Audio-visual search and browse interface (AVSBI)
US20100169458A1 (en) 2008-12-31 2010-07-01 David Biderman Real-Time or Near Real-Time Streaming
US9281847B2 (en) 2009-02-27 2016-03-08 Qualcomm Incorporated Mobile reception of digital video broadcasting—terrestrial services
US8909806B2 (en) 2009-03-16 2014-12-09 Microsoft Corporation Delivering cacheable streaming media presentations
US8621044B2 (en) 2009-03-16 2013-12-31 Microsoft Corporation Smooth, stateless client media streaming
US8793282B2 (en) 2009-04-14 2014-07-29 Disney Enterprises, Inc. Real-time media presentation using metadata clips
US9538220B2 (en) 2009-06-12 2017-01-03 Wi-Lan Labs, Inc. Video streaming quality of experience degradation control using a video quality metric
US20130290492A1 (en) 2009-06-12 2013-10-31 Cygnus Broadband, Inc. State management for video streaming quality of experience degradation control and recovery using a video quality metric
US20130298170A1 (en) 2009-06-12 2013-11-07 Cygnus Broadband, Inc. Video streaming quality of experience recovery using a video quality metric
US8201204B2 (en) 2009-07-31 2012-06-12 Cisco Technology, Inc. Minimizing black video segments during ad insertion
US9015564B2 (en) 2009-08-19 2015-04-21 Qualcomm Incorporated Content delivery system with allocation of source data and repair data among HTTP servers
US9917874B2 (en) 2009-09-22 2018-03-13 Qualcomm Incorporated Enhanced block-request streaming using block partitioning or request controls for improved client-side handling
US20110096828A1 (en) 2009-09-22 2011-04-28 Qualcomm Incorporated Enhanced block-request streaming using scalable encoding
US9237387B2 (en) 2009-10-06 2016-01-12 Microsoft Technology Licensing, Llc Low latency cacheable media streaming
RU2622621C2 (ru) 2009-11-04 2017-06-16 Амотек Ко., Лтд. Система и способ для потоковой передачи воспроизводимого контента
CN102687518B (zh) 2009-12-11 2016-06-01 诺基亚技术有限公司 用于流媒体文件内表示的描述和定时的装置及方法
CA2786812C (en) 2010-01-18 2018-03-20 Telefonaktiebolaget L M Ericsson (Publ) Method and arrangement for supporting playout of content
JP5996439B2 (ja) 2010-02-19 2016-09-21 テレフオンアクチーボラゲット エルエム エリクソン(パブル) Httpストリーミングにおける表現切り替えのための方法及び装置
US9596522B2 (en) 2010-06-04 2017-03-14 Mobitv, Inc. Fragmented file structure for live media stream delivery
US8918533B2 (en) * 2010-07-13 2014-12-23 Qualcomm Incorporated Video switching for streaming video data
US9185439B2 (en) 2010-07-15 2015-11-10 Qualcomm Incorporated Signaling data for multiplexing video components
WO2012010928A1 (en) 2010-07-20 2012-01-26 Nokia Corporation A media streaming apparatus
US8782268B2 (en) 2010-07-20 2014-07-15 Microsoft Corporation Dynamic composition of media
KR20120034550A (ko) * 2010-07-20 2012-04-12 한국전자통신연구원 스트리밍 컨텐츠 제공 장치 및 방법
US20130117413A1 (en) 2010-07-20 2013-05-09 Sharp Kabushiki Kaisha Content distribution device, content playback device, content distribution system, method for controlling a content distribution device, control program, and recording medium
US9131033B2 (en) 2010-07-20 2015-09-08 Qualcomm Incoporated Providing sequence data sets for streaming video data
TW201210325A (en) 2010-07-21 2012-03-01 Nokia Corp Method and apparatus for indicating switching points in a streaming session
US8190677B2 (en) 2010-07-23 2012-05-29 Seawell Networks Inc. Methods and systems for scalable video delivery
US9160978B2 (en) 2010-08-10 2015-10-13 Google Technology Holdings LLC Method and apparatus related to variable duration media segments
US9319448B2 (en) 2010-08-10 2016-04-19 Qualcomm Incorporated Trick modes for network streaming of coded multimedia data
US9467493B2 (en) 2010-09-06 2016-10-11 Electronics And Telecommunication Research Institute Apparatus and method for providing streaming content
KR101206111B1 (ko) 2010-09-06 2012-11-28 한국항공대학교산학협력단 스트리밍 콘텐츠 제공 장치 및 방법
EP2614653A4 (en) 2010-09-10 2015-04-15 Nokia Corp METHOD AND APPARATUS FOR ADAPTIVE CONTINUOUS DIFFUSION
KR101206698B1 (ko) 2010-10-06 2012-11-30 한국항공대학교산학협력단 스트리밍 콘텐츠 제공 장치 및 방법
US20120124179A1 (en) 2010-11-12 2012-05-17 Realnetworks, Inc. Traffic management in adaptive streaming protocols
US8812621B2 (en) 2011-05-03 2014-08-19 Cisco Technology, Inc. Reducing fetching load on cache servers in adaptive streaming
JP2013038766A (ja) 2011-07-12 2013-02-21 Sharp Corp 送信装置、送信装置の制御方法、制御プログラム、及び記録媒体
US20130042100A1 (en) 2011-08-09 2013-02-14 Nokia Corporation Method and apparatus for forced playback in http streaming
US8468145B2 (en) 2011-09-16 2013-06-18 Google Inc. Indexing of URLs with fragments
US20130182643A1 (en) 2012-01-16 2013-07-18 Qualcomm Incorporated Method and system for transitions of broadcast dash service receptions between unicast and broadcast
CN104040993A (zh) 2012-01-17 2014-09-10 瑞典爱立信有限公司 用于发送相应地接收媒体流的方法
US9264481B2 (en) 2012-03-30 2016-02-16 Qualcomm Incorporated Responding to hypertext transfer protocol (HTTP) requests
FR2996715A1 (fr) 2012-10-09 2014-04-11 France Telecom Heritage de parametres d'identifiant universel de ressource (uri)
US20140258861A1 (en) 2013-03-08 2014-09-11 James A. Baldwin Content presentation with secondary content skip
KR20150012206A (ko) 2013-07-24 2015-02-03 한국전자통신연구원 3차원 콘텐츠의 부호화 방법 및 장치
CN106034262B (zh) 2015-03-13 2021-01-22 中兴通讯股份有限公司 自适应流媒体处理方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
None

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104255010B (zh) * 2012-04-27 2017-01-25 华为技术有限公司 用于在模板模式下有效支持短加密区间的系统和方法
CN104255010A (zh) * 2012-04-27 2014-12-31 华为技术有限公司 用于在模板模式下有效支持短加密区间的系统和方法
US10171233B2 (en) 2012-04-27 2019-01-01 Futurewei Technologies, Inc. System and method for efficient support for short cryptoperiods in template mode
CN104704793A (zh) * 2012-08-14 2015-06-10 瑞典爱立信有限公司 多媒体数据的处理
CN104704793B (zh) * 2012-08-14 2018-05-25 瑞典爱立信有限公司 用于多媒体数据的处理的方法和装置
CN104718763A (zh) * 2012-10-09 2015-06-17 奥林奇公司 统一资源标识符(uri)参数的遗传
CN104718763B (zh) * 2012-10-09 2018-08-28 奥林奇公司 统一资源标识符(uri)参数的遗传
US9749375B2 (en) 2013-01-16 2017-08-29 Futurewei Technologies, Inc. URL parameter insertion and addition in adaptive streaming
US10148714B2 (en) 2013-01-16 2018-12-04 Futurewei Technologies, Inc. URL parameter insertion and addition in adaptive streaming
KR20160134880A (ko) * 2013-01-16 2016-11-23 후아웨이 테크놀러지 컴퍼니 리미티드 적응형 스트리밍에 있어서 url 파라미터의 삽입과 추가
KR101692685B1 (ko) * 2013-01-16 2017-01-03 후아웨이 테크놀러지 컴퍼니 리미티드 적응형 스트리밍에 있어서 url 파라미터의 삽입과 추가
WO2014113604A1 (en) * 2013-01-16 2014-07-24 Huawei Technologies Co., Ltd. Url parameter insertion and addition in adaptive streaming
CN108540834B (zh) * 2013-01-16 2021-04-20 华为技术有限公司 由用户端设备实现的媒体内容流的方法和装置
EP3073712A1 (en) * 2013-01-16 2016-09-28 Huawei Technologies Co., Ltd. Url parameter insertion and addition in adaptive streaming
CN104956645A (zh) * 2013-01-16 2015-09-30 华为技术有限公司 自适应流中的url参数插入和添加
CN108540834A (zh) * 2013-01-16 2018-09-14 华为技术有限公司 自适应流中的url参数插入和添加
JP2016509421A (ja) * 2013-01-18 2016-03-24 ホアウェイ・テクノロジーズ・カンパニー・リミテッド メディアコンテンツに適応ストリーミングを実行するための方法及び装置
CN104937583A (zh) * 2013-01-18 2015-09-23 华为技术有限公司 一种对媒体内容进行自适应的方法和装置
US9917872B2 (en) 2013-01-18 2018-03-13 Futurewei Technologies, Inc. Method and apparatus for performing adaptive streaming on media contents
EP2932397A4 (en) * 2013-01-18 2015-12-30 Huawei Tech Co Ltd METHOD AND DEVICE FOR PERFORMING ADAPTIVE STREAMING IN MEDIA CONTENT
RU2652789C2 (ru) * 2013-04-19 2018-05-03 Сони Корпорейшн Устройство обработки информации, способ запроса содержания и компьютерная программа
RU2668549C2 (ru) * 2013-04-19 2018-10-02 Сони Корпорейшн Устройство сервера, устройство клиент, способ распределения содержания и компьютерная программа
RU2755145C2 (ru) * 2013-04-19 2021-09-13 Сони Корпорейшн Устройство обработки информации, способ запроса содержания и компьютерная программа
WO2017150753A1 (ko) * 2016-03-04 2017-09-08 주식회사 큐버 동적 적응 버퍼링 기반의 ott 데이터 처리 방법
CN107682436A (zh) * 2017-10-09 2018-02-09 武汉斗鱼网络科技有限公司 一种更新文件的方法、装置和设备

Also Published As

Publication number Publication date
US20130124749A1 (en) 2013-05-16
EP3441932A1 (en) 2019-02-13
CN103181181A (zh) 2013-06-26
CN108513143A (zh) 2018-09-07
WO2012011743A3 (ko) 2012-05-24
US20160198013A1 (en) 2016-07-07
US9325558B2 (en) 2016-04-26
US10819815B2 (en) 2020-10-27
US20190124173A1 (en) 2019-04-25
EP2597884A2 (en) 2013-05-29
KR20120034550A (ko) 2012-04-12
EP2597884A4 (en) 2013-12-04
US20190075179A1 (en) 2019-03-07
US10362130B2 (en) 2019-07-23

Similar Documents

Publication Publication Date Title
WO2012011743A2 (ko) 스트리밍 컨텐츠 제공 장치 및 방법
WO2012033319A2 (ko) 스트리밍 컨텐츠 제공 장치 및 방법
WO2012047028A2 (ko) 스트리밍 컨텐츠 제공 장치 및 방법
WO2012125006A2 (ko) 레프리젠테이션을 사용하는 스트리밍 콘텐츠 제공 장치 및 방법
WO2016018042A1 (en) Apparatus and method for transmitting/receiving processes of a broadcast signal
WO2014003394A1 (en) Apparatus and method for processing an interactive service
WO2011034283A1 (en) Method of processing epg metadata in network device and the network device for controlling the same
WO2014030924A1 (en) Apparatus and method for processing an interactive service
WO2014003515A1 (ko) 멀티미디어 시스템에서 적응적 미디어 구조 송신 방법 및 장치
WO2016093586A1 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
WO2010008233A2 (ko) 실감 효과 표현 방법 및 그 장치 및 사용자 환경 정보 메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록 매체
WO2014042368A1 (en) Apparatus and method for processing an interactive service
WO2018169101A1 (ko) 방송 신호 수신 장치 및 방송 신호 수신 방법
EP2926568A1 (en) Apparatus and method for processing an interactive service
WO2011129641A2 (en) Purchase transaction method for iptv product and iptv receiver thereof
EP2868106A1 (en) A method and an apparatus for processing a broadcast signal including an interactive broadcast service
WO2015199468A1 (ko) 방송 신호 송/수신 처리 방법 및 장치
EP2761880A2 (en) Method and apparatus for transmitting and receiving content
WO2010008235A2 (ko) 실감 효과 표현 방법 및 그 장치 및 실감 기기 제어 메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록 매체
WO2016171518A2 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
WO2017061796A1 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
WO2016064150A1 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
WO2016163772A2 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
WO2016108606A1 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
WO2017200322A1 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11809870

Country of ref document: EP

Kind code of ref document: A2

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 13811376

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2011809870

Country of ref document: EP