WO2012125006A2 - 레프리젠테이션을 사용하는 스트리밍 콘텐츠 제공 장치 및 방법 - Google Patents

레프리젠테이션을 사용하는 스트리밍 콘텐츠 제공 장치 및 방법 Download PDF

Info

Publication number
WO2012125006A2
WO2012125006A2 PCT/KR2012/001922 KR2012001922W WO2012125006A2 WO 2012125006 A2 WO2012125006 A2 WO 2012125006A2 KR 2012001922 W KR2012001922 W KR 2012001922W WO 2012125006 A2 WO2012125006 A2 WO 2012125006A2
Authority
WO
WIPO (PCT)
Prior art keywords
media
representations
representation
attribute
metadata
Prior art date
Application number
PCT/KR2012/001922
Other languages
English (en)
French (fr)
Other versions
WO2012125006A3 (ko
Inventor
탕쯔엉꽁
이진영
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=47113237&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=WO2012125006(A2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to CN201280013527.7A priority Critical patent/CN103493499B/zh
Priority to EP12756927.5A priority patent/EP2688297A4/en
Priority to US14/004,644 priority patent/US9860293B2/en
Publication of WO2012125006A2 publication Critical patent/WO2012125006A2/ko
Publication of WO2012125006A3 publication Critical patent/WO2012125006A3/ko
Priority to US15/834,702 priority patent/US10122780B2/en
Priority to US16/168,933 priority patent/US10270830B2/en
Priority to US16/229,092 priority patent/US10313414B2/en
Priority to US16/386,609 priority patent/US10645136B2/en
Priority to US16/861,912 priority patent/US11082470B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/61Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
    • H04L65/612Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio for unicast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • H04L65/756Media network packet handling adapting media to device capabilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • H04L65/762Media network packet handling at the source 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/23439Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements for generating different versions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25808Management of client data
    • H04N21/25825Management of client data involving client display capabilities, e.g. screen resolution of a mobile phone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6106Network physical structure; Signal processing specially adapted to the downstream path of the transmission network
    • H04N21/6125Network physical structure; Signal processing specially adapted to the downstream path of the transmission network involving transmission via Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8543Content authoring using a description language, e.g. Multimedia and Hypermedia information coding Expert Group [MHEG], eXtensible Markup Language [XML]

Definitions

  • the technical field of the present invention relates to streaming content providing technology, and more particularly, to an apparatus and method for providing media content using representation of media content.
  • Streaming is one of the methods for transmitting and playing multimedia content such as sound and video.
  • the client can play the content while receiving the content through streaming.
  • the adaptive streaming service means providing a streaming service through a communication scheme consisting of a client request and a server response to the request.
  • the client may request a media sequence suitable for its environment (for example, its transport channel) through an adaptive streaming service, and the server may select a media sequence that matches the client's request among various quality media sequences that it has. Can provide.
  • the adaptive streaming service can be provided based on various protocols.
  • the HTTP adaptive streaming service refers to an adaptive streaming service provided based on the HTTP protocol.
  • Clients of the HTTP adaptive streaming service can be provided with content from a server using the HTTP protocol, and can send a request related to the streaming service to the server.
  • One embodiment of the present invention can provide an apparatus and method for playing media content using representations including accessibility information.
  • One embodiment of the present invention can provide an apparatus and method for playing media content using information describing a relationship between representations of the media content.
  • One embodiment of the present invention may provide an apparatus and method for playing media content using information of different representations for terminals having different display bit depths.
  • receiving metadata of media content comprising one or more periods, accessing segments of the media based on the information provided by the metadata and the media content included in the segments Decoding and rendering data of each cycle, wherein each cycle includes one or more representations of the media, each representation containing information for assisting persons with disabilities who have difficulty in perceiving the media content.
  • Including the media providing method is provided.
  • the media component of the representation is increased to address the problem of the handicapped, the increase being one or more of an increase in contrast and an increase in color correction.
  • the information indicates the intended use of the representation and the intended use is one or more of sign language, subtitles, captions, and description.
  • the information may include an attribute that provides a reference to an external MPEG-21 Digital Item Adaptation (DIA).
  • DIA Digital Item Adaptation
  • a first representation of the one or more representations may include an attribute indicating a list of representations of some of the one or more representations, wherein the first representation is the portion of the representation Can be used with one of the presentations.
  • the first representation may be a representation for audio description.
  • the some representations may each be representations of a video component.
  • the first representation of the one or more representations may include an attribute indicating a list of representations of some of the one or more representations.
  • One representation of the some representations may be used in place of the first representation.
  • receiving metadata of media content including one or more periods, accessing segments of the media based on information provided by the metadata, and including within the segments Decoding and rendering data of media content, each period comprising one or more representations of the media, each representation selecting a different representation for terminals with different display bit depths.
  • a media presentation method can be provided that includes a bit depth attribute used for the purpose.
  • the bit depth attribute may indicate the number of bits for representing luma / chroma samples of visual content.
  • receiving metadata of media content including one or more periods, receiving segments of the media based on information provided by the metadata, and receiving the data of the media included in the segments.
  • a media engine that receives data of the media from the access engine and outputs the media, wherein each cycle includes one or more representations of the media, each representation comprising the media;
  • a terminal may be provided that includes information to assist disabled people who have difficulty in perceiving content.
  • receiving metadata of media content including one or more periods, receiving segments of the media based on information provided by the metadata, and receiving the data of the media included in the segments.
  • a media engine that receives data of the media from the access engine and outputs the media, wherein each cycle includes one or more representations of the media, and wherein the metadata includes the one or more representations of the media;
  • a terminal may be provided that includes an attribute that describes a relationship between representations.
  • receiving metadata of media content including one or more periods, receiving segments of the media based on information provided by the metadata, and receiving the data of the media included in the segments.
  • a media engine that receives data of the media from the access engine and outputs the media, wherein each cycle includes one or more representations of the media, each representation having a different display;
  • a terminal may be provided that includes a bit depth attribute used to select a different representation for terminals with bit depths.
  • the method and apparatus according to an embodiment of the present invention may play media content using representations that include accessibility information.
  • the method and apparatus according to an embodiment of the present invention may play the media content using information describing the relationship between the representations of the media content.
  • the method and apparatus according to an embodiment of the present invention can play media content using information of different representations for terminals with different display bit depths.
  • 1 shows a high-level data model of DASH.
  • FIG. 2 is a signal flowchart of a content processing method according to an embodiment of the present invention.
  • FIG 3 illustrates categories of signaling information according to an embodiment of the present invention.
  • FIG 4 illustrates layers of content divisions and levels of signaling information according to an embodiment of the present invention.
  • FIG. 5 is a structural diagram of a terminal according to an embodiment of the present invention.
  • the index of a particular element is 1 to N or 0 to N
  • the above element may be one or more.
  • N may represent an integer of 0 or more.
  • Dynamic Adaptive Streaming over HTTP allows 1) the delivery of media content from a standard HTTP server to an HTTP client, and 2) by standard HTTP caches. Formats may be specified that allow caching of content.
  • the format may be an XML format or a binary format.
  • the media content may be a Honey content's media content period or a contiguous sequence of media content periods.
  • media content, media and content may be used interchangeably with each other.
  • Media content may be a collection of media content components having a common timeline, such as video, audio, and subtitles, for example.
  • media components may have relationships as a program or movie (eg, individually, jointly, or mutually exclusive).
  • the media content may be content on demand or live content.
  • the content may be divided into one or more intervals. That is, content can include one or more intervals.
  • an interval and a period may be used in the same meaning.
  • the term may be a term used in Generation Partnership Project (3GPP) adaptive HTTP streaming.
  • the period may be an interval of media presentation. Consecutive sequences of all periods can constitute a media presentation.
  • One or more intervals may be a basic unit.
  • One or more intervals may be described by signaling metadata. That is, metadata may describe each of one or more intervals.
  • the metadata may be MPD to be described later.
  • the media content component may be a subsequent component of media content with an assigned media component type.
  • Media content components may be encoded into separate media streams.
  • a media component is, for example, audio, video or timed text with specific attributes, such as bandwidth, language or resolution. It may be an encoded version of individual media types.
  • the media stream may be an encoded version of the media content component.
  • the media component type may be a single type of media content such as audio, video or text.
  • the media presentation may be a collection of data that establishes a bounded or unbounded presentation of the media content.
  • the media presentation may be a collection of data accessible to clients of DASH to provide streaming services to the user.
  • MPD can be described by MPD.
  • the media presentation may be a structured collection of data accessible to the DASH client to provide a streaming service to the user.
  • Media Presentation Description may be a stylized description of a media presentation for providing a streaming service.
  • the MPD may be a document containing metadata required by a client of DASH to construct a suitable HTTP-URL to access the segment and to provide a streaming service to the user.
  • the media presentation may include possible updates of the MPD and may be described by the MPD.
  • the MPD may be a document that contains metadata required by the DASH client to 1) access segments, and 2) configure HTTP-URLs suitable for providing a streaming service to the user.
  • HTTP-URLs can be absolute or relative.
  • the MPD may be an XML-document.
  • the MPD may define a format for informing resource identifiers for the segment.
  • the MPD may provide a context for the identified resources within the media presentation.
  • Resource identifiers may be HTTP-URL. URLs may be limited by the byte range attribute.
  • Period may be an interval of media presentation.
  • a continuous sequence of all periods may constitute a media presentation. That is, the media presentation can include one or more periods. Or, the media presentation may consist of a sequence of one or more periods.
  • Representation may be a collection and encapsulation of one or more media streams in a delivery format and may be associated with descriptive metadata.
  • the representation may be a structured collection of one or more media components within one period. That is, the representation may be one of alternative choices of a complete set or subset of media content components that make up the media content for a defined period.
  • Representation may include one or more media streams.
  • Representation may begin at the beginning of a period (ie, a period including itself) and continue to the end of the period.
  • Representation is an alternative to media content or a subset of media content, with different encoding choices, such as bitrate, resolution, language, codec, and the like. alternative) may be one of the choices.
  • the MPD (or MPD element) may provide descriptive information that enables the client to select one or more representations.
  • representation and media representation may be used in the same sense.
  • a segment may be the smallest accessible unit in an MPD with a defined format.
  • segments and media segments may be used in the same sense.
  • Each interval may be divided into segments.
  • segments and fragments may be used in the same sense.
  • Segment may be a term of Generation Partnership Project (3GPP) adaptive HTTP streaming.
  • a segment may be an object (eg, an object in response to an HTTP / 1.1 GET request for an HTTP-URL (or a GET request for a portion indicated by a byte range), as defined in RFC 2616).
  • entity may refer to a body.
  • the terminal can play the media content using the received bytes (ie, the segment).
  • a sub-segment can mean the smallest unit in segments that can be indexed by a segment index at the segment level.
  • the sub-representation may be part of the representation described in the MPD staged over the entire period.
  • Random Access Point is a specific location within a media segment.
  • the RAP is identified as being a location that can continue playback from the location of the RAP using only the information contained within the media segment.
  • Dynamic Adaptive Streaming over HTTP may provide a media-streaming model for the delivery of media content.
  • the client can exclusively control the session of the delivery.
  • the client can use the HTTP protocol to request data from a standard web server without DASH-specific functions.
  • the DASH standard can focus on the data format used to provide the DASH media presentation.
  • a collection of encoded and deliverable versions of media content and appropriate descriptions of these versions can form a media presentation.
  • Media content may consist of one or more media content cycles that continue over time.
  • Each media content period may consist of one or more media content components.
  • audio components and video components in various languages may be examples of one or more media content components.
  • Each media content component may be assigned a media content component type.
  • An example of a media content component type may be audio or video.
  • Each media content component may have one or more encoded versions.
  • the encoded version of the media content component may be named a media stream.
  • Each media stream may inherit the properties of media content, media content cycles, or media content used for encoding the media stream.
  • the media stream may be assigned properties of an encoding process, such as, for example, sub-sampling, codec parameters, encoding bitrate, and the like.
  • the metadata may change depending on the static or dynamic choice for media content components and media streams.
  • 1 shows a high-level data model of DASH.
  • DASH may be based on a hierarchical data model such as shown in FIG. 1.
  • DASH media presentation can be described by an MPD document.
  • the MPD may describe a sequence of periods over time.
  • the sequence of periods can make a media presentation.
  • the cycle may generally represent the media content cycle while a consistent set of encoded versions of the media content is available. That is, bitrates, languages, captions and subtitles may not be changed during one period.
  • the period may include one or more adaptation sets.
  • the adaptation set may represent a set of replaceable encoded versions of one or more media content components. For example, there may be one adaptation set for the primary video component, and there may be one separate adaptation set for the primary audio component. For example, if there are other available materials, such as captions and audio descriptions, the other available materials may have separate adaptation sets.
  • the adaptation set may include one or more representations.
  • Representation may describe a deliverable encoded version of one or more media components.
  • Representation may include one or more media streams. Any single representation in the adaptation set may be sufficient to render the included media content components.
  • a client can switch from one representation to another to adapt to network conditions or other factors within one period. The client may ignore representations that the client itself does not support or rely on for some reason not suitable codec or other rendering techniques.
  • the content can be divided into segments over time. That is, the representation may include one or more segments.
  • a segment may be the basic unit of data, as represented in the MPD.
  • the URL of each segment may be provided. Providing the URL of a segment may mean that the segment is the largest unit of data that can be retrieved by a single HTTP request.
  • the MPD may include a byte range of the URL along with the URL. Thus, a segment may be included within the byte range of another larger resource.
  • MPD may comprise a chain of one or more periods.
  • Each period may comprise one or more adaptation sets. If the adaptation includes one or more media content components, each media content component can be defined individually.
  • Each adaptation set may include one or more representations.
  • Each representation may include one or more sub-representations.
  • Each representation may include one or more segments.
  • the segment may comprise metadata for accessing, decoding and displaying the media data and / or the included media content.
  • Adaptation sets, representations, and sub-representations may share common attributes and elements.
  • Each segment may comprise one or more subsegments.
  • An MPD document representing an MPD may contain an MPD element.
  • Table 1 below may represent the XML schema of the MPD according to an example.
  • Table 1 may represent an initial part of the XML schema of the MPD. Initial portions of the above may include namespaces and other definitions.
  • Mechanisms for referencing remote elements from the local MPD may be defined.
  • a subset of W3C XLIM simple links with 1) limited syntax and semantics, and 2) a processing model can be defined.
  • the XLINK attributes used as part of ISO / IEC 23009 may be as follows.
  • the xlink: type attribute can define the type of W3C XLINK that is used.
  • the xlink: href attribute can use a URI to identify a remote element, as defined in IETF RFC 3986.
  • the xlink: show attribute can define the desired behavior when a remote element is dereferenced once in the MPD, as defined by the W3C XLINK.
  • the xlink: actuate attribute may define the desired timing at which the remote object is referenced in the MPD, as defined in W3C XLINK.
  • Table 2 below may represent an XML schema of XLINK according to an example.
  • href attribute may be as follows:
  • URI references to remote elements that cannot be resolved may be treated as invalid references and invalidate the MPD.
  • URI references to remote elements that are inappropriate targets for a given reference may be treated as invalid references and may invalidate the MPD.
  • URI references referencing themselves directly or indirectly may be treated as invalid circular references and may invalidate the MPD.
  • Any reference to the remote element can be an HTTP-URL.
  • URI reference is relative
  • reference resolution may apply.
  • the MPD element may have the following attributes.
  • the id attribute may specify an identifier of the media presentation.
  • the id attribute may be an identifier that is unique within the scope of the published MIDI presentation.
  • the type attribute may specify whether the MPD can be updated.
  • the mediaPresentationDuration attribute may specify the duration of the entire media presentation. If the mediaPresentationDuration attribute is absent, the duration of the media presentation may be unknown.
  • the maxSegmentDuration attribute may specify the maximum duration of any segment in any representation in the media presentation.
  • the MPD element may have the following elements.
  • the ProgramInformation element may have an index of 0 to N and may specify descriptive information about the program. Having an index of N may mean that the number of instances of the element may be up to unlimited. Having an index of zero may mean that an element is optional. Having an index of at least 1 may indicate that the element is mandatory. That is, the range of the index may indicate an occurrence number or cardinality.
  • the BaseURL element may have an index of 0 to N and may specify a base URL that may be used for reference resolution and alternative URL selection.
  • the Location element may have an index of 0 to N and may specify a location available to the MPD.
  • the Period element may have an index of 1 to N and may specify information of a period.
  • the Metrics element may have an index of 0 to N and may specify DASH metrics.
  • Table 3 below may indicate XML syntax of an MPD element according to an example.
  • the media presentation may include one or more periods.
  • the period may be defined by the Period element within the MPD element.
  • the period may be divided into a regular period and an early available period.
  • PeriodStart time of the regular period may be defined as follows.
  • the period may be a regular period and the PeriodStart time may be equal to the value of the start attribute.
  • the period may be a regular period.
  • the start time of the period PeriodStart may be the sum of the start time of the previous period and the value of the duration attribute of the previous period.
  • the PeriodStart time may be zero.
  • the start attribute is absent, 2) the previous Period element does not contain a duration attribute, or the Period element is the first in the MPD, and 3) the MPD's type attribute is 'dynamic' May be an early available cycle.
  • Period element can have the following attributes.
  • the xlink: href attribute may specify a reference to an external Period element.
  • the xlink: actuate attribute may specify processing instructions.
  • the value of the link: actuate attribute may be "onload” or "onRequest”.
  • the id attribute may specify an identifier of a cycle.
  • the id attribute may be an identifier that is unique within the scope of the MIDI presentation.
  • the start attribute may specify the PeriodStart time of the period.
  • the PeriodStart time can be used as an anchor to determine the MPD start time of each media segment and can be used to determine the presentation time of each access unit in the media presentation timeline.
  • the duration attribute may specify a duration of a period for determining a PeriodStart time of a next period.
  • Period element may have the following elements.
  • the BaseURL element may have an index of 0 to N and may be used for reference solution and alternative URL selection.
  • AdaptationSet element may have an index of 1 to N, and may specify information of the adaptation set.
  • the Subset element may have an index of 0 to N and may specify a subset.
  • Table 4 below may indicate XML syntax of a Period element according to an example.
  • Each period may include more than one adaptation sets.
  • the adaptation set may be described by the AdaptationSet element included in the Period element.
  • the adaptation set may include alternative encodings of one or more media components. Each alternative encoding may be included in the representation.
  • One or more representations included in one adaptation set may represent the same media content component and may include one or more media streams that are considered perceptually the same.
  • Representations of one ashing may be arranged in an adaptation set according to media content component properties presented within the one or more representations above.
  • the media content component properties are assigned to 1) the language described by the lang attribute, 2) the media content type described by the contentType attribute, 3) the picture aspect ratio described by the par attribute, and 4) the Role element.
  • the AdaptationSet element may include basic values of elements and attributes associated with one or more representations that the adaptation set includes.
  • a list of possible present elements and attributes common to the AdaptationSet element and the Representation element is described below.
  • the Adaptation element may support the description of a range for the bandwidth attribute, width attribute, height attribute, and framerate attribute associated with one or more representations included in the adaptation set.
  • the above description may provide a summary of all values for all of the one or more representations that the adaptation set includes.
  • One or more representations that an adaptation set includes may not have values outside the range defined within the adaptation set.
  • the adaptation set can be classified into groups by using the group attribute.
  • AdaptationSet element may have the following attributes.
  • the xlink: href attribute may specify a reference to an external AdaptationSet element.
  • the xlink: actuate attribute may specify processing instructions.
  • the value of the link: actuate attribute may be "onload” or "onRequest”.
  • the id attribute may specify an identifier of the adaptation set within a range of periods.
  • the id attribute may be an identifier that is unique within the range containing the period.
  • the id attribute may be absent within the remote element.
  • the group attribute may be an identifier for a group that is unique within a range of periods.
  • the lang attribute may declare the language code (s) of the adaptation set. Syntax and semantics according to IETF RFC 5646 may be used.
  • the contentType attribute may specify the media content component type of the adaptation set.
  • the value of "type", the highest-level content-type, may be defined in RFC1521.
  • the par attribute may specify the photo length ratio.
  • the par attribute may contain two integers. If the par attribute is present, the width and height attributes of the representations may also be present.
  • the minBandWidth attribute may specify the minimum bandwidth attribute value of all representations in the adaptation set.
  • the maxBandWidth attribute may specify a maximum bandwidth attribute value of all representations in the adaptation set.
  • the minWidth attribute may specify the minimum width attribute value of all representations in the adaptation set.
  • the maxWidth attribute may specify the maximum width attribute value of all representations in the adaptation set.
  • the minHeight attribute may specify the minimum height attribute value of all representations in the adaptation set.
  • the maxHeight attribute may specify the maximum height attribute value of all representations in the adaptation set.
  • the minFrameRate attribute may specify the minimum frameRate attribute value of all representations in the adaptation set.
  • the maxFrameRate attribute may specify the maximum frameRate attribute value of all representations in the adaptation set.
  • AdaptationSet element may have the following elements.
  • Accessibility element may have an index of 0 to N and may specify information on an accessibility scheme.
  • the role element may have an index of 0 to N and may specify information on a role annotation scheme.
  • the Rating element may have an index of 0 to N and may specify information about a rating scheme.
  • the Viewpoint element may have an index of 0 to N and may specify information on the viewpoint annotation scheme.
  • the ContentComponent element may have an index of 0 to N and may specify properties of a media content component included in the adaptation set.
  • the BaseURL element may have an index of 0 to N and may be used for reference solution and alternative URL selection.
  • the Representation element may have an index of 0 to N and may specify a representation. Within each adaptation set there may be at least one representation element. The Representation element may be part of a remote element.
  • Table 5 below may indicate XML syntax of an AdaptationSet element according to an example.
  • the adaptation set may include one or more media content components. Properties of each media content component may be described by a ContentComponet element, and may be directly described by an AdaptationSet element when there is one media content component in the adaptation set.
  • the ContentComponent element may have the following attributes.
  • the id attribute may specify an identifier of a media component.
  • the id attribute can be unique within the scope of the adaptation set.
  • the lang attribute may declare the language code (s) of the media content component. Syntax and semantics according to IETF RFC 5646 may be used.
  • the contentType attribute may specify the type of the media content component.
  • the value of "type", the highest-level content-type, may be defined in RFC1521.
  • the par attribute may specify the photo length ratio.
  • the par attribute may contain two integers. If the par attribute is present, the width and height attributes of the representations may also be present.
  • the ContentComponent element may have the following element.
  • Accessibility element may have an index of 0 to N and may specify information on an accessibility scheme.
  • the role element may have an index of 0 to N and may specify information on a role annotation scheme.
  • the Rating element may have an index of 0 to N and may specify information on a ration scheme.
  • the Viewpoint element may have an index of 0 to N and may specify information on the viewpoint annotation scheme.
  • Table 6 below may indicate XML syntax of a ContentComponent element according to an example.
  • the AdaptationSet element may include one or more Representation elements.
  • the representation may be one of alternative choices of a complete set or subset of media content components that make up the media content for a defined period.
  • Representation may begin at the beginning of PeriodStart of the period and continue until the end of the period.
  • the end of the period may be the beginning of the next period or the end of the media presentation.
  • Each representation may include one or more media streams.
  • Each media stream may be an encoded version of a media content component.
  • the representation may include one or more segments.
  • the Representation element may have the following attributes. '
  • the id attribute may specify the identifier of the representation.
  • the id attribute may be unique within a range of periods unless the representation is functionally identical to other representations within the same period.
  • the id attribute may not include whitespace characters.
  • the bandwidth attribute may specify the boundary of the data rate and data rate variation of the representation.
  • the qualityRanking attribute may specify a quality ranking of the representation relative to other representations in the same adaptation set.
  • the dependencyID attribute may specify all complementary representations that depend on the decoding and / or presentation process.
  • the dependencyID attribute may be a space separated list of values of the id attributes.
  • the Representation element may have the following elements.
  • the BaseURL element may have an index of 0 to N and may be used for reference solution and alternative URL selection.
  • the SubRepresentation element may have an index of 0 to N and may specify information about a sub-representation embedded in the representation. It may be used for reference solution and alternative URL selection.
  • Table 7 below may indicate XML syntax of an AdaptationSet element according to an example.
  • Sub-representations may be embedded within regular representations and may be described by SubRepresentation elements.
  • the Representation element may include a SubRepresentation element.
  • the SubRepresentation element may describe the properties of one or more media content components embedded within the representation. Representations and sub-representations may share common attributes and elements.
  • the SubRepresentation element may have the following attributes.
  • the level attribute may specify the level of the sub-representation.
  • the dependency attribute may specify a set of sub-representations in the representation that the sub-representation depends on in the decoding and presentation process as a space separated list of values of the level attribute.
  • the bandwidth attribute is the same as the bandwidth attribute of the representation, but may be applied to the sub-representation.
  • the contentComponet attribute may specify the set of all media content components included in the sub-representation as a space separated list of values of the id attribute of the ContentComponent element.
  • Table 8 below may indicate XML syntax of a SubRepresentation element according to an example.
  • the AdaptationSet element, Representation element, and SubRepresentation element may have the following attributes in common.
  • the profile attribute may specify a profile between associated presentation (s) according to the media presentation profiles.
  • the value of the profile attribute may be a subset of any higher level value of the document hierarchy (representation, adaptation set, and MPD). If the profile attribute is absent, the value of the profile attribute may be considered equal to the value of the next higher level of the document hierarchy. For example, if the profile attribute for the representation is absent, the profile attribute for the adaptation set may be valid for the representation.
  • the width attribute may specify the horizontal visual presentation size of the video media type on the grid determined by the sar attribute. In the absence of a sar attribute, the width and height may be specified as if the value of the sar attribute is "1: 1".
  • the height attribute may specify the visual presentation size of the video media type on the grid determined by the sar attribute.
  • the sar attribute may specify an example length ratio of the video media component type.
  • the sar attribute can take the form of a string containing two integers separated by ":".
  • the first integer may specify a horizontal size based on any unit of encoded video pixels.
  • the second integer may specify a vertical size based on any unit of encoded video pixels.
  • the frameRate attribute may specify the output frame rate of the video media type in the representation. If the frame or frame rate varies, the value of the frameRate attribute may be half the average frame or average frame rate over the entire duration of the representation.
  • the audioSampleRate attribute may be a decimal integer value that specifies the sampling rate of the audio media component type, and may be a pair of decimal integer values separated by spaces indicating the minimum sampling rate and the maximum sampling rate of the audio media component type, respectively. .
  • the value of the audioSamplingRate attribute may be samples per second.
  • the mimeType attribute may specify the MIME type of the concatenation of the initial content segment.
  • the codecs attribute may specify codecs to be played within the representation.
  • the AdaptationSet element, Representation element, and SubRepresentation element may have the following elements in common.
  • the FramePacking element may have an index of 0 to N, and may specify frame-packing arrangement information of a video media component type.
  • the AudioChannelConfiguration element may have an index of 0 to N and may specify an audio channel configuration of an audio media component type.
  • the ContentProtection element which may have an index of 0 to N, specifies information about the content protection schemes used for the associated representation.
  • Table 9 below may indicate common XML syntax of an AdaptationSet element, a Representation element, and a SubRepresentation element according to an example.
  • a segment may be a minimum addressable unit that has a defined format and is described by the MPD.
  • HTTP-URL may be defined as ⁇ absolute-URI> according to RFC 3986.
  • HTTP-URL can have a fixed scheme "http: //" or "https: //" and can be limited by the byte range if the range attribute is provided in the URL.
  • the byte range may be expressed as a byte-range-spec defined in RFC 2616.
  • the byte range may be limited to a single expression that identifies a continuous range of bytes.
  • the representation may be assigned segment information through the presence of a BaseURL element, a SegmentBase element, a SegmentTemplate element, and / or a SegmentList element.
  • Segment information may provide information about the location, availability, and properties of all of the one or more segments that the presentation includes. In particular, the initial content setting, the presence and location of media, index and bitstream switching segments can be provided.
  • SegmentBase element, SegmentTemplate element, and SegmentList element may exist in Representation element.
  • the SegmentBase element, the SegmentTemplate element, and the SegmentList element may exist in a Period element or an AdaptationSet element to indicate default values. If a SegmentTemplate element or SegmentList element exists at one level of the hierarchy, it may not be present at a lower hierarchy level.
  • the SegmentBase element, SegmentTemplate element, and SegmentList element may inherit the attributes and elements of the same element at a higher level. If the same attribute or element exists at both levels, the lower level attribute or element may have precedence over the higher level attribute or element.
  • the SegmentBase element may contain sufficient information if a single media segment is provided per representation and the media segment URL is included in the BaseURL element. If multiple media segments are present, a SegmentList element or a Segment Template element sharing the multi-segment base information may be used.
  • a duration attribute or a SegmentTimeLine element may be present.
  • the segment list may be defined by one or more SegmentList elements.
  • Each SegmentList element may include a list of SegmentURL elements for a concatenated list of segment URLs.
  • Each segment URL may include a media segment URL and may include a byte range.
  • the segment URL element may include an index segment.
  • Segment templates can be defined by the SegmentTemplate element. Certain identifiers that are replaced by dynamic values to generate a list of segments may be handed to the segments.
  • Segment information may provide the following information.
  • the segment element or the child element of the segment element may include the following attributes.
  • the duration element may indicate a fixed approximate segment duration. All segments in the Representation element may have the same duration. However, the last segment in the period may have a different duration.
  • the sourceURL attribute may specify part of the source URL.
  • sourceURL may have a format of ⁇ absolute-URI> according to RFC 3986.
  • sourceURL may have a fixed scheme of ⁇ relative-ref> according to "http: //", "https: //" or RFC 3986. If the sourceURL attribute does not exist, any BaseURL element may be mapped to the sourceURL attribute. In addition, if the sourceURL attribute does not exist, a range attribute may be provided.
  • the range attribute may specify a restriction on the byte range of the HTTP-URL.
  • the byte range can be represented and formatted according to the byte-range-spec defined in RFC 2616. If the range attribute is absent, the element can refer to the entire resource referenced in the sourceURL attribute.
  • Table 10 below may show XML syntax for information related to a segment in an example.
  • the representations can be described by various metadata.
  • the characteristics of the representation may be mostly for selecting representations based on the characteristics of the terminal.
  • characteristics of the terminal may include a resolution and a connection bandwidth.
  • the accessibility characteristics of representations can be used to support disabled users who suffer from difficulties in perceiving multimedia content.
  • the following embodiment for supporting accessibility is intended to enable 1) MPEG-21 Digital Item Adaptation (DIA) accessibility description and 2) enhancement / replacement of content components. (facilitate) May contain some hints.
  • the MPEG-21 DIA accessibility description which includes the VisualImpairmentType and / or AuditoryImpairmentType elements of ISO / IEC 21000-7, provides a variety of visual or auditory impairments for the user. It makes it possible to explain the symptoms. Visual or auditory disturbances of the user may include color deficiency or low vision.
  • URIs for representations including video and / or audio content may be defined as shown in Table 11 below.
  • the URI may indicate accessibility schemes based on the accessibility definition of ISO / IEC 21000-7.
  • ⁇ value> is "s0"
  • a suitable representation is prepared in advance, and the associated accessibility description may be described by the Accessibility element. Different ways may be used to convey the above description.
  • the accessibility description may be carried by the MP21Access element and may be referenced by the xlink: href attribute defined below.
  • the representation may be used for the handicapped person in which specific symptoms of the handicapped are described by the accessibility description.
  • the media of the representation can be augmented to cope with the problem of the handicapped.
  • the increase in representation may be contrast or adjusting of color.
  • the aforementioned Accessibility element can be extended as follows.
  • the new child element "MP21Access” can be used as a container for describing MPEG-21 DIA accessibility.
  • an additional xlink: href attribute may be added to the Accessibility element to refer to an external description that includes MPEG-21 DIA accessibility elements.
  • a new attribute "use” may be employed as a hint for the client to inform the intended use of the representation for the purpose of accessibility.
  • the Group element, Adaptation Set element, Representation element, or SubRepresentation element may further have the following attributes to support accessibility.
  • use attribute may indicate the intended use of the representation (s).
  • the value of the use attribute may be signLang, subtitle, caption, description or plusDes.
  • signLang can be used as a sign language.
  • subtitle can indicate use as a subtitle.
  • caption can indicate use as a caption.
  • the caption may be a subtitle with additional description.
  • description may indicate use as a description, such as, for example, an audio description of a movie.
  • plusDesc may indicate that the content of the corresponding representation has been augmented with a description. For example, it may point to an augmented sound track including an audio description.
  • the xlink: href attribute may provide a reference to an external MPEG-21 DIA that includes the AuditoryImpairmentType and / or VisualImpairmentType elements of the ISO / IEC IS 21000-7 element.
  • the representation or representation group associated with the above description may be suitable for people with disabilities having the problems described by the above description.
  • the xlink: actuate attribute can provide processing instructions.
  • the processing instructions may be "onLoad” or "onRequest”.
  • the xlink: actuate attribute cannot exist if the xlink: href attribute is absent.
  • the Group element, Adaptation Set element, Representation element, or SubRepresentation element may further have the following elements to support accessibility.
  • the Accessibility element may have an index of 0 to N and may provide information about an accessibility information scheme.
  • the MP21Access element may have an index of 0 to 1 and may include an MPEG-21 DIA description together with AuditoryImpairmentType and / or VisualImpairmentType elements of ISO / IEC 21000-7. Representations or representation groups associated with the above description may be suitable for people with disabilities having the problems described by the above description.
  • Table 12 below may indicate XML syntax for supporting accessibility of a Group element, an Adaptation Set element, a Representation element, or a SubRepresentation element according to an example.
  • Metadata describing the relationship between representation groups is relatively rare. For example, it is difficult to tell a client which video stream a given audio description is associated with.
  • two representation groups may be conceptually equivalent, and only one representation group may have to be selected depending on the context.
  • two simple attributes are proposed for the above-mentioned purposes.
  • the metadata described below may be useful not only for accessibility but also for general adaptability.
  • the Group element, Adaptation Set element, Representation element, or SubRepresentation element may further have the following attributes to describe the relationship between representations.
  • the usedWith attribute may point to a list of one or more representations or representation groups. If the current representation or representation group is used, the usedWith attribute can be used with any item in the list above. For example, a representation group for audio description may be used with a particular representation group of video components.
  • the value of the usedWith attribute may be a whitespace-separated list. Each item in the space separated list may be an identification of one representation group or one representation.
  • the identification of the representation group may be a value of the group attribute or the adaptationSet attribute.
  • the identification of the representation may have the format of the repid attribute.
  • the repid attribute may be a value of the id attribute of the representation.
  • the equivalentTo attribute may point to a list of one or more representations or representation groups.
  • the current representation can be used in place of any of the items in the list above.
  • a representation group for subtitles can be used in place of a particular representation group of audio components.
  • the format of the equivalentTo attribute may be the same as the format of the usedWith attribute.
  • Table 13 below may indicate an XML syntax for describing a relationship between representations of a Group element, an Adaptation Set element, a Representation element, or a SubRepresentation element according to an example.
  • Bit depth may refer to the number of bits used to represent a luma / chroma sample of visual content.
  • the Group element, Adaptation Set element, Representation element, or SubRepresentation element may further have the following attributes to provide bit depth.
  • the bitDepth attribute may indicate the number of bits for representing a luma / chroma sample of visual content. For example, in different video pictures, if the bit depth varies, the value of the bitDepth attribute may be the maximum value of the bit depths.
  • Table 14 below may indicate XML syntax for supporting bit depths of a Group element, an Adaptation Set element, a Representation element, or a SubRepresentation element according to an example.
  • two attributes minBitDepth and maxBitDepth may be added to the Representation Group element or the Adaptation Set element.
  • the Representation Group element, Group element, or Adaptation Set element may further have the following attributes to describe the maximum bit depth and the minimum bit depth.
  • the xlink: href attribute may indicate a reference to an external Group element or an Adaptation Set element.
  • the xlink: actuate attribute can provide processing instructions.
  • the processing instructions may be "onLoad” or "onRequest”.
  • the minBitDepth attribute may indicate the minimum bit depth value for all representations in the group or adaptation set.
  • the maxBitDepth attribute may indicate a maximum bit depth value, for all representations in a group or adaptation set.
  • Table 15 below may indicate XML syntax for supporting a minimum bit depth value and a maximum bit depth value of a Representation Group element, a Group element, or an Adaptation Set element according to an example.
  • FIG. 2 is a signal flowchart of a content processing method according to an embodiment of the present invention.
  • the terminal 200 may be a client of the above-described DASH.
  • the client of DASH may be compatible with the client specified in RFC 2616.
  • the client of the DASH may generally use the HTTP GET method or the HTTP partial GET method, as specified in RFC 2616, to access the segments or portions of the segments.
  • Server 210 may host segments of DASH. Server 210 may be compatible with the server specified in RFC 2616.
  • the terminal 200 may receive metadata of media content from the server 210. That is, the server 210 transmits metadata about the media content to the terminal 200.
  • Media content may include one or more periods.
  • the metadata may be MPD.
  • the MPD may provide enough information for the terminal 200 to provide a streaming service to the user by accessing segments through a protocol specified within a scheme of defined resources.
  • the specified protocol may be HTTP / 1.1.
  • the server 210 may provide an MPD delivery function. MPDs may be generated in accordance with DASH media presentation preparation.
  • the terminal 200 may process the received metadata. In operation 230, the terminal 200 may extract information provided from the metadata or information included in the metadata.
  • the terminal 200 may access a segment of media content based on the information provided by the metadata.
  • Server 210 may be an HTTP server that provides a DASH segment delivery function.
  • each period may include one or more groups, and each group may include one or more representations of media content. That is, each period may include one or more representations of media content. Thus, each representation may begin at the beginning of a period that includes it and continue until the end of the period. Each representation may include one or more segments.
  • the terminal 200 may request the server 210 for a segment of media content using the URL of the segment.
  • the URL may be interpreted correlated with the base URL element described above.
  • the URL of the segment may be generated based on the base URL element.
  • the MPD provides the terminal 200 with sufficient information to provide a streaming service to the user by 1) requesting the segments from the server 210 and 2) demultiplexing, decoding and rendering the media streams contained in the segment. can do.
  • the terminal 200 may request the server 210 for a suitable segment for a specific period based on the metadata processing. That is, the requested segment may be selected based on metadata.
  • the terminal 200 may request the segment 210 from the server 210 by executing the HTTP GET method.
  • the metadata may include range attributes.
  • the request may be a request for bytes specified by a range attribute of the resource pointed to by the URL.
  • the URL of the segment can be an absolute URL or a relative URL.
  • the terminal 200 may select a period, an adaptation set, and a representation using the elements or attributes included in the metadata, and may request segments based on the selected period, the adaptation set, or the elements and attributes of the representation. Can be selected.
  • each representation may include information to assist people with disabilities who have difficulty in perceiving media content.
  • the media component of the representation can be augmented to address the problem of the handicapped.
  • the increase may be one or more of an increase in contrast and an increase in color correction.
  • the above information may indicate the intended use of the representation.
  • intended use may be one or more of sign language, subtitles, captions, and description.
  • the information may also include an attribute that provides a reference to an external MPEG-21 Digital Item Adaptation (DIA).
  • DIA MPEG-21 Digital Item Adaptation
  • the metadata may include an attribute that describes a relationship between one or more representations.
  • the first representation of the one or more representations may include an attribute that points to a list of representations of some of the one or more representations, the first representation of the some of the representations Can be used with one.
  • the first representation may be a representation for audio description, and some representations may be representations of video components, respectively.
  • the second representation of the one or more representations may include an attribute that points to a list of representations of some of the one or more representations above, and one of some of the representations above The representation of may be used in place of the second representation.
  • each representation may include a bit depth attribute used to select a different representation for terminals with different display bit depths.
  • the bit depth attribute may indicate the number of bits to represent the luma / chroma sample of the visual content.
  • server 210 needs to parse media content (eg, MP4 file for SVC) and may extract data parts suitable for the requested segment. .
  • media content eg, MP4 file for SVC
  • the server 210 may transmit appropriate segments to the terminal 200 for each request from the terminal 200.
  • the terminal 200 may receive segments from the server 210.
  • the terminal 200 may play the media by decoding and rendering data of the media included in the segment.
  • Terminal 200 may play the media using the received segment by repeating steps 220-260.
  • FIG 3 illustrates categories of signaling information according to an embodiment of the present invention.
  • the signaling information (ie, metadata) may be divided into the following categories 1) to 4).
  • General information 310 may include a general description of the content and a general description of each interval, such as, for example, duration and start time.
  • Quality of Service (QoS information) 320 Describe the characteristics of each alternative, such as bitrate, resolution, quality. That is, the quality information of the service may describe the characteristics of each of the alternatives of the content.
  • Alternatives may be physical (ie, pre-generated) and virtual (ie, generated on-the-fly). Based on the information of the alternatives, the client can select the appropriate alternative fragment. Thus, it is possible to support the adaptability to the contexts of terminals and networks.
  • Mapping Information 330 Describes locations for retrieving content. Depending on the specific cases, different alternatives may have the same or different positions.
  • Client request 340 This kind of signaling information may conform to the format of an HTTP 1.1 request message.
  • the parameters requested by the client may derive from the information of the categories 1) to 3) above.
  • FIG 4 illustrates layers of content divisions and levels of signaling information according to an embodiment of the present invention.
  • the signaling of metadata may be physically separated into content-level information 410, interval level information 420, QoS information 430, and mapping 440 information.
  • Linking of the content-level information 310, the interval level information 420, the QoS information 430, and the relevant portions of the mapping 440 may be accomplished by referencing.
  • the processing model when only content-level information 310 and interval level information 420 are sent to the client may be “server-based”.
  • Metadata parts may enable efficiency in storage and delivery. For example, during a session, metadata of content-level information 410 may be sent once, and only interval level information 420 may be updated periodically. Similarly, one file containing QoSInfo part 430 may be used for different intervals and different content.
  • FIG. 5 is a structural diagram of a terminal according to an embodiment of the present invention.
  • the structure of the terminal 100 to be described below may represent logical components of a conceptual DASH client model.
  • the terminal 100 may include an access engine 510 and a media engine 520.
  • the access engine 510 may be a DASH access engine.
  • the access engine 510 may receive metadata (eg, MPD) from the server 110.
  • metadata eg, MPD
  • the access engine 510 may configure the requests and issue the configured requests to the server 110.
  • the access engine 510 may receive the content (eg, calendar, segments, or portions of segments) from the server 110.
  • content eg, calendar, segments, or portions of segments
  • the access engine 510 can provide the content to the media engine 520.
  • the output of the access engine 510 is media (or media) of an MPEG container (e.g., ISO / IEC 14492-12 ISO Base Media File Format or ISO / IEC 13818-2 MPEG-2 Transport Stream). May be included).
  • the output of the access engine 510 may include timing information that maps the internal timing of the media to the timeline of the media presentation.
  • the access engine 510 may perform the functions described as being performed by the terminal 200 in the steps 220 to 260 described above with reference to FIG. 2.
  • the media engine 520 may play the provided content. That is, the media engine 520 may output media using the media and timing information output from the access engine 510.
  • Method according to an embodiment of the present invention is implemented in the form of program instructions that can be executed by various computer means may be recorded on a computer readable medium.
  • the computer readable medium may include program instructions, data files, data structures, etc. alone or in combination.
  • Program instructions recorded on the media may be those specially designed and constructed for the purposes of the present invention, or they may be of the kind well-known and available to those having skill in the computer software arts.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks.
  • Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.
  • the hardware device described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

Abstract

미디어 콘텐츠에 대한 메타데이터를 사용하는 적응형 HTTP 스트리밍 서비스를 위한 방법 및 장치가 개시된다. 미디어 콘텐츠는 하나 이상의 주기들의 일련으로 구성된다. 각 주기는 하나 이상의 레프리젠테이션들을 포함할 수 있다. 메타데이터는 레프리젠테이션들 간의 관계를 설명하는 정보를 포함하며, 상이한 디스플레이 비트 깊이들을 갖는 단말들을 위한 정보를 포함한다.

Description

레프리젠테이션을 사용하는 스트리밍 콘텐츠 제공 장치 및 방법
본 발명의 기술 분야는 스트리밍 콘텐츠 제공 기술에 관한 것으로, 특히, 미디어 콘텐츠의 레프리젠테이션을 사용하는 미디어 콘텐츠 제공 장치 및 방법에 관한 것이다.
스트리밍(streaming)은 소리 및 동영상 등의 멀티미디어 콘텐츠를 전송 및 재생하기 위한 방식 중 하나이다. 클라이언트는 스트리밍을 통해 콘텐츠을 수신하는 동시에 상기의 콘텐츠를 재생할 수 있다.
적응적 스트리밍 서비스는, 클라이언트의 요청 및 상기의 요청에 대한 서버의 응답으로 구성되는 통신 방식을 통해 스트리밍 서비스를 제공하는 것을 의미한다.
클라이언트는 적응적 스트리밍 서비스를 통해 자신의 환경(예컨대, 자신의 전송 채널)에 적합한 미디어 시퀀스를 요청할 수 있으며, 서버는 자신이 갖고 있는 다양한 퀄리티의 미디어 시퀀스들 중 클라이언트의 요청에 부합하는 미디어 시퀀스를 제공할 수 있다.
적응적 스트리밍 서비스는 다양한 프로토콜에 기반하여 제공될 수 있다. HTTP 적응적 스트리밍 서비스는 HTTP 프로코콜에 기반하여 제공되는 적응적 스트리밍 서비스를 의미한다. HTTP 적응적 스트리밍 서비스의 클라이언트는 HTTP 프로토콜을 사용하여 서버로부터 콘텐츠를 제공받을 수 있으며, 스트리밍 서비스와 관련된 요청을 서버에게 전송할 수 있다.
본 발명의 일 실시예는 접근성 정보를 포함하는 레프리젠테이션들을 사용하여 미디어 콘텐츠를 재생하는 장치 및 방법을 제공할 수 있다.
본 발명의 일 실시예는 미디어 콘텐츠의 레프리젠테이션들 간의 관계를 설명하는 정보를 사용하여 미디어 콘텐츠를 재생하는 장치 및 방법을 제공할 수 있다.
본 발명의 일 실시예는 상이한 디스플레이 비트 깊이들을 갖는 단말들을 위한 상이한 레프리젠테이션들의 정보를 사용하여 미디어 콘텐츠를 재생하는 장치 및 방법을 제공할 수 있다.
일 측에 따르면, 하나 이상의 주기들을 포함하는 미디어 콘텐츠의 메타데이터를 수신하는 단계, 상기 메타데이터가 제공하는 정보에 기반하여 상기 미디어의 세그먼트들에 접근하는 단계 및 상기 세그먼트들 내에 포함된 상기 미디어 콘텐츠의 데이터를 디코딩 및 렌더링하는 단계를 포함하고, 각 주기는 상기 미디어의 하나 이상의 레프리젠테이션들을 포함하고, 각 레프리젠테이션은 상기 미디어 콘텐츠를 지각함에 있어서 곤란함을 겪는 장애인들을 지원하기 위한 정보를 포함하는, 미디어 제공 방법이 제공된다.
상기 레프리젠테이션의 미디어 컴포넌트는 장애자의 문제에 대처하기 위해 증대되고, 상기의 증대는 명암 대비의 증대 및 컬러의 보정의 증대 중 하나 이상인, 미디어 제공 방법.
상기 정보는 레프리젠테이션이 의도된 사용을 나타내고, 상기 의도된 사용은 수화, 자막, 캡션 및 설명 중 하나 이상인, 미디어 제공 방법.
상기 정보는 외부의 MPEG-21 디지털 아이템 적응(Digital Item Adaptation; DIA)로의 참조를 제공하는 속성을 포함할 수 있다.
다른 일 측에 따르면, 하나 이상의 주기들을 포함하는 미디어 콘텐츠의 메타데이터를 수신하는 단계, 상기 메타데이터가 제공하는 정보에 기반하여 상기 미디어의 세그먼트들에 접근하는 단계 및 상기 세그먼트들 내에 포함된 상기 미디어 콘텐츠의 데이터를 디코딩 및 렌더링하는 단계를 포함하고, 각 주기는 상기 미디어의 하나 이상의 레프리젠테이션들을 포함하고, 상기 메타데이터는 상기 하나 이상의 레프리젠테이션들 간의 관계를 설명하는 속성을 포함하는, 미디어 제공 방법이 제공될 수 있다.
상기 하나 이상의 레프리젠테이션들 중 제1 레프리젠테이션은 상기 하나 이상의 레프리젠테이션들 중 일부의 레프리젠테이션들의 목록을 가리키는 속성을 포함할 수 있고, 상기 제1 레프리젠테이션은 상기 일부의 레프리젠테이션들 중 하나와 함께 사용될 수 있다.
상기 제1 레프리젠테이션은 오디오 설명을 위한 레프리젠테이션일 수 있다.
상기 일부의 레프리젠테이션들은 각각 비디오 컴포넌트의 레프리젠테이션일 수 있다.
상기 하나 이상의 레프리젠테이션들 중 제1 레프리젠테이션은 상기 하나 이상의 레프리젠테이션들 중 일부의 레프리젠테이션들의 목록을 가리키는 속성을 포함할 수 있다.
상기 일부의 레프리젠테이션들 중 하나의 레프리젠테이션은 상기 제1 레프리젠테이션에 대체되어 사용될 수 있다.
또 다른 일 측에 따르면, 하나 이상의 주기들을 포함하는 미디어 콘텐츠의 메타데이터를 수신하는 단계, 상기 메타데이터가 제공하는 정보에 기반하여 상기 미디어의 세그먼트들에 접근하는 단계 및 상기 세그먼트들 내에 포함된 상기 미디어 콘텐츠의 데이터를 디코딩 및 렌더링하는 단계를 포함하고, 각 주기는 상기 미디어의 하나 이상의 레프리젠테이션들을 포함하고, 각 레프리젠테이션은 상이한 디스플레이 비트 깊이들을 갖는 단말들을 위한 상이한 레프리젠테이션을 선택하기 위해 사용되는 비트 깊이 속성을 포함하는, 미디어 제공 방법이 제공될 수 있다.
상기 비트 깊이 속성은 시각적 콘텐츠의 루마/크로마 샘플을 나타내기 위한 비트들의 개수를 가리킬 수 있다.
또 다른 일 측에 따르면, 하나 이상의 주기들을 포함하는 미디어 콘텐츠의 메타데이터를 수신하고, 상기 메타데이터가 제공하는 정보에 기반하여 상기 미디어의 세그먼트들을 수신하고, 상기 세그먼트들 내에 포함된 상기 미디어의 데이터를 디코딩하는 접근 엔진 및 상기 접근 엔진으로부터 상기 미디어의 데이터를 제공받아 상기 미디어를 출력하는 미디어 엔진을 포함하고, 각 주기는 상기 미디어의 하나 이상의 레프리젠테이션들을 포함하고, 각 레프리젠테이션은 상기 미디어 콘텐츠를 지각함에 있어서 곤란함을 겪는 장애인들을 지원하기 위한 정보를 포함하는, 단말이 제공될 수 있다.
또 다른 일 측에 따르면, 하나 이상의 주기들을 포함하는 미디어 콘텐츠의 메타데이터를 수신하고, 상기 메타데이터가 제공하는 정보에 기반하여 상기 미디어의 세그먼트들을 수신하고, 상기 세그먼트들 내에 포함된 상기 미디어의 데이터를 디코딩하는 접근 엔진 및 상기 접근 엔진으로부터 상기 미디어의 데이터를 제공받아 상기 미디어를 출력하는 미디어 엔진을 포함하고, 각 주기는 상기 미디어의 하나 이상의 레프리젠테이션들을 포함하고, 상기 메타데이터는 상기 하나 이상의 레프리젠테이션들 간의 관계를 설명하는 속성을 포함하는, 단말이 제공될 수 있다.
또 다른 일 측에 따르면, 하나 이상의 주기들을 포함하는 미디어 콘텐츠의 메타데이터를 수신하고, 상기 메타데이터가 제공하는 정보에 기반하여 상기 미디어의 세그먼트들을 수신하고, 상기 세그먼트들 내에 포함된 상기 미디어의 데이터를 디코딩하는 접근 엔진 및 상기 접근 엔진으로부터 상기 미디어의 데이터를 제공받아 상기 미디어를 출력하는 미디어 엔진을 포함하고, 각 주기는 상기 미디어의 하나 이상의 레프리젠테이션들을 포함하고, 각 레프리젠테이션은 상이한 디스플레이 비트 깊이들을 갖는 단말들을 위한 상이한 레프리젠테이션을 선택하기 위해 사용되는 비트 깊이 속성을 포함하는, 단말이 제공될 수 있다.
본 발명의 일 실시예에 따른 방법 및 장치는 접근성 정보를 포함하는 레프리젠테이션들을 사용하여 미디어 콘텐츠를 재생할 수 있다.
본 발명의 일 실시예에 따른 방법 및 장치는 미디어 콘텐츠의 레프리젠테이션들 간의 관계를 설명하는 정보를 사용하여 미디어 콘텐츠를 재생할 수 있다.
본 발명의 일 실시예에 따른 방법 및 장치는 상이한 디스플레이 비트 깊이들을 갖는 단말들을 위한 상이한 레프리젠테이션들의 정보를 사용하여 미디어 콘텐츠를 재생할 수 있다.
도 1은 DASH의 고-레벨 데이터 모델을 나타낸다.
도 2는 본 발명의 일 실시예에 따른 콘텐츠 처리 방법의 신호 흐름도이다.
도 3은 본 발명의 일 예에 따른 시그널링 정보의 카테고리들을 도시한다.
도 4는 본 발명의 일 예에 따른 콘텐츠 디비전(division)의 계층 및 시그널링 정보의 레벨들(levels)을 나타낸다.
도 5는 본 발명의 일 실시예에 따른 단말의 구조도이다.
2011년 08월 30일에 간행된 ISO/IEC DIS 23009-1의 "Dynamic adaptive streaming over HTTP (DASH) - Part 1: Media presentation description and segment format" 문서 전체가 본 출원서의 참고문헌으로 인용될 수 있으며, 하기의 실시예들을 설명하기 위해 참조될 수 있다.
이하에서, 본 발명의 일 실시예를, 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
하기에서, "명세한다"는 "나타낸다" 또는 "의미한다"와 동일한 의미로 사용될 수 있다. 용어 "유일 자원 지시기(Uniform Resource Locator; URL)" 및 "통합 자원 식별자(Uniform Resource Identifier; URI)"는 동일한 의미로 사용되며, 상호 대체될 수 있다.
특정한 요소의 인덱스가 1 내지 N 또는 0 내지 N인 경우, 상기의 요소는 하나 이상일 수 있다. N은 0 이상의 정수를 나타낼 수 있다.
하기에서, 실시예들에서 사용되는 용어의 일 예가 설명된다.
- HTTP 상의 동적 적응적 스트리밍(Dynamic Adaptive Streaming over HTTP; DASH)는 1) 표준(standard) HTTP 서버로부터 HTTP 클라이언트로의 미디어 콘텐츠의 전달을 가능하게 하고, 2) 표준 HTTP 캐쉬(cache)들에 의한 콘텐츠의 캐슁(caching)을 가능하게 하는 포맷(format)들을 명세(specifie)할 수 있다. 상기의 포멧은 XML 포멧 또는 이진(binary) 포멧일 수 있다.
- 미디어 콘텐츠는 하니의 미디어 콘텐츠 주기(period) 또는 미디어 콘텐츠 주기들의 계속되는(contiguous) 시퀀스(sequence)일 수 있다. 하기에서, 미디어 콘텐츠, 미디어 및 콘텐츠는 서로간에 동일한 의미로 사용될 수 있다. 미디어 콘텐츠는, 예컨대 비디오, 오디오 및 자막과 같은, 공통(common) 타임라인(timeline)을 갖는 미디어 콘텐츠 컴포넌트들의 집합일 수 있다. 또한, 미디어 컴포넌트들은 프로그램 또는 영화로서 어떻게(예를 들면, 개별적으로(individually), 결합하여(jointly) 또는 상호 배타적(mutually exclusive)으로 미디어 컴포넌트들이 상연(present)될 지에 대한 관계(relationships)를 가질 수 있다. 미디어 콘텐츠는 요청(demand)에 따른 콘텐츠 또는 라이브(live) 콘텐츠일 수 있다.
콘텐츠는 하나 이상의 인터벌(interval)들로 나뉘어질 수 있다. 즉, 콘텐츠는 하나 이상의 인터벌들을 포함할 수 있다. 이하, 인터벌 및 주기(period)는 동일한 의미로 사용될 수 있다. 특히, 주기는 3GPP(Generation Partnership Project) 적응적 HTTP 스트리밍에서 사용되는 용어일 수 있다. 주기는 미디어 프리젠테이션의 인터벌일 수 있다. 모든 주기들의 연속적인 시퀀스는 미디어 프리젠테이션을 구성할 수 있다.
하나 이상의 인터벌들은 기본적인 유닛일 수 있다. 하나 이상의 인터벌들은 메타데이터를 시그널링함에 의해 설명될 수 있다. 즉, 메타데이터는 하나 이상의 인터벌들 각각을 설명할 수 있다. 상기의 메타데이터는 후술될 MPD일 수 있다.
- 미디어 콘텐츠 컴포넌트는 할당된(assigned) 미디어 컴포넌트 타입(type)을 갖는 미디어 콘텐츠의 계속되는 컴포넌트일 수 있다. 미디어 콘텐츠 컴포넌트는 개별적인 미디어 스트림으로 인코드될 수 있다. 미디어 컴포넌트(media component)는, 예컨대 대역폭(bandwidth), 언어(language) 또는 해상도(resolution)와 같은, 특정한 속성(attribute)들을 갖는 오디오(audio), 비디오(video) 또는 자막(timed text)과 같은 개별(individual) 미디어 타입(type)들의 인코드된(encoded) 버전(version)일 수 있다.
- 미디어 스트림은 미디어 콘텐츠 컴포넌트의 인코드된 버전일 수 있다.
- 미디어 컴포넌트 타입은 오디오(audio), 비디오(video) 또는 텍스트(text)와 같은 미디어 콘텐츠의 단일한 타입일 수 있다.
- 미디어 프리젠테이션은 미디어 콘텐츠의 바운드되거나(bounded) 바운드되지 않은(unbounded) 프리젠테이션을 설립(establish)하는 데이터의 컬렉션일 수 있다. 미디어 프리젠테이선은 사용자에게 스트리밍 서비스를 제공하기 위해 DASH의 클라이언트가 접근 가능한 데이터의 컬렉션일 수 있다. MPD는 MPD에 의해 설명될 수 있다. 미디어 프리젠테이션은 스트리밍 서비스를 사용자에게 제공하기 위해, DASH 클라이언트에게 접근 가능한 데이터의 구조화된 컬렉션일 수 있다.
- 미디어 프리젠테이션 설명(Media Presentation Description; MPD)은 스트리밍 서비스를 제공하기 위한 미디어 프리젠테이션의 양식화된(formalize) 설명일 수 있다. MPD는, 세그먼트에 접근하기 위한 적합한 HTTP-URL을 구성하고, 사용자에게 스트리밍 서비스를 제공하기 위해, DASH의 클라이언트가 요구하는 메타데이터를 포함하는 문서일 수 있다. 미디어 프리젠테이션은, MPD의 가능한 업데이트들(possible updates)을 포함할 있고, MPD에 의해 설명될 수 있다.
MPD는 1) 세그먼트들을 접근하고, 2) 사용자에게 스트리밍 서비스를 제공하기 위해 적합한(appropriate) HTTP-URL들을 구성하기 위해 DASH 클라이언트에게 요구되는 메타데이터를 포함하는 문서일 수 있다. HTTP-URL들은 절대적이거나 상대적일 수 있다. MPD는 XML-문서일 수 있다.
MPD는 세그먼트를 위한 자원 식별자들을 알리기 위한 포맷을 정의할 수 있다. MPD는 미디어 프리젠테이션 내에서의 식별된 자원들에 대한 컨텍스트(context)를 제공할 수 있다. 자원 식별자들은 HTTP-URL일 수 있다. URL들은 바이트 범위(byte range) 속성에 의해 제한될 수 있다.
- 주기(period)는 미디어 프리젠테이션의 인터벌(inverval)일 수 있다. 모든 주기들의 계속되는 시퀀스는 미디어 프리젠테이션을 구성할 수 있다. 즉, 미디어 프리젠테이션은 하나 이상의 주기들을 포함할 수 있다. 또는, 미디어 프리젠테이션은 하나 이상의 주기들의 시퀀스로 구성될 수 있다.
- 레프리젠테이션(representation)은 전달 포멧(delivery format)으로 된 하나 이상의 미디어 스트림들 컬렉션 및 캡슐화(encapsulation)일 수 있으며, 설명적인(descriptive) 메타데이터와 연관될 수 있다. 레프리젠테이션은 하나의 주기 내의 하나 이상의 미디어 컴포넌트들의 구조화된(structured) 컬렉션일 수 있다. 즉, 레프리젠테이션은 정의된 주기 동안의 미디어 콘텐츠를 구성하는 미디어 콘텐츠 컴포넌트들의 완전한 집합 또는 부분 집합의 대안적인 선택사항들(alternative choices) 중 하나일 수 있다. 레프리젠테이션은 하나 이상의 미디어 스트림들을 포함할 수 있다.
레프리젠테이션은 주기(즉, 자신을 포함하는 주기)의 시작점에서 시작할 수 있고, 상기의 주기의 종료점까지 지속할 수 있다.
레프리젠테이션은, 비트레이트(bitrate), 해상도(resolution), 언어(language) 및 코덱(codec) 등과 같은 인코딩(encoding) 선택(choice)이 상이한, 미디어 콘텐츠 또는 미디어 콘텐츠의 부분집합의 대안적인(alternative) 선택(choice)들 중 하나일 수 있다.
MPD(또는, MPD 요소)는 클라이언트가 하나 이상의 레프리젠테이션을 선택하는 것을 가능하게 하는 설명적인 정보를 제공할 수 있다.
하기에서, 레프리젠테이션 및 미디어 레프리젠테이션은 동일한 의미로 사용될 수 있다.
하나의 인터벌에 대응하는 2 개 이상의 세그먼트들의 집합들이 존재할 수 있으며, 상기의 집합이 레프리젠테이션 또는 대안(alternative)으로 명명될 수 있다.
- 세그먼트(segment)는 정의된 포멧을 갖는 MPD 내의 최소 접근가능한 유닛일 수 있다. 하기에서, 세그먼트 및 미디어 세그먼트는 동일한 의미로 사용될 수 있다.
각 인터벌은 세그먼트(segment)들로 나뉘어질 수 있다. 하기에서, 세그먼트 및 프래그먼트(fragment)는 동일한 의미로 사용될 수 있다. 세그먼트는 3GPP(Generation Partnership Project) 적응적 HTTP 스트리밍의 용어일 수 있다.
세그먼트는, 예컨대 RFC 2616에서 정의된, HTTP-URL에 대한 HTTP/1.1 GET 요청(또는, 바이트 범위(range)에 의해 가리켜진(indicated) 일부에 대한 GET 요청)에 대한 응답(response)의 객체(entity) 바디(body)를 의미할 수 있다.
단말은, 수신된 바이트들(즉, 세그먼트)을 사용하여 미디어 콘텐츠를 재생할 수 있다.
- 서브-세그먼트는 세그먼트 레벨에서의 세그먼트 인덱스(index)에 의해 인덱스될 수 있는 세그먼트들 내의 가장 작은(smallest) 유닛(unit)을 의미할 수 있다.
- 서브-레프리젠테이션(sub-representation)은 전체 주기에서 상연된 MPD 내에서 설명된 레프리젠테이션의 일부일 수 있다.
- 임의 접근 포인트(Random Access Point; RAP)는 미디어 세그먼트 내의 특정한 위치이다. RAP는 단지 미디어 세그먼트 내에 포함된 정보만을 사용하여 RAP의 위치로부터 계속하여 재생(playback)을 시작할 수 있는 위치인 것으로 식별된다.
HTTP 상의 동적 적응적 스트리밍(Dynamic Adaptive Streaming over HTTP; DASH)는 미디어 콘텐츠의 전달을 위한 미디어-스트리밍 모델을 제공할 수 있다. 클라이언트는 상기의 전달의 세션을 독점적으로 제어할 수 있다. 클라이언트는 HTTP 프로토콜을 사용하여 DASH-특유의 기능들을 갖지 않는 표준의 웝 서버에게 데이터를 요청할 수 있다. 따라서, DASH 표준은 DASH 미디어 프리젠테이션을 제공하기 위해 사용되는 데이터 포멧에 초점이 맞춰질 수 있다.
미디어 콘텐츠의 인코드되고 전달가능한 버전들의 컬렉션 및 이러한 버전들에 대한 적절한 설명은 미디어 프리젠테이션을 형성할 수 있다. 미디어 콘텐츠는 시간에 따라 계속되는 하나 이상의 미디어 콘텐츠 주기들로 구성될 수 있다. 각 미디어 콘텐츠 주기는 하나 이상의 미디어 콘텐츠 컴포넌트들로 구성될 수 있다. 예컨대, 다양한 언어로 된 오디오 컴포넌트들 및 비디오 컴포넌트가 하나 이상의 미디어 콘텐츠 컴포넌트들의 예가 될 수 있다. 각 미디어 콘텐츠 컴포넌트에게는 미디어 콘텐츠 컴포넌트 타입이 할당될 수 있다. 미디어 콘텐츠 컴포넌트 타입의 예로 오디오 또는 비디오가 있을 수 있다.
각 미디어 콘텐츠 컴포넌트는 하나 이상의 인코드된 버전을 가질 수 있다. 미디어 콘텐츠 컴포넌트의 인코드된 버전은 미디어 스트림으로 명명될 수 있다. 각 미디어 스트림은 미디어 콘텐츠, 미디어 콘텐츠 주기 또는 미디어 스트림의 인코딩을 위해 사용된 미디어 콘텐츠의 속성을 상속받을 수 있다. 또한, 미디어 스트림은, 예컨대 서브-샘플링, 코덱 파라미터(parameter), 인코딩 비트레이트 등과 같은 인코딩 프로세스의 속성을 할당 받을 수 있다. 따라서, 메타데이터는 미디어 콘텐츠 컴포넌트들 및 미디어 스트림들에 대한 정적 또는 동적인 선택에 따라 변경될 수 있다.
도 1은 DASH의 고-레벨 데이터 모델을 나타낸다.
DASH는 도 1에서 도시된 것과 같은 계층적인 데이터 모델에 기반할 수 있다.
DASH 미디어 프리젠테이션은 MPD 문서에 의해 설명될 수 있다. MPD는 시간에 따른 주기들의 시퀀스를 설명할 수 있다. 주기들의 시퀀스는 미디어 프리젠테이션을 만들 수 있다. 주기는 일반적으로 미디어 콘텐츠의 인코드된 버전들의 일관된(consistent) 집합이 가용한 동안의 미디어 콘텐츠 주기를 나타낼 수 있다. 즉, 하나의 주기 동안에는 비트레이트(bitrate)들, 언어(language), 캡션(caption) 및 서브타이틀(subtitle) 등이 변경되지 않을 수 있다.
주기는 하나 이상의 어댑테이션 세트(Adapatation Set)들을 포함할 수 있다. 어댑테이션 세트는 하나 이상의 미디어 콘텐츠 컴포넌트들의 교체가능한 인코드된 버전들의 집합을 나타낼 수 있다. 예컨대, 주 비디오 컴포넌트에 대한 하나의 어댑테이션 세트가 있을 수 있고, 주 오디오 컴포넌트에 대한 분리된 하나의 어댑테이션 세트가 있을 수 있다. 예컨대, 캡션 및 오디오 설명과 같은, 다른 가용한 재료(material)가 있다면, 상기의 다른 가용한 재료는 분리된 어댑테이션 세트를 가질 수 있다.
어댑테이션 세트는 하나 이상의 레프리젠테이션들을 포함할 수 있다. 레프리젠테이션은 하나 이상의 미디어 컴포넌트들의 전달가능한 인코드된 버전을 설명할 수 있다. 레프리젠테이션은 하나 이상의 미디어 스트림들을 포함할 수 있다. 어댑테이션 세트 내의 임의의 단일한 레프리젠테이션은 포함된 미디어 콘텐츠 컴포넌트들을 렌더(render)하기에 충분할 수 있다. 일반적으로 클라이언트는 하나의 주기 내에서, 네트워크 상태(condition) 또는 다른 팩터(factor)들에 적응(adapt)하기 위해, 하나의 레프리젠테이션으로부터 다른 레프리젠테이션으로 스위치할 수 있다. 클라이언트는 클라이언트 자신이 지원하지 않거나, 다른 이유에 의해 적합하지 않은 코덱(codec) 또는 다른 렌더링(rendering) 기술들에 의존하는 레프리젠테이션을 묵살(ignore)할 수 있다.
레프리젠테이션 내에서, 콘텐츠는 시간에 따라 세그먼트들로 분리될 수 있다. 즉, 레프리젠테이션은 하나 이상의 세그먼트들을 포함할 수 있다. 세그먼트는, MPD에서 나타나는, 데이터의 기본 유닛일 수 있다. 각 세그먼트의 URL이 제공될 수 있다. 세그먼트의 URL이 제공된다는 것은, 세그먼트가 단일한 HTTP 요청에 의해 추출(retrieve)될 수 있는 데이터의 최대 유닛이라는 것을 의미할 수 있다. 한편, MPD는 URL과 함께 상기의 URL의 바이트 범위(byte range)를 포함할 수 있다. 따라서, 세그먼트는 다른 더 큰 자원의 바이트 범위 내에 포함될 수도 있다.
하기에서, 전술된 데이터 모델의 구성 요소들 간의 관계가 설명된다.
- MPD는 하나 이상의 주기들의 연쇄를 포함할 수 있다.
- 각 주기들은 하나 이상의 어댑테이션 세트들을 포함할 수 있다. 어댑테이션이 하나 이상의 미디어 콘텐츠 컴포넌트들을 포함하면, 각 미디어 콘텐츠 컴포넌트는 개별적으로 정의될 수 있다.
- 각 어댑테이션 세트는 하나 이상의 레프리젠테이션들을 포함할 수 있다.
- 각 레프리젠테이션은 하나 이상의 서브-레프리젠테이션들을 포함할 수 있다.
- 각 레프리젠테이션은 하나 이상의 세그먼트들을 포함할 수 있다.
- 세그먼트는 미디어 데이터 및/또는 포함된 미디어 콘텐츠를 접근, 디코드 및 상연하기 위한 메타데이터를 포함할 수 있다.
- 어댑테이션 세트, 레프리젠테이션 및 서브-레프리젠테이션은 공통 속성 및 요소를 공유할 수 있다.
- 각 세그먼트는 하나 이상의 서브세그먼트들을 포함할 수 있다.
MPD를 나타내는 MPD 문서는 MPD 요소를 포함할 수 있다.
하기의 표 1은 일 예에 따른 MPD의 XML 스키마를 나타낼 수 있다.
Figure PCTKR2012001922-appb-I000002
표 1은 MPD의 XML 스키마의 초기 일부를 나타낼 수 있다. 상기의 초기 일부는 네임스페이스(namespace) 및 다른 정의들을 포함할 수 있다.
지역(local) MPD로부터 원격(remote) 요소들을 참조하기 위한 메커니즘이 정의될 수 있다. 1) 제한된 신택스 및 시맨틱을 갖고, 2) 프로세싱 모델을 갖는 W3C XLIM 단순(simple) 링크의 부분 집합이 정의될 수 있다.
ISO/IEC 23009의 일부로서 사용되는 XLINK 속성들은 하기와 같을 수 있다.
- xlink:type 속성은 사용되는 W3C XLINK의 타입을 정의할 수 있다.
- xlink:href 속성은 IETF RFC 3986에서 정의된 것과 같이, URI를 사용하여 원격 요소를 식별할 수 있다.
- xlink:show 속성은 W3C XLINK에서 정의된 것과 같이, MPD 내에서 일단 원격 요소가 역참조(deference)되었을 때의 희망된(desired) 행위(behavior)를 정의할 수 있다.
- xlink:actuate 속성은 W3C XLINK에서 정의된 것과 같이, MPD 내에서 원격 객체가 피참조되는 희망된 타이밍(timing)을 정의할 수 있다.
하기의 표 2는 일 예에 따른 XLINK의 XML 스키마를 나타낼 수 있다.
Figure PCTKR2012001922-appb-I000003
Figure PCTKR2012001922-appb-I000004
상기의 스키마에서, 각 요소 또는 각 속성의 네임스페이스, 명칭, 타입 및 디폴트 값이 설명될 수 있다. 또한, 요소들 및 속성들 간의 계층 관계가 설명될 수 있다.
xlink:href 속성에서 URI 참조를 처리하기 위한 규칙은 하기와 같을 수 있다.
- 해결(resolve)될 수 없는 원격 요소로의 URI 참조는 유효하지 않은(invalid) 참조로 취급(treat)될 수 있고, MPD를 유효하지 않게 할 수 있다(invalidate).
- 주어진 참조에 대해 부적합한 타겟(target)인 원격 요소로의 URI 참조는 유효하지 않은 참조로 취급될 수 있고, MPD를 유효하지 않게 할 수 있다.
- 직접적 또는 간접적으로 스스로를 참조하는 URI 참조는 유효하지 않은 순환 참조로 취급될 수 있고, MPD를 유효하지 않게 할 수 있다.
- 원격 요소로의 임의의 참조는 HTTP-URL일 수 있다.
- URI 참조가 상대적(relative)이면, 참조 해(reference resolution)가 적용될 수 있다.
하기에서 MPD 요소의 시맨틱이 설명된다.
1) MPD 요소는 하기와 같은 속성을 가질 수 있다.
- id 속성은 미디어 프리젠테이션의 식별자를 명세할 수 있다. id 속성은 발행(publish)되는 미디이 프리젠테이션 내의 범위 내에서 고유한 식별자일 수 있다.
- type 속성은 MPD가 갱신될 수 있는지 여부를 명세할 수 있다.
- mediaPresentationDuration 속성은 전체 미디어 프리젠테이션의 지속시간을 명세할 수 있다. 만약, mediaPresentationDuration 속성이 부재이면, 미디어 프리젠테이션의 지속시간은 알려지지 않을 수 있다(unknown).
- maxSegmentDuration 속성은 미디어 프리젠테이션 내의 임의의 레프리젠테이션 내의 임의의 세그먼트의 최대 지속시간을 명세할 수 있다.
2) MPD 요소는 하기와 같은 요소를 가질 수 있다.
- ProgramInformation 요소는, 0 내지 N의 인덱스를 가질 수 있으며, 프로그램에 대한 설명적인 정보를 명세할 수 있다. N의 인덱스를 가질 수 있다는 것은, 요소의 인스턴스들의 개수가 무제한까지 될 수 있음을 의미할 수 있다. 0의 인덱스를 가질 수 있다는 것은, 요소가 선택적인(optional) 것을 의미할 수 있다. 최소 1의 인덱스를 가질 수 있다는 것은, 요소가 의무적인(mandatory) 것을 나타낼 수 있다. 즉, 인덱스의 범위는 발생횟수(occurrence) 또는 카디널리티(cardinality)를 나타낼 수 있다.
- BaseURL 요소는, 0 내지 N의 인덱스를 가질 수 있으며, 참조 해(reference resolution) 및 대안적인(alternative) URL 선택을 위해 사용될 수 있는 베이스 URL을 명세할 수 있다.
- Location 요소는, 0 내지 N의 인덱스를 가질 수 있으며, MPD가 가용한 위치를 명세할 수 있다.
- Period 요소는, 1 내지 N의 인덱스를 가질 수 있으며, 주기의 정보를 명세할 수 있다.
- Metrics 요소는, 0 내지 N의 인덱스를 가질 수 있으며, DASH 메트릭스(Metrics)를 명세할 수 있다.
하기의 표 3은 일 예에 따른 MPD 요소의 XML 신택스를 나타낼 수 있다.
Figure PCTKR2012001922-appb-I000005
Figure PCTKR2012001922-appb-I000006
미디어 프리젠테이션은 하나 이상의 주기들을 포함할 수 있다. 주기는 MPD 요소 내의 Period 요소에 의해 정의될 수 있다.
주기는, 정규(regular) 주기 및 조기 가용(early available) 주기로 구분될 수 있다. 정규 주기의 PeriodStart 시각은 하기와 같이 정의될 수 있다.
- 주기 요소 내에 start 속성이 있는 경우, 주기는 정규 주기일 수 있으며, PeriodStart 시각은 start 속성의 값과 동일할 수 있다.
- 주기 요소 내에 start 속성이 부재이고, 이전의 Period 요소가 duration 속성을 포함하는 경우, 주기는 정규 주기일 수 있다. 주기의 시작 시간 PeriodStart는 이전 주기의 시작 시각 및 이전 주기의 duration 속성의 값의 합일 수 있다.
- 1) start 속성이 부재이고, 2) Period 요소가 MPD 내에서의 첫 번째이고, 3) MPD의 타입 속성이 '정적(static)'이면 PeriodStart 시각은 0이 될 수 있다.
- 1) start 속성이 부재이고, 2) 이전의 Period 요소가 duration 속성을 포함하지 않거나, Period 요소가 MPD 내에서의 첫 번째이고, 3) MPD의 타입 속성이 '동적(dynamic)'이면, 주기는 조기 가용 주기일 수 있다.
하기에서 Period 요소의 시맨틱이 설명된다.
1) Period 요소는 하기와 같은 속성을 가질 수 있다.
- xlink:href 속성은 외부의 Period 요소로의 참조를 명세할 수 있다.
- xlink:actuate 속성은 프로세싱 명령들을 명세할 수 있다. link:actuate 속성의 값은 "onload" 또는 "onRequest"일 수 있다.
- id 속성은 주기의 식별자를 명세할 수 있다. id 속성은 미디이 프리젠테이션 내의 범위 내에서 고유한 식별자일 수 있다.
- start 속성은 주기의 PeriodStart 시각을 명세할 수 있다. PeriodStart 시각은 각 미디어 세그먼트의 MPD 시작 시각을 결정하기 위한 앵커(anchor)로서 사용될 수 있으며, 미디어 프리젠테이션 타임라인 내의 각 접근 유닛의 프리젠테이션 시각을 결정하기 위해 사용될 수 있다.
- duration 속성은 다음 주기의 PeriodStart 시각을 결정하기 위한 주기의 지속시간을 명세할 수 있다.
2) Period 요소는 하기와 같은 요소를 가질 수 있다.
- BaseURL 요소는, 0 내지 N의 인덱스를 가질 수 있으며, 참조 해 및 대안적인 URL 선택을 위해 사용될 수 있다.
- AdaptationSet 요소는, 1 내지 N의 인덱스를 가질 수 있으며, 어댑테이션 세트의 정보를 명세할 수 있다.
- Subset 요소는, 0 내지 N의 인덱스를 가질 수 있으며, 서브세트를 명세할 수 있다.
하기의 표 4는 일 예에 따른 Period 요소의 XML 신택스를 나타낼 수 있다.
Figure PCTKR2012001922-appb-I000007
Figure PCTKR2012001922-appb-I000008
각 주기는 하니 이상의 어댑테이션 세트들을 포함할 수 있다. 어댑테이션 세트는 Period 요소 내에 포함된 AdaptationSet 요소에 의해 설명될 수 있다.
어댑테이션 세트는 하나 이상의 미디어 컴포넌트들의 대안적인 인코딩들을 포함할 수 있다. 각 대안적인 인코딩은 레프리젠테이션 내에 포함될 수 있다. 하나의 어댑테이션 세트 내에 포함된 하나 이상의 레프리젠테이션들은 동일한 미디어 콘텐츠 컴포넌트를 나타낼 수 있으며, 지각적으로(perceptually) 동일한 것으로 간주되는 하나 이상의 미디어 스트림들을 포함할 수 있다.
하나 아싱의 레프리젠테이션들은 상기의 하나 이상의 레프리젠테이션 내에서 상연된 미디어 콘텐츠 컴포넌트 프로퍼티(property)들에 따라 어댑테이션 세트 내에서 배열될 수 있다. 미디어 콘텐츠 컴포넌트 프로퍼티는, 1) lang 속성에 의해 설명되는 언어, 2) contentType 속성에 의해 설명되는 미디어 콘텐츠 타입, 3) par 속성에 의해 설명되는 사진 길이 비율(picture aspect ratio), 4) Role 요소에 의해 설명되는 롤(role) 프로퍼티, 5) Accessibility 요소에 의해 설명되는 접근성 프로퍼티, 6) ViewPoint 요소에 의해 설명되는 뷰포인트 프로퍼티 및 6) Rating 요소에 의해 설명되는 등급 속성 등을 포함할 수 있다.
AdaptationSet 요소는 어댑테이션 세트가 포함하는 하나 이상의 레프리젠테이션들에 연관된 요소들 및 속성들의 기본 값들을 포함할 수 있다. AdaptationSet 요소 및 Representation 요소에 공통적으로 가능한 상연(present) 요소들 및 속성들의 목록(list)이 하기에서 설명된다.
Adaptation 요소는 어댑테이션 세트가 포함하는 하나 이상의 레프리젠테이션들에 연관된 bandwidth 속성, width 속성, height 속성 및 framerate 속성에 대한 범위의 설명을 지원할 수 있다. 상기의 설명은 어댑테이션 세트가 포함하는 하나 이상의 레프리젠테이션들 모두에 대한 모든 값들의 요약(summary)을 제공할 수 있다. 어댑테이션 세트가 포함하는 하나 이상의 레프리젠테이션들은 어댑테이션 세트 내에서 정의된 범위 밖의 값을 갖지 못할 수 있다.
어댑테이션 세트는 group 속성을 사용함으로써 그룹들로 분류될 수 있다.
하기에서 AdaptationSet 요소의 시맨틱이 설명된다.
1) AdaptationSet 요소는 하기와 같은 속성을 가질 수 있다.
- xlink:href 속성은 외부의 AdaptationSet 요소로의 참조를 명세할 수 있다.
- xlink:actuate 속성은 프로세싱 명령들을 명세할 수 있다. link:actuate 속성의 값은 "onload" 또는 "onRequest"일 수 있다.
- id 속성은 주기의 범위 내에서 어댑테이션 세트의 식별자를 명세할 수 있다. id 속성은 주기를 포함하는 내의 범위 내에서 고유한 식별자일 수 있다. id 속성은 원격 요소 내에서는 부재일 수 있다.
- group 속성은 주기의 범위 내에서 고유한, 그룹에 대한 식별자일 수 있다.
- lang 속성은 어댑테이션 세트의 언어 코드(들)을 선언할 수 있다. IETF RFC 5646에 따른 신택스 및 시맨틱이 사용될 수 있다.
- contentType 속성은 어댑테이션 세트의 미디어 콘텐츠 컴포넌트 타입을 명세할 수 있다. 최고-레벨 콘텐츠-타입인 "type"의 값은 RFC1521에서 정의될 수 있다.
- par 속성은 사진 길이 비율을 명세할 수 있다. par 속성은 2 개의 정수들을 포함할 수 있다. par 속성이 존재할 경우, 레프리젠테이션들의 width 속성 및 height 속성도 존재할 수 있다.
- minBandWidth 속성은 어댑테이션 세트 내의 모든 레프리젠테이션들의 최소 bandwidth 속성 값을 명세할 수 있다.
- maxBandWidth 속성은 어댑테이션 세트 내의 모든 레프리젠테이션들의 최대 bandwidth 속성 값을 명세할 수 있다.
- minWidth 속성은 어댑테이션 세트 내의 모든 레프리젠테이션들의 최소 width 속성 값을 명세할 수 있다.
- maxWidth 속성은 어댑테이션 세트 내의 모든 레프리젠테이션들의 최대 width 속성 값을 명세할 수 있다.
- minHeight 속성은 어댑테이션 세트 내의 모든 레프리젠테이션들의 최소 height 속성 값을 명세할 수 있다.
- maxHeight 속성은 어댑테이션 세트 내의 모든 레프리젠테이션들의 최대 height 속성 값을 명세할 수 있다.
- minFrameRate 속성은 어댑테이션 세트 내의 모든 레프리젠테이션들의 최소 frameRate 속성 값을 명세할 수 있다.
- maxFrameRate 속성은 어댑테이션 세트 내의 모든 레프리젠테이션들의 최대 frameRate 속성 값을 명세할 수 있다.
2) AdaptationSet 요소는 하기와 같은 요소를 가질 수 있다.
- Accessbility 요소는, 0 내지 N의 인덱스를 가질 수 있으며, 접근성 스킴에 대한 정보를 명세할 수 있다.
- Role 요소는, 0 내지 N의 인덱스를 가질 수 있으며, 롤 주석(annotation) 스킴에 대한 정보를 명세할 수 있다.
- Rating 요소는, 0 내지 N의 인덱스를 가질 수 있으며, 등급(rating) 스킴에 대한 정보를 명세할 수 있다.
- Viewpoint 요소는, 0 내지 N의 인덱스를 가질 수 있으며, 뷰포인트 주석 스킴에 대한 정보를 명세할 수 있다.
- ContentComponent 요소는, 0 내지 N의 인덱스를 가질 수 있으며, 어댑테이션 세트가 포함하는 미디어 콘텐츠 컴포넌트의 프로퍼티들을 명세할 수 있다.
- BaseURL 요소는, 0 내지 N의 인덱스를 가질 수 있으며, 참조 해 및 대안적인 URL 선택을 위해 사용될 수 있다.
- Representation 요소는, 0 내지 N의 인덱스를 가질 수 있으며, 레프리젠테이션을 명세할 수 있다. 각 어댑테이션 세트 내에는 적어도 하나의 레프리젠테이션 요소가 있을 수 있다. Representation 요소는 원격 요소의 일부일 수 있다.
하기의 표 5는 일 예에 따른 AdaptationSet 요소의 XML 신택스를 나타낼 수 있다.
Figure PCTKR2012001922-appb-I000009
Figure PCTKR2012001922-appb-I000010
어댑테이션 세트는 하나 이상의 미디어 콘텐츠 컴포넌트들을 포함할 수 있다. 각 미디어 콘텐츠 컴포넌트의 프로퍼티들은 ContentComponet 요소에 의해 설명될 수 있으며, 어댑테이션 세트 내에 하나의 미디어 콘텐츠 컴포넌트가 존재하면 AdaptationSet 요소에 의해 직접적으로 설명될 수 있다.
하기에서 ContentComponent 요소의 시맨틱이 설명된다.
1) ContentComponent 요소는 하기와 같은 속성을 가질 수 있다.
- id 속성은 미디어 컴포넌트의 식별자를 명세할 수 있다. id 속성은 어댑테이션 세트의 범위 내에서 고유할 수 있다.
- lang 속성은 미디어 콘텐츠 컴포넌트의 언어 코드(들)을 선언할 수 있다. IETF RFC 5646에 따른 신택스 및 시맨틱이 사용될 수 있다.
- contentType 속성은 미디어 콘텐츠 컴포넌트의 타입을 명세할 수 있다. 최고-레벨 콘텐츠-타입인 "type"의 값은 RFC1521에서 정의될 수 있다.
- par 속성은 사진 길이 비율을 명세할 수 있다. par 속성은 2 개의 정수들을 포함할 수 있다. par 속성이 존재할 경우, 레프리젠테이션들의 width 속성 및 height 속성도 존재할 수 있다.
2) ContentComponent 요소는 하기와 같은 요소를 가질 수 있다.
- Accessbility 요소는, 0 내지 N의 인덱스를 가질 수 있으며, 접근성 스킴에 대한 정보를 명세할 수 있다.
- Role 요소는, 0 내지 N의 인덱스를 가질 수 있으며, 롤 주석(annotation) 스킴에 대한 정보를 명세할 수 있다.
- Rating 요소는, 0 내지 N의 인덱스를 가질 수 있으며, 등급(ration) 스킴에 대한 정보를 명세할 수 있다.
- Viewpoint 요소는, 0 내지 N의 인덱스를 가질 수 있으며, 뷰포인트 주석 스킴에 대한 정보를 명세할 수 있다.
하기의 표 6은 일 예에 따른 ContentComponent 요소의 XML 신택스를 나타낼 수 있다.
Figure PCTKR2012001922-appb-I000011
레프리젠테이션은 Representation 요소에 의해 설명될 수 있다. AdaptationSet 요소는 하나 이상의 Representation 요소들을 포함할 수 있다.
레프리젠테이션은 정의된 주기 동안의 미디어 콘텐츠를 구성하는 미디어 콘텐츠 컴포넌트들의 완전한 세트 또는 서브세트의 대안적인 선택들 중 하나일 수 있다.
레프리젠테이션은 주기의 PeriodStart의 시작에서 시작할 수 있고, 주기의 끝(end)까지 계속될 수 있다. 주기의 끝은 다음 주기의 시작 또는 미디어 프리젠테이션의 끝일 수 있다.
각 레프리젠테이션은 하나 이상의 미디어 스트림들을 포함할 수 있다. 각 미디어 스트림은 미디어 콘텐츠 컴포넌트의 인코드된 버전일 수 있다.
레프리젠테이션은 하나 이상의 세그먼트들을 포함할 수 있다.
하기에서 Representation 요소의 시맨틱이 설명된다.
1) Representation 요소는 하기와 같은 속성을 가질 수 있다.'
- id 속성은 레프리젠테이션의 식별자를 명세할 수 있다. id 속성은, 레프리젠테이션이 동일한 주기 내의 다른 레프리젠테이션과 기능적으로 동일하지 않으면, 주기의 범위 내에서 고유할 수 있다. id 속성은 공백(whitespace) 문자를 포함하지 않을 수 있다.
- bandwidth 속성은 레프리젠테이션의 데이터 비율 및 데이터 비율 분산(variation)의 경계를 명세할 수 있다.
- qualityRanking 속성은, 동일한 어댑테이션 세트 내의 다른 레프리젠테이션들에 상대적인, 레프리젠테이션의 품질(quality) 랭킹을 명세할 수 있다.
- dependencyID 속성은 디코딩 및/또는 프리젠테이션 프로세스에 있어서 의존하는 모든 보완적인(complementary) 레프리젠테이션들을 명세할 수 있다. dependencyID 속성은 id 속성들의 값들의 공백으로 분리된 목록일 수 있다.
2) Representation 요소는 하기와 같은 요소를 가질 수 있다.
- BaseURL 요소는, 0 내지 N의 인덱스를 가질 수 있으며, 참조 해 및 대안적인 URL 선택을 위해 사용될 수 있다.
- SubRepresentation 요소는, 0 내지 N의 인덱스를 가질 수 있으며, 레프리젠테이션 내에 임베드된 서브-레프리젠테에션에 대한 정보를 명세할 수 있다.참조 해 및 대안적인 URL 선택을 위해 사용될 수 있다.
하기의 표 7은 일 예에 따른 AdaptationSet 요소의 XML 신택스를 나타낼 수 있다.
Figure PCTKR2012001922-appb-I000012
Figure PCTKR2012001922-appb-I000013
서브-레프리젠테이션은 정규의 레프리젠테에션 내에 임베드될 수 있으며, SubRepresentation 요소에 의해 설명될 수 있다. Representation 요소는 SubRepresentation 요소를 포함할 수 있다. SubRepresentation 요소는 레프리젠테이션 내에 임베드된 하나 이상의 미디어 콘텐츠 컴포넌트들의 프로퍼티들을 설명할 수 있다. 레프리젠테이션 및 서브-레프리젠테이션은 공통의 속성 및 요소를 공유할 수 있다.
하기에서 SubRepresentation 요소의 시맨틱이 설명된다.
SubRepresentation 요소는 하기와 같은 속성을 가질 수 있다.
- level 속성은 서브-레프리젠테이션의 레벨을 명세할 수 있다.
- dependency 속성은 서브-레프리젠테이션이 디코딩 및 프리젠테이션 프로세스에 있어서 의존하는 레프리젠테이션 내의 서브-레프리젠테이션들의 세트를 level 속성의 값들의 공백으로 분리된 목록으로써 명세할 수 있다.
- bandwidth 속성은 레프리젠테이션의 bandwidth 속성과 동일하지만, 서브-레프리젠테이션에 적용될 수 있다.
- contentComponet 속성은, 서브-레프리젠테이션 내에 포함된 모든 미디어 콘텐츠 컴포넌트들의 집합을 ContentComponent 요소의 id 속성의 값들의 공백으로 분리된 목록으로써 명세할 수 있다.
하기의 표 8은 일 예에 따른 SubRepresentation 요소의 XML 신택스를 나타낼 수 있다.
Figure PCTKR2012001922-appb-I000014
Figure PCTKR2012001922-appb-I000015
하기에서 AdaptationSet 요소, Representation 요소 및 SubRepresentation 요소의 공통 속성들 및 요소들이 설명된다.
1) AdaptationSet 요소, Representation 요소 및 SubRepresentation 요소는 하기와 같은 속성을 공통적으로 가질 수 있다.
- profile 속성은 미디어 프리젠테이션 프로파일들에 따르는 연관된 레프리젠테이션(들) 간의 프로파일을 명세할 수 있다. profile 속성의 값은 문서 계층(레프리젠테이션, 어댑테이션 세트 및 MPD)의 임의의 상위 레벨의 값의 부분 집합일 수 있다. profile 속성이 부재이면, profile 속성의 값은 문서 계층의 다음 상위 레벨의 값과 동일한 것으로 간주될 수 있다. 예컨대, 레프리젠테이션에 대한 profile 속성이 부재이면, 어댑테이션 세트에 대한 profile 속성이 레프리젠테이션에 대해 유효할 수 있다.
- width 속성은 sar 속성에 의해 결정되는 그리드(grid) 상에서의 비디오 미디어 타입의 수평의 시각적인 프리젠테이션 크기를 명세할 수 있다. sar 속성이 부재인 경우 넓이 및 높이는 마치 sar 속성의 값이 "1:1"인 것과 같이 명세될 수 있다.
- height 속성은 sar 속성에 의해 결정되는 그리드 상에서의 비디오 미디어 타입의 시각적인 프리젠테이션 크기를 명세할 수 있다.
- sar 속성은 비디오 미디어 컴포넌트 타입의 예시적인(sample) 길이 비율을 명세할 수 있다. sar 속성은 ":"에 의해 분리되는 2 개의 정수들을 포함하는 문자열(string)의 형식을 가질 수 있다. 제1 정수는 인코드된 비디오 픽셀들의 임의의 단위를 기준으로 한 수평 크기를 명세할 수 있다. 제2 정수는 인코드된 비디오 픽셀들의 임의의 단위를 기준으로 한 수직 크기를 명세할 수 있다.
- frameRate 속성은 레프리젠테이션 내의 비디오 미디어 타입의 출력 프레임 레이트를 명세할 수 있다. 만약, 프레임 또는 프레임 레이트가 변동한다면, frameRate 속성의 값은 레프리젠테이션의 전체 지속시간에 걸친 평균 프레임 또는 평균 프레임 비율의 절반 값일 수 있다.
- audioSampleRate 속성은 오디오 미디어 컴포넌트 타입의 셈플링 비율을 명세하는 10진 정수 값일 수 있으며, 오디오 미디어 컴포넌트 타입의 최소 셈플링 비율 및 최대 샘플링 비율을 각각 나타내는 공백으로 분리된 10진 정수 값들의 쌍일 수 있다. audioSamplingRate 속성의 값은 초 당 샘플들일 수 있다.
- mimeType 속성은 초기 내용 설정(initialisation) 세그먼트의 연쇄(concatenation)의 MIME 타입을 명세할 수 있다.
- codecs 속성은 레프리젠테이션 내에서 상연되는 코덱(codec)들을 명세할 수 있다.
2) AdaptationSet 요소, Representation 요소 및 SubRepresentation 요소는 하기와 같은 요소를 공통적으로 가질 수 있다.
- FramePacking 요소는, 0 내지 N의 인덱스를 가질 수 있으며, 비디오 미디어 컴포넌트 타입의 프레임-패킹(frame-packing) 배치(arrangement) 정보를 명세할 수 있다.
- AudioChannelConfiguration 요소는, 0 내지 N의 인덱스를 가질 수 있으며, 오디오 미디어 컴포넌트 타입의 오디오 채널 구성(configuration)을 명세할 수 있다.
- ContentProtection 요소는, 0 내지 N의 인덱스를 가질 수 있으며, 연관된 레프리젠테이션을 위해 사용되는 콘텐츠 보호(protection) 스킴들에 대한 정보를 명세한다.
하기의 표 9는 일 예에 따른 AdaptationSet 요소, Representation 요소 및 SubRepresentation 요소의 공통 XML 신택스를 나타낼 수 있다.
Figure PCTKR2012001922-appb-I000016
Figure PCTKR2012001922-appb-I000017
세그먼트는 정의된 포멧을 갖고 MPD에 의해 설명되는 최소 지정가능(addressable) 유닛일 수 있다.
세그먼트는 MPD 내에 포함된 HTTP-URL에 의해 참조될 수 있다. 여기서, HTTP-URL은 RFC 3986에 따른 <absolute-URI>로서 정의될 수 있다. HTTP-URL은 고정된 스킴 "http://" 또는 "https://"를 가질 수 있으며, URL에 range 속성이 제공될 경우 바이트 범위에 의해 제한될 수 있다. 바이트 범위는 RFC 2616에서 정의된 byte-range-spec로서 표현될 수 있다. 바이트 범위는 바이트들의 계속적인 범위를 식별하는 단일 표현(expression)으로 제한될 수 있다.
레프리젠테이션은 BaseURL 요소, SegmentBase 요소, SegmentTemplate 요소 및/또는 SegmentList 요소의 존재(presence)를 통해 세그먼트 정보를 할당받을 수 있다. 세그먼트 정보는 레프리젠테이션이 포함하는 하나 이상의 세그먼트들 모두의 위치, 가용성 및 프로퍼티들에 대한 정보를 제공할 수 있다. 특히, 초기 내용 설정, 미디어, 인덱스 및 비트스트림 스위칭 세그먼트들의 존재 및 위치가 제공될 수 있다.
SegmentBase 요소, SegmentTemplate 요소 및 SegmentList 요소는 Representation 요소 내에 존재할 수 있다. 또한, SegmentBase 요소, SegmentTemplate 요소 및 SegmentList 요소는, 디폴트 값들을 나타내기 위해, Period 요소 또는 AdaptationSet 요소 내에 존재할 수 있다. 만약, 계층의 한 레벨에 SegmentTemplate 요소 또는 SegmentList 요소가 존재하면 더 하위의 계층 레벨에는 상연되지 않을 수 있다. SegmentBase 요소, SegmentTemplate 요소 및 SegmentList 요소는 더 상위 레벨의 동일한 요소의 속성들 및 요소들을 상속받을 수 있다. 양 레벨들에 동일한 속성 또는 요소가 존재하면, 더 하위 레벨의 속성 또는 요소가 더 상위 레벨의 속성 또는 요소에 비해 우선권(precedence)을 가질 수 있다.
SegmentBase 요소는 레프리젠테이션 당 단일 미디어 세그먼트가 제공되고, BaseURL 요소 내에 미디어 세그먼트 URL이 포함될 경우에 충분한 정보를 포함할 수 있다. 다중 미디어 세그먼트들이 상연되면, 다중 세그먼트 베이스 정보를 공유하는 SegmentList 요소 또는 Segment Template 요소가 사용될 수 있다.
레프리젠테이션이 하나 이상의 미디어 세그먼트들을 포함할 경우, duration 속성 또는 SegmentTimeLine 요소가 상연될 수 있다.
세그먼트 리스트는 하나 이상의 SegmentList 요소들에 의해 정의될 수 있다. 각 SegmentList 요소는 세그먼트 URL들의 연쇄적인 목록에 대한 SegmentURL 요소들의 목록을 포함할 수 있다. 각 세그먼트 URL은 미디어 세그먼트 URL을 포함할 수 있으며, 바이트 범위를 포함할 수 있다. Segment URL 요소는 인덱스 세그먼트를 포함할 수 있다.
세그먼트 탬플릿은 SegmentTemplate 요소에 의해 정의될 수 있다. 세그먼트들의 목록을 생성하기 위해 동적 값들에 의해 대체된(substituted) 특정한 식별자들이 세그먼트들에게 할딩될 수 있다.
세그먼트 정보는 하기의 정보를 제공할 수 있다.
- 초기 내용 설정, 인덱스 및 비트스트림 스위칭 세그먼트 정보의 존재 또는 부재.
- 각 레프리젠테이션 내의 각 접근 가능한 세그먼트의 HTTP-URL 및 바이트 범위.
- MPD에서 선언된 모든 유효한 세그먼트 URL들.
- MPD의 type 속성이 "dynamic"인 서비스들에 대한, 각 주기의 세그먼트 가용성 시작 시각 및 세그먼트 가용성 종료 시각.
- 주기 내의 미디어 프리젠테이션 타임라인 내의 각 미디어 세그먼트의 근사적인 미디어 프리젠테이션 시작 시각.
segment 요소 또는 segment 요소의 하위 요소는 하기의 속성들을 포함할 수 있다.
- duration 요소는 고정된(constant) 근사의(approximate) 세그먼트 지속시간을 나타낼 수 있다. Representation 요소 내의 모든 세그먼트들은 동일한 지속시간을 가질 수 있다. 단, 주기 내의 마지막 세그먼트는 상이한 지속시간을 가질 수 있다.
- sourceURL 속성은 소스 URL의 일부를 명세할 수 있다. sourceURL은 RFC 3986에 따른 <absolute-URI>의 형식을 가질 수 있다. sourceURL은 "http://", "https://" 또는 RFC 3986에 따른 <relative-ref>의 고정된(fixed) 스킴을 가질 수 있다. 만약, sourceURL 속성이 존재하지 않으면, 임의의 BaseURL 요소가 sourceURL 속성에 사상될 수 있다(mapped). 또한, sourceURL 속성이 존재하지 않으면 range 속성이 제공될 수 있다.
- range 속성은 HTTP-URL의 바이트 범위의 제한(restricting)을 명세할 수 있다. 바이트 범위는 RFC 2616에서 정의된 byte-range-spec에 따라 표현 및 포멧될 수 있다. 만약, range 속성이 부재이면, 요소는 sourceURL 속성 내에서 참조된 전체의 자원을 참조할 수 있다.
하기의 표 10은 일 예에 세그먼트와 관련된 정보에 대한 XML 신택스를 나타낼 수 있다.
Figure PCTKR2012001922-appb-I000018
Figure PCTKR2012001922-appb-I000019
Figure PCTKR2012001922-appb-I000020
하기에서, 사용자 및 단말 특성들에 기반하여 레프리젠테이션을 선택하기 위한 추가적인 구성이 설명된다.
DASH를 위한 상술된 솔루션에 따르면, 레프리젠테이션들은 다양한 메타데이터에 의해 설명될 수 있다. 레프리젠테이션의 특성들은 대부분 단말의 특성들에 기반하여 레프리젠테이션들을 선택하기 위한 것일 수 있다. 예를들면, 단말의 특성들은 해상도(resolution) 및 연결 대역폭(connection bandwidth) 등을 포함할 수 있다.
레프리젠테이션의 접근성 특성은, 멀티미디어 콘텐츠를 지각(perceive)함에 있어서 곤란함(difficulties)을 겪는 장애인(disabled user)들을 지원하기 위해 사용될 수 있다. 접근성을 지원하기 위한 하기의 실시예는 1) MPEG-21 디지털 아이템 적응(Digital Item Adaptation; DIA) 접근성 설명(description) 및 2) 콘텐츠 컴포넌트들의 증대(enhancement)/교체(replacement)를 가능하게 하기 위한(facilitate) 몇몇 힌트들을 포함할 수 있다. 본질적으로, ISO/IEC 21000-7의 VisualImpairmentType(시각적 장애 타입) 및/또는 AuditoryImpairmentType(청각적 장애 타입) 요소들을 포함하는, MPEG-21 DIA 접근성 설명은 사용자의 시각적 또는 청각적인 장애(impairment)들의 다양한 증상들을 설명하는 것을 가능하게 한다. 사용자의 시각적 또는 청각적인 장애는 색맹(colour deficiency) 또는 약시(low vision)를 포함할 수 있다.
하기의 규칙이 특정한 접근성 스킴들을 식별하기 위해 URI에 적용될 수 있다. 예컨대, 스킴들은 전술된 Accessibility 요소 내에 포함될 수 있다.
비디오 및/또는 오디오 콘텐츠를 포함하는 레프리젠테이션들을 위한 URI는 하기의 표 11와 같이 정의될 수 있다.
Figure PCTKR2012001922-appb-I000021
상기의 URI는 ISO/IEC 21000-7의 접근성 정의에 기반한 접근성 스킴들을 가리킬 수 있다.
만약, <value>가 "s0"이면, 적합한 레프리젠테이션이 사전에 준비되며, 연관된 접근성 설명이 Accessibility 요소에 의해 설명될 수 있다. 상기의 설명을 전달하기(convey) 위해 상이한 방식들이 사용될 수 있다. 예컨대, 접근성 설명은 MP21Access 요소에 의해 전달될 수 있고, 하기에서 정의되는 xlink:href 속성에 의해 참조될 수 있다.
만약, <value>가 "s1"이면, 제공자는 장애 사용자의 접근성 설명을 어떠한 방식으로든 획득할 수 있으며, 장애 사용자에게 적절한 콘텐츠를 제공할 수 있다.
DASH의 컨텍스트 있어서, 만약, 레프리젠테이션이 접근성 정보와 연관되면, 상기의 레프리젠테이션은 장애자의 특정한 증상들이 접근성 설명에 의해 설명되는 상기의 장애자를 위해 사용될 수 있다. 일반적으로, 상기의 레프리젠테이션의 미디어는 장애자의 문제에 대처(cope)하기 위해 증대될 수 있다. 여기서, 레프리젠테이션의 증대는 명암 대비(contrast) 또는 컬러의 보정(adjusting)일 수 있다.
전술된 Accessibility 요소는 하기와 같이 확장될 수 있다. 새로운 자식 요소 "MP21Access"는 MPEG-21 DIA 접근성 설명을 위한 컨테이너로서 사용될 수 있다. 또한, 부가적인 xlink:href 속성이 MPEG-21 DIA 접근성 요소들을 포함하는 외부의(external) 설명을 참조하기 위해 Accessibility 요소에 추가될 수 있다.
나아가, 새로운 속성 "use"가 클라이언트가 접근성의 목적을 위한 레프리젠테이션의 의도된 사용을 알리기 위한 힌트로서 채용(employ)될 수 있다. 이러한 새로운 요소 및 속성들은 레프리젠테에션 그룹(또는, 어댑테이션 세트), 레프리젠테이션 및 서브레프리젠테이션에 적용될 수 있다.
하기에서 접근성을 지원하기 위한 요소 및 속성의 시맨틱이 설명된다.
1) Group 요소, Adaptation Set 요소, Representation 요소 또는 SubRepresentation 요소는 접근성을 지원하기 위해 하기와 같은 속성을 더 가질 수 있다.
- use 속성은 레프리젠테이션(들)의 의도된 사용을 나타낼 수 있다. use 속성의 값은 signLang, subtitle, caption, description 또는 plusDes 등일 수 있다. signLang은 수화로서 사용함을 가리킬 수 있다. subtitle은 자막으로서 사용함을 가리킬 수 있다. caption은 캡션으로서 사용함을 가리킬 수 있다. 캡션은 추가적인 설명을 갖는 자막일 수 있다. description은, 예컨대 영화의 오디오 설명과 같은, 설명으로서 사용함을 가리킬 수 있다. plusDesc는 해당하는 레프리젠테이션의 콘텐츠는 설명을 포함하여 증대되었음을 가리킬 수 있다. 예컨대, 오디오 설명을 포함하여 증대된 사운드 트랙을 가리킬 수 있다.
- xlink:href 속성은 ISO/IEC IS 21000-7 요소의 AuditoryImpairmentType 및/또는 VisualImpairmentType 요소를 포함하는 외부의 MPEG-21 DIA로의 참조를 제공할 수 있다. 상기의 설명과 연관된 상기의 레프리젠테이션 또는 레프리젠테이션 그룹은 상기의 설명에 의해 설명되는 문제들을 갖는 장애인들에게 적합할 수 있다.
- xlink:actuate 속성은 처리 명령들을 제공할 수 있다. 처리 명령들은 "onLoad" 또는 "onRequest"일 수 있다. xlink:actuate 속성은 xlink:href 속성이 부재이면 존재할 수 없다.
2) Group 요소, Adaptation Set 요소, Representation 요소 또는 SubRepresentation 요소는 접근성을 지원하기 위해 하기와 같은 요소를 더 가질 수 있다.
- Accessibility 요소는, 0 내지 N의 인덱스를 가질 수 있으며, 접근성 정보 스킴에 대한 정보를 제공할 수 있다.
- MP21Access 요소는, 0 내지 1의 인덱스를 가질 수 있으며, ISO/IEC 21000-7의 AuditoryImpairmentType and/or VisualImpairmentType 요소들과 함께 MPEG-21 DIA 설명을 포함할 수 있다. 상기의 설명과 연관된 레프리젠테이션들 또는 레프리젠테이션 그룹은 상기의 설명에 의해 설명된 문제들을 갖는 장애자들에게 적합할 수 있다.
하기의 표 12는 일 예에 따른 Group 요소, Adaptation Set 요소, Representation 요소 또는 SubRepresentation 요소의 접근성을 지원하기 위한 XML 신택스를 나타낼 수 있다.
Figure PCTKR2012001922-appb-I000022
Figure PCTKR2012001922-appb-I000023
하기에서, 레프리젠테이션들 간의 관계를 설명하는 메타데이터가 설명된다.
레프리젠테이션 그룹들 간의 관계를 설명하는 메타데이터는 상대적으로 드물다. 예컨대, 클라이언트에게 주어진 오디오 설명이 어떤 비디오 스트림과 연관되는 것인지를 알려주는 것은 어렵다. 몇몇 경우들에 있어서, 2 개의 레프리젠테이션 그룹들이 개념상으로(semantically) 동등할 수 있고, 단지 하나의 레프리젠테이션 그룹이 컨텍스트에 따라서 선택되어야 할 수도 있다. 하기에서, 2 개의 단순한 속성들이 상술된 목적을 위해 제안된다. 하기에서 설명되는 메타데이터는, 접근성뿐만 아니라 일반적인 적응성(adaptivity)를 위해서도 유용할 수 있다.
Group 요소, Adaptation Set 요소, Representation 요소 또는 SubRepresentation 요소는 레프리젠테이션들 간의 관계를 설명하기 위해 하기와 같은 속성을 더 가질 수 있다.
- usedWith 속성은 하나 이상의 레프리젠테이션 또는 레프리젠테이션 그룹의 목록을 가리킬 수 있다. 만약, 현재의 레프리젠테이션 또는 레프리젠테이션 그룹이 사용되면, usedWith 속성은 상기의 리스트의 임의의 아이템과 함께 사용될 수 있다. 예컨대, 오디오 설명을 위한 레프리젠테이션 그룹은 비디오 컴포넌트의 특정한 레프리젠테이션 그룹과 함께 사용될 수 있다. usedWith 속성의 값은 공백으로 분리된(whitespace-separated) 목록일 수 있다. 공백으로 분리된 목록의 각 아이템은 하나의 레프리젠테이션 그룹 또는 하나의 레프리젠테이션의 식별(identification)일 수 있다. 레프리젠테이션 그룹의 식별은 group 속성 또는 adaptationSet 속성의 값일 수 있다. 레프리젠테이션의 식별은 repid 속성의 포맷을 가질 수 있다. repid 속성은 레프리젠테이션의 id 속성의 값일 수 있다.
- equivalentTo 속성은 하나 이상의 레프리젠테이션 또는 레프리젠테이션 그룹의 목록을 가리킬 수 있다. 현재의 레프리젠테이션은 상기의 목록의 임의의 아이템 대신 사용될 수 있다. 예컨대, 자막을 위한 레프리젠테이션 그룹은 오디오 컴포넌트의 특정한 레프리젠테이션 그룹 대신 사용될 수 있다. equivalentTo 속성의 포멧은 usedWith 속성의 포멧과 동일할 수 있다.
하기의 표 13은 일 예에 따른 Group 요소, Adaptation Set 요소, Representation 요소 또는 SubRepresentation 요소의 레프리젠테이션들 간의 관계를 설명하기 위한 XML 신택스를 나타낼 수 있다.
Figure PCTKR2012001922-appb-I000024
Figure PCTKR2012001922-appb-I000025
하기에서, 비트 깊이에 대한 메타데이터가 설명된다.
상이한 디스플레이 비트 깊이들을 갖는 단말들을 위한 상이한 레프리젠테이션들을 선택하기 위해, 레프리젠테이션 및 레프리젠테이션 그룹을 위해 하기의 속성들이 사용될 수 있다. 비트 깊이는, 시각적 콘텐츠의 루마(luma)/크로마(chroma) 샘플을 나타내기 위해 사용되는 비트들의 개수를 의미할 수 있다.
하기에서 비트 깊이에 대한 속성의 시맨틱이 설명된다.
Group 요소, Adaptation Set 요소, Representation 요소 또는 SubRepresentation 요소는 비트 깊이를 제공하기 위해 하기와 같은 속성을 더 가질 수 있다.
- bitDepth 속성은 시각적 콘텐츠의 루마/크로마 샘플을 나타내기 위한 비트들의 개수를 가리킬 수 있다. 만약, 예컨대 서로 다른 비디오 사진들에서, 비트 깊이가 변동하면 bitDepth 속성의 값은 비트 깊이들의 최대 값이 될 수 있다.
하기의 표 14은 일 예에 따른 Group 요소, Adaptation Set 요소, Representation 요소 또는 SubRepresentation 요소의 비트 깊이를 지원하기 위한 XML 신택스를 나타낼 수 있다.
Figure PCTKR2012001922-appb-I000026
Figure PCTKR2012001922-appb-I000027
상술된 설명에 대응하기 위해, Representation Group 요소 또는 Adaptation Set 요소에 2 개의 속성들 minBitDepth 및 maxBitDepth가 추가될 수 있다.
하기에서, 최대 비트 깊이 및 최소 비트 깊이를 설명하는 속성들의 시맨틱들이 설명된다.
Representation Group 요소, Group 요소 또는 Adaptation Set 요소는 최대 비트 깊이 및 최소 비트 깊이를 설명하기 위해 하기와 같은 속성을 더 가질 수 있다.
- xlink:href 속성은 외부의 Group 요소 또는 Adaptation Set 요소로의 참조를 나타낼 수 있다.
- xlink:actuate 속성은 처리 명령들을 제공할 수 있다. 처리 명령들은 "onLoad" 또는 "onRequest"일 수 있다.
- minBitDepth 속성은 그룹 또는 어댑테이션 세트 내의 모든 레프리젠테이션들에게 있어서의, 최소 비트 깊이 값을 나타낼 수 있다.
- maxBitDepth 속성은 그룹 또는 어댑테이션 세트 내의 모든 레프리젠테이션들에게 있어서의, 최대 비트 깊이 값을 나타낼 수 있다.
하기의 표 15는 일 예에 따른 Representation Group 요소, Group 요소 또는 Adaptation Set 요소의 최소 비트 깊이 값 및 최대 비트 깊이 값을 지원하기 위한 XML 신택스를 나타낼 수 있다.
Figure PCTKR2012001922-appb-I000028
Figure PCTKR2012001922-appb-I000029
도 2는 본 발명의 일 실시예에 따른 콘텐츠 처리 방법의 신호 흐름도이다.
단말(200)은 전술된 DASH의 클라이언트일 수 있다.
DASH의 클라이언트는 RFC 2616에 명세된 클라이언트와 호환될 수 있다.
DASH의 클라이언트는, 세그먼트들 또는 세그먼트들의 일부들에 접근하기 위해, RFC 2616에서 명세된 것처럼, 일반적으로 HTTP GET 메쏘드(method) 또는 HTTP partial GET 메쏘드를 사용할 수 있다.
서버(210)는 DASH의 세그먼트들을 호스팅(hosting)할 수 있다. 서버(210)는 RFC 2616에서 명세된 서버와 호환될 수 있다.
단계(220)에서, 단말(200)은 서버(210)로부터 미디어 콘텐츠의 메타데이터를 수신할 수 있다. 즉, 서버(210)는 단말(200)에게 미디어 콘텐츠에 대한 메타데이터를 전송한다. 미디어 콘텐츠는 하나 이상의 주기들을 포함할 수 있다.
메타데이터는 MPD일 수 있다.
MPD는 단말(200)이 정의된 자원들의 스킴 내에서 명세된 프로토콜을 통해 세그먼트들을 접근함으로써 사용자에게 스트리밍 서비스를 제공하기에 충분한 정보를 제공할 수 있다. 여기서, 명세된 프로토콜은 HTTP/1.1일 수 있다. 서버(210)는 MPD 전달 기능을 제공할 수 있다. MPD는 DASH 미디어 프리젠테이션 준비(preparation)에 따라 생성될 수 있다.
단계(230)에서, 단말(200)은 수신된 메타데이터를 처리할 수 있다. 단계(230)에서, 단말(200)은 메타데이터가 제공하는 정보 또는 메타데이터 내에 포함된 정보를 추출할 수 있다.
단계들(240 내지 250)에서, 단말(200)은 메타데이터가 제공하는 정보에 기반하여 미디어 콘텐츠의 세그먼트에 접근(access)할 수 있다. 서버(210)는 DASH 세그먼트 전달 기능(function)을 제공하는 HTTP 서버일 수 있다.
여기서, 각 주기는 하나 이상의 그룹들을 포함할 수 있고, 각 그룹은 미디어 콘텐츠의 하나 이상의 레프리젠테이션을 포함할 수 있다. 즉, 각 주기는 미디어 콘텐츠의 하나 이상의 레프리젠테이션을 포함할 수 있다. 따라서, 각 레프리젠테이션은 자신을 포함하는 주기의 시작점에서 시작하고, 상기의 주기의 종료점까지 지속할 수 있다.. 각 레프리젠테이션은 하나 이상의 세그먼트들을 포함할 수 있다.
단계(240)에서, 단말(200)은 서버(210)에게 미디어 콘텐츠의 세그먼트를 세그먼트의 URL을 사용하여 요청할 수 있다. 여기서, URL은 전술된 베이스 URL 요소에 상관되어 해석될 수 있다. 예컨대, 세그먼트의 URL은 베이스 URL 요소에 기반하여 생성될 수 있다.
MPD는 1) 서버(210)에게 세그먼트들을 요청하고, 2) 세그먼트 내에 포함된 미디어 스트림들을 디멀티플렉싱(demultiplexing), 디코딩 및 렌더링함으로써 사용자에게 스트리밍 서비스를 제공하기에 충분한 정보를 단말(200)에게 제공할 수 있다.
단말(200)은 상기의 메타데이터 처리에 기반하여 특정 주기에 대한 적합한 세그먼트를 서버(210)에게 요청할 수 있다. 즉, 요청되는 세그먼트는 메타데이터에 기반하여 선택된 것일 수 있다. 단말(200) 은 HTTP GET 메쏘드(method)를 실행함으로써 세그먼트를 서버(210)에게 요청할 수 있다.
메타데이터는 범위 속성을 포함할 수 있다. 상기의 요청은 URL이 가리키는 자원의, 범위 속성이 지정하는 바이트들에 대한 요청일 수 있다.
세그먼트의 URL은 절대적 URL 또는 상대적 URL일 수 있다.
단말(200)은 상기의 메타데이터가 포함하는 요소 또는 속성을 사용하여 주기, 어댑테이션 세트 및 레프리젠테이션 등을 선택할 수 있고, 선택된 주기, 어댑테이션 세트 또는 레프리젠테이션의 요소 및 속성에 기반하여 요청할 세그먼트를 선택할 수 있다.
예컨대, 주기가 포함하는 하나 이상의 레프리젠테이션들에 있어서, 각 레프리젠테이션은 미디어 콘텐츠를 지각함에 있어서 곤란함을 겪는 장애인들을 지원하기 위한 정보를 포함할 수 있다. 레프리젠테이션의 미디어 컴포넌트는 장애자의 문제에 대처하기 위해 증대될 수 있다. 증대는 명암 대비의 증대 및 컬러의 보정의 증대 중 하나 이상일 수 있다. 또한, 상기의 정보는 레프리젠테이션이 의도된 사용을 나타낼 수 있다. 여기서, 의도된 사용이란, 수화, 자막, 캡션 및 설명 중 하나 이상일 수 있다. 또한, 상기의 정보는 외부의 MPEG-21 디지털 아이템 적응(Digital Item Adaptation; DIA)로의 참조를 제공하는 속성을 포함할 수 있다.
예컨대, 메타데이터는 하나 이상의 레프리젠테이션들 간의 관계를 설명하는 속성을 포함할 수 있다. 하나 이상의 레프리젠테이션들 중 제1 레프리젠테이션은 하나 이상의 레프리젠테이션들 중 일부의 레프리젠테이션들의 목록을 가리키는 속성을 포함할 수 있고, 제1 레프리젠테이션은 상기 일부의 레프리젠테이션들 중 하나와 함께 사용될 수 있다. 여기서, 제1 레프리젠테이션은 오디오 설명을 위한 레프리젠테이션일 수 있고, 일부의 레프리젠테이션들은 각각 비디오 컴포넌트의 레프리젠테이션일 수 있다. 또한, 하나 이상의 레프리젠테이션들 중 제2 레프리젠테이션은 상기의 하나 이상의 레프리젠테이션들 중 일부의 레프리젠테이션들의 목록을 가리키는 속성을 포함할 수 있고, 상기의 일부의 레프리젠테이션들 중 하나의 레프리젠테이션은 제2 레프리젠테이션에 대체되어 사용될 수 있다.
예컨데, 주기가 포함하는 하나 이상의 레프리젠테이션들에 있어서, 각 레프리젠테이션은 상이한 디스플레이 비트 깊이들을 갖는 단말들을 위한 상이한 레프리젠테이션을 선택하기 위해 사용되는 비트 깊이 속성을 포함할 수 있다.
비트 깊이 속성은 시각적 콘텐츠의 루마/크로마 샘플을 나타내기 위한 비트들의 개수를 가리킬 수 있다.
단계(245)에서, 몇몇 경우에 있어서, 서버(210)는 미디어 콘텐츠(예컨대, SVC를 위한 MP4 파일)를 파스(parse)할 필요가 있고, 상기 요청된 세그먼트에 적합한 데이터 파트를 추출할 수 있다.
단계(250)에서, 서버(210)는 단말(200)로부터의 각 요청에 대해 적합한 세그먼트들을 단말(200)로 전송할 수 있다. 단말(200)은 서버(210)로부터 세그먼트들을 수신할 수 있다.
단계(260)에서, 단말(200)은 세그먼트 내에 포함된 미디어의 데이터를 디코딩 및 렌더링함으로써 미디어를 재생할 수 있다.
단말(200)은, 단계들(220 내지 260)을 반복함으로써 수신된 세그먼트를 사용하여 미디어를 재생할 수 있다.
앞서 도 1을 참조하여 설명된 본 발명의 일 실시예에 따른 기술 적 내용들이 본 실시예에도 그대로 적용될 수 있다. 따라서 보다 상세한 설명은 이하 생략하기로 한다.
도 3은 본 발명의 일 예에 따른 시그널링 정보의 카테고리들을 도시한다.
시그널링 정보(즉, 메타데이터)는 하기의 카테고리들 1) 내지 4)로 나뉘어질 수 있다..
1) 일반 정보(general information)(310) : 일반 정보는, 예컨대 지속시간(duration) 및 시작 시각과 같은, 콘텐츠의 일반 설명(description) 및 각 인터벌의 일반 설명을 포함할 수 있다.
2) 서비스의 품질 정보(QoS information)(320) : 비트레이트(bitrate), 해상도(resolution), 품질(quality)와 같은, 각 대안의 특성들(characteristics)을 설명할 수 있다. 즉, 서비스의 품질 정보는 콘텐츠의 대안들 각각의 특성들을 설명할 수 있다.
대안은 물리적(physical)(즉, 미리 생성된)일 수 있고, 가상(virtual)(즉, 온-더-플라이(on the fly)로 생성될)일 수 있다. 대안들의 정보에 기반하여, 클라이언트는 적합한 대안의 프래그먼트를 선택할 수 있다. 따라서, 단말들 및 네트워크들의 문맥(context)들에 대한 적합성(adaptivity)을 지원할 수 있다.
3) 매핑 정보(Mapping Information)(330) : 콘텐츠를 추출(retrieve)할 위치들(locations)을 설명할 수 있다. 특정 경우들(cases)에 의존하여, 상이한 대안들은 동일하거나 상이한 위치들을 가질 수 있다.
4) 클라이언트 요청(Client request)(340) : 이러한 종류의 시그널링 정보는 HTTP 1.1 요청(request) 메시지의 포멧을 따를 수 있다(conform). 클라이언트에 의해서 요청된 파라미터들은 상기의 1) 내지 3) 카테고리들의 정보로부터 비롯할 수 있다(derive).
도 4는 본 발명의 일 예에 따른 콘텐츠 디비전(division)의 계층 및 시그널링 정보의 레벨들(levels)을 나타낸다.
본 발명의 일시예들에 따른 메타데이터의 시그널링은 콘텐츠-레벨 정보(410), 인터벌 레벨 정보(420), QoS 정보(430) 및 매핑(440) 정보로 물리적으로 분리될(separated) 수 있다. 콘텐츠-레벨 정보(310), 인터벌 레벨 정보(420), QoS 정보(430) 및 매핑(440)의 관련된 부분들의 링킹(linking)은 참조(referencing)에 의해 이루어질 수 있다.
시그널링 정보의 이러한 부분들은 유연성을 지원하기 위한 상이한 방법들(ways)으로 조합(combine)될 수 있다.
예를 들면, 단지 콘텐츠-레벨 정보(410) 및 인터벌 레벨 정보(420)만이 클라이언트로 전송될 때, 모든 대안들의 결정 및 위치들의 해결(resolve)을 위한 계산들은 서버에 의해 수행될 수 있다. 따라서, 콘텐츠-레벨 정보(310) 및 인터벌 레벨 정보(420)만이 클라이언트로 전송될 때 의 프로세싱 모델은 "서버-기반"이일 수 있다.
만약, 콘텐츠-레벨 정보(410), 인터벌-레벨 정보(420) 및 QoS 정보(430)가 클라이언트로 전송되면, 모든 대안들의 결정 및 위치들의 해결(resolve)을 위한 계산들은 클라이언트 및 서버에 의해 분산하여 수행될 수 있다. 따라서, 콘텐츠-레벨 정보(410), 인터벌-레벨 정보(420) 및 QoS 정보(430)가 클라이언트로 전송될 때, 상기의 모델은 "분산된"이 될 수 있다.
모든 시그널링 정보들(콘텐츠-레벨 정보(410), 인터벌-레벨 정보(320), QoS 정보(430) 및 매핑 정보(440))이 클라이언트로 전송될 때, 이러한 모델에서 대부분(또는, 전부)의 프로세싱(즉, 대안들의 결정 및 위치들의 해결을 위한 계산)은 클라이언트에서 되기 수행 때문에, 상기 모델은 클라이언트-기반(client-based)일 수 있다.
메타데이터 파트들의 분리는 저장 및 전달에 있어서 효율성을 가능하게 할 수 있다. 예를 들면, 세션 동안, 콘텐츠-레벨 정보(410)의 메타데이터는 1회 보내질 수 있고, 인터벌 레벨 정보(420)만이 주기적으로 갱신될 수 있다. 유사하게, QoSInfo 파트(430)를 포함하는 하나의 파일이 상이한 인터벌들 및 상이한 콘텐츠를 위해 사용될 수 있다.
도 5는 본 발명의 일 실시예에 따른 단말의 구조도이다.
하기에서 설명될 단말(100)의 구조는 개념적인 DASH 클라이언트 모델의 논리적인 구성 요소들을 나타낼 수 있다.
단말(100)는 접근 엔진(510) 및 미디어 엔진(520)을 포함할 수 있다.
접근 엔진(510)은 DASH 접근 엔진일 수 있다.
접근 엔진(510)은 서버(110)로부터, 메타데이터(예컨대, MPD)를 수신할 수 있다.
접근 엔진(510)은, 요청(request)들을 구성들을 구성할 수 있고, 구성된 요청들을 서버(110)에게 발행(issue)할 수 있다.
접근 엔진(510)은, 콘텐츠(예켄더, 세그먼트들 또는 세그먼트들의 일부들)을 서버(110)로부터 수신할 수 있다.
접근 엔진(510)은 콘텐츠를 미디어 엔진(520)에게 제공할 수 있다.
접근 엔진(510)의 출력은, MPEG 컨테니어(container)(예컨대, ISO/IEC 14492-12 ISO 베이스 미디어 파일 포멧 또는 ISO/IEC 13818-2 MPEG-2 트랜스포트 스트림)의 미디어(또는, 미디어의 일부들)을 포함할 수 있다. 또한, 접근 엔진(510)의 출력은 상기 미디어의 내부적(internal) 타이밍을 미디어 프리젠테이션의 타임 라인으로 사상(map)하는 타이밍 정보를 포함할 수 있다.
또한, 접근 엔진(510)은 도 2를 참조하여 전술된 단계들(220 내지 260)에서, 단말(200)이 수행하는 것으로 설명된 기능들을 수행할 수 있다.
미디어 엔진(520)은 제공된 콘텐츠를 재생할 수 있다. 즉, 미디어 엔진(520)은 접근 엔진(510)으로부터 출력된 미디어 및 타이밍 정보를 사용하여 미디어를 출력할 수 있다.
앞서 도 1 내지 도 4를 참조하여 설명된 본 발명의 일 실시예에 따른 기술 적 내용들이 본 실시예에도 그대로 적용될 수 있다. 따라서 보다 상세한 설명은 이하 생략하기로 한다.
본 발명의 일 실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.

Claims (20)

  1. 하나 이상의 주기들을 포함하는 미디어 콘텐츠의 메타데이터를 수신하는 단계;
    상기 메타데이터가 제공하는 정보에 기반하여 상기 미디어의 세그먼트들에 접근하는 단계; 및
    상기 세그먼트들 내에 포함된 상기 미디어 콘텐츠의 데이터를 디코딩 및 렌더링하는 단계
    를 포함하고,
    각 주기는 상기 미디어의 하나 이상의 레프리젠테이션들을 포함하고,
    각 레프리젠테이션은 상기 미디어 콘텐츠를 지각함에 있어서 곤란함을 겪는 장애인들을 지원하기 위한 정보를 포함하는, 미디어 제공 방법.
  2. 제1항에 있어서,
    상기 레프리젠테이션의 미디어 컴포넌트는 장애자의 문제에 대처하기 위해 증대되고, 상기의 증대는 명암 대비의 증대 및 컬러의 보정의 증대 중 하나 이상인, 미디어 제공 방법.
  3. 제1항에 있어서,
    상기 정보는 레프리젠테이션이 의도된 사용을 나타내고, 상기 의도된 사용은 수화, 자막, 캡션 및 설명 중 하나 이상인, 미디어 제공 방법.
  4. 제1항에 있어서,
    상기 정보는 외부의 MPEG-21 디지털 아이템 적응(Digital Item Adaptation; DIA)로의 참조를 제공하는 속성을 포함하는, 미디어 제공 방법.
  5. 하나 이상의 주기들을 포함하는 미디어 콘텐츠의 메타데이터를 수신하는 단계;
    상기 메타데이터가 제공하는 정보에 기반하여 상기 미디어의 세그먼트들에 접근하는 단계; 및
    상기 세그먼트들 내에 포함된 상기 미디어 콘텐츠의 데이터를 디코딩 및 렌더링하는 단계
    를 포함하고,
    각 주기는 상기 미디어의 하나 이상의 레프리젠테이션들을 포함하고,
    상기 메타데이터는 상기 하나 이상의 레프리젠테이션들 간의 관계를 설명하는 속성을 포함하는, 미디어 제공 방법.
  6. 제5항에 있어서,
    상기 하나 이상의 레프리젠테이션들 중 제1 레프리젠테이션은 상기 하나 이상의 레프리젠테이션들 중 일부의 레프리젠테이션들의 목록을 가리키는 속성을 포함하고, 상기 제1 레프리젠테이션은 상기 일부의 레프리젠테이션들 중 하나와 함께 사용될 수 있는, 미디어 제공 방법.
  7. 제6항에 있어서,
    상기 제1 레프리젠테이션은 오디오 설명을 위한 레프리젠테이션이고, 상기 일부의 레프리젠테이션들은 각각 비디오 컴포넌트의 레프리젠테이션인, 미디어 제공 방법.
  8. 제5항에 있어서,
    상기 하나 이상의 레프리젠테이션들 중 제1 레프리젠테이션은 상기 하나 이상의 레프리젠테이션들 중 일부의 레프리젠테이션들의 목록을 가리키는 속성을 포함하고, 상기 일부의 레프리젠테이션들 중 하나의 레프리젠테이션은 상기 제1 레프리젠테이션에 대체되어 사용될 수 있는, 미디어 제공 방법.
  9. 하나 이상의 주기들을 포함하는 미디어 콘텐츠의 메타데이터를 수신하는 단계;
    상기 메타데이터가 제공하는 정보에 기반하여 상기 미디어의 세그먼트들에 접근하는 단계; 및
    상기 세그먼트들 내에 포함된 상기 미디어 콘텐츠의 데이터를 디코딩 및 렌더링하는 단계
    를 포함하고,
    각 주기는 상기 미디어의 하나 이상의 레프리젠테이션들을 포함하고,
    각 레프리젠테이션은 상이한 디스플레이 비트 깊이들을 갖는 단말들을 위한 상이한 레프리젠테이션을 선택하기 위해 사용되는 비트 깊이 속성을 포함하는, 미디어 제공 방법.
  10. 제9항에 있어서,
    상기 비트 깊이 속성은 시각적 콘텐츠의 루마/크로마 샘플을 나타내기 위한 비트들의 개수를 가리키는, 미디어 제공 방법.
  11. 하나 이상의 주기들을 포함하는 미디어 콘텐츠의 메타데이터를 수신하고, 상기 메타데이터가 제공하는 정보에 기반하여 상기 미디어의 세그먼트들을 수신하고, 상기 세그먼트들 내에 포함된 상기 미디어의 데이터를 디코딩하는 접근 엔진; 및
    상기 접근 엔진으로부터 상기 미디어의 데이터를 제공받아 상기 미디어를 출력하는 미디어 엔진을 포함하고,
    각 주기는 상기 미디어의 하나 이상의 레프리젠테이션들을 포함하고,
    각 레프리젠테이션은 상기 미디어 콘텐츠를 지각함에 있어서 곤란함을 겪는 장애인들을 지원하기 위한 정보를 포함하는, 단말.
  12. 제11항에 있어서,
    상기 레프리젠테이션의 미디어 컴포넌트는 장애자의 문제에 대처하기 위해 증대되고, 상기의 증대는 명암 대비의 증대 및 컬러의 보정의 증대 중 하나 이상인, 단말.
  13. 제11항에 있어서,
    상기 정보는 레프리젠테이션이 의도된 사용을 나타내고, 상기 의도된 사용은 수화, 자막, 캡션 및 설명 중 하나 이상인, 단말.
  14. 제11항에 있어서,
    상기 정보는 외부의 MPEG-21 디지털 아이템 적응(Digital Item Adaptation; DIA)로의 참조를 제공하는 속성을 포함하는, 단말.
  15. 하나 이상의 주기들을 포함하는 미디어 콘텐츠의 메타데이터를 수신하고, 상기 메타데이터가 제공하는 정보에 기반하여 상기 미디어의 세그먼트들을 수신하고, 상기 세그먼트들 내에 포함된 상기 미디어의 데이터를 디코딩하는 접근 엔진; 및
    상기 접근 엔진으로부터 상기 미디어의 데이터를 제공받아 상기 미디어를 출력하는 미디어 엔진을 포함하고,
    각 주기는 상기 미디어의 하나 이상의 레프리젠테이션들을 포함하고,
    상기 메타데이터는 상기 하나 이상의 레프리젠테이션들 간의 관계를 설명하는 속성을 포함하는, 단말.
  16. 제15항에 있어서,
    상기 하나 이상의 레프리젠테이션들 중 제1 레프리젠테이션은 상기 하나 이상의 레프리젠테이션들 중 일부의 레프리젠테이션들의 목록을 가리키는 속성을 포함하고, 상기 제1 레프리젠테이션은 상기 일부의 레프리젠테이션들 중 하나와 함께 사용될 수 있는, 단말.
  17. 제16항에 있어서,
    상기 제1 레프리젠테이션은 오디오 설명을 위한 레프리젠테이션이고, 상기 일부의 레프리젠테이션들은 각각 비디오 컴포넌트의 레프리젠테이션인, 단말.
  18. 제15항에 있어서,
    상기 하나 이상의 레프리젠테이션들 중 제1 레프리젠테이션은 상기 하나 이상의 레프리젠테이션들 중 일부의 레프리젠테이션들의 목록을 가리키는 속성을 포함하고, 상기 일부의 레프리젠테이션들 중 하나의 레프리젠테이션은 상기 제1 레프리젠테이션에 대체되어 사용될 수 있는, 단말.
  19. 하나 이상의 주기들을 포함하는 미디어 콘텐츠의 메타데이터를 수신하고, 상기 메타데이터가 제공하는 정보에 기반하여 상기 미디어의 세그먼트들을 수신하고, 상기 세그먼트들 내에 포함된 상기 미디어의 데이터를 디코딩하는 접근 엔진; 및
    상기 접근 엔진으로부터 상기 미디어의 데이터를 제공받아 상기 미디어를 출력하는 미디어 엔진을 포함하고,
    각 주기는 상기 미디어의 하나 이상의 레프리젠테이션들을 포함하고,
    각 레프리젠테이션은 상이한 디스플레이 비트 깊이들을 갖는 단말들을 위한 상이한 레프리젠테이션을 선택하기 위해 사용되는 비트 깊이 속성을 포함하는, 단말.
  20. 제19항에 있어서,
    상기 비트 깊이 속성은 시각적 콘텐츠의 루마/크로마 샘플을 나타내기 위한 비트들의 개수를 가리키는, 단말.
PCT/KR2012/001922 2011-03-16 2012-03-16 레프리젠테이션을 사용하는 스트리밍 콘텐츠 제공 장치 및 방법 WO2012125006A2 (ko)

Priority Applications (8)

Application Number Priority Date Filing Date Title
CN201280013527.7A CN103493499B (zh) 2011-03-16 2012-03-16 提供使用表示的流媒体内容的装置及方法
EP12756927.5A EP2688297A4 (en) 2011-03-16 2012-03-16 DEVICE AND METHOD FOR PROVIDING STREAMING CONTENT USING PREPARATIONS
US14/004,644 US9860293B2 (en) 2011-03-16 2012-03-16 Apparatus and method for providing streaming content using representations
US15/834,702 US10122780B2 (en) 2011-03-16 2017-12-07 Apparatus and method for providing streaming content using representations
US16/168,933 US10270830B2 (en) 2011-03-16 2018-10-24 Apparatus and method for providing streaming content using representations
US16/229,092 US10313414B2 (en) 2011-03-16 2018-12-21 Apparatus and method for providing streaming content using representations
US16/386,609 US10645136B2 (en) 2011-03-16 2019-04-17 Apparatus and method for providing streaming content using representations
US16/861,912 US11082470B2 (en) 2011-03-16 2020-04-29 Apparatus and method for providing streaming content using representations

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20110023271 2011-03-16
KR10-2011-0023271 2011-03-16
KR1020120026862A KR101854382B1 (ko) 2011-03-16 2012-03-16 레프리젠테이션을 사용하는 스트리밍 콘텐츠 제공 장치 및 방법
KR10-2012-0026862 2012-03-16

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US14/004,644 A-371-Of-International US9860293B2 (en) 2011-03-16 2012-03-16 Apparatus and method for providing streaming content using representations
US15/834,702 Continuation US10122780B2 (en) 2011-03-16 2017-12-07 Apparatus and method for providing streaming content using representations

Publications (2)

Publication Number Publication Date
WO2012125006A2 true WO2012125006A2 (ko) 2012-09-20
WO2012125006A3 WO2012125006A3 (ko) 2012-12-27

Family

ID=47113237

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2012/001922 WO2012125006A2 (ko) 2011-03-16 2012-03-16 레프리젠테이션을 사용하는 스트리밍 콘텐츠 제공 장치 및 방법

Country Status (5)

Country Link
US (6) US9860293B2 (ko)
EP (3) EP2688297A4 (ko)
KR (4) KR101854382B1 (ko)
CN (3) CN108366070A (ko)
WO (1) WO2012125006A2 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105519131A (zh) * 2013-07-19 2016-04-20 索尼公司 信息处理装置和方法
EP3062523A1 (en) * 2013-10-22 2016-08-31 Sharp Kabushiki Kaisha Display processing device, distribution device, and metadata
US20160337679A1 (en) * 2014-01-08 2016-11-17 Electronics And Telecommunications Research Instit Ute Method for displaying bit depth for playing video using dash
US9860612B2 (en) * 2014-04-10 2018-01-02 Wowza Media Systems, LLC Manifest generation and segment packetization

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10057535B2 (en) 2010-12-09 2018-08-21 Comcast Cable Communications, Llc Data segment service
US9438883B2 (en) * 2012-04-09 2016-09-06 Intel Corporation Quality of experience reporting for combined unicast-multicast/broadcast streaming of media content
JP6064249B2 (ja) 2012-07-09 2017-01-25 ホアウェイ・テクノロジーズ・カンパニー・リミテッド 動的適応ストリーミングオーバーハイパーテキスト転送プロトコルクライアント挙動フレームワークおよびセッション管理の実装
GB2513140B (en) * 2013-04-16 2016-05-04 Canon Kk Methods, devices, and computer programs for streaming partitioned timed media data
EP2962469A1 (en) * 2013-07-15 2016-01-06 Huawei Technologies Co., Ltd. Just-in-time dereferencing of remote elements in dynamic adaptive streaming over hypertext transfer protocol
US9628528B2 (en) * 2013-07-19 2017-04-18 Electronics And Telecommunications Research Institute Apparatus and method for providing content
KR20150012206A (ko) 2013-07-24 2015-02-03 한국전자통신연구원 3차원 콘텐츠의 부호화 방법 및 장치
US9270721B2 (en) * 2013-10-08 2016-02-23 Qualcomm Incorporated Switching between adaptation sets during media streaming
US20150120819A1 (en) * 2013-10-25 2015-04-30 Futurewei Technologies Inc. System and method for associating representations in adaptive streaming
EP3092811B1 (en) * 2014-01-07 2020-02-12 InterDigital VC Holdings, Inc. Method for providing a content part of a multimedia content to a client terminal, corresponding cache
WO2015105327A1 (ko) * 2014-01-08 2015-07-16 한국전자통신연구원 Dash를 사용하는 비디오 재생을 위한 비트 깊이 표현 방법
GB2524531B (en) * 2014-03-25 2018-02-07 Canon Kk Methods, devices, and computer programs for improving streaming of partitioned timed media data
JP6340882B2 (ja) * 2014-04-04 2018-06-13 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
US10110657B2 (en) * 2014-07-03 2018-10-23 Telefonaktiebolaget Lm Ericsson (Publ) System and method for pushing live media content in an adaptive streaming environment
WO2016003915A1 (en) 2014-07-03 2016-01-07 Huawei Technologies Co., Ltd. Signaling and handling of forensic marking for adaptive streaming
US10645674B2 (en) 2014-08-22 2020-05-05 Lg Electronics Inc. Method for transmitting broadcast signals, apparatus for transmitting broadcast signals, method for receiving broadcast signals and apparatus for receiving broadcast signals
KR101980721B1 (ko) * 2015-02-12 2019-05-21 후아웨이 테크놀러지 컴퍼니 리미티드 멀티미디어 스트리밍 서비스 프레젠테이션 방법, 관련 장치 및 관련 시스템
US10412132B2 (en) * 2015-02-16 2019-09-10 Lg Electronics Inc. Broadcasting signal transmission device, broadcast signal reception device, broadcast signal transmission method, and broadcast signal reception method
CA3082203C (en) * 2015-10-23 2022-11-08 Sharp Kabushiki Kaisha Signaling method, receiving method signaling device, and receiving device
US10593028B2 (en) * 2015-12-03 2020-03-17 Samsung Electronics Co., Ltd. Method and apparatus for view-dependent tone mapping of virtual reality images
US10565258B2 (en) * 2015-12-10 2020-02-18 Comcast Cable Communications, Llc Selecting and sharing content
US9780891B2 (en) * 2016-03-03 2017-10-03 Electronics And Telecommunications Research Institute Method and device for calibrating IQ imbalance and DC offset of RF tranceiver
CN106961612B (zh) * 2017-03-16 2021-02-02 Oppo广东移动通信有限公司 一种图像处理方法及设备
WO2020058567A1 (en) * 2018-09-18 2020-03-26 Nokia Technologies Oy Method and apparatus for non-binary profile constraint signaling for video coding
US10930284B2 (en) 2019-04-11 2021-02-23 Advanced New Technologies Co., Ltd. Information processing system, method, device and equipment
US11310303B2 (en) * 2019-10-01 2022-04-19 Tencent America LLC Methods and apparatuses for dynamic adaptive streaming over HTTP
US11930254B2 (en) * 2020-04-07 2024-03-12 Tencent America LLC Patchable remote element for data manipulation
US11445270B2 (en) * 2020-04-15 2022-09-13 Comcast Cable Communications, Llc Content information for manifest determination

Family Cites Families (108)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6499060B1 (en) * 1999-03-12 2002-12-24 Microsoft Corporation Media coding for loss recovery with remotely predicted data units
JP4191932B2 (ja) 2001-03-08 2008-12-03 パナソニック株式会社 メディア配信装置およびメディア配信方法
EP1438669B1 (en) * 2001-06-27 2014-01-22 SKKY Incorporated Improved media delivery platform
US7231343B1 (en) * 2001-12-20 2007-06-12 Ianywhere Solutions, Inc. Synonyms mechanism for natural language systems
KR100486713B1 (ko) 2002-09-17 2005-05-03 삼성전자주식회사 멀티미디어 스트리밍 장치 및 방법
US9740988B1 (en) * 2002-12-09 2017-08-22 Live Nation Entertainment, Inc. System and method for using unique device indentifiers to enhance security
US10201760B2 (en) * 2002-12-10 2019-02-12 Sony Interactive Entertainment America Llc System and method for compressing video based on detected intraframe motion
US9314691B2 (en) * 2002-12-10 2016-04-19 Sony Computer Entertainment America Llc System and method for compressing video frames or portions thereof based on feedback information from a client device
US8964830B2 (en) * 2002-12-10 2015-02-24 Ol2, Inc. System and method for multi-stream video compression using multiple encoding formats
US8655166B2 (en) * 2003-03-03 2014-02-18 Alexander I Soto System and method for performing in-service optical fiber network certification
US7171618B2 (en) * 2003-07-30 2007-01-30 Xerox Corporation Multi-versioned documents and method for creation and use thereof
US7519274B2 (en) * 2003-12-08 2009-04-14 Divx, Inc. File format for multiple track digital data
US8472792B2 (en) * 2003-12-08 2013-06-25 Divx, Llc Multimedia distribution system
KR101022471B1 (ko) * 2004-01-17 2011-03-16 삼성전자주식회사 멀티미디어 데이터를 기록한 정보저장매체, 그 재생방법및 재생장치
US8868772B2 (en) * 2004-04-30 2014-10-21 Echostar Technologies L.L.C. Apparatus, system, and method for adaptive-rate shifting of streaming content
EP1741295A1 (en) * 2004-04-30 2007-01-10 British Broadcasting Corporation Media content and enhancement data delivery
US20060047779A1 (en) * 2004-07-12 2006-03-02 Sharp Laboratories Of America, Inc. HTTP agent-driven content negotiation for scalable video coding
KR100687730B1 (ko) 2004-08-04 2007-02-27 경북대학교 산학협력단 액티브 노드, 액티브 노드를 이용한 컨텐츠 전송 시스템및 그 방법
KR100819251B1 (ko) 2005-01-31 2008-04-03 삼성전자주식회사 방송 통신 융합 시스템에서 수화 비디오 데이터를제공하는 시스템 및 방법
US8320499B2 (en) * 2005-03-18 2012-11-27 Qualcomm Incorporated Dynamic space-time coding for a communication system
US8370514B2 (en) * 2005-04-28 2013-02-05 DISH Digital L.L.C. System and method of minimizing network bandwidth retrieved from an external network
US8683066B2 (en) * 2007-08-06 2014-03-25 DISH Digital L.L.C. Apparatus, system, and method for multi-bitrate content streaming
KR101292851B1 (ko) * 2006-02-13 2013-08-02 디지털 파운튼, 인크. 가변적 fec 오버헤드 및 보호 구간을 이용하는 스트리밍및 버퍼링
US9432433B2 (en) * 2006-06-09 2016-08-30 Qualcomm Incorporated Enhanced block-request streaming system using signaling or block creation
US9176984B2 (en) * 2006-07-31 2015-11-03 Ricoh Co., Ltd Mixed media reality retrieval of differentially-weighted links
WO2008048067A1 (en) * 2006-10-19 2008-04-24 Lg Electronics Inc. Encoding method and apparatus and decoding method and apparatus
JP5039142B2 (ja) 2006-10-25 2012-10-03 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン 品質スケーラブルな符号化方法
GB0622823D0 (en) * 2006-11-15 2006-12-27 British Broadcasting Corp Accessing content
US20090041100A1 (en) * 2006-12-13 2009-02-12 Viasat, Inc. Link aware mobile data network
US8015581B2 (en) * 2007-01-05 2011-09-06 Verizon Patent And Licensing Inc. Resource data configuration for media content access systems and methods
US8812673B2 (en) * 2007-02-14 2014-08-19 Alcatel Lucent Content rate control for streaming media servers
US20100266042A1 (en) * 2007-03-02 2010-10-21 Han Suh Koo Method and an apparatus for decoding/encoding a video signal
US8935249B2 (en) * 2007-06-26 2015-01-13 Oracle Otc Subsidiary Llc Visualization of concepts within a collection of information
US8627509B2 (en) * 2007-07-02 2014-01-07 Rgb Networks, Inc. System and method for monitoring content
US8619569B2 (en) * 2007-07-23 2013-12-31 Telefonaktiebolaget Lm Ericsson (Publ) Method and apparatus for stream adaption in a packet switched network
EP2235713A4 (en) * 2007-11-29 2012-04-25 Oculis Labs Inc METHOD AND APPARATUS FOR SECURE VISUAL CONTENT DISPLAY
US9060208B2 (en) * 2008-01-30 2015-06-16 Time Warner Cable Enterprises Llc Methods and apparatus for predictive delivery of content over a network
US20160239749A1 (en) * 2008-10-28 2016-08-18 Sas Institute Inc. Use of object group models and hierarchies for output predictions
US9961388B2 (en) * 2008-11-26 2018-05-01 David Harrison Exposure of public internet protocol addresses in an advertising exchange server to improve relevancy of advertisements
US9154942B2 (en) * 2008-11-26 2015-10-06 Free Stream Media Corp. Zero configuration communication between a browser and a networked media device
US9294789B2 (en) * 2008-12-09 2016-03-22 Adobe Systems Incorporated Enhanced live multibitrate video encoding
US9009337B2 (en) * 2008-12-22 2015-04-14 Netflix, Inc. On-device multiplexing of streaming media content
US8099473B2 (en) * 2008-12-31 2012-01-17 Apple Inc. Variant streams for real-time or near real-time streaming
US9369516B2 (en) * 2009-01-13 2016-06-14 Viasat, Inc. Deltacasting
KR20100084115A (ko) 2009-01-15 2010-07-23 한국전자통신연구원 방송 서비스 제공 방법 및 장치
US9043467B2 (en) * 2009-01-30 2015-05-26 Movik Networks Adaptive chunked and content-aware pacing of multi-media delivery over HTTP transport and network controlled bit rate selection
JP2010200087A (ja) 2009-02-26 2010-09-09 Funai Electric Co Ltd 映像機器
US9281847B2 (en) * 2009-02-27 2016-03-08 Qualcomm Incorporated Mobile reception of digital video broadcasting—terrestrial services
US9538220B2 (en) * 2009-06-12 2017-01-03 Wi-Lan Labs, Inc. Video streaming quality of experience degradation control using a video quality metric
WO2011009205A1 (en) * 2009-07-22 2011-01-27 Jigsee Inc. Method of streaming media to heterogeneous client devices
GB2472264B (en) * 2009-07-31 2014-12-17 British Sky Broadcasting Ltd Media substitution system
JP2011053468A (ja) * 2009-09-02 2011-03-17 Sony Corp 映像/文字同時表示装置及び頭部装着型ディスプレイ
US9917874B2 (en) * 2009-09-22 2018-03-13 Qualcomm Incorporated Enhanced block-request streaming using block partitioning or request controls for improved client-side handling
US9237387B2 (en) * 2009-10-06 2016-01-12 Microsoft Technology Licensing, Llc Low latency cacheable media streaming
US8520983B2 (en) * 2009-10-07 2013-08-27 Google Inc. Gesture-based selective text recognition
US9124642B2 (en) * 2009-10-16 2015-09-01 Qualcomm Incorporated Adaptively streaming multimedia
US8914835B2 (en) * 2009-10-28 2014-12-16 Qualcomm Incorporated Streaming encoded video data
US9002881B2 (en) * 2009-10-29 2015-04-07 Microsoft Technology Licensing, Llc Assembling streamed content for on-demand presentation
CN107911332B (zh) * 2009-11-04 2021-01-08 阿莫泰克有限公司 媒体内容流播的方法、系统和计算机可读介质
KR101786051B1 (ko) * 2009-11-13 2017-10-16 삼성전자 주식회사 데이터 제공 방법 및 장치와 데이터 수신 방법 및 장치
KR101777347B1 (ko) * 2009-11-13 2017-09-11 삼성전자주식회사 부분화에 기초한 적응적인 스트리밍 방법 및 장치
KR101750049B1 (ko) * 2009-11-13 2017-06-22 삼성전자주식회사 적응적인 스트리밍 방법 및 장치
US8631436B2 (en) * 2009-11-25 2014-01-14 Nokia Corporation Method and apparatus for presenting media segments
US8515185B2 (en) * 2009-11-25 2013-08-20 Google Inc. On-screen guideline-based selective text recognition
KR101737084B1 (ko) * 2009-12-07 2017-05-17 삼성전자주식회사 메인 콘텐트에 다른 콘텐트를 삽입하여 스트리밍하는 방법 및 장치
CA2783592A1 (en) * 2009-12-11 2011-06-16 Nokia Corporation Apparatus and methods for describing and timing representations in streaming media files
US9338523B2 (en) * 2009-12-21 2016-05-10 Echostar Technologies L.L.C. Audio splitting with codec-enforced frame sizes
WO2011087449A1 (en) * 2010-01-18 2011-07-21 Telefonaktiebolaget L M Ericsson (Publ) Methods and arrangements for http media stream distribution
US20110179185A1 (en) * 2010-01-20 2011-07-21 Futurewei Technologies, Inc. System and Method for Adaptive Differentiated Streaming
EP2537311A1 (en) * 2010-02-17 2012-12-26 Telefonaktiebolaget L M Ericsson (PUBL) Resource allocation for video on demand
US9607655B2 (en) * 2010-02-17 2017-03-28 JBF Interlude 2009 LTD System and method for seamless multimedia assembly
KR101709903B1 (ko) * 2010-02-19 2017-02-23 텔레폰악티에볼라겟엘엠에릭슨(펍) 에이치티티피 스트리밍에서 적응화를 위한 방법 및 장치
CN102763396B (zh) * 2010-02-19 2016-05-25 瑞典爱立信有限公司 用于在http流传输中进行表示切换的方法和装置
EP2362651A1 (en) * 2010-02-19 2011-08-31 Thomson Licensing Multipath delivery for adaptive streaming
KR101777348B1 (ko) * 2010-02-23 2017-09-11 삼성전자주식회사 데이터 전송 방법 및 장치와 데이터 수신 방법 및 장치
GB201105502D0 (en) * 2010-04-01 2011-05-18 Apple Inc Real time or near real time streaming
CN102882845B (zh) * 2010-04-07 2016-07-13 苹果公司 实时或准实时流传输
KR101837687B1 (ko) * 2010-06-04 2018-03-12 삼성전자주식회사 콘텐트의 품질을 결정하는 복수의 인자에 기초한 적응적인 스트리밍 방법 및 장치
US9497290B2 (en) * 2010-06-14 2016-11-15 Blackberry Limited Media presentation description delta file for HTTP streaming
EP2583432B1 (en) * 2010-06-18 2019-02-20 Nokia Technologies Oy Method and apparatus for generating and handling streaming media quality-of-experience metrics
US9762639B2 (en) * 2010-06-30 2017-09-12 Brightcove Inc. Dynamic manifest generation based on client identity
US9838450B2 (en) * 2010-06-30 2017-12-05 Brightcove, Inc. Dynamic chunking for delivery instances
JP5709418B2 (ja) 2010-06-30 2015-04-30 キヤノン株式会社 固体撮像装置
KR101651137B1 (ko) * 2010-07-19 2016-08-25 엘지전자 주식회사 미디어 세그먼트 송수신 방법 및 그를 이용한 송수신 장치
US8930562B2 (en) * 2010-07-20 2015-01-06 Qualcomm Incorporated Arranging sub-track fragments for streaming video data
KR20120034550A (ko) * 2010-07-20 2012-04-12 한국전자통신연구원 스트리밍 컨텐츠 제공 장치 및 방법
US8782268B2 (en) * 2010-07-20 2014-07-15 Microsoft Corporation Dynamic composition of media
EP2596633B1 (en) * 2010-07-20 2016-11-23 Nokia Technologies Oy A media streaming apparatus
US9596447B2 (en) * 2010-07-21 2017-03-14 Qualcomm Incorporated Providing frame packing type information for video coding
US9226045B2 (en) * 2010-08-05 2015-12-29 Qualcomm Incorporated Signaling attributes for network-streamed video data
US9319448B2 (en) * 2010-08-10 2016-04-19 Qualcomm Incorporated Trick modes for network streaming of coded multimedia data
EP2604012B1 (en) * 2010-08-10 2017-10-04 Telefonaktiebolaget LM Ericsson (publ) A method in a media client, a media client, a control entity and a method in a control entity
CN103081506B (zh) * 2010-09-01 2016-09-14 韩国电子通信研究院 提供串流内容的方法及装置
US9467493B2 (en) * 2010-09-06 2016-10-11 Electronics And Telecommunication Research Institute Apparatus and method for providing streaming content
US8922665B2 (en) * 2010-10-06 2014-12-30 Microsoft Corporation Rapidly initializing and dynamically adjusting media streams
KR101206698B1 (ko) * 2010-10-06 2012-11-30 한국항공대학교산학협력단 스트리밍 콘텐츠 제공 장치 및 방법
KR101649533B1 (ko) * 2010-11-02 2016-08-19 엘지전자 주식회사 미디어 콘텐트 송수신 방법 및 그를 이용한 송수신 장치
US8806615B2 (en) * 2010-11-04 2014-08-12 Mcafee, Inc. System and method for protecting specified data combinations
US9301020B2 (en) * 2010-11-30 2016-03-29 Google Technology Holdings LLC Method of targeted ad insertion using HTTP live streaming protocol
US9495713B2 (en) * 2010-12-10 2016-11-15 Quib, Inc. Comment delivery and filtering architecture
US9832540B2 (en) * 2010-12-15 2017-11-28 Hulu, LLC Method and apparatus for hybrid transcoding of a media program
EP2661866A4 (en) * 2011-01-07 2014-10-15 Nokia Corp METHOD AND DEVICE FOR PRESENTING SIGNALING
KR20120084252A (ko) * 2011-01-19 2012-07-27 삼성전자주식회사 복수의 실시간 전송 스트림을 수신하는 수신 장치와 그 송신 장치 및 멀티미디어 컨텐츠 재생 방법
US9661104B2 (en) * 2011-02-07 2017-05-23 Blackberry Limited Method and apparatus for receiving presentation metadata
US9646110B2 (en) * 2011-02-28 2017-05-09 International Business Machines Corporation Managing information assets using feedback re-enforced search and navigation
CN103493459B (zh) * 2011-04-01 2016-08-24 英特尔公司 一种用于接收自适应多媒体流送的方法和设备
US9160779B2 (en) * 2011-06-30 2015-10-13 Qualcomm Incorporated Dynamic adaptive streaming proxy for unicast or broadcast/multicast services
US20130182643A1 (en) * 2012-01-16 2013-07-18 Qualcomm Incorporated Method and system for transitions of broadcast dash service receptions between unicast and broadcast

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"Dynamic Adaptive Streaming over HTTP (DASH) - Part 1: Media presentation description and segment fonnat", ISO/IEC DIS 23009-1, 30 August 2011 (2011-08-30)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105519131A (zh) * 2013-07-19 2016-04-20 索尼公司 信息处理装置和方法
EP3013065A4 (en) * 2013-07-19 2016-11-16 Sony Corp DEVICE AND METHOD FOR PROCESSING INFORMATION
US10038922B2 (en) 2013-07-19 2018-07-31 Sony Corporation Information processing device and method for supplying data of partial images
RU2671946C2 (ru) * 2013-07-19 2018-11-08 Сони Корпорейшн Устройство и способ обработки информации
US10306273B2 (en) 2013-07-19 2019-05-28 Sony Corporation Information processing device and method for generating partial image information including group identification information
AU2018241185B2 (en) * 2013-07-19 2019-08-08 Sony Corporation Information processing device and method
EP3062523A1 (en) * 2013-10-22 2016-08-31 Sharp Kabushiki Kaisha Display processing device, distribution device, and metadata
EP3062523A4 (en) * 2013-10-22 2017-04-26 Sharp Kabushiki Kaisha Display processing device, distribution device, and metadata
US20160337679A1 (en) * 2014-01-08 2016-11-17 Electronics And Telecommunications Research Instit Ute Method for displaying bit depth for playing video using dash
US9860612B2 (en) * 2014-04-10 2018-01-02 Wowza Media Systems, LLC Manifest generation and segment packetization

Also Published As

Publication number Publication date
EP2688297A2 (en) 2014-01-22
CN107071513B (zh) 2020-03-10
KR20180129736A (ko) 2018-12-05
US10645136B2 (en) 2020-05-05
US20180109581A1 (en) 2018-04-19
KR20180048499A (ko) 2018-05-10
US20140006564A1 (en) 2014-01-02
US20190132374A1 (en) 2019-05-02
KR20120106631A (ko) 2012-09-26
US10270830B2 (en) 2019-04-23
CN108366070A (zh) 2018-08-03
WO2012125006A3 (ko) 2012-12-27
US11082470B2 (en) 2021-08-03
CN103493499A (zh) 2014-01-01
US20190245904A1 (en) 2019-08-08
KR102272836B1 (ko) 2021-07-05
EP2924990A1 (en) 2015-09-30
CN103493499B (zh) 2018-04-06
US20200322408A1 (en) 2020-10-08
EP2688297A4 (en) 2014-08-27
KR101924987B1 (ko) 2018-12-04
CN107071513A (zh) 2017-08-18
US10313414B2 (en) 2019-06-04
KR102122495B1 (ko) 2020-06-12
KR101854382B1 (ko) 2018-05-04
US10122780B2 (en) 2018-11-06
US20190058746A1 (en) 2019-02-21
KR20200072454A (ko) 2020-06-22
US9860293B2 (en) 2018-01-02
EP2924989A1 (en) 2015-09-30

Similar Documents

Publication Publication Date Title
WO2012125006A2 (ko) 레프리젠테이션을 사용하는 스트리밍 콘텐츠 제공 장치 및 방법
WO2014171718A1 (ko) 방송 전송 장치, 방송 수신 장치, 방송 전송 장치의 동작 방법 및 방송 수신 장치의 동작 방법
WO2013048148A2 (en) Method and apparatus for transmitting and receiving content
WO2014209057A1 (ko) 지상파 방송망과 인터넷 프로토콜망 연동 기반의 하이브리드 방송 시스템에서 방송 서비스의 송수신 방법 및 장치
WO2012033319A2 (ko) 스트리밍 컨텐츠 제공 장치 및 방법
WO2009131391A1 (en) Method for generating and playing object-based audio contents and computer readable recording medium for recoding data having file format structure for object-based audio service
WO2014007571A1 (en) Method and apparatus for processing digital service signals
WO2016018042A1 (en) Apparatus and method for transmitting/receiving processes of a broadcast signal
WO2014014252A1 (en) Method and apparatus for processing digital service signals
WO2012011743A2 (ko) 스트리밍 컨텐츠 제공 장치 및 방법
WO2015008986A1 (ko) 하이브리드 방송 시스템의 방송 신호를 송신/수신하는 방법 및 장치
WO2014025207A1 (en) A method and an apparatus for processing a broadcast signal including an interactive broadcast service
WO2011105811A2 (en) Method and apparatus for transmitting and receiving data
WO2012047028A2 (ko) 스트리밍 컨텐츠 제공 장치 및 방법
WO2011062385A2 (ko) 방송 신호 송수신 방법 및 그를 이용한 방송 수신 장치
WO2015012605A1 (ko) 3차원 콘텐츠의 부호화 방법 및 장치
WO2011034283A1 (en) Method of processing epg metadata in network device and the network device for controlling the same
WO2012050405A2 (ko) 디지털 수신기 및 디지털 수신기에서의 3d 컨텐트 처리방법
WO2015080414A1 (ko) 트릭 플레이 서비스 제공을 위한 방송 신호 송수신 방법 및 장치
WO2010008235A2 (ko) 실감 효과 표현 방법 및 그 장치 및 실감 기기 제어 메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록 매체
WO2015126117A1 (ko) 방송 신호 송수신 방법 및 장치
WO2016171518A2 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
WO2013077670A1 (ko) 스케일러빌리티 및 뷰 정보를 제공하는 스트리밍 서비스를 위한 방법 및 장치
WO2015137669A1 (en) Broadcast reception device and operating method thereof, and companion device interoperating with the broadcast reception device and operating method thereof
WO2017135673A1 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12756927

Country of ref document: EP

Kind code of ref document: A2

WWE Wipo information: entry into national phase

Ref document number: 14004644

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2012756927

Country of ref document: EP