KR20190031490A - 미디어 스트리밍을 위한 세그먼트 청크들의 취출 및 액세스 - Google Patents
미디어 스트리밍을 위한 세그먼트 청크들의 취출 및 액세스 Download PDFInfo
- Publication number
- KR20190031490A KR20190031490A KR1020197002586A KR20197002586A KR20190031490A KR 20190031490 A KR20190031490 A KR 20190031490A KR 1020197002586 A KR1020197002586 A KR 1020197002586A KR 20197002586 A KR20197002586 A KR 20197002586A KR 20190031490 A KR20190031490 A KR 20190031490A
- Authority
- KR
- South Korea
- Prior art keywords
- segment
- chunks
- identifier
- data
- media
- Prior art date
Links
- 238000000034 method Methods 0.000 claims description 109
- 230000004044 response Effects 0.000 claims description 5
- 230000000875 corresponding effect Effects 0.000 description 43
- 239000012634 fragment Substances 0.000 description 37
- 230000006978 adaptation Effects 0.000 description 23
- 238000005538 encapsulation Methods 0.000 description 22
- 238000000605 extraction Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 14
- 238000012545 processing Methods 0.000 description 14
- 230000002123 temporal effect Effects 0.000 description 14
- 230000011664 signaling Effects 0.000 description 13
- 238000002360 preparation method Methods 0.000 description 10
- 230000005540 biological transmission Effects 0.000 description 8
- 230000008859 change Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000009877 rendering Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000013500 data storage Methods 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 101100412093 Schizosaccharomyces pombe (strain 972 / ATCC 24843) rec16 gene Proteins 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
- H04N21/8456—Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
-
- H04L65/4069—
-
- H04L65/602—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/60—Network streaming of media packets
- H04L65/61—Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/60—Network streaming of media packets
- H04L65/75—Media network packet handling
- H04L65/762—Media network packet handling at the source
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/02—Protocols based on web technology, e.g. hypertext transfer protocol [HTTP]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/14—Session management
- H04L67/146—Markers for unambiguous identification of a particular session, e.g. session cookie or URL-encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/2343—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
- H04N21/23439—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements for generating different versions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/262—Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists
- H04N21/26258—Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists for generating a list of items to be played back in a given order, e.g. playlist, or scheduling item distribution according to such list
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/63—Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
- H04N21/637—Control signals issued by the client directed to the server or network components
- H04N21/6377—Control signals issued by the client directed to the server or network components directed to server
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
- H04N21/8455—Structuring of content, e.g. decomposing content into time segments involving pointers to the content, e.g. pointers to the I-frames of the video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/858—Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot
- H04N21/8586—Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot by using a URL
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Databases & Information Systems (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Information Transfer Between Computers (AREA)
Abstract
미디어 데이터를 취출하기 위한 예시적인 디바이스는, 회로부에 구현된 하나 이상의 프로세서들을 포함하고, 상기 하나 이상의 프로세서들은 미디어 데이터의 표현의 세그먼트에 대해 이용가능한 세그먼트 청크들의 수를 표시하는 데이터를 포함하는 매니페스트 파일을 수신하는 것으로서, 상기 세그먼트는 고유 URL (uniform resource locator) 을 갖는 독립적으로 취출가능한 미디어 파일을 포함하는, 상기 매니페스트 파일을 수신하고, 상기 세그먼트에 대해 이용가능한 청크들의 수를 표시하는 상기 데이터를 사용하여 상기 청크들 중 하나에 대한 식별자를 결정하고, 그리고 상기 청크들 중 하나에 대한 식별자를 특정하는 요청을 서버 디바이스에 전송하도록 구성된다.
Description
본 출원은 2016 년 7 월 28 일자로 출원된 미국 가출원 제 62/368,099 호의 이익을 주장하며, 그 전체 내용은 참조에 의해 본원에 통합된다.
본 개시는 인코딩된 미디어 데이터의 전송에 관한 것이다.
디지털 비디오 능력들은 디지털 텔레비전들, 디지털 직접 브로드캐스트 시스템들, 무선 브로드캐스트 시스템들, 개인 디지털 보조장치들 (PDA들), 랩탑 또는 데스크탑 컴퓨터들, 디지털 카메라들, 디지털 레코딩 디바이스들, 디지털 미디어 플레이어들, 비디오 게이밍 디바이스들, 비디오 게임 콘솔들, 셀룰러 또는 위성 무선 전화기들, 비디오 텔레컨퍼런싱 디바이스들 등을 포함한, 광범위한 디바이스들에 통합될 수 있다. 디지털 비디오 디바이스들은 MPEG-2, MPEG-4, ITU-T H.263, ITU-T H.264/MPEG-4, Part 10, 어드밴스드 비디오 코딩 (AVC), (고 효율 비디오 코딩 (HEVC) 으로도 지칭되는) ITU-T H.265 에 의해 정의된 표준들, 및 그러한 표준들의 확장들에서 설명된 기법들과 같은 비디오 압축 기법들을 구현하여, 디지털 비디오 정보를 더 효율적으로 송신 및 수신한다.
비디오 데이터가 인코딩된 후에, 비디오 데이터는 송신 또는 저장을 위해 패킷화 될 수도 있다. 비디오 데이터는 ISO (International Organization for Standardization) 베이스 미디어 파일 포맷 및 그 확장물들, 예컨대 AVC 와 같은 다양한 표준들 중 임의의 것에 따르는 비디오 파일로 어셈블링될 수도 있다.
일반적으로, 본 개시는 세그먼트 청크들을 사용하기 위한 기법들을 설명한다. 본 개시의 기법들은 예를 들어, 전체 세그먼트에 대해 이용가능한 다수의 청크 (chunk) 들을 시그널링하는 것을 포함한다. 본 개시의 기법들은 또한, 예를 들어, 취출을 위한 청크들을 요청하기 위해, 청크들을 어드레싱하기 위한 어드레싱 방식들 (예를 들어, 네이밍 방식들) 을 포함한다.
일 실시예에서, 미디어 데이터를 취출하는 방법은, 미디어 데이터의 리프리젠테이션 (representation) 의 세그먼트에 대해 이용가능한 세그먼트 청크들의 수를 표시하는 데이터를 포함하는 매니페스트 파일을 수신하는 단계로서, 상기 세그먼트는 고유 URL (uniform resource locator) 을 갖는 독립적으로 취출가능한 미디어 파일을 포함하는, 상기 매니페스트 파일을 수신하는 단계, 상기 세그먼트에 대해 이용가능한 청크들의 수를 표시하는 상기 데이터를 사용하여 상기 청크들 중 하나에 대한 식별자를 결정하는 단계, 및 상기 청크들 중 하나에 대한 식별자를 특정하는 요청을 서버 디바이스에 전송하는 단계를 포함한다.
다른 실시예에서, 미디어 데이터를 취출하기 위한 디바이스는, 회로부에 구현된 하나 이상의 프로세서들을 포함하고, 상기 하나 이상의 프로세서들은 미디어 데이터의 리프리젠테이션의 세그먼트에 대해 이용가능한 세그먼트 청크들의 수를 표시하는 데이터를 포함하는 매니페스트 파일을 수신하는 것으로서, 상기 세그먼트는 고유 URL (uniform resource locator) 을 갖는 독립적으로 취출가능한 미디어 파일을 포함하는, 상기 매니페스트 파일을 수신하고, 상기 세그먼트에 대해 이용가능한 청크들의 수를 표시하는 상기 데이터를 사용하여 상기 청크들 중 하나에 대한 식별자를 결정하고, 그리고 상기 청크들 중 하나에 대한 식별자를 특정하는 요청을 서버 디바이스에 전송하도록 구성된다.
또 다른 실시예에서, 미디어 데이터를 취출하기 위한 디바이스는, 미디어 데이터의 리프리젠테이션의 세그먼트에 대해 이용가능한 세그먼트 청크들의 수를 표시하는 데이터를 포함하는 매니페스트 파일을 수신하는 수단으로서, 상기 세그먼트는 고유 URL (uniform resource locator) 을 갖는 독립적으로 취출가능한 미디어 파일을 포함하는, 상기 매니페스트 파일을 수신하는 수단, 상기 세그먼트에 대해 이용가능한 청크들의 수를 표시하는 상기 데이터를 사용하여 상기 청크들 중 하나에 대한 식별자를 결정하는 수단, 및 상기 청크들 중 하나에 대한 식별자를 특정하는 요청을 서버 디바이스에 전송하는 수단을 포함한다.
또 다른 실시예에서, 컴퓨터 판독가능 저장 매체는 저장된 명령들을 가지고, 상기 명령들은, 실행될 경우, 프로세서로 하여금, 미디어 데이터의 리프리젠테이션의 세그먼트에 대해 이용가능한 세그먼트 청크들의 수를 표시하는 데이터를 포함하는 매니페스트 파일을 수신하게 하는 것으로서, 상기 세그먼트는 고유 URL (uniform resource locator) 을 갖는 독립적으로 취출가능한 미디어 파일을 포함하는, 상기 매니페스트 파일을 수신하게 하고, 상기 세그먼트에 대해 이용가능한 청크들의 수를 표시하는 상기 데이터를 사용하여 상기 청크들 중 하나에 대한 식별자를 결정하게 하고, 그리고 상기 청크들 중 하나에 대한 식별자를 특정하는 요청을 서버 디바이스에 전송하게 한다.
하나 이상의 예들의 상세들이 첨부 도면들 및 하기의 설명에 개시된다. 다른 특징들, 목적들, 및 이점들은 그 설명 및 도면들로부터, 그리고 청구항들로부터 명백할 것이다.
도 1 은 네트워크를 통해 미디어 데이터를 스트리밍하기 위한 기술들을 구현하는 예시적인 시스템을 도시하는 블록도이다.
도 2 는 도 1 의 취출 유닛의 컴포넌트들의 예시적인 세트를 더 상세히 설명하는 블록도이다.
도 3 은 예시적인 멀티미디어 컨텐츠의 엘리먼트들을 도시하는 개념도이다.
도 4 는 리프리젠테이션의 세그먼트에 대응할 수도 있는, 예시적인 비디오 파일의 엘리먼트들을 도시하는 블록도이다.
도 5 는 정규 세그먼트 오퍼링들 및 더 짧은 세그먼트들의 오퍼링들의 예들을 도시하는 개념도이다.
도 6 은 정규 세그먼트 오퍼링들 및 더 짧은 세그먼트들의 오퍼링들을 통해 이용가능한 세그먼트들에 대한 URL (uniform resource locator) 어드레스들을 도시하는 개념도이다.
도 7 은 본 개시의 기법들에 따라 시그널링될 수도 있는 예시적인 데이터 세트를 도시하는 개념도이다.
도 8 은 본 개시의 기법들에 따라 세그먼트들에 대한 계층적 넘버링을 사용하기 위한 기법들의 일 예를 도시한다.
도 9 는 본 개시의 기법들에 따라 세그먼트들에 대한 계층적 넘버링을 사용하기 위한 기법들의 다른 예를 도시한다.
도 10 은 본 개시의 기법들에 따라 미디어 데이터를 전달 (전송 및 수신) 하는 예시적인 방법을 도시하는 흐름도이다.
도 2 는 도 1 의 취출 유닛의 컴포넌트들의 예시적인 세트를 더 상세히 설명하는 블록도이다.
도 3 은 예시적인 멀티미디어 컨텐츠의 엘리먼트들을 도시하는 개념도이다.
도 4 는 리프리젠테이션의 세그먼트에 대응할 수도 있는, 예시적인 비디오 파일의 엘리먼트들을 도시하는 블록도이다.
도 5 는 정규 세그먼트 오퍼링들 및 더 짧은 세그먼트들의 오퍼링들의 예들을 도시하는 개념도이다.
도 6 은 정규 세그먼트 오퍼링들 및 더 짧은 세그먼트들의 오퍼링들을 통해 이용가능한 세그먼트들에 대한 URL (uniform resource locator) 어드레스들을 도시하는 개념도이다.
도 7 은 본 개시의 기법들에 따라 시그널링될 수도 있는 예시적인 데이터 세트를 도시하는 개념도이다.
도 8 은 본 개시의 기법들에 따라 세그먼트들에 대한 계층적 넘버링을 사용하기 위한 기법들의 일 예를 도시한다.
도 9 는 본 개시의 기법들에 따라 세그먼트들에 대한 계층적 넘버링을 사용하기 위한 기법들의 다른 예를 도시한다.
도 10 은 본 개시의 기법들에 따라 미디어 데이터를 전달 (전송 및 수신) 하는 예시적인 방법을 도시하는 흐름도이다.
일반적으로, 본 개시는 종래의 세그먼트들에 비해 상대적으로 짧은 재생 지속기간 동안 데이터를 포함하는 세그먼트들과 같은 세그먼트들의 시퀀스들을 사용하기 위한 기법들을 기술한다. 즉, 하나 이상의 세그먼트들은 랜덤 액세스 포인트 (RAP) 가 부족할 수도 있다. 따라서, N 초 (또는 마이크로초, 밀리초, 등과 같은 다른 시간 단위) 의 재생 지속기간 동안 데이터를 갖는 단일 세그먼트 (단일 세그먼트는 RAP를 가지며 세그먼트 사용가능성 시작 시간 (SAST) 과 연관됨) 가 아니라, N 초의 재생 지속기간 동안 데이터를 갖는 복수의 세그먼트들이 제공될 수도 있으며, 복수의 세그먼트들 중 오직 하나만이 RAP를 포함하고, 복수의 세그먼트들의 각각은 개별 SAST들과 연관된다. 이러한 더 짧은 세그먼트들을 사용하면, 종래의 더 긴 세그먼트들을 사용하는 것보다 재생이 빠르게 시작할 수 있다.
더 짧은 세그먼트들을 사용하는 솔루션을 제공하기 위한 다양한 옵션들이 단독으로 또는 조합하여 사용될 수도 있다. 예를 들어, 세그먼트 청크들에 대한 세그먼트 타임라인들의 정확한 지속기간들이 광고될 수도 있다. 그러나, 정확한 지속기간들을 광고하는 것은 과도할 (overkill) 수도 있고, 다수의 매니페스트 파일 (예를 들면, 미디어 프리젠테이션 디스크립션 (MPD)) 업데이트들을 요구할 수도 있다. 계층적 어드레싱 방식이 사용될 수도 있다. 그러나, 계층적 어드레싱 방식을 사용할 시간이 충분한지 여부는 불확실하다.
본 개시의 기법들은 ISO 기본 미디어 파일 포맷, SVC (Scalable Video Coding) 파일 포맷, AVC (Advanced Video Coding) 파일 포맷, 3GPP (Third Generation Partnership Project) 파일 포맷, 및/또는 MVC (Multiview Video Coding) 파일 포맷, 또는 다른 유사한 비디오 파일 포맷들 중 임의의 파일 포맷에 따라 인캡슐레이션된 미디어 데이터를 따르는 미디어 파일들 (예컨대, 비디오 파일들) 에 적용될 수도 있다.
HTTP 스트리밍에서, 자주 사용되는 동작들은 HEAD, GET 및 부분 GET 을 포함한다. HEAD 동작은 주어진 URL (uniform resource locator) 또는 URN (uniform resource name) 에 연관된 파일의 헤더를, 그 URL 또는 URN 과 연관된 페이로드를 취출하지 않고, 취출한다. GET 동작은 주어진 URL 또는 URN 과 연관된 전체 파일을 취출한다. 부분 GET 동작은 입력 파라미터로서 바이트 범위를 수신하고 파일의 연속하는 수의 바이트들을 취출하는데, 그 바이트들의 수는 수신된 바이트 범위에 대응한다. 따라서, 무비 프래그먼트 박스들은 HTTP 스트리밍을 위해 제공될 수도 있는데, 부분 GET 동작이 하나 이상의 개개의 무비 프래그먼트 박스들을 얻을 수 있기 때문이다. 무비 프래그먼트에서는, 상이한 트랙들의 여러 트랙 프래그먼트들이 있을 수 있다. HTTP 스트리밍에서, 미디어 프리젠테이션은 클라이언트에 액세스가능한 데이터의 구조화된 컬렉션일 수도 있다. 클라이언트는 스트리밍 서비스를 사용자에게 제시하기 위해 미디어 데이터 정보를 요청하고 다운로드할 수도 있다.
HTTP 스트리밍을 사용하여 3GPP 데이터를 스트리밍하는 예에서, 멀티미디어 컨텐츠의 비디오 및/또는 오디오 데이터에 대한 다수의 리프리젠테이션들이 있을 수도 있다. 아래에서 설명되는 바와 같이, 상이한 리프리젠테이션들이 상이한 코딩 특성들 (예컨대, 비디오 코딩 표준의 상이한 프로파일들 또는 레벨들), 상이한 코딩 표준들 또는 코딩 표준들의 확장물들 (이를테면 멀티뷰 및/또는 스케일러블 확장물들), 또는 상이한 비트레이트들에 대응할 수도 있다. 그런 리프리젠테이션들의 매니페스트는 미디어 프리젠테이션 디스크립션 (MPD) 데이터 구조에서 정의될 수도 있다. 미디어 프리젠테이션이 HTTP 스트리밍 클라이언트 디바이스에 액세스가능한 데이터의 구조화된 컬렉션에 대응할 수도 있다. HTTP 스트리밍 클라이언트 디바이스는 스트리밍 서비스를 클라이언트 디바이스의 사용자에게 제시하기 위해 미디어 데이터 정보를 요청하고 다운로드할 수도 있다. 미디어 프리젠테이션이 MPD 의 업데이트들을 포함할 수도 있는 MPD 데이터 구조에서 기술될 수도 있다.
미디어 프리젠테이션은 하나 이상의 주기들의 시퀀스를 포함할 수도 있다. 각각의 주기는 다음의 주기의 시작까지, 또는 마지막 주기의 경우에는 미디어 프리젠테이션의 말단까지 연장할 수도 있다. 각각의 주기는 동일한 미디어 컨텐츠에 대해 하나 이상의 리프리젠테이션들을 포함할 수도 있다. 리프리젠테이션은 오디오, 비디오, 타임드 (timed) 텍스트, 또는 다른 이러한 데이터의 다수의 대안적 인코딩된 버전들 중 하나일 수도 있다. 리프리젠테이션들은 인코딩 타입들에 의해, 예컨대, 비디오 데이터에 대한 비트레이트, 해상도, 및/또는 코덱과, 오디오 데이터에 대한 비트레이트, 언어, 및/또는 코덱에 의해 상이할 수도 있다. 리프리젠테이션이란 용어는, 멀티미디어 컨텐츠의 특정 주기에 대응하고 특정 방식으로 인코딩되는 인코딩된 오디오 또는 비디오 데이터의 섹션을 지칭하는데 사용될 수도 있다.
특정 주기의 리프리젠테이션들은 리프리젠테이션들이 속하는 적응 세트를 표시하는 MPD 에서의 속성에 의해 표시된 그룹에 할당될 수도 있다. 동일한 적응 세트에서의 리프리젠테이션들은, 클라이언트 디바이스가, 예컨대 대역폭 적응을 수행하기 위해, 이들 리프리젠테이션들 사이를 동적으로 그리고 끊김 없이 스위칭할 수 있다는 점에서, 서로에 대한 대안들로서 일반적으로 간주된다. 예를 들어, 특정 주기 동안의 비디오 데이터의 각각의 리프리젠테이션은 동일한 적응 세트에 할당될 수도 있어서, 그 리프리젠테이션들 중 임의의 리프리젠테이션이 대응하는 주기 동안의 멀티미디어 컨텐츠의 비디오 데이터 또는 오디오 데이터와 같은 미디어 데이터를 제시하기 위한 디코딩을 위해 선택될 수도 있다. 하나의 주기 내의 미디어 컨텐츠는, 일부 예들에서, 그룹 0 이 존재한다면, 그 그룹 0 으로부터의 하나의 리프리젠테이션, 또는 각각의 비-제로 그룹으로부터 많아야 하나의 리프리젠테이션의 조합 중 어느 하나에 의해 표현될 수도 있다. 주기의 각각의 리프리젠테이션에 대한 타이밍 데이터는 그 주기의 시작 시간을 기준으로 표현될 수도 있다.
리프리젠테이션은 하나 이상의 세그먼트들을 포함할 수도 있다. 각각의 리프리젠테이션은 초기화 세그먼트를 포함할 수도 있거나, 또는 리프리젠테이션의 각각의 세그먼트는 자체 초기화될 수도 있다. 존재하는 경우, 초기화 세그먼트는 리프리젠테이션에 액세스하기 위한 초기화 정보를 포함할 수도 있다. 일반적으로, 초기화 세그먼트는 미디어 데이터를 포함하지 않는다. 세그먼트가 식별자, 이를테면 URL (uniform resource locator), URN (uniform resource name), 또는 URI (uniform resource identifier) 에 의해 고유하게 참조될 수도 있다. MPD 는 각각의 세그먼트에 대해 식별자들을 제공할 수도 있다. 일부 예들에서, MPD 는 URL, URN, 또는 URI 에 의해 액세스가능한 파일 내의 세그먼트를 위한 데이터에 대응할 수도 있는 범위 속성의 형태로 바이트 범위들을 제공할 수도 있다.
상이한 리프리젠테이션들이 상이한 타입들의 미디어 데이터에 대한 실질적으로 동시 취출을 위해 선택될 수도 있다. 예를 들어, 클라이언트 디바이스가 세그먼트들을 취출하는 타임드 텍스트 리프리젠테이션, 비디오 리프리젠테이션, 및 오디오 리프리젠테이션을 선택할 수도 있다. 일부 예들에서, 클라이언트 디바이스는 대역폭 적응을 수행하기 위한 특정 적응 세트들을 선택할 수도 있다. 즉, 클라이언트 디바이스는 비디오 리프리젠테이션들을 포함하는 적응 세트, 오디오 리프리젠테이션들을 포함하는 적응 세트, 및/또는 타임드 텍스트를 포함하는 적응 세트를 선택할 수도 있다. 대안적으로, 클라이언트 디바이스는 특정한 타입들의 미디어 (예컨대, 비디오) 에 대한 적응 세트들을 선택하고, 다른 타입들의 미디어 (예컨대, 오디오 및/또는 타임드 텍스트) 에 대한 리프리젠테이션들을 직접적으로 선택할 수도 있다.
도 1 은 네트워크를 통해 미디어 데이터를 스트리밍하기 위한 기술들을 구현하는 예시적인 시스템 (10) 을 도시하는 블록도이다. 이 예에서, 시스템 (10) 은 컨텐츠 준비 디바이스 (20), 서버 디바이스 (60), 및 클라이언트 디바이스 (40) 를 포함한다. 클라이언트 디바이스 (40) 와 서버 디바이스 (60) 는 인터넷을 포함할 수도 있는 네트워크 (74) 에 의해 통신가능하게 커플링된다. 일부 예들에서, 컨텐츠 준비 디바이스 (20) 와 서버 디바이스 (60) 는 또한, 네트워크 (74) 또는 다른 네트워크에 의해 커플링될 수도 있거나, 또는 직접 통신가능하게 커플링될 수도 있다. 일부 예들에서, 컨텐츠 준비 디바이스 (20) 와 서버 디바이스 (60) 는 동일한 디바이스를 포함할 수도 있다.
컨텐츠 준비 디바이스 (20) 는, 도 1 의 예에서, 오디오 소스 (22) 및 비디오 소스 (24) 를 포함한다. 오디오 소스 (22) 는, 예를 들어, 오디오 인코더 (26) 에 의해 인코딩될 캡처된 오디오 데이터를 나타내는 전기적 신호들을 생성하는 마이크로폰을 포함할 수도 있다. 대안적으로, 오디오 소스 (22) 는 이전에 레코딩된 오디오 데이터를 저장하는 저장 매체, 컴퓨터화된 합성기와 같은 오디오 데이터 생성기, 또는 오디오 데이터의 임의의 다른 소스를 포함할 수도 있다. 비디오 소스 (24) 는 비디오 인코더 (28) 에 의해 인코딩될 비디오 데이터를 생성하는 비디오 카메라, 이전에 레코딩된 비디오 데이터로 인코딩된 저장 매체, 컴퓨터 그래픽 소스와 같은 비디오 데이터 생성 유닛, 또는 비디오 데이터의 임의의 다른 소스를 포함할 수도 있다. 컨텐츠 준비 디바이스 (20) 는 모든 예들에서 서버 디바이스 (60) 에 통신적으로 커플링될 필요는 없지만, 서버 디바이스 (60) 에 의해 판독되는 별개의 매체에 멀티미디어 컨텐츠를 저장할 수도 있다.
원시 (raw) 오디오 및 비디오 데이터는 아날로그 또는 디지털 데이터를 포함할 수도 있다. 아날로그 데이터는 오디오 인코더 (26) 및/또는 비디오 인코더 (28) 에 의해 인코딩되기 전에 디지털화될 수도 있다. 오디오 소스 (22) 는 발화 (speaking) 참가자가 말을 하는 동안 발화 참가자로부터 오디오 데이터를 획득할 수도 있고, 비디오 소스 (24) 는 동시에 발화 참가자의 비디오 데이터를 획득할 수도 있다. 다른 예들에서, 오디오 소스 (22) 는 저장된 오디오 데이터를 포함하는 컴퓨터 판독가능 저장 매체를 포함할 수도 있고, 비디오 소스 (24) 는 저장된 비디오 데이터를 포함하는 컴퓨터 판독가능 저장 매체를 포함할 수도 있다. 이런 방식으로, 본 개시에서 설명된 기법들은 라이브, 스트리밍, 실시간 오디오 및 비디오 데이터에 또는 아카이브된 (archived), 미리 레코딩된 오디오 및 비디오 데이터에 적용될 수도 있다.
비디오 프레임들에 대응하는 오디오 프레임들은 일반적으로 비디오 프레임들 내에 포함되는 비디오 소스 (24) 에 의해 캡처된 (또는 생성된) 비디오 데이터와 동시에 오디오 소스 (22) 에 의해 캡처되었던 (또는 생성된) 오디오 데이터를 포함하는 오디오 프레임들이다. 예를 들어, 발화 참가자가 일반적으로 발화에 의해 오디오 데이터를 생성하는 동안, 오디오 소스 (22) 는 오디오 데이터를 캡처하고, 비디오 소스 (24) 는 동시에, 다시 말하면, 오디오 소스 (22) 가 오디오 데이터를 캡처하고 있는 동안, 발화 참가자의 비디오 데이터를 캡처한다. 그래서, 오디오 프레임이 하나 이상의 특정 비디오 프레임들에 시간적으로 대응할 수도 있다. 따라서, 오디오 프레임이 비디오 프레임에 대응한다는 것은 일반적으로 오디오 데이터 및 비디오 데이터가 동일한 시간에 캡처되었던 상황에 해당하고 그 상황 동안 오디오 프레임 및 비디오 프레임은 동일한 시간에 캡처되었던 오디오 데이터 및 비디오 데이터를 각각 포함한다.
몇몇 예들에서, 오디오 인코더 (26) 는, 인코딩된 오디오 프레임에 대한 오디오 데이터가 레코딩되었던 시간을 나타내는, 각각의 인코딩된 오디오 프레임에서의 타임스탬프 (timestamp) 를 인코딩할 수도 있고, 그리고 유사하게, 비디오 인코더 (28) 는, 인코딩된 비디오 프레임에 대한 비디오 데이터가 레코딩되었던 시간을 나타내는, 각각의 인코딩된 비디오 프레임에서의 타임스탬프를 인코딩할 수도 있다. 이러한 예들에서, 비디오 프레임에 대응하는 오디오 프레임은 타임스탬프를 포함하는 오디오 프레임 및 동일한 타임스탬프를 포함하는 비디오 프레임을 포함할 수도 있다. 컨텐츠 준비 디바이스 (20) 는 내부 클록을 포함할 수도 있고, 그 내부 클록으로부터 오디오 인코더 (26) 및/또는 비디오 인코더 (28) 는 타임스탬프들을 생성할 수도 있고, 또는, 오디오 소스 (22) 및 비디오 소스 (24) 는 오디오 및 비디오 데이터를 각각 타임스탬프와 연관시키기 위해 이용할 수도 있다.
일부 예들에서, 오디오 소스 (22) 는 오디오 데이터가 레코딩되었던 시간에 대응하는 데이터를 오디오 인코더 (26) 에 전송할 수도 있고, 비디오 소스 (24) 는 비디오 데이터가 레코딩되었던 시간에 대응하는 데이터를 비디오 인코더 (28) 에 전송할 수도 있다. 일부 예들에서, 오디오 인코더 (26) 는, 인코딩된 오디오 데이터의 상대적인 시간적 순서를 나타내기 위해, 하지만 그 오디오 데이터가 레코딩되었던 절대적 시간을 반드시 나타낼 필요는 없이, 인코딩된 오디오 데이터에서 시퀀스 식별자를 인코딩할 수도 있고, 그리고 유사하게, 비디오 인코더 (28) 는 또한, 인코딩된 비디오 데이터의 상대적인 시간적 순서를 나타내기 위해 시퀀스 식별자들을 이용할 수도 있다. 유사하게, 일부 예들에서, 시퀀스 식별자는 타임스탬프와 맵핑되거나 그렇지 않으면 상관될 수도 있다.
오디오 인코더 (26) 는 일반적으로 인코딩된 오디오 데이터의 스트림을 생성하는 한편, 비디오 인코더 (28) 는 인코딩된 비디오 데이터의 스트림을 생성한다. 데이터 (오디오든 비디오든) 의 각각의 개별 스트림은 기본 스트림 (elementary stream) 으로서 지칭될 수도 있다. 기본 스트림은 리프리젠테이션의 단일의, 디지털로 코딩된 (가능하게는 압축된) 컴포넌트이다. 예를 들어, 그 리프리젠테이션의 코딩된 비디오 또는 오디오 부분은 기본 스트림일 수 있다. 기본 스트림은 비디오 파일 내에 인캡슐레이션되기 전에 패킷화된 기본 스트림 (PES) 으로 컨버팅될 수도 있다. 동일한 리프리젠테이션 내에서, 스트림 ID 는 하나의 기본 스트림에 속하는 PES-패킷들을 다른 것들로부터 구별하는데 이용될 수도 있다. 기본 스트림의 데이터의 기본 단위는 패킷화된 기본 스트림 (PES) 패킷이다. 따라서, 코딩된 비디오 데이터는 일반적으로 기본 비디오 스트림들에 대응한다. 유사하게, 오디오 데이터는 하나 이상의 개별 기본 스트림들에 대응한다.
ITU-T H.264/AVC 및 도래하는 고효율 비디오 코딩 (HEVC) 표준과 같은 많은 비디오 코딩 표준들은, 에러 없는 비트스트림들을 위한 신택스, 시맨틱스, 및 디코딩 프로세스를 정의하고, 그것들 중의 어떤 것은 특정 프로파일 또는 레벨을 따른다. 비디오 코딩 표준들은 통상적으로 인코더를 특정하지 않지만, 인코더는 생성된 비트스트림들이 디코더에 부합하는 표준이라는 것을 보장하는 임무가 주어진다. 비디오 코딩 표준의 측면에서, "프로파일" 은 알고리즘들, 특징들 (features), 또는 툴들 및 그것들에 적용되는 제약들의 서브세트에 대응한다. H.264 표준에 의해 정의된 바와 같이, 예를 들어, "프로파일" 은 H.264 표준에 의해 특정되는 전체 비트스트림 신택스의 서브세트이다. "레벨" 은 예를 들어, 디코더 메모리 및 컴퓨테이션과 같은 디코더 리소스 소비의 한계들에 대응하며, 이 한계들은 픽처들의 해상도, 비트 레이트, 및 블록 프로세싱 레이트에 관련된다. 프로파일은 profile_idc (프로파일 표시자) 값으로 시그널링될 수도 있는 한편, 레벨은 level_idc (레벨 표시자) 값으로 시그널링될 수도 있다.
H.264 표준은, 예를 들어, 주어진 프로파일의 신택스에 의해 부과되는 경계들 내에서, 디코딩된 픽처들의 특정된 사이즈와 같이 비트스트림 내의 신택스 엘리먼트들에 의해 취해진 값들에 의존하여 인코더들 및 디코더들의 성능에서의 큰 변화를 요구하는 것이 여전히 가능하다는 것을 인식한다. H.264 표준은 많은 애플리케이션들에서, 특정 프로파일 내에서 신택스의 모든 가설적 사용들을 처리하는 것이 가능한 디코더를 구현하는 것이 실용적이지도 않고 경제적이지도 않다는 것을 추가로 인식한다. 따라서, H.264 표준은 비트스트림에서 신택스 엘리먼트들의 값들에 부과되는 특정된 제약들의 세트로서 "레벨" 을 정의한다. 이들 제약들은 값들에 관한 간단한 제한들일 수도 있다. 대안적으로, 이들 제약들은 값들의 산술적 조합들 (예컨대, 픽처 폭 곱하기 픽처 높이 곱하기 초당 디코딩되는 픽처들의 수) 에 대한 제약들의 형태를 취할 수도 있다. H.264 표준은 개개의 구현예들이 각각의 지원된 프로파일들에 대해 상이한 레벨을 지원할 수도 있다는 것을 추가로 제공한다.
프로파일에 부합하는 디코더는 보통은 프로파일에서 정의된 모든 특징들을 지원한다. 예를 들어, 코딩 특징으로서, B-픽처 코딩은 H.264/AVC 의 베이스라인 프로파일에서 지원되지 않지만 H.264/AVC 의 다른 프로파일들에서 지원된다. 레벨에 부합하는 디코더는 그 레벨에서 정의된 한계들을 넘어 자원들을 요구하지 않는 임의의 비트스트림을 디코딩하는 것이 가능해야 한다. 프로파일들 및 레벨들의 정의들은 해석능력 (interpretability) 에 도움이 될 수도 있다. 예를 들어, 비디오 송신 동안, 한 쌍의 프로파일 및 레벨 정의들은 전체 송신 세션 동안에 협상되고 합의될 수도 있다. 보다 구체적으로는, H.264/AVC 에서, 레벨은 예를 들어, 처리될 필요가 있는 매크로블록들의 수, 디코딩된 픽처 버퍼 (decoded picture buffer; DPB) 사이즈, 코딩된 픽처 버퍼 (coded picture buffer; CPB) 사이즈, 수직 모션 벡터 범위, 2 개의 연속적인 MB 들 당 모션 벡터들의 최대 수, 및 B-블록이 8x8 픽셀들 미만의 서브-매크로블록 파티션들을 가질 수 있는지의 여부에 관한 제한들을 정의할 수도 있다. 이러한 방식으로, 디코더는, 디코더가 비트스트림을 적절히 디코딩하는 것이 가능한지의 여부를 결정할 수도 있다.
도 1 의 예에서, 컨텐츠 준비 디바이스 (20) 의 인캡슐레이션 유닛 (30) 은 코딩된 비디오 데이터를 포함하는 기본 스트림들을 비디오 인코더 (28) 로부터 그리고 코딩된 오디오 데이터를 포함하는 기본 스트림들을 오디오 인코더 (26) 로부터 수신한다. 일부 예들에서, 비디오 인코더 (28) 및 오디오 인코더 (26) 는 각각, 인코딩된 데이터로부터 PES 패킷들을 형성하기 위한 패킷화기들을 포함할 수도 있다. 다른 예들에서, 비디오 인코더 (28) 및 오디오 인코더 (26) 는 각각, 인코딩된 데이터로부터 PES 패킷들을 형성하기 위한 각기의 패킷화기들과 인터페이싱할 수도 있다. 또 다른 예들에서, 인캡슐레이션 유닛 (30) 은 인코딩된 오디오 및 비디오 데이터로부터 PES 패킷들을 형성하기 위한 패킷화기들을 포함할 수도 있다.
비디오 인코더 (28) 는 멀티미디어 컨텐츠의 비디오 데이터를 다양한 방식들로 인코딩하여, 다양한 비트레이트들에서 그리고 다양한 특성들, 이를테면 픽셀 해상도들, 프레임 레이트들, 다양한 코딩 표준들에 대한 준수 (conformance), 다양한 코딩 표준들에 대한 다양한 프로파일들 및/또는 프로파일들의 레벨들에 대한 준수, (예컨대, 2 차원 또는 3 차원 재생을 위한) 하나 또는 다수의 뷰들을 갖는 리프리젠테이션들, 또는 다른 그런 특성들을 갖는 멀티미디어 컨텐츠의 상이한 리프리젠테이션들을 생성할 수도 있다. 리프리젠테이션은, 본 개시에서 사용된 바와 같이, 오디오 데이터, 비디오 데이터, 텍스트 데이터 (예컨대, 폐쇄된 캡션들에 대해), 또는 다른 이러한 데이터 중 하나를 포함할 수도 있다. 리프리젠테이션은 오디오 기본 스트림 또는 비디오 기본 스트림과 같은 기본 스트림을 포함할 수도 있다. 각각의 PES 패킷은 PES 패킷이 속한 기본 스트림을 식별하는 stream_id 를 포함할 수도 있다. 인캡슐레이션 유닛 (30) 은 기본 스트림들을 다양한 리프리젠테이션들의 비디오 파일들 (예컨대, 세그먼트들) 로 어셈블링하는 것을 담당한다.
인캡슐레이션 유닛 (30) 은 오디오 인코더 (26) 및 비디오 인코더 (28) 로부터 리프리젠테이션의 기본 스트림들을 위한 PES 패킷들을 수신하고 그 PES 패킷들로부터 대응하는 네트워크 추상화 계층 (network abstraction layer; NAL) 단위들을 형성한다. H.264/AVC (Advanced Video Coding) 의 예에서, 코딩된 비디오 세그먼트들은 NAL 유닛들로 조직화되며, 그것들은 영상 통화, 스토리지 (storage), 브로드캐스트, 또는 스트리밍과 같은 "네트워크 친화적 (network-friendly)" 비디오 리프리젠테이션 어드레싱 애플리케이션들을 제공한다. NAL 유닛들은 비디오 코딩 계층 (Video Coding Layer; VCL) NAL 유닛들 및 비-VCL NAL 유닛들로 분류될 수 있다. VCL 유닛들은 코어 압축 엔진을 포함할 수도 있고 블록, 매크로블록, 및/또는 슬라이스 레벨 데이터를 포함할 수도 있다. 다른 NAL 유닛들은 비-VCL NAL 유닛들일 수도 있다. 일부 예들에서, 보통 프라이머리 (primary) 코딩된 픽처로서 제시되는 하나의 시간 인스턴스에서의 코딩된 픽처는, 하나 이상의 NAL 유닛들을 포함할 수도 있는, 액세스 유닛 내에 포함될 수도 있다.
비-VCL NAL 유닛들은 무엇보다 파라미터 세트 NAL 유닛들 및 SEI NAL 유닛들을 포함할 수도 있다. 파라미터 세트들은 (시퀀스 파라미터 세트들 (SPS) 에서) 시퀀스-레벨 헤더 정보 및 (픽처 파라미터 세트들 (PPS) 에서) 드물게 변화하는 픽처-레벨 헤더 정보를 포함할 수도 있다. 파라미터 세트들 (예컨대, PPS 및 SPS) 에 있어서, 드물게 변화하는 정보는 각 시퀀스 또는 픽처에 대해 반복될 필요가 없고, 따라서, 코딩 효율이 향상될 수도 있다. 또한, 파라미터 세트들의 사용은 중요한 헤더 정보의 대역외 송신을 가능하게 할 수도 있어, 에러 복구를 위한 중복 송신에 대한 필요성을 회피할 수도 있다. 대역외 송신 예들에서, 파라미터 세트 NAL 유닛들은 SEI NAL 유닛들과 같은, 다른 NAL 유닛들과는 상이한 채널을 통해 송신될 수도 있다.
SEI (Supplemental Enhancement Information) 는 VCL NAL 유닛들로부터 코딩된 픽처들 샘플들을 디코딩할 필요는 없지만 디코딩, 디스플레이, 에러 복구 및 기타 목적과 관련된 프로세스를 지원할 수도 있는 정보를 포함할 수도 있다. SEI 메시지는 비-VCL NAL 유닛에 포함될 수도 있다. SEI 메시지들은 일부 표준 사양들의 정규 부분이므로, 표준 준수 디코더 구현에 항상 필수적인 것은 아니다. SEI 메시지들은 시퀀스 레벨 SEI 메시지들 또는 픽처 레벨 SEI 메시지들일 수도 있다. 일부 시퀀스 레벨 정보는 SVC 예에서의 스케일가능 정보 SEI 메시지들 및 MVC 에서의 뷰 스케일가능 정보 SEI 메시지들과 같은 SEI 메시지들에 포함될 수도 있다. 이러한 예시적인 SEI 메시지들은 동작 포인트의 추출 및 동작 포인트들의 특성들에 관한 정보를 전달할 수도 있다. 또한, 인캡슐레이션 유닛 (30) 은 리프리젠테이션들의 특성들을 기술하는 미디어 프리젠테이션 디스크립터 (MPD) 와 같은, 매니페스트 파일을 형성할 수도 있다. 인캡슐레이션 유닛 (30) 은 확장성 마크업 언어 (extensible markup language; XML) 에 따라 MPD 를 포맷할 수도 있다.
인캡슐레이션 유닛 (30) 은 멀티미디어 컨텐츠의 하나 이상의 리프리젠테이션들에 대한 데이터를 매니페스트 파일 (예를 들어, MPD) 과 함께 출력 인터페이스 (32) 에 제공할 수도 있다. 출력 인터페이스 (32) 는 네트워크 인터페이스 또는 저장 매체에 기록하기 위한 인터페이스, 예컨대 범용 직렬 버스 (USB) 인터페이스, CD 또는 DVD 라이터 또는 버너 (burner), 자기적 또는 플래시 저장 매체들로에 대한 인터페이스, 또는 미디어 데이터를 저장하거나 송신하기 위한 다른 인터페이스들을 포함할 수도 있다. 인캡슐레이션 유닛 (30) 은 멀티미디어 컨텐츠의 리프리젠테이션들의 각각의 데이터를 출력 인터페이스 (32) 에 제공할 수도 있는데, 이것은 그 데이터를 네트워크 송신 또는 저장 매체들을 통하여 서버 디바이스 (60) 로 전송할 수도 있다. 도 1 의 예에서, 서버 디바이스 (60) 는 각기의 매니페스트 파일 (66) 및 하나 이상의 리프리젠테이션들 (68A-68N) (리프리젠테이션들 (68)) 을 각각 포함하는 다양한 멀티미디어 컨텐츠 (64) 를 저장하는 저장 매체 (62) 를 포함한다. 일부 예들에서, 출력 인터페이스 (32) 는 또한 데이터를 직접 네트워크 (74) 에 전송할 수도 있다.
일부 예들에서, 리프리젠테이션들 (68) 은 적응 세트들로 분리될 수도 있다. 즉, 리프리젠테이션들 (68) 의 다양한 서브세트들은 각기의 특성들의 공통 세트들, 이를테면 코덱, 프로파일 및 레벨, 해상도, 뷰들의 수, 세그먼트들에 대한 파일 포맷, 디코딩되고 예컨대 스피커들에 의해 제시될 오디오 데이터 및/또는 리프리젠테이션으로 디스플레이될 텍스트의 언어 또는 다른 특성들을 식별할 수도 있는 텍스트 타입 정보, 적응 세트에서 리프리젠테이션들에 대한 장면의 관점에서 카메라 각도 또는 실세계 카메라를 기술할 수도 있는 카메라 각도 정보, 특정 청중들에 대한 컨텐츠 적합성 (suitability) 을 기술하는 등급 정보 등을 포함할 수도 있다.
매니페스트 파일 (66) 은 특정한 적응 세트들, 및 적응 세트들에 대한 공통 특성들에 대응하는 리프리젠테이션들 (68) 의 서브세트들을 나타내는 데이터를 포함할 수도 있다. 매니페스트 파일 (66) 은 또한 적응 세트들의 개개의 리프리젠테이션들에 대한 개개의 특성들, 이를테면 비트레이트들을 나타내는 데이터를 포함할 수도 있다. 이런 방식으로, 적응 세트는 단순화된 네트워크 대역폭 적응을 제공할 수도 있다. 적응 세트에서의 리프리젠테이션들은 매니페스트 파일 (66) 의 적응 세트 엘리먼트의 자식 (child) 엘리먼트들을 이용하여 나타내어질 수도 있다.
서버 디바이스 (60) 는 요청 프로세싱 유닛 (70) 과 네트워크 인터페이스 (72) 를 포함한다. 일부 예들에서, 서버 디바이스 (60) 는 복수의 네트워크 인터페이스들을 포함할 수도 있다. 더욱이, 서버 디바이스 (60) 의 특징들의 임의의 것 또는 모두는 컨텐츠 전달 네트워크의 다른 디바이스들, 이를테면 라우터들, 브릿지들, 프록시 디바이스들, 스위치들, 또는 다른 디바이스들 상에서 구현될 수도 있다. 일부 예들에서, 컨텐츠 전달 네트워크의 중간 디바이스들은 멀티미디어 컨텐츠 (64) 의 데이터를 캐싱하고, 서버 디바이스 (60) 의 그것들에 실질적으로 부합하는 컴포넌트들을 포함할 수도 있다. 일반적으로, 네트워크 인터페이스 (72) 는 네트워크 (74) 를 통해 데이터를 전송하고 수신하도록 구성된다.
요청 프로세싱 유닛 (70) 은, 저장 매체 (72) 의 데이터에 대해, 클라이언트 디바이스들, 이를테면 클라이언트 디바이스 (40) 로부터 네트워크 요청들을 수신하도록 구성된다. 예를 들어, 요청 프로세싱 유닛 (70) 은, R. Fielding 등의 RFC 2616, "Hypertext Transfer Protocol - HTTP/1.1", Network Working Group, IETF, 1999 년 6 월에서 기술된 바와 같이, 하이퍼텍스트 전송 프로토콜 (HTTP) 버전 1.1 을 구현할 수도 있다. 다시 말하면, 요청 프로세싱 유닛 (70) 은 HTTP GET 또는 부분 GET 요청들을 수신하고 그 요청들에 응답하여 멀티미디어 컨텐츠 (64) 의 데이터를 제공하도록 구성될 수도 있다. 그 요청들은 리프리젠테이션들 (68) 중 하나의 리프리젠테이션의 세그먼트를, 예컨대, 그 세그먼트의 URL 을 이용하여 특정할 수도 있다. 일부 예들에서, 요청들은 또한 세그먼트의 하나 이상의 바이트 범위들을 특정할 수도 있고, 따라서, 부분 GET 요청들을 포함할 수도 있다. 요청 프로세싱 유닛 (70) 은 리프리젠테이션들 (68) 중 하나의 리프리젠테이션의 세그먼트의 헤더 데이터를 제공하기 위해 HTTP HEAD 요청들을 서비스하도록 추가로 구성될 수도 있다. 어느 경우에도, 요청 프로세싱 유닛 (70) 은 요청된 데이터를 요청 디바이스, 이를테면 클라이언트 디바이스 (40) 에 제공하기 위해 요청들을 처리하도록 구성될 수도 있다.
추가적으로 또는 대안적으로, 요청 프로세싱 유닛 (70) 은 eMBMS 와 같은 브로드캐스트 또는 멀티캐스트 프로토콜을 통해 미디어 데이터를 전달하도록 구성될 수도 있다. 컨텐츠 준비 디바이스 (20) 는 기술된 것과 실질적으로 동일한 방식으로 DASH 세그먼트들 및/또는 서브-세그먼트들을 형성할 수도 있지만, 서버 디바이스 (60) 는 eMBMS 또는 다른 브로드캐스트 또는 멀티캐스트 네트워크 전송 프로토콜을 이용하여 이들 세그먼트들 또는 서브-세그먼트들을 전달할 수도 있다. 예를 들어, 요청 프로세싱 유닛 (70) 은 클라이언트 디바이스 (40) 로부터 멀티캐스트 그룹 참여 요청을 수신하도록 구성될 수도 있다. 즉, 서버 디바이스 (60) 는, 특정 미디어 컨텐츠 (예컨대, 라이브 이벤트의 브로드캐스트) 와 연관된, 클라이언트 디바이스 (40) 를 포함하는, 클라이언트 디바이스들에 멀티캐스트 그룹과 연관된 인터넷 프로토콜 (IP) 어드레스를 광고할 수도 있다. 클라이언트 디바이스 (40) 는, 다시, 멀티캐스트 그룹에 참여하기 위한 요청을 제출할 수도 있다. 이 요청은 네트워크 (74), 예컨대, 네트워크 (74) 를 구성하는 라우터들을 통해 전파될 수도 있어, 그 라우터들은 클라이언트 디바이스 (40) 와 같은 가입 클라이언트 디바이스들에 멀티캐스트 그룹과 연관된 IP 어드레스를 목적지로 하는 트래픽을 다이렉팅하도록 야기될 수도 있다.
도 1 의 예에서 도시된 바와 같이, 멀티미디어 컨텐츠 (64) 는, 미디어 프리젠테이션 디스크립션 (MPD) 에 대응할 수도 있는 매니페스트 파일 (66) 을 포함한다. 매니페스트 파일 (66) 은 상이한 대안적 리프리젠테이션들 (68) (예컨대, 상이한 품질들을 갖는 비디오 서비스들) 의 디스크립션들을 포함할 수도 있고, 그 디스크립션은, 예컨대, 코덱 정보, 프로파일 값, 레벨 값, 비트레이트, 및 리프리젠테이션들 (68) 의 다른 서술적 특성들을 포함할 수도 있다. 클라이언트 디바이스 (40) 는 미디어 프리젠테이션의 MPD 를 취출하여 리프리젠테이션들 (68) 의 세그먼트들에 어떻게 액세스할 지를 결정할 수도 있다.
특히, 취출 유닛 (52) 은 클라이언트 디바이스 (40) 의 구성 데이터 (configuration data) (미도시) 를 취출하여 비디오 디코더 (48) 의 디코딩 능력들 및 비디오 출력 (44) 의 렌더링 능력들 (rendering capabilities) 을 결정할 수도 있다. 구성 데이터는 클라이언트 디바이스 (40) 의 사용자에 의하여 선택되는 언어 선호도, 클라이언트 디바이스 (40) 의 사용자에 의하여 설정된 심도 선호도들에 대응하는 하나 이상의 카메라 퍼스펙티브들 (perspectives), 및/또는 클라이언트 디바이스 (40) 의 사용자에 의하여 선택된 등급 선호도 중 임의의 것 또는 전부를 또한 포함할 수도 있다. 취출 유닛 (52) 은, 예를 들어, HTTP GET 및 부분 GET 요청들을 제출하도록 구성되는 미디어 클라이언트 또는 웹 브라우저를 포함할 수도 있다. 취출 유닛 (52) 은 클라이언트 디바이스 (40) 의 하나 이상의 프로세서들 또는 프로세싱 유닛들 (미도시) 에 의하여 실행되는 소프트웨어 명령들에 대응할 수도 있다. 몇몇 예들에서, 취출 유닛 (52) 에 대하여 기술된 기능성의 전부 또는 부분들은 하드웨어로, 또는 하드웨어, 소프트웨어, 및/또는 펌웨어의 조합으로 구현될 수도 있는데, 여기서 필요한 하드웨어가 소프트웨어 또는 펌웨어에 대한 명령들을 실행하기 위하여 제공될 수도 있다.
취출 유닛 (52) 은 클라이언트 디바이스 (40) 의 디코딩 및 렌더링 능력들을 매니페스트 파일 (66) 의 정보에 의하여 표시되는 리프리젠테이션들 (68) 의 특성들과 비교할 수도 있다. 취출 유닛 (52) 은 처음에 적어도 매니페스트 파일 (66) 의 일부를 취출하여 리프리젠테이션들 (68) 의 특성들을 결정할 수도 있다. 예를 들어, 취출 유닛 (52) 은 본 개시의 기법들에 따라, 하나 이상의 적응 세트들의 특성들을 기술하는 매니페스트 파일 (66) 일부를 요청할 수도 있다. 취출 유닛 (52) 은 클라이언트 디바이스 (40) 의 코딩 및 렌더링 능력들에 의해 만족될 수 있는 특성들을 갖는 리프리젠테이션들 (68) (예컨대, 적응 세트) 의 서브세트를 선택할 수도 있다. 취출 유닛 (52) 은 그 다음, 적응 세트 내의 리프리젠테이션들에 대한 비트레이트들을 결정하고, 네트워크 대역폭의 현재 이용가능한 양을 결정하며, 그리고 네트워크 대역폭에 의하여 만족될 수 있는 비트레이트를 가지는 리프리젠테이션들 중 하나로부터 세그먼트들을 취출할 수도 있다.
일반적으로, 더 높은 비트레이트 리프리젠테이션들은 더 높은 품질의 비디오 재생을 도출할 수도 있는 한편, 더 낮은 비트레이트 리프리젠테이션들은 가용 네트워크 대역폭이 감소할 때 충분한 품질의 비디오 재생을 제공할 수도 있다. 이에 따라, 가용 네트워크 대역폭이 상대적으로 높은 경우에는, 취출 유닛 (52) 은 데이터를 상대적으로 높은 비트레이트 리프리젠테이션들로부터 취출할 수도 있는 반면에, 가용 네트워크 대역폭이 낮은 경우에는, 취출 유닛 (52) 은 데이터를 상대적으로 낮은 비트레이트 리프리젠테이션들로부터 취출할 수도 있다. 이러한 방식으로, 클라이언트 디바이스 (40) 는 네트워크 (74) 의 변동하는 네트워크 대역폭 사용가능성에 적응하면서도 멀티미디어 데이터를 네트워크 (74) 를 통해 스트리밍할 수도 있다.
추가적으로 또는 대안적으로, 취출 유닛 (52) 은 eMBMS 또는 IP 멀티캐스트와 같은, 브로드캐스트 또는 멀티캐스트 네트워크 프로토콜에 따라 데이터를 수신하도록 구성될 수도 있다. 이러한 예들에서, 취출 유닛 (52) 은 특정 미디어 컨텐츠와 연관된 멀티캐스트 네트워크 그룹에 참여하기 위한 요청을 제출할 수도 있다. 멀티캐스트 그룹에 참여한 후에, 취출 유닛 (52) 은 서버 디바이스 (60) 또는 컨텐츠 준비 디바이스 (20) 에 발행된 추가적인 요청들 없이 멀티캐스트 그룹의 데이터를 수신할 수도 있다. 취출 유닛 (52) 은, 멀티캐스트 그룹의 데이터가 더 이상 필요 없을 때 멀티캐스트 그룹을 떠나기 위한, 예컨대 다른 멀티캐스트 그룹으로 채널들을 변경하거나 재생을 중지하기 위한 요청을 제출할 수도 있다.
네트워크 인터페이스 (54) 는, 선택된 리프리젠테이션의 세그먼트들의 데이터를 수신하고 취출 유닛 (52) 에 제공할 수도 있고, 이 취출 유닛 (52) 은 다시 그 세그먼트들을 디캡슐레이션 유닛 (50) 에 제공할 수도 있다. 디캡슐레이션 유닛 (50) 은 비디오 파일의 엘리먼트들을 구성성분인 PES 스트림들로 디캡슐레이션하며, PES 스트림들을 패킷해제하여 인코딩된 데이터를 취출하고, 예컨대, 스트림의 PES 패킷 헤더들에 의해 표시된 바와 같이, 인코딩된 데이터가 오디오 스트림의 부분인지 또는 비디오 스트림의 부분인지에 따라, 오디오 디코더 (46) 또는 비디오 디코더 (48) 중 어느 일방에 인코딩된 데이터를 전송할 수도 있다. 오디오 디코더 (46) 는 인코딩된 오디오 데이터를 디코딩하고 디코딩된 오디오 데이터를 오디오 출력부 (42) 에 전송하는 한편, 비디오 디코더 (48) 는 인코딩된 비디오 데이터를 디코딩하고 스트림의 복수의 뷰들을 포함할 수도 있는 디코딩된 비디오 데이터를 비디오 출력부 (44) 에 전송한다.
비디오 인코더 (28), 비디오 디코더 (48), 오디오 인코더 (26), 오디오 디코더 (46), 인캡슐레이션 유닛 (30), 취출 유닛 (52), 및 디캡슐레이션 유닛 (50) 각각은 적용가능한 경우에 다양한 적합한 처리 회로들, 예컨대 하나 이상의 마이크로프로세서들, 디지털 신호 프로세서 (DSP) 들, 주문형 집적회로 (ASIC) 들, 필드 프로그래밍가능 게이트 어레이 (FPGA) 들, 이산 로직 회로, 소프트웨어, 하드웨어, 펌웨어 또는 임의의 이들의 조합들 중 임의의 것으로서 구현될 수도 있다. 비디오 인코더 (28) 및 비디오 디코더 (48) 각각은 하나 이상의 인코더들 또는 디코더들 내에 포함될 수도 있는데, 이들 중 어떤 것은 결합된 비디오 인코더/디코더 (CODEC) 의 일부로서 통합될 수도 있다. 마찬가지로, 오디오 인코더 (26) 및 오디오 디코더 (46) 각각은 하나 이상의 인코더들 또는 디코더들 내에 포함될 수도 있는데, 이들 중 임의의 것은 결합된 코덱의 일부로서 통합될 수도 있다. 비디오 인코더 (28), 비디오 디코더 (48), 오디오 인코더 (26), 오디오 디코더 (46), 인캡슐레이션 유닛 (30), 취출 유닛 (52), 및/또는 디캡슐레이션 유닛 (50) 을 포함하는 장치는 집적 회로, 마이크로프로세서, 및/또는 무선 통신 디바이스, 예컨대 셀룰러 전화기를 포함할 수도 있다.
클라이언트 디바이스 (40), 서버 디바이스 (60), 및/또는 컨텐츠 준비 디바이스 (20) 는 본 개시의 기법들에 따라 동작하도록 구성될 수도 있다. 예시를 위해, 본 개시는 클라이언트 디바이스 (40) 와 서버 디바이스 (60) 에 대해 이들 기법들을 기술한다. 하지만, 컨텐츠 준비 디바이스 (20) 가 서버 디바이스 (60) 대신에 (또는 추가적으로) 이들 기법들을 수행하도록 구성될 수도 있다.
인캡슐레이션 유닛 (30) 은, NAL 유닛이 속하는 프로그램을 식별하는 헤더와, 예컨대, 오디오 데이터, 비디오 데이터, 또는 NAL 유닛이 대응하는 반송 또는 프로그램 스트림을 기술하는 데이터와 같은 페이로드를 포함하는 NAL 유닛들을 형성할 수도 있다. 예를 들어, H.264/AVC 에서, NAL 유닛은 1-바이트 헤더 및 가변 사이즈의 페이로드를 포함한다. 페이로드에 비디오 데이터를 포함하는 NAL 유닛은 다양한 입도 레벨들 (granularity levels) 의 비디오 데이터를 포함할 수도 있다. 예를 들어, NAL 유닛은 비디오 데이터의 블록, 복수의 블록들, 비디오 데이터의 슬라이스, 또는 비디오 데이터의 전체 픽처를 포함할 수도 있다. 인캡슐레이션 유닛 (30) 은 기본 스트림들의 PES 패킷들의 형태로 비디오 인코더 (28) 로부터 인코딩된 비디오 데이터를 수신할 수도 있다. 인캡슐레이션 유닛 (30) 은 각각의 기본 스트림을 대응하는 프로그램과 연관시킬 수도 있다.
인캡슐레이션 유닛 (30) 은 또한 복수의 NAL 유닛들로부터 액세스 유닛들을 어셈블링할 수도 있다. 일반적으로, 액세스 유닛은 비디오 데이터의 프레임, 및 오디오 데이터가 이용가능할 때 그 프레임에 대응하는 오디오 데이터를 나타내기 위한 하나 이상의 NAL 유닛들을 포함할 수도 있다. 액세스 유닛은 일반적으로 하나의 출력 시간 인스턴스에 대한 모든 NAL 유닛들, 예컨대, 하나의 타임 인스턴스에 대한 모든 오디오 및 비디오 데이터를 포함한다. 예를 들어, 각각의 뷰가 20 의 초당 프레임 (fps) 의 프레임 레이트를 가지는 경우에, 각각의 시간 인스턴스는 0.05 초의 시간 간격에 대응할 수도 있다. 이 시간 간격 동안, 동일한 액세스 유닛 (동일한 시간 인스턴스) 의 모든 뷰들에 대한 특정 프레임들은 동시에 렌더링될 수도 있다. 일 예에서, 액세스 유닛은 하나의 시간 인스턴스에서 코딩된 픽처를 포함할 수도 있고, 이는 프라이머리 코딩된 픽처로서 제시될 수도 있다.
이에 따라, 액세스 유닛은 공통 시간 인스턴스의 모든 오디오 및 비디오 프레임들, 예컨대, 시간 X 에 대응하는 모든 뷰들을 포함할 수도 있다. 본 개시는 또한, 특정 뷰의 인코딩된 픽처를 "뷰 컴포넌트" 로서 지칭한다. 즉, 뷰 컴포넌트는 특정 시간에서 특정 뷰에 대한 인코딩된 픽처 (또는 프레임) 를 포함할 수도 있다. 따라서, 액세스 유닛은 공통 시간 인스턴스의 모든 뷰 컴포넌트들을 포함하는 것으로서 정의될 수도 있다. 액세스 유닛들의 디코딩 순서는 반드시 출력 또는 디스플레이 순서와 동일할 필요는 없다.
미디어 프리젠테이션은 미디어 프리젠테이션 디스크립션 (MPD) 을 포함할 수도 있고, 이 미디어 프리젠테이션 디스크립션은 상이한 대안적인 리프리젠테이션들 (예를 들어 상이한 품질들을 갖는 비디오 서비스들) 의 디스크립션을 포함할 수도 있고, 디스크립션은 예를 들어 코덱 정보, 프로파일 값, 및 레벨 값을 포함할 수도 있다. MPD 는 매니페스트 파일 (66) 과 같은 매니페스트 파일의 일 예이다. 클라이언트 디바이스 (40) 는 어떻게 다양한 프리젠테이션들의 무비 프래그먼트 박스들을 액세스할지를 결정하기 위해 미디어 프리젠테이션의 MPD 를 취출할 수도 있다. 무비 프래그먼트들은 비디오 파일들의 무비 프래그먼트 박스들 (moof boxes) 에 로케이팅될 수도 있다.
매니페스트 파일 (66) (이는, 예를 들어, MPD를 포함할 수도 있음) 이 리프리젠테이션들 (68) 의 세그먼트들의 사용가능성을 광고할 수도 있다. 다시 말하면, MPD 는 리프리젠테이션들 (68) 중 하나의 리프리젠테이션의 첫 번째 세그먼트가 이용가능하게 되는 월-클록 시간 (wall-clock time) 을 표시하는 정보, 뿐만 아니라 리프리젠테이션들 (68) 내의 세그먼트들의 지속기간들을 표시하는 정보를 포함할 수도 있다. 이런 방식으로, 클라이언트 디바이스 (40) 의 취출 유닛 (52) 은 특정 세그먼트에 선행하는 세그먼트들의 시작 시간 뿐만 아니라 지속기간들에 기초하여, 각각의 세그먼트가 이용가능한 경우를 결정할 수도 있다.
인캡슐레이션 유닛 (30) 이 수신된 데이터에 기초하여 NAL 유닛들 및/또는 액세스 유닛들을 비디오 파일로 어셈블링한 후에, 인캡슐레이션 유닛 (30) 은 비디오 파일을 출력을 위해 출력 인터페이스 (32) 로 패스 (pass) 할 수도 있다. 일부 예들에서, 인캡슐레이션 유닛 (30) 은 비디오 파일을 로컬로 (locally) 저장할 수도 있고, 또는, 비디오 파일을 직접 클라이언트 디바이스 (40) 에 전송하기보다는 비디오 파일을 출력 인터페이스 (32) 를 통해 원격 서버에 전송할 수도 있다. 출력 인터페이스 (32) 는, 예를 들어, 송신기, 트랜시버, 예컨대 광학 드라이브, 자기 매체 드라이브 (예컨대, 플로피 드라이브) 와 같은 컴퓨터 판독가능 매체에 데이터를 기록하기 위한 디바이스, 범용 직렬 버스 (USB) 포트, 네트워크 인터페이스, 또는 다른 출력 인터페이스를 포함할 수도 있다. 출력 인터페이스 (32) 는 비디오 파일을, 예를 들어 송신 신호, 자기 매체, 광학 매체, 메모리, 플래시 드라이브, 또는 다른 컴퓨터 판독가능 매체와 같은 컴퓨터 판독가능 매체에 출력한다.
네트워크 인터페이스 (54) 는 네트워크 (74) 를 통해 NAL 유닛 또는 액세스 유닛을 수신하고 그 NAL 유닛 또는 액세스 유닛을 취출 유닛 (52) 을 경유하여, 디캡슐레이션 유닛 (50) 에 제공한다. 디캡슐레이션 유닛 (50) 은 비디오 파일의 엘리먼트들을 구성성분인 PES 스트림들로 디캡슐레이션하며, PES 스트림들을 패킷해제하여 인코딩된 데이터를 취출하고, 예컨대, 스트림의 PES 패킷 헤더들에 의해 표시된 바와 같이, 인코딩된 데이터가 오디오 스트림의 부분인지 또는 비디오 스트림의 부분인지에 따라, 오디오 디코더 (46) 또는 비디오 디코더 (48) 중 어느 일방에 인코딩된 데이터를 전송할 수도 있다. 오디오 디코더 (46) 는 인코딩된 오디오 데이터를 디코딩하고 디코딩된 오디오 데이터를 오디오 출력부 (42) 에 전송하는 한편, 비디오 디코더 (48) 는 인코딩된 비디오 데이터를 디코딩하고 스트림의 복수의 뷰들을 포함할 수도 있는 디코딩된 비디오 데이터를 비디오 출력부 (44) 에 전송한다.
본 개시의 기법들에 따라, 매니페스트 파일 (66) 은 리프리젠테이션들 (68) 중 임의 또는 전부의 세그먼트들이 이용가능한 "청크들" 의 수를 시그널링하는 속성을 포함하도록 수정될 수도 있다. 예를 들어, 매니페스트 파일 (66) 은 이하에서 더 상세히 논의되는 바와 같이 "@k" 속성을 포함하는 MPD 를 나타낼 수도 있다. 또한, 취출 유닛 (52) 및/또는 요청 프로세싱 유닛 (70) 은 세그먼트 청크들을 어드레싱하기 위한 본 개시의 기법들에 따라 구성될 수도 있다. 특히, 어드레싱 방식은 예컨대, 세그먼트들의 청크들에 대한 간단한 넘버링 템플릿 ("$Number$") 의 사용, 또는 적어도 2 개의 부분들을 포함하는 계층적 어드레싱 방식의 사용을 포함할 수도 있다. 제 1 부분은 대응하는 세그먼트들에 대한 전체 세그먼트 넘버들 또는 대응하는 세그먼트들의 타이밍 정보에 대응할 수도 있다. 타이밍 정보는 예를 들어, 대응하는 세그먼트가 재생되기 시작하는 재생 시간을 표시할 수도 있다. 제 2 부분은 청크들의 서수 (ordinal numeric) 식별자들에 대응할 수도 있다. 예를 들어, 계층적 어드레싱 방식은 "$Number$.$ChunkNumber$" 포맷 또는 "$Time$.$ChunkNumber$" 포맷을 사용할 수도 있다.
이러한 방식으로, 클라이언트 디바이스 (40) 는 미디어 데이터를 취출하기 위한 디바이스의 일 예를 나타내고, 그 디바이스는 회로부에 구현되고, 미디어 데이터의 리프리젠테이션의 세그먼트에 대해 이용가능한 세그먼트 청크들의 수를 표시하는 데이터를 포함하는 매니페스트 파일을 수신하는 것으로서, 상기 세그먼트는 고유 URL (uniform resource locator) 을 갖는 독립적으로 취출가능한 미디어 파일을 포함하는, 상기 매니페스트 파일을 수신하고, 상기 세그먼트에 대해 이용가능한 청크들의 수를 표시하는 상기 데이터를 사용하여 상기 청크들 중 하나에 대한 식별자를 결정하고, 그리고 상기 청크들 중 하나에 대한 식별자를 특정하는 요청을 서버 디바이스에 전송하도록 구성된 하나 이상의 프로세서들을 포함한다.
도 2 는 도 1 의 취출 유닛 (52) 의 컴포넌트들의 예시적인 세트를 더 상세히 설명하는 블록도이다. 이 예에서, 취출 유닛 (52) 은 eMBMS 미들웨어 유닛 (100), DASH 클라이언트 (110) 및 미디어 애플리케이션 (112) 을 포함한다.
이 예에서, eMBMS 미들웨어 유닛 (100) 은 eMBMS 수신 유닛 (106), 캐시 (104), 및 서버 유닛 (102) 을 더 포함한다. 이 예에서, eMBMS 수신 유닛 (106) 은 예컨대, FLUTE (File Delivery over Unidirectional Transport) 에 따라 eMBMS 를 통해 데이터를 수신하도록 구성되고, 이는 http://tools.ietf.org/html/rfc6726 에서 입수가능한 T. Paila 등의 "FLUTE File Delivery over Unidirectional Transport", Network Working Group, RFC 6726, 2012 년 11월 에 기술된다. 즉, eMBMS 수신 유닛 (106) 은 예를 들어 BM-SC 로서 작용할 수도 있는 서버 디바이스 (60) 로부터 브로드캐스트를 통해 파일들을 수신할 수도 있다.
eMBMS 미들웨어 유닛 (100) 이 파일들에 대한 데이터를 수신할 때, eMBMS 미들웨어 유닛은 수신된 된 데이터를 캐시 (104) 에 저장할 수도 있다. 캐시 (104) 는 플래시 메모리, 하드 디스크, RAM, 또는 임의의 다른 적절한 저장 매체와 같은 컴퓨터-판독가능 저장 매체를 포함할 수도 있다.
로컬 서버 유닛 (102) 은 DASH 클라이언트 (110) 를 위한 서버로서 작용할 수도 있다. 예를 들어, 로컬 서버 유닛 (102) 은 DASH 클라이언트 (110) 에 MPD 파일 또는 다른 매니페스트 파일을 제공할 수도 있다. 로컬 서버 유닛 (102) 은 세그먼트들이 취출될 수 있는 하이퍼링크들뿐만 아니라, MPD 파일 내의 세그먼트들에 대한 가용 시간들을 광고할 수도 있다. 이들 하이퍼링크들은 클라이언트 디바이스 (40) 에 대응하는 로컬호스트 어드레스 프리픽스 (예를 들어, IPv4 의 경우 127.0.0.1) 를 포함할 수도 있다. 이러한 방식으로, DASH 클라이언트 (110) 는 HTTP GET 또는 부분 GET 요청들을 사용하여 로컬 서버 유닛 (102) 으로부터 세그먼트들을 요청할 수도 있다. 예를 들어, 링크 http://127.0.0.1/rep1/seg3 에서 입수가능한 세그먼트의 경우, DASH 클라이언트 (110) 는 http://127.0.0.1/rep1/seg3 에 대한 요청을 포함하는 HTTP GET 요청을 구성하고 그 요청을 로컬 서버 유닛 (102) 에 제출한다. 로컬 서버 유닛 (102) 은 캐시 (104) 로부터 요청된 데이터를 취출하고, 그러한 요청들에 응답하여 데이터를 DASH 클라이언트 (110) 에 제공할 수도 있다.
DASH 클라이언트 (110) 는 본 개시의 네이밍 관례들을 사용하여 프록시 서버 (102) 로부터 세그먼트들을 요청하기 위해 본 개시의 기법들에 따라 구성될 수도 있다. 마찬가지로, DASH 클라이언트 (110) 는 프록시 서버 (102) 로부터 수신된 매니페스트 파일을 사용하여 세그먼트의 네임들을 결정하도록 구성될 수도 있는데, 여기서 매니페스트 파일은 예를 들어 이하 더 상세히 논의되는 것과 같이 "@k" 속성의 형태로 각각의 전체 세그먼트에 대해 이용가능한 "청크들" 의 수를 시그널링할 수도 있다. 유사하게, 프록시 서버 (102) 는 또한 본 개시의 기법들에 따라 구성될 수도 있다.
예를 들어, DASH 클라이언트 (110) 및 프록시 서버 (102) 는 간단한 $Number$ 템플릿을 사용하여 세그먼트 청크들을 네이밍하도록 구성될 수도 있다. 대안적으로, DASH 클라이언트 (110) 및 프록시 서버 (102) 는 2 개의 부분들을 포함할 수도 있는 계층적 네이밍 (또는 어드레싱) 방식에 따라 세그먼트 청크들을 네이밍하도록 구성될 수도 있다. 제 1 부분은 대응하는 세그먼트들에 대한 전체 세그먼트 넘버들 또는 대응하는 세그먼트들의 타이밍 정보에 대응할 수도 있다. 타이밍 정보는 예를 들어, 대응하는 세그먼트가 재생되기 시작하는 재생 시간을 표시할 수도 있다. 제 2 부분은 특정 전체 세그먼트의 청크에 대한 서수 식별자에 대응할 수도 있다.
도 3 은 예시적인 멀티미디어 컨텐츠 (120) 의 엘리먼트들을 도시하는 개념도이다. 멀티미디어 컨텐츠 (120) 는 멀티미디어 컨텐츠 (64) (도 1), 또는 저장 매체 (62) 에 저장된 다른 멀티미디어 컨텐츠에 대응할 수도 있다. 도 3 의 예에서는, 멀티미디어 컨텐츠 (120) 는 미디어 프리젠테이션 디스크립션 (MPD) (122) 및 복수의 리프리젠테이션들 (124A-124N) (리프리젠테이션들 (124)) 을 포함한다. 리프리젠테이션 (124A) 은 옵션의 헤더 데이터 (126) 및 세그먼트들 (128A-128N) (세그먼트들 (128)) 을 포함하는 한편, 리프리젠테이션 (124N) 은 옵션의 헤더 데이터 (130) 및 세그먼트들 (132A-132N) (세그먼트들 (132)) 을 포함한다. 문자 N 은 편의를 위하여 리프리젠테이션들 (124) 의 각각에서 최종 무비 프래그먼트를 지정하기 위해 이용된다. 일부 예들에서, 리프리젠테이션들 (124) 사이에는 상이한 개수의 무비 프래그먼트들이 존재할 수도 있다.
MPD (122) 는 리프리젠테이션들 (124) 로부터 별개인 데이터 구조를 포함할 수도 있다. MPD (122) 는 도 1 의 매니페스트 파일 (66) 에 대응할 수도 있다. 마찬가지로, 리프리젠테이션들 (124) 은 도 2 의 리프리젠테이션들 (68) 에 대응할 수도 있다. 일반적으로, MPD (122) 는 리프리젠테이션들 (124) 의 특성들을 일반적으로 기술하는 데이터, 예컨대 코딩 및 렌더링 특성들, 적응 세트들, MPD (122) 가 대응하는 프로파일, 텍스트 타입 정보, 카메라 각도 정보, 등급 정보, 트릭 모드 정보 (예를 들어, 시간적 서브-시퀀스들을 포함하는 리프리젠테이션들을 표시하는 정보) 및/또는 원격 주기들을 취출하기 위한 (예를 들어, 재생 도중에 미디어 컨텐츠 내로의 타겟화된 광고 삽입을 위한) 정보를 포함할 수도 있다.
존재할 경우에, 헤더 데이터 (126) 는 세그먼트들 (128) 의 특성들, 예를 들어, 랜덤 액세스 포인트들 (RAP) 들 (스트림 액세스 포인트 (SAP) 이라고도 지칭됨) 의 시간적 로케이션들, 세그먼트들 (128) 중 어느 것이 랜덤 액세스 포인트들을 포함하는지, 세그먼트들 (128) 내의 랜덤 액세스 포인트들에 대한 바이트 오프셋들, 세그먼트들 (128) 의 유니폼 리소스 로케이터 (URL) 들, 또는 세그먼트들 (128) 의 다른 양태들을 기술할 수도 있다. 존재할 경우에, 헤더 데이터 (130) 는 세그먼트들 (132) 에 대한 유사한 특성들을 기술할 수도 있다. 추가적으로 또는 대안적으로, 이러한 특성들은 MPD (122) 내에 완전하게 포함될 수도 있다.
세그먼트들 (128, 132) 은 하나 이상의 코딩된 비디오 샘플들을 포함하는데, 이들 각각은 비디오 데이터의 프레임들 또는 슬라이스들을 포함할 수도 있다. 세그먼트들 (128) 의 코딩된 비디오 샘플들 각각은 유사한 특성들, 예를 들어, 높이, 폭, 및 대역폭 요건들을 가질 수도 있다. 비록 이러한 데이터가 도 3 의 예에서는 예시되지 않지만, 이러한 특성들은 MPD (122) 의 데이터에 의하여 기술될 수도 있다. MPD (122) 는, 본 개시에서 기술되는 시그널링된 정보 중 임의의 것 또는 전부가 추가된, 3GPP 명세에 의하여 기술되는 바와 같은 특성들을 포함할 수도 있다.
세그먼트들 (128, 132) 각각은 고유한 유니폼 리소스 로케이터 (URL) 와 연관될 수도 있다. 따라서, 세그먼트들 (128, 132) 의 각각은 스트리밍 네트워크 프로토콜, 예컨대 DASH 를 이용하여 독립적으로 취출가능할 수도 있다. 이러한 방식으로, 목적지 디바이스, 예컨대 클라이언트 디바이스 (40) 는, HTTP GET 요청을 이용하여 세그먼트들 (128 또는 1324) 을 취출할 수도 있다. 일부 예들에서, 클라이언트 디바이스 (40) 는 HTTP 부분 GET 요청들을 이용하여 세그먼트들 (128 또는 132) 의 특정 바이트 범위들을 취출할 수도 있다.
본 개시의 기법들에 따라, MPD (122) 는 특정 세그먼트에 대하여 이용가능한 세그먼트 청크들의 수를 시그널링하는 속성을 포함할 수도 있다. 예를 들어, MPD (122) 는 이하에서 더 상세히 논의되는 바와 같이 "@k" 엘리먼트를 포함할 수도 있다. MPD (122) 는 세그먼트 청크들을 어드레싱하기 위해 사용되는 네이밍 방식 (또는 어드레싱 방식) 을 추가로 시그널링할 수도 있다. 이러한 네이밍/어드레싱 방식은 이하에서 더 상세히 논의되는 바와 같이 순서 정보 및/또는 타이밍 정보에 기초할 수도 있다.
도 4 는 리프리젠테이션의 세그먼트, 이를테면 도 3 의 세그먼트들 (114, 124) 중 하나의 세그먼트에 대응할 수도 있는, 예시적인 비디오 파일 (150) 의 엘리먼트들을 도시하는 블록도이다. 세그먼트들 (128, 132) 의 각각은 도 4 의 예에서 도시된 데이터의 배열에 실질적으로 부합하는 데이터를 포함할 수도 있다. 비디오 파일 (150) 은 세그먼트를 인캡슐레이션하는 것으로 말해질 수도 있다. 위에서 설명된 바와 같이, ISO 기반 미디어 파일 포맷 및 그 확장물들에 따른 비디오 파일들은 데이터를 "박스들"이라고 지칭되는 일련의 오브젝트들에 저장한다. 도 4 의 예에서, 비디오 파일 (150) 은 파일 타입 (FTYP) 박스 (152), 무비 (MOOV) 박스 (154), 세그먼트 인덱스 (sidx) 박스들 (162), 무비 프래그먼트 (MOOF) 박스들 (164), 및 무비 프래그먼트 랜덤 액세스 (MFRA) 박스 (166) 를 포함한다. 도 4 가 비디오 파일의 일 예를 나타내지만, 다른 미디어 파일들이 ISO 기본 미디어 파일 포맷 및 그것의 확장에 따른, 비디오 파일 (150) 의 데이터와 유사하게 구조화된 다른 타입들의 미디어 데이터 (예컨대, 오디오 데이터, 타임드 텍스트 데이터 등) 을 포함할 수도 있다는 것이 이해되어야 한다.
파일 타입 (FTYP) 박스 (152) 는 비디오 파일 (150) 에 대한 파일 타입을 일반적으로 기술한다. 파일 타입 박스 (152) 는 비디오 파일 (150) 에 대한 최상의 이용을 서술하는 사양을 식별하는 데이터를 포함할 수도 있다. 파일 타입 박스 (152) 는 대안적으로 MOOV 박스 (154), 무비 프래그먼트 박스들 (164), 및/또는 MFRA 박스 (166) 전에 배치될 수도 있다.
일부 예들에서, 세그먼트, 이를테면 비디오 파일 (150) 은, FTYP 박스 (152) 전에 MPD 업데이트 박스 (도시되지 않음) 를 포함할 수도 있다. MPD 업데이트 박스는 비디오 파일 (150) 을 포함하는 리프리젠테이션에 대응하는 MPD 가 그 MPD 를 업데이트하기 위한 정보와 함께 업데이트될 것임을 나타내는 정보를 포함할 수도 있다. 예를 들어, MPD 업데이트 박스는 MPD 를 업데이트하는데 사용될 리소스에 대한 URI 또는 URL을 제공할 수도 있다. 다른 예로서, MPD 업데이트 박스는 MPD 를 업데이트하기 위한 데이터를 포함할 수도 있다. 일부 예들에서, MPD 업데이트 박스는 비디오 파일 (150) 의 세그먼트 타입 (STYP) 박스 (도시되지 않음) 를 바로 뒤따를 수도 있으며, 여기서 STYP 박스는 비디오 파일 (150) 에 대한 세그먼트 타입을 정의할 수도 있다. 이하 더 상세히 논의되는 도 7 은 MPD 업데이트 박스에 대한 추가의 정보를 제공한다.
MOOV 박스 (154) 는, 도 4 의 예에서, 무비 헤더 (MVHD) 박스 (156), 트랙 (TRAK) 박스 (158), 및 하나 이상의 무비 확장 (MVEX) 박스들 (160) 을 포함한다. 일반적으로, MVHD 박스 (156) 는 비디오 파일 (150) 의 일반 특성들을 기술할 수도 있다. 예를 들어, MVHD 박스 (156) 는 비디오 파일 (150) 이 원래 생성되었을 때, 비디오 파일 (150) 이 최종 수정되었을 때, 비디오 파일 (150) 에 대한 타임스케일, 비디오 파일 (150) 에 대한 재생의 지속기간을 기술하는 데이터, 또는 비디오 파일 (150) 을 일반적으로 기술하는 다른 데이터를 포함할 수도 있다.
TRAK 박스 (158) 는 비디오 파일 (150) 의 트랙에 대한 데이터를 포함할 수도 있다. TRAK 박스 (158) 는 TRAK 박스 (158) 에 대응하는 트랙의 특성들을 기술하는 트랙 헤더 (TKHD) 박스를 포함할 수도 있다. 일부 예들에서, TRAK 박스 (158) 는 코딩된 비디오 픽처들을 포함하는 한편, 다른 예들에서, 트랙의 코딩된 비디오 픽처들은 TRAK 박스 (158) 및/또는 sidx 박스들 (162) 의 데이터에 의해 참조될 수도 있는 무비 프래그먼트들 (164) 에 포함될 수도 있다.
일부 예들에서, 비디오 파일 (150) 은 하나를 초과하는 트랙을 포함할 수도 있다. 따라서, MOOV 박스 (154) 는 트랙들의 수와 동일한 수의 TRAK 박스들을 비디오 파일 (150) 내에 포함할 수도 있다. TRAK 박스 (158) 는 비디오 파일 (150) 의 대응하는 트랙의 특성들을 기술할 수도 있다. 예를 들어, TRAK 박스 (158) 는 대응하는 트랙에 대한 시간적 및/또는 공간적 정보를 기술할 수도 있다. MOOV 박스 (154) 의 TRAK 박스 (158) 에 유사한 TRAK 박스가, 인캡슐레이션 유닛 (30) (도 3) 이 비디오 파일, 이를테면 비디오 파일 (150) 에 파라미터 세트 트랙을 포함시키는 경우, 파라미터 세트 트랙의 특성들을 기술할 수도 있다. 인캡슐레이션 유닛 (30) 은 파라미터 세트 트랙을 기술하는 TRAK 박스 내의 파라미터 세트 트랙에서 시퀀스 레벨 SEI 메시지들의 존재를 시그널링할 수도 있다.
MVEX 박스들 (160) 은, 예컨대, 비디오 파일 (150) 이, 만약 있다면, MOOV 박스 (154) 내에 포함된 비디오 데이터 외에도, 무비 프래그먼트들 (164) 을 포함한다는 것을 시그널링하기 위해, 대응하는 무비 프래그먼트들 (164) 의 특성들을 기술할 수도 있다. 비디오 데이터를 스트리밍하는 맥락에서, 코딩된 비디오 픽처들은 MOOV 박스 (154) 내에 보다는 무비 프래그먼트들 (164) 내에 포함될 수도 있다. 따라서, 모든 코딩된 비디오 샘플들은 MOOV 박스 (154) 내가 아니라, 무비 프래그먼트들 (164) 내에 포함될 수도 있다.
MOOV 박스 (154) 는 비디오 파일 (150) 에서의 무비 프래그먼트들 (164) 의 수와 동일한 수의 MVEX 박스들 (160) 을 포함할 수도 있다. MVEX 박스들 (160) 의 각각은 무비 프래그먼트들 (164) 중 대응하는 무비 프래그먼트의 특성들을 기술할 수도 있다. 예를 들어, 각각의 MVEX 박스는 무비 프래그먼트들 (164) 중 대응하는 무비 프래그먼트에 대한 시간적 지속기간을 기술하는 MEHD (movie extends header box) 박스를 포함할 수도 있다.
위에서 언급된 바와 같이, 인캡슐레이션 유닛 (30) 은 실제 코딩된 비디오 데이터를 포함하지 않는 비디오 샘플에 시퀀스 데이터 세트를 저장할 수도 있다. 비디오 샘플은 특정 시간 인스턴스에서의 코딩된 픽처의 리프리젠테이션인 액세스 유닛에 일반적으로 대응할 수도 있다. AVC 의 맥락에서, 코딩된 픽처는 액세스 유닛의 모든 화소들을 구축하기 위한 정보를 포함하는 하나 이상의 VCL NAL 유닛들과, 다른 연관된 비-VCL NAL 유닛들, 이를테면 SEI 메시지들을 포함한다. 따라서, 인캡슐레이션 유닛 (30) 은 시퀀스 레벨 SEI 메시지들을 포함할 수도 있는 시퀀스 데이터 세트를 무비 프래그먼트들 (164) 중 하나의 무비 프래그먼트에 포함시킬 수도 있다. 인캡슐레이션 유닛 (30) 은, 무비 프래그먼트들 (164) 중 상기 하나의 무비 프래그먼트에 대응하는 MVEX 박스들 (160) 중 하나의 MVEX 박스 내에서 무비 프래그먼트들 (164) 중 하나의 무비 프래그먼트에 존재하는 것으로서의 시퀀스 데이터 세트 및/또는 시퀀스 레벨 SEI 메시지들의 존재를 추가로 시그널링할 수도 있다.
SIDX 박스들 (162) 은 비디오 파일 (150) 의 옵션적 엘리먼트들이다. 다시 말하면, 3GPP 파일 포맷, 또는 다른 이러한 파일 포맷들에 부합하는 비디오 파일들은 반드시 SIDX 박스들 (162) 을 포함하는 것은 아니다. 3GPP 파일 포맷의 예에 따라, SIDX 박스는 세그먼트 (예컨대, 비디오 파일 (150) 내에 포함된 세그먼트) 의 서브-세그먼트를 식별하는데 사용될 수도 있다. 3GPP 파일 포맷은 서브-세그먼트를 "대응하는 미디어 데이터 박스(들)를 갖는 하나 이상의 연속적인 무비 프래그먼트 박스들의 독립식 세트 및 무비 프래그먼트 박스에 의해 참조되는 데이터를 포함하는 미디어 데이터 박스가 그 무비 프래그먼트 박스를 뒤따라야만 하고 동일한 트랙에 관한 정보를 포함하는 다음 무비 프래그먼트 박스에 선행해야만 한다" 로서 정의한다. 3GPP 파일 포맷은 SIDX 박스가 "박스에 의해 기록된 (서브) 세그먼트의 서브세그먼트들에 대한 참조들의 시퀀스를 포함한다"는 것을 또한 표시한다. 참조된 서브세그먼트들은 프리젠테이션 시간에 연속적이다. 마찬가지로, 세그먼트 인덱스 박스에 의해 참조되는 바이트들은 세그먼트 내에서 항상 연속적이다. 참조된 사이즈는 참조된 자료에서의 바이트들의 수의 카운트를 제공한다.
SIDX 박스들 (162) 은 비디오 파일 (150) 에 포함된 세그먼트의 하나 이상의 서브-세그먼트들을 나타내는 정보를 일반적으로 제공한다. 예를 들면, 이러한 정보는 서브-세그먼트들이 시작하며 그리고/또는 종료하는 재생 시간들, 서브-세그먼트들에 대한 바이트 오프셋들, 서브-세그먼트들이 스트림 액세스 포인트 (SAP) 를 포함하는지 (예컨대 그 SAP로 시작하는지) 의 여부, SAP에 대한 타입 (예컨대, SAP가 순간적 디코더 리프레시 (IDR) 픽처인지, 클린 랜덤 액세스 (CRA) 픽처인지, 브로큰 링크 액세스 (BLA) 픽처인지 등), 서브-세그먼트에서의 SAP의 포지션 (재생 시간 및/또는 바이트 오프셋 측면에서임) 등을 포함할 수도 있다.
무비 프래그먼트들 (164) 은 하나 이상의 코딩된 비디오 픽처들을 포함할 수도 있다. 일부 예들에서, 무비 프래그먼트들 (164) 은 하나 이상의 픽처들의 그룹들 (GOP들) 을 포함할 수도 있으며, 그 GOP들의 각각은 다수의 코딩된 비디오 픽처들, 예컨대, 프레임들 또는 픽처들을 포함할 수도 있다. 덧붙여서, 위에서 설명된 바와 같이, 무비 프래그먼트들 (164) 은 일부 예들에서 시퀀스 데이터 세트들을 포함할 수도 있다. 무비 프래그먼트들 (164) 의 각각은 무비 프래그먼트 헤더 박스 (MFHD, 도 4 에는 도시되지 않음) 를 포함할 수도 있다. MFHD 박스는 대응하는 무비 프래그먼트 박스들의 특성들, 이를테면 무비 프래그먼트 박스들에 대한 시퀀스 번호를 기술할 수도 있다. 무비 프래그먼트들 (164) 은 비디오 파일 (150) 내에 시퀀스 번호의 순서로 포함될 수도 있다.
MFRA 박스 (166) 는 비디오 파일 (150) 의 무비 프래그먼트들 (164) 내의 랜덤 액세스 포인트들을 기술할 수도 있다. 이는 비디오 파일 (150) 에 의해 인캡슐레이션된 세그먼트 내에서 특정한 시간적 로케이션들 (즉, 재생 시간들) 에 대한 탐색들을 수행하는 것과 같은, 트릭 모드들을 수행하는 것을 지원할 수도 있다. MFRA 박스 (166) 는 일반적으로 옵션적이고 일부 예들에서, 비디오 파일들에 포함될 필요가 없다. 비슷하게, 클라이언트 디바이스, 이를테면 클라이언트 디바이스 (40) 는, 비디오 파일 (150) 의 비디오 데이터를 정확히 디코딩하고 디스플레이하기 위해 MFRA 박스 (166) 를 반드시 참조할 필요는 없다. MFRA 박스 (166) 는 비디오 파일 (150) 의 트랙들의 수와 동일한, 또는 일부 예들에서는, 비디오 파일 (150) 의 미디어 트랙들 (예컨대, 비-힌트 트랙들) 의 수와 동일한 수의 트랙 무비 프래그먼트 박스들 랜덤 액세스 (TFRA) 박스들 (도시되지 않음) 을 포함할 수도 있다.
일부 예들에서, 무비 프래그먼트들 (164) 은 하나 이상의 스트림 액세스 포인트들 (SAP들), 이를테면 IDR 픽처들을 포함할 수도 있다. 비슷하게, MFRA 박스 (166) 는 SAP들의 비디오 파일 (150) 내의 로케이션들의 표시들을 제공할 수도 있다. 따라서, 비디오 파일 (150) 의 시간적 서브-시퀀스가 비디오 파일 (150) 의 SAP들로부터 형성될 수도 있다. 시간적 서브-시퀀스는 SAP들에 의존하는 P-프레임들 및/또는 B-프레임들과 같은 다른 픽처들을 또한 포함할 수도 있다. 시간적 서브-시퀀스의 프레임들 및/또는 슬라이스들은 서브-시퀀스의 다른 프레임들/슬라이스들에 의존하는 시간적 서브-시퀀스의 프레임들/슬라이스들이 적절히 디코딩될 수 있도록 세그먼트들 내에 배열될 수도 있다. 예를 들어, 데이터의 계층적 배열에서, 다른 데이터에 대한 예측을 위해 사용되는 데이터가 시간적 서브-시퀀스에 또한 포함될 수도 있다.
도 5 는 정규 세그먼트 오퍼링들 및 더 짧은 세그먼트들의 오퍼링들의 예들을 도시하는 개념도이다. 즉, 도 5 는 예시적인 정규 세그먼트 오퍼링 (180) 및 예시적인 더 짧은 세그먼트들의 오퍼링 (190) 을 도시한다. 도 5 에 도시된 바와 같이, 더 짧은 세그먼트들은 재생 개시 지연을 감소시킬 수 있다.
정규 세그먼트 오퍼링 (180) 과 같은 정규 DASH 오퍼링들에서, 세그먼트들 (182A, 182B, 182C) 은 동일한 입도 (granularity) 를 갖는 스위칭, 랜덤 액세스 및 전달을 허용하기 위해 오퍼링된다. 세그먼트들 (182A, 182B, 182C) 은 비트스트림 스위칭, 예를 들어 리프리젠테이션들 간의 스위칭을 허용하는 개별 랜덤 액세스 포인트들 (RAP들) (184A, 184B, 184C) 을 포함한다. 컨텐츠 생성기 (예를 들어, 도 1 의 컨텐츠 준비 디바이스 (20)) 는 공개 (publishing) 전에 전체 세그먼트들 (182A, 182B, 182C) 을 생성할 필요가 있기 때문에, 세그먼트들 (182A, 182B, 182C) 에 대한 세그먼트 사용가능성 시작 시간들 (SAST들) 은 오직 세그먼트들 (182A, 182B, 182C) 의 전체 개별 세그먼트가 생성될 때마다 사용가능하다. 더 짧은 세그먼트들의 오퍼링 (190) 은 세그먼트들 (192A-192K) 을 포함하고, 오직 세그먼트들 (192A, 192G) 만이 개별 RAP들 (194A, 194B) 을 포함한다. 그러한 더 짧은 세그먼트들로, 세그먼트 사용가능성이 더 빨라질 수 있으며 전체 지연이 감소될 수 있다.
그러나, 정규 세그먼트 오퍼링 (180) 및 더 짧은 세그먼트들의 오퍼링 (190) 양자에 대해, 세그먼트 어드레스 URL들 뿐만 아니라 SAST 는 빈번한 MPD 업데이트들 또는 코딩에 대한 불필요한 제한들 없이, 압축 방식으로 MPD 에서 생성되고 시그널링될 필요가 있다. 하나는 더 작은 세그먼트들 (이하 도 6 참조) 에 대한 세그먼트 타임라인들과 함께 정확한 지속기간을 사용할 수 있지만, 이는 복잡한 시그널링 및 가능하게 모호한 시그널링뿐만 아니라 다수의 MPD 업데이트들을 발생할 수도 있다. 비디오에서의 예측 체인들로 인해, 정확한 제시 지속기간 (및 따라서, 어드레스) 는 결정될 수 없다.
도 6 은 정규 세그먼트 오퍼링 (200) 및 더 짧은 세그먼트들의 오퍼링 (210) 을 통해 이용가능한 세그먼트들에 대한 URL (uniform resource locator) 어드레스들을 도시하는 개념도이다. 이 예에서, 정규 세그먼트 오퍼링 (200) 은 각각 개별 RAP들 (204A, 204B, 204C) 을 포함하는, 세그먼트들 (202A, 202B, 202C) 을 포함한다. 더 짧은 세그먼트들의 오퍼링 (210) 은 세그먼트들 (212A-212K) 을 포함하고, 오직 세그먼트들 (212A 및 212G) 만이 각각, RAP들 (214A, 214B) 을 포함한다.
도 6 에 도시된 바와 같이, 더 짧은 세그먼트 오퍼링들을 사용하면 더 짧은 세그먼트들에 대한 제시 지속기간들이 결정하기 어려워지게 할 수도 있고, 그러므로 세그먼트들에 대한 URL 어드레스들이 또한 결정하기 어려울 수도 있다. 따라서, 정확한 세그먼트 지속기간들을 가진 $Time$ 어드레싱은 실용적이지 않을 수도 있다.
도 7 은 본 개시의 기법들에 따라 시그널링될 수도 있는 예시적인 데이터 세트들을 도시하는 개념도이다. 도 7 은 예시적인 정규 세그먼트 오퍼링 (220) 및 세그먼트 시퀀스들 및 $Number$ 속성들의 오퍼링 (230) 을 도시한다. 정규 세그먼트 오퍼링 (220) 은 각각 개별 RAP들 (224A, 224B, 224C) 을 포함하는, 세그먼트들 (222A, 222B, 222C) 을 포함한다. 이 예에서, 세그먼트 시퀀스들 및 $Number$ 속성의 오퍼링 (230) 은 세그먼트들 (232A-232P) 을 포함하고, 세그먼트들 (232A, 232G, 232L) 은 개별 RAP들 (234A, 234B, 234C) 을 포함한다.
본 개시의 기법들은 일반적으로 세그먼트 시퀀스에 포함된 세그먼트들의 수를 명시하는 미디어 프리젠테이션 디스크립션 (MPD) 파일과 같은 매니페스트 파일의 속성을 시그널링하는 것을 수반한다. 예를 들어, MPD 파일들의 경우, "@k" 속성은 MPD 파일의 세그먼트 타임라인의 S 엘리먼트에 추가될 수도 있다.
도 7 의 예에 도시된 바와 같이, 세그먼트 시퀀스들 및 $Number$ 속성들의 오퍼링 (230) 에 대한 속성들이 시그널링된다. 특히, 도 7 의 세그먼트 시퀀스들 및 $Number$ 속성들의 오퍼링 (230) 의 예에서, 속성들의 세트는 다음과 같이 시그널링된다:
도 1 의 클라이언트 디바이스 (40) 는 도 7 에 도시된 바와 같이 $Number$ 템플릿을 사용함으로써 세그먼트 넘버들을 간단히 증가시킬 수도 있다. 즉, 도 1 의 클라이언트 디바이스 (40) 는 세그먼트 넘버들을 "1" 씩 증분함으로써 더 짧은 세그먼트들 각각을 어드레싱할 수 있다 (예를 들어, HTTP GET 또는 부분 GET 요청과 같은 요청에서 명시한다). 도 7 의 예에서, 예를 들어, 정규 세그먼트 오퍼링 (220) 의 세그먼트 (222A) 는 더 짧은 세그먼트들의 오퍼링 (230) 의 세그먼트들 (232A-232F) 에 대응하고, 정규 세그먼트 오퍼링 (220) 의 세그먼트 (222B) 는 더 짧은 세그먼트들의 오퍼링 (230) 의 세그먼트들 (232G-232K) 에 대응하고, 정규 세그먼트 오퍼링 (220) 의 세그먼트 (222C) 는 더 짧은 세그먼트들의 오퍼링 (230) 의 세그먼트들 (232L-232P) 에 대응한다.
세그먼트들 (232A-232P) 은 증분하는 네이밍 방식에 따라 네이밍되고, 이 예에서, 세그먼트의 네임은 ".m4s" 이 뒤따르는 넘버에 대응한다. 예를 들어, 세그먼트 (232A) 는 "2.m4s" 로 네이밍되고, 세그먼트 (232B) 는 "3.m4s" 으로 네이밍되는, 등등이다. 도 1 의 클라이언트 디바이스 (40) (및 특히, 취출 유닛 (52)) 은 대응하는 세그먼트의 네임을 사용하여 세그먼트들 (232A-232P) 중 원하는 하나의 세그먼트 대한 식별자를 특정할 수도 있다. 예를 들어, 세그먼트 (232A) 를 취출하기 위해, 클라이언트 디바이스 (40) 는 URL: "ab.com/2.m4s" 를 지정하는 요청을 서버 디바이스 (60) 에 전송할 수도 있다. 이 세그먼트 네이밍 방식 (또는 어드레싱 방식) 은 세그먼트 넘버들이 간단히 1 씩 증가하기 때문에, 특정 사용 케이스들에 적합하다. 따라서, 이것은 예를 들어, ROUTE (Real-Time Object Delivery over Unidirectional Transport) 을 갖는 ATSC (Advanced Television Systems Committee) 에 유용할 것이다. 또한, 이 방식은 DASH 의 템플릿 방식에 대한 업데이트들을 요구하지 않는다.
다른 사용 케이스들의 경우, 이 간단한 넘버 기반 시그널링은 충분하지 않을 수도 있다. 이유는, 그 시그널링이 $Time$, 또는 정규 오퍼링이 저 레이턴시 오퍼링과 함께 제공되는 사용 케이스와 함께 작업하지 않고, 세그먼트 넘버들이 분기 (diverge) 하기 때문이다. 이러한 논의들과 $Time$ 를 기반으로, 양자의 $Number$ 및 $Time$ 기반 시그널링에 대한 계층적 넘버링이 유리할 수도 있다.
도 8 은 본 개시의 기법들에 따라 세그먼트들에 대한 계층적 넘버링을 사용하기 위한 기법들의 일 예를 도시한다. 이 예에서, 정규 세그먼트 오퍼링 (240) 은 각각이 개별 RAP (244A, 244B, 244C) 를 포함하는 세그먼트들 (242A, 242B, 242C) 을 포함한다. 이 예에서, 세그먼트 시퀀스들의 오퍼링 (250) 은 계층적으로 식별된 세그먼트들, 즉 세그먼트들 (252A-252P) 을 포함하고, 세그먼트들 (252A, 252G, 252L) 은 개별 RAP들 (254A, 254B, 254C) 을 포함한다.
도 8 의 예에서, 더 짧은 세그먼트들 (252A-252P) 은 계층적 시그널링 방식을 사용하여 어드레싱된다. 특히, 도 8 의 예에서, 정규 세그먼트 오퍼링 (240) 의 세그먼트 (242A) 는 세그먼트 시퀀스들의 오퍼링 (250) 의 세그먼트들 (252A-252F) (이 예에서 "2_1.m4s" 내지 "2_6.m4s" 로 네이밍됨) 에 대응하고, 정규 오퍼링 (240) 의 세그먼트 (242B) 는 세그먼트 시퀀스들의 오퍼링 (250) 의 세그먼트들 (252G-252K) (이 예에서 "3_1.m4s" 내지 "3_5.m4s" 로 네이밍됨) 에 대응하고, 정규 오퍼링 (240) 의 세그먼트 (242C) 는 세그먼트 시퀀스들의 오퍼링 (250) 의 세그먼트들 (252L-252P) (이 예에서 "4_1.m4s" 내지 "4_5.m4s" 로 네이밍됨) 에 대응한다. 세그먼트들 (242A, 242B, 242C) 은 이 예에서 각각 "2.m4s", "3.m4s" 및 "4.m4s" 로 네이밍된다. 이러한 방식으로, 네이밍 방식은 계층적인 것으로 불려질 수 있는데, 세그먼트들 (252A-252P) 은 2 부분 형태로 네이밍된다: 세그먼트들 (242A-242C) 중 대응하는 세그먼트의 네임을 나타내는 제 1 부분과 세그먼트들 (242A-242C) 중 동일한 세그먼트에 대응하는 세그먼트 시퀀스 내의 세그먼트들 (252A-252P) 의 상대적 순서를 나타내는 제 2 부분.
따라서, 정규 세그먼트 오퍼링 (240) 의 세그먼트들 (242A-242C) 의 각각은 세그먼트 시퀀스들의 오퍼링 (250) 의 대응 세그먼트 시퀀스를 가질 수도 있다. 세그먼트들 (252A-252P) 은 베이스 URL 다음에 "M_N.m4s" 을 명시하는 URL 을 요청하는 것 (예를 들어, HTTP GET 또는 부분 GET 요청들을 사용하는 것) 에 의해 어드레싱될 수도 있으며, 여기서 "M" 은 세그먼트들 (242A-242C) 중 대응하는 세그먼트의 네임을 나타내고, "N" 은 세그먼트들 (242A-242C) 중 하나에 대응하는 세그먼트 시퀀스 내의 세그먼트의 서수 식별자를 나타낸다. 따라서, 세그먼트 (252J) 를 취출하기 위해, 클라이언트 디바이스 (40) 는 세그먼트 (252J) 가 세그먼트 (242B) 에 대응하고, 세그먼트 시퀀스에서 제 4 세그먼트인 것을 결정할 수도 있다. 따라서, 클라이언트 디바이스 (40) 는 "ab.com/3_4.m4s" 를 명시하는 요청을 전송하여 세그먼트 (252J) 를 취출할 수도 있다.
이러한 방식의 계층적 시그널링은 단일 스위칭뿐만 아니라, 단일 MPD 에서 상이한 사이즈의 세그먼트들의 배치를 가능하게할 수도 있다. 이러한 방식의 계층적 시그널링은 또한, 세그먼트 시퀀스 내의 세그먼트들에 대한 지속기간의 정확한 시그널링에 대한 요구를 회피할 수도 있다.
도 9 는 본 개시의 기법들에 따라 세그먼트들에 대한 계층적 넘버링을 사용하기 위한 기법들의 다른 예를 도시한다. 이 예에서, 세그먼트 넘버에 의해 세그먼트들을 어드레싱하는 대신, 정규 오퍼링의 세그먼트들은 지속기간을 나타내는 정보로 어드레싱될 수도 있다. 이 예에서, 정규 세그먼트 오퍼링 (260) 은 각각 개별 RAP들 (264A, 264B, 264C) 을 포함하는, 세그먼트들 (262A-262C) 을 포함한다. 세그먼트들 (262A-262C) 은 개별 세그먼트의 지속기간 플러스 이전 세그먼트들의 누산된 지속기간들에 따라 네이밍된다. 이 예에서, 세그먼트 (262A) 는 1010 의 지속기간을 가지며, 세그먼트 (262B) 는 1000 의 지속기간을 갖는다. 또한, 세그먼트 (262A) 는 1000 의 총 세그먼트 지속기간을 갖는 하나 이상의 세그먼트들을 뒤따른다. 따라서, 세그먼트 (262A) 는 "1000.m4s" 로 네이밍되고, 세그먼트 (262B) 는 "2010.m4s" 로 네이밍되고 (1000+1010), 세그먼트 (262C) 는 "3010.m4s" 로 네이밍된다 (2010+1000).
세그먼트 시퀀스들의 오퍼링 (270) 은 더 짧은 세그먼트들 (272A-272P) 을 포함한다. 그러나, 이 예에서, 세그먼트들 (272A-272P) 은 지속기간 컴포넌트 및 서브-넘버 컴포넌트에 의해 어드레싱가능할 수도 있다. 지속기간 컴포넌트는 전술한 바와 같이, 정규 세그먼트 오퍼링 (260) 에서의 세그먼트들 (262A-262C) 중 대응하는 세그먼트의 네임을 나타낼 수도 있다. 서브-넘버 컴포넌트는 세그먼트 시퀀스들의 오퍼링 (270) 의 세그먼트들 (272A-272P) 중 하나에 대한 세그먼트 넘버를 나타낼 수도 있다.
따라서, 도 9 의 예에서, 정규 세그먼트 오퍼링 (260) 의 세그먼트 (262A) ("1000.m4s" 로 네이밍됨) 는 세그먼트 시퀀스들의 오퍼링 (270) 의 세그먼트들 (272A-272F) (개별적으로 "1000_1.m4s" 내지 "1000_6.m4s" 로 네이밍됨) 에 대응하고, 정규 세그먼트 오퍼링 (260) 의 세그먼트 (262B) ("2010.m4s" 로 네이밍됨) 는 세그먼트 시퀀스들의 오퍼링 (270) 의 세그먼트들 (272G-272K) (개별적으로 "2010_1.m4s" 내지 "2010_5.m4s" 로 네이밍됨) 에 대응하고, 정규 세그먼트 오퍼링 (260) 의 세그먼트 (262C) ("3010.m4s" 로 네이밍됨) 는 세그먼트 시퀀스들의 오퍼링 (270) 의 세그먼트들 (272L-272P) (개별적으로 "3010_1.m4s" 내지 "3010_5.m4s" 로 네이밍됨) 에 대응한다.
따라서, 클라이언트 디바이스 (40) 는 전술한 바와 같이, 이들 세그먼트들의 누산된 지속기간들에 기초하여 세그먼트들 (262A-262C) 의 네임들을 결정할 수도 있다. 또한, 클라이언트 디바이스 (40) 는 세그먼트들 (262A-262C) 중 대응하는 세그먼트에 대한 네임을 결정하고, 그 후에 세그먼트들 (272A-272P) 중 하나의 위치를 세그먼트들 (262A-262C) 중 하나에 대응하는 세그먼트들의 시퀀스 내에서 결정함으로써, 세그먼트들 (272A-272P) 의 네임들/식별자들을 결정할 수도 있다. 예를 들어, 도 1 의 클라이언트 디바이스 (40) 는, 정규 세그먼트 오퍼링 (260) 에서 대응하는 세그먼트 (262B) 의 네임이 "2010.m4s" 인 것을 결정하고 세그먼트 (272J) 가 세그먼트 (262B) 에 대응하는 세그먼트 시퀀스에서의 제 4 세그먼트인 것을 결정함으로써, 세그먼트 (272J) 에 대한 명칭이 "2010_4.m4s" 인 것을 결정할 수도 있다. 따라서, 세그먼트 (272J) 를 요청하기 위해, 클라이언트 디바이스 (40) 는 세그먼트 (272J) 의 URL 로서 "ab.com/2010_4.m4s" 를 특정하는 HTTP GET 또는 부분 GET 요청을 제출할 수도 있다.
도 9 의 예의 하나의 잠재적인 이점은, 동일한 리프리제테이션 내의 다음 세그먼트 시퀀스 (예를 들어, 세그먼트 (262B) 에 대응하는 세그먼트 시퀀스) 의 가장 빠른 프리젠테이션 시간이 현재 세그먼트 시퀀스의 가장 빠른 프리젠테이션 (1000) 과 세그먼트 시퀀스의 모든 미디어 세그먼트들의 연접으로부터 발생하는 세그먼트의 지속기간의 합으로부터 도출될 수도 있다는 것이다. ISO BMFF 의 경우에서, 이는 세그먼트 시퀀스에서 세그먼트들의 트랙 런들을 합산함으로써 달성될 수도 있다.
이러한 방식으로, 클라이언트 디바이스 (40) 는 제 1 부분 및 제 2 부분을 포함하는 2 부분 네이밍 방식을 사용하여 더 짧은 세그먼트 오퍼링의 세그먼트들을 어드레싱할 수도 있다. 제 1 부분은 (도 8 의 예에 따라) 정규 세그먼트 오퍼링 (240) 의 대응하는 세그먼트들 (242A-242C) 의 세그먼트 넘버들 또는 (도 9 의 예에 따라) 정규 세그먼트 오퍼링 (260) 의 대응하는 세그먼트들 (262A-262C) 에 대한 타이밍 정보를 나타낼 수도 있다. 타이밍 정보는 예를 들어, 대응하는 세그먼트가 재생되기 시작하는 재생 시간을 표시할 수도 있다. 제 2 부분은 (도 8 및 도 9 의 예에 따라) 단순한 숫자 증분들을 나타낼 수도 있다. 특히, 2 부분 네이밍 방식들은 각각, "$Number$.$Chunk$" 및 "$Time$.$Chunk$" 로 지칭될 수도 있다. 대안적으로, 2 부분 네이밍 방식들은 각각, "$Number$.$ChunkNumber$" 및 "$Time$.$ChunkNumber$" 로 지칭될 수도 있다.
따라서, (도 1 의 클라이언트 디바이스 (40), 서버 디바이스 (60), 및 컨텐츠 준비 디바이스 (20) 와 같은) DASH 를 사용하는 디바이스들은 본 개시의 기법들을 사용하여 더 짧은 세그먼트 오퍼링에서 이용가능한 세그먼트 "청크들" 의 수를 표시하는 속성 (예를 들면, 속성 "@k") 과 같은, 본원에서 논의된 데이터를 포함하는 매니페스트 파일을 프로세싱 (예컨대, 형성 또는 파싱 및 해석) 할 뿐만 아니라, 앞서 참조된 매니페스트 파일의 속성을 사용하여 본원에 논의된 임의의 또는 모든 기법들에 따라 세그먼트들을 어드레싱할 수도 있다.
ISO/IEC 23009-1 에 명시된 것과 같은 DASH 의 예와 관련하여, DASH 의 섹션 5.3.9.4.4 은 아래 도시된 것과 같이 수정될 수도 있으며, 여기서 시작 및 종료 추가 기호들 "||+>||" 및 "||+<||" 로 둘러싸인 텍스트는 추가들을 나타내고, 시작 및 종료 삭제 기호들 "->" 및 "||-<||" 로 둘러싸인 텍스트는 삭제들을 나타내며, 다른 부분들은 변경되지 않는다.
5.3.9.4.4
템플릿 기반 세그먼트 URL 구성
SegmentTemplate@media 속성, SegmentTemplate@index 속성, SegmentTemplate@Initialization 속성 및 SegmentTemplate@bitstreamSwitching 속성은 각각 표 16 에 나열된 것과 같은 식별자들 중 하나 이상을 포함할 수도 있는 스트링을 포함한다.
각 URL 에서, 표 16 의 식별자들은 표 16 에 정의된 대체 파라미터로 대체되어야 한다. 식별자 매칭은 대소문자를 구별한다 (case-sensitive). URL 이 유효 식별자를 둘러싸지 않는 비-이스케이프 (unescaped) $ 심볼들을 포함한다면, URL 형성 결과가 정의되지 않는다. 이 경우, DASH 클라이언트는 리프리젠테이션 엘리먼트를 포함하는 전체를 무시하고, MPD 의 프로세싱은 이 리프리젠테이션 엘리먼트가 존재하지 않았던 것처럼 계속될 것으로 예상된다. 식별자의 포맷은 표 16 에도 명시되어 있다.
각 식별자는 둘러싸는 '$' 문자들 내에 부가될 수도 있으며, 추가의 포맷 태그가 IEEE 1003.1-2008 [10] 에 정의된 것과 같은 printf 포맷 태그와 정렬되고, 이 프로토타입을 뒤따른다:
%0[width]d
width 파라미터는 프린트할 최소 수의 문자들을 제공하는 부호없는 정수이다. 프린트될 값이 이 수보다 짧으면, 그 결과는 0 들로 패딩되어야 한다. 그 값은 결과가 더 큰 경우에도 절단되지 않는다.
미디어 프리젠테이션은 대체 프로세스의 적용이 유효한 세그먼트 URL들을 생성하도록, 작성되어야 한다.
식별자들 외부의 스트링들은 RFC 3986 에 따라 URL들 내에서 허용되는 문자들만을 포함해야 한다.
표 16 - URL 템플릿들에 대한 식별자들
변경 5.3.9.6 세그먼트 타임라인 (SISSI 변경 ||+>||6||+<|| ||->|| 5||-<||)
5.3.9.6.1
일반
SegmentTimeline 엘리먼트는 리프리젠테이션에서 각 세그먼트에 대해 가장 빠른 프리젠테이션 시간과 프리젠테이션 지속기간을 (@timescale 속성을 기반으로 하는 단위들로) 표현한다. 그 사용은 @duration 속성을 제공하는 것에 대한 대안이며, 3 가지 추가의 특징들을 제공한다:
● 임의의 세그먼트 지속기간의 지정,
● 하나의 미디어 스트림에 대한 정확한 세그먼트 지속기간들의 지정 (여기서 지속기간은 세그먼트의 프리젠테이션 지속기간을 표현한다), 및
● 특정 프리젠테이션에 어떤 세그먼트 데이터도 존재하지 않는 미디어 프리젠테이션 타임라인의 불연속성들의 시그널링.
● 세그먼트 시퀀스들을 시그널링하기 위한 능력. 세부사항들은 5.3.9.6.4 를 참조하라. 세그먼트 시퀀스들은 사용중인 프로파일에 의해 명시적으로 허용된 경우에만 사용되어야 한다.
간결성을 위해 이 엘리먼트의 신택스는 일정한 지속기간을 갖는 세그먼트들의 시퀀스를 표현하기 위해 런-렝스 압축을 포함한다.
SegmentTimeline 엘리먼트는, 각각이 동일한 MPD 지속기간의 연속적인 세그먼트들의 시퀀스를 기술하는, S 엘리먼트들의 리스트를 포함해야 한다. S 엘리먼트는 MPD 지속기간을 지정하는 필수 @d 속성, 동일한 MPD 지속기간에서 1 을 차감한 연속하는 세그먼트들의 수를 지정하는 옵션의 @r 반복 카운트 속성, 및 옵션의 @t 시간 속성을 포함한다. @t 속성의 값에서 @presentationTimeOffset 의 값을 차감한 값은 그 시리즈의 제 1 세그먼트의 MPD 시작 시간을 명시한다.
@r 속성은 존재하지 않을 때 디폴트 값이 0 이다 (즉, 시리즈의 단일 세그먼트). 예를 들어, 3 의 반복 카운트는 각각 동일한 MPD 지속기간을 갖는 4 개의 연속하는 세그먼트들이 있음을 의미한다. S 엘리먼트의 @r 속성의 값은 음수 값으로 세팅되어, @d 에 표시된 지속기간이 다음 S 엘리먼트의 S@t 까지 또는 SegmentTimeline 엘리먼트에서 최종 S 엘리먼트의 경우에 그 주기의 말단까지 또는 MPD 의 다음 업데이트까지 반복하도록 약정되며, 즉 전체 주기에 대한 @duration 속성과 동일한 방식으로 처리된다.
임의의 @d 값은 MPD@maxSegmentDuration 의 값을 초과하지 않아야 한다.
SegmentTimeline 엘리먼트 내의 S 엘리먼트들의 텍스트 순서는 해당 미디어 세그먼트들의 넘버링 (및 따라서 시간) 순서와 매칭해야 한다.
SegmentTemplate 이 사용 중이고 $Time$ 식별자가 SegmentTemplate@media 에 존재하는 경우:
● 세그먼트 인덱스 ('sidx') 박스가 존재한다면, SegmentTimeline 의 값들은 각 미디어 세그먼트의 정확한 타이밍을 기술해야 한다. 구체적으로, 이 값들은 세그먼트 인덱스 ('sidx') 박스에 제공된 정보를 반영해야 한다, 즉:
○ @timescale 의 값은 제 1 'sidx' 박스의 타임스케일 필드의 값과 동일해야 하며,
○ S@t 의 값은 S 에 기술된 미디어 세그먼트의 제 1 'sidx' 박스의 earliest_presentation_time 의 값과 동일해야 하며,
○ S@d 의 값은 S 에 기술된 미디어 세그먼트의 제 1 'sidx' 박스의 모든 Subsegment_duration 필드들의 값들의 합과 동일해야 한다.
○ 세그먼트 인덱스 ('sidx') 박스가 존재하지 않는다면, 가장 빠른 프리젠테이션 시간의 유도는 미디어 내부 데이터를 기반으로 해야 한다. 세부사항은 사용중인 세그먼트 포맷에 의존하고, 세그먼트 포맷에 추가의 제한이 적용될 수도 있다.
○ 미디어 세그먼트의 세그먼트 URL 은 $Time$ 식별자를 SegmentTimeline 에서 획득된 가장 빠른 프리젠테이션 시간으로 대체함으로써 획득된다.
주의) 동일한 리프리젠테이션의 다음 미디어 세그먼트의 가장 빠른 프리젠테이션 시간은 예를 들어, 세그먼트 인덱스의 사용에 의해 실제 미디어 세그먼트로부터 도출될 수도 있고, 세그먼트 URL 은 세그먼트 타임라인에 대한 업데이트를 포함하는 업데이트된 MPD 를 읽지 않고 생성될 수도 있다.
세그먼트 타임라인의 속성들 및 엘리먼트들에 대한 시맨틱들이 5.3.9.6.2, 표 17 에 제공된다. 세그먼트 타임라인의 XML 신택스가 5.3.9.6.3 에서 제공된다.
5.3.9.6.2
시맨틱들
표 17 - SegmentTimeline 엘리먼트의 시맨틱들
5.3.9.6.3
XML 신택스
||+>||5.3.9.6.4
세그먼트 시퀀스들
세그먼트 타임라인의 세그먼트 시퀀스들은 SegmentTimeline 의 S 엘리먼트에 @k 속성을 포함시키는 것으로 시그널링될 수도 있다. @k 는 다음의 요건들 모두가 충족되는 경우에만 존재해야 한다:
● 연관된 리프리젠테이션에 대한 어드레싱 방식은 5.3.9.6.5 에 정의된 것과 같은 $Number$ 또는 계층적 템플릿 및 서브-넘버링을 갖는 세그먼트 템플릿을 사용하고 있으며,
● 프로파일은 세그먼트 시퀀스들의 사용을 명시적으로 허용한다.
@k 가 존재하고 1 보다 크다면, @d 에 의해 기술된 시퀀스가 타이밍에 있어서 정확하지만 @k 세그먼트들을 포함한다고 지정한다.
세그먼트의 MPD 지속기간은 @d 의 값을 @k 의 값으로 나눈 것으로서 결정되며, MPD 시작 시간 및 따라서 세그먼트 사용가능성 시작 시간을 결정한다. 세그먼트들의 MPD 지속기간은 세그먼트들의 미디어 지속기간과 정확하게 매칭하도록 요구되지 않는 것에 유의한다.
세그먼트 시퀀스에서 모든 세그먼트들의 연접은 @d 의 값에 따라 정확한 세그먼트 지속기간을 가져야 한다.
5.3.9.6.5
계층적 템플릿 및 서브-넘버링
세그먼트 템플릿이 $SubNumber$ 값을 포함하고 세그먼트 시퀀스를 갖는 세그먼트 타임라인 시그널링이 사용될 경우,
● $Time$ 이 존재하면, $Time$ 은 세그먼트 시퀀스의 모든 세그먼트들에 대한 세그먼트 시퀀스의 가장 빠른 프리젠테이션 시간으로 대체되고,
● $Number$ 가 존재하면, $Number$ 는 세그먼트 시퀀스의 넘버, 즉 세그먼트 타임라인의 모든 세그먼트 시퀀스가 단일 세그먼트로 취급되는 경우의 넘버로 대체되고,
● 그리고 양자의 케이스들에서 $SubNumber$ 는 세그먼트 시퀀스의 세그먼트 넘버로 대체되며, 시퀀스의 제 1 세그먼트의 넘버는 1 이다.
주의. 동일한 리프리젠테이션에서 다음 세그먼트 시퀀스의 가장 빠른 프리젠테이션 시간은 현재 세그먼트 시퀀스의 가장 빠른 프리젠테이션과 세그먼트 시퀀스에서 모든 미디어 세그먼트들의 연접에 기인한 세그먼트의 지속기간의 합으로부터 도출될 수도 있다. ISO BMFF 의 경우에, 이는 세그먼트 시퀀스에서 세그먼트들의 트랙 런들을 합산함으로써 달성될 수도 있다.||+<||
도 10 은 본 개시의 기법들에 따라 미디어 데이터를 전달 (전송 및 수신) 하는 예시적인 방법을 도시하는 흐름도이다. 도 10 의 방법은, 도 1 의 서버 디바이스 (60) 및 클라이언트 디바이스 (40) 에 의해 수행되는 것으로 설명된다. 그러나, 이러한 또는 유사한 방법을 수행하기 위해 부가적인 또는 대안적인 디바이스들이 구성될 수도 있다는 것을 이해해야 한다. 예를 들어, 컨텐츠 준비 디바이스 (20) 는 서버 디바이스 (60) 와 함께 또는 서버 디바이스 (60) 대신에 서버 디바이스에 기인하는 방법의 부분들을 수행할 수도 있다.
초기에, 서버 디바이스 (60) 는 미디어 데이터의 세그먼트들의 청크들의 사용가능성을 결정할 수도 있다 (300). 예를 들어, 서버 디바이스 (60) 는 미디어 데이터의 리프리젠테이션 또는 적응 세트의 복수의 세그먼트들의 각각에 대한 청크들의 수를 결정할 수도 있다. 서버 디바이스 (60) 는 미디어 프리젠테이션 디스크립션 (MPD) 과 같은 매니페스트 파일에서 사용가능성 데이터를 특정할 수도 있다 (302). 예를 들어, 상술한 바와 같이, 서버 디바이스 (60) 는 매니페스트 파일의 세그먼트 타임라인 엘리먼트에서 S 엘리먼트의 "@k" 엘리먼트를 시그널링할 수도 있다. @k 엘리먼트는 세그먼트 시퀀스에 포함된 세그먼트들의 수를 나타낼 수도 있다. 이러한 세그먼트들의 수는 세그먼트의 청크들로서 이해될 수도 있고, 세그먼트 시퀀스는 대응하는 세그먼트에 대한 청크들의 시퀀스에 대응할 수도 있다. 서버 디바이스 (60) 는 예를 들어, 매니페스트 파일에 대한 클라이언트 디바이스 (40) 로부터의 요청에 응답하여, 매니페스트 파일을 클라이언트 디바이스 (40) 에 전송할 수도 있다 (304).
클라이언트 디바이스 (40) 는 매니페스트 파일을 수신할 수도 있다 (306). 이어서, 클라이언트 디바이스 (40) 는 매니페스트 파일로부터 청크 사용가능성 데이터를 결정할 수도 있다 (308). 예를 들어, 클라이언트 디바이스 (40) 의 취출 유닛 (52) (도 1) 은 세그먼트에서 청크들의 수를 결정하기 위해, 매니페스트 파일로부터 "@k" 엘리먼트를 추출할 수도 있다. 이어서, 클라이언트 디바이스 (40) 는 청크들에 대한 사용가능성 데이터를 사용하여 청크에 대한 식별자를 결정할 수도 있다 (310). 예를 들어, 도 8 및 도 9 와 관련하여 상술한 바와 같이, 클라이언트 디바이스 (40) 는 청크에 대한 2-부분 식별자를 결정할 수도 있다: 제 1 부분은 (앞서 논의된 것과 같이, 지속기간들에 기초한 식별자 또는 서수 식별자일 수도 있는) 정규 세그먼트 오퍼링에서 대응하는 세그먼트의 네임을 나타내고, 제 2 부분은 (또한 앞서 논의된 것과 같은) 세그먼트에 대응하는 청크들의 시퀀스에서 청크의 서수 식별자를 나타낸다.
취출될 청크에 대한 식별자를 결정한 후에, 클라이언트 디바이스 (40) 는 청크에 대한 식별자를 특정하는 요청을 전송할 수도 있다 (312). 예를 들어, 클라이언트 디바이스 (40) 는 요청에 대한 URL 의 일부로서 청크에 대한 식별자를 지정하는 HTTP GET 또는 부분 GET 요청을 구성할 수도 있다. 이어서, 클라이언트 디바이스 (40) 는 서버 디바이스 (60) 에 요청을 전송할 수도 있다.
서버 디바이스 (60) 는 그 후 요청을 수신할 수도 있다 (314). 서버 디바이스 (60) 는 요청에 지정된 것과 같은 식별자, 예를 들어 청크에 대한 URL 을 사용하여 요청된 청크를 결정할 수도 있다 (316). 서버 디바이스 (60) 는 요청된 청크를 클라이언트 디바이스 (40) 에 전송할 수도 있다 (318).
이어서, 클라이언트 디바이스 (40) 는 청크를 수신하고 (320), 청크의 미디어 데이터를 디코딩하고 제시할 수도 있다 (322). 예를 들어, (대안적으로 파일 프로세싱 또는 파싱 유닛으로 지칭될 수도 있는) 디캡슐레이션 유닛 (50) 은 청크로부터 인코딩된 미디어 데이터를 추출할 수도 있고, 미디어 데이터의 타입에 의존하여 인코딩된 미디어 데이터를 오디오 디코더 (46) 또는 비디오 디코더 (48) 로 전송할 수도 있다. 오디오 디코더 (46)/비디오 디코더 (48) 는 미디어 데이터를 디코딩할 수도 있고, 프리젠테이션을 위해 디코딩된 미디어 데이터를 오디오 출력 (42)/비디오 출력 (44) 으로 전송할 수도 있다.
이러한 방식으로, 도 10 의 방법은, 미디어 데이터의 리프리젠테이션의 세그먼트에 대해 이용가능한 세그먼트 청크들의 수를 표시하는 데이터를 포함하는 매니페스트 파일을 수신하는 단계로서, 상기 세그먼트는 고유 URL (uniform resource locator) 을 갖는 독립적으로 취출가능한 미디어 파일을 포함하는, 상기 매니페스트 파일을 수신하는 단계, 상기 세그먼트에 대해 이용가능한 청크들의 수를 표시하는 상기 데이터를 사용하여 상기 청크들 중 하나에 대한 식별자를 결정하는 단계, 및 상기 청크들 중 하나에 대한 식별자를 특정하는 요청을 서버 디바이스에 전송하는 단계를 포함한다.
하나 이상의 예들에 있어서, 설명된 기능들은 하드웨어, 소프트웨어, 펌웨어, 또는 이들의 임의의 조합으로 구현될 수도 있다. 소프트웨어로 구현된다면, 그 기능들은 하나 이상의 명령들 또는 코드로서 컴퓨터 판독가능 매체 상으로 저장 또는 전송되고 하드웨어 기반 프로세싱 유닛에 의해 실행될 수도 있다. 컴퓨터 판독가능 매체들은 데이터 저장 매체들과 같은 유형의 매체에 대응하는 컴퓨터 판독가능 저장 매체들, 또는 예를 들어, 통신 프로토콜에 따라 일 장소로부터 다른 장소로의 컴퓨터 프로그램의 전송을 용이하게 하는 임의의 매체를 포함하는 통신 매체들을 포함할 수도 있다. 이러한 방식으로, 컴퓨터 판독가능 매체는 일반적으로 (1) 비-일시적인 유형의 컴퓨터 판독가능 저장 매체 또는 (2) 신호 또는 캐리어파와 같은 통신 매체에 대응할 수도 있다. 데이터 저장 매체는 본 개시에서 설명된 기술들의 구현을 위한 명령들, 코드 및/또는 데이터 구조들을 취출하기 위해 하나 이상의 컴퓨터들 또는 하나 이상의 프로세서들에 의해 액세스될 수 있는 임의의 가용 매체일 수도 있다. 컴퓨터 프로그램 제품이 컴퓨터 판독가능 매체를 포함할 수도 있다.
한정이 아닌 예로서, 그러한 컴퓨터 판독가능 저장 매체는 RAM, ROM, EEPROM, CD-ROM 또는 다른 광학 디스크 저장부, 자기 디스크 저장부 또는 다른 자기 저장 디바이스들, 플래시 메모리, 또는 원하는 프로그램 코드를 명령들 또는 데이터 구조들의 형태로 저장하는데 이용될 수 있고 컴퓨터에 의해 액세스될 수 있는 임의의 다른 매체를 포함할 수 있다. 또한, 임의의 커넥션이 컴퓨터 판독가능 매체로 적절히 명명된다. 예를 들어, 동축 케이블, 광섬유 케이블, 꼬임쌍선, 디지털 가입자 라인 (DSL), 또는 적외선, 무선, 및 마이크로파와 같은 무선 기술들을 이용하여 웹사이트, 서버, 또는 다른 원격 소스로부터 명령들이 송신된다면, 동축 케이블, 광섬유 케이블, 꼬임쌍선, DSL, 또는 적외선, 무선, 및 마이크로파와 같은 무선 기술들은 매체의 정의에 포함된다. 하지만, 컴퓨터 판독가능 저장 매체 및 데이터 저장 매체는 커넥션들, 캐리어파들, 신호들, 또는 다른 일시적 매체들을 포함하지 않지만 대신 비-일시적인 유형의 저장 매체들로 지향됨을 이해해야 한다. 본원에서 이용되는 바와 같은 디스크 (disk) 및 디스크 (disc) 는 CD (compact disc), 레이저 디스크, 광 디스크, DVD (digital versatile disc), 플로피 디스크, 및 블루레이 디스크를 포함하는데, 여기서 디스크 (disk) 는 보통 데이터를 자기적으로 재생하며, 반면 디스크 (disc) 는 레이저들을 이용하여 광학적으로 데이터를 재생한다. 위의 조합들도 컴퓨터 판독가능 매체들의 범위 내에 포함되어야 한다.
명령들은 하나 이상의 디지털 신호 프로세서들 (DSP들), 범용 마이크로프로세서들, 주문형 집적회로들 (ASIC들), 필드 프로그래밍가능 로직 어레이들 (FPGA들), 또는 다른 등가의 집적된 또는 별도의 로직 회로와 같은 하나 이상의 프로세서들에 의해 실행될 수도 있다. 이에 따라, 본 명세서에서 사용된 바와 같은 용어 "프로세서" 는 본 명세서에서 설명된 기술들의 구현에 적합한 전술한 구조 또는 임의의 다른 구조 중 임의의 구조를 지칭할 수도 있다. 추가적으로, 일부 양태들에 있어서, 본 명세서에서 설명된 기능은 인코딩 및 디코딩을 위해 구성되고 결합된 코덱에서 통합된 전용 하드웨어 및/또는 소프트웨어 모듈들 내에 제공될 수도 있다. 또한, 그 기술들은 하나 이상의 회로들 또는 로직 엘리먼트들에서 완전히 구현될 수 있다.
본 개시의 기술들은 무선 핸드셋, 집적 회로 (IC) 또는 IC들의 세트 (예를 들어, 칩 세트) 를 포함하여 매우 다양한 디바이스들 또는 장치들에서 구현될 수도 있다. 다양한 컴포넌트들, 모듈들 또는 유닛들이 개시된 기술들을 수행하도록 구성된 디바이스들의 기능적 양태들을 강조하기 위해 본 개시에서 설명되지만, 반드시 상이한 하드웨어 유닛들에 의한 실현을 요구하지는 않는다. 오히려, 상기 설명된 바와 같이, 다양한 유닛들은 적절한 소프트웨어 및/또는 펌웨어와 함께 상기 설명된 바와 같은 하나 이상의 프로세서들을 포함하여 코덱 하드웨어 유닛으로 결합되거나 또는 상호운용식 하드웨어 유닛들의 집합에 의해 제공될 수도 있다.
다양한 예들이 설명되었다. 이들 및 다른 예들은 다음의 청구항들의 범위 내에 있다.
Claims (62)
- 미디어 데이터를 취출하는 방법으로서,
미디어 데이터의 리프리젠테이션의 세그먼트에 대해 이용가능한 세그먼트 청크들의 수를 표시하는 데이터를 포함하는 매니페스트 파일을 수신하는 단계로서, 상기 세그먼트는 고유 URL (uniform resource locator) 을 갖는 독립적으로 취출가능한 미디어 파일을 포함하는, 상기 매니페스트 파일을 수신하는 단계;
상기 세그먼트에 대해 이용가능한 청크들의 수를 표시하는 상기 데이터를 사용하여 상기 청크들 중 하나에 대한 식별자를 결정하는 단계; 및
상기 청크들 중 하나에 대한 상기 식별자를 특정하는 요청을 서버 디바이스에 전송하는 단계를 포함하는, 미디어 데이터를 취출하는 방법. - 제 1 항에 있어서,
상기 세그먼트 청크들의 수를 표시하는 상기 데이터는 미디어 프리젠테이션 디스크립션 (MPD) 의 SegmentTimeline 엘리먼트의 S 엘리먼트에 포함된 @k 속성을 포함하는, 미디어 데이터를 취출하는 방법. - 제 1 항에 있어서,
상기 청크들 중 하나에 대한 식별자를 결정하는 단계는 상기 세그먼트 청크들에 대한 $Number$ 템플릿에 따라 상기 식별자를 결정하는 단계를 포함하는, 미디어 데이터를 취출하는 방법. - 제 1 항에 있어서,
상기 청크들 중 하나에 대한 식별자를 결정하는 단계는 계층적 어드레싱 방식에 따라 상기 식별자를 결정하는 단계를 포함하는, 미디어 데이터를 취출하는 방법. - 제 4 항에 있어서,
상기 계층적 어드레싱 방식은 상기 식별자에 대한 제 1 부분 및 제 2 부분을 특정하는, 미디어 데이터를 취출하는 방법. - 제 5 항에 있어서,
상기 제 1 부분은 상기 세그먼트에 대한 수치 식별자를 특정하는, 미디어 데이터를 취출하는 방법. - 제 5 항에 있어서,
상기 제 1 부분은 상기 세그먼트에 대한 타이밍 정보를 특정하는, 미디어 데이터를 취출하는 방법. - 제 7 항에 있어서,
상기 타이밍 정보는 상기 세그먼트가 재생되기 시작하는 재생 시간을 표시하는, 미디어 데이터를 취출하는 방법. - 제 5 항에 있어서,
상기 제 2 부분은 상기 청크들 중 하나의 서수 식별자를 특정하는, 미디어 데이터를 취출하는 방법. - 제 1 항에 있어서,
상기 요청을 전송하는 단계는 HTTP GET 요청 또는 HTTP 부분 GET 요청 중 하나를 전송하는 단계를 포함하는, 미디어 데이터를 취출하는 방법. - 제 1 항에 있어서,
상기 세그먼트 청크들은 개별 URL들을 갖는 다수의 세그먼트들을 포함하는 세그먼트 시퀀스로서 제공되고, 상기 방법은 URL 템플릿에 따라 상기 URL들을 결정하는 단계를 더 포함하는, 미디어 데이터를 취출하는 방법. - 제 1 항에 있어서,
상기 매니페스트 파일은 상기 세그먼트 청크들에 대한 정확한 세그먼트 지속기간들을 표현하지 않는, 미디어 데이터를 취출하는 방법. - 제 1 항에 있어서,
상기 식별자를 결정하는 단계는 상기 세그먼트 청크들에 대한 지속기간들을 결정하지 않고 상기 식별자를 결정하는 단계를 포함하는, 미디어 데이터를 취출하는 방법. - 제 1 항에 있어서,
상기 세그먼트에 대한 시작 시간, 상기 세그먼트의 지속기간 및 상기 세그먼트 청크들의 수를 표시하는 상기 매니페스트 파일의 데이터를 사용하여 상기 세그먼트 청크들에 대한 세그먼트 사용가능성 시작 시간들을 결정하는 단계를 더 포함하는, 미디어 데이터를 취출하는 방법. - 제 1 항에 있어서,
상기 매니페스트 파일로부터 상기 세그먼트에 대한 지속기간 값을 결정하는 단계; 및
상기 지속기간 값을 상기 세그먼트 청크들의 수로 나누어 상기 세그먼트 청크들에 대한 지속기간 값들을 결정하는 단계를 더 포함하는, 미디어 데이터를 취출하는 방법. - 미디어 데이터를 취출하기 위한 디바이스로서,
상기 디바이스는 회로부에 구현된 하나 이상의 프로세서들을 포함하고,
상기 하나 이상의 프로세서들은,
미디어 데이터의 리프리젠테이션의 세그먼트에 대해 이용가능한 세그먼트 청크들의 수를 표시하는 데이터를 포함하는 매니페스트 파일을 수신하는 것으로서, 상기 세그먼트는 고유 URL (uniform resource locator) 을 갖는 독립적으로 취출가능한 미디어 파일을 포함하는, 상기 매니페스트 파일을 수신하고;
상기 세그먼트에 대해 이용가능한 청크들의 수를 표시하는 상기 데이터를 사용하여 상기 청크들 중 하나에 대한 식별자를 결정하고; 그리고
상기 청크들 중 하나에 대한 상기 식별자를 특정하는 요청을 서버 디바이스에 전송하도록
구성되는, 미디어 데이터를 취출하기 위한 디바이스. - 제 16 항에 있어서,
상기 세그먼트 청크들의 수를 표시하는 상기 데이터는 미디어 프리젠테이션 디스크립션 (MPD) 의 SegmentTimeline 엘리먼트의 S 엘리먼트에 포함된 @k 속성을 포함하는, 미디어 데이터를 취출하기 위한 디바이스. - 제 16 항에 있어서,
상기 하나 이상의 프로세서들은 상기 세그먼트 청크들에 대한 $Number$ 템플릿에 따라 상기 식별자를 결정하도록 구성되는, 미디어 데이터를 취출하기 위한 디바이스. - 제 16 항에 있어서,
상기 하나 이상의 프로세서들은 계층적 어드레싱 방식에 따라 상기 식별자를 결정하도록 구성되는, 미디어 데이터를 취출하기 위한 디바이스. - 제 19 항에 있어서,
상기 계층적 어드레싱 방식은 상기 식별자에 대한 제 1 부분 및 제 2 부분을 특정하는, 미디어 데이터를 취출하기 위한 디바이스. - 제 20 항에 있어서,
상기 제 1 부분은 상기 세그먼트에 대한 수치 식별자를 특정하는, 미디어 데이터를 취출하기 위한 디바이스. - 제 20 항에 있어서,
상기 제 1 부분은 상기 세그먼트에 대한 타이밍 정보를 특정하는, 미디어 데이터를 취출하기 위한 디바이스. - 제 22 항에 있어서,
상기 타이밍 정보는 상기 세그먼트가 재생되기 시작하는 재생 시간을 표시하는, 미디어 데이터를 취출하기 위한 디바이스. - 제 20 항에 있어서,
상기 제 2 부분은 상기 청크들 중 하나의 서수 식별자를 특정하는, 미디어 데이터를 취출하기 위한 디바이스. - 제 16 항에 있어서,
상기 요청을 전송하기 위해, 상기 하나 이상의 프로세서들은 HTTP GET 요청 또는 HTTP 부분 GET 요청 중 하나를 전송하도록 구성되는, 미디어 데이터를 취출하기 위한 디바이스. - 제 16 항에 있어서,
상기 세그먼트 청크들은 개별 URL들을 갖는 다수의 세그먼트들을 포함하는 세그먼트 시퀀스로서 제공되고, 상기 하나 이상의 프로세서들은 추가로, URL 템플릿에 따라 상기 URL들을 결정하도록 구성되는, 미디어 데이터를 취출하기 위한 디바이스. - 제 16 항에 있어서,
상기 매니페스트 파일은 상기 세그먼트 청크들에 대한 정확한 세그먼트 지속기간들을 표현하지 않는, 미디어 데이터를 취출하기 위한 디바이스. - 제 16 항에 있어서,
상기 하나 이상의 프로세서들은 상기 세그먼트 청크들에 대한 지속기간들을 결정하지 않고 상기 식별자를 결정하도록 구성되는, 미디어 데이터를 취출하기 위한 디바이스. - 제 16 항에 있어서,
상기 하나 이상의 프로세서들은 추가로, 상기 세그먼트에 대한 시작 시간, 상기 세그먼트의 지속기간 및 상기 세그먼트 청크들의 수를 표시하는 상기 매니페스트 파일의 데이터를 사용하여 상기 세그먼트 청크들에 대한 세그먼트 사용가능성 시작 시간들을 결정하도록 구성되는, 미디어 데이터를 취출하기 위한 디바이스. - 제 16 항에 있어서,
상기 하나 이상의 프로세서들은 추가로,
상기 매니페스트 파일로부터 상기 세그먼트에 대한 지속기간 값을 결정하고; 그리고
상기 지속기간 값을 상기 세그먼트 청크들의 수로 나누어 상기 세그먼트 청크들에 대한 지속기간 값들을 결정하도록
구성되는, 미디어 데이터를 취출하기 위한 디바이스. - 미디어 데이터를 취출하기 위한 디바이스로서,
미디어 데이터의 리프리젠테이션의 세그먼트에 대해 이용가능한 세그먼트 청크들의 수를 표시하는 데이터를 포함하는 매니페스트 파일을 수신하는 수단으로서, 상기 세그먼트는 고유 URL (uniform resource locator) 을 갖는 독립적으로 취출가능한 미디어 파일을 포함하는, 상기 매니페스트 파일을 수신하는 수단;
상기 세그먼트에 대해 이용가능한 청크들의 수를 표시하는 상기 데이터를 사용하여 상기 청크들 중 하나에 대한 식별자를 결정하는 수단; 및
상기 청크들 중 하나에 대한 상기 식별자를 특정하는 요청을 서버 디바이스에 전송하는 수단을 포함하는, 미디어 데이터를 취출하기 위한 디바이스. - 명령들이 저장된 컴퓨터 판독가능 저장 매체로서,
상기 명령들은, 실행될 경우, 프로세서로 하여금,
미디어 데이터의 리프리젠테이션의 세그먼트에 대해 이용가능한 세그먼트 청크들의 수를 표시하는 데이터를 포함하는 매니페스트 파일을 수신하게 하는 것으로서, 상기 세그먼트는 고유 URL (uniform resource locator) 을 갖는 독립적으로 취출가능한 미디어 파일을 포함하는, 상기 매니페스트 파일을 수신하게 하고;
상기 세그먼트에 대해 이용가능한 청크들의 수를 표시하는 상기 데이터를 사용하여 상기 청크들 중 하나에 대한 식별자를 결정하게 하고; 그리고
상기 청크들 중 하나에 대한 상기 식별자를 특정하는 요청을 서버 디바이스에 전송하게 하는, 컴퓨터 판독가능 저장 매체. - 제 32 항에 있어서,
상기 세그먼트 청크들의 수를 표시하는 상기 데이터는 미디어 프리젠테이션 디스크립션 (MPD) 의 SegmentTimeline 엘리먼트의 S 엘리먼트에 포함된 @k 속성을 포함하는, 컴퓨터 판독가능 저장 매체. - 제 32 항에 있어서,
상기 프로세서로 하여금 상기 청크들 중 하나에 대한 식별자를 결정하게 하는 상기 명령들은, 상기 프로세서로 하여금 상기 세그먼트 청크들에 대한 $Number$ 템플릿에 따라 상기 식별자를 결정하게 하는 명령들을 포함하는, 컴퓨터 판독가능 저장 매체. - 제 32 항에 있어서,
상기 프로세서로 하여금 상기 청크들 중 하나에 대한 식별자를 결정하게 하는 상기 명령들은, 상기 프로세서로 하여금 계층적 어드레싱 방식에 따라 상기 식별자를 결정하게 하는 명령들을 포함하는, 컴퓨터 판독가능 저장 매체. - 제 35 항에 있어서,
상기 계층적 어드레싱 방식은 상기 식별자에 대한 제 1 부분 및 제 2 부분을 특정하는, 컴퓨터 판독가능 저장 매체. - 제 36 항에 있어서,
상기 제 1 부분은 상기 세그먼트에 대한 수치 식별자를 특정하는, 컴퓨터 판독가능 저장 매체. - 제 36 항에 있어서,
상기 제 1 부분은 상기 세그먼트에 대한 타이밍 정보를 특정하는, 컴퓨터 판독가능 저장 매체. - 제 38 항에 있어서,
상기 타이밍 정보는 상기 세그먼트가 재생되기 시작하는 재생 시간을 표시하는, 컴퓨터 판독가능 저장 매체. - 제 36 항에 있어서,
상기 제 2 부분은 상기 청크들 중 하나의 서수 식별자를 특정하는, 컴퓨터 판독가능 저장 매체. - 제 32 항에 있어서,
상기 프로세서로 하여금 상기 요청을 전송하게 하는 상기 명령들은, 상기 프로세서로 하여금 HTTP GET 요청 또는 HTTP 부분 GET 요청 중 하나를 전송하게 하는 명령들을 포함하는, 컴퓨터 판독가능 저장 매체. - 제 32 항에 있어서,
상기 세그먼트 청크들은 개별 URL들을 갖는 다수의 세그먼트들을 포함하는 세그먼트 시퀀스로서 제공되고,
상기 프로세서로 하여금 URL 템플릿에 따라 상기 URL들을 결정하게 하는 명령들을 더 포함하는, 컴퓨터 판독가능 저장 매체. - 제 32 항에 있어서,
상기 매니페스트 파일은 상기 세그먼트 청크들에 대한 정확한 세그먼트 지속기간들을 표현하지 않는, 컴퓨터 판독가능 저장 매체. - 제 32 항에 있어서,
상기 프로세서로 하여금 상기 식별자를 결정하게 하는 상기 명령들은, 상기 프로세서로 하여금 상기 세그먼트 청크들에 대한 지속기간들을 결정하지 않고 상기 식별자를 결정하게 하는 명령들을 포함하는, 컴퓨터 판독가능 저장 매체. - 제 32 항에 있어서,
상기 프로세서로 하여금 상기 세그먼트에 대한 시작 시간, 상기 세그먼트의 지속기간 및 상기 세그먼트 청크들의 수를 표시하는 상기 매니페스트 파일의 데이터를 사용하여 상기 세그먼트 청크들에 대한 세그먼트 사용가능성 시작 시간들을 결정하게 하는 명령들을 더 포함하는, 컴퓨터 판독가능 저장 매체. - 제 32 항에 있어서,
상기 프로세서로 하여금,
상기 매니페스트 파일로부터 상기 세그먼트에 대한 지속기간 값을 결정하게 하고; 그리고
상기 지속기간 값을 상기 세그먼트 청크들의 수로 나누어 상기 세그먼트 청크들에 대한 지속기간 값들을 결정하게 하는
명령들을 더 포함하는, 컴퓨터 판독가능 저장 매체. - 미디어 데이터를 전송하는 방법으로서,
미디어 데이터의 리프리젠테이션의 세그먼트에 대해 이용가능한 세그먼트 청크들의 수를 표시하는 데이터를 포함하는 매니페스트 파일을 생성하는 단계로서, 상기 세그먼트는 고유 URL (uniform resource locator) 을 갖는 독립적으로 취출가능한 미디어 파일을 포함하는, 상기 매니페스트 파일을 생성하는 단계,
상기 매니페스트 파일을 클라이언트 디바이스에 전송하는 단계;
상기 클라이언트 디바이스로부터 상기 청크들 중 하나에 대한 식별자를 특정하는 요청을 수신하는 단계; 및
상기 요청에 응답하여 상기 식별자에 의해 표시된 상기 청크들 중 요청된 청크를 상기 클라이언트 디바이스에 전송하는 단계를 포함하는, 미디어 데이터를 전송하는 방법. - 제 47 항에 있어서,
상기 세그먼트 청크들의 수를 표시하는 상기 데이터는 미디어 프리젠테이션 디스크립션 (MPD) 의 SegmentTimeline 엘리먼트의 S 엘리먼트에 포함된 @k 속성을 포함하는, 미디어 데이터를 전송하는 방법. - 제 47 항에 있어서,
상기 세그먼트 청크들에 대한 $Number$ 템플릿을 정의하는 데이터를 상기 클라이언트 디바이스에 전송하여 상기 클라이언트 디바이스로 하여금 상기 $Number$ 템플릿을 사용하여 상기 청크들 중 하나에 대한 상기 식별자를 결정하게 하는 단계를 더 포함하는, 미디어 데이터를 전송하는 방법. - 제 47 항에 있어서,
계층적 어드레싱 방식을 정의하는 데이터를 상기 클라이언트 디바이스에 전송하여 상기 클라이언트 디바이스로 하여금 상기 계층적 어드레싱 방식에 따라 상기 청크들 중 하나에 대한 상기 식별자를 결정하게 하는 단계를 더 포함하는, 미디어 데이터를 전송하는 방법. - 제 50 항에 있어서,
상기 계층적 어드레싱 방식은 상기 식별자에 대한 제 1 부분 및 제 2 부분을 특정하는, 미디어 데이터를 전송하는 방법. - 제 51 항에 있어서,
상기 제 1 부분은 상기 세그먼트에 대한 수치 식별자를 특정하는, 미디어 데이터를 전송하는 방법. - 제 51 항에 있어서,
상기 제 1 부분은 상기 세그먼트에 대한 타이밍 정보를 특정하고, 상기 타이밍 정보는 상기 세그먼트가 재생되기 시작할 재생 시간을 표시하는, 미디어 데이터를 전송하는 방법. - 제 51 항에 있어서,
상기 제 2 부분은 상기 청크들 중 하나의 서수 식별자를 특정하는, 미디어 데이터를 전송하는 방법. - 미디어 데이터를 전송하기 위한 서버 디바이스로서,
매니페스트 파일 및 상기 미디어 데이터를 저장하도록 구성된 메모리; 및
회로부에 구현된 하나 이상의 프로세서들을 포함하며,
상기 하나 이상의 프로세서들은,
미디어 데이터의 리프리젠테이션의 세그먼트에 대해 이용가능한 세그먼트 청크들의 수를 표시하는 데이터를 포함하는 매니페스트 파일을 생성하는 것으로서, 상기 세그먼트는 고유 URL (uniform resource locator) 을 갖는 독립적으로 취출가능한 미디어 파일을 포함하는, 상기 매니페스트 파일을 생성하고,
상기 매니페스트 파일을 클라이언트 디바이스에 전송하고,
상기 클라이언트 디바이스로부터 상기 청크들 중 하나에 대한 식별자를 특정하는 요청을 수신하며; 그리고
상기 요청에 응답하여 상기 식별자에 의해 표시된 상기 청크들 중 요청된 청크를 상기 클라이언트 디바이스에 전송하도록
구성되는, 미디어 데이터를 전송하기 위한 서버 디바이스. - 제 55 항에 있어서,
상기 세그먼트 청크들의 수를 표시하는 상기 데이터는 미디어 프리젠테이션 디스크립션 (MPD) 의 SegmentTimeline 엘리먼트의 S 엘리먼트에 포함된 @k 속성을 포함하는, 미디어 데이터를 전송하기 위한 서버 디바이스. - 제 55 항에 있어서,
상기 하나 이상의 프로세서들은 상기 세그먼트 청크들에 대한 $Number$ 템플릿을 정의하는 데이터를 상기 클라이언트 디바이스에 전송하여 상기 클라이언트 디바이스로 하여금 상기 $Number$ 템플릿을 사용하여 상기 청크들 중 하나에 대한 상기 식별자를 결정하게 하도록 구성되는, 미디어 데이터를 전송하기 위한 서버 디바이스. - 제 55 항에 있어서,
상기 하나 이상의 프로세서들은 계층적 어드레싱 방식을 정의하는 데이터를 상기 클라이언트 디바이스에 전송하여 상기 클라이언트 디바이스로 하여금 상기 계층적 어드레싱 방식에 따라 상기 청크들 중 하나에 대한 상기 식별자를 결정하도록 구성되는, 미디어 데이터를 전송하기 위한 서버 디바이스. - 제 58 항에 있어서,
상기 계층적 어드레싱 방식은 상기 식별자에 대한 제 1 부분 및 제 2 부분을 특정하는, 미디어 데이터를 전송하기 위한 서버 디바이스. - 제 59 항에 있어서,
상기 제 1 부분은 상기 세그먼트에 대한 수치 식별자를 특정하는, 미디어 데이터를 전송하기 위한 서버 디바이스. - 제 59 항에 있어서,
상기 제 1 부분은 상기 세그먼트에 대한 타이밍 정보를 특정하고, 상기 타이밍 정보는 상기 세그먼트가 재생되기 시작할 재생 시간을 표시하는, 미디어 데이터를 전송하기 위한 서버 디바이스. - 제 59 항에 있어서,
상기 제 2 부분은 상기 청크들 중 하나의 서수 식별자를 특정하는, 미디어 데이터를 전송하기 위한 서버 디바이스.
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662368099P | 2016-07-28 | 2016-07-28 | |
US62/368,099 | 2016-07-28 | ||
US15/661,789 | 2017-07-27 | ||
US15/661,789 US11617019B2 (en) | 2016-07-28 | 2017-07-27 | Retrieving and accessing segment chunks for media streaming |
PCT/US2017/044353 WO2018022984A1 (en) | 2016-07-28 | 2017-07-28 | Retrieving and accessing segment chunks for media streaming |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190031490A true KR20190031490A (ko) | 2019-03-26 |
KR102454839B1 KR102454839B1 (ko) | 2022-10-13 |
Family
ID=61010779
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020197002586A KR102454839B1 (ko) | 2016-07-28 | 2017-07-28 | 미디어 스트리밍을 위한 세그먼트 청크들의 취출 및 액세스 |
Country Status (10)
Country | Link |
---|---|
US (2) | US11617019B2 (ko) |
EP (1) | EP3491827B1 (ko) |
JP (1) | JP7142626B2 (ko) |
KR (1) | KR102454839B1 (ko) |
CN (1) | CN109479158B (ko) |
BR (1) | BR112019001323A2 (ko) |
CA (1) | CA3029026A1 (ko) |
ES (1) | ES2854936T3 (ko) |
TW (1) | TWI780063B (ko) |
WO (1) | WO2018022984A1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210126093A (ko) * | 2019-10-01 | 2021-10-19 | 텐센트 아메리카 엘엘씨 | Http를 통한 동적 적응 스트리밍을 위한 방법들 및 장치들 |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI599218B (zh) * | 2016-07-29 | 2017-09-11 | 元智大學 | 即時影音傳輸系統 |
GB201721847D0 (en) * | 2017-12-22 | 2018-02-07 | Telecom Paris Tech | Priority map for media files |
US20210021659A1 (en) * | 2018-04-06 | 2021-01-21 | Sony Corporation | Delivery apparatus, delivery method, and program |
US11146852B2 (en) * | 2018-05-11 | 2021-10-12 | Qualcomm Incorporated | Signaling missing sections of media data for network streaming in a segment |
US10674166B2 (en) | 2018-08-22 | 2020-06-02 | Purdue Research Foundation | Method and system for scalable video streaming |
US10893303B1 (en) | 2019-01-31 | 2021-01-12 | Amazon Technologies, Inc. | Streaming chunked media segments |
US11063997B1 (en) * | 2019-03-28 | 2021-07-13 | Amazon Technologies, Inc. | Higher order manifest data compression |
US10893310B1 (en) * | 2019-05-31 | 2021-01-12 | Amazon Technologies, Inc. | Managing playback bitrate selection |
GB2586442B (en) * | 2019-06-26 | 2024-03-27 | Univ Dublin City | A method and system for encoding and decoding to enable adaptive delivery of mulsemedia streams |
US11509949B2 (en) * | 2019-09-13 | 2022-11-22 | Disney Enterprises, Inc. | Packager for segmenter fluidity |
US11228796B2 (en) * | 2020-01-07 | 2022-01-18 | Tencent America LLC | Pattern addressing for session-based dash operations |
US20210306703A1 (en) * | 2020-03-25 | 2021-09-30 | Qualcomm Incorporated | Determination of availability of chunks of data for network streaming media data |
US11445270B2 (en) * | 2020-04-15 | 2022-09-13 | Comcast Cable Communications, Llc | Content information for manifest determination |
US11533346B2 (en) * | 2021-01-05 | 2022-12-20 | Tencent America LLC | Methods and apparatuses for dynamic adaptive streaming over HTTP |
US11463746B2 (en) | 2021-02-12 | 2022-10-04 | Netflix, Inc. | Techniques for composite media storage and retrieval |
DE102021006419A1 (de) | 2021-12-30 | 2023-07-06 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung eingetragener Verein | Streaming-Techniken |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140054418A (ko) * | 2011-09-06 | 2014-05-08 | 퀄컴 인코포레이티드 | 코딩된 비디오 데이터의 네트워크 스트리밍 |
US20150074232A1 (en) * | 2012-08-29 | 2015-03-12 | Ericsson Television Inc. | Streaming policy management system and method |
US20150286369A1 (en) * | 2014-04-07 | 2015-10-08 | The Directv Group, Inc. | Method and system for transferring the display of content from a first device to a second device |
US20170180825A1 (en) * | 2015-12-21 | 2017-06-22 | Theplatform, Llc | Providing advanced playback and control functionality to video client |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8434135B2 (en) | 2010-06-11 | 2013-04-30 | Microsoft Corporation | Creating and launching a web application with credentials |
US8849950B2 (en) * | 2011-04-07 | 2014-09-30 | Qualcomm Incorporated | Network streaming of video data using byte range requests |
US9253233B2 (en) | 2011-08-31 | 2016-02-02 | Qualcomm Incorporated | Switch signaling methods providing improved switching between representations for adaptive HTTP streaming |
KR101741484B1 (ko) | 2012-04-26 | 2017-05-30 | 퀄컴 인코포레이티드 | 저-레이턴시 스트림을 처리하기 위한 개선된 블록-요청 스트리밍 시스템 |
BR122015005194A2 (pt) * | 2012-06-28 | 2019-08-20 | Ericsson Ab | Método e sistema para inserção de anúncio em entrega de mídia ao vivo over the top |
US9294531B2 (en) * | 2012-07-12 | 2016-03-22 | Futurewei Technologies, Inc. | Signaling and processing content with variable bitrates for adaptive streaming |
US9641906B2 (en) * | 2012-10-09 | 2017-05-02 | Sharp Kabushiki Kaisha | Content transmission device, content playback device, content distribution system, method for controlling content transmission device, method for controlling content playback device, control program, and recording medium |
US20140282792A1 (en) * | 2013-03-15 | 2014-09-18 | Cygnus Broadband, Inc. | Video streaming with buffer occupancy prediction based quality adaptation |
US9710469B2 (en) * | 2013-03-15 | 2017-07-18 | Comcast Cable Communications, Llc | Efficient data distribution to multiple devices |
CN105532013B (zh) * | 2013-07-12 | 2018-12-28 | 佳能株式会社 | 利用推送消息控制的自适应数据流传输方法 |
JPWO2015115171A1 (ja) | 2014-01-31 | 2017-03-23 | ソニー株式会社 | 送信装置、送信方法、受信装置および受信方法 |
US9584577B2 (en) * | 2014-04-03 | 2017-02-28 | Cisco Technology, Inc. | Method for enabling use of HLS as a common intermediate format |
-
2017
- 2017-07-27 US US15/661,789 patent/US11617019B2/en active Active
- 2017-07-28 BR BR112019001323A patent/BR112019001323A2/pt unknown
- 2017-07-28 ES ES17757592T patent/ES2854936T3/es active Active
- 2017-07-28 TW TW106125594A patent/TWI780063B/zh active
- 2017-07-28 CN CN201780044710.6A patent/CN109479158B/zh active Active
- 2017-07-28 WO PCT/US2017/044353 patent/WO2018022984A1/en active Search and Examination
- 2017-07-28 EP EP17757592.5A patent/EP3491827B1/en active Active
- 2017-07-28 JP JP2019504133A patent/JP7142626B2/ja active Active
- 2017-07-28 KR KR1020197002586A patent/KR102454839B1/ko active IP Right Grant
- 2017-07-28 CA CA3029026A patent/CA3029026A1/en active Pending
-
2023
- 2023-03-20 US US18/186,325 patent/US20230283863A1/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140054418A (ko) * | 2011-09-06 | 2014-05-08 | 퀄컴 인코포레이티드 | 코딩된 비디오 데이터의 네트워크 스트리밍 |
KR20150088899A (ko) * | 2011-09-06 | 2015-08-03 | 퀄컴 인코포레이티드 | 코딩된 비디오 데이터의 네트워크 스트리밍 |
US20150074232A1 (en) * | 2012-08-29 | 2015-03-12 | Ericsson Television Inc. | Streaming policy management system and method |
US20150286369A1 (en) * | 2014-04-07 | 2015-10-08 | The Directv Group, Inc. | Method and system for transferring the display of content from a first device to a second device |
US20170180825A1 (en) * | 2015-12-21 | 2017-06-22 | Theplatform, Llc | Providing advanced playback and control functionality to video client |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210126093A (ko) * | 2019-10-01 | 2021-10-19 | 텐센트 아메리카 엘엘씨 | Http를 통한 동적 적응 스트리밍을 위한 방법들 및 장치들 |
Also Published As
Publication number | Publication date |
---|---|
TW201806397A (zh) | 2018-02-16 |
ES2854936T3 (es) | 2021-09-23 |
EP3491827A1 (en) | 2019-06-05 |
CN109479158A (zh) | 2019-03-15 |
US20180035176A1 (en) | 2018-02-01 |
JP2019523600A (ja) | 2019-08-22 |
BR112019001323A2 (pt) | 2019-04-30 |
US11617019B2 (en) | 2023-03-28 |
CA3029026A1 (en) | 2018-02-01 |
EP3491827B1 (en) | 2020-11-18 |
US20230283863A1 (en) | 2023-09-07 |
JP7142626B2 (ja) | 2022-09-27 |
KR102454839B1 (ko) | 2022-10-13 |
TWI780063B (zh) | 2022-10-11 |
WO2018022984A1 (en) | 2018-02-01 |
CN109479158B (zh) | 2021-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102454839B1 (ko) | 미디어 스트리밍을 위한 세그먼트 청크들의 취출 및 액세스 | |
US11223883B2 (en) | Segment types as delimiters and addressable resource identifiers | |
CN112154672B (zh) | 一种检索媒体数据的方法、设备及可读存储介质 | |
KR20160136343A (ko) | 연속적인 멀티-주기 콘텐츠의 프로세싱 | |
KR102434300B1 (ko) | 샘플 엔트리들 및 랜덤 액세스 | |
KR102549656B1 (ko) | 미디어 데이터 스트리밍을 위한 sei 트랙들의 시스템 레벨 시그널링 | |
KR20160110424A (ko) | Dash의 강건한 라이브 동작 | |
KR102434299B1 (ko) | 샘플 엔트리들 및 랜덤 액세스 | |
CN112771876B (zh) | 检索媒体数据的方法和设备以及发送媒体数据的方法和设备 | |
WO2021195398A1 (en) | Determination of availability of chunks of data for network streaming media data | |
CN118511534A (zh) | 用于自适应流式传输的动态分辨率更改提示 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |