KR20160077067A - 송신 장치, 송신 방법, 수신 장치, 및 수신 방법 - Google Patents

송신 장치, 송신 방법, 수신 장치, 및 수신 방법 Download PDF

Info

Publication number
KR20160077067A
KR20160077067A KR1020167010410A KR20167010410A KR20160077067A KR 20160077067 A KR20160077067 A KR 20160077067A KR 1020167010410 A KR1020167010410 A KR 1020167010410A KR 20167010410 A KR20167010410 A KR 20167010410A KR 20160077067 A KR20160077067 A KR 20160077067A
Authority
KR
South Korea
Prior art keywords
content
attribute
mpd
metadata
thumbnail
Prior art date
Application number
KR1020167010410A
Other languages
English (en)
Inventor
야스아키 야마기시
마사히토 모리
Original Assignee
소니 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 주식회사 filed Critical 소니 주식회사
Publication of KR20160077067A publication Critical patent/KR20160077067A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/23439Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements for generating different versions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/61Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
    • H04L65/612Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio for unicast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/65Network streaming protocols, e.g. real-time transport protocol [RTP] or real-time control protocol [RTCP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/02Protocols based on web technology, e.g. hypertext transfer protocol [HTTP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234363Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering the spatial resolution, e.g. for clients with a lower screen resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • H04N21/2353Processing of additional data, e.g. scrambling of additional data or processing content descriptors specifically adapted to content descriptors, e.g. coding, compressing or processing of metadata
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/262Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists
    • H04N21/26258Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists for generating a list of items to be played back in a given order, e.g. playlist, or scheduling item distribution according to such list
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4314Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for fitting data in a restricted space on the screen, e.g. EPG data in a rectangular grid
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/44004Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving video buffer management, e.g. video decoder buffer or video display buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6106Network physical structure; Signal processing specially adapted to the downstream path of the transmission network
    • H04N21/6125Network physical structure; Signal processing specially adapted to the downstream path of the transmission network involving transmission via Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6106Network physical structure; Signal processing specially adapted to the downstream path of the transmission network
    • H04N21/6131Network physical structure; Signal processing specially adapted to the downstream path of the transmission network involving transmission via a mobile phone network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/64Addressing
    • H04N21/6405Multicasting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/64Addressing
    • H04N21/6408Unicasting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8543Content authoring using a description language, e.g. Multimedia and Hypermedia information coding Expert Group [MHEG], eXtensible Markup Language [XML]

Abstract

본 기술은, 모자이크 화면을 용이하게 얻을 수 있도록 하는 송신 장치, 송신 방법, 수신 장치, 및 수신 방법에 관한 것이다. 속성과 속성값을 이용하여 기술되는 메타데이터이며, 비디오가, 모자이크 화면을 구성하는 데 적합한 섬네일 비디오인 것을 나타내는 시그널링 정보와, 콘텐츠의 재생을 개시할 때까지 필요한 최소의 버퍼 시간을 나타내는 속성을 포함하는 콘텐츠의 메타데이터가 배신된다. 본 기술은, 예를 들어 콘텐츠를 배신하는 경우에 적용할 수 있다.

Description

송신 장치, 송신 방법, 수신 장치, 및 수신 방법{TRANSMISSION DEVICE, TRANSMISSION METHOD, RECEPTION DEVICE, AND RECEPTION METHOD}
본 기술은, 송신 장치, 송신 방법, 수신 장치, 및 수신 방법에 관한 것으로, 특히, 예를 들어 모자이크 화면을 용이하게 얻을 수 있도록 하는 송신 장치, 송신 방법, 수신 장치, 및 수신 방법에 관한 것이다.
최근 들어, 인터넷상의 스트리밍 서비스의 주류가, OTT-V(Over The Top Video)로 되어 있다. 예를 들어, MPEG-DASH(Moving Picture Experts Group-Dynamic Adaptive Streaming over HTTP(Hypertext Transfer Protocol))(이하, 'DASH'라고도 함)가 OTT-V의 기반 기술로서 보급되기 시작하였다.
DASH에서는, 예를 들어 스트림을 배신하는 서버로부터, 동일 소스로부터의 특성이 서로 다른 스트림을 최적으로 선택하기 위한 속성 정보를 포함하는 메타데이터로서의 MPD(Media Presentation Description)를, 스트림을 수신하는 클라이언트에 통지하고, 클라이언트에 있어서, 그 MPD를 사용함으로써, 네트워크 환경 적응형 스트리밍이 실현된다(예를 들어, 비특허문헌 1을 참조).
즉, DASH에서는, 서버가, 동일 내용의 콘텐츠로서, 배신 패스의 통신 환경이나 클라이언트의 능력이나 상태에 따라서 화질이나 화상 사이즈 등이 상이한 복수의 스트림을 준비한다.
한편, 클라이언트는, 서버가 준비하고 있는 복수의 스트림 중, 클라이언트가 수신 가능하며, 또한 클라이언트의 능력(디코드 능력 등)에 적합한 스트림을 적응적으로 선택하고, 그 스트림을 수신하여 재생한다.
DASH에서는, 클라이언트가, 스트림을 적응적으로 선택하여 수신할 수 있도록, MPD라 불리는, 콘텐츠의 재생 제어에 사용되는 메타데이터가, 서버로부터 클라이언트에 배신된다.
MPD에는, 콘텐츠를 분할한 세그먼트(Audio/Video/Subtitle 등의 미디어 데이터)의 어드레스로서의 URL(Uniform Resource Locator) 등이 기술(記述)된다. 클라이언트는, MPD에 기술된 URL 등에 기초하여, 콘텐츠의 배신원으로 되는 web 서버에 HTTP 리퀘스트를 송신하고, 이 HTTP 리퀘스트에 응답하여 web 서버가 유니캐스트 배신하는 세그먼트를 수신하여 재생한다.
「기존의 Web 서버로 도중 끊김 없는 동화상 배신을 실현」, 히라바야시 미츠히로, NIKKEI ELECTRONICS 2012.3.19
그런데, 클라이언트에 있어서, 예를 들어 라이브 방송계의 콘텐츠를 시청하는 경우 등에는, 복수의 콘텐츠의 비디오를 격자형 등으로 배치한 모자이크 화면을 표시하고, 유저가 그 모자이크 화면에 표시된 복수의 콘텐츠의 비디오를 보고, 시청하는 채널(콘텐츠)을 선택할 수 있으면 편리하다.
그러나, 현행의 DASH에서는, 클라이언트에 있어서, 모자이크 화면을 생성하는 데 유용한 정보가 배신되고 있지 않기 때문에, 모자이크 화면을 용이하게 얻는 것이 곤란하다.
본 기술은, 이와 같은 상황을 감안하여 이루어진 것으로, 모자이크 화면을 용이하게 얻을 수 있도록 하는 것이다.
본 기술의 송신 장치는, 속성과 속성값을 이용하여 기술되는 메타데이터이며, 비디오가, 모자이크 화면을 구성하는 데 적합한 섬네일 비디오인 것을 나타내는 시그널링 정보와, 콘텐츠의 재생을 개시할 때까지 필요한 최소의 버퍼 시간을 나타내는 상기 속성을 포함하는 콘텐츠의 메타데이터를 배신하는 배신부를 구비하는 송신 장치이다.
본 기술의 송신 방법은, 속성과 속성값을 이용하여 기술되는 메타데이터이며, 비디오가, 모자이크 화면을 구성하는 데 적합한 섬네일 비디오인 것을 나타내는 시그널링 정보와, 콘텐츠의 재생을 개시할 때까지 필요한 최소의 버퍼 시간을 나타내는 상기 속성을 포함하는 콘텐츠의 메타데이터를 배신하는, 스텝을 포함하는 송신 방법이다.
이상과 같은 본 기술의 송신 장치, 및 송신 방법에 있어서는, 속성과 속성값을 이용하여 기술되는 메타데이터이며, 비디오가, 모자이크 화면을 구성하는 데 적합한 섬네일 비디오인 것을 나타내는 시그널링 정보와, 콘텐츠의 재생을 개시할 때까지 필요한 최소의 버퍼 시간을 나타내는 상기 속성을 포함하는 콘텐츠의 메타데이터가 배신된다.
본 기술의 수신 장치는, 속성과 속성값을 이용하여 기술되는 메타데이터이며, 비디오가, 모자이크 화면을 구성하는 데 적합한 섬네일 비디오인 것을 나타내는 시그널링 정보와, 콘텐츠의 재생을 개시할 때까지 필요한 최소의 버퍼 시간을 나타내는 상기 속성을 포함하는 콘텐츠의 메타데이터를 수신하는 수신부를 구비하는 수신 장치이다.
본 기술의 수신 방법은, 속성과 속성값을 이용하여 기술되는 메타데이터이며, 비디오가, 모자이크 화면을 구성하는 데 적합한 섬네일 비디오인 것을 나타내는 시그널링 정보와, 콘텐츠의 재생을 개시할 때까지 필요한 최소의 버퍼 시간을 나타내는 상기 속성을 포함하는 콘텐츠의 메타데이터를 수신하는, 스텝을 포함하는 수신 방법이다.
이상과 같은 본 기술의 수신 장치, 및 수신 방법에 있어서는, 속성과 속성값을 이용하여 기술되는 메타데이터이며, 비디오가, 모자이크 화면을 구성하는 데 적합한 섬네일 비디오인 것을 나타내는 시그널링 정보와, 콘텐츠의 재생을 개시할 때까지 필요한 최소의 버퍼 시간을 나타내는 상기 속성을 포함하는 콘텐츠의 메타데이터가 수신된다.
또한, 송신 장치, 및 수신 장치는, 독립된 장치이어도 되고, 하나의 장치를 구성하고 있는 내부 블록이어도 된다.
본 기술에 의하면, 모자이크 화면을 용이하게 얻을 수 있다.
또한, 여기에 기재된 효과는 반드시 한정되는 것은 아니며, 본 개시 중에 기재된 어느 효과여도 된다.
도 1은, 본 기술을 적용한 콘텐츠 제공 시스템의 일 실시 형태의 구성예를 나타내는 블록도이다.
도 2는, 채널 서버(11)의 구성예를 나타내는 블록도이다.
도 3은, 집약 서버(12)의 구성예를 나타내는 블록도이다.
도 4는, 클라이언트(13)의 구성예를 나타내는 블록도이다.
도 5는, 콘텐츠 제공 시스템에 의한 섬네일 비디오의 제공 처리를 설명하는 도면이다.
도 6은, 콘텐츠 제공 시스템에 있어서, 네트워크(10)를 통해 배신되는 데이터의 예를 나타내는 도면이다.
도 7은, MPD, SDP, USD, 및 OMA-ESG를 설명하는 도면이다.
도 8은, MBMS의 프로토콜 스택을 나타내는 도면이다.
도 9는, 섬네일 메타데이터로서의 USD의 데이터 모델의 예를 나타내는 도면이다.
도 10은, XML로 기술되는 섬네일 메타데이터로서의 USD를 구성하는 XML의 요소, 및 속성의 예를 나타내는 도면이다.
도 11은, XML로 기술되는 섬네일 메타데이터로서의 USD의 예를 나타내는 도면이다.
도 12는, 섬네일 메타데이터로서의 MPD의 개요를 나타내는 도면이다.
도 13은, XML로 기술되는 섬네일 메타데이터로서의 MPD를 구성하는 XML의 요소, 및 속성의 예를 나타내는 도면이다.
도 14는, XML로 기술되는 섬네일 메타데이터로서의 MPD의 예를 나타내는 도면이다.
도 15는, 섬네일 메타데이터로서의 OMA-ESG의 데이터 모델의 예를 나타내는 도면이다.
도 16은, XML로 기술되는 섬네일 메타데이터로서의 OMA-ESG를 구성하는 XML의 요소, 및 속성의 예를 나타내는 도면이다.
도 17은, XML로 기술되는 섬네일 메타데이터로서의 OMA-ESG의 예를 나타내는 도면이다.
도 18은, 섬네일 메타데이터로서의 OMA-ESG를 설명하는 도면이다.
도 19는, 섬네일 비디오를 포함하는 콘텐츠의 배신 방법의 제1 예를 나타내는 도면이다.
도 20은, 섬네일 비디오를 포함하는 콘텐츠의 배신 방법의 제2 예를 나타내는 도면이다.
도 21은, 섬네일 비디오를 포함하는 콘텐츠의 배신 방법의 제3 예를 나타내는 도면이다.
도 22는, 클라이언트(13)에서의 모자이크 화면의 표시예를 나타내는 도면이다.
도 23은, 콘텐츠 디스크립션 메타메이터를 도입한 섬네일 메타데이터로서의 MPD의 제1 예를 나타내는 도면이다.
도 24는, 하나의 FLUTE 세션에서 멀티캐스트 배신되는 복수의 섬네일 비디오(의 스트림)의 예를 모식적으로 나타내는 도면이다.
도 25는, 콘텐츠 디스크립션 메타메이터를 도입한 섬네일 메타데이터로서의 MPD의 제2 예를 나타내는 도면이다.
도 26은, 콘텐츠 디스크립션 메타메이터를 도입한 섬네일 메타데이터로서의 MPD의 제3 예를 나타내는 도면이다.
도 27은, 섬네일 비디오를 포함하는 콘텐츠의 배신 방법의 제4 예를 나타내는 도면이다.
도 28은, 섬네일 비디오를 포함하는 콘텐츠의 배신 방법의 제5 예를 나타내는 도면이다.
도 29는, 섬네일 비디오를 포함하는 콘텐츠의 배신 방법의 제6 예를 나타내는 도면이다.
도 30은, 클라이언트(13)에서의 모자이크 화면의 표시의 처리예를 설명하는 흐름도이다.
도 31은, 본 기술을 적용한 컴퓨터의 일 실시 형태의 구성예를 나타내는 블록도이다.
<본 기술을 적용한 콘텐츠 제공 시스템의 일 실시 형태>
도 1은, 본 기술을 적용한 콘텐츠 제공 시스템의 일 실시 형태의 구성예를 나타내는 블록도이다.
도 1에 있어서, 콘텐츠 제공 시스템은, 복수의 채널 서버(11), 1 이상의 집약 서버(12), 1 이상의 클라이언트(13), 및 NTP(Network Time Protocol) 서버(14)가 네트워크(10)에 접속되어 구성된다.
도 1의 콘텐츠 제공 시스템에서는, DASH를 이용하여 채널 서버(11)나 집약 서버(12)로부터, 네트워크(10)를 통해 클라이언트(13)에 대하여 콘텐츠가 제공된다.
여기서, 현행의 DASH에서는, 스트리밍 자체가 OTT/CDN(Over The Top/Contents Delivery Network) 상의 유니캐스트에 의해 행해지는 것이 전제로 되어 있지만, 도 1의 콘텐츠 제공 시스템에서는, 모자이크 화면을 구성하는 비디오가, 예를 들어 휴대망 상의 품질이 보증된 일제 동보 가능한 멀티캐스트 네트워크(eMBMS 등) 상에서 배신된다. 이에 의해, 다수의 유저에 대하여 퍼포먼스가 우수한, 모자이크 화면에 의한 채널 선택의 조작감이 제공된다.
즉, 도 1의 콘텐츠 제공 시스템에서는, 모자이크 화면을 구성하는 복수의 비디오를 그루핑(애그리게이트)하여, 하나의 FLUTE 멀티캐스트 세션 등으로 배신함으로써, 클라이언트(13)에 있어서, 모자이크 화면을, 용이하고 또한 효율적으로 생성하는(얻는) 것을 가능하게 한다.
네트워크(10)는, 유니캐스트나 멀티캐스트가 가능한, 인터넷 등의 쌍방향 네트워크와, 브로드 캐스트나 멀티캐스트가 가능한 방송계 네트워크를 포함한다. 네트워크(10)로서는, 예를 들어, 3GPP(3rd Generation Partnership Project)의 MBMS(Multimedia Broadcast Multicast Service)(eMBMS(Evolved MBMS)를 포함함) 등을 채용할 수 있다.
채널 서버(11)는, 예를 들어 방송국에 응답하고, 그 방송국의 채널(서비스) 프로그램으로서, 동일 내용의 콘텐츠 스트림으로서, 비트 레이트나 화상 사이즈 등이 상이한 복수의 스트림을, 네트워크(10)를 통해 배신한다.
여기서, 채널 서버(11)가 배신하는 복수의 스트림에는, 시청용으로 제공되는 메인 비디오나, 오디오, 자막 등의 스트림과, 모자이크 화면을 구성하는 데 적합한 섬네일 비디오의 스트림이 포함된다.
여기서, 모자이크 화면을 구성하는 데 적합한 섬네일 비디오란, 메인 비디오와 동일 내용의 비디오이지만, 예를 들어 화상 사이즈가 메인 비디오보다도 작은 소정의 사이즈 이하의 비디오이며, 복수 개를, 어떤 사이즈의 표시 화면에, 격자형 등으로 타일링함으로써, 모자이크 화면이 구성되는 비디오를 의미한다.
집약 서버(12)는, 예를 들어 모자이크 화면을, 프로그램으로서 방송하는 방송국에 응답하고, 그 방송국의 채널(서비스)의 프로그램으로서, 복수의 채널 서버(11)가 배신하는 복수의 섬네일 비디오(의 스트림)를 그루핑(집약)하고, 네트워크(10)를 통해 배신한다.
클라이언트(13)는, 채널 서버(11)가 배신하는 메인 비디오 등이나, 집약 서버(12)가 배신하는 섬네일 비디오를 수신하여 재생한다.
NTP 서버(14)는, UTC(Coordinated Universal Time) 타임 포맷에 따른 시각 정보인 NTP 시각을, 네트워크(10)를 통해 제공한다.
채널 서버(11), 집약 서버(12), 및 클라이언트(13)는, NTP 서버(14)로부터 제공되는 NTP 시각에 동기하여 동작할 수 있다.
또한, 채널 서버(11)가 배신하는 프로그램은(나아가서는, 집약 서버(12)가 배신하는 프로그램도), 리얼타임의 프로그램(생방송 프로그램)이어도 되고, 녹화 프로그램이어도 된다.
<채널 서버(11)의 구성예>
도 2는, 도 1의 채널 서버(11)의 구성예를 나타내는 블록도이다.
도 2에 있어서, 채널 서버(11)는 콘텐츠 매니지먼트 서버(21), 세그먼트 스트리머(22), 및 MPD 서버(23)를 갖는다.
여기서, 콘텐츠 매니지먼트 서버(21), 세그먼트 스트리머(22), 및 MPD 서버(23)는, 네트워크(10) 상의 한군데에 배치할 수도 있고, 네트워크(10) 상에 분산하여 배치할 수도 있다. 콘텐츠 매니지먼트 서버(21), 세그먼트 스트리머(22), 및 MPD 서버(23)를 네트워크(10) 상에 분산하여 배치하는 경우, 상호 간에서의 통신은, 네트워크(10) 외에 전용선 그 밖의 임의의 통신 회선을 통해 행할 수 있다.
콘텐츠 매니지먼트 서버(21)는, 채널 서버(11)의 채널 프로그램으로서 배신하기 위한 콘텐츠 소스 데이터로서의 비디오나, 오디오, 자막 등을 관리하고 있으며, 콘텐츠의 소스 데이터로서의 비디오 등으로부터 비트 레이트가 상이한 복수의 스트리밍 데이터를 생성하여, 세그먼트 스트리머(22)에 공급한다.
여기서, 비디오에 대한 복수의 스트리밍 데이터 중에는, 메인 비디오와 섬네일 비디오가 포함된다.
세그먼트 스트리머(22)는, 콘텐츠 매니지먼트 서버(21)로부터의 각 스트리밍 데이터를, 시간 방향으로 분할한 세그먼트의 세그먼트 스트림을 생성한다.
즉, 세그먼트 스트리머(22)는, 스트리밍 데이터를, 예를 들어 fragmentedMP4의 프래그먼트(moof와 mdat)로 분할하고, 그 프래그먼트의 1 이상을 모아서 세그먼트의 파일을 생성한다.
또한, 세그먼트 스트리머(22)는, 세그먼트의 URL(세그먼트를 제공하는 서버(예를 들어, 채널 서버(11))의 URL) 등의, MPD의 생성에 필요한 세그먼트의 메타데이터를, MPD 서버(23)에 공급한다.
또한, 세그먼트 스트리머(22)는, web 서버로서, 클라이언트(13)로부터의 세그먼트의 요구로서의 HTTP 리퀘스트에 응답하여, 그 HTTP 리퀘스트에 의해 요구되는 세그먼트(의 파일)를 클라이언트(13)에, 네트워크(10)를 통해 HTTP 유니캐스트 배신한다.
또한, 세그먼트 스트리머(22)는, 섬네일 비디오의 세그먼트를, 네트워크(10)를 통해 집약 서버(12)에 (유니캐스트 또는 멀티캐스트에 의해) 배신한다.
MPD 서버(23)는, 세그먼트 스트리머(22)로부터 공급되는 세그먼트의 메타데이터를 사용하여, 클라이언트(13)가 세그먼트를 수신하여 재생 제어를 행하기 위해 필요한, 세그먼트의 URL 등이 기술된 MPD를 생성한다.
MPD 서버(23)는, web 서버로서, 클라이언트(13)로부터의 MPD의 요구로서의 HTTP 리퀘스트에 응답하여, MPD를, 클라이언트(13)에, 네트워크(10)를 통해 HTTP 유니캐스트 배신한다.
또한, MPD 서버(23)는, 섬네일 비디오의 MPD를, 네트워크(10)를 통해 집약 서버(12)에 (유니캐스트 또는 멀티캐스트에 의해) 배신한다.
여기서, 클라이언트(13)는, MPD 서버(23)에 대하여 MPD를 요구함으로써, 그 요구에 응답하여, MPD 서버(23)가 HTTP 유니캐스트 배신하는 MPD를 수신할 수 있다.
또한, 클라이언트(13)는 MPD 서버(23)로부터의 MPD에 기초하여, 세그먼트 스트리머(22)에 세그먼트를 요구함으로써, 그 요구에 응답하여, 세그먼트 스트리머(22)가 HTTP 유니캐스트 배신하는 세그먼트를 수신하고, 또한 그 세그먼트를, MPD에 기초하여 재생할 수 있다.
<집약 서버(12)의 구성예>
도 3은, 도 1의 집약 서버(12)의 구성예를 나타내는 블록도이다.
도 3에 있어서, 집약 서버(12)는, 스트림 애그리게이터(31), 메타데이터 제네레이터(32), FLUTE(File Delivery over Unidirectional Transport) 스트리머(33), 멀티캐스트 서버(34), 및 web 서버(35)를 갖는다.
여기서, 스트림 애그리게이터(31) 내지 web 서버(35)는, 도 2의 채널 서버(11)의 경우와 마찬가지로, 네트워크(10) 상의 한군데에 배치할 수도 있고, 네트워크(10) 상에 분산하여 배치할 수도 있다. 스트림 애그리게이터(31) 내지 web 서버(35)를 네트워크(10) 상에 분산하여 배치하는 경우, 상호 간에서의 통신은, 네트워크(10) 외에, 전용선 그 밖의 임의의 통신 회선을 통해 행할 수 있다.
스트림 애그리게이터(31)는, 복수의 채널 서버(11)로부터 배신되는 복수의 섬네일 비디오(의 세그먼트) 중에서 모자이크 화면이 있는 채널(이하, '모자이크 채널'이라고도 함)을 구성시키는 2 이상의 섬네일 비디오를, 모자이크 채널용 섬네일 비디오로서 선택(애그리게이트)하고, FLUTE 스트리머(33)에 공급한다.
여기서, 스트림 애그리게이터(31)는, 복수의 채널 서버(11)로부터 배신되는 복수의 섬네일 비디오 중에서 하나의 모자이크 화면을 구성하는 데 적합한 2 이상의 섬네일 비디오를, 모자이크 채널용 섬네일 비디오로서 선택한다.
하나의 모자이크 화면을 구성하는 데 적합한 2 이상의 섬네일 비디오란, 예를 들어, 적어도 화상 사이즈가 동일한 2 이상의 섬네일 비디오이다.
그 밖에, 스트림 애그리게이터(31)에서는, 예를 들어 어떤 사이즈의 표시 화면에, 격자형 등으로 타일링하기에 적합한 화상 사이즈인 것이나, 야구 중계 등의 동일한 장르의 비디오인 것을 조건으로 하여, 그들 조건의 1 이상을 만족하는 2 이상의 섬네일 비디오를, 모자이크 채널용 섬네일 비디오로서 선택할 수 있다.
메타데이터 제네레이터(32)는, 복수의 채널 서버(11)로부터 배신되는 복수의 섬네일 비디오의 MPD 중, 스트림 애그리게이터(31)에 의해 선택된 2 이상의 섬네일 비디오 각각에 대한 MPD를 선택하고, 그 MPD를 사용하여, 모자이크 채널용 메타데이터인 섬네일 메타데이터를 생성한다.
그리고, 메타데이터 제네레이터(32)는 섬네일 메타데이터를, FLUTE 스트리머(33), 및 web 서버(35)에 공급한다.
여기서, 섬네일 메타데이터로서는, 예를 들어 MBMS의 USD(User Service Description), DASH의 MPD, 및 IETF(Internet Engineering Task Force)의 SDP(Session Description Protocol)(파일)의 조합, 또는 OMA-ESG(Open Mobile Alliance-Electronic Service Guide), USD, MPD, 및 SDP의 조합을 이용할 수 있다.
OMA-ESG, USD, MPD, 및 SDP는, 모두 속성(명)과, 그 속성에 설정되는 속성값을 이용하여 기술된다. 속성과 속성값은, 그 밖의 용어, 예를 들어 키(key)와 밸류(value)라 불리는 경우가 있다.
FLUTE 스트리머(33)는, 스트림 애그리게이터(31)로부터 공급되는 섬네일 비디오(의 세그먼트)를 FLUTE 패킷, 즉, LCT(Layerd Coding Transport) 패킷(ALC(Asynchronous Layered Coding) 패킷)에 저장하고, 멀티캐스트 서버(34)에 공급한다.
또한, FLUTE 스트리머(33)는, 메타데이터 제네레이터(32)로부터 공급되는 섬네일 메타데이터를, LCT 패킷에 저장하고, 멀티캐스트 서버(34)에 공급한다.
멀티캐스트 서버(34)는, FLUTE 스트리머(33)로부터의 LCT 패킷을, 네트워크(10)를 통해 FLUTE 멀티캐스트 배신한다.
여기서, FLUTE 스트리머(33)로부터의 LCT 패킷에는, 전술한 바와 같이, 섬네일 비디오(의 세그먼트)나, 섬네일 메타데이터가 저장되어 있으므로, 멀티캐스트 서버(34)에서는, 섬네일 비디오나, 섬네일 메타데이터가, 멀티캐스트 배신되게 된다.
web 서버(35)는, 클라이언트(13)로부터의 요구(HTTP 리퀘스트)에 응답하여, 메타데이터 제네레이터(32)로부터의 섬네일 메타데이터를, 네트워크(10)를 통해 클라이언트(13)에, HTTP 유니캐스트 배신한다.
여기서, 이상과 같이, 멀티캐스트 서버(34), 및 web 서버(35)는, 섬네일 메타데이터를 배신하는 배신부로서 기능한다.
또한, 도 3의 집약 서버(12)에서는, 전술한 바와 같이, 섬네일 비디오가, 멀티캐스트 배신되지만, 집약 서버(12)에서는, 그 밖에, 채널 서버(11)로부터, 섬네일 비디오의 콘텐츠에 대한 메인 비디오, 오디오, 자막 등(의 세그먼트)을 취득하고, 섬네일 비디오와 마찬가지로, 멀티캐스트 배신할 수 있다.
또한, 메인 비디오 등에 대해서는, 채널 서버(11)에 있어서, 집약 서버(12)가 섬네일 비디오를 멀티캐스트 배신하는 것과 마찬가지로 하여, 멀티캐스트 배신할 수 있다.
또한, 집약 서버(12)에서는, 섬네일 비디오를, 멀티캐스트 서버(34)에 있어서, 멀티캐스트 배신하는 외에, web 서버(35)에 있어서, 유니캐스트 배신할 수 있다.
<클라이언트(13)의 구성예>
도 4는, 도 1의 클라이언트(13)의 구성예를 나타내는 블록도이다.
도 4에 있어서, 클라이언트(13)는, 수신부(40), 및 재생부(43)를 갖는다.
수신부(40)는, 예를 들어 유저에 의한 클라이언트(13)의 조작 등에 따라서, 채널 서버(11)로부터 배신되는 MPD나, 집약 서버(12)로부터 배신되는 섬네일 메타데이터를 수신하는 수신부로서 기능한다.
또한, 수신부(40)는, 예를 들어 유저에 의한 클라이언트(13)의 조작 등에 따라서, 채널 서버(11)로부터 수신한 MPD나, 집약 서버(12)로부터 수신한 섬네일 메타데이터에 기초하여, 채널 서버(11)로부터 배신되는 (메인 비디오 등의) 세그먼트나, 집약 서버(12)로부터 멀티캐스트 배신되는 (섬네일 비디오 등의) 세그먼트를 수신한다.
또한, 수신부(40)는, 채널 서버(11)나 집약 서버(12)로부터 수신한 세그먼트를, 재생부(43)에 공급하고, 채널 서버(11)로부터 수신한 MPD나, 집약 서버(12)로부터 수신한 섬네일 메타데이터에 기초하여, 재생부(43)에서의 세그먼트의 재생을 제어한다.
재생부(43)는, 수신부(40)의 제어에 따라서, 수신부(40)로부터 공급되는 세그먼트, 즉, 섬네일 비디오로 구성되는 모자이크 화면이나, 메인 비디오, 오디오, 자막 등을 재생한다.
여기서, 수신부(40)는, 미들웨어(41)와 DASH 클라이언트(42)를 갖는다.
DASH 클라이언트(42)는 필요에 따라서, MPD나, 섬네일 비디오, 메인 비디오 등의 세그먼트를 요구하는 HTTP 리퀘스트를, 미들웨어(41)로 출력한다.
미들웨어(41)는, 멀티캐스트 배신되어 오는 MPD나, 섬네일 메타데이터, 세그먼트를 필요에 따라서 수신하고 있으며, DASH 클라이언트(42)가 HTTP 리퀘스트를 출력하면, 그 HTTP 리퀘스트에 의해 요구되고 있는 MPD나 세그먼트가, 멀티캐스트 배신되고 있는지 여부를, 섬네일 메타데이터 등에 기초하여 판정한다.
그리고, DASH 클라이언트(42)가 출력하는 HTTP 리퀘스트에 의해 요구되고 있는 MPD나 세그먼트가, 멀티캐스트 배신되고 있는 경우에는, 미들웨어(41)는 그 멀티캐스트 배신되는 MPD나 세그먼트를 수신하고, DASH 클라이언트(42)에 공급한다.
또한, 미들웨어(41)는, DASH 클라이언트(42)가 출력하는 HTTP 리퀘스트에 의해 요구되고 있는 MPD나 세그먼트가, 이미 수신이 완료된 경우에는, 그 수신이 완료된 MPD나 세그먼트를, DASH 클라이언트(42)에 공급한다.
한편, DASH 클라이언트(42)가 출력하는 HTTP 리퀘스트에 의해 요구되고 있는 MPD나 세그먼트가, 멀티캐스트 배신되지 않는 경우, 미들웨어(41)는 DASH 클라이언트(42)가 출력하는 HTTP 리퀘스트를, 그대로 네트워크(10)에 송신한다. 그리고, 미들웨어(41)는, 그 HTTP 리퀘스트에 응답하여, 유니캐스트 배신되어 오는 MPD나 세그먼트를 수신하고, DASH 클라이언트(42)에 공급한다.
따라서, DASH 클라이언트(42)는, 일반적인 DASH 클라이언트와 마찬가지로, 필요한 MPD나 세그먼트를 요구하는 HTTP 리퀘스트를 출력하고, 그 HTTP 리퀘스트에 응답하여, 미들웨어(41)로부터 공급되는 MPD나 세그먼트를 수신하여 처리한다.
<콘텐츠 제공 시스템의 처리>
도 5는, 도 1의 콘텐츠 제공 시스템에 의한 섬네일 비디오의 제공의 처리예를 설명하는 도면이다.
채널 서버(11)는, 스텝 S11에 있어서, 섬네일 비디오를, 집약 서버(12)(도 3)의 스트림 애그리게이터(31)에 배신한다.
또한, 채널 서버(11)는, 스텝 S12에 있어서, 섬네일 비디오의 MPD를, 집약 서버(12)의 메타데이터 제네레이터(32)에 배신한다.
또한, 스텝 S13에 있어서, 채널 서버(11)는 클라이언트(13)로부터, 섬네일 비디오를 요구하는 HTTP 리퀘스트가 송신되어 오면, 그 HTTP 리퀘스트를 수신한다.
그리고, 스텝 S14에 있어서, 채널 서버(11)는 클라이언트(13)로부터의 HTTP 리퀘스트에 의해 요구되고 있는 섬네일 비디오(의 세그먼트)를 클라이언트(13)에, 유니캐스트 배신한다.
집약 서버(12)(도 3)의 스트림 애그리게이터(31)는, 스텝 S21에 있어서, 복수의 채널 서버(11)가 스텝 S11에서 배신하는 섬네일 비디오를 수신한다.
그리고, 스트림 애그리게이터(31)는, 스텝 S22에 있어서, 복수의 채널 서버(11)로부터 수신한 복수의 섬네일 비디오 중에서 모자이크 채널을 구성시키는 2 이상의 섬네일 비디오를 선택하고, 스텝 S23에 있어서, FLUTE 스트리머(33)에 공급한다.
집약 서버(12)의 메타데이터 제네레이터(32)는, 스텝 S31에 있어서, 복수의 채널 서버(11)가 스텝 S12에서 배신하는 섬네일 비디오의 MPD를 수신한다.
그리고, 메타데이터 제네레이터(32)는, 스텝 S32에 있어서, 복수의 채널 서버(11)로부터 수신한 복수의 섬네일 비디오의 MPD 중, 스트림 애그리게이터(31)에 의해 선택된 2 이상의 섬네일 비디오 각각에 대한 MPD를 선택하고, 그 MPD를 사용하여, 섬네일 메타데이터를 생성한다. 또한, 메타데이터 제네레이터(32)는, 스텝 S33에 있어서, 섬네일 메타데이터를, FLUTE 스트리머(33), 및 web 서버(35)에 공급한다.
집약 서버(12)의 FLUTE 스트리머(33)는, 스텝 S41에 있어서, 메타데이터 제네레이터(32)로부터 스텝 S33에서 공급되는 섬네일 메타데이터를 수신한다.
또한, FLUTE 스트리머(33)는, 스텝 S42에 있어서, 스트림 애그리게이터(31)로부터 스텝 S23에서 공급되는 섬네일 비디오(의 세그먼트)를 수신한다.
FLUTE 스트리머(33)는, 스텝 S43에 있어서, 메타데이터 제네레이터(32)로부터의 섬네일 메타데이터나, 스트림 애그리게이터(31)로부터의 섬네일 비디오를, LCT 패킷에 저장함으로써 패킷화하고, 스텝 S44에 있어서, 멀티캐스트 서버(34)에 공급한다.
집약 서버(12)의 web 서버(35)는, 스텝 S51에 있어서, 메타데이터 제네레이터(32)로부터 스텝 S33에서 공급되는 섬네일 메타데이터를 수신한다.
또한, 스텝 S52에 있어서, web 서버(35)는 클라이언트(13)로부터, 섬네일 메타데이터를 요구하는 HTTP 리퀘스트가 송신되어 오면, 그 HTTP 리퀘스트를 수신한다.
그리고, 스텝 S53에 있어서, web 서버(35)는, 클라이언트(13)로부터의 HTTP 리퀘스트에 의해 요구되고 있는 섬네일 메타데이터를, 클라이언트(13)에, 유니캐스트 배신한다.
집약 서버(12)의 멀티캐스트 서버(34)는, 스텝 S61에 있어서, FLUTE 스트리머(33)로부터 스텝 S44에서 공급되는 LCT 패킷을 수신한다.
그리고, 스텝 S62에 있어서, 멀티캐스트 서버(34)는, FLUTE 스트리머(33)로부터의 섬네일 메타데이터가 저장된 LCT 패킷을, 멀티캐스트 배신한다.
또한, 스텝 S63에 있어서, 멀티캐스트 서버(34)는, FLUTE 스트리머(33)로부터의 섬네일 비디오가 배치된 LCT 패킷을, 멀티캐스트 배신한다.
클라이언트(13)(도 4)에서는, 수신부(40)가, 스텝 S71에 있어서, 멀티캐스트 서버(34)가 스텝 S62에서 멀티캐스트 배신하는 섬네일 메타데이터(의 LCT 패킷)를 수신한다.
또는, 클라이언트(13)에서는, 수신부(40)가, 스텝 S72에 있어서, 섬네일 메타데이터를 요구하는 HTTP 리퀘스트를 송신한다.
클라이언트(13)가 스텝 S72에서 송신하는 HTTP 리퀘스트는, 전술한 바와 같이, web 서버(35)가 스텝 S52에서 수신하고, 스텝 S53에서, 그 HTTP 리퀘스트에 의해 요구되고 있는 섬네일 메타데이터를, 클라이언트(13)에, 유니캐스트 배신한다.
클라이언트(13)의 수신부(40)는, 스텝 S73에 있어서, 이상과 같이 하여 유니캐스트 배신되어 오는 섬네일 메타데이터를 수신한다.
그리고, 클라이언트(13)의 수신부(40)는, 스텝 S74에 있어서, 멀티캐스트 서버(34)가 스텝 S63에서 멀티캐스트 배신하는 섬네일 비디오(의 LCT 패킷)를 섬네일 메타데이터에 기초하여 수신한다.
또는, 클라이언트(13)에서는, 수신부(40)가 스텝 S75에 있어서, 섬네일 메타데이터에 기초하여, 섬네일 비디오를 요구하는 HTTP 리퀘스트를 송신한다.
클라이언트(13)가 스텝 S75에서 송신하는 HTTP 리퀘스트는, 전술한 바와 같이, 채널 서버(11)가 스텝 S13에서 수신하고, 스텝 S14에서, 그 HTTP 리퀘스트에 의해 요구되고 있는 섬네일 비디오를, 클라이언트(13)에, 유니캐스트 배신한다.
클라이언트(13)의 수신부(40)는, 스텝 S76에 있어서, 이상과 같이 하여 유니캐스트 배신되어 오는 섬네일 비디오를 수신한다.
그리고, 클라이언트(13)의 재생부(43)는, 스텝 S77에 있어서, 수신부(40)가 스텝 S74 또는 S76에서 수신한 (복수의) 섬네일 비디오를 재생하고, 그 섬네일 비디오를 격자형으로 배치한 모자이크 화면을 표시한다.
클라이언트(13)의 유저는, 모자이크 화면을 보고서, 그 모자이크 화면을 구성하는 섬네일 비디오에 응답하는 채널을, 시청의 대상으로서 용이하게 선택할 수 있다.
<네트워크(10)를 통해 배신되는 데이터의 설명>
도 6은, 도 1의 콘텐츠 제공 시스템에 있어서, 네트워크(10)를 통해 배신되는 데이터의 예를 나타내는 도면이다.
콘텐츠 제공 시스템에서는, MPD나, SDP, USD, OMA-ESG 등의 메타 데이터와, 섬네일 비디오나 메인 비디오 등의 세그먼트가, 클라이언트(13)에 배신된다.
메타데이터 및 세그먼트는, 멀티캐스트 배신할 수도 있고, 유니캐스트 배신할 수도 있다.
섬네일 메타 데이터로서는, MPD, SDP, 및 USD의 조합이나, 그들에, OMA-ESG를 추가한 조합이 사용된다.
도 7은, MPD, SDP, USD, 및 OMA-ESG를 설명하는 도면이다.
이 경우, 어떤 프로그램을, 주목하는 주목 프로그램이라 하면, 그 주목 프로그램의 OMA-ESG에는, 주목 프로그램의 상세 정보나, 주목 프로그램의 USD로의 액세스 방법 등이 기술된다.
따라서, 주목 프로그램의 OMA-ESG를 취득하면, 그 OMA-ESG에 기술되어 있는 USD로의 액세스 방법을 참조함으로써, 주목 프로그램의 USD를 취득할 수 있다.
주목 프로그램의 USD에는, 주목 프로그램의 SDP의 URI(Uniform Resource Identifier)나, 주목 프로그램의 MPD의 URI 등이 기술된다.
따라서, 주목 프로그램의 USD를 취득하면, 그 USD에 기술되어 있는 SDP나 MPD의 URI를 참조함으로써, 주목 프로그램의 SDP나 MPD를 취득할 수 있다.
주목 프로그램의 SDP에는, 주목 프로그램의 세그먼트를 멀티캐스트 배신할 IP 어드레스와 포트 번호 등의 트랜스포트 속성 등이 기술된다.
따라서, 주목 프로그램의 SDP를 취득함으로써, 그 SDP에 기술되어 있는 IP 어드레스와 포트 번호에 기초하여, 멀티캐스트 배신되어 오는 주목 프로그램의 세그먼트를 수신할 수 있다.
주목 프로그램의 MPD에는, 주목 프로그램의 세그먼트 URL이나, 그 세그먼트의 재생 제어에 필요한 정보 등이 기술된다.
따라서, 주목 프로그램의 MPD를 취득함으로써, 그 MPD에 기술되어 있는 URL에 기초하여, 주목 프로그램의 세그먼트를 유니캐스트에 의해 수신할 수 있다. 또한, 주목 프로그램의 MPD에 기초하여, 주목 프로그램의 세그먼트를 재생할 수 있다.
즉, MPD에는, 세그먼트의 재생 제어에 필요한 정보가 포함되기 때문에, MPD는, 세그먼트를 유니캐스트에 의해 수신하기 위해 필요한 외에, 세그먼트의 재생에도 필요하다.
<섬네일 비디오의 아나운스>
클라이언트(13)(도 1)에 있어서, 섬네일 비디오를 수신하고, 복수의 섬네일 비디오로 구성되는 모자이크 화면을 구성하기 위해서는, 어느 비디오가 섬네일 비디오인지를, 클라이언트(13)에 주지(인식)시킬 필요가 있다.
따라서, 도 1의 콘텐츠 제공 시스템에서는, 어느 비디오가 섬네일 비디오인지를, 클라이언트(13)에 주지시키기 위해서, 집약 서버(12)에 있어서, 섬네일 비디오의 아나운스가 행해진다.
섬네일 비디오의 아나운스는, 비디오가 섬네일 비디오인 것을 나타내는 섬네일 시그널링 정보를 포함하는 섬네일 메타데이터를 배신함으로써 행해진다.
여기서, 섬네일 시그널링 정보는, 섬네일 메타데이터로서의 USD나, MPD, OMA-ESG에 포함시킬 수 있다.
집약 서버(12)에 있어서, 섬네일 시그널링 정보를 포함하는 섬네일 메타데이터는, 예를 들어 MBMS의 인터랙션 채널(쌍방향(ptp: point to point) 베어러 상의 유니캐스트)이나, 브로드캐스트 멀티캐스트 채널(편방향(ptm: point to multi-point) 베어러 상의 브로드·멀티캐스트)을 통해 배신할 수 있다.
즉, 집약 서버(12)에 있어서, 섬네일 메타데이터는, 도 3에서 설명한 바와 같이, (방송계 네트워크(쌍방향 네트워크 상의 멀티캐스트 네트워크도 포함함) 상에서의) FLUTE 멀티캐스트나, (쌍방향 네트워크 상에서의) HTTP 유니캐스트에 의해 배신할 수 있다.
이하, 휴대망 상에서의 모바일 방송 시스템인 MBMS를 사용하여, 섬네일 메타데이터를 배신하는 경우에 대하여 설명한다.
도 8은, MBMS의 프로토콜 스택을 나타내는 도면이다.
MBMS는, 쌍방향 통신의 인터랙션 채널과, 편방향 통신의 브로드캐스트 멀티캐스트 채널를 갖는다.
MBMS의 인터랙션 채널은, 세그먼트 및 MPD 등의 메타데이터(섬네일 메타데이터로서의 MPD 등을 포함함)의 HTTP 유니캐스트 배신에 이용된다. MBMS의 브로드캐스트 멀티캐스트 채널는, 세그먼트 및 MPD 등의 메타데이터의 FLUTE 멀티캐스트 배신에 이용된다.
섬네일 메타데이터로서의 MPD, USD, MPD, 및 OMA-ESG는, 모두 인터랙션 채널의 Service Announcement&Metadata(51)나, 브로드캐스트 멀티캐스트 채널의 Service Announcement&Metadata(52)로서 배신할 수 있다.
또한, 세그먼트를 멀티캐스트 배신하는 경우에는, 세그먼트는, 브로드캐스트 멀티캐스트 채널의 Download 3GPP file format, Binary data, Still images, Text, etc.(53)로서 FLUTE 멀티캐스트 배신된다.
<섬네일 메타데이터로서의 USD>
도 9는, 섬네일 메타데이터로서의 USD의 데이터 모델의 예를 나타내는 도면이다.
도 9의 섬네일 메타데이터의 데이터 모델에서는, MBMS의 USD의 데이터 모델에, r12:appServiceDescription(요소)(66)이 새롭게 도입되어 있다.
도 9에 있어서, User Service Bundle Description(61)은, 루트의 요소이며, User Service Description(62)은, 서비스에 관한 정보이다. Delivery Method(63)는, 세그먼트의 배신 방법에 관한 정보이며, SDP를 나타내는 Session Description(64)의 URI 등을 포함한다. Session Description(64)은, SDP를 나타내고, media Presentation Description(65)은, MPD를 나타낸다.
r12:appServiceDescription(66)은, 서비스(방송국)(채널)가 제공하는 콘텐츠(의 세그먼트)가 멀티캐스트 배신(혹은 브로드 캐스트 배신)되는지, 또는 유니캐스트 배신되는지를, 클라이언트(13)에 시그널링하는 정보이다.
여기서, 도 9에 있어서, 예를 들어 User Service Bundle Description(61)과 User Service Description(62)을 연결하는 링크(선) L의, User Service Description(62)측의 기술 "1..N"은, 링크 L의, 기술 "1..N"과 반대측의 User Service Bundle Description(61)이, 1 내지 N의 범위의 수 User Service Description(62)을 포함하는 것(또는, 참조하는 것)을 나타낸다.
또한, 링크 L의, User Service Bundle Description(61)측의 기술 "1"은, 링크 L의, 기술 "1"과 반대측의 User Service Description(62)이, 하나의 User Service Bundle Description(61)에 포함되는 것(또는, 참조되는 것)을 나타낸다.
후술하는 도 15에서도 마찬가지이다.
도 10은, XML(Extensible Markup Language)로 기술되는 섬네일 메타데이터로서의 USD를 구성하는 XML의 요소, 및 속성의 예를 나타내는 도면이다.
USD는, bundleDescription(요소), bundleDescription/UserServiceDescription(요소), bundleDescription/userServiceDescription/@serviceId(속성), bundleDescription/userServiceDescription/DeliveryMethod(요소), bundleDescription/userServiceDescription/DeliveryMethod/@sessionDescriptionURI(속성)를 포함한다.
여기서, 예를 들어 bundleDescription/UserServiceDescription은, UserServiceDescription(요소)이, bundleDescription(요소)에 포함되는 요소임을 나타내고, 이하, UserServiceDescription, 또는 /UserServiceDescription이라고도 기재한다.
또한, 예를 들어 bundleDescription/userServiceDescription/@serviceId는, serviceId가, /userServiceDescription에 속하는 속성임을 나타내고, 이하, serviceId, 또는 /@serviceId라고도 기재한다.
bundleDescription 요소는, 1 이상의 서비스의 집합 정보이며, UserServiceDescription 요소는, 개개의 서비스 정보이다. serviceId 속성은, 서비스를 식별하는 서비스 식별자이며, DeliveryMethod 요소는, 서비스가 제공하는 콘텐츠의 배신 방법의 정보이다.
sessionDescriptionURI 속성은, 서비스가 제공하는 콘텐츠를 수신하기 위한 정보를 포함하는 파일을 참조하기 위한 정보를 나타낸다.
서비스가 제공하는 콘텐츠를 수신하기 위한 정보를 포함하는 파일로서는, 예를 들어 SDP(파일)가 채용된다.
서비스가 제공하는 콘텐츠를 수신하기 위한 정보를 포함하는 파일로서, SDP를 채용하는 경우, 서비스가 제공하는 콘텐츠를 수신하기 위한 정보로서는, 그 콘텐츠가 멀티캐스트에 의해 배신되는 경우의, 그 멀티캐스트의 IP 어드레스 및 포트 번호를 포함하는 정보가 채용된다. 또한, SDP를 참조하기 위한 정보를 나타내는 sessionDescriptionURI 속성에는, 속성값으로서 SDP의 URI 등이 설정된다.
섬네일 메타데이터로서의 USD는, 전술한 bundleDescription 요소, UserServiceDescription 요소, serviceId 속성, DeliveryMethod 요소, 및 sessionDescriptionURI 속성 외에, 섬네일 시그널링 정보를 포함한다.
또한, 섬네일 메타 데이터로서는, 이상과 같은 bundleDescription 요소, UserServiceDescription 요소, serviceId 속성, DeliveryMethod 요소, sessionDescriptionURI 속성, 및 섬네일 시그널링 정보를 포함하는 USD 대신에, bundleDescription 요소, UserServiceDescription 요소, serviceId 속성, DeliveryMethod 요소, 및 sessionDescriptionURI 속성 중 1 이상과 동등한 정보와, 섬네일 시그널링 정보를 포함하는 임의의 메타데이터를 채용할 수 있다.
도 11은, XML로 기술되는 섬네일 메타데이터로서의 USD의 예를 나타내는 도면이다.
bundleDescription 요소(71)는, 도 9의 User Service Bundle Description(61)에 상당하고, USD의 루트의 요소이다.
UserServiceDescription 요소(72)는, 도 9의 UserServiceDescription(62)에 상당한다. UserServiceDescription 요소(72)는, bundleDescription 요소(71)에 포함되고, 개개의 서비스에 상당한다.
/@r7:serviceClass 속성(73)은, UserServiceDescription 요소(72)에 속한다. 여기서, /@r7:serviceClass 속성(73)의 "r7"은, /@r7:serviceClass 속성(73)이 3GPP 사양의 릴리스(7)로 도입된 것을 나타낸다.
섬네일 메타데이터로서의 USD에 대해서는, /@r7:serviceClass 속성(73)의 속성값으로서의 스킴 식별자(serviceClass의 클래스명)로서, "urn:MosaicableComponents"가, 새롭게 채용되어 있다.
새로운 속성값 "urn:MosaicableComponents"는, 그 속성값 "urn:MosaicableComponents"가 설정되어 있는 /@r7:serviceClass 속성(73)이 기술된 USD에 응답하는 비디오(USD에 정보가 기술되어 있는 비디오)를 배신하는 서비스(채널)가 모자이크 화면을 구성하는 데 적합한 섬네일 비디오(을 포함하는 비디오)를 배신하는 서비스인 것을 나타낸다.
따라서, 속성값 "urn:MosaicableComponents"가 설정된 /@r7:serviceClass 속성(73)은, 비디오가 섬네일 비디오인 것을 나타내는 섬네일 시그널링 정보로서 기능한다(섬네일 시그널링 정보로서의 역할을 완수함).
또한, 도 11의 USD에서는, /@r7:serviceClass 속성(73) 외에, 후술하는 /@thumbnailVideo 속성도, 섬네일 시그널링 정보로서 기능한다. 그로 인해, 섬네일 시그널링 정보로서의 /@r7:serviceClass 속성(73)은 생략할 수 있다.
/DeliveryMethod 요소(74)는, 도 9의 Delivery Method(63)에 상당하고, /@sessionDescriptionURI 속성(75)을 포함한다.
/@sessionDescriptionURI 속성(75)에는, 그 /@sessionDescriptionURI 속성(75)을 포함하는 USD에 정보가 기술되어 있는 서비스가 제공하는 콘텐츠를 수신하기 위한, 멀티캐스트의 IP 어드레스 및 포트 번호가 기술된 SDP(121)의 URI(SDP(121)를 참조하기 위한 정보)가 설정된다.
기술(80, 90, 및 100)은, 각각, /r12:appServiceDescription 요소를, 최상위(계층)의 요소로 하는 기술이며, 하나의 모자이크 화면 MZ를 구성할 수 있는, 서로 다른 복수의 서비스(채널)(방송국) 각각이 제공하는 콘텐츠의 정보이다.
따라서, USD는, 하나의 모자이크 화면을 구성할 수 있는 복수의 콘텐츠 각각에 대한 /r12:appServiceDescription 요소를 포함한다.
여기서, 기술(80, 90, 및 100)은, 각각, 서비스 ch#1, ch#2 및 ch#3이 제공하는 콘텐츠의 정보인 것으로 한다.
기술(80)은, /UserServiceDescription 요소(72)에 포함되는 /r12:appServiceDescription 요소(81)를 포함한다. /r12:appServiceDescription 요소(81)는, 서비스 ch#1이 제공하는 콘텐츠(의 세그먼트)가 멀티캐스트 배신(또는 브로드 캐스트 배신)되는지, 또는 유니캐스트 배신되는지를, 클라이언트(13)에 시그널링하는 정보이다.
/r12:appServiceDescription 요소(81)는, /@mpdURI 속성을 포함하고, 또한 1 이상의 /broadcast 요소, 및 1 이상의 /unicast 요소 중 한쪽, 또는 양쪽을 포함한다(포함함).
여기서, /@mpdURI 속성에는, 그 /@mpdURI 속성을 포함하는 /r12:appServiceDescription 요소가 배신 방법을 나타내는 콘텐츠의 재생 제어를 행하기 위한 MPD의 URI가 설정된다.
/broadcast 요소는, 그 /broadcast 요소를 포함하는 /r12:appServiceDescription 요소가 배신 방법을 나타내는 콘텐츠의 URL을 나타내는 baseURL 속성을 포함하고, 그 baseURL 속성에 의해 URL이 표현되는 콘텐츠가, 멀티캐스트에 의해 배신되는 것을 나타낸다.
/unicast 요소는, 그 /unicast 요소를 포함하는 /r12:appServiceDescription 요소가 배신 방법을 나타내는 콘텐츠의 URL을 나타내는 baseURL 속성을 포함하고, 그 baseURL 속성에 의해 URL이 표현되는 콘텐츠가, 유니캐스트에 의해 배신되는 것을 나타낸다.
도 11에서는, 기술(80)에 있어서의 /r12:appServiceDescription 요소(81)는, /@mpdURI 속성(82)을 포함하고, 또한, 하나의 /broadcast 요소(83)와, 2개의 /unicast 요소(86, 및 87)를 포함하고 있다.
/r12:appServiceDescription 요소(81)가 하나의 /broadcast 요소(83)와, 2개의 /unicast 요소(86, 및 87)를 포함하고 있음으로써, /r12:appServiceDescription 요소(81)가 배신 방법을 나타내는 서비스 ch#1의 콘텐츠(의 스트림)로서, 멀티캐스트 배신되는 스트림이 1개 존재하고, 유니캐스트되는 스트림이 2개 존재하는 것을 인식할 수 있다.
/@mpdURI 속성(82)에는, 서비스 ch#1이 제공하는 콘텐츠의 MPD(111)의 URI가 설정된다.
/broadcast 요소(83)는 서비스 ch#1이 제공하는 콘텐츠가 있는 스트림(1311)이 멀티캐스트 배신되는 것을 나타내고, 도 11에서는, /@baseURL 속성과, /@thumbnailVideo 속성을 포함하고 있다.
/broadcast 요소(83)에 포함되는 /@baseURL 속성에는, /broadcast 요소(83)가 멀티캐스트 배신되는 것을 나타내는 콘텐츠의 스트림(1311)의 URL, 즉, /broadcast 요소(83)가 멀티캐스트 배신되는 것을 나타내는 서비스 ch#1의 콘텐츠 MPD(111)에 기술되는 스트림(1311)의 AdaptasionSet/baseURL(111A)이 설정된다.
/broadcast 요소(83)에 포함되는/@thumbnailVideo 속성은, boolean형 속성이며, /broadcast 요소(83)가 멀티캐스트 배신되는 것을 나타내는 콘텐츠의 스트림(1311)이 섬네일 비디오(의 스트림)인지 여부를 나타내는 섬네일 시그널링 정보로 서 기능한다.
도 11에서는, 스트림(1311)은 섬네일 비디오 TS#1의 스트림이 되어 있다.
/broadcast 요소(83)는, 또한 /association 요소(84)를 포함하고, /association 요소(84)는, /sessionDescription 요소(85)를 포함한다.
/sessionDescription 요소(85)는, /broadcast 요소(83)가 멀티캐스트 배신되는 것을 나타내는 콘텐츠의 스트림(1311)이 멀티캐스트 배신되는 IP 어드레스 및 포트 번호가 기술된 SDP(121)의 URI를 나타낸다. 즉, /sessionDescription 요소(85)는 /@sessionDescriptionURI 속성(75)이 나타내는 SDP(121)(의 URI)와 동일한 SDP(121)를 나타낸다.
/unicast 요소(86)는, 서비스 ch#1이 제공하는 콘텐츠의 다른 스트림(예를 들어, 메인 비디오 MS#1의 스트림)이 유니캐스트 배신되는 것을 나타내고, /@baseURL 속성을 포함한다.
/unicast 요소(86)에 포함되는 /@baseURL 속성에는, /unicast 요소(86)가 유니캐스트 배신되는 것을 나타내는 콘텐츠의 다른 스트림의 URL, 즉, /unicast 요소(86)가 유니캐스트 배신되는 것을 나타내는 콘텐츠의 MPD(111)에 기술되는 다른 스트림의 AdaptasionSet/baseURL(111B)이 설정된다.
/unicast 요소(87)는, 서비스 ch#1이 제공하는 콘텐츠의 또 다른 스트림(예를 들어, 오디오의 스트림)이 유니캐스트 배신되는 것을 나타내고, /@baseURL 속성을 포함한다.
/unicast 요소(87)에 포함되는 /@baseURL 속성에는, /unicast 요소(87)가 유니캐스트 배신되는 것을 나타내는 콘텐츠의 또 다른 스트림의 URL, 즉, /unicast 요소(87)가 유니캐스트 배신되는 것을 나타내는 콘텐츠의 MPD(111)에 기술되는 또 다른 스트림의 AdaptasionSet/baseURL(111C)이 설정된다.
기술(90, 및 100)에도, 각각, 서비스 ch#1 및 ch#2에 대하여, 기술(80)과 마찬가지의 정보가 포함된다.
여기서, 도 11에 있어서, /r12:appServiceDescription 요소(91) 내지 /unicast 요소(97)는, /r12:appServiceDescription 요소(81) 내지 /unicast 요소(87)와 각각 마찬가지의 정보이다.
또한, MPD(112 및 113)는, 각각, 서비스 ch#2 및 ch#3이 제공하는 콘텐츠의 MPD이다.
서비스 ch#2에서는 (서비스 ch#1 및 ch#3과 마찬가지), 섬네일 비디오 TS#2 (의 스트림)가 멀티캐스트 배신되고, 메인 비디오 MS#2, 및 오디오(의 스트림)가 유니캐스트 배신되게 되어 있으며, MPD(112)에는, 그들 AdaptasionSet/baseURL(및 segmentURL), 즉, 섬네일 비디오 TS#2의 AdaptasionSet/baseURL(112A), 메인 비디오 MS#2의 AdaptasionSet/baseURL(112B), 및 오디오의 AdaptasionSet/baseURL(112C)이 기술되어 있다.
또한, 도 11에 있어서, 서비스 ch#1이 제공하는 섬네일 비디오 TS#1, 서비스 ch#2가 제공하는 섬네일 비디오 TS#2, 및 서비스 ch#3이 제공하는 섬네일 비디오는, 화상 사이즈가, 예를 들어 480×270(가로×세로) 화소 등으로 동일하며, 예를 들어 1920×1080화소의 표시 화면에, 예를 들어 4행 4열로 배치되는 비디오로 되어 있다.
또한, 서비스 ch#1이 제공하는 섬네일 비디오 TS#1의 스트림(1311), 서비스 ch#2가 제공하는 섬네일 비디오 TS#2의 스트림(1312), 및 서비스 ch#3이 제공하는 섬네일 비디오의 스트림(1313)은, 예를 들어 MBMS 베어러 상의 하나의 FLUTE 세션 상에서 통합하여 멀티캐스트 배신된다.
SDP(121)에는, 이상과 같이, 서비스 ch#1이 제공하는 섬네일 비디오 TS#1의 스트림(1311), 서비스 ch#2가 제공하는 섬네일 비디오 TS#2의 스트림(1312), 및 서비스 ch#3이 제공하는 섬네일 비디오의 스트림(1313)을 하나의 FLUTE 세션에서 멀티캐스트 배신하는 IP 어드레스 및 포트 번호가 기술되어 있다.
클라이언트(13)에서는, 도 11의 USD를 수신함으로써, 섬네일 시그널링 정보로 서의 속성값 "urn:MosaicableComponents"가 설정된 /@r7:serviceClass 속성(73)이나, /@thumbnailVideo 속성에 의해, 섬네일 비디오가 배신되는 것을 인식할 수 있다.
또한, 클라이언트(13)에서는, /@thumbnailVideo 속성을 포함하는 /broadcast 요소(83) 등에 의해, 멀티캐스트 배신되는 스트림이 존재하고, 그 멀티캐스트 배신되는 스트림이, 섬네일 비디오(의 스트림)인 것을 인식할 수 있다.
그리고, 클라이언트(13)에서는, /broadcast 요소(83)/association 요소(84)/sessionDescription 요소(85) 등이 나타내는 SDP(121)의 URI에 의해, 섬네일 비디오가 멀티캐스트 배신되는 IP 어드레스 및 포트 번호가 기술된 SDP(121)를 수신하고, 그 SDP(121)에 기술된 IP 어드레스, 및 포트 번호에 기초하여, 하나의 FLUTE 세션에서 멀티캐스트 배신되는 서비스 ch#1이 제공하는 섬네일 비디오 TS#1의 스트림(1311), 서비스 ch#2가 제공하는 섬네일 비디오 TS#2의 스트림(1312), 및 서비스 ch#3이 제공하는 섬네일 비디오의 스트림(1313)을 수신할 수 있다.
따라서, 클라이언트(13)에서는, 하나의 모자이크 화면 MZ를 구성하는, 복수의 서비스 각각이 제공하는 콘텐츠로서의 서비스 ch#1의 섬네일 비디오 TS#1, 서비스 ch#2의 섬네일 비디오 TS#2, 및 서비스 ch#3의 섬네일 비디오를 수신하고, 그들 섬네일 비디오를 사용하여, 모자이크 화면 MZ를 용이하게 생성할 수 있다.
또한, 도 11의 USD에는, 콘텐츠가 멀티캐스트 배신(또는 브로드 캐스트 배신)되는지, 또는 유니캐스트 배신되는지를 나타내는 /r12:appServiceDescription 요소(/r12:appServiceDescription 요소(81이나 91))가 3개 기술되어 있지만, 하나의 USD에 기술하는 /r12:appServiceDescription 요소의 수는, 3개로 한정되는 것은 아니다.
즉, 하나의 USD에는, 예를 들어 하나의 모자이크 화면 MZ를 구성할 수 있는 섬네일 비디오를 제공하는 서비스의 수만큼의 /r12:appServiceDescription 요소를 기술할 수 있다.
하나의 모자이크 화면 MZ를 구성할 수 있는 섬네일 비디오로서는, 예를 들어 야구 중계 등의 동일한 장르의 섬네일 비디오를 채용할 수 있다. 단, 하나의 모자이크 화면 MZ를 구성할 수 있는 섬네일 비디오는, 동일한 장르의 섬네일 비디오로 한정되는 것은 아니다.
또한, 클라이언트(13)에서는, 서비스 ch#1의 섬네일 비디오 TS#1, 서비스 ch#2의 섬네일 비디오 TS#2, 및 서비스 ch#3의 섬네일 비디오가 배치된 모자이크 화면 MZ를 본 유저가, 그 모자이크 화면 MZ에 있어서의 어떤 섬네일 비디오를 선택한 경우에, 표시 화면을, 모자이크 화면 MZ로부터, 유저가 선택한 섬네일 비디오를 제공하는 서비스에 의해 제공되고 있는 메인 비디오(및 오디오)로 전환하는 채널 선택을 행할 수 있다.
예를 들어, 유저가, 서비스 ch#1의 섬네일 비디오 TS#1을 선택한 경우, 클라이언트(13)에서는, 서비스 ch#1에 대한 /r12:appServiceDescription 요소(81)(서비스 ch#1의 섬네일 비디오 TS#1이 멀티캐스트 배신되는 것을 나타내는 /broadcast 요소(83)를 포함하는 /r12:appServiceDescription 요소(81))에 포함되는 /@mpdURI 속성(82)에 기초하여, 서비스 ch#1의 콘텐츠 MPD(111)을 취득(수신, 인식)할 수 있다.
또한, 클라이언트(13)에서는, 서비스 ch#1에 대한 /r12:appServiceDescription 요소(81)에 포함되는 /unicast 요소(86, 및 87)에 기초하여, 서비스 ch#1의 메인 비디오 MS#1 및 오디오가 유니캐스트 배신되는 것을 인식할 수 있다.
그리고, 클라이언트(13)에서는, MPD(111)에 기초하여, 서비스 ch#1의 메인 비디오 MS#1 및 오디오를 요구하는 HTTP 리퀘스트를 송신하고, 그 HTTP 리퀘스트에 응답하여 유니캐스트 배신되는 서비스 ch#1의 메인 비디오 MS#1 및 오디오를 수신하여 재생할 수 있다.
또한, 서비스 ch#1의 메인 비디오 MS#1 및 오디오는, 유니캐스트 배신하는 외에, 서비스 ch#1의 섬네일 비디오 TS#1과 마찬가지로, 멀티캐스트 배신할 수 있다.
서비스 ch#1의 메인 비디오 MS#1 및 오디오(또한, 하나의 모자이크 화면 MZ를 구성할 수 있는 섬네일 비디오를 제공하는 서비스의 메인 비디오 및 오디오)는, 서비스 ch#1의 섬네일 비디오 TS#1(또한, 하나의 모자이크 화면 MZ를 구성할 수 있는 다른 채널의 섬네일 비디오)과 함께, 동일한 FLUTE 세션에서 멀티캐스트 배신할 수 있다.
이 경우, 클라이언트(13)에서의 채널 선택의 퍼포먼스를 현저히 향상시키는 것, 즉, 모자이크 화면 MZ로부터, 유저가 선택한 섬네일 비디오를 제공하는 서비스의 메인 비디오 및 오디오로의 전환을, 매우 신속하게 행할 수 있다.
<섬네일 메타데이터로서의 MPD>
도 12는, 섬네일 메타데이터로서의 MPD의 개요를 나타내는 도면이다.
섬네일 메타데이터로서의 MPD는, DASH의 MPD와 마찬가지로 구성된다.
즉, 어떤 콘텐츠 C의 MPD는, 1개 이상의 Period를 갖는다.
Period는, 콘텐츠 C를 시간 방향으로 구분한 구간을 나타내고, Period에는, 그 Period가 나타내는 구간의 start 시각 등이 기술된다.
Period는, 필요한 수의 AdaptationSet를 갖는다. AdaptationSet는, 예를 들어 비디오나 오디오, 자막 등의 미디어마다 준비되고, AdaptationSet에는, 언어나 코덱의 정보 등이 기술된다.
AdaptationSet는, 필요한 수의 Representation을 갖는다. Representation은, 예를 들어 비트 레이트들마다 준비되고, Representation에는, 비트 레이트나 화상 사이즈 등이 기술된다.
Representation은, 필요한 수의 SegmentInfo를 갖고, SegmentInfo에는, 세그먼트의 정보가 기술된다.
도 13은, XML로 기술되는 섬네일 메타데이터로서의 MPD를 구성하는 XML의 요소, 및 속성의 예를 나타내는 도면이다.
MPD는, MPD(요소), MPD/@profile(속성), MPD/Period(요소), 및 MPD/@minBufferTime(속성)을 포함한다.
MPD 요소는, 루트의 요소이며, /@profile 속성, 및 /@minBufferTime 속성을 포함한다.
/Period 요소는, 그 /Period 요소가 기술된 MPD에 응답하는 콘텐츠(MPD에 의해 재생 제어가 행해지는 콘텐츠)를 시간 방향으로 구획한 구간의 정보이며, 그 구간 내의 세그먼트를 통합하기 위해서 사용된다.
/@profile 속성은, 그 /@profile 속성이 기술된 MPD가 따르는 운용 프로파일을 나타내고, /@minBufferTime 속성은, 그 /@minBufferTime 속성이 기술된 MPD에 응답하는 콘텐츠의 재생을 개시할 때까지 필요한 최소의 버퍼 시간(데이터의 버퍼량)을 나타낸다.
섬네일 메타데이터로서의 MPD는, 전술한 MPD 요소, /@profile 속성, /Period 요소 및 /@minBufferTime 속성 외에, 섬네일 시그널링 정보를 포함한다.
MPD에 포함되는 섬네일 시그널링 정보로서는, 예를 들어 그 MPD에 의해 재생 제어가 행해지는 콘텐츠가 섬네일 비디오인 것을 나타내는 정보가 속성값으로서 기술된 MPD/Period/AdaptationSet/ViewPoint/@schemeIdURI 속성을 채용할 수 있다.
또한, 섬네일 메타 데이터로서는, 이상과 같은 MPD 요소, /@profile 속성, /Period 요소, /@minBufferTime 속성, 및 섬네일 시그널링 정보를 포함하는 MPD 대신에, MPD 요소, /@profile 속성, /Period 요소, /@minBufferTime 속성 중 1 이상과 동등한 정보와, 섬네일 시그널링 정보를 포함하는 임의의 메타데이터를 채용할 수 있다.
도 14는, XML로 기술되는 섬네일 메타데이터로서의 MPD의 예를 나타내는 도면이다.
즉, 도 14는, 비디오 섬네일을 포함하는 콘텐츠(예를 들어, 서비스 ch#1이 제공하는 콘텐츠로서의 섬네일 비디오 TS#1, 메인 비디오 MS#1 및 오디오)의 MPD의 예를 나타내고 있다.
도 14의 MPD에서는, MPD 요소를 루트의 요소로서, 그 MPD 요소에 속하는 Period 요소, 그 Period 요소에 속하는 AdaptationSet 요소, 및 그 AdaptationSet 요소에 속하는 ViewPoint 요소가 기술되어 있다.
도 14에 있어서, 기술(141)에 있어서의 AdaptationSet 요소는, 섬네일 비디오의 AdaptationSet(요소)이며, width 속성 및 height 속성을 포함하고 있다.
기술(141)에 있어서의 width='480' height='270'은, 섬네일의 화상 사이즈가, 480×270화소인 것을 나타낸다.
화상 사이즈 그 밖의, 섬네일 비디오의 표시에 관계되는 정보는, 기술(141)에 있어서의 AdaptationSet 요소에 속하는 속성, 또는 AdaptationSet 요소에 포함되는 요소로서 기술된다.
기술(142)에 있어서의 ViewPoint 요소는, schemeIdURI 속성을 포함하고, 도 14에서는, schemeIdURI 속성에, 속성값 "urn:thumbnailVideo"가 설정되어 있다.
속성값 "urn:thumbnailVideo"는, 그 속성값 "urn:thumbnailVideo"를 포함하는 MPD(MPD/Period/AdaptationSet/ViewPoint/@schemeIdURI)에 의해 재생 제어가 행해지는 콘텐츠가 섬네일 비디오인 것을 나타내는 새로운 스킴 식별자이다.
속성값 "urn:thumbnailVideo"가 설정된, ViewPoint 요소에 속하는 schemeIdURI 속성은, 섬네일 시그널링 정보로서 기능한다.
또한, 섬네일 비디오(의 스트림)로서, 서로 다른 복수의 비트 레이트의 스트림이 준비되어 있는 경우에는, 기술(141)에 있어서의 AdaptationSet 요소에는, 섬네일 비디오의 복수의 비트 레이트마다, Representation 요소를 포함할 수 있다.
이상과 같은 MPD에 의하면, 클라이언트(13)에서는, 섬네일 비디오(의 세그먼트)를 특정하고, 그 섬네일 비디오를 취득하여, 섬네일 비디오로 구성되는 모자이크 화면을, 용이하게 생성할 수 있다.
<섬네일 메타데이터로서의 OMA-ESG>
도 15는, 섬네일 메타데이터로서의 OMA-ESG의 데이터 모델의 예를 나타내는 도면이다.
도 15의 섬네일 메타데이터의 데이터 모델은, OMA-ESG의 데이터 모델과 마찬가지로 구성된다.
단, 섬네일 메타데이터로서의 OMA-ESG에서는, 그 OMA-ESG에 정보가 기술되는 서비스가 제공하는 콘텐츠의 비디오가 섬네일 비디오인 것을 나타내는 섬네일 시그널링 정보가, Service(151)에 포함된다.
또한, 섬네일 메타데이터로서의 OMA-ESG에서는, Access(152)가, 섬네일 비디오의 정보가 기술된 USD(도 11)로의 참조로서의, 예를 들어 USD의 URI를 포함한다.
도 16은, XML로 기술되는 섬네일 메타데이터로서의 OMA-ESG를 구성하는 XML의 요소, 및 속성의 예를 나타내는 도면이다.
OMA-ESG는, Access(요소), Access/@id(속성), Access/@version(속성), Access/AccessType(요소), Access/AccessType/BroadcastServiceDelivery(요소), Access/AccessType/BroadcastServiceDelivery/SessionDescription(요소), Access/AccessType/UnicastServiceDelivery(요소), Access/ServiceClass(요소), 및 Access/AccessType/BroadcastServiceDelivery/SessionDescription/USBDRef(요소)를 포함한다.
Access 요소는, 도 15의 Access(152)에 상당하고, 서비스에 관한 서비스 정보를 참조하는, 서비스에 액세스하기 위한 액세스 정보이다.
/@id 속성은, 액세스 정보(Access 요소)를 식별하는 액세스 정보 식별자이며, /@version 속성은, 액세스 정보의 기술 내용의 버전을 나타내는 버전 정보이다.
/AccessType 요소는, 서비스가, 방송형 서비스, 및 쌍방향형 서비스 중 어느 것인지를 나타내는 정보이며, /BroadcastServiceDelivery 요소는, 서비스가, 방송형 서비스인 것을 나타내는 정보이다.
/SessionDescription 요소는, 세션 디스크립션을 나타내는 정보이며, UnicastServiceDelivery 요소는, 서비스가, 쌍방향형 서비스인 것을 나타내는 정보이다.
/ServiceClass 요소는, 서비스의 클래스를 나타내는 정보이며, /USBDRef 요소는, 섬네일 비디오의 정보가 기술된 USD(도 11)를 참조하기 위한, 예를 들어 그 USD의 URI를 포함하는 정보이다.
섬네일 메타데이터로서의 OMA-ESG는, 전술한 Access 요소, Access/@id 속성, Access/@version 속성, Access/AccessType 요소, Access/AccessType/BroadcastServiceDelivery 요소, Access/AccessType/BroadcastServiceDelivery/SessionDescription 요소, Access/AccessType/UnicastServiceDelivery 요소, Access/ServiceClass 요소, 및 /USBDRef 요소 외에, 섬네일 시그널링 정보를 포함한다.
OMA-ESG에 포함되는 섬네일 시그널링 정보로서는, 예를 들어 그 OMA-ESG에 응답하는 서비스(그 OMA-ESG에 정보가 기술되는 서비스)가 제공하는 콘텐츠가 섬네일 비디오인 것을 나타내는 정보가 기술된 /ServiceType 요소를 채용할 수 있다.
/ServiceType 요소는, Service 요소에 포함되는 정보이다. Service 요소는, 도 15의 Service(151)에 상당하고, 서비스에 관한 서비스 정보이다. Service 요소에는, 그 Service 요소(서비스 정보)를 식별하는 서비스 식별자로서의 globalServiceID 속성이 속한다(포함된다).
또한, 섬네일 메타 데이터로서는, 이상과 같은 Access 요소, Access/@id 속성, Access/@version 속성, Access/AccessType 요소, Access/AccessType/BroadcastServiceDelivery 요소, Access/AccessType/BroadcastServiceDelivery/SessionDescription 요소, Access/AccessType/UnicastServiceDelivery 요소, Access/ServiceClass 요소, /USBDRef 요소, 및 섬네일 시그널링 정보를 포함하는 OMA-ESG 대신에, Access 요소, Access/@id 속성, Access/@version 속성, Access/AccessType 요소, Access/AccessType/BroadcastServiceDelivery 요소, Access/AccessType/BroadcastServiceDelivery/SessionDescription 요소, Access/AccessType/UnicastServiceDelivery 요소, Access/ServiceClass 요소, 및 /USBDRef 요소 중 1 이상과 동등한 정보와, 섬네일 시그널링 정보를 포함하는 임의의 메타데이터를 채용할 수 있다.
도 17은, XML로 기술되는 섬네일 메타데이터로서의 OMA-ESG의 예를 나타내는 도면이다.
도 17의 A는, 섬네일 메타데이터로서의 OMA-ESG의 Service 요소의 예를 나타내고 있으며, 도 17의 B는, 섬네일 메타데이터로서의 OMA-ESG의 Access 요소의 예를 나타내고 있다.
도 17의 A의 Service 요소에서는, 그 Service 요소가 기술된 OMA-ESG에 응답하는 서비스가 제공하는 비디오가 섬네일 비디오인 것을 나타내는 값으로서의, 예를 들어 12가, /ServiceType 요소의 신규값으로서 도입되어 있다.
그리고, /ServiceType 요소에, 그 신규값으로서의 12가 설정되어 있다.
도 17의 A의 Service 요소는, 서비스 식별자로서의 Service/globalServiceID 속성을 포함하고, 그 globalServiceID 속성에는, 도 17의 A의 Service 요소의 서비스 식별자로서의 ID(Identification)가 설정되어 있다.
여기서, /ServiceType 요소에, 신규값 12가 설정되어 있는 경우, 그 /ServiceType 요소를 포함하는 Service 요소에 정보가 기술되는 콘텐츠에는, 적어도 모자이크 화면을 구성하는 데 적합한 섬네일 비디오가 포함된다.
도 17의 B의 Access 요소에서는, /USBDRef 요소에, 그 /USBDRef 요소가 기술된 OMA-ESG에 응답하는 서비스가 제공하는 섬네일 비디오의 정보가 기술된 USD(의 루트의 요소인 bundleDescription 요소(도 11))로의 참조로서의, 예를 들어 그 USD의 URI를 포함하는 정보가 기술되어 있다.
또한, 도 17의 B의 Access 요소는, Access/ServiceReference 요소를 포함하고, 그 /ServiceReference 요소는, Access/ServiceReference/@idRef 속성을 포함하고 있다.
그리고, /@idRef 속성에는, 그 /@idRef 속성이 기술된 Access 요소가 참조할 Service 요소의 ID로서, 도 17의 A의 Service 요소의 globalServiceID 속성으로 설정되어 있는 값이 설정되어 있다.
도 18은, 도 17의 섬네일 메타데이터로서의 OMA-ESG를 설명하는 도면이다.
클라이언트(13)는, 도 17의 섬네일 메타데이터로서의 OMA-ESG를 수신한 경우, 도 17의 B의 Access 요소의 /@idRef 속성에 기초하여, 도 17의 A의 Service 요소를 참조할 수 있다.
클라이언트(13)는, 도 17의 A의 Service 요소의, 신규값 12가 기술되어 있는 /ServiceType 요소를 참조함으로써, 그 Service 요소가 기술된 OMA-ESG에 응답하는 서비스가 제공하는 비디오가 섬네일 비디오인 것을 인식할 수 있다.
그리고, 클라이언트(13)에 있어서, 도 17의 A의 Service 요소가 기술된 OMA-ESG에 응답하는 서비스가 제공하는 섬네일 비디오가 필요한 경우에는, 도 17의 B의 Access 요소의 /USBDRef 요소를 참조함으로써, 그 /USBDRef 요소가 기술된 OMA-ESG에 응답하는 서비스가 제공하는 섬네일 비디오의 정보가 기술된 USD(의 루트의 요소인 bundleDescription 요소(도 11))로의 참조로서의 URI를 인식하고, 그 URI에 기초하여, 섬네일 비디오의 정보가 기술된 USD(도 11)를 취득(수신)할 수 있다.
그 후, 클라이언트(13)에서는, 도 11의 USD를 수신한 경우와 마찬가지로 하여, 섬네일 비디오를 수신하고, 그 섬네일 비디오를 사용하여, 모자이크 화면을 용이하게 생성할 수 있다.
또한, MPD, SDP, USD, 및 OMA-ESG의 조합을, 섬네일 메타데이터로서 사용하는 경우에는, OMA-ESG의 Service/ServiceType 요소로부터, 비디오가 섬네일 비디오 인지 여부를 인식할 수 있으므로, USD(도 11)의 /@r7:serviceClass 속성(73)은, 생략할 수 있다.
<콘텐츠의 배신 방법>
도 19는, 섬네일 비디오를 포함하는 콘텐츠의 배신 방법의 제1 예를 나타내는 도면이다.
또한, 도 19에서는, 예를 들어 3개의 방송국(서비스)의 채널 ch#1, ch#2, 및 ch#3의 각각에 있어서, 메인 비디오, 오디오, 및 섬네일 비디오의 3개의 스트림이 배신되도록 한다.
또한, 채널 ch#i(여기에서는, i=1, 2, 3)에 의해 배신되는 메인 비디오, 오디오, 및 섬네일 비디오를, 각각, 메인 비디오 MS#i, 오디오 AS#i, 및 섬네일 비디오 TM#i로 나타낸다.
후술하는 도 20 및 도 21과 도 27 내지 도 29에서도 마찬가지이다.
도 19에서는, 메인 비디오 MS#1 내지 MS#3, 오디오 AS#1 내지 AS#3, 및 섬네일 비디오 TM#1 내지 TM#3은, 멀티캐스트 배신(예를 들어, 멀티캐스트 FLUTE 세션에 의한 멀티캐스트 배신), 및 유니캐스트 배신(예를 들어, 유니캐스트 HTTP 세션에 의한 유니캐스트 배신) 중 어느 것으로도 배신할 수 있다.
그리고, 메인 비디오 MS#1 내지 MS#3, 오디오 AS#1 내지 AS#3, 및 섬네일 비디오 TM#1 내지 TM#3이, 멀티캐스트 배신되는 경우에는, 섬네일 비디오 TM#1 내지 TM#3은, 하나의 FLUTE 세션 FS-T에서 멀티캐스트 배신된다.
또한, 메인 비디오 MS#1은, 하나의 FLUTE 세션 FS-M#1에서, 메인 비디오 MS#2는, 하나의 FLUTE 세션 FS-M#2에서, 메인 비디오 MS#3은, 하나의 FLUTE 세션 FS-M#3에서, 각각 멀티캐스트 배신된다.
또한, 오디오 AS#1은, 하나의 FLUTE 세션 FS-A#1에서, 오디오 AS#2는, 하나의 FLUTE 세션 FS-A#2에서, 오디오 AS#3은, 하나의 FLUTE 세션 FS-A#3에서, 각각 멀티캐스트 배신된다.
또한, 채널 ch#1의 콘텐츠 MPD#1에는, 메인 비디오 MS#1, 오디오 AS#1, 및 섬네일 비디오 TM#1의 각각의 AdaptationSet(요소)가 포함된다. 또한, MPD#1의 섬네일 비디오 TM#1의 AdaptationSet에는, 그 AdaptationSet(의 비디오)가 섬네일 비디오인 것을 시그널링하는 섬네일 시그널링 정보로서의, 속성값 "urn:thumbnailVideo"가 설정된, ViewPoint/@schemeIdURI 속성이 포함된다. 또한, 속성값 "urn:thumbnailVideo" 등을 설정하는 /@schemeIdURI 속성이 속하는 요소로서는, ViewPoint 요소 외에, 예를 들어 Role 요소나, EssentialProperty 요소, SupplementalProperty 요소 등의 ViewPoint 요소와 마찬가지의 구조의 요소를 채용할 수 있다.
채널 ch#2 및 ch#3 각각의 콘텐츠 MPD도, 마찬가지이다.
도 20은, 섬네일 비디오를 포함하는 콘텐츠의 배신 방법의 제2 예를 나타내는 도면이다.
도 20에서는, 도 19와 마찬가지로, 메인 비디오 MS#1 내지 MS#3, 오디오 AS#1 내지 AS#3, 및 섬네일 비디오 TM#1 내지 TM#3은, 멀티캐스트 배신 및 유니캐스트 배신 중 어느 것으로도 배신할 수 있다.
그리고, 메인 비디오 MS#1 내지 MS#3, 오디오 AS#1 내지 AS#3, 및 섬네일 비디오 TM#1 내지 TM#3이, 멀티캐스트 배신되는 경우에는, 섬네일 비디오 TM#1 내지 TM#3은, 도 19와 마찬가지로, 하나의 FLUTE 세션 FS-T에서 멀티캐스트 배신된다.
또한, 메인 비디오 MS#1, 및 오디오 AS#1은, 하나의 FLUTE 세션 FS#1에서, 메인 비디오 MS#2, 및 오디오 AS#2는, 하나의 FLUTE 세션 FS#2에서, 메인 비디오 MS#3, 및 오디오 AS#3은, 하나의 FLUTE 세션 FS#3에서, 각각 멀티캐스트 배신된다.
또한, 채널 ch#1의 콘텐츠 MPD#1, 채널 ch#2의 콘텐츠 MPD, 및 채널 ch#3의 콘텐츠 MPD는, 도 19의 경우와 마찬가지로 구성된다.
도 21은, 섬네일 비디오를 포함하는 콘텐츠의 배신 방법의 제3 예를 나타내는 도면이다.
도 21에서는, 도 19와 마찬가지로, 메인 비디오 MS#1 내지 MS#3, 오디오 AS#1 내지 AS#3, 및 섬네일 비디오 TM#1 내지 TM#3은, 멀티캐스트 배신, 및 유니캐스트 배신 중 어느 것으로도 배신할 수 있다.
그리고, 메인 비디오 MS#1 내지 MS#3, 오디오 AS#1 내지 AS#3, 및 섬네일 비디오 TM#1 내지 TM#3이, 멀티캐스트 배신되는 경우에는, 그들 메인 비디오 MS#1 내지 MS#3, 오디오 AS#1 내지 AS#3, 및 섬네일 비디오 TM#1 내지 TM#3의 모두가, 하나의 FLUTE 세션 FS에서 멀티캐스트 배신된다.
또한, 채널 ch#1의 콘텐츠 MPD#1, 채널 ch#2의 콘텐츠 MPD, 및 채널 ch#3의 콘텐츠 MPD는, 도 19의 경우와 마찬가지로 구성된다.
<모자이크 화면의 표시예>
도 22는, 클라이언트(13)에서의 모자이크 화면의 표시예를 나타내는 도면이다.
클라이언트(13)에서는, 전술한 바와 같이, 섬네일 메타데이터로서의 MPD, SDP, 및 USD의 조합이나, 그들에, OMA-ESG를 추가한 조합에 기초하여, 섬네일 비디오를 수신하고, 그 섬네일 비디오를 격자형 등으로 배치한 모자이크 화면을 표시할 수 있다.
도 22의 A는, 16개의 섬네일 비디오를, 4행 4열로 배치한 모자이크 화면의 예를 나타내고 있으며, 도 22의 B는, 4개의 섬네일 비디오를, 2행 2열로 배치한 모자이크 화면의 예를 나타내고 있다.
또한, 클라이언트(13)에 있어서, 16개의 섬네일 비디오를 수신한 경우, 각 섬네일 비디오의 화상 사이즈가, 예를 들어 480×270화소이며, 클라이언트(13)의 표시 화면의 사이즈가, 예를 들어 1920×1080화소(이상)일 때에는, 도 22의 A에 도시한 바와 같이, 클라이언트(13)에 의해 수신한 16개의 섬네일 비디오 모두를 4행 4열로 배치한 모자이크 화면을 표시할 수 있다.
그러나, 클라이언트(13)의 표시 화면의 사이즈가, 1920×1080화소보다 작은, 예를 들어 960×540화소인 경우에는, 클라이언트(13)에 있어서, 16개의 섬네일 비디오를 수신하여도, 모자이크 화면으로서 표시하는 섬네일 비디오의 수는, 도 22의 B에 도시한 바와 같이, 4개로 제한된다.
이상과 같이, 클라이언트(13)의 표시 화면의 사이즈가 작고, 모자이크 화면으로서 표시하는 섬네일 비디오의 수가, 클라이언트(13)가 수신한 섬네일 비디오의 수보다도 적은 수로 제한되는 경우에는, 예를 들어 클라이언트(13)의 표시 화면의 사이즈에 따라서, 섬네일 비디오의 화상 사이즈를 작은 화상 사이즈로 가공함으로써, 클라이언트(13)가 수신한 섬네일 비디오 모두를, 모자이크 화면에 표시할 수 있다.
즉, 480×270화소의 섬네일 비디오를, 240×135 화소의 섬네일 비디오로 가공함으로써, 960×540화소의 표시 화면에, 16개의 섬네일 비디오의 모두를, 모자이크 화면으로서 표시할 수 있다.
그러나, 이 경우, 클라이언트(13)에 있어서, 섬네일 비디오의 화상 사이즈를 가공할 필요가 있어, 클라이언트(13)의 처리 부담이 커진다. 또한, 섬네일 비디오의 화상 사이즈를 작은 화상 사이즈로 가공하여, 모자이크 화면을 구성(생성)하는 경우에는, 각 섬네일 비디오가 잘 보이지 않게 되는 경우가 있다.
그런데, 전술한 바와 같이, 모자이크 화면으로서 표시하는 섬네일 비디오의 수가 제한되는 경우에는 물론, 제한되지 않는 경우에도, 모자이크 화면을 구성하는 섬네일 비디오(모자이크 화면으로서 표시하는 섬네일 비디오)를 유저의 기호나, 어떠한 우선도 등에 기초하여, 모자이크 화면을 구성하는 섬네일 비디오를 선택(필터링)할 수 있으면, 유저에 있어서 적절한(최적의) 모자이크 화면을 제공할 수 있다.
따라서, 본 기술에서는, 콘텐츠(섬네일 비디오)의 내용을 기술하는 속성인 콘텐츠 디스크립션 메타메이터를 도입하고, 클라이언트(13)에 있어서, 콘텐츠 디스크립션 메타메이터를 사용하여, 모자이크 화면을 구성하는 섬네일 비디오를 선택함으로써, 유저에 있어서 적절한 모자이크 화면을 제공한다.
<콘텐츠 디스크립션 메타메이터를 도입한 MPD의 제1 예>
도 23은, 콘텐츠 디스크립션 메타메이터를 도입한 섬네일 메타데이터로서의 MPD의 제1 예를 나타내는 도면이다.
도 23의 MPD는, 도 14의 기술(142) 대신에, 기술(201)이 제공되어 있는 외에는, 도 14의 MPD와 마찬가지로 구성된다.
기술(201)에 있어서의 ViewPoint 요소는, 도 14의 기술(142)과 마찬가지로, schemeIdURI 속성을 포함하고, 도 23에서는, schemeIdURI 속성에, 속성값 "urn:thumbnailVideo:dic"가 설정되어 있다.
속성값 "urn:thumbnailVideo:dic" 중, 콜론(:) 앞의 기술 "urn:thumbnailVideo"는, 도 14에서 설명한 바와 같이, 콘텐츠가 섬네일 비디오인 것을 나타내는 새로운 스킴 식별자이며, 이 스킴 식별자 "urn:thumbnailVideo"에 의하면, 클라이언트(13)는 콘텐츠(의 비디오)가 섬네일 비디오인 것을 인식할 수 있다.
속성값 "urn:thumbnailVideo:dic" 중, 콜론에 이어지는 기술 "dic"는, 후술하는 value 속성의 구성 요소를 정의하는 사전을 지정하는 정보(사전 정의)이다.
기술(201)에 있어서의 ViewPoint 요소는, 이상과 같은 schemeIdURI 속성 외에, 새로운 속성인 value 속성을 포함한다.
value 속성은, 그 value 속성을 포함하는 MPD(MPD/Period/AdaptationSet/ViewPoint)에 의해 재생 제어가 행해지는 콘텐츠의 내용을 기술하는 콘텐츠 디스크립션 메타메이터이며, value 속성에는, 콘텐츠의 내용을 나타내는 항목이, 속성값으로서 설정된다.
도 23에서는, value 속성에는, 속성값 "X, Y, Z, …"가 기술되어 있다.
value 속성에는, 속성값으로서, 1 이상의 항목을 기술할 수 있고, value 속성에, 복수의 항목을, 속성값으로서 설정하는 경우에는, 복수의 항목 X, Y, Z, …는, 예를 들어 도 23에 도시한 바와 같이, 콤마(,)로 구획해서 기술된다.
value 속성으로 설정된 속성값을 구성하는 구성 요소인 항목은, 전술한 바와 같이, 속성값 "urn:thumbnailVideo:dic"의 콜론에 이어지는 기술 "dic"에 의해 지정되는 사전으로 정의된다.
따라서, 클라이언트(13)에서는, 속성값 "urn:thumbnailVideo:dic"의 콜론에 이어지는 기술 "dic"에 의해 지정되는 사전에 기초하여, value 속성으로 설정된 속성값의 각 항목의 정의(의미 내용)를 인식할 수 있다.
예를 들어, 이제, 속성값 "urn:thumbnailVideo:dic"의 콜론에 이어지는 기술 "dic"에 의해 지정되는 사전에 있어서, value 속성으로 설정되는 속성값의 1개째, 2개째, 및 3개째의 항목이, 각각, 장르를 나타내는 장르 식별 정보, 나라를 나타내는 나라 식별 정보, 및 지역을 나타내는 지역 식별 정보인 것이 정의되어 있다고 하자.
이 경우, 예를 들어 콘텐츠(의 섬네일 비디오)의 장르가, 야구 시합을 중계하는 "baseball(야구 중계)"이며, 야구 시합이 개최되고 있는 개최국이 "US(미국)"이며, 야구 시합이 개최되고 있는 개최 지역이 "CA(캘리포니아)"일 때, 집약 서버(12)(의 메타데이터 제네레이터(32)(도 3))에서는, value 속성에, 속성값 "baseball, US, CA"가 설정된다(인코드된다).
클라이언트(13)에서는, 속성값 "urn:thumbnailVideo:dic"의 콜론에 이어지는 기술 "dic"에 의해 지정되는 사전에 기초하여, value 속성으로 설정되어 있는 속성값 "baseball, US, CA"로부터, 콘텐츠의 장르가, 야구 중계이며, 야구 시합은, 미국의 캘리포니아에서 개최되고 있는 것을 인식할 수 있다.
도 24는, 하나의 FLUTE 세션에서 멀티캐스트 배신되는 복수의 섬네일 비디오(의 스트림)의 예를 모식적으로 나타내는 도면이다.
예를 들어, 하나의 FLUTE 세션에서, 화상 사이즈가 480×270화소로 동일한 16개의 섬네일 비디오가 멀티캐스트 배신되고 있으며, 그 16개의 섬네일 비디오의 (AdaptationSet가 기술된) MPD에서는, 섬네일 비디오의 AdaptationSet 요소에 포함되는 ViewPoint 요소에 속하는 속성 schemeIdURI 속성에, 도 23과 마찬가지의 속성값 "urn:thumbnailVideo:dic"가 설정되어 있다고 하자.
또한, 각 섬네일 비디오에 대하여, value 속성에, 도 24에 도시한 속성값이 설정되어 있다고 하자.
이 경우, 클라이언트(13)의 표시 화면의 사이즈가, 예를 들어 1920×1080화소(이상)일 때에는, 클라이언트(13)에서는, 도 22의 A에 도시한 바와 같이, 하나의 FLUTE 세션에서 배신되어 오는, 화상 사이즈가 480×270화소의 16개의 섬네일 비디오 모두를, 4행 4열로 배치한 모자이크 화면이 표시된다.
한편, 클라이언트(13)의 표시 화면의 사이즈가, 1920×1080화소보다 작은, 예를 들어 960×540화소일 때에는, 클라이언트(13)에 있어서, 모자이크 화면으로서 표시하는 섬네일 비디오의 수는, 도 22의 B에 도시한 바와 같이, 16개의 섬네일 비디오 중, 2행 2열로 4개로 제한된다.
따라서, 이 경우, 16개의 섬네일 비디오 중에서 모자이크 화면에 표시하는 4개의 섬네일 비디오를 선택할 필요가 있다.
따라서, 클라이언트(13)는, 섬네일 비디오에 대한 value 속성(에 설정된 속성값)을 사용하여, 모자이크 화면에 표시하는(모자이크 화면을 구성하는) 4개의 섬네일 비디오를 선택하는 필터링(이하, '섬네일 필터링'이라고도 함)을 행한다.
섬네일 필터링은, 예를 들어 클라이언트(13)의 유저 기호를 나타내는 기호 정보 등에 기초하여 행할 수 있다.
즉, 예를 들어 유저가, 미국(US)의 캘리포니아(CA)에서 개최되는 중계를 시청하는 빈도가 높은 경우나, 유저가 있는 장소(클라이언트(13)의 위치)가 미국의 캘리포니아인 경우 등에는, 섬네일 필터링에서는, 16개의 섬네일 비디오 중에서 value 속성으로 설정되어 있는 속성값 중의 나라 식별 정보가 미국을 나타내는 "US"이고, 지역 식별 정보가 캘리포니아를 나타내는 "CA"로 되어 있는 섬네일 비디오가, 모자이크 화면에 표시하는 섬네일 비디오로서 선택된다.
또한, 섬네일 필터링에 의해 선택된 섬네일 비디오의 수가, 모자이크 화면에 표시할 수 있는 섬네일 비디오의 수보다도 많은 경우에는, 클라이언트(13)에서는, 예를 들어 섬네일 필터링에 의해 선택된 섬네일 비디오 중에서 모자이크 화면에 표시할 수 있는 수의 섬네일 비디오를, 예를 들어 랜덤하게 선택할 수 있다. 또는, 클라이언트(13)의 표시 화면보다도 큰 사이즈의 모자이크 화면을 생성하고, 그 모자이크 화면을, 유저의 조작 등에 따라서 스크롤시킬 수 있다.
이상과 같이, 섬네일 비디오를 클라이언트(13)에 의해 섬네일 필터링하기 위한 동적으로 변경 가능한 지표로서의 value 속성을 MPD에 부가함으로써, 클라이언트(13)의 디바이스 렌더링 환경의 제약으로서의 표시 화면의 사이즈에 맞춘 효율적인 모자이크 화면에 의한 서비스 셀렉션 프로세스(채널 선택)를 실현할 수 있다.
<콘텐츠 디스크립션 메타메이터를 도입한 MPD의 제2 예>
도 25는, 콘텐츠 디스크립션 메타메이터를 도입한 섬네일 메타데이터로서의 MPD의 제2 예를 나타내는 도면이다.
도 25의 MPD는, 도 23의 기술(201) 대신에, 기술(211, 및 212)이 제공되어 있는 외에는 도 23의 MPD와 마찬가지로 구성된다.
기술(211, 및 212)에 있어서의 ViewPoint 요소는, 도 23의 기술(201)에 있어서의 ViewPoint 요소와 마찬가지로, schemeIdURI 속성, 및 콘텐츠 디스크립션 메타메이터로서의 value 속성을 포함하고 있다.
기술(211)에서는, schemeIdURI 속성에, 속성값 "urn:thumbnailVideo:dic"가 설정되어 있으며, 기술(212)에서는, schemeIdURI 속성에, 속성값 "urn:thumbnailVideo:JapaneseParameters"가 설정되어 있다.
도 23에서 설명한 바와 같이, ViewPoint 요소에 속하는 schemeIdURI 속성으로 설정되는 속성값 "urn:thumbnailVideo:dic"나, "urn:thumbnailVideo:JapaneseParameters" 중의, 콜론 앞의 기술 "urn:thumbnailVideo"는, 콘텐츠가 섬네일 비디오인 것을 나타내는 스킴 식별자이며, 이 스킴 식별자 "urn:thumbnailVideo"에 의하면, 클라이언트(13)는 콘텐츠(의 비디오)가 섬네일 비디오인 것을 인식할 수 있다.
또한, 도 23에서 설명한 바와 같이, 속성값 "urn:thumbnailVideo:dic"나, "urn:thumbnailVideo:JapaneseParameters" 중의, 콜론에 이어지는 기술 "dic"나, "JapaneseParameters"는, value 속성의 구성 요소를 정의하는 사전을 지정하는 정보(사전 정의)이다.
이제, 기술 "dic", 및 "JapaneseParameters"에 의해 지정되는 사전에 있어서, 예를 들어 value 속성으로 설정되는 속성값의 1개째, 2개째, 및 3개째의 항목이, 각각, 장르를 나타내는 장르 식별 정보, 나라를 나타내는 나라 식별 정보, 및 지역을 나타내는 지역 식별 정보인 것이 정의되어 있다고 하자.
단, 기술 "dic"에 의해 지정되는 사전(이하, "dic" 사전이라고도 함)에서는, 장르 식별 정보, 나라 식별 정보, 및 지역 식별 정보의 언어가, 예를 들어 영어인 것이 규정(정의)되고, 기술 "JapaneseParameters"에 의해 지정되는 사전(이하, "JapaneseParameters" 사전이라고도 함)에서는, 장르 식별 정보, 나라 식별 정보 및 지역 식별 정보의 언어가, 영어와 다른 언어인, 예를 들어 일본어인 것이 규정되어 있다.
이로 인해, "dic" 사전이 지정되어 있는 기술(211)에서는, value 속성에, 장르 식별 정보, 나라 식별 정보, 및 지역 식별 정보로서의 속성값이, "baseball, US, CA"와 같이, 영어로 기술되어 있다.
한편, "JapaneseParameters" 사전이 지정되어 있는 기술(212)에서는, value 속성에, 장르 식별 정보, 나라 식별 정보 및 지역 식별 정보로서의 속성값이,
Figure pct00001
와 같이, 일본어로 기술되어 있다.
이상과 같이, MPD(의 AdaptationSet 요소 중)에는, 복수의 ViewPoint 요소를 배치하고, 서로 다른 언어에 의해, value 속성(으로 설정되는 속성값)을 기술할 수 있다.
<콘텐츠 디스크립션 메타메이터를 도입한 MPD의 제3 예>
도 26은, 콘텐츠 디스크립션 메타메이터를 도입한 섬네일 메타데이터로서의 MPD의 제3 예를 나타내는 도면이다.
도 26의 MPD는, 도 23의 기술(201) 대신에, 기술(221)이 설치되어 있는 외에는, 도 23의 MPD와 마찬가지로 구성된다.
기술(221)에 있어서의 ViewPoint 요소는, 도 23의 기술(201)에 있어서의 ViewPoint 요소와 마찬가지로, schemeIdURI 속성 및 콘텐츠 디스크립션 메타메이터로서의 value 속성을 포함하고 있다.
기술(211)에서는, schemeIdURI 속성에, 속성값 "http://baseballAuthority.com/thumbnailVideoGenre"이 설정되어 있다.
속성값 "http://baseballAuthority.com/thumbnailVideoGenre"는, 콘텐츠가 섬네일 비디오인 것을 나타내는 스킴 식별자와, value 속성의 구성 요소를 정의하는 사전을 지정하는 정보(사전 정의)의 양쪽의 역할을 한다.
따라서, 클라이언트(13)는 속성값 "http://baseballAuthority.com/thumbnailVideoGenre"에 의해, 콘텐츠(의 비디오)가 섬네일 비디오인 것을 인식할 수 있다.
또한, 속성값 "http://baseballAuthority.com/thumbnailVideoGenre"는, http의 URL이며, 이 http의 URL은, value 속성의 구성 요소(항목)를 정의하는 사전의 어드레스를 나타낸다.
이상과 같이, http의 URL에 의해, value 속성의 구성 요소를 정의하는 사전을 지정하는 경우에는, value 속성의 구성 요소를 정의하는 사전을, 인터넷 등의 네트워크 상의 (web) 서버에 배치할 수 있고, (클라이언트(13)가 쌍방향 베어러를 이용할 수 없는 케이스에 구비하여,) 섬네일 비디오를 배신하는 것과 동일한 FLUTE 세션에서 배신할 수 있다.
이 경우, value 속성의 구성 요소를 정의하는 사전을 용이하게 변경할 수 있으며, 따라서, 그 사전에 의한 value 속성의 구성 요소의 정의 변경(추가, 삭제를 포함함)을 유연하고 또한 용이하게 행할 수 있다.
<콘텐츠의 배신 방법>
도 27, 도 28, 및 도 29는, MPD에, 콘텐츠 디스크립션 메타메이터로서의 value 속성을 도입한 경우의, 섬네일 비디오를 포함하는 콘텐츠의 배신 방법의 예를 나타내는 도면이다.
즉, 도 27은, 섬네일 비디오를 포함하는 콘텐츠의 배신 방법의 제4 예를, 도 28은, 섬네일 비디오를 포함하는 콘텐츠의 배신 방법의 제5 예를, 도 29는, 섬네일 비디오를 포함하는 콘텐츠의 배신 방법의 제6 예를, 각각 나타내는 도면이다.
도 27 내지 도 29에서는, 도 19 내지 도 21의 경우와 각각 마찬가지로, 3개의 방송국(서비스)의 채널 ch#1 내지 ch#3의 메인 비디오 MS#1 내지 MS#3, 오디오 AS#1 내지 AS#3, 및 섬네일 비디오 TM#1 내지 TM#3이 배신된다.
또한, 도 27 내지 도 29에서는, 도 19 내지 도 21의 경우와 마찬가지로, 채널 ch#1의 콘텐츠 MPD#1에는, 메인 비디오 MS#1, 오디오 AS#1, 및 섬네일 비디오 TM#1의 각각의 AdaptationSet(요소)가 포함되고, MPD#1의 섬네일 비디오 TM#1의 AdaptationSet에는, 그 AdaptationSet(의 비디오)가 섬네일 비디오인 것을 시그널링하는 섬네일 시그널링 정보로서의, 예를 들어 속성값 "urn:thumbnailVideo"가 설정된, ViewPoint/@schemeIdURI 속성이 포함된다.
또한, 도 27 내지 도 29에서는, MPD#1의 섬네일 비디오 TM#1의 AdaptationSet에, 콘텐츠 디스크립션 메타메이터로서의 value 속성(, 및 value 속성의 구성 요소를 정의하는 사전을 지정하는 정보)이 포함되고, 이 점이, 도 19 내지 도 21의 경우와 상이하다.
이상과 같이, 도 27 내지 도 29는, MPD#1(채널 ch#2 및 ch#3 각각의 콘텐츠 MPD도 마찬가지)의 섬네일 비디오 TM#1의 AdaptationSet에, 콘텐츠 디스크립션 메타메이터로서의 value 속성이 포함되는 점 이외에는, 도 19 내지 도 21과 각각 마찬가지이기 때문에, 그 설명은 생략한다.
<클라이언트(13)에서의 모자이크 화면의 표시>
도 30은, 클라이언트(13)에서의 모자이크 화면의 표시의 처리예를 설명하는 흐름도이다.
스텝 S101에 있어서, 미들웨어(41)(도 4)는 USD를 수신함으로써, 또는 OMA-ESG를 수신하고, 그 OMA-ESG에 기초하여 USD를 수신함으로써, 섬네일 비디오의 USD를 수집하여, 처리는 스텝 S102로 진행된다.
스텝 S102에서는, 미들웨어(41)가 섬네일 비디오의 USD에 기초하여 섬네일 비디오의 MPD를 수신하고, DASH 클라이언트(42)(도 4)에 공급하여(건네서), 처리는 스텝 S103으로 진행된다.
스텝 S103에서는, DASH 클라이언트(42)는 미들웨어(41)로부터의 섬네일 비디오의 MPD에 기초하여, 그 섬네일 비디오(의 세그먼트)를 요구하는 HTTP 리퀘스트를, 미들웨어(41)에 발하여, 처리는 스텝 S104로 진행된다.
스텝 S104에서는, 미들웨어(41)는 DASH 클라이언트(42)에 의한 HTTP 리퀘스트에 의해 요구된 섬네일 비디오가 멀티캐스트 배신되고 있는지 여부를, USD나 OMA-ESG에 기초하여 판정한다.
스텝 S104에 있어서, 섬네일 비디오가 멀티캐스트 배신되고 있다고 판정된 경우, 처리는, 스텝 S105로 진행하고, 미들웨어(41)는 멀티캐스트 배신되어 오는 섬네일 비디오를 수신하여, DASH 클라이언트(42)에 공급하고, 처리는 스텝 S107로 진행된다.
한편, 스텝 S104에 있어서, 섬네일 비디오가 멀티캐스트 배신되고 있지 않다고 판정된 경우, 처리는 스텝 S106으로 진행되고, 미들웨어(41)는 DASH 클라이언트(42)로부터의 HTTP 리퀘스트를, 네트워크(10) 상에 발한다. 또한, 미들웨어(41)는 그 HTTP 리퀘스트에 응답하여, 채널 서버(11)(또는 집약 서버(12))로부터 유니캐스트 배신되어 오는 섬네일 비디오를 수신하여, DASH 클라이언트(42)에 공급하고, 처리는, 스텝 S107로 진행한다.
스텝 S107에서는, 수신부(40)(도 4)는, 섬네일 필터링이 온으로 되어 있는지 여부를 판정한다.
여기서, 섬네일 필터링의 온 및 오프, 즉, 섬네일 필터링을 행할지, 행하지 않을지는, 예를 들어 클라이언트(13)를 조작함으로써 설정할 수 있다.
스텝 S107에 있어서, 섬네일 필터링이 온으로 되었다고 판정된 경우, 처리는 스텝 S108로 진행되고, DASH 클라이언트(42)는 미들웨어(41)로부터 공급된 섬네일 비디오를 대상으로 하여, 그 섬네일 비디오의 MPD에 기술된 콘텐츠 디스크립션 메타메이터로서의 value 속성을 사용하여 섬네일 필터링을 행하고, 미들웨어(41)로부터 공급된 섬네일 비디오 중에서 모자이크 화면을 구성하는 섬네일 비디오를 선택하여, 재생부(43)(도 4)에 공급한다.
여기서, 섬네일 필터링에 의해 선택된 섬네일 비디오의 수가, 모자이크 화면에 표시할 수 있는 섬네일 비디오의 수보다도 많은 경우에는, 클라이언트(13)에서는, 예를 들어 섬네일 필터링에 의해 선택된 섬네일 비디오 중에서 모자이크 화면에 표시할 수 있는 수(이하)의 섬네일 비디오를, 예를 들어 랜덤하게 선택할 수 있다.
한편, 스텝 S107에 있어서, 섬네일 필터링이 온으로 되지 않았다고 판정된 경우, 처리는 스텝 S109로 진행되고, DASH 클라이언트(42)는 미들웨어(41)로부터 공급된 섬네일 비디오 중에서 모자이크 화면에 표시할 수 있는 수의 섬네일 비디오를, 예를 들어 랜덤하게 선택하고, 재생부(43)에 공급한다.
스텝 S108 및 S109의 후, 처리는 스텝 S110으로 진행되고, 재생부(43)는 DASH 클라이언트(42)로부터의 섬네일 비디오를 배열한 모자이크 화면을 구성하여 표시하고, 모자이크 화면의 표시 처리는 종료된다.
<본 기술을 적용한 컴퓨터의 설명>
다음으로, 전술한 일련의 처리는, 하드웨어에 의해 행할 수도 있고, 소프트웨어에 의해 행할 수도 있다. 일련의 처리를 소프트웨어에 의해 행하는 경우에는, 그 소프트웨어를 구성하는 프로그램이, 범용의 컴퓨터 등에 인스톨된다.
따라서, 도 31은, 전술한 일련의 처리를 실행하는 프로그램이 인스톨되는 컴퓨터의 일 실시 형태의 구성예를 나타내고 있다.
프로그램은, 컴퓨터에 내장되어 있는 기록 매체로서의 하드디스크(405)나 ROM(403)에 미리 기록해 둘 수 있다.
또한, 프로그램은, 리무버블 기록 매체(411)에 저장(기록)해 둘 수 있다. 이와 같은 리무버블 기록 매체(411)는 소위 패키지 소프트웨어로서 제공할 수 있다. 여기서, 리무버블 기록 매체(411)로서는, 예를 들어 플렉시블디스크, CD-ROM(Compact Disc Read Only Memory), MO(Magneto Optical) 디스크, DVD(Digital Versatile Disc), 자기디스크, 반도체 메모리 등이 있다.
또한, 프로그램은, 전술한 바와 같은 리무버블 기록 매체(411)로부터 컴퓨터에 인스톨하는 외에, 통신망이나 방송망을 통해 컴퓨터에 다운로드하고, 내장된 하드디스크(405)에 인스톨할 수 있다. 즉, 프로그램은, 예를 들어 다운로드 사이트로부터, 디지털 위성 방송용 인공위성을 통해 컴퓨터에 무선으로 전송하거나, LAN(Local Area Network), 인터넷 등의 네트워크를 통해 컴퓨터에 유선으로 전송할 수 있다.
컴퓨터는, CPU(Central Processing Unit)(402)를 내장하고 있으며, CPU(402)에는, 버스(401)를 통해 입출력 인터페이스(410)가 접속되어 있다.
CPU(402)는, 입출력 인터페이스(410)를 통해 유저에 의해, 입력부(407)가 조작 등이 됨으로써 명령이 공급되면, 그것에 따라서, ROM(403: Read Only Memory)에 저장되어 있는 프로그램을 실행한다.
또는, CPU(402)는, 하드디스크(405)에 저장된 프로그램을, RAM(404: Random Access Memory)에 로드하여 실행한다.
이에 의해, CPU(402)는, 전술한 흐름도에 따른 처리, 혹은 전술한 블록도의 구성에 의해 행해지는 처리를 행한다. 그리고, CPU(402)는, 그 처리 결과를, 필요에 따라서, 예를 들어 입출력 인터페이스(410)를 통해 출력부(406)로부터 출력, 혹은 통신부(408)로부터 송신, 나아가 하드디스크(405)에 기록 등을 시킨다.
또한, 입력부(407)는 키보드나, 마우스, 마이크 등으로 구성된다. 또한, 출력부(406)는 LCD(Liquid Crystal Display)나 스피커 등으로 구성된다.
여기서, 본 명세서에 있어서, 컴퓨터가 프로그램에 따라서 행하는 처리는, 반드시 흐름도로서 기재된 순서를 따라서 시계열로 행해질 필요는 없다. 즉, 컴퓨터가 프로그램에 따라서 행하는 처리는, 병렬적 혹은 개별로 실행되는 처리(예를 들어, 병렬 처리 또는 오브젝트에 의한 처리)도 포함한다.
또한, 프로그램은, 하나의 컴퓨터(프로세서)에 의해 처리되는 것이어도 되고, 복수의 컴퓨터에 의해 분산 처리되는 것이어도 된다. 또한, 프로그램은, 원격 컴퓨터에 전송되어 실행되는 것이어도 된다.
또한, 본 명세서에 있어서, 시스템이란, 복수의 구성 요소(장치, 모듈(부품) 등)의 집합을 의미하고, 모든 구성 요소가 동일 하우징 내에 있는지 여부는 묻지 않는다. 따라서, 별개의 하우징에 수납되고, 네트워크를 통해 접속되어 있는 복수의 장치, 및 1개의 하우징 내에 복수의 모듈이 수납되어 있는 1개의 장치는, 모두 시스템이다.
또한, 본 기술의 실시 형태는, 전술한 실시 형태로 한정되는 것이 아니라, 본 기술의 요지를 일탈하지 않는 범위에서 다양한 변경이 가능하다.
예를 들어, 본 기술은, 1개의 기능을 네트워크를 통해 복수의 장치에서 분담, 공동하여 처리하는 클라우드 컴퓨팅의 구성을 취할 수 있다.
또한, 전술한 흐름도에서 설명한 각 스텝은, 1개의 장치로 실행하는 외에, 복수의 장치에서 분담하여 실행할 수 있다.
또한, 1개의 스텝에 복수의 처리가 포함되는 경우에는, 그 1개의 스텝에 포함되는 복수의 처리는, 1개의 장치로 실행하는 외에, 복수의 장치에서 분담하여 실행할 수 있다.
또한, 본 기술은, DASH 이외의 콘텐츠의 배신에 적용할 수 있다.
또한, 본 명세서에 기재된 효과는 어디까지나 예시로서 한정되는 것은 아니며, 다른 효과가 있어도 된다.
또한, 본 기술은, 이하와 같은 구성을 취할 수 있다.
<1>
속성과 속성값을 이용하여 기술되는 메타데이터이며,
비디오가, 모자이크 화면을 구성하는 데 적합한 섬네일 비디오인 것을 나타내는 시그널링 정보와,
콘텐츠의 재생을 개시할 때까지 필요한 최소의 버퍼 시간을 나타내는 상기 속성
을 포함하는 콘텐츠의 메타데이터를 배신하는 배신부를 구비하는, 송신 장치.
<2>
상기 메타데이터는, 루트 요소, 상기 메타데이터가 따르는 운용 프로파일을 나타내는 상기 속성, 상기 콘텐츠를 시간 방향으로 구획한 세그먼트의 정보 중 1 이상을 더 포함하는, 상기 <1>에 기재된 송신 장치.
<3>
상기 메타데이터는, MPEG-DASH(Moving Picture Experts Group-Dynamic Adaptive Streaming over HTTP)의 MPD(Media Presentation Description)이며,
상기 루트 요소인 MPD 요소와,
상기 MPD가 따르는 운용 프로파일을 나타내는 상기 속성인 MPD/@profile 속성과,
상기 콘텐츠를 시간 방향으로 구획한 세그먼트의 정보인 MPD/Period 요소와,
상기 콘텐츠의 재생을 개시할 때까지 필요한 최소의 버퍼 시간을 나타내는 상기 속성인 MPD/@minBufferTime 속성
을 포함하는, 상기 <2>에 기재된 송신 장치.
<4>
상기 MPD는, 그 MPD에 의해 재생 제어가 행해지는 콘텐츠가 상기 섬네일 비디오인 것을 나타내는 정보가 속성값으로서 기술된 MPD/Period/AdaptationSet/ViewPoint/@schemeIdURI 속성, MPD/Period/AdaptationSet/Role/@schemeIdURI 속성, MPD/Period/AdaptationSet/EssentialProperty/@schemeIdURI 속성, 또는 MPD/Period/AdaptationSet/SupplementalProperty/@schemeIdURI 속성을, 상기 시그널링 정보로서 포함하는, 상기 <3>에 기재된 송신 장치.
<5>
상기 메타데이터는, 상기 콘텐츠의 내용을 기술하는 상기 속성인 콘텐츠 디스크립션 메타메이터를 더 포함하는, 상기 <1>에 기재된 송신 장치.
<6>
상기 메타데이터는, 상기 콘텐츠 디스크립션 메타메이터의 구성 요소를 정의하는 사전의 지정을 더 포함하는, 상기 <5>에 기재된 송신 장치.
<7>
상기 콘텐츠 디스크립션 메타메이터는, 상기 모자이크 화면의 구성에 사용하는 섬네일 비디오를 선택하는 필터링에 사용되는, 상기 <5> 또는 <6>에 기재된 송신 장치.
<8>
상기 메타데이터는, MPEG-DASH(Moving Picture Experts Group-Dynamic Adaptive Streaming over HTTP)의 MPD(Media Presentation Description)이며,
상기 콘텐츠 디스크립션 메타메이터는, MPD/Period/AdaptationSet/ViewPoint 요소의 속성인, 상기 <5> 내지 <7> 중 어느 하나에 기재된 송신 장치.
<9>
속성과 속성값을 이용하여 기술되는 메타데이터이며,
비디오가, 모자이크 화면을 구성하는 데 적합한 섬네일 비디오인 것을 나타내는 시그널링 정보와,
콘텐츠의 재생을 개시할 때까지 필요한 최소의 버퍼 시간을 나타내는 상기 속성
을 포함하는 콘텐츠의 메타데이터를 배신하는 스텝을 포함하는, 송신 방법.
<10>
속성과 속성값을 이용하여 기술되는 메타데이터이며,
비디오가, 모자이크 화면을 구성하는 데 적합한 섬네일 비디오인 것을 나타내는 시그널링 정보와,
콘텐츠의 재생을 개시할 때까지 필요한 최소의 버퍼 시간을 나타내는 상기 속성
을 포함하는 콘텐츠의 메타데이터를 수신하는 수신부를 구비하는, 수신 장치.
<11>
상기 메타데이터는, 루트 요소, 상기 메타데이터가 따르는 운용 프로파일을 나타내는 상기 속성, 상기 콘텐츠를 시간 방향으로 구획한 세그먼트의 정보 중 1 이상을 더 포함하는, 상기 <10>에 기재된 수신 장치.
<12>
상기 메타데이터는, MPEG-DASH(Moving Picture Experts Group-Dynamic Adaptive Streaming over HTTP)의 MPD(Media Presentation Description)이며,
상기 루트 요소인 MPD 요소와,
상기 MPD가 따르는 운용 프로파일을 나타내는 상기 속성인 MPD/@profile 속성과,
상기 콘텐츠를 시간 방향으로 구획한 세그먼트의 정보인 MPD/Period 요소와,
상기 콘텐츠의 재생을 개시할 때까지 필요한 최소의 버퍼 시간을 나타내는 상기 속성인 MPD/@minBufferTime 속성
을 포함하는, 상기 <11>에 기재된 수신 장치.
<13>
상기 MPD는, 그 MPD에 의해 재생 제어가 행해지는 콘텐츠가 상기 섬네일 비디오인 것을 나타내는 정보가 속성값으로서 기술된 MPD/Period/AdaptationSet/ViewPoint/@schemeIdURI 속성, MPD/Period/AdaptationSet/Role/@schemeIdURI 속성, MPD/Period/AdaptationSet/EssentialProperty/@schemeIdURI 속성, 또는 MPD/Period/AdaptationSet/SupplementalProperty/@schemeIdURI 속성을, 상기 시그널링 정보로서 포함하는, 상기 <12>에 기재된 수신 장치.
<14>
상기 메타데이터는, 상기 콘텐츠의 내용을 기술하는 상기 속성인 콘텐츠 디스크립션 메타메이터를 더 포함하는, 상기 <10>에 기재된 수신 장치.
<15>
상기 메타데이터는, 상기 콘텐츠 디스크립션 메타메이터의 구성 요소를 정의하는 사전의 지정을 더 포함하는, 상기 <14>에 기재된 수신 장치.
<16>
상기 콘텐츠 디스크립션 메타메이터는, 상기 모자이크 화면의 구성에 사용하는 섬네일 비디오를 선택하는 필터링에 사용되는, 상기 <14> 또는 <15>에 기재된 수신 장치.
<17>
상기 메타데이터는, MPEG-DASH(Moving Picture Experts Group-Dynamic Adaptive Streaming over HTTP)의 MPD(Media Presentation Description)이며,
상기 콘텐츠 디스크립션 메타메이터는, MPD/Period/AdaptationSet/ViewPoint 요소의 속성인, 상기 <14> 내지 <16> 중 어느 하나에 기재된 수신 장치.
<18>
속성과 속성값을 이용하여 기술되는 메타데이터이며,
비디오가, 모자이크 화면을 구성하는 데 적합한 섬네일 비디오인 것을 나타내는 시그널링 정보와,
콘텐츠의 재생을 개시할 때까지 필요한 최소의 버퍼 시간을 나타내는 상기 속성
을 포함하는 콘텐츠의 메타데이터를 수신하는 스텝을 포함하는, 수신 방법.
11: 채널 서버
12: 집약 서버
13: 클라이언트
14: NTP 서버
21: 콘텐츠 매니지먼트 서버
22: 세그먼트 스트리머
23: MPD 서버
31: 스트림 애그리게이터
32: 메타데이터 제네레이터
33: FLUTE 스트리머
34: 멀티캐스트 서버
35: web 서버
40: 수신부
41: 미들웨어
42: DASH 클라이언트
43: 재생부
401: 버스
402: CPU
403: ROM
404: RAM
405: 하드디스크
406: 출력부
407: 입력부
408: 통신부
409: 드라이브
140: 입출력 인터페이스
411: 리무버블 기록 매체

Claims (18)

  1. 속성과 속성값을 이용하여 기술되는 메타데이터이며,
    비디오가, 모자이크 화면을 구성하는 데 적합한 섬네일 비디오인 것을 나타내는 시그널링 정보와,
    콘텐츠의 재생을 개시할 때까지 필요한 최소의 버퍼 시간을 나타내는 상기 속성
    을 포함하는 콘텐츠의 메타데이터를 배신하는 배신부를 구비하고,
    상기 메타데이터는, 루트 요소, 상기 메타데이터가 따르는 운용 프로파일을 나타내는 상기 속성, 상기 콘텐츠를 시간 방향으로 구획한 세그먼트의 정보 중 1 이상을 포함하는, 송신 장치.
  2. 제1항에 있어서,
    상기 메타데이터는, MPEG-DASH(Moving Picture Experts Group-Dynamic Adaptive Streaming over HTTP)의 MPD(Media Presentation Description)이며,
    상기 루트 요소인 MPD 요소와,
    상기 MPD가 따르는 운용 프로파일을 나타내는 상기 속성인 MPD/@profile 속성과,
    상기 콘텐츠를 시간 방향으로 구획한 세그먼트의 정보인 MPD/Period 요소와
    상기 콘텐츠의 재생을 개시할 때까지 필요한 최소의 버퍼 시간을 나타내는 상기 속성인 MPD/@minBufferTime 속성
    을 포함하는, 송신 장치.
  3. 제2항에 있어서,
    상기 MPD는, 그 MPD에 의해 재생 제어가 행해지는 콘텐츠가 상기 섬네일 비디오인 것을 나타내는 정보가 속성값으로서 기술된 MPD/Period/AdaptationSet/ViewPoint/@schemeIdURI 속성, MPD/Period/AdaptationSet/Role/@schemeIdURI 속성, MPD/Period/AdaptationSet/EssentialProperty/@schemeIdURI 속성, 또는 MPD/Period/AdaptationSet/SupplementalProperty/@schemeIdURI 속성을, 상기 시그널링 정보로서 포함하는, 송신 장치.
  4. 속성과 속성값을 이용하여 기술되는 메타데이터이며,
    비디오가, 모자이크 화면을 구성하는 데 적합한 섬네일 비디오인 것을 나타내는 시그널링 정보와,
    콘텐츠의 재생을 개시할 때까지 필요한 최소의 버퍼 시간을 나타내는 상기 속성
    을 포함하는 콘텐츠의 메타데이터를 배신하는 스텝을 포함하고,
    상기 메타데이터는, 루트 요소, 상기 메타데이터가 따르는 운용 프로필 프로파일을 나타내는 상기 속성, 상기 콘텐츠를 시간 방향으로 구획한 세그먼트의 정보 중 1 이상을 포함하는, 송신 방법.
  5. 속성과 속성값을 이용하여 기술되는 메타데이터이며,
    비디오가, 모자이크 화면을 구성하는 데 적합한 섬네일 비디오인 것을 나타내는 시그널링 정보와,
    콘텐츠의 재생을 개시할 때까지 필요한 최소의 버퍼 시간을 나타내는 상기 속성
    을 포함하는 콘텐츠의 메타데이터를 배신하는 배신부를 구비하고,
    상기 메타데이터는, 상기 콘텐츠의 내용을 기술하는 상기 속성인 콘텐츠 디스크립션 메타메이터를 포함하는, 송신 장치.
  6. 제5항에 있어서,
    상기 메타데이터는, 상기 콘텐츠 디스크립션 메타메이터의 구성 요소를 정의하는 사전의 지정을 더 포함하는, 송신 장치.
  7. 제6항에 있어서,
    상기 콘텐츠 디스크립션 메타메이터는, 상기 모자이크 화면의 구성에 사용하는 섬네일 비디오를 선택하는 필터링에 사용되는, 송신 장치.
  8. 제7항에 있어서,
    상기 메타데이터는, MPEG-DASH(Moving Picture Experts Group-Dynamic Adaptive Streaming over HTTP)의 MPD(Media Presentation Description)이며,
    상기 콘텐츠 디스크립션 메타메이터는, MPD/Period/AdaptationSet/ViewPoint 요소의 속성인, 송신 장치.
  9. 속성과 속성값을 이용하여 기술되는 메타데이터이며,
    비디오가, 모자이크 화면을 구성하는 데 적합한 섬네일 비디오인 것을 나타내는 시그널링 정보와,
    콘텐츠의 재생을 개시할 때까지 필요한 최소의 버퍼 시간을 나타내는 상기 속성
    을 포함하는 콘텐츠의 메타데이터를 배신하는 스텝을 포함하고,
    상기 메타데이터는, 상기 콘텐츠의 내용을 기술하는 상기 속성인 콘텐츠 디스크립션 메타메이터를 포함하는, 송신 방법.
  10. 속성과 속성값을 이용하여 기술되는 메타데이터이며,
    비디오가, 모자이크 화면을 구성하는 데 적합한 섬네일 비디오인 것을 나타내는 시그널링 정보와,
    콘텐츠의 재생을 개시할 때까지 필요한 최소의 버퍼 시간을 나타내는 상기 속성
    을 포함하는 콘텐츠의 메타데이터를 수신하는 수신부를 구비하고,
    상기 메타데이터는, 루트 요소, 상기 메타데이터가 따르는 운용 프로파일을 나타내는 상기 속성, 상기 콘텐츠를 시간 방향으로 구획한 세그먼트의 정보 중 1 이상을 포함하는, 수신 장치.
  11. 제10항에 있어서,
    상기 메타데이터는, MPEG-DASH(Moving Picture Experts Group-Dynamic Adaptive Streaming over HTTP)의 MPD(Media Presentation Description)이며,
    상기 루트 요소인 MPD 요소와,
    상기 MPD가 따르는 운용 프로파일을 나타내는 상기 속성인 MPD/@profile 속성과,
    상기 콘텐츠를 시간 방향으로 구획한 세그먼트의 정보인 MPD/Period 요소와,
    상기 콘텐츠의 재생을 개시할 때까지 필요한 최소의 버퍼 시간을 나타내는 상기 속성인 MPD/@minBufferTime 속성
    을 포함하는, 수신 장치.
  12. 제11항에 있어서,
    상기 MPD는, 그 MPD에 의해 재생 제어가 행해지는 콘텐츠가 상기 섬네일 비디오인 것을 나타내는 정보가 속성값으로서 기술된 MPD/Period/AdaptationSet/ViewPoint/@schemeIdURI 속성, MPD/Period/AdaptationSet/Role/@schemeIdURI 속성, MPD/Period/AdaptationSet/EssentialProperty/@schemeIdURI 속성, 또는 MPD/Period/AdaptationSet/SupplementalProperty/@schemeIdURI 속성을, 상기 시그널링 정보로서 포함하는, 수신 장치.
  13. 속성과 속성값을 이용하여 기술되는 메타데이터이며,
    비디오가, 모자이크 화면을 구성하는 데 적합한 섬네일 비디오인 것을 나타내는 시그널링 정보와,
    콘텐츠의 재생을 개시할 때까지 필요한 최소의 버퍼 시간을 나타내는 상기 속성
    을 포함하는 콘텐츠의 메타데이터를 수신하는 스텝을 포함하고,
    상기 메타데이터는, 루트 요소, 상기 메타데이터가 따르는 운용 프로파일을 나타내는 상기 속성, 상기 콘텐츠를 시간 방향으로 구획한 세그먼트의 정보 중 1 이상을 포함하는, 수신 방법.
  14. 속성과 속성값을 이용하여 기술되는 메타데이터이며,
    비디오가, 모자이크 화면을 구성하는 데 적합한 섬네일 비디오인 것을 나타내는 시그널링 정보와,
    콘텐츠의 재생을 개시할 때까지 필요한 최소의 버퍼 시간을 나타내는 상기 속성
    을 포함하는 콘텐츠의 메타데이터를 수신하는 수신부를 구비하고,
    상기 메타데이터는, 상기 콘텐츠의 내용을 기술하는 상기 속성인 콘텐츠 디스크립션 메타메이터를 포함하는, 수신 방법.
  15. 제14항에 있어서,
    상기 메타데이터는, 상기 콘텐츠 디스크립션 메타메이터의 구성 요소를 정의하는 사전의 지정을 더 포함하는 수신 장치.
  16. 제15항에 있어서,
    상기 콘텐츠 디스크립션 메타메이터는, 상기 모자이크 화면의 구성에 사용하는 섬네일 비디오를 선택하는 필터링에 사용되는, 수신 장치.
  17. 제16항에 있어서,
    상기 메타데이터는, MPEG-DASH(Moving Picture Experts Group-Dynamic Adaptive Streaming over HTTP)의 MPD(Media Presentation Description)이며,
    상기 콘텐츠 디스크립션 메타메이터는, MPD/Period/AdaptationSet/ViewPoint 요소의 속성인, 수신 장치.
  18. 속성과 속성값을 이용하여 기술되는 메타데이터이며,
    비디오가, 모자이크 화면을 구성하는 데 적합한 섬네일 비디오인 것을 나타내는 시그널링 정보와,
    콘텐츠의 재생을 개시할 때까지 필요한 최소의 버퍼 시간을 나타내는 상기 속성
    을 포함하는 콘텐츠의 메타데이터를 수신하는 스텝을 포함하고,
    상기 메타데이터는, 상기 콘텐츠의 내용을 기술하는 상기 속성인 콘텐츠 디스크립션 메타메이터를 포함하는, 수신 방법.
KR1020167010410A 2013-10-30 2014-09-04 송신 장치, 송신 방법, 수신 장치, 및 수신 방법 KR20160077067A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JPJP-P-2013-224902 2013-10-30
JP2013224902 2013-10-30
PCT/JP2014/073353 WO2015064212A1 (ja) 2013-10-30 2014-09-04 送信装置、送信方法、受信装置、及び、受信方法

Publications (1)

Publication Number Publication Date
KR20160077067A true KR20160077067A (ko) 2016-07-01

Family

ID=53003825

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020167010410A KR20160077067A (ko) 2013-10-30 2014-09-04 송신 장치, 송신 방법, 수신 장치, 및 수신 방법

Country Status (7)

Country Link
US (1) US10110972B2 (ko)
EP (1) EP3065408A4 (ko)
JP (1) JPWO2015064212A1 (ko)
KR (1) KR20160077067A (ko)
CN (1) CN105706453B (ko)
MX (1) MX364963B (ko)
WO (1) WO2015064212A1 (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160019707A1 (en) * 2014-07-18 2016-01-21 Roovy, Inc. Mixed media file system
EP3249873B1 (en) * 2015-02-15 2018-09-12 Huawei Technologies Co., Ltd. Media presentation guide method based on hyper text transport protocol media stream and related device
JP6446347B2 (ja) * 2015-09-14 2018-12-26 エヌ・ティ・ティ・コミュニケーションズ株式会社 サムネイル提供装置、表示装置、サムネイル映像表示システム、サムネイル映像表示方法、及びプログラム
US10511828B2 (en) * 2017-03-29 2019-12-17 Intel Corporation Camera platforms with rolling light projection
US11228796B2 (en) * 2020-01-07 2022-01-18 Tencent America LLC Pattern addressing for session-based dash operations

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060017061A (ko) 2004-08-19 2006-02-23 삼성전자주식회사 디스플레이장치
CN200994166Y (zh) 2006-12-29 2007-12-19 柯玉荣 附有天线单元的电视器
CA2781827C (en) * 2009-11-25 2016-05-24 Lg Electronics Inc. Method of processing epg metadata in network device and network device for controlling the same
US7833028B1 (en) 2010-02-24 2010-11-16 Azurewave Technologies, Inc. Wireless receiving and transmitting device having an exposed projection structure for user to hold
US20110273632A1 (en) 2010-05-04 2011-11-10 Casey Michael B Video display with detachable input/output console
US9380079B2 (en) * 2011-06-29 2016-06-28 Cable Television Laboratories, Inc. Content multicasting
WO2013043918A1 (en) * 2011-09-21 2013-03-28 General Instrument Corporation Adaptive streaming to multicast and constrained-fidelity constant bit rate encoding
EP2908535A4 (en) * 2012-10-09 2016-07-06 Sharp Kk Content transfer device, content playback device, content distribution system, method for controlling a content transfer device, method for controlling a content playback device, control program and recording medium
KR101459557B1 (ko) * 2013-07-15 2014-11-17 주식회사 케이티 실시간 시청률에 기반한 모자이크 채널 가이드를 제공하는 서버 및 방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
「기존의 Web 서버로 도중 끊김 없는 동화상 배신을 실현」, 히라바야시 미츠히로, NIKKEI ELECTRONICS 2012.3.19

Also Published As

Publication number Publication date
CN105706453B (zh) 2019-10-08
EP3065408A4 (en) 2017-09-13
EP3065408A1 (en) 2016-09-07
US10110972B2 (en) 2018-10-23
CN105706453A (zh) 2016-06-22
MX2016005250A (es) 2016-08-18
US20160255417A1 (en) 2016-09-01
MX364963B (es) 2019-05-15
JPWO2015064212A1 (ja) 2017-03-09
WO2015064212A1 (ja) 2015-05-07

Similar Documents

Publication Publication Date Title
US10382801B2 (en) Transmission apparatus, transmission method, reception apparatus, and reception method
JP6329964B2 (ja) 送信装置、送信方法、受信装置、及び、受信方法
JP6570999B2 (ja) コンテンツ供給装置、コンテンツ供給方法、プログラム、端末装置、およびコンテンツ供給システム
US10034042B2 (en) Content supply apparatus, content supply method, program, terminal apparatus, and content supply system
WO2014208377A1 (ja) コンテンツ供給装置、コンテンツ供給方法、プログラム、端末装置、およびコンテンツ供給システム
JP6630860B2 (ja) 端末装置および受信方法
KR20160077067A (ko) 송신 장치, 송신 방법, 수신 장치, 및 수신 방법
CN106105239B (zh) 发送设备、发送方法、接收设备、接收方法和程序
JP2015002513A (ja) コンテンツ供給装置、コンテンツ供給方法、プログラム、端末装置、およびコンテンツ供給システム
JP2014239291A (ja) コンテンツ供給装置、コンテンツ供給方法、プログラム、端末装置、およびコンテンツ供給システム
CA2925455A1 (en) Content supplying apparatus, content supplying method, program, terminal device, and content supplying system
WO2015151487A1 (en) Reception apparatus, reception method, transmission apparatus, and transmission method
WO2015064384A1 (ja) 送信装置、送信方法、受信装置、及び、受信方法
WO2015012140A1 (ja) コンテンツ供給装置、コンテンツ供給方法、プログラム、端末装置、およびコンテンツ供給システム
JP6610538B2 (ja) 受信装置、受信方法、送信装置、及び、送信方法

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right