BE1021405B1 - Signalement d'informations de video tridimensionnelle dans des reseaux de communication - Google Patents

Signalement d'informations de video tridimensionnelle dans des reseaux de communication Download PDF

Info

Publication number
BE1021405B1
BE1021405B1 BE2013/0244A BE201300244A BE1021405B1 BE 1021405 B1 BE1021405 B1 BE 1021405B1 BE 2013/0244 A BE2013/0244 A BE 2013/0244A BE 201300244 A BE201300244 A BE 201300244A BE 1021405 B1 BE1021405 B1 BE 1021405B1
Authority
BE
Belgium
Prior art keywords
frame
format
combination
compatible
video
Prior art date
Application number
BE2013/0244A
Other languages
English (en)
Inventor
Ozgur Oyman
Original Assignee
Intel Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corporation filed Critical Intel Corporation
Application granted granted Critical
Publication of BE1021405B1 publication Critical patent/BE1021405B1/fr

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L27/00Modulated-carrier systems
    • H04L27/26Systems using multi-frequency codes
    • H04L27/2601Multicarrier modulation systems
    • H04L27/2647Arrangements specific to the receiver only
    • H04L27/2655Synchronisation arrangements
    • H04L27/2657Carrier synchronisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W24/00Supervisory, monitoring or testing arrangements
    • H04W24/10Scheduling measurement reports ; Arrangements for measurement reports
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/438Interfacing the downstream path of the transmission network originating from a server, e.g. retrieving encoded video stream packets from an IP network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L5/00Arrangements affording multiple use of the transmission path
    • H04L5/003Arrangements for allocating sub-channels of the transmission path
    • H04L5/0048Allocation of pilot signals, i.e. of signals known to the receiver
    • H04L5/0051Allocation of pilot signals, i.e. of signals known to the receiver of dedicated pilots, i.e. pilots destined for a single user or terminal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/10Architectures or entities
    • H04L65/1016IP multimedia subsystem [IMS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/1066Session management
    • H04L65/1069Session establishment or de-establishment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/61Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
    • H04L65/612Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio for unicast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/61Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
    • H04L65/613Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio for the control of the source by the destination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/65Network streaming protocols, e.g. real-time transport protocol [RTP] or real-time control protocol [RTCP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/70Media network packetisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • H04L65/756Media network packet handling adapting media to device capabilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • H04L65/762Media network packet handling at the source 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/80Responding to QoS
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/156Availability of hardware or computational resources, e.g. encoding based on power-saving criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/164Feedback from the receiver or from the transmission channel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234309Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by transcoding between formats or standards, e.g. from MPEG-2 to MPEG-4 or from Quicktime to Realvideo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • H04N21/2353Processing of additional data, e.g. scrambling of additional data or processing content descriptors specifically adapted to content descriptors, e.g. coding, compressing or processing of metadata
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/24Monitoring of processes or resources, e.g. monitoring of server load, available bandwidth, upstream requests
    • H04N21/2404Monitoring of server processing errors or hardware failure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25808Management of client data
    • H04N21/25825Management of client data involving client display capabilities, e.g. screen resolution of a mobile phone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25808Management of client data
    • H04N21/25833Management of client data involving client hardware characteristics, e.g. manufacturer, processing or storage capabilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/262Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists
    • H04N21/26258Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists for generating a list of items to be played back in a given order, e.g. playlist, or scheduling item distribution according to such list
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44209Monitoring of downstream path of the transmission network originating from a server, e.g. bandwidth variations of a wireless network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/4424Monitoring of the internal components or processes of the client device, e.g. CPU or memory load, processing speed, timer, counter or percentage of the hard disk space used
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6106Network physical structure; Signal processing specially adapted to the downstream path of the transmission network
    • H04N21/6125Network physical structure; Signal processing specially adapted to the downstream path of the transmission network involving transmission via Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6106Network physical structure; Signal processing specially adapted to the downstream path of the transmission network
    • H04N21/6131Network physical structure; Signal processing specially adapted to the downstream path of the transmission network involving transmission via a mobile phone network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/643Communication protocols
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/643Communication protocols
    • H04N21/6437Real-time Transport Protocol [RTP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/06Selective distribution of broadcast services, e.g. multimedia broadcast multicast service [MBMS]; Services to user groups; One-way selective calling services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/12Messaging; Mailboxes; Announcements
    • H04W4/14Short messaging services, e.g. short message services [SMS] or unstructured supplementary service data [USSD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/50Service provisioning or reconfiguring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W40/00Communication routing or communication path finding
    • H04W40/24Connectivity information management, e.g. connectivity discovery or connectivity update
    • H04W40/248Connectivity information update
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W60/00Affiliation to network, e.g. registration; Terminating affiliation with the network, e.g. de-registration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W60/00Affiliation to network, e.g. registration; Terminating affiliation with the network, e.g. de-registration
    • H04W60/04Affiliation to network, e.g. registration; Terminating affiliation with the network, e.g. de-registration using triggered events
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W64/00Locating users or terminals or network equipment for network management purposes, e.g. mobility management
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W76/00Connection management
    • H04W76/10Connection setup
    • H04W76/15Setup of multiple wireless link connections
    • H04W76/16Involving different core network technologies, e.g. a packet-switched [PS] bearer in combination with a circuit-switched [CS] bearer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W8/00Network data management
    • H04W8/02Processing of mobility data, e.g. registration information at HLR [Home Location Register] or VLR [Visitor Location Register]; Transfer of mobility data, e.g. between HLR, VLR or external networks
    • H04W8/06Registration at serving network Location Register, VLR or user mobility server
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W80/00Wireless network protocols or protocol adaptations to wireless operation
    • H04W80/08Upper layer protocols
    • H04W80/12Application layer protocols, e.g. WAP [Wireless Application Protocol]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • H04L12/189Arrangements for providing special services to substations for broadcast or conference, e.g. multicast in combination with wireless systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/58Message adaptation for wireless communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/40Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video transcoding, i.e. partial or full decoding of a coded input stream followed by re-encoding of the decoded output stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W48/00Access restriction; Network selection; Access point selection
    • H04W48/18Selecting a network or a communication service
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W76/00Connection management
    • H04W76/10Connection setup
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W8/00Network data management
    • H04W8/02Processing of mobility data, e.g. registration information at HLR [Home Location Register] or VLR [Visitor Location Register]; Transfer of mobility data, e.g. between HLR, VLR or external networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W8/00Network data management
    • H04W8/22Processing or transfer of terminal data, e.g. status or physical capabilities
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Security & Cryptography (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Library & Information Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computing Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

Les modes de réalisation de la présente description décrivent des dispositifs, procédés, supports lisibles par ordinateur et configurations de systèmes pour le signalement de capacités de contenu vidéo tridimensionnel stéréoscopique d'un dispositif dans un réseau de communication. D'autres modes de réalisation peuvent être décrits et revendiqués.

Description

Signalement d'informations de vidëo tridimensionnelle dans des réseaux de communication
Domaine
Les modes de réalisation de la présente invention concernent généralement le domaine des communications, et plus particulièrement, le signalement d'informations de vidéo tridimensionnelle dans des réseaux de communication.
Arrière-plan
La vidéo tridimensionnelle (en 3D) offre une qualité élevée et une expérience multimédia immersive, laquelle est seulement devenue réalisable récemment sur des composants électroniques de consommation et des plates-formes mobiles grâce aux progrès dans la technologie d'affichage, le traitement de signal, la technologie de transmission, et la conception de circuit. Elle est actuellement introduite dans les foyers par divers canaux, y compris par Blu-ray Disc™, par transmission par câble et satellite, etc., ainsi que vers des réseaux mobiles par 1'intermédiaire de téléphones intelligents à fonction 3D, etc. Les concepts se rapportant à la distribution d'un tel contenu par des réseaux sans fil sont en cours de développement.
Brève description des dessins
Les modes de réalisation seront aisément compris à la lecture de la description détaillée suivante conjointement avec les dessins joints. Pour faciliter la présente description, des numéros de référence semblables désignent des éléments structuraux semblables. Les modes de réalisation sont illustrés à titre d'exemple et sans aucun caractère limitatif sur les figures des dessins joints.
La figure 1 illustre schématiquement un réseau de communication sans fil conformément à divers modes de réalisation.
Les figures 2a-b illustrent une adaptation du contenu en flux et/ou des fichiers associés de description de session et de métadonnées conformément à divers modes de réalisation.
La figure 3 illustre une configuration d'une session de diffusion en flux conformément à un mode de réalisation.
La figure 4 illustre les formats compatibles de combinaison de trame conformément à divers modes de réalisation.
La figure 5 illustre un procédé de signalement de capacités de dispositif vidéo 3D conformément à divers modes de réalisation.
La figure 6 illustre un procédé de signalement de contenu vidéo 3D conformément à divers modes de réalisation.
La figure 7 représente schématiquement un système exemple conformément à divers modes de réalisation.
Description détaillée
Des modes de réalisation servant d'illustration de la présente description comprennent, mais sans s'y limiter, des procédés, systèmes, supports lisibles par ordinateur, et appareils pour le signalement de capacités de contenu de vidéo tridimensionnelle stéréoscopique d'un dispositif client dans un réseau de communication. Certains modes de réalisation de la présente invention dans ce contexte pourraient être sur des procédés, systèmes, supports lisibles par ordinateur, et appareils pour le signalement de capacités de contenu vidéo tridimensionnel stéréoscopique d'un dispositif mobile dans un réseau de communication sans fil.
Divers aspects des modes de réalisation servant d'illustration seront décrits en utilisant des termes couramment employés par le spécialiste de la technique pour expliquer la substance de son travail à d'autres spécialistes de la technique. Cependant, il sera apparent au spécialiste de la technique que des variantes de réalisation peuvent être mises en pratique avec seulement certains des aspects décrits. À des fins d'explication, des nombres, matériaux, et configurations spécifiques sont présentés afin de fournir une compréhension approfondie des modes de réalisation servant d'illustration. Cependant, il sera apparent à un spécialiste de la technique que des variantes de réalisation peuvent être mises en pratique sans les détails spécifiques. Dans d'autres cas, des caractéristiques bien connues sont omises ou simplifiées afin de ne pas masquer les modes de réalisation servant d'illustration.
En outre, diverses opérations seront décrites comme plusieurs- opérations distinctes, successives, d'une manière qui est la plus utile pour la compréhension des modes de réalisation servant d'illustration ; cependant, l'ordre de la description ne doit pas être interprété comme impliquant que ces opérations dépendent nécessairement d'un ordre. En particulier, ces opérations ne doivent pas nécessairement être exécutées dans l'ordre de présentation. L'expression « dans certains modes de réalisation » est utilisée à plusieurs reprises. L'expression ne fait généralement pas référence aux mêmes modes de réalisation ; cependant, elle peut le faire. Les termes « comprenant », « ayant », et « incluant » sont synonymes, sauf si le contexte l'indique autrement. L'expression « A et/ou B » signifie (A) , (B) , ou (A et B) . Les expressions « A/B » et « A ou B » signifient (A) , (B) , ou (A et B) , similaires à
l'expression « A et/ou B ». L'expression « au moins l'un parmi A, B et C » signifie (A) , (B) , (C) , (A et B) , (A et C) , (B et C) ou (A, B et C) . L'expression « (A) B » signifie (B) ou (A et B), c'est-à-dire, A est facultatif.
Bien que des modes de réalisation spécifiques aient été illustrés et décrits ici, l'homme du métier aura à l'esprit qu'une grande diversité des mises en œuvre alternatives et/ou équivalentes peuvent être substituées par les modes de réalisation spécifiques illustrés et décrits, sans sortir du cadre des modes de réalisation de la présente description. La présente demande est prévue pour couvrir n'importe quelles adaptations ou variations des modes de réalisation abordés ici. Pour cette raison, il est manifestement prévu que les modes de réalisation de la présente description soient limités uniquement par les revendications et leurs équivalents.
Tel qu'il est utilisé ici, le terme « module » peut désigner, être une partie de, ou inclure un circuit intégré spécifique à l'application (ASIC) , un circuit électronique, un processeur (partagé, dédié, ou un groupe) et/ou une mémoire (partagée, dédiée, ou un groupe) qui exécutent un ou plusieurs programmes logiciels ou micrologiciels, un circuit logique combinatoire, et/ou d'autres composants appropriés qui fournissent la fonctionnalité décrite.
Des améliorations significatives de capacité de compression vidéo ont été démontrées avec 1'introduction de la norme de codage vidéo avancé (AVC) H.264/MPEG-4. Depuis le développement de la norme, le groupe de travail vidéo du Video Coding Experts Group (VCEG) de 1'ITU-T et le Moving Picture Experts Group (MPEG) de l'organisation internationale de normalisation (ISO)/commission électrotechnique internationale (CEI) ont également normalisé une extension d'AVC qui est dénommé codage vidéo multivue (MVC). Le MVC fournit une représentation compacte pour plusieurs vues de la scène vidéo, telles que plusieurs caméras vidéo synchronisées.
Dans des applications de vidéo 3D stéréoscopique, deux vues sont affichées. Une pour l'œil gauche et une pour l'œil droit. Il y a diverses façons de formater les vues d'un contenu vidéo 3D stéréoscopique. Dans un mode de réalisation, le codage de vidéo en 3D à appariement stéréo peut être un cas spécial de MVC, où les vues pour les yeux gauche et droit sont produites par l'intermédiaire d'un MVC. D'autres formats de codage de production d'un contenu vidéo 3D sont également possibles. Divers dispositifs peuvent avoir des capacités différentes par rapport au décodage et à la restitution de ces différents formats. Les modes de réalisation décrits ici stipulent divers paramètres d'un échange de capacités de dispositif, qui peuvent faciliter la distribution et la visualisation du contenu vidéo 3D dans un réseau de communication tel qu'un réseau sans fil, par exemple, un réseau d'accès radio terrestre universel évolué (EUTRAN).
La figure 1 illustre schématiquement un environnement réseau 100 conformément à divers modes de réalisation. L'environnement réseau 100 comprend un équipement utilisateur (EU) 104, qui peut également être dénommé comme étant un terminal client ou dispositif mobile, couplé sans fil à un- réseau d'accès radio (RAN) 108. Le RAN 108 peut comprendre une station de base à nœud évolué (eNB) 112 configurée pour communiquer avec 1'EU 104 par l'intermédiaire d'une interface par radio (OTA) . Le RAN 108 peut faire partie d'un réseau avancé de type « third génération partnership project » (3GPP) « long-term évolution » (LTE) et peut être dénommé EUTRAN. Dans d'autres modes de réalisation, d'autres technologies de réseau d'accès radio peuvent être utilisées. L'EU 104 peut communiquer avec un serveur multimédia distant 116 par l'intermédiaire du RAN 108. Alors que la station de base à nœud évolué 112 est montrée communiquant directement avec le serveur multimédia, il sera entendu que les communications peuvent passer par un certain nombre de composants intermédiaires de mise en réseau, par exemple, des switches, des routeurs, des passerelles, etc., dans divers modes de réalisation. Par exemple, dans certains modes de réalisation, le RAN 108 peut être couplé à un réseau central de services (CSN) qui couple par communications le RAN 108 à un plus grand réseau, par exemple, un réseau étendu, dont on peut considérer que le serveur multimédia 116 fait partie.
Alors que la figure 1 décrit l'environnement réseau en tant que réseau de communication sans fil, d'autres modes de réalisation peuvent être utilisés dans d'autres types de réseaux, par exemple, des réseaux câblés. Il peut être entendu que d'autres environnements réseau dans lesquels des modes de réalisation de la présente invention peuvent être employés peuvent comprendre des composants supplémentaires, en moins, ou différents par rapport à ceux explicitement illustrés dans l'exemple représenté sur la figure 1. Par exemple, des modes de réalisation de la présente invention employés dans un réseau câblé, peuvent avoir le serveur multimédia 116 et 1 ' EU 104 qui communiquent entre eux sans le RAN 108. L'EU 104 et le serveur multimédia 116 peuvent avoir un certain nombre de composants qui sont configurés pour faciliter l'accès, le stockage, la transmission, et l'affichage d'un contenu vidéo 3D. Par exemple, 1 ' EU 104 peut comprendre un module de gestion de contenu 120, un lecteur multimédia 124 ayant une application de diffusion en flux 126, et un affichage 128. L'application de diffusion en flux 126 peut avoir une fonctionnalité suffisante de manière à recevoir un contenu vidéo 3D et les informations associées ; décoder, décompresser, et autrement réassembler la vidéo en 3D ; et restituer la vidéo en 3D sur l'affichage 128. Dans divers modes de réalisation, on peut faire référence à l'application de diffusion en flux 126 dans le contexte de la technologie de diffusion en flux employée. Par exemple, dans des modes de réalisation dans lesquels le contenu est diffusé en flux par un service de diffusion en flux par paquets (PSS) , l'application de diffusion en flux 126 peut être dénommée application PSS. Le module de gestion de contenu 120 peut négocier ou autrement communiquer des paramètres de diffusion en flux comprenant, par exemple, les paramètres de capacité de dispositif, pour permettre la réception des données d'une manière qui facilite le fonctionnement du lecteur multimédia 124.
Le serveur multimédia 116 peut comprendre un module de distribution de contenu 132 ayant une application de diffusion en flux 134, un module de gestion de contenu 136, et un stockage de contenu 140. Le module de distribution de contenu 132 peut encoder, compresser, ou autrement assembler le contenu vidéo 3D, stocké dans le stockage de contenu 14 0, en vue d'une transmission vers un ou plusieurs EU, par exemple, 1'EU 104. Le module de gestion de contenu 136 peut négocier ou autrement communiquer des paramètres de diffusion en flux comprenant, par exemple, les paramètres de capacité de dispositif, et contrôler le module de distribution de contenu 132 d'une manière à faciliter la distribution du contenu 3D.
Dans certains modes de réalisation, un ou plusieurs des composants qui sont montrés dans le cadre du serveur multimédia 116 peuvent être disposés séparément du serveur multimédia 116 et couplés par communications au serveur multimédia sur un lien de communication. Par exemple, dans certains modes de réalisation, le stockage de contenu 140 peut être disposé à distance du module de distribution de contenu 132 et du module de gestion de contenu 136.
Dans certains modes de réalisation, le module de distribution de contenu 132 peut distribuer, par l'intermédiaire de 1'eNB 112 dans un exemple, le contenu vidéo 3D à 1 ' EU 104 conformément à une norme de diffusion en flux 3GPP. Par exemple, le contenu vidéo 3D peut être transmis conformément à une norme PSS, par exemple, 3GPP TS 26.234 Vil.0.0 (16 mars 2012), une norme de diffusion en flux adaptative dynamique sur HTTP (DASH), par exemple, 3GPP TS 26.247 V.11.0.0 (16 mars 2012), une norme de service de diffusion et multidiffusion multimédia (MBMS), par exemple, TS 26.346 Vil.1.0 (29 juin 2012), et/ou une norme de services PSS et MBMS basés sur IMS (IMS_PSS_MBMS), par exemple, TS 26.237 V.11.0.0 (29 juin 2012). L'application de diffusion en flux 126 peut être configurée pour recevoir le contenu vidéo 3D sur n'importe lequel d'un certain nombre de protocoles de transport, par exemple, le protocole de transport en temps réel (RTP), le protocole de transport hypertexte (HTTP), etc. L'échange de capacités permet aux serveurs de diffusion en flux de média, tel que le serveur multimédia 116, de fournir une gamme étendue de dispositifs avec contenu vidéo approprié pour le dispositif particulier en question. Pour faciliter la négociation de contenu côté serveur pour la diffusion en flux, le serveur multimédia 116 peut déterminer les capacités spécifiques de 1'EU 104.
Le module de gestion de contenu 120 et le module de gestion de contenu 136 peuvent négocier ou autrement communiquer les paramètres d'une session de diffusion en flux de contenu vidéo 3D. Cette négociation peut avoir lieu par un signalement au niveau session par l'intermédiaire du RAN 108. Dans certains modes de réalisation, le signalement au niveau session peut comprendre des transmissions se rapportant à des informations de capacité de dispositif qui comprennent les capacités de décodage et de restitution de vidéo 3D stéréoscopique du lecteur multimédia 124. Dans divers modes de réalisation, les informations de capacité de dispositif peuvent en outre comprendre la taille de tampon de pré-décodeur, la mise en tampon initiale, la . capacité du décodeur, les propriétés de l'affichage (taille d'écran, résolution, profondeur de couleur, etc.), la prise en charge d'adaptation de procédé de diffusion en flux (protocole de diffusion en flux en temps réel (RTSP), HTTP, etc.), la prise en charge de la qualité d'expérience utilisateur (QoE), la prise en charge de compte-rendu de protocole de transport en temps réel (RTCP) étendu, la prise en charge de la commutation rapide £le contenu, les profils RTP pris en charge, les attributs de protocole de description de session (SDP), etc.
Durant la configuration de la session de diffusion en flux, le module de gestion de contenu 136 peut utiliser les informations de capacité de dispositif pour contrôler le module de distribution de contenu 132 d'une manière à fournir à 1 ' EU 104 le type adéquat de contenu multimédia. Par exemple, le serveur multimédia 116 peut déterminer quelles variantes des multiples variantes disponibles d'un flux de données vidéo sont souhaitées sur base des capacités réelles de l'EU 104 pour déterminer les flux les plus adaptés pour ce terminal. Ceci peut permettre une distribution améliorée de contenu vidéo 3D et des fichiers associés de description de session et de métadonnées, par exemple, un fichier SDP ou un fichier de description de présentation multimédia (MPD), à 1'EU 104.
Le module de distribution de contenu 132 peut accéder au contenu dans le stockage de contenu 14 0 et adapter le contenu et/ou les fichiers associés de description de session et de métadonnées, par exemple, des fichiers SDP/MPD, selon les paramètres de session négociés avant distribution du contenu/des fichiers associés. Le contenu, lorsqu'il est distribué à 1'EU 104, peut être décodé par le lecteur multimédia 124 et restitué sur l'affichage 128. L'adaptation de contenu et/ou des fichiers associés de description de session et de métadonnées est montrée conformément à certains exemples spécifiques en référence aux figures 2a-b, tandis que la configuration de la session de diffusion en flux est montrée conformément à un exemple spécifique en référence à la figure 3.
La figure 2a illustre un mode de réalisation de diffusion en flux basée sur DASH avec une adaptation de formats de vidéo 3D conformément à certains modes de réalisation. En particulier, la figure 2a illustre un serveur http 204 en communication avec un client DASH 208 et mettant en œuvre un mode de réalisation de diffusion en flux basé sur pull, dans lequel le contrôle de diffusion en flux est maintenu par le client plutôt le serveur, où le client télécharge un contenu du serveur à travers une série de transactions de demande-réponse sur HTTP après l'inspection du fichier MPD. Dans la diffusion en flux basée sur DASH, le fichier de métadonnées MPD fournit des informations sur la structure et les différentes versions des représentations de contenu multimédia stocké dans le serveur HTTP 204 (y compris les différents débits binaires, fréquences d'images, résolutions, types de codée, etc.) . Sur base de ces informations de métadonnées MPD qui décrivent la relation des segments et comment ils forment une présentation multimédia, le client DASH 208 peut demander les segments de média en utilisant des méthodes HTTP GET ou GET partiel. Le serveur http 204 et le client DASH 208 peuvent être similaires à et sensiblement interchangeables avec le serveur multimédia 116 et 1'EU 104, respectivement.
Dans DASH, l'ensemble de formats de vidéo 3D et les informations de contenu correspondantes peuvent être signalés au client DASH 208 dans le fichier MPD. En fonction du profil de capacité du client DASH 208 et de ses formats 3D pris en charge, le serveur http 2 04 peut proposer un contenu formaté différent, par exemple, le serveur http 204 peut exclure les formats 3D qui ne sont pas pris en charge par le client DASH 208 dans le fichier MPD et comprennent uniquement ceux qui sont pris en charge par le client DASH 208. Dans ce contexte, le serveur HTTP 204 peut fournir le contenu optimisé pour différents formats de vidéo 3D au client DASH 208. Ce faisant, le serveur HTTP 204 peut utiliser le signalement d'échange de capacités de dispositif du client DASH 208 décrivant les divers formats de vidéo 3D pris en charge. Le client DASH 208 peut ensuite demander les versions correspondantes de contenu vidéo 3D pris en charge par le client DASH 208. De plus, lors de la récupération d'un fichier MPD avec HTTP, le client DASH 208 peut inclure des informations de codée et de format de vidéo 3D dans une demande GET, y compris de quelconques ajustements temporaires des formats de vidéo 3D sur base d'une différence de profil (ProfDiff) . Dans un exemple, la différence peut être configurée pour modifier temporairement un ou plusieurs paramètres MPD pour une session de présentation de contenu. Par exemple, la différence peut être configurée pour modifier le MPD jusqu'à ce que la session de présentation de contenu se termine ou qu'une différence ultérieure (correspondant à la première différence communiquée) soit communiquée au serveur HTTP 204. De cette façon, le serveur HTTP 204 peut distribuer un MPD optimisé au client DASH 208.
La figure 2b illustre un mode de réalisation de diffusion en flux basée sur RTSP avec une adaptation de formats de vidéo 3D conformément à certains modes de réalisation. En particulier, la figure 2b illustre un serveur 212 et un client 216 mettant en œuvre un procédé de diffusion en flux basé sur push, dans lequel la diffusion en flux et le contrôle de session sont maintenus par le serveur 212 plutôt que le client 216.
Le serveur 212 et le client 216 peuvent être similaires à, et sensiblement interchangeables avec, le serveur multimédia 116 et 11 EU 104, respectivement.
Des exemples de diffusion en flux basée sur push comprennent des services PSS et IMS_PSS_MBMS basés respectivement sur le protocole RTSP et d'initiation de session (SIP). Dans ce contexte, le serveur 212 reçoit l'ensemble de codées et formats de vidéo 3D pris en charge du client 216 et adapte le contenu sur base de ces informations, par exemple, le serveur 212 sélectionne la version de contenu la plus adaptée parmi les versions de contenu stocké ou transcode dynamiquement le contenu sur base des formats de vidéo 3D pris en charge et diffuse en flux le contenu vers le client 216. Les mëtadonnées se rapportant à la session, véhiculées dans le SDP peuvent véhiculer les informations de format vidéo 3D pour le contenu en flux.
La figure 3 illustre une découverte de service avec un service d'abonnement/notification pour IMS_PSS_MBMS conformément à certains modes de réalisation. En particulier, la figure 3 illustre les interactions entre un EU 304, un sous-système à réseau central (CN) IP multimédia (IM) 308, et une fonction de découverte de service (SDF) 312. L'EU 304 peut être similaire à, et sensiblement interchangeable avec 1 ' EU 104. Le sous-système IM CN 308 et la fonction de découverte de service 312 peuvent être une partie d'un domaine de réseau central qui assure 1'interface avec le domaine de réseau d'accès, par exemple, le RAN 108.
Dans le service IMS_PSS_MBMS, 1 ' EU 3 04 peut envoyer des informations de capacité de dispositif, par exemple, les codées et formats de vidéo 3D pris en charge, dans un message SIP SUBSCRIBE au sous-système IM CN 308 durant la découverte de service. Le sous-système IM CN 308 peut ensuite transférer le message à la fonction de découverte de service 312. La fonction de découverte de service 312 détermine les informations de découverte de service adéquates, par exemple, selon les capacités de l'EU 304 telles.que décrites dans le profil de l'utilisateur (découverte de service personnalisée). La fonction de découverte de service 312 peut ensuite envoyer un message SIP 200 OK au sous-système IM CN 308, lequel est relayé à 1 ' EU 304 pour confirmer l'initialisation de session sur base des informations de capacité de dispositif envoyées qui comprennent également les codées et formats de vidéo 3D pris en charge. Par la suite, la fonction de découverte de service 312 peut envoyer un message SIP NOTIFY, avec les informations de découverte de service, au sous-système IM CN 308, qui renvoie le message SIP NOTIFY à 1'EU 304. L'EU 304 peut ensuite répondre en envoyant un message SIP 200 OK au sous-système IM CN 308, lequel est ensuite relayé à la fonction de découverte de service 312.
Une telle infrastructure permet une découverte de service optimisée en utilisant les formats de vidéo 3D pris en charge dans des services utilisateur PSS et MBMS basés sur IMS. Plus tard durant la session IMS, 1'EU 304 peut également utiliser un signalement SIP pour indiquer des mises à jour, y compris n'importe quels ajustements temporaires à l'ensemble de codées et formats vidéo 3D pris en charge sur base de ProfDiff (par exemple, si l'orientation actuelle du dispositif est différente de l'orientation par défaut du dispositif) . Ceci peut être fait en actualisant l'abonnement au moyen d'autres messages SIP SUBSCRIBE incluant des informations sur les mises à jour aux informations de format de vidéo 3D.
En référence également la figure 1, dans certains modes de réalisation, le serveur multimédia 116 peut être couplé à un serveur de profils de dispositif 144 qui a les informations de profil de l'EU 104. Les informations de profil peuvent comprendre certaines ou toutes les informations de capacité de dispositif. Dans de tels modes de réalisation, le serveur multimédia 116 peut recevoir des informations d'identification de 1'EU 104, puis récupérer les informations de profil du serveur de profils de dispositif 144. Ceci peut se faire dans le cadre du signalement au niveau session.
Dans certains modes de réalisation, 1 ' EU 104 peut compléter les informations de profil récupérées du serveur de profils de dispositif 144 avec des attributs supplémentaires ou écraser des attributs déjà définis dans son profil de capacité de dispositif, sur base du signalement ProfDiff. Dans un exemple, un tel ajustement temporaire peut être déclenché par les préférences utilisateur, par exemple, si l'utilisateur pour une session particulière aime uniquement recevoir une vidéo à deux dimensions (en 2D) alors que le terminal est capable d'effectuer un rendu vidéo en 3D. L'application de diffusion en flux 134 peut encoder le contenu vidéo 3D pour transmission dans l'environnement réseau 100 conformément à un certain nombre de types de flux différents, chaque type de flux ayant des types de trame associés. Les types de trame pourraient comprendre une combinaison de trame, une diffusion simultanée, ou les types de trame 2D plus auxiliaire.
La combinaison de trame peut comprendre des formats de combinaison compatibles avec la trame et les formats de combinaison par vue à pleine résolution (FRPV). Dans les formats de combinaison compatibles avec la trame, l'application de diffusion en flux 134 peut combiner dans l'espace les trames constitutives d'une paire stéréo en une trame unique et encoder la trame unique. Les trames de sortie produites par l'application de diffusion en flux 126 contiennent les trames constitutives d'une paire stéréo. La résolution spatiale des trames originales de chaque vue et de la trame unique combinée peut être la même. Dans ce cas, l'application de diffusion en flux 134 peut procéder à un sous-échantillonnage des deux trames constitutives avant l'opération de combinaison. Les formats de combinaison compatibles avec la trame peuvent utiliser un format d'entrelacement vertical, d'entrelacement horizontal, côte-à-côte, haut-bas, ou damier, comme illustré sur les figures 4a-e, respectivement, et le sous-échantillonnage peut être effectué en conséquence.
Dans certains modes de réalisation, l'application de diffusion en flux 134 peut indiquer le format de combinaison de trame qui a été utilisé en incluant un ou plusieurs messages d'informations complémentaires d'amélioration (SEI) d'agencement de combinaison de trame, tels que spécifiés dans la norme H.264/AVC dans le flux binaire. L'application de diffusion en flux 126 peut décoder la trame, décompresser les deux trames constitutives des trames de sortie du décodeur, rééchantillonner les trames pour inverser le processus de sous-échantillonnage côté encodeur, et restituer les trames constitutives sur l'affichage 128.
Un format de combinaison FRPV peut comprendre un entrelacement temporel. Dans l'entrelacement temporel, la vidéo en 3D peut être encodée au double de la fréquence d'images de la vidéo originale, chaque image parente et ultérieure représentant une paire stéréo (vue gauche et droite) . La restitution de la vidéo stéréoscopique à entrelacement temporel peut typiquement être effectuée à une fréquence d'images élevée, où l'on utilise des lunettes actives (à obturation) pour fusionner la vue incorrecte dans chaque œil. Ceci peut compter sur une synchronisation précise entre les lunettes et l'écran.
Dans des modes de réalisation utilisant des types de trame à diffusion simultanée, les vues gauche et droite peuvent être transmises dans des flux indépendants de diffusion simultanée. Les flux transmis séparément peuvent être combinés par l'application de diffusion en flux 126 et décodés conjointement.
Dans des modes de réalisation utilisant les types de trame 2D plus auxiliaire, le contenu vidéo 2D peut être envoyé par l'application de diffusion en flux 134 conjointement avec des informations auxiliaires qui peuvent être utilisées par l'application de diffusion en flux 126 pour restituer la vidéo en 3D sur l'affichage 128. Ces informations auxiliaires peuvent être, par exemple, une carte de profondeur/parallaxe qui est une carte 2D avec chaque pixel définissant une profondeur/parallaxe d'un ou plusieurs pixels dans une image vidéo 2D associée.
Dans certains modes de réalisation, d'autres types de trame peuvent être utilisés. Par exemple, dans certains modes de réalisation, l'application de diffusion en flux 134 peut être capable d'encoder des vues stéréoscopiques dans un flux de vue de base et un flux de vue non de base, lesquels peuvent être transmis dans des flux identiques ou différents. Dans certains modes de réalisation, ceci peut être dénommé vidéo stéréoscopique basée sur MVC. Le flux de vue non de base peut comprendre des images de prédiction entre vues qui fournissent des informations spatiales/temporelles prédictives. Le flux de vue de base peut être suffisant pour permettre à un décodeur à vue unique, par exemple, 2D, de restituer la vue de base sous forme de vidéo 2D, alors que le flux de vue non de base peut fournir aux décodeurs 3D, par exemple, une application de diffusion en flux 126, des informations suffisantes pour restituer une vidéo en 3D._ Si le serveur multimédia 116 est au courant des capacités de 1'EU, il peut omettre l'envoi du flux de vue non de base à un dispositif qui ne prend pas en charge la vidéo en 3D ou ne possède pas un débit binaire suffisant pour prendre en charge la vidéo en 3D.
Dans divers modes de réalisation, les informations de capacité de dispositif, transmises du module de gestion de contenu 120 et/ou du serveur de profils de dispositif 144 au module de gestion de contenu 136, peuvent comprendre un attribut de format 3D qui comprend une liste d'un ou plusieurs formats appropriés pour la diffusion en flux d'une vidéo 3D stéréoscopique sur un protocole de transmission approprié, par exemple, RTP ou HTTP, pris en charge par l'application de diffusion en flux 126. Dans certains modes de réalisation, l'attribut de format 3D peut être un format de combinaison de trame de diffusion en flux pour RTP ou HTTP ayant une valeur entière « 1 » pour entrelacement vertical, « 2 » pour entrelacement horizontal, « 3 » pour côte-à-côte, « 4 » pour haut-bas, « 0 » pour damier, ou « 5 » pour entrelacement temporel. Dans certains modes de réalisation, le même attribut de format 3D peut être utilisé pour indiquer les formats de combinaison de trame pris en charge dans un format spécifique de fichier ou de conteneur. Dans certains modes de réalisation, l'attribut de format 3D peut comprendre une valeur plus généralisée, par exemple, « FP » pour combinaison de trame.
Dans certains modes de réalisation, l'attribut de format 3D peut être un autre format de flux ayant une valeur « SC » pour diffusion simultanée ou « 2DA » pour vidéo 2D plus informations auxiliaires.
Dans des modes de réalisation dans lesquels 1 ' EU 104 prend en charge plus d'un type de format, il peut en outre indiquer un ou plusieurs types de format préférés. Ceci pourrait être réalisé en listant les types de format dans un ordre de préférence, en associant un indicateur de préférence à des types de format sélectionnés, etc.
Dans certains modes de réalisation, en plus de fournir un attribut de type de trame, le module de gestion de contenu 120 et/ou le serveur de profils de dispositif 144 peuvent fournir un ou plusieurs attributs de type de composant. Les attributs de type de composant peuvent fournir des détails supplémentaires concernant des types spécifiques de composants vidéo, qui sont des éléments constitutifs de la vidéo 3D stéréoscopique, pris en charge et/ou préférés par l'application de diffusion en flux 126.
Les attributs de type de composant peuvent avoir une valeur « C » pour indiquer un flux de données de vue centrale, « CD » pour indiquer un flux de données de vue centrale et une carte de profondeur, « CP » pour indiquer un flux de données de vue centrale et une carte de parallaxe, « D » pour indiquer une carte de profondeur, « P » pour indiquer une carte de parallaxe, « L » pour indiquer un flux de données de vue de gauche, « LD » pour indiquer un flux de données de vue de gauche et une carte de profondeur, « LIL » pour indiquer des trames vidéo qui comprennent des lignes de balayage alternatives des vues de gauche et de droite, « LP » pour indiquer un flux de données de vue de gauche et une carte de parallaxe, « R » pour indiquer un flux de données de vue de droite, « Seq » pour indiquer trame séquentielle (par exemple, un flux de données vidéo qui comprend des trames alternatives des flux gauche et droit - un signalement supplémentaire, par exemple, des messages AVC SEI, peuvent être nécessaires pour signaler les trames qui contiennent les vues de gauche et de droite) , « SbS » pour indiquer côte-à-côte, et « TaB » pour indiquer haut et bas.
Chaque attribut de type de format peut être associé à un ensemble respectif d'attributs de type de composant. Par exemple, si le type de format est SC, le type de composant associé peut être L ou R pour indiquer respectivement les vues gauche et droite.
La capacité de teneur d'échange de capacités de dispositif dans la spécification PSS 3GPP TS 24.234 permet à des serveurs de fournir, à une gamme étendue de dispositifs, un contenu approprié pour le dispositif particulier en question. Afin d'améliorer la distribution de contenu vidéo 3D stéréoscopique au terminal client, la présente description décrit un nouvel ensemble d'attributs qui peuvent être inclus dans le lexique PSS pour le signalement d'échange de capacités de dispositif. Ces attributs proposés peuvent décrire les capacités de décodage et de restitution de vidéo en 3D du terminal client, y compris les formats de combinaison de trame vidéo 3D que le client prend en charge. Ceci peut, par exemple, permettre au serveur et au réseau de fournir un RTSP SDP ou DASH MPD optimisé au terminal client, ainsi que d'effectuer un transcodage et des conversions de format 3D appropriés afin de faire correspondre le contenu vidéo 3D transmis aux capacités du dispositif client.
Le signalement d'échange de capacités de dispositif des codées et formats de vidéo 3D pris en charge peut être activé dans 3GPP TS 26.234 avec l'inclusion de trois nouveaux attributs dans le lexique PSS : (1) pour le composant Streaming, deux attributs indiquant la liste de formats de combinaison de trame pris en charge appropriés pour la diffusion en flux de vidéo 3D stéréoscopique sur RTP et HTTP, respectivement, et (2) pour le composant ThreeGPFileFormat, un attribut indiquant la liste des formats de combinaison de trame pris en charge appropriés pour la vidéo 3D stéréoscopique qui peuvent être inclus dans un format de fichier 3GPP (3GP), qui est un format de conteneur multimédia couramment utilisé pour les services multimédias basés sur 3GPP. Les détails des définitions d'attribut sont présentés plus bas conformément à certains modes de réalisation.
Nom d'attribut : StreamingFramePackingFormatsRTP Définition d'attribut : Liste des formats de' combinaison de trame pris en charge appropriés pour la diffusion en flux de vidéo 3D stéréoscopique sur RT P pris en charge par l'application PSS. Les formats de combinaison de trame dans le champ d'application de la vidéo 3D stéréoscopique comprennent :
Format de combinaison compatible de trame : 1 = Entrelacement vertical, 2 = Entrelacement horizontal. 3 = Côte-à-côte, 4 = Haut-bas, 0 = Damier
Formats de combinaison par vue à pleine résolution : 5 = Entrelacement temporel Composant : Diffusion en flux Type : Littéral (sac)
Valeurs légales : Liste de valeurs entières correspondant aux formats de combinaison de trame pris en charge. Règle de résolution : Annexer EXEMPLE : <StreamingFramePackingFormatsRTP> <rdf:Bag> <rdf:li>3</rdf:li> <rdf:li>4</rdf:li> </rdf:Bag> </StreamingFramePackingFormatsRTP> Nom d'attribut : StreamingFramePackingFormatsHTTP Définition d'attribut : Liste des formats de combinaison de trame pris en charge appropriés pour la diffusion en flux de vidéo 3D stéréoscopique sur HTTP pris en charge par l'application PSS. Les formats de combinaison de trame dans le champ d'application de la vidéo 3D stéréoscopique comprennent :
Format de combinaison compatible de trame : 1 = Entrelacement vertical, 2 = Entrelacement horizontal. 3 = Côte-à-côte, 4 = Haut-bas, 0 = Damier
Formats de combinaison par vue à pleine résolution : 5 = Entrelacement temporel Composant : Diffusion en flux Type : Littéral (sac)
Valeurs légales : Liste de valeurs entières correspondant aux formats de combinaison de trame pris en charge. Règle de résolution : Annexer EXEMPLE : <StreamingFramePackingFormatsHTTP> <rdf:Bag> <rdf:li>3</rdf:li> <rdf: 1i >4 </rdf:li> </rdf:Bag> </StreamingFramePackingFormatsHTTP> Nom d'attribut : ThreeGPFramePackingFormats Définition d'attribut : Liste des formats de combinaison de trame pris en charge appropriés pour la vidéo 3D stéréoscopique qui peuvent être inclus dans un fichier 3GP et traités par l'application PSS.
Composant : ThreeGPFileFormat Type : Littéral (sac)
Valeurs légales : Liste de valeurs entières correspondant aux formats de combinaison de trame pris en charge. Les valeurs entières seront ou 3 ou 4, correspondant respectivement aux formats de combinaison de trame Côte-à-côte et Haut et bas. Règle de résolution : Annexer EXEMPLE : <ThreeGPFramePackingFormats> <rdf:Bag> <rdf:li>3</rdf:li> <rdf:li>4</rdf:li> </rdf:Bag> </ThreeGPFramePackingFormats>
Dans certains modes de réalisation, une présentation de média, telle que décrite dans le MPD, par exemple, peut comprendre des attributs et éléments - communs à Adaptation Set, Representation, et
SubRepresentation. Un tel élément commun peut être un élément FramePacking. Un élément FramePacking peut spécifier des informations d'agencement de combinaison de trame du type de composant média vidéo. Lorsqu'aucun élément FramePacking n'est fourni pour un composant vidéo, la combinaison de trame ne peut pas être utilisée pour le composant de média vidéo. L'élément FramePacking peut comprendre un attribut @scheme!dUri qui comprend un indicateur de ressource uniforme (URI) pour identifier le schéma de configuration de combinaison de trame employé. Dans certains modes de réalisation, l'élément FramePacking peut inclure en outre un attribut @value pour fournir une valeur à l'élément descripteur.
Dans certains modes de réalisation, plusieurs éléments FramePacking peuvent être présents. Si c'est le cas, chaque élément peut contenir des informations suffisantes pour sélectionner ou rejeter la représentation décrite.
Si le schéma ou la valeur de tous les éléments FramePacking ne sont pas reconnus, le client peut ignorer les Représentations décrites. Un client peut rejeter un Ensemble d'Adaptation sur base de l'observation d'un élément FramePacking.
Pour des Ensembles d'Adaptation ou des
Représentations qui contiennent un composant vidéo qui est conforme à la technologie d'informations ISO/CEI -Coding of audio-visual objects - Part 10: Advanced Video Coding (ISO/IEC 14496-10:2012), un numéro de ressource uniforme pour FramePackin@schemeIdUri peut être urn:mpeg:dash:14496 :10 :frame_packing_arrangement_type: 20 11, qui peut être défini pour indiquer l'agencement de combinaison de trame tel que défini par le tableau D-8 de 1'ISO/IEC 14496-10:2012 (« Définition de frame_packing_arrangement_type ») devant être contenu dans l'élément FramePacking. La @value peut être la colonne « Valeur » telle que spécifiée dans le tableau D-8 de 1'ISO/IEC 14496-10:2012 et peut être interprétée selon la colonne « Interprétation » dans le même tableau.
La figure 5 illustre un procédé 500 de signalement de capacités de dispositif vidéo 3D conformément à certains modes de réalisation. Le procédé 500 peut être exécuté par des composants d'un EU, par exemple, 11 EU 104. Dans certains modes de réalisation, 1'EU peut comprendre et/ou avoir accès à un ou plusieurs supports lisibles par ordinateur ayant des instructions stockées dessus, qui, lorsqu'elles sont exécutées, font en sorte que l'EU, ou des composants de celui-ci, exécutent le procédé 500.
En 504, l'EU peut déterminer les informations de capacité de dispositif. Comme décrit précédemment, les informations de capacité de dispositif peuvent comprendre des informations concernant les capacités de décodage et de restitution d'un lecteur multimédia. Dans certains modes de réalisation, un module de gestion de contenu, situé sur l'EU ou ailleurs, peut déterminer ces informations en exécutant un ou plusieurs scripts sur l'EU pour tester 'directement les capacités. Dans d'autres modes de réalisation, le module de gestion de contenu peut accéder à un ou plusieurs fichiers stockés qui contiennent les informations pertinentes.
En 508, l'EU peut fournir des informations de capacité de dispositif au serveur multimédia 116 ou au serveur de profils de dispositif 144, y compris les capacités de décodage et de restitution de vidéo 3D stéréoscopique du lecteur multimédia au niveau de l'EU. Comme décrit précédemment, les informations de capacité de dispositif peuvent comprendre un ou plusieurs attributs de type de format qui représentent une liste de types de trame pris en charge par une application de diffusion en flux de l'EU. Dans certains modes de réalisation, les informations de capacité de dispositif peuvent être fournies avant ou après la demande en 512.
Dans certains modes de réalisation, certaines ou toutes les informations de capacité de dispositif peuvent être fournies au serveur multimédia par une autre entité, par exemple, un serveur de profils de dispositif.
En 512, l'EU peut demander un contenu vidéo 3D. Dans certains modes de réalisation, la demande peut être conformément à des protocoles appropriés de diffusion en flux/transport, par exemple, HTTP, RTP, RTSP, DASH, MBMS, PSS, IMS_PSS_MBMS, etc. La demande peut être dirigée vers le serveur multimédia et peut comprendre une Uniform Resource Locator (URL) ou un certain autre indicateur du contenu demandé ou de parties de celui-ci. Dans certains modes de réalisation, l'ajustement temporaire des informations de capacité de dispositif (par exemple, par l'intermédiaire d'un signalement ProfDiff) peut également être fourni en même temps que la demande en 508. Ainsi, l'EU peut compléter les informations de profil récupérées du serveur de profils de dispositif avec des attributs supplémentaires ou de priorités pour des attributs déjà définis dans son profil de capacité de dispositif, sur base du signalement ProfDiff. Dans un exemple, un tel ajustement temporaire peut être déclenché par les préférences utilisateur, par exemple, si l'utilisateur pour une session particulière aime uniquement recevoir une vidéo à deux dimensions (en 2D) alors que le terminal est capable d'effectuer un rendu vidéo en 3D.
En 516, 1'EU peut recevoir le contenu vidéo 3D demandé et restituer le contenu sur un affichage de l'EU. La restitution du contenu peut comprendre une diversité de processus tels que, mais sans caractère limitatif, un décodage, une conversion en haute définition, une décompression, un séquençage, etc.
La figure 6 illustre un procédé 600 de signalement de contenu vidéo 3D conformément à certains modes de réalisation. Le procédé 600 peut être exécuté par des composants d'un serveur multimédia, par exemple, le serveur multimédia 116. Dans certains modes de réalisation, le serveur multimédia peut comprendre et/ou avoir accès à un ou plusieurs supports lisibles par ordinateur ayant des instructions stockées dessus, qui, lorsqu'elles sont exécutées, font en sorte que le serveur multimédia, ou les composants de celui-ci, exécutent le procédé 600.
En 604, le serveur multimédia peut déterminer les informations de capacité de dispositif. Dans certains modes de réalisation, le serveur multimédia peut déterminer les informations de capacité de dispositif en recevant, par exemple, dans le cadre d'un signalement au niveau session, les informations de l'EU ou d'un serveur de profils de dispositif.
En 608, le serveur multimédia peut recevoir une demande pour un contenu vidéo 3D. Dans certains modes de réalisation, la demande peut être conformément à des protocoles appropriés de diffusion en flux/transport, par exemple, HTTP, RTP, RTSP, DASH, MBMS, PSS, IMS_PSS_MBMS, etc. La demande peut provenir de l'EU et peut comprendre une Universal Resource
Locator (URL) ou un certain autre indicateur du contenu demandé ou de parties de celui-ci. Dans certains modes de réalisation, la demande reçue en 608 peut se produire simultanément à la détermination des informations de capacité de dispositif 604, avant la détermination, ou après la détermination. Dans certains modes de réalisation, l'ajustement temporaire des informations de capacité de dispositif (par exemple, par l'intermédiaire d'un signalement ProfDiff) peut également être reçu en même temps que la demande en 608. Ainsi, le serveur multimédia peut être complété avec les informations de profil récupérées du serveur de profils de dispositif avec des attributs supplémentaires ou des priorités pour des attributs déjà définis dans son profil de capacité de dispositif, sur base du signalement ProfDiff.
En 612, le serveur multimédia peut générer des fichiers de description de session et/ou de métadonnées pour établir une session de diffusion en flux, par exemple, un fichier SDP ou une description de présentation multimédia (MPD) sur base des informations de capacité de dispositif en tenant compte des capacités de décodage et de restitution de vidéo 3D stéréoscopique du lecteur multimédia au niveau de l'EU.
En 616, le serveur multimédia peut encoder le contenu vidéo 3D dans un type de format indiqué comme étant pris en charge par l'EU dans les informations de capacité de dispositif. Le contenu vidéo 3D peut ensuite être diffusé en flux vers le dispositif mobile.
Les composants décrits ici, par exemple, l'EU 104, le serveur multimédia 116, et/ou le serveur de profils de dispositif 144, peuvent être mis en œuvre dans un système en utilisant n'importe quels matériel et/ou logiciel appropriés à configurer comme souhaité. La figure 7 illustre, pour un mode de réalisation, un système exemple 700 comprenant un ou plusieurs processeur(s) 704, une logique de contrôle système 708 couplée à au moins un des processeur(s) 704, une mémoire système 712 couplée à la logique de contrôle système 7 0.8, une mémoire non volatile (NVM) /un stockage 716 couplé à la logique de contrôle système 708, une interface réseau 720 couplée à la logique de contrôle système 708, et des dispositifs d1entrée/sortie (E/S) 732 couplés à la logique de contrôle système 708.
Le(s) processeur(s) 704 peu(ven)t comprendre un ou plusieurs processeurs à simple cœur ou multicœurs. Le (s) processeur(s) 704 peu(ven)t comprendre n'importe quelle combinaison de processeurs d'usage général et de processeurs dédiés (par exemple, processeurs graphiques, processeurs d'application, processeurs de bande de base, etc.).
La logique de contrôle système 70 8 pour un mode de réalisation peut comprendre n'importe quels contrôleurs d'interface appropriés pour assurer n'importe quelle interface appropriée à au moins un des processeur(s) 704 et/ou à n'importe quel dispositif ou composant approprié en communication avec la logique de contrôle système 708.
La logique de contrôle système 708 pour un mode de réalisation peut comprendre un ou plusieurs contrôleur(s) mémoire pour fournir une interface à la mémoire système 712. La mémoire système 712 peut être utilisée pour charger et stocker des données et/ou instructions, par exemple, la logique 724. La mémoire système 712 pour un mode de réalisation peut comprendre n'importe quelle mémoire volatile appropriée, telle qu'une mémoire vive dynamique (DRAM) appropriée, par exemple.
La mémoire non volatile/le stockage 716 peut comprendre un ou plusieurs supports lisibles par ordinateur réels, non-transitoires utilisés pour stocker des données et/ou des instructions, par exemple, la logique 724. La mémoire non volatile/le stockage 716 peut comprendre n'importe quelle mémoire non volatile appropriée, telle qu'une mémoire flash, par exemple, et/ou peut comprendre n'importe quel(s) dispositif (s) de stockage non volatil approprié, tel (s) qu'un ou plusieurs lecteur(s) de disque dur (HDD), un ou plusieurs lecteur (s) de disque compact (CD), et/ou un ou plusieurs lecteur(s) de disque numérique polyvalent (DVD), par exemple.
La mémoire non volatile/le stockage 716 peut comprendre une ressource de stockage faisant physiquement partie d'un dispositif sur lequel le système 700 est installé ou par lequel il peut être accessible, mais pas nécessairement une partie du dispositif. Par exemple, on peut accéder à la mémoire non volatile/au stockage 716 sur un réseau par l'intermédiaire de l'interface réseau 720 et/ou sur des dispositifs d'entrée/sortie (E/S) 732.
La logique 724, lorsqu'elle est exécutée par au moins un des processeurs 704 peut faire en sorte que le système exécute les opérations décrites ici par rapport à 1 ' EU 104, au serveur multimédia 116, et/ou au serveur de profils de dispositif 144. La logique 724 peut en, outre/en variante, être disposée dans d'autres composants du système, par exemple, dans la logique de contrôle système 708, et peut comprendre n'importe quelle combinaison de composants matériel, logiciel, ou micrologiciel. L'interface réseau 720 peut avoir un émetteur-récepteur 722 pour fournir une interface radio pour que le système 700 communique sur un ou plusieurs réseau(x) et/ou avec n'importe quel autre dispositif approprié. Dans divers modes de réalisation, l'émetteur-récepteur 722 peut être intégré à d'autres composants du système 700. Par exemple, l'émetteur-récepteur 722 peut comprendre un processeur parmi le(s) processeur(s) 704, une mémoire de la mémoire système 712, et une mémoire non volatile/stockage de la mémoire non volatile/stockage 716. L'interface réseau 720 peut comprendre n'importe quels matériel et/ou microprogramme appropriés. L'interface réseau 720 peut comprendre une pluralité d'antennes pour fournir une interface radio à plusieurs entrées, plusieurs sorties. L'interface réseau 720 pour un mode de réalisation peut comprendre, par exemple, une carte réseau filaire, une carte réseau sans fil, un modem téléphonique, et/ou un modem sans fil.
Pour un mode de réalisation, au moins un des processeur(s) 704 peut être conditionné conjointement avec une logique pour un ou plusieurs contrôleur (s) de la logique de contrôle système 708. Pour un mode de réalisation, au moins un des processeur(s) 704 peut être conditionné conjointement avec une logique pour un ou plusieurs contrôleurs de la logique de contrôle système 708 pour former un système en boîtier (SiP). Pour un mode de réalisation, au moins un des processeur (s) 704 peut être intégré sur la même matrice avec une logique pour un ou plusieurs contrôleur (s) de la logique de contrôle système 708. Pour un mode de réalisation, au moins un des processeur(s) 704 peut être intégré sur la même matrice avec une logique pour un ou plusieurs contrôleurs(s) de la logique de contrôle système 708 de façon à former une puce-système (SoC).
Dans divers modes de réalisation, les dispositifs E/S 732 peuvent comprendre des interfaces utilisateur conçues pour permettre une interaction de l'utilisateur avec le système 700, des interfaces de composants périphériques conçues pour permettre une interaction des composants périphériques avec le système 700, et/ou des détecteurs conçus pour déterminer les conditions environnementales et/ou des informations de localisation se rapportant au système 700.
Dans divers modes de réalisation, les interfaces utilisateur pourraient inclure, mais sans s'y limiter, un affichage de restitution de vidéo en 3D (par exemple, un affichage à cristaux liquides, un affichage à écran tactile, un affichage auto-stéréoscopique, etc.), un haut-parleur, un microphone, un ou plusieurs appareils photo (par exemple, un appareil photo et/ou une caméra vidéo), une lampe de poche (par exemple, un flash à diode électroluminescente), et un clavier.
Dans divers modes de réalisation, les interfaces de composants périphériques peuvent comprendre, mais sans s'y limiter, un port de mémoire non volatile, un port de bus série universel (USB), une prise jack audio, et une interface d'alimentation.
Dans divers modes de réalisation, les détecteurs peuvent comprendre, mais sans s'y limiter, un capteur gyroscopique, un accéléromètre, un capteur de proximité, un détecteur de lumière ambiante, et une unité de positionnement. L'unité de positionnement peut également faire partie de, ou interagir avec, l'interface réseau 720 pour communiquer avec des composants d'un réseau de positionnement, par exemple, un satellite d'un système de positionnement global (GPS).
Dans divers modes de réalisation, le système 700 peut être un appareil mobile tel que, mais sans caractère limitatif, un ordinateur portable, une tablette, un mini-ordinateur portatif, un téléphone intelligent, etc. Dans divers modes de réalisation, le système 700 peut avoir plus ou moins de composants, et/ou des architectures différentes.
Bien que certains modes de réalisation aient été illustrés et décrits ici à des fins de description, une grande diversité de modes de réalisation ou mises en œuvre alternatifs et/ou équivalents calculés pour atteindre les mêmes objectifs peuvent substituer les modes de réalisation illustrés et décrits sans sortir du cadre de la présente description. La présente demande est prévue pour couvrir n'importe quelles adaptations ou variations des modes de réalisation abordés ici. Pour cette raison, il est manifestement prévu que les modes de réalisation décrits ici soient limités uniquement par les revendications et leurs équivalents.

Claims (29)

  1. REVENDICATIONS 1. — Support(s) lisible(s) par ordinateur comportant des instructions qui, lorsqu’elles sont exécutées, font en sorte qu’un dispositif : obtienne, d’un serveur de profils de dispositif, un attribut de format de combinaison de trame de diffusion en flux qui comprend une liste de formats de combinaison de trame, pris en charge par un terminal client d’un réseau de communication sans fil, appropriés pour la diffusion en flux d’une vidéo 3D stéréoscopique sur un protocole de transport pris en charge par une application de service de diffusion en flux par paquets (PSS) sur le terminal client, le protocole de transport étant un protocole de transport en temps réel (RTP) ou un protocole de transfert hypertexte (HTTP) ; adapte le contenu sur base de l’attribut de format de combinaison de trame de diffusion en flux ; génère un fichier de description de session ou de métadonnées pour établir une session de diffusion en flux sur base de l’attribut de format de combinaison de trame de diffusion en flux ; et transmette le contenu adapté et le fichier de description de session ou de métadonnées généré au terminal client.
  2. 2. — Support(s) lisible(s) par ordinateur selon la revendication 1, dans lequel la liste de formats de combinaison de trame comprend une indication d’un format de combinaison compatible de trame à entrelacement vertical, un format de combinaison compatible de trame à entrelacement horizontal, un format de combinaison compatible de trame côte-à-côte, un format de combinaison compatible de trame haut-bas, un format de combinaison compatible de trame à damier, ou un format de combinaison par vue à pleine résolution à entrelacement temporel.
  3. 3. — Support(s) lisible(s) par ordinateur selon la revendication 1, dans lequel la liste comprend une liste d'une ou plusieurs valeurs entières qui correspondent respectivement à un ou plusieurs formats de combinaison de trame pris en charge.
  4. 4. — Support(s) lisible(s) par ordinateur selon la revendication 3, dans lequel la liste d'une ou plusieurs valeurs entières comprend un 1 pour correspondre à un format de combinaison compatible de trame à entrelacement vertical, un 2 pour correspondre à un format de combinaison compatible de trame à entrelacement horizontal, un 3 pour correspondre à un format de combinaison compatible de trame côte-à-côte, un 4 pour correspondre à un format de combinaison compatible de trame haut-bas, un 0 pour correspondre à un format de combinaison compatible de trame à damier, ou un 5 pour correspondre à un format de combinaison par vue à pleine résolution à entrelacement temporel.
  5. 5. — Support(s) lisible(s) par ordinateur selon la revendication 1, dans lequel le protocole de transport comprend RTP.
  6. 6. — Support(s) lisible(s) par ordinateur selon la revendication 1, dans lequel le protocole de transport comprend HTTP.
  7. 7. — Support(s) lisible(s) par ordinateur selon la revendication 1, dans lequel le fichier de description de session ou de métadonnées est un fichier de protocole de description de session (SDP) de protocole de diffusion en flux en temps réel (RTSP) ou un fichier de description de présentation multimédia (MPD) de diffusion en flux dynamique adaptative sur protocole de transport hypertexte (DASH).
  8. 8. — Support(s) lisible(s) par ordinateur selon la revendication 1, dans lequel le contenu est un contenu vidéo 3D et les instructions, lorsqu’elles sont exécutées, font en outre en sorte que le dispositif : transcode le contenu vidéo 3D ou convertisse un format du contenu vidéo 3D sur base de l’attribut de format de combinaison de trame de diffusion en flux.
  9. 9. — Support(s) lisible(s) par ordinateur comportant des instructions qui, lorsqu’elles sont exécutées, font en sorte qu’un dispositif : obtienne, d’un serveur de profils de dispositif, un attribut de format de combinaison de trame qui comprend une liste d’un ou plusieurs formats de combinaison de trame, pris en charge par un équipement utilisateur, appropriés pour une vidéo 3D stéréoscopique qui peut être incluse dans un fichier au format de fichier 3rd Generation Partnership Project (3GP) et traitée par une application de service de diffusion en flux par paquets (PSS) sur l’équipement utilisateur ; et transmette le contenu à l’équipement utilisateur sur base de l’attribut de format de combinaison de trame.
  10. 10. — Support(s) lisible(s) par ordinateur selon la revendication 9, dans lequel la liste des formats de combinaison de trame comprend une indication d’un format de combinaison de trame côte-à-côte ou d’un format de combinaison de trame haut-bas.
  11. 11. — Support(s) lisible(s) par ordinateur selon la revendication 9, dans lequel la liste comprend une liste d’une ou plusieurs valeurs entières qui correspondent respectivement à un ou plusieurs formats de combinaison de trame.
  12. 12. — Support(s) lisible(s) par ordinateur selon la revendication 11, dans lequel la liste d’une ou plusieurs valeurs entières comprend un 3 pour correspondre à un format de combinaison de trame côte-à-côte ou un 4 pour correspondre à un format de combinaison de trame haut-bas.
  13. 13. — Appareil, comprenant : un lecteur multimédia pour décoder et restituer un contenu vidéo stéréoscopique tridimensionnel (en 3D) reçu sans fil par un dispositif mobile, sur un affichage du dispositif mobile ; et un module de gestion de contenu pour : déterminer des informations de capacité de dispositif incluant des codecs et formats vidéo 3D pris en charge par le lecteur multimédia ; transmettre un ou plusieurs messages à un serveur de profils de dispositif, le ou les messages comprenant les informations de capacité de dispositif ; transmettre au moins un message à un serveur multimédia, l’au moins un message comprenant une demande de contenu vidéo 3D stéréoscopique et n’importe quels ajustements temporaires sur les informations de capacité de dispositif.
  14. 14. — Appareil selon la revendication 13, dans lequel les informations de capacité de dispositif ont un attribut de format 3D qui comprend un type de format pris en charge par le système de circuit du lecteur multimédia.
  15. 15. — Appareil selon la revendication 14, dans lequel le type de format est un type de format de combinaison de trame qui correspond à un format de combinaison compatible de trame ou à un format de combinaison par vue à pleine résolution, un type de format à diffusion simultanée, ou un type de format bidimensionnel plus auxiliaire.
  16. 16. — Appareil selon la revendication 15, dans lequel le type de format est un type de format à combinaison de trame qui est un format de combinaison compatible de trame avec une valeur pour indiquer entrelacement vertical, entrelacement horizontal, côte-à-côte, haut-bas, ou damier.
  17. 17. — Appareil selon la revendication 13, dans lequel le contenu vidéo 3D est reçu sans fil par le dispositif mobile par l'intermédiaire d'un service de diffusion en flux par paquets.
  18. 18. — Appareil selon la revendication 13, dans lequel le module de gestion de contenu sert à transmettre des informations de capacité de dispositif dans un message SUBSCRIBE de protocole d'initiation de session (SIP) à un sous-système de réseau central multimédia à protocole Internet durant la découverte de service.
  19. 19. — Appareil selon la revendication 18, dans lequel, après la découverte de service, le module de gestion de contenu consiste à utiliser un signalement SIP pour mettre à jour un ensemble codecs et formats vidéo 3D pris en charge.
  20. 20. — Appareil selon la revendication 13, dans lequel le lecteur multimédia est en outre configuré pour : recevoir un flux de données comprenant le contenu vidéo 3D stéréoscopique demandé, dans lequel le lecteur multimédia est en outre configuré pour recevoir le flux de données selon un protocole de diffusion en flux adaptative dynamique sur le protocole de transport hypertexte (DASH) ; un protocole de diffusion en flux par paquets (PSS) ; ou un protocole de services PSS et de diffusion/multidiffusion multimédia (MBMS) basé sur un sous-système multimédia à protocole Internet (IMS).
  21. 21. — Appareil selon la revendication 20, dans lequel le lecteur multimédia est en outre configuré pour recevoir un fichier de protocole de description de session (SDP) ou un fichier de métadonnées de description de présentation multimédia (MPD) associé au flux de données.
  22. 22. — Dispositif mobile comprenant l’appareil selon la revendication 13.
  23. 23. - Dispositif mobile selon la revendication 22, comprenant en outre : un affichage auto-stéréoscopique pour restituer le contenu vidéo 3D sous le contrôle du lecteur multimédia.
  24. 24. — Support(s) lisible(s) par ordinateur comportant des instructions qui, lorsqu’elles sont exécutées, font en sorte qu’un serveur de profils de dispositif : obtienne une demande d’informations de capacité 3D se rapportant à un équipement utilisateur ; et fournisse un attribut de format de combinaison de trame de diffusion en flux qui comprend une liste de formats de combinaison de trame, pris en charge par l’équipement utilisateur, appropriés pour la diffusion en flux d’une vidéo 3D stéréoscopique sur un protocole de transport pris en charge par une application de service de diffusion en flux par paquets (PSS) sur l’équipement utilisateur, le protocole de transport étant un protocole de transport en temps réel (RTP) ou un protocole de transfert hypertexte (HTTP).
  25. 25. — Support(s) lisible(s) par ordinateur selon la revendication 24, dans lequel la liste de formats de combinaison de trame comprend une indication d’un format de combinaison compatible de trame à entrelacement vertical, un format de combinaison compatible de trame à entrelacement horizontal, un format de combinaison compatible de trame côte-à-côte, un format de combinaison compatible de trame haut-bas, un format de combinaison compatible de trame à damier, ou un format de combinaison par vue à pleine résolution à entrelacement temporel.
  26. 26. — Support(s) lisible(s) par ordinateur selon la revendication 24, dans lequel le protocole de transport comprend RTP.
  27. 27. — Support(s) lisible(s) par ordinateur selon la revendication 24, dans lequel le protocole de transport comprend HTTP.
  28. 28. — Support(s) lisible(s) par ordinateur selon la revendication 24, dans lequel la liste comprend une liste d'une ou plusieurs valeurs entières qui correspondent respectivement à un ou plusieurs formats de combinaison de trame pris en charge.
  29. 29. — Support(s) lisible(s) par ordinateur selon la revendication 28, dans lequel la liste d'une ou plusieurs valeurs entières comprend un 1 pour correspondre à un format de combinaison compatible de trame à entrelacement vertical, un 2 pour correspondre à un format de combinaison compatible de trame à entrelacement horizontal, un 3 pour correspondre à un format de combinaison compatible de trame côte-à-côte, un 4 pour correspondre à un format de combinaison compatible de trame haut-bas, un 0 pour correspondre à un format de combinaison compatible de trame à damier, ou un 5 pour correspondre à un format de combinaison par vue à pleine résolution à entrelacement temporel.
BE2013/0244A 2012-04-09 2013-04-09 Signalement d'informations de video tridimensionnelle dans des reseaux de communication BE1021405B1 (fr)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201261621939P 2012-04-09 2012-04-09
US61/621939 2012-04-09
US201261679627P 2012-08-03 2012-08-03
US13/626,767 US9584793B2 (en) 2012-04-09 2012-09-25 Signaling three-dimensional video information in communication networks

Publications (1)

Publication Number Publication Date
BE1021405B1 true BE1021405B1 (fr) 2015-11-17

Family

ID=74551320

Family Applications (1)

Application Number Title Priority Date Filing Date
BE2013/0244A BE1021405B1 (fr) 2012-04-09 2013-04-09 Signalement d'informations de video tridimensionnelle dans des reseaux de communication

Country Status (19)

Country Link
US (3) US9584793B2 (fr)
EP (2) EP2966875A1 (fr)
JP (2) JP6248330B2 (fr)
KR (3) KR101881265B1 (fr)
CN (2) CN103369467B (fr)
AU (1) AU2016203175B2 (fr)
BE (1) BE1021405B1 (fr)
CA (2) CA2957198C (fr)
FI (2) FI126988B (fr)
FR (1) FR2993426B1 (fr)
HK (1) HK1187769A1 (fr)
IT (1) ITMI20130537A1 (fr)
MX (2) MX341486B (fr)
MY (1) MY168796A (fr)
NL (1) NL2010602C2 (fr)
RU (2) RU2591174C2 (fr)
SE (1) SE537942C2 (fr)
TW (2) TWI578756B (fr)
WO (1) WO2013155110A1 (fr)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9438883B2 (en) 2012-04-09 2016-09-06 Intel Corporation Quality of experience reporting for combined unicast-multicast/broadcast streaming of media content
US9584793B2 (en) 2012-04-09 2017-02-28 Intel Corporation Signaling three-dimensional video information in communication networks
CN103294767A (zh) * 2013-04-22 2013-09-11 腾讯科技(深圳)有限公司 浏览器的多媒体信息显示方法及装置
CA2912351A1 (fr) * 2013-05-31 2014-12-04 Sony Corporation Dispositif de traitement d'informations et procede de traitement d'informations
KR20150083429A (ko) * 2014-01-08 2015-07-17 한국전자통신연구원 Dash를 사용하는 비디오 재생을 위한 비트 깊이 표현 방법
TWI510911B (zh) * 2014-01-14 2015-12-01 Wistron Corp 行動電話及內核除錯訊息之輸出方法
JP6456980B2 (ja) * 2014-02-10 2019-01-23 エルジー エレクトロニクス インコーポレイティド 3d放送サービスのための放送信号の送受信方法及び装置
US20170055025A1 (en) * 2014-04-30 2017-02-23 Lg Electronics Inc. Broadcast transmission apparatus, broadcast reception apparatus, operation method of the broadcast transmission apparatus and operation method of the broadcast reception apparatus
CN107211032A (zh) * 2015-02-11 2017-09-26 Vid拓展公司 用于http动态自适应流媒体(dash)中的一般化http头的系统和方法
US20170026431A1 (en) * 2015-07-20 2017-01-26 Intel IP Corporation Multicast mechanism for wireless devices
JP2017092646A (ja) * 2015-11-06 2017-05-25 株式会社リコー 情報処理システム、情報処理装置、情報処理方法及びプログラム
CN106454317B (zh) * 2016-11-15 2018-04-13 天津大学 基于模糊控制的立体视频质量自适应算法
EP3603083A4 (fr) * 2017-03-26 2020-12-16 SHARP Kabushiki Kaisha Systèmes et procédés de signalisation d'informations pour des applications de réalité virtuelle
CN108668179B (zh) * 2017-03-27 2021-05-14 华为技术有限公司 媒体索引文件的传输方法及相关设备
US10819763B2 (en) 2017-03-31 2020-10-27 At&T Intellectual Property I, L.P. Apparatus and method of video streaming
US10484308B2 (en) 2017-03-31 2019-11-19 At&T Intellectual Property I, L.P. Apparatus and method of managing resources for video services
US20190104326A1 (en) * 2017-10-03 2019-04-04 Qualcomm Incorporated Content source description for immersive media data
KR102476204B1 (ko) * 2017-10-19 2022-12-08 삼성전자주식회사 멀티 코덱 인코더 및 이를 포함하는 멀티 코덱 인코딩 시스템
WO2019151798A1 (fr) * 2018-01-31 2019-08-08 엘지전자 주식회사 Procédé et dispositif de transmission/réception de métadonnées d'images dans un système de communication sans fil
CN111670579A (zh) 2018-02-28 2020-09-15 索尼公司 内容分发控制装置、内容分发控制方法、程序和内容分发控制系统
WO2019167633A1 (fr) * 2018-02-28 2019-09-06 ソニー株式会社 Dispositif de commande de distribution de contenu, procédé de commande de distribution de contenu, programme et système de distribution de contenu
CN109743281A (zh) * 2018-11-19 2019-05-10 视联动力信息技术股份有限公司 一种通信方法及装置
US11044185B2 (en) 2018-12-14 2021-06-22 At&T Intellectual Property I, L.P. Latency prediction and guidance in wireless communication systems
US11320725B2 (en) 2019-11-22 2022-05-03 Canon Kabushiki Kaisha Projection type display apparatus, projection type display system, control method of projection type display apparatus, and storage medium
CN113382227A (zh) * 2021-06-03 2021-09-10 天翼阅读文化传播有限公司 一种基于智能手机的裸眼3d全景视频渲染装置及方法
US20230007067A1 (en) 2021-06-30 2023-01-05 Tencent America LLC Bidirectional presentation datastream
JP2023044353A (ja) 2021-09-17 2023-03-30 セイコーエプソン株式会社 電気光学装置および電子機器

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020032751A1 (en) * 2000-05-23 2002-03-14 Srinivas Bharadwaj Remote displays in mobile communication networks
US20110138018A1 (en) * 2009-12-04 2011-06-09 Qualcomm Incorporated Mobile media server
US20120023518A1 (en) * 2010-07-20 2012-01-26 At&T Intellectual Property I, L.P. Method and apparatus for adapting a presentation of media content
EP2424251A2 (fr) * 2010-08-23 2012-02-29 Lg Electronics Inc. Procédé de fourniture de données vidéo 3D dans une TV en 3D

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6407680B1 (en) 2000-12-22 2002-06-18 Generic Media, Inc. Distributed on-demand media transcoding system and method
KR100420601B1 (ko) * 2001-11-22 2004-03-02 에스케이 텔레콤주식회사 비디오 데이터 스트리밍 서비스 방법
JP2004282462A (ja) 2003-03-17 2004-10-07 Nippon Telegr & Teleph Corp <Ntt> 3次元映像情報配信システム
KR100556826B1 (ko) 2003-04-17 2006-03-10 한국전자통신연구원 Mpeg-4 기반의 양안식 3차원 동영상을 서비스하기 위한 인터넷 방송 시스템 및 그 방법
US7392316B2 (en) 2003-06-30 2008-06-24 Microsoft Corporation Client to server streaming of multimedia content using HTTP
US7426734B2 (en) 2003-10-24 2008-09-16 Microsoft Corporation Facilitating presentation functionality through a programming interface media namespace
US8537204B2 (en) 2004-07-08 2013-09-17 Gyoung Il Cho 3D television broadcasting system
TWI242382B (en) 2004-08-31 2005-10-21 Sunplus Technology Co Ltd Three-dimensional video composite signal demodulating method and system capable of inhibiting pseudo-color noises
JP2008530835A (ja) 2005-02-08 2008-08-07 テレフオンアクチーボラゲット エル エム エリクソン(パブル) パケット交換ネットワーク上のオンデマンドマルチチャネルストリーミングセッション
EP1877919B1 (fr) 2005-04-28 2015-10-28 ArenaNet, LLC Systeme et procede de distribution selective d'informations
JP2006331199A (ja) 2005-05-27 2006-12-07 Ntt Docomo Inc サービス決定装置及びサービス決定方法
JP2007036874A (ja) * 2005-07-28 2007-02-08 Univ Of Tokyo 視聴者情報測定システム及びこれを用いたマッチングシステム
US8970680B2 (en) * 2006-08-01 2015-03-03 Qualcomm Incorporated Real-time capturing and generating stereo images and videos with a monoscopic low power mobile device
US20080228912A1 (en) 2007-03-16 2008-09-18 Ramakrishna Vedantham Enhanced Quality Reporting for Transmission Sessions
KR100962696B1 (ko) 2007-06-07 2010-06-11 주식회사 이시티 부호화된 스테레오스코픽 영상 데이터 파일의 구성방법
US8630273B2 (en) 2007-07-17 2014-01-14 France Telecom Dynamic appropriation of at least one multimedia device during call set-up
US20100134494A1 (en) 2008-12-02 2010-06-03 Electronics And Telecommunications Research Institute Remote shading-based 3d streaming apparatus and method
US9083958B2 (en) 2009-08-06 2015-07-14 Qualcomm Incorporated Transforming video data in accordance with three dimensional input formats
US20110032331A1 (en) 2009-08-07 2011-02-10 Xuemin Chen Method and system for 3d video format conversion
US8380878B2 (en) * 2009-08-13 2013-02-19 Cox Communications, Inc. Side loading
US8310520B2 (en) 2009-08-19 2012-11-13 Avaya Inc. Flexible decomposition and recomposition of multimedia conferencing streams using real-time control information
US8976871B2 (en) 2009-09-16 2015-03-10 Qualcomm Incorporated Media extractor tracks for file format track selection
JP5591932B2 (ja) * 2009-09-22 2014-09-17 クゥアルコム・インコーポレイテッド ファイルフォーマットトラック選択のためのメディアエクストラクタトラック
PL2491720T3 (pl) * 2009-10-20 2018-08-31 Telefonaktiebolaget Lm Ericsson (Publ) Zapewnienie uzupełniających informacji przetwarzania
EP2522148A1 (fr) * 2010-01-07 2012-11-14 Thomson Licensing Procédé et appareil destinés à fournir le contenu d'un affichage vidéo
KR101694821B1 (ko) * 2010-01-28 2017-01-11 삼성전자주식회사 다시점 비디오스트림에 대한 링크 정보를 이용하는 디지털 데이터스트림 전송 방법와 그 장치, 및 링크 정보를 이용하는 디지털 데이터스트림 전송 방법과 그 장치
US9172991B2 (en) 2010-04-30 2015-10-27 Lg Electronics Inc. Apparatus of processing an image and a method of processing thereof
US8402502B2 (en) 2010-06-16 2013-03-19 At&T Intellectual Property I, L.P. Method and apparatus for presenting media content
US9131033B2 (en) 2010-07-20 2015-09-08 Qualcomm Incoporated Providing sequence data sets for streaming video data
US9596447B2 (en) 2010-07-21 2017-03-14 Qualcomm Incorporated Providing frame packing type information for video coding
US9226045B2 (en) * 2010-08-05 2015-12-29 Qualcomm Incorporated Signaling attributes for network-streamed video data
US8677428B2 (en) 2010-08-20 2014-03-18 Disney Enterprises, Inc. System and method for rule based dynamic server side streaming manifest files
EP2432232A1 (fr) 2010-09-19 2012-03-21 LG Electronics, Inc. Procédé et appareil pour traiter un signal de diffusion pour service de diffusion en 3D (tridimensionnel)
WO2011144117A2 (fr) * 2011-05-27 2011-11-24 华为技术有限公司 Procédé de transmission de données multimédias, procédé de réception de données multimédias, client et système correspondants
EP2597876A1 (fr) * 2011-11-24 2013-05-29 Koninklijke Philips Electronics N.V. Vidéos 3D entrelacées
US9584793B2 (en) 2012-04-09 2017-02-28 Intel Corporation Signaling three-dimensional video information in communication networks

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020032751A1 (en) * 2000-05-23 2002-03-14 Srinivas Bharadwaj Remote displays in mobile communication networks
US20110138018A1 (en) * 2009-12-04 2011-06-09 Qualcomm Incorporated Mobile media server
US20120023518A1 (en) * 2010-07-20 2012-01-26 At&T Intellectual Property I, L.P. Method and apparatus for adapting a presentation of media content
EP2424251A2 (fr) * 2010-08-23 2012-02-29 Lg Electronics Inc. Procédé de fourniture de données vidéo 3D dans une TV en 3D

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"3rd Generation Partnership Project; Technical Specification Group Services and System Aspects; Mobile stereoscopic 3D video (Release 11)", 3GPP STANDARD; 3GPP TR 26.905, 3RD GENERATION PARTNERSHIP PROJECT (3GPP), MOBILE COMPETENCE CENTRE ; 650, ROUTE DES LUCIOLES ; F-06921 SOPHIA-ANTIPOLIS CEDEX ; FRANCE, vol. SA WG4, no. V1.1.0, 16 March 2012 (2012-03-16), pages 1 - 44, XP050580270 *

Also Published As

Publication number Publication date
MY168796A (en) 2018-12-04
CA2868038A1 (fr) 2013-10-17
FR2993426A1 (fr) 2014-01-17
EP2966875A1 (fr) 2016-01-13
ITMI20130537A1 (it) 2013-10-10
EP2837192A4 (fr) 2015-08-19
CA2868038C (fr) 2017-03-28
KR101881265B1 (ko) 2018-07-23
JP2015515830A (ja) 2015-05-28
KR20140136007A (ko) 2014-11-27
US20130266289A1 (en) 2013-10-10
JP2018014746A (ja) 2018-01-25
CA2957198C (fr) 2019-05-07
RU2643446C1 (ru) 2018-02-01
CA2957198A1 (fr) 2013-10-17
KR101630108B1 (ko) 2016-06-13
CN105915882B (zh) 2019-04-30
MX362598B (es) 2019-01-25
KR101727875B1 (ko) 2017-04-17
SE537942C2 (sv) 2015-12-01
AU2013246041A1 (en) 2014-10-02
EP2837192B1 (fr) 2020-10-28
FI20175391L (fi) 2017-05-04
US9787967B2 (en) 2017-10-10
NL2010602A (en) 2013-10-15
EP2837192A1 (fr) 2015-02-18
EP2837192B8 (fr) 2021-01-20
FI126988B (en) 2017-09-15
KR20170044205A (ko) 2017-04-24
AU2016203175A1 (en) 2016-06-09
JP6428885B2 (ja) 2018-11-28
TW201401849A (zh) 2014-01-01
NL2010602C2 (en) 2015-04-09
AU2016203175B2 (en) 2017-10-19
WO2013155110A1 (fr) 2013-10-17
US20150113572A1 (en) 2015-04-23
CN103369467B (zh) 2016-06-22
TWI578756B (zh) 2017-04-11
CN103369467A (zh) 2013-10-23
US9584793B2 (en) 2017-02-28
RU2014138947A (ru) 2016-04-10
FR2993426B1 (fr) 2018-03-16
SE1350444A1 (sv) 2013-10-10
TW201720149A (zh) 2017-06-01
FI20135313A (fi) 2013-10-10
FI129521B (en) 2022-03-31
US10194134B2 (en) 2019-01-29
HK1187769A1 (zh) 2014-04-11
KR20160075787A (ko) 2016-06-29
JP6248330B2 (ja) 2017-12-20
MX2014011579A (es) 2015-06-23
US20170353709A1 (en) 2017-12-07
RU2591174C2 (ru) 2016-07-10
CN105915882A (zh) 2016-08-31
MX341486B (es) 2016-08-23
BR112014024061A2 (fr) 2017-06-20

Similar Documents

Publication Publication Date Title
BE1021405B1 (fr) Signalement d&#39;informations de video tridimensionnelle dans des reseaux de communication
ES2482605B2 (es) Señalización de información de vídeo tridimensional en redes de comunicación
US9674499B2 (en) Compatible three-dimensional video communications
AU2013246041B2 (en) Signaling three dimensional video information in communication networks
FI20225190A1 (en) Signaling of three-dimensional video information in communication networks
BR112014024061B1 (pt) Meio legível por computador, método, aparelho e sistema para sinalização de informação de vídeo tridimensional em redes de comunicação

Legal Events

Date Code Title Description
MM Lapsed because of non-payment of the annual fee

Effective date: 20200430

PD Change of ownership

Owner name: APPLE INC.; US

Free format text: DETAILS ASSIGNMENT: CHANGE OF OWNER(S), CESSION; FORMER OWNER NAME: INTEL CORPORATION

Effective date: 20200512

Owner name: APPLE INC.; US

Free format text: DETAILS ASSIGNMENT: CHANGE OF OWNER(S), CESSION

Effective date: 20200512

NE Restoration requested

Effective date: 20210319

NF Patent restored after lapse

Effective date: 20210506