BE1021405B1 - Signalement d'informations de video tridimensionnelle dans des reseaux de communication - Google Patents
Signalement d'informations de video tridimensionnelle dans des reseaux de communication Download PDFInfo
- Publication number
- BE1021405B1 BE1021405B1 BE2013/0244A BE201300244A BE1021405B1 BE 1021405 B1 BE1021405 B1 BE 1021405B1 BE 2013/0244 A BE2013/0244 A BE 2013/0244A BE 201300244 A BE201300244 A BE 201300244A BE 1021405 B1 BE1021405 B1 BE 1021405B1
- Authority
- BE
- Belgium
- Prior art keywords
- frame
- format
- combination
- compatible
- video
- Prior art date
Links
- 238000004891 communication Methods 0.000 title claims abstract description 15
- 238000009877 rendering Methods 0.000 claims description 12
- 230000003044 adaptive effect Effects 0.000 claims description 3
- 230000002123 temporal effect Effects 0.000 claims description 3
- 230000000977 initiatory effect Effects 0.000 claims description 2
- 238000000034 method Methods 0.000 abstract description 17
- 230000006978 adaptation Effects 0.000 description 10
- 230000011664 signaling Effects 0.000 description 9
- 230000005540 biological transmission Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 239000000470 constituent Substances 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 239000012092 media component Substances 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 230000003139 buffering effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 239000013256 coordination polymer Substances 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000013515 script Methods 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L27/00—Modulated-carrier systems
- H04L27/26—Systems using multi-frequency codes
- H04L27/2601—Multicarrier modulation systems
- H04L27/2647—Arrangements specific to the receiver only
- H04L27/2655—Synchronisation arrangements
- H04L27/2657—Carrier synchronisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W24/00—Supervisory, monitoring or testing arrangements
- H04W24/10—Scheduling measurement reports ; Arrangements for measurement reports
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/438—Interfacing the downstream path of the transmission network originating from a server, e.g. retrieving encoded video stream packets from an IP network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L5/00—Arrangements affording multiple use of the transmission path
- H04L5/003—Arrangements for allocating sub-channels of the transmission path
- H04L5/0048—Allocation of pilot signals, i.e. of signals known to the receiver
- H04L5/0051—Allocation of pilot signals, i.e. of signals known to the receiver of dedicated pilots, i.e. pilots destined for a single user or terminal
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/10—Architectures or entities
- H04L65/1016—IP multimedia subsystem [IMS]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/1066—Session management
- H04L65/1069—Session establishment or de-establishment
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/60—Network streaming of media packets
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/60—Network streaming of media packets
- H04L65/61—Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
- H04L65/612—Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio for unicast
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/60—Network streaming of media packets
- H04L65/61—Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
- H04L65/613—Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio for the control of the source by the destination
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/60—Network streaming of media packets
- H04L65/65—Network streaming protocols, e.g. real-time transport protocol [RTP] or real-time control protocol [RTCP]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/60—Network streaming of media packets
- H04L65/70—Media network packetisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/60—Network streaming of media packets
- H04L65/75—Media network packet handling
- H04L65/756—Media network packet handling adapting media to device capabilities
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/60—Network streaming of media packets
- H04L65/75—Media network packet handling
- H04L65/762—Media network packet handling at the source
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/80—Responding to QoS
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/156—Availability of hardware or computational resources, e.g. encoding based on power-saving criteria
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/164—Feedback from the receiver or from the transmission channel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/2343—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
- H04N21/234309—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by transcoding between formats or standards, e.g. from MPEG-2 to MPEG-4 or from Quicktime to Realvideo
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/235—Processing of additional data, e.g. scrambling of additional data or processing content descriptors
- H04N21/2353—Processing of additional data, e.g. scrambling of additional data or processing content descriptors specifically adapted to content descriptors, e.g. coding, compressing or processing of metadata
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/238—Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/24—Monitoring of processes or resources, e.g. monitoring of server load, available bandwidth, upstream requests
- H04N21/2404—Monitoring of server processing errors or hardware failure
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/258—Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
- H04N21/25808—Management of client data
- H04N21/25825—Management of client data involving client display capabilities, e.g. screen resolution of a mobile phone
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/258—Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
- H04N21/25808—Management of client data
- H04N21/25833—Management of client data involving client hardware characteristics, e.g. manufacturer, processing or storage capabilities
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/262—Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists
- H04N21/26258—Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists for generating a list of items to be played back in a given order, e.g. playlist, or scheduling item distribution according to such list
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44209—Monitoring of downstream path of the transmission network originating from a server, e.g. bandwidth variations of a wireless network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/4424—Monitoring of the internal components or processes of the client device, e.g. CPU or memory load, processing speed, timer, counter or percentage of the hard disk space used
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/61—Network physical structure; Signal processing
- H04N21/6106—Network physical structure; Signal processing specially adapted to the downstream path of the transmission network
- H04N21/6125—Network physical structure; Signal processing specially adapted to the downstream path of the transmission network involving transmission via Internet
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/61—Network physical structure; Signal processing
- H04N21/6106—Network physical structure; Signal processing specially adapted to the downstream path of the transmission network
- H04N21/6131—Network physical structure; Signal processing specially adapted to the downstream path of the transmission network involving transmission via a mobile phone network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/63—Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
- H04N21/643—Communication protocols
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/63—Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
- H04N21/643—Communication protocols
- H04N21/6437—Real-time Transport Protocol [RTP]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/816—Monomedia components thereof involving special video data, e.g 3D video
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
- H04N21/8456—Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/06—Selective distribution of broadcast services, e.g. multimedia broadcast multicast service [MBMS]; Services to user groups; One-way selective calling services
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/12—Messaging; Mailboxes; Announcements
- H04W4/14—Short messaging services, e.g. short message services [SMS] or unstructured supplementary service data [USSD]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/50—Service provisioning or reconfiguring
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W40/00—Communication routing or communication path finding
- H04W40/24—Connectivity information management, e.g. connectivity discovery or connectivity update
- H04W40/248—Connectivity information update
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W60/00—Affiliation to network, e.g. registration; Terminating affiliation with the network, e.g. de-registration
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W60/00—Affiliation to network, e.g. registration; Terminating affiliation with the network, e.g. de-registration
- H04W60/04—Affiliation to network, e.g. registration; Terminating affiliation with the network, e.g. de-registration using triggered events
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W64/00—Locating users or terminals or network equipment for network management purposes, e.g. mobility management
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W76/00—Connection management
- H04W76/10—Connection setup
- H04W76/15—Setup of multiple wireless link connections
- H04W76/16—Involving different core network technologies, e.g. a packet-switched [PS] bearer in combination with a circuit-switched [CS] bearer
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W8/00—Network data management
- H04W8/02—Processing of mobility data, e.g. registration information at HLR [Home Location Register] or VLR [Visitor Location Register]; Transfer of mobility data, e.g. between HLR, VLR or external networks
- H04W8/06—Registration at serving network Location Register, VLR or user mobility server
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W80/00—Wireless network protocols or protocol adaptations to wireless operation
- H04W80/08—Upper layer protocols
- H04W80/12—Application layer protocols, e.g. WAP [Wireless Application Protocol]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L12/00—Data switching networks
- H04L12/02—Details
- H04L12/16—Arrangements for providing special services to substations
- H04L12/18—Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
- H04L12/189—Arrangements for providing special services to substations for broadcast or conference, e.g. multicast in combination with wireless systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/58—Message adaptation for wireless communication
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/194—Transmission of image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/146—Data rate or code amount at the encoder output
- H04N19/147—Data rate or code amount at the encoder output according to rate distortion criteria
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/189—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
- H04N19/196—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/40—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video transcoding, i.e. partial or full decoding of a coded input stream followed by re-encoding of the decoded output stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
- H04N19/463—Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W48/00—Access restriction; Network selection; Access point selection
- H04W48/18—Selecting a network or a communication service
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W76/00—Connection management
- H04W76/10—Connection setup
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W8/00—Network data management
- H04W8/02—Processing of mobility data, e.g. registration information at HLR [Home Location Register] or VLR [Visitor Location Register]; Transfer of mobility data, e.g. between HLR, VLR or external networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W8/00—Network data management
- H04W8/22—Processing or transfer of terminal data, e.g. status or physical capabilities
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Databases & Information Systems (AREA)
- Computer Graphics (AREA)
- Computer Security & Cryptography (AREA)
- Business, Economics & Management (AREA)
- General Business, Economics & Management (AREA)
- Library & Information Science (AREA)
- Theoretical Computer Science (AREA)
- Computing Systems (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Information Transfer Between Computers (AREA)
Abstract
Les modes de réalisation de la présente description décrivent des dispositifs, procédés, supports lisibles par ordinateur et configurations de systèmes pour le signalement de capacités de contenu vidéo tridimensionnel stéréoscopique d'un dispositif dans un réseau de communication. D'autres modes de réalisation peuvent être décrits et revendiqués.
Description
Signalement d'informations de vidëo tridimensionnelle dans des réseaux de communication
Domaine
Les modes de réalisation de la présente invention concernent généralement le domaine des communications, et plus particulièrement, le signalement d'informations de vidéo tridimensionnelle dans des réseaux de communication.
Arrière-plan
La vidéo tridimensionnelle (en 3D) offre une qualité élevée et une expérience multimédia immersive, laquelle est seulement devenue réalisable récemment sur des composants électroniques de consommation et des plates-formes mobiles grâce aux progrès dans la technologie d'affichage, le traitement de signal, la technologie de transmission, et la conception de circuit. Elle est actuellement introduite dans les foyers par divers canaux, y compris par Blu-ray Disc™, par transmission par câble et satellite, etc., ainsi que vers des réseaux mobiles par 1'intermédiaire de téléphones intelligents à fonction 3D, etc. Les concepts se rapportant à la distribution d'un tel contenu par des réseaux sans fil sont en cours de développement.
Brève description des dessins
Les modes de réalisation seront aisément compris à la lecture de la description détaillée suivante conjointement avec les dessins joints. Pour faciliter la présente description, des numéros de référence semblables désignent des éléments structuraux semblables. Les modes de réalisation sont illustrés à titre d'exemple et sans aucun caractère limitatif sur les figures des dessins joints.
La figure 1 illustre schématiquement un réseau de communication sans fil conformément à divers modes de réalisation.
Les figures 2a-b illustrent une adaptation du contenu en flux et/ou des fichiers associés de description de session et de métadonnées conformément à divers modes de réalisation.
La figure 3 illustre une configuration d'une session de diffusion en flux conformément à un mode de réalisation.
La figure 4 illustre les formats compatibles de combinaison de trame conformément à divers modes de réalisation.
La figure 5 illustre un procédé de signalement de capacités de dispositif vidéo 3D conformément à divers modes de réalisation.
La figure 6 illustre un procédé de signalement de contenu vidéo 3D conformément à divers modes de réalisation.
La figure 7 représente schématiquement un système exemple conformément à divers modes de réalisation.
Description détaillée
Des modes de réalisation servant d'illustration de la présente description comprennent, mais sans s'y limiter, des procédés, systèmes, supports lisibles par ordinateur, et appareils pour le signalement de capacités de contenu de vidéo tridimensionnelle stéréoscopique d'un dispositif client dans un réseau de communication. Certains modes de réalisation de la présente invention dans ce contexte pourraient être sur des procédés, systèmes, supports lisibles par ordinateur, et appareils pour le signalement de capacités de contenu vidéo tridimensionnel stéréoscopique d'un dispositif mobile dans un réseau de communication sans fil.
Divers aspects des modes de réalisation servant d'illustration seront décrits en utilisant des termes couramment employés par le spécialiste de la technique pour expliquer la substance de son travail à d'autres spécialistes de la technique. Cependant, il sera apparent au spécialiste de la technique que des variantes de réalisation peuvent être mises en pratique avec seulement certains des aspects décrits. À des fins d'explication, des nombres, matériaux, et configurations spécifiques sont présentés afin de fournir une compréhension approfondie des modes de réalisation servant d'illustration. Cependant, il sera apparent à un spécialiste de la technique que des variantes de réalisation peuvent être mises en pratique sans les détails spécifiques. Dans d'autres cas, des caractéristiques bien connues sont omises ou simplifiées afin de ne pas masquer les modes de réalisation servant d'illustration.
En outre, diverses opérations seront décrites comme plusieurs- opérations distinctes, successives, d'une manière qui est la plus utile pour la compréhension des modes de réalisation servant d'illustration ; cependant, l'ordre de la description ne doit pas être interprété comme impliquant que ces opérations dépendent nécessairement d'un ordre. En particulier, ces opérations ne doivent pas nécessairement être exécutées dans l'ordre de présentation. L'expression « dans certains modes de réalisation » est utilisée à plusieurs reprises. L'expression ne fait généralement pas référence aux mêmes modes de réalisation ; cependant, elle peut le faire. Les termes « comprenant », « ayant », et « incluant » sont synonymes, sauf si le contexte l'indique autrement. L'expression « A et/ou B » signifie (A) , (B) , ou (A et B) . Les expressions « A/B » et « A ou B » signifient (A) , (B) , ou (A et B) , similaires à
l'expression « A et/ou B ». L'expression « au moins l'un parmi A, B et C » signifie (A) , (B) , (C) , (A et B) , (A et C) , (B et C) ou (A, B et C) . L'expression « (A) B » signifie (B) ou (A et B), c'est-à-dire, A est facultatif.
Bien que des modes de réalisation spécifiques aient été illustrés et décrits ici, l'homme du métier aura à l'esprit qu'une grande diversité des mises en œuvre alternatives et/ou équivalentes peuvent être substituées par les modes de réalisation spécifiques illustrés et décrits, sans sortir du cadre des modes de réalisation de la présente description. La présente demande est prévue pour couvrir n'importe quelles adaptations ou variations des modes de réalisation abordés ici. Pour cette raison, il est manifestement prévu que les modes de réalisation de la présente description soient limités uniquement par les revendications et leurs équivalents.
Tel qu'il est utilisé ici, le terme « module » peut désigner, être une partie de, ou inclure un circuit intégré spécifique à l'application (ASIC) , un circuit électronique, un processeur (partagé, dédié, ou un groupe) et/ou une mémoire (partagée, dédiée, ou un groupe) qui exécutent un ou plusieurs programmes logiciels ou micrologiciels, un circuit logique combinatoire, et/ou d'autres composants appropriés qui fournissent la fonctionnalité décrite.
Des améliorations significatives de capacité de compression vidéo ont été démontrées avec 1'introduction de la norme de codage vidéo avancé (AVC) H.264/MPEG-4. Depuis le développement de la norme, le groupe de travail vidéo du Video Coding Experts Group (VCEG) de 1'ITU-T et le Moving Picture Experts Group (MPEG) de l'organisation internationale de normalisation (ISO)/commission électrotechnique internationale (CEI) ont également normalisé une extension d'AVC qui est dénommé codage vidéo multivue (MVC). Le MVC fournit une représentation compacte pour plusieurs vues de la scène vidéo, telles que plusieurs caméras vidéo synchronisées.
Dans des applications de vidéo 3D stéréoscopique, deux vues sont affichées. Une pour l'œil gauche et une pour l'œil droit. Il y a diverses façons de formater les vues d'un contenu vidéo 3D stéréoscopique. Dans un mode de réalisation, le codage de vidéo en 3D à appariement stéréo peut être un cas spécial de MVC, où les vues pour les yeux gauche et droit sont produites par l'intermédiaire d'un MVC. D'autres formats de codage de production d'un contenu vidéo 3D sont également possibles. Divers dispositifs peuvent avoir des capacités différentes par rapport au décodage et à la restitution de ces différents formats. Les modes de réalisation décrits ici stipulent divers paramètres d'un échange de capacités de dispositif, qui peuvent faciliter la distribution et la visualisation du contenu vidéo 3D dans un réseau de communication tel qu'un réseau sans fil, par exemple, un réseau d'accès radio terrestre universel évolué (EUTRAN).
La figure 1 illustre schématiquement un environnement réseau 100 conformément à divers modes de réalisation. L'environnement réseau 100 comprend un équipement utilisateur (EU) 104, qui peut également être dénommé comme étant un terminal client ou dispositif mobile, couplé sans fil à un- réseau d'accès radio (RAN) 108. Le RAN 108 peut comprendre une station de base à nœud évolué (eNB) 112 configurée pour communiquer avec 1'EU 104 par l'intermédiaire d'une interface par radio (OTA) . Le RAN 108 peut faire partie d'un réseau avancé de type « third génération partnership project » (3GPP) « long-term évolution » (LTE) et peut être dénommé EUTRAN. Dans d'autres modes de réalisation, d'autres technologies de réseau d'accès radio peuvent être utilisées. L'EU 104 peut communiquer avec un serveur multimédia distant 116 par l'intermédiaire du RAN 108. Alors que la station de base à nœud évolué 112 est montrée communiquant directement avec le serveur multimédia, il sera entendu que les communications peuvent passer par un certain nombre de composants intermédiaires de mise en réseau, par exemple, des switches, des routeurs, des passerelles, etc., dans divers modes de réalisation. Par exemple, dans certains modes de réalisation, le RAN 108 peut être couplé à un réseau central de services (CSN) qui couple par communications le RAN 108 à un plus grand réseau, par exemple, un réseau étendu, dont on peut considérer que le serveur multimédia 116 fait partie.
Alors que la figure 1 décrit l'environnement réseau en tant que réseau de communication sans fil, d'autres modes de réalisation peuvent être utilisés dans d'autres types de réseaux, par exemple, des réseaux câblés. Il peut être entendu que d'autres environnements réseau dans lesquels des modes de réalisation de la présente invention peuvent être employés peuvent comprendre des composants supplémentaires, en moins, ou différents par rapport à ceux explicitement illustrés dans l'exemple représenté sur la figure 1. Par exemple, des modes de réalisation de la présente invention employés dans un réseau câblé, peuvent avoir le serveur multimédia 116 et 1 ' EU 104 qui communiquent entre eux sans le RAN 108. L'EU 104 et le serveur multimédia 116 peuvent avoir un certain nombre de composants qui sont configurés pour faciliter l'accès, le stockage, la transmission, et l'affichage d'un contenu vidéo 3D. Par exemple, 1 ' EU 104 peut comprendre un module de gestion de contenu 120, un lecteur multimédia 124 ayant une application de diffusion en flux 126, et un affichage 128. L'application de diffusion en flux 126 peut avoir une fonctionnalité suffisante de manière à recevoir un contenu vidéo 3D et les informations associées ; décoder, décompresser, et autrement réassembler la vidéo en 3D ; et restituer la vidéo en 3D sur l'affichage 128. Dans divers modes de réalisation, on peut faire référence à l'application de diffusion en flux 126 dans le contexte de la technologie de diffusion en flux employée. Par exemple, dans des modes de réalisation dans lesquels le contenu est diffusé en flux par un service de diffusion en flux par paquets (PSS) , l'application de diffusion en flux 126 peut être dénommée application PSS. Le module de gestion de contenu 120 peut négocier ou autrement communiquer des paramètres de diffusion en flux comprenant, par exemple, les paramètres de capacité de dispositif, pour permettre la réception des données d'une manière qui facilite le fonctionnement du lecteur multimédia 124.
Le serveur multimédia 116 peut comprendre un module de distribution de contenu 132 ayant une application de diffusion en flux 134, un module de gestion de contenu 136, et un stockage de contenu 140. Le module de distribution de contenu 132 peut encoder, compresser, ou autrement assembler le contenu vidéo 3D, stocké dans le stockage de contenu 14 0, en vue d'une transmission vers un ou plusieurs EU, par exemple, 1'EU 104. Le module de gestion de contenu 136 peut négocier ou autrement communiquer des paramètres de diffusion en flux comprenant, par exemple, les paramètres de capacité de dispositif, et contrôler le module de distribution de contenu 132 d'une manière à faciliter la distribution du contenu 3D.
Dans certains modes de réalisation, un ou plusieurs des composants qui sont montrés dans le cadre du serveur multimédia 116 peuvent être disposés séparément du serveur multimédia 116 et couplés par communications au serveur multimédia sur un lien de communication. Par exemple, dans certains modes de réalisation, le stockage de contenu 140 peut être disposé à distance du module de distribution de contenu 132 et du module de gestion de contenu 136.
Dans certains modes de réalisation, le module de distribution de contenu 132 peut distribuer, par l'intermédiaire de 1'eNB 112 dans un exemple, le contenu vidéo 3D à 1 ' EU 104 conformément à une norme de diffusion en flux 3GPP. Par exemple, le contenu vidéo 3D peut être transmis conformément à une norme PSS, par exemple, 3GPP TS 26.234 Vil.0.0 (16 mars 2012), une norme de diffusion en flux adaptative dynamique sur HTTP (DASH), par exemple, 3GPP TS 26.247 V.11.0.0 (16 mars 2012), une norme de service de diffusion et multidiffusion multimédia (MBMS), par exemple, TS 26.346 Vil.1.0 (29 juin 2012), et/ou une norme de services PSS et MBMS basés sur IMS (IMS_PSS_MBMS), par exemple, TS 26.237 V.11.0.0 (29 juin 2012). L'application de diffusion en flux 126 peut être configurée pour recevoir le contenu vidéo 3D sur n'importe lequel d'un certain nombre de protocoles de transport, par exemple, le protocole de transport en temps réel (RTP), le protocole de transport hypertexte (HTTP), etc. L'échange de capacités permet aux serveurs de diffusion en flux de média, tel que le serveur multimédia 116, de fournir une gamme étendue de dispositifs avec contenu vidéo approprié pour le dispositif particulier en question. Pour faciliter la négociation de contenu côté serveur pour la diffusion en flux, le serveur multimédia 116 peut déterminer les capacités spécifiques de 1'EU 104.
Le module de gestion de contenu 120 et le module de gestion de contenu 136 peuvent négocier ou autrement communiquer les paramètres d'une session de diffusion en flux de contenu vidéo 3D. Cette négociation peut avoir lieu par un signalement au niveau session par l'intermédiaire du RAN 108. Dans certains modes de réalisation, le signalement au niveau session peut comprendre des transmissions se rapportant à des informations de capacité de dispositif qui comprennent les capacités de décodage et de restitution de vidéo 3D stéréoscopique du lecteur multimédia 124. Dans divers modes de réalisation, les informations de capacité de dispositif peuvent en outre comprendre la taille de tampon de pré-décodeur, la mise en tampon initiale, la . capacité du décodeur, les propriétés de l'affichage (taille d'écran, résolution, profondeur de couleur, etc.), la prise en charge d'adaptation de procédé de diffusion en flux (protocole de diffusion en flux en temps réel (RTSP), HTTP, etc.), la prise en charge de la qualité d'expérience utilisateur (QoE), la prise en charge de compte-rendu de protocole de transport en temps réel (RTCP) étendu, la prise en charge de la commutation rapide £le contenu, les profils RTP pris en charge, les attributs de protocole de description de session (SDP), etc.
Durant la configuration de la session de diffusion en flux, le module de gestion de contenu 136 peut utiliser les informations de capacité de dispositif pour contrôler le module de distribution de contenu 132 d'une manière à fournir à 1 ' EU 104 le type adéquat de contenu multimédia. Par exemple, le serveur multimédia 116 peut déterminer quelles variantes des multiples variantes disponibles d'un flux de données vidéo sont souhaitées sur base des capacités réelles de l'EU 104 pour déterminer les flux les plus adaptés pour ce terminal. Ceci peut permettre une distribution améliorée de contenu vidéo 3D et des fichiers associés de description de session et de métadonnées, par exemple, un fichier SDP ou un fichier de description de présentation multimédia (MPD), à 1'EU 104.
Le module de distribution de contenu 132 peut accéder au contenu dans le stockage de contenu 14 0 et adapter le contenu et/ou les fichiers associés de description de session et de métadonnées, par exemple, des fichiers SDP/MPD, selon les paramètres de session négociés avant distribution du contenu/des fichiers associés. Le contenu, lorsqu'il est distribué à 1'EU 104, peut être décodé par le lecteur multimédia 124 et restitué sur l'affichage 128. L'adaptation de contenu et/ou des fichiers associés de description de session et de métadonnées est montrée conformément à certains exemples spécifiques en référence aux figures 2a-b, tandis que la configuration de la session de diffusion en flux est montrée conformément à un exemple spécifique en référence à la figure 3.
La figure 2a illustre un mode de réalisation de diffusion en flux basée sur DASH avec une adaptation de formats de vidéo 3D conformément à certains modes de réalisation. En particulier, la figure 2a illustre un serveur http 204 en communication avec un client DASH 208 et mettant en œuvre un mode de réalisation de diffusion en flux basé sur pull, dans lequel le contrôle de diffusion en flux est maintenu par le client plutôt le serveur, où le client télécharge un contenu du serveur à travers une série de transactions de demande-réponse sur HTTP après l'inspection du fichier MPD. Dans la diffusion en flux basée sur DASH, le fichier de métadonnées MPD fournit des informations sur la structure et les différentes versions des représentations de contenu multimédia stocké dans le serveur HTTP 204 (y compris les différents débits binaires, fréquences d'images, résolutions, types de codée, etc.) . Sur base de ces informations de métadonnées MPD qui décrivent la relation des segments et comment ils forment une présentation multimédia, le client DASH 208 peut demander les segments de média en utilisant des méthodes HTTP GET ou GET partiel. Le serveur http 204 et le client DASH 208 peuvent être similaires à et sensiblement interchangeables avec le serveur multimédia 116 et 1'EU 104, respectivement.
Dans DASH, l'ensemble de formats de vidéo 3D et les informations de contenu correspondantes peuvent être signalés au client DASH 208 dans le fichier MPD. En fonction du profil de capacité du client DASH 208 et de ses formats 3D pris en charge, le serveur http 2 04 peut proposer un contenu formaté différent, par exemple, le serveur http 204 peut exclure les formats 3D qui ne sont pas pris en charge par le client DASH 208 dans le fichier MPD et comprennent uniquement ceux qui sont pris en charge par le client DASH 208. Dans ce contexte, le serveur HTTP 204 peut fournir le contenu optimisé pour différents formats de vidéo 3D au client DASH 208. Ce faisant, le serveur HTTP 204 peut utiliser le signalement d'échange de capacités de dispositif du client DASH 208 décrivant les divers formats de vidéo 3D pris en charge. Le client DASH 208 peut ensuite demander les versions correspondantes de contenu vidéo 3D pris en charge par le client DASH 208. De plus, lors de la récupération d'un fichier MPD avec HTTP, le client DASH 208 peut inclure des informations de codée et de format de vidéo 3D dans une demande GET, y compris de quelconques ajustements temporaires des formats de vidéo 3D sur base d'une différence de profil (ProfDiff) . Dans un exemple, la différence peut être configurée pour modifier temporairement un ou plusieurs paramètres MPD pour une session de présentation de contenu. Par exemple, la différence peut être configurée pour modifier le MPD jusqu'à ce que la session de présentation de contenu se termine ou qu'une différence ultérieure (correspondant à la première différence communiquée) soit communiquée au serveur HTTP 204. De cette façon, le serveur HTTP 204 peut distribuer un MPD optimisé au client DASH 208.
La figure 2b illustre un mode de réalisation de diffusion en flux basée sur RTSP avec une adaptation de formats de vidéo 3D conformément à certains modes de réalisation. En particulier, la figure 2b illustre un serveur 212 et un client 216 mettant en œuvre un procédé de diffusion en flux basé sur push, dans lequel la diffusion en flux et le contrôle de session sont maintenus par le serveur 212 plutôt que le client 216.
Le serveur 212 et le client 216 peuvent être similaires à, et sensiblement interchangeables avec, le serveur multimédia 116 et 11 EU 104, respectivement.
Des exemples de diffusion en flux basée sur push comprennent des services PSS et IMS_PSS_MBMS basés respectivement sur le protocole RTSP et d'initiation de session (SIP). Dans ce contexte, le serveur 212 reçoit l'ensemble de codées et formats de vidéo 3D pris en charge du client 216 et adapte le contenu sur base de ces informations, par exemple, le serveur 212 sélectionne la version de contenu la plus adaptée parmi les versions de contenu stocké ou transcode dynamiquement le contenu sur base des formats de vidéo 3D pris en charge et diffuse en flux le contenu vers le client 216. Les mëtadonnées se rapportant à la session, véhiculées dans le SDP peuvent véhiculer les informations de format vidéo 3D pour le contenu en flux.
La figure 3 illustre une découverte de service avec un service d'abonnement/notification pour IMS_PSS_MBMS conformément à certains modes de réalisation. En particulier, la figure 3 illustre les interactions entre un EU 304, un sous-système à réseau central (CN) IP multimédia (IM) 308, et une fonction de découverte de service (SDF) 312. L'EU 304 peut être similaire à, et sensiblement interchangeable avec 1 ' EU 104. Le sous-système IM CN 308 et la fonction de découverte de service 312 peuvent être une partie d'un domaine de réseau central qui assure 1'interface avec le domaine de réseau d'accès, par exemple, le RAN 108.
Dans le service IMS_PSS_MBMS, 1 ' EU 3 04 peut envoyer des informations de capacité de dispositif, par exemple, les codées et formats de vidéo 3D pris en charge, dans un message SIP SUBSCRIBE au sous-système IM CN 308 durant la découverte de service. Le sous-système IM CN 308 peut ensuite transférer le message à la fonction de découverte de service 312. La fonction de découverte de service 312 détermine les informations de découverte de service adéquates, par exemple, selon les capacités de l'EU 304 telles.que décrites dans le profil de l'utilisateur (découverte de service personnalisée). La fonction de découverte de service 312 peut ensuite envoyer un message SIP 200 OK au sous-système IM CN 308, lequel est relayé à 1 ' EU 304 pour confirmer l'initialisation de session sur base des informations de capacité de dispositif envoyées qui comprennent également les codées et formats de vidéo 3D pris en charge. Par la suite, la fonction de découverte de service 312 peut envoyer un message SIP NOTIFY, avec les informations de découverte de service, au sous-système IM CN 308, qui renvoie le message SIP NOTIFY à 1'EU 304. L'EU 304 peut ensuite répondre en envoyant un message SIP 200 OK au sous-système IM CN 308, lequel est ensuite relayé à la fonction de découverte de service 312.
Une telle infrastructure permet une découverte de service optimisée en utilisant les formats de vidéo 3D pris en charge dans des services utilisateur PSS et MBMS basés sur IMS. Plus tard durant la session IMS, 1'EU 304 peut également utiliser un signalement SIP pour indiquer des mises à jour, y compris n'importe quels ajustements temporaires à l'ensemble de codées et formats vidéo 3D pris en charge sur base de ProfDiff (par exemple, si l'orientation actuelle du dispositif est différente de l'orientation par défaut du dispositif) . Ceci peut être fait en actualisant l'abonnement au moyen d'autres messages SIP SUBSCRIBE incluant des informations sur les mises à jour aux informations de format de vidéo 3D.
En référence également la figure 1, dans certains modes de réalisation, le serveur multimédia 116 peut être couplé à un serveur de profils de dispositif 144 qui a les informations de profil de l'EU 104. Les informations de profil peuvent comprendre certaines ou toutes les informations de capacité de dispositif. Dans de tels modes de réalisation, le serveur multimédia 116 peut recevoir des informations d'identification de 1'EU 104, puis récupérer les informations de profil du serveur de profils de dispositif 144. Ceci peut se faire dans le cadre du signalement au niveau session.
Dans certains modes de réalisation, 1 ' EU 104 peut compléter les informations de profil récupérées du serveur de profils de dispositif 144 avec des attributs supplémentaires ou écraser des attributs déjà définis dans son profil de capacité de dispositif, sur base du signalement ProfDiff. Dans un exemple, un tel ajustement temporaire peut être déclenché par les préférences utilisateur, par exemple, si l'utilisateur pour une session particulière aime uniquement recevoir une vidéo à deux dimensions (en 2D) alors que le terminal est capable d'effectuer un rendu vidéo en 3D. L'application de diffusion en flux 134 peut encoder le contenu vidéo 3D pour transmission dans l'environnement réseau 100 conformément à un certain nombre de types de flux différents, chaque type de flux ayant des types de trame associés. Les types de trame pourraient comprendre une combinaison de trame, une diffusion simultanée, ou les types de trame 2D plus auxiliaire.
La combinaison de trame peut comprendre des formats de combinaison compatibles avec la trame et les formats de combinaison par vue à pleine résolution (FRPV). Dans les formats de combinaison compatibles avec la trame, l'application de diffusion en flux 134 peut combiner dans l'espace les trames constitutives d'une paire stéréo en une trame unique et encoder la trame unique. Les trames de sortie produites par l'application de diffusion en flux 126 contiennent les trames constitutives d'une paire stéréo. La résolution spatiale des trames originales de chaque vue et de la trame unique combinée peut être la même. Dans ce cas, l'application de diffusion en flux 134 peut procéder à un sous-échantillonnage des deux trames constitutives avant l'opération de combinaison. Les formats de combinaison compatibles avec la trame peuvent utiliser un format d'entrelacement vertical, d'entrelacement horizontal, côte-à-côte, haut-bas, ou damier, comme illustré sur les figures 4a-e, respectivement, et le sous-échantillonnage peut être effectué en conséquence.
Dans certains modes de réalisation, l'application de diffusion en flux 134 peut indiquer le format de combinaison de trame qui a été utilisé en incluant un ou plusieurs messages d'informations complémentaires d'amélioration (SEI) d'agencement de combinaison de trame, tels que spécifiés dans la norme H.264/AVC dans le flux binaire. L'application de diffusion en flux 126 peut décoder la trame, décompresser les deux trames constitutives des trames de sortie du décodeur, rééchantillonner les trames pour inverser le processus de sous-échantillonnage côté encodeur, et restituer les trames constitutives sur l'affichage 128.
Un format de combinaison FRPV peut comprendre un entrelacement temporel. Dans l'entrelacement temporel, la vidéo en 3D peut être encodée au double de la fréquence d'images de la vidéo originale, chaque image parente et ultérieure représentant une paire stéréo (vue gauche et droite) . La restitution de la vidéo stéréoscopique à entrelacement temporel peut typiquement être effectuée à une fréquence d'images élevée, où l'on utilise des lunettes actives (à obturation) pour fusionner la vue incorrecte dans chaque œil. Ceci peut compter sur une synchronisation précise entre les lunettes et l'écran.
Dans des modes de réalisation utilisant des types de trame à diffusion simultanée, les vues gauche et droite peuvent être transmises dans des flux indépendants de diffusion simultanée. Les flux transmis séparément peuvent être combinés par l'application de diffusion en flux 126 et décodés conjointement.
Dans des modes de réalisation utilisant les types de trame 2D plus auxiliaire, le contenu vidéo 2D peut être envoyé par l'application de diffusion en flux 134 conjointement avec des informations auxiliaires qui peuvent être utilisées par l'application de diffusion en flux 126 pour restituer la vidéo en 3D sur l'affichage 128. Ces informations auxiliaires peuvent être, par exemple, une carte de profondeur/parallaxe qui est une carte 2D avec chaque pixel définissant une profondeur/parallaxe d'un ou plusieurs pixels dans une image vidéo 2D associée.
Dans certains modes de réalisation, d'autres types de trame peuvent être utilisés. Par exemple, dans certains modes de réalisation, l'application de diffusion en flux 134 peut être capable d'encoder des vues stéréoscopiques dans un flux de vue de base et un flux de vue non de base, lesquels peuvent être transmis dans des flux identiques ou différents. Dans certains modes de réalisation, ceci peut être dénommé vidéo stéréoscopique basée sur MVC. Le flux de vue non de base peut comprendre des images de prédiction entre vues qui fournissent des informations spatiales/temporelles prédictives. Le flux de vue de base peut être suffisant pour permettre à un décodeur à vue unique, par exemple, 2D, de restituer la vue de base sous forme de vidéo 2D, alors que le flux de vue non de base peut fournir aux décodeurs 3D, par exemple, une application de diffusion en flux 126, des informations suffisantes pour restituer une vidéo en 3D._ Si le serveur multimédia 116 est au courant des capacités de 1'EU, il peut omettre l'envoi du flux de vue non de base à un dispositif qui ne prend pas en charge la vidéo en 3D ou ne possède pas un débit binaire suffisant pour prendre en charge la vidéo en 3D.
Dans divers modes de réalisation, les informations de capacité de dispositif, transmises du module de gestion de contenu 120 et/ou du serveur de profils de dispositif 144 au module de gestion de contenu 136, peuvent comprendre un attribut de format 3D qui comprend une liste d'un ou plusieurs formats appropriés pour la diffusion en flux d'une vidéo 3D stéréoscopique sur un protocole de transmission approprié, par exemple, RTP ou HTTP, pris en charge par l'application de diffusion en flux 126. Dans certains modes de réalisation, l'attribut de format 3D peut être un format de combinaison de trame de diffusion en flux pour RTP ou HTTP ayant une valeur entière « 1 » pour entrelacement vertical, « 2 » pour entrelacement horizontal, « 3 » pour côte-à-côte, « 4 » pour haut-bas, « 0 » pour damier, ou « 5 » pour entrelacement temporel. Dans certains modes de réalisation, le même attribut de format 3D peut être utilisé pour indiquer les formats de combinaison de trame pris en charge dans un format spécifique de fichier ou de conteneur. Dans certains modes de réalisation, l'attribut de format 3D peut comprendre une valeur plus généralisée, par exemple, « FP » pour combinaison de trame.
Dans certains modes de réalisation, l'attribut de format 3D peut être un autre format de flux ayant une valeur « SC » pour diffusion simultanée ou « 2DA » pour vidéo 2D plus informations auxiliaires.
Dans des modes de réalisation dans lesquels 1 ' EU 104 prend en charge plus d'un type de format, il peut en outre indiquer un ou plusieurs types de format préférés. Ceci pourrait être réalisé en listant les types de format dans un ordre de préférence, en associant un indicateur de préférence à des types de format sélectionnés, etc.
Dans certains modes de réalisation, en plus de fournir un attribut de type de trame, le module de gestion de contenu 120 et/ou le serveur de profils de dispositif 144 peuvent fournir un ou plusieurs attributs de type de composant. Les attributs de type de composant peuvent fournir des détails supplémentaires concernant des types spécifiques de composants vidéo, qui sont des éléments constitutifs de la vidéo 3D stéréoscopique, pris en charge et/ou préférés par l'application de diffusion en flux 126.
Les attributs de type de composant peuvent avoir une valeur « C » pour indiquer un flux de données de vue centrale, « CD » pour indiquer un flux de données de vue centrale et une carte de profondeur, « CP » pour indiquer un flux de données de vue centrale et une carte de parallaxe, « D » pour indiquer une carte de profondeur, « P » pour indiquer une carte de parallaxe, « L » pour indiquer un flux de données de vue de gauche, « LD » pour indiquer un flux de données de vue de gauche et une carte de profondeur, « LIL » pour indiquer des trames vidéo qui comprennent des lignes de balayage alternatives des vues de gauche et de droite, « LP » pour indiquer un flux de données de vue de gauche et une carte de parallaxe, « R » pour indiquer un flux de données de vue de droite, « Seq » pour indiquer trame séquentielle (par exemple, un flux de données vidéo qui comprend des trames alternatives des flux gauche et droit - un signalement supplémentaire, par exemple, des messages AVC SEI, peuvent être nécessaires pour signaler les trames qui contiennent les vues de gauche et de droite) , « SbS » pour indiquer côte-à-côte, et « TaB » pour indiquer haut et bas.
Chaque attribut de type de format peut être associé à un ensemble respectif d'attributs de type de composant. Par exemple, si le type de format est SC, le type de composant associé peut être L ou R pour indiquer respectivement les vues gauche et droite.
La capacité de teneur d'échange de capacités de dispositif dans la spécification PSS 3GPP TS 24.234 permet à des serveurs de fournir, à une gamme étendue de dispositifs, un contenu approprié pour le dispositif particulier en question. Afin d'améliorer la distribution de contenu vidéo 3D stéréoscopique au terminal client, la présente description décrit un nouvel ensemble d'attributs qui peuvent être inclus dans le lexique PSS pour le signalement d'échange de capacités de dispositif. Ces attributs proposés peuvent décrire les capacités de décodage et de restitution de vidéo en 3D du terminal client, y compris les formats de combinaison de trame vidéo 3D que le client prend en charge. Ceci peut, par exemple, permettre au serveur et au réseau de fournir un RTSP SDP ou DASH MPD optimisé au terminal client, ainsi que d'effectuer un transcodage et des conversions de format 3D appropriés afin de faire correspondre le contenu vidéo 3D transmis aux capacités du dispositif client.
Le signalement d'échange de capacités de dispositif des codées et formats de vidéo 3D pris en charge peut être activé dans 3GPP TS 26.234 avec l'inclusion de trois nouveaux attributs dans le lexique PSS : (1) pour le composant Streaming, deux attributs indiquant la liste de formats de combinaison de trame pris en charge appropriés pour la diffusion en flux de vidéo 3D stéréoscopique sur RTP et HTTP, respectivement, et (2) pour le composant ThreeGPFileFormat, un attribut indiquant la liste des formats de combinaison de trame pris en charge appropriés pour la vidéo 3D stéréoscopique qui peuvent être inclus dans un format de fichier 3GPP (3GP), qui est un format de conteneur multimédia couramment utilisé pour les services multimédias basés sur 3GPP. Les détails des définitions d'attribut sont présentés plus bas conformément à certains modes de réalisation.
Nom d'attribut : StreamingFramePackingFormatsRTP Définition d'attribut : Liste des formats de' combinaison de trame pris en charge appropriés pour la diffusion en flux de vidéo 3D stéréoscopique sur RT P pris en charge par l'application PSS. Les formats de combinaison de trame dans le champ d'application de la vidéo 3D stéréoscopique comprennent :
Format de combinaison compatible de trame : 1 = Entrelacement vertical, 2 = Entrelacement horizontal. 3 = Côte-à-côte, 4 = Haut-bas, 0 = Damier
Formats de combinaison par vue à pleine résolution : 5 = Entrelacement temporel Composant : Diffusion en flux Type : Littéral (sac)
Valeurs légales : Liste de valeurs entières correspondant aux formats de combinaison de trame pris en charge. Règle de résolution : Annexer EXEMPLE : <StreamingFramePackingFormatsRTP> <rdf:Bag> <rdf:li>3</rdf:li> <rdf:li>4</rdf:li> </rdf:Bag> </StreamingFramePackingFormatsRTP> Nom d'attribut : StreamingFramePackingFormatsHTTP Définition d'attribut : Liste des formats de combinaison de trame pris en charge appropriés pour la diffusion en flux de vidéo 3D stéréoscopique sur HTTP pris en charge par l'application PSS. Les formats de combinaison de trame dans le champ d'application de la vidéo 3D stéréoscopique comprennent :
Format de combinaison compatible de trame : 1 = Entrelacement vertical, 2 = Entrelacement horizontal. 3 = Côte-à-côte, 4 = Haut-bas, 0 = Damier
Formats de combinaison par vue à pleine résolution : 5 = Entrelacement temporel Composant : Diffusion en flux Type : Littéral (sac)
Valeurs légales : Liste de valeurs entières correspondant aux formats de combinaison de trame pris en charge. Règle de résolution : Annexer EXEMPLE : <StreamingFramePackingFormatsHTTP> <rdf:Bag> <rdf:li>3</rdf:li> <rdf: 1i >4 </rdf:li> </rdf:Bag> </StreamingFramePackingFormatsHTTP> Nom d'attribut : ThreeGPFramePackingFormats Définition d'attribut : Liste des formats de combinaison de trame pris en charge appropriés pour la vidéo 3D stéréoscopique qui peuvent être inclus dans un fichier 3GP et traités par l'application PSS.
Composant : ThreeGPFileFormat Type : Littéral (sac)
Valeurs légales : Liste de valeurs entières correspondant aux formats de combinaison de trame pris en charge. Les valeurs entières seront ou 3 ou 4, correspondant respectivement aux formats de combinaison de trame Côte-à-côte et Haut et bas. Règle de résolution : Annexer EXEMPLE : <ThreeGPFramePackingFormats> <rdf:Bag> <rdf:li>3</rdf:li> <rdf:li>4</rdf:li> </rdf:Bag> </ThreeGPFramePackingFormats>
Dans certains modes de réalisation, une présentation de média, telle que décrite dans le MPD, par exemple, peut comprendre des attributs et éléments - communs à Adaptation Set, Representation, et
SubRepresentation. Un tel élément commun peut être un élément FramePacking. Un élément FramePacking peut spécifier des informations d'agencement de combinaison de trame du type de composant média vidéo. Lorsqu'aucun élément FramePacking n'est fourni pour un composant vidéo, la combinaison de trame ne peut pas être utilisée pour le composant de média vidéo. L'élément FramePacking peut comprendre un attribut @scheme!dUri qui comprend un indicateur de ressource uniforme (URI) pour identifier le schéma de configuration de combinaison de trame employé. Dans certains modes de réalisation, l'élément FramePacking peut inclure en outre un attribut @value pour fournir une valeur à l'élément descripteur.
Dans certains modes de réalisation, plusieurs éléments FramePacking peuvent être présents. Si c'est le cas, chaque élément peut contenir des informations suffisantes pour sélectionner ou rejeter la représentation décrite.
Si le schéma ou la valeur de tous les éléments FramePacking ne sont pas reconnus, le client peut ignorer les Représentations décrites. Un client peut rejeter un Ensemble d'Adaptation sur base de l'observation d'un élément FramePacking.
Pour des Ensembles d'Adaptation ou des
Représentations qui contiennent un composant vidéo qui est conforme à la technologie d'informations ISO/CEI -Coding of audio-visual objects - Part 10: Advanced Video Coding (ISO/IEC 14496-10:2012), un numéro de ressource uniforme pour FramePackin@schemeIdUri peut être urn:mpeg:dash:14496 :10 :frame_packing_arrangement_type: 20 11, qui peut être défini pour indiquer l'agencement de combinaison de trame tel que défini par le tableau D-8 de 1'ISO/IEC 14496-10:2012 (« Définition de frame_packing_arrangement_type ») devant être contenu dans l'élément FramePacking. La @value peut être la colonne « Valeur » telle que spécifiée dans le tableau D-8 de 1'ISO/IEC 14496-10:2012 et peut être interprétée selon la colonne « Interprétation » dans le même tableau.
La figure 5 illustre un procédé 500 de signalement de capacités de dispositif vidéo 3D conformément à certains modes de réalisation. Le procédé 500 peut être exécuté par des composants d'un EU, par exemple, 11 EU 104. Dans certains modes de réalisation, 1'EU peut comprendre et/ou avoir accès à un ou plusieurs supports lisibles par ordinateur ayant des instructions stockées dessus, qui, lorsqu'elles sont exécutées, font en sorte que l'EU, ou des composants de celui-ci, exécutent le procédé 500.
En 504, l'EU peut déterminer les informations de capacité de dispositif. Comme décrit précédemment, les informations de capacité de dispositif peuvent comprendre des informations concernant les capacités de décodage et de restitution d'un lecteur multimédia. Dans certains modes de réalisation, un module de gestion de contenu, situé sur l'EU ou ailleurs, peut déterminer ces informations en exécutant un ou plusieurs scripts sur l'EU pour tester 'directement les capacités. Dans d'autres modes de réalisation, le module de gestion de contenu peut accéder à un ou plusieurs fichiers stockés qui contiennent les informations pertinentes.
En 508, l'EU peut fournir des informations de capacité de dispositif au serveur multimédia 116 ou au serveur de profils de dispositif 144, y compris les capacités de décodage et de restitution de vidéo 3D stéréoscopique du lecteur multimédia au niveau de l'EU. Comme décrit précédemment, les informations de capacité de dispositif peuvent comprendre un ou plusieurs attributs de type de format qui représentent une liste de types de trame pris en charge par une application de diffusion en flux de l'EU. Dans certains modes de réalisation, les informations de capacité de dispositif peuvent être fournies avant ou après la demande en 512.
Dans certains modes de réalisation, certaines ou toutes les informations de capacité de dispositif peuvent être fournies au serveur multimédia par une autre entité, par exemple, un serveur de profils de dispositif.
En 512, l'EU peut demander un contenu vidéo 3D. Dans certains modes de réalisation, la demande peut être conformément à des protocoles appropriés de diffusion en flux/transport, par exemple, HTTP, RTP, RTSP, DASH, MBMS, PSS, IMS_PSS_MBMS, etc. La demande peut être dirigée vers le serveur multimédia et peut comprendre une Uniform Resource Locator (URL) ou un certain autre indicateur du contenu demandé ou de parties de celui-ci. Dans certains modes de réalisation, l'ajustement temporaire des informations de capacité de dispositif (par exemple, par l'intermédiaire d'un signalement ProfDiff) peut également être fourni en même temps que la demande en 508. Ainsi, l'EU peut compléter les informations de profil récupérées du serveur de profils de dispositif avec des attributs supplémentaires ou de priorités pour des attributs déjà définis dans son profil de capacité de dispositif, sur base du signalement ProfDiff. Dans un exemple, un tel ajustement temporaire peut être déclenché par les préférences utilisateur, par exemple, si l'utilisateur pour une session particulière aime uniquement recevoir une vidéo à deux dimensions (en 2D) alors que le terminal est capable d'effectuer un rendu vidéo en 3D.
En 516, 1'EU peut recevoir le contenu vidéo 3D demandé et restituer le contenu sur un affichage de l'EU. La restitution du contenu peut comprendre une diversité de processus tels que, mais sans caractère limitatif, un décodage, une conversion en haute définition, une décompression, un séquençage, etc.
La figure 6 illustre un procédé 600 de signalement de contenu vidéo 3D conformément à certains modes de réalisation. Le procédé 600 peut être exécuté par des composants d'un serveur multimédia, par exemple, le serveur multimédia 116. Dans certains modes de réalisation, le serveur multimédia peut comprendre et/ou avoir accès à un ou plusieurs supports lisibles par ordinateur ayant des instructions stockées dessus, qui, lorsqu'elles sont exécutées, font en sorte que le serveur multimédia, ou les composants de celui-ci, exécutent le procédé 600.
En 604, le serveur multimédia peut déterminer les informations de capacité de dispositif. Dans certains modes de réalisation, le serveur multimédia peut déterminer les informations de capacité de dispositif en recevant, par exemple, dans le cadre d'un signalement au niveau session, les informations de l'EU ou d'un serveur de profils de dispositif.
En 608, le serveur multimédia peut recevoir une demande pour un contenu vidéo 3D. Dans certains modes de réalisation, la demande peut être conformément à des protocoles appropriés de diffusion en flux/transport, par exemple, HTTP, RTP, RTSP, DASH, MBMS, PSS, IMS_PSS_MBMS, etc. La demande peut provenir de l'EU et peut comprendre une Universal Resource
Locator (URL) ou un certain autre indicateur du contenu demandé ou de parties de celui-ci. Dans certains modes de réalisation, la demande reçue en 608 peut se produire simultanément à la détermination des informations de capacité de dispositif 604, avant la détermination, ou après la détermination. Dans certains modes de réalisation, l'ajustement temporaire des informations de capacité de dispositif (par exemple, par l'intermédiaire d'un signalement ProfDiff) peut également être reçu en même temps que la demande en 608. Ainsi, le serveur multimédia peut être complété avec les informations de profil récupérées du serveur de profils de dispositif avec des attributs supplémentaires ou des priorités pour des attributs déjà définis dans son profil de capacité de dispositif, sur base du signalement ProfDiff.
En 612, le serveur multimédia peut générer des fichiers de description de session et/ou de métadonnées pour établir une session de diffusion en flux, par exemple, un fichier SDP ou une description de présentation multimédia (MPD) sur base des informations de capacité de dispositif en tenant compte des capacités de décodage et de restitution de vidéo 3D stéréoscopique du lecteur multimédia au niveau de l'EU.
En 616, le serveur multimédia peut encoder le contenu vidéo 3D dans un type de format indiqué comme étant pris en charge par l'EU dans les informations de capacité de dispositif. Le contenu vidéo 3D peut ensuite être diffusé en flux vers le dispositif mobile.
Les composants décrits ici, par exemple, l'EU 104, le serveur multimédia 116, et/ou le serveur de profils de dispositif 144, peuvent être mis en œuvre dans un système en utilisant n'importe quels matériel et/ou logiciel appropriés à configurer comme souhaité. La figure 7 illustre, pour un mode de réalisation, un système exemple 700 comprenant un ou plusieurs processeur(s) 704, une logique de contrôle système 708 couplée à au moins un des processeur(s) 704, une mémoire système 712 couplée à la logique de contrôle système 7 0.8, une mémoire non volatile (NVM) /un stockage 716 couplé à la logique de contrôle système 708, une interface réseau 720 couplée à la logique de contrôle système 708, et des dispositifs d1entrée/sortie (E/S) 732 couplés à la logique de contrôle système 708.
Le(s) processeur(s) 704 peu(ven)t comprendre un ou plusieurs processeurs à simple cœur ou multicœurs. Le (s) processeur(s) 704 peu(ven)t comprendre n'importe quelle combinaison de processeurs d'usage général et de processeurs dédiés (par exemple, processeurs graphiques, processeurs d'application, processeurs de bande de base, etc.).
La logique de contrôle système 70 8 pour un mode de réalisation peut comprendre n'importe quels contrôleurs d'interface appropriés pour assurer n'importe quelle interface appropriée à au moins un des processeur(s) 704 et/ou à n'importe quel dispositif ou composant approprié en communication avec la logique de contrôle système 708.
La logique de contrôle système 708 pour un mode de réalisation peut comprendre un ou plusieurs contrôleur(s) mémoire pour fournir une interface à la mémoire système 712. La mémoire système 712 peut être utilisée pour charger et stocker des données et/ou instructions, par exemple, la logique 724. La mémoire système 712 pour un mode de réalisation peut comprendre n'importe quelle mémoire volatile appropriée, telle qu'une mémoire vive dynamique (DRAM) appropriée, par exemple.
La mémoire non volatile/le stockage 716 peut comprendre un ou plusieurs supports lisibles par ordinateur réels, non-transitoires utilisés pour stocker des données et/ou des instructions, par exemple, la logique 724. La mémoire non volatile/le stockage 716 peut comprendre n'importe quelle mémoire non volatile appropriée, telle qu'une mémoire flash, par exemple, et/ou peut comprendre n'importe quel(s) dispositif (s) de stockage non volatil approprié, tel (s) qu'un ou plusieurs lecteur(s) de disque dur (HDD), un ou plusieurs lecteur (s) de disque compact (CD), et/ou un ou plusieurs lecteur(s) de disque numérique polyvalent (DVD), par exemple.
La mémoire non volatile/le stockage 716 peut comprendre une ressource de stockage faisant physiquement partie d'un dispositif sur lequel le système 700 est installé ou par lequel il peut être accessible, mais pas nécessairement une partie du dispositif. Par exemple, on peut accéder à la mémoire non volatile/au stockage 716 sur un réseau par l'intermédiaire de l'interface réseau 720 et/ou sur des dispositifs d'entrée/sortie (E/S) 732.
La logique 724, lorsqu'elle est exécutée par au moins un des processeurs 704 peut faire en sorte que le système exécute les opérations décrites ici par rapport à 1 ' EU 104, au serveur multimédia 116, et/ou au serveur de profils de dispositif 144. La logique 724 peut en, outre/en variante, être disposée dans d'autres composants du système, par exemple, dans la logique de contrôle système 708, et peut comprendre n'importe quelle combinaison de composants matériel, logiciel, ou micrologiciel. L'interface réseau 720 peut avoir un émetteur-récepteur 722 pour fournir une interface radio pour que le système 700 communique sur un ou plusieurs réseau(x) et/ou avec n'importe quel autre dispositif approprié. Dans divers modes de réalisation, l'émetteur-récepteur 722 peut être intégré à d'autres composants du système 700. Par exemple, l'émetteur-récepteur 722 peut comprendre un processeur parmi le(s) processeur(s) 704, une mémoire de la mémoire système 712, et une mémoire non volatile/stockage de la mémoire non volatile/stockage 716. L'interface réseau 720 peut comprendre n'importe quels matériel et/ou microprogramme appropriés. L'interface réseau 720 peut comprendre une pluralité d'antennes pour fournir une interface radio à plusieurs entrées, plusieurs sorties. L'interface réseau 720 pour un mode de réalisation peut comprendre, par exemple, une carte réseau filaire, une carte réseau sans fil, un modem téléphonique, et/ou un modem sans fil.
Pour un mode de réalisation, au moins un des processeur(s) 704 peut être conditionné conjointement avec une logique pour un ou plusieurs contrôleur (s) de la logique de contrôle système 708. Pour un mode de réalisation, au moins un des processeur(s) 704 peut être conditionné conjointement avec une logique pour un ou plusieurs contrôleurs de la logique de contrôle système 708 pour former un système en boîtier (SiP). Pour un mode de réalisation, au moins un des processeur (s) 704 peut être intégré sur la même matrice avec une logique pour un ou plusieurs contrôleur (s) de la logique de contrôle système 708. Pour un mode de réalisation, au moins un des processeur(s) 704 peut être intégré sur la même matrice avec une logique pour un ou plusieurs contrôleurs(s) de la logique de contrôle système 708 de façon à former une puce-système (SoC).
Dans divers modes de réalisation, les dispositifs E/S 732 peuvent comprendre des interfaces utilisateur conçues pour permettre une interaction de l'utilisateur avec le système 700, des interfaces de composants périphériques conçues pour permettre une interaction des composants périphériques avec le système 700, et/ou des détecteurs conçus pour déterminer les conditions environnementales et/ou des informations de localisation se rapportant au système 700.
Dans divers modes de réalisation, les interfaces utilisateur pourraient inclure, mais sans s'y limiter, un affichage de restitution de vidéo en 3D (par exemple, un affichage à cristaux liquides, un affichage à écran tactile, un affichage auto-stéréoscopique, etc.), un haut-parleur, un microphone, un ou plusieurs appareils photo (par exemple, un appareil photo et/ou une caméra vidéo), une lampe de poche (par exemple, un flash à diode électroluminescente), et un clavier.
Dans divers modes de réalisation, les interfaces de composants périphériques peuvent comprendre, mais sans s'y limiter, un port de mémoire non volatile, un port de bus série universel (USB), une prise jack audio, et une interface d'alimentation.
Dans divers modes de réalisation, les détecteurs peuvent comprendre, mais sans s'y limiter, un capteur gyroscopique, un accéléromètre, un capteur de proximité, un détecteur de lumière ambiante, et une unité de positionnement. L'unité de positionnement peut également faire partie de, ou interagir avec, l'interface réseau 720 pour communiquer avec des composants d'un réseau de positionnement, par exemple, un satellite d'un système de positionnement global (GPS).
Dans divers modes de réalisation, le système 700 peut être un appareil mobile tel que, mais sans caractère limitatif, un ordinateur portable, une tablette, un mini-ordinateur portatif, un téléphone intelligent, etc. Dans divers modes de réalisation, le système 700 peut avoir plus ou moins de composants, et/ou des architectures différentes.
Bien que certains modes de réalisation aient été illustrés et décrits ici à des fins de description, une grande diversité de modes de réalisation ou mises en œuvre alternatifs et/ou équivalents calculés pour atteindre les mêmes objectifs peuvent substituer les modes de réalisation illustrés et décrits sans sortir du cadre de la présente description. La présente demande est prévue pour couvrir n'importe quelles adaptations ou variations des modes de réalisation abordés ici. Pour cette raison, il est manifestement prévu que les modes de réalisation décrits ici soient limités uniquement par les revendications et leurs équivalents.
Claims (29)
- REVENDICATIONS 1. — Support(s) lisible(s) par ordinateur comportant des instructions qui, lorsqu’elles sont exécutées, font en sorte qu’un dispositif : obtienne, d’un serveur de profils de dispositif, un attribut de format de combinaison de trame de diffusion en flux qui comprend une liste de formats de combinaison de trame, pris en charge par un terminal client d’un réseau de communication sans fil, appropriés pour la diffusion en flux d’une vidéo 3D stéréoscopique sur un protocole de transport pris en charge par une application de service de diffusion en flux par paquets (PSS) sur le terminal client, le protocole de transport étant un protocole de transport en temps réel (RTP) ou un protocole de transfert hypertexte (HTTP) ; adapte le contenu sur base de l’attribut de format de combinaison de trame de diffusion en flux ; génère un fichier de description de session ou de métadonnées pour établir une session de diffusion en flux sur base de l’attribut de format de combinaison de trame de diffusion en flux ; et transmette le contenu adapté et le fichier de description de session ou de métadonnées généré au terminal client.
- 2. — Support(s) lisible(s) par ordinateur selon la revendication 1, dans lequel la liste de formats de combinaison de trame comprend une indication d’un format de combinaison compatible de trame à entrelacement vertical, un format de combinaison compatible de trame à entrelacement horizontal, un format de combinaison compatible de trame côte-à-côte, un format de combinaison compatible de trame haut-bas, un format de combinaison compatible de trame à damier, ou un format de combinaison par vue à pleine résolution à entrelacement temporel.
- 3. — Support(s) lisible(s) par ordinateur selon la revendication 1, dans lequel la liste comprend une liste d'une ou plusieurs valeurs entières qui correspondent respectivement à un ou plusieurs formats de combinaison de trame pris en charge.
- 4. — Support(s) lisible(s) par ordinateur selon la revendication 3, dans lequel la liste d'une ou plusieurs valeurs entières comprend un 1 pour correspondre à un format de combinaison compatible de trame à entrelacement vertical, un 2 pour correspondre à un format de combinaison compatible de trame à entrelacement horizontal, un 3 pour correspondre à un format de combinaison compatible de trame côte-à-côte, un 4 pour correspondre à un format de combinaison compatible de trame haut-bas, un 0 pour correspondre à un format de combinaison compatible de trame à damier, ou un 5 pour correspondre à un format de combinaison par vue à pleine résolution à entrelacement temporel.
- 5. — Support(s) lisible(s) par ordinateur selon la revendication 1, dans lequel le protocole de transport comprend RTP.
- 6. — Support(s) lisible(s) par ordinateur selon la revendication 1, dans lequel le protocole de transport comprend HTTP.
- 7. — Support(s) lisible(s) par ordinateur selon la revendication 1, dans lequel le fichier de description de session ou de métadonnées est un fichier de protocole de description de session (SDP) de protocole de diffusion en flux en temps réel (RTSP) ou un fichier de description de présentation multimédia (MPD) de diffusion en flux dynamique adaptative sur protocole de transport hypertexte (DASH).
- 8. — Support(s) lisible(s) par ordinateur selon la revendication 1, dans lequel le contenu est un contenu vidéo 3D et les instructions, lorsqu’elles sont exécutées, font en outre en sorte que le dispositif : transcode le contenu vidéo 3D ou convertisse un format du contenu vidéo 3D sur base de l’attribut de format de combinaison de trame de diffusion en flux.
- 9. — Support(s) lisible(s) par ordinateur comportant des instructions qui, lorsqu’elles sont exécutées, font en sorte qu’un dispositif : obtienne, d’un serveur de profils de dispositif, un attribut de format de combinaison de trame qui comprend une liste d’un ou plusieurs formats de combinaison de trame, pris en charge par un équipement utilisateur, appropriés pour une vidéo 3D stéréoscopique qui peut être incluse dans un fichier au format de fichier 3rd Generation Partnership Project (3GP) et traitée par une application de service de diffusion en flux par paquets (PSS) sur l’équipement utilisateur ; et transmette le contenu à l’équipement utilisateur sur base de l’attribut de format de combinaison de trame.
- 10. — Support(s) lisible(s) par ordinateur selon la revendication 9, dans lequel la liste des formats de combinaison de trame comprend une indication d’un format de combinaison de trame côte-à-côte ou d’un format de combinaison de trame haut-bas.
- 11. — Support(s) lisible(s) par ordinateur selon la revendication 9, dans lequel la liste comprend une liste d’une ou plusieurs valeurs entières qui correspondent respectivement à un ou plusieurs formats de combinaison de trame.
- 12. — Support(s) lisible(s) par ordinateur selon la revendication 11, dans lequel la liste d’une ou plusieurs valeurs entières comprend un 3 pour correspondre à un format de combinaison de trame côte-à-côte ou un 4 pour correspondre à un format de combinaison de trame haut-bas.
- 13. — Appareil, comprenant : un lecteur multimédia pour décoder et restituer un contenu vidéo stéréoscopique tridimensionnel (en 3D) reçu sans fil par un dispositif mobile, sur un affichage du dispositif mobile ; et un module de gestion de contenu pour : déterminer des informations de capacité de dispositif incluant des codecs et formats vidéo 3D pris en charge par le lecteur multimédia ; transmettre un ou plusieurs messages à un serveur de profils de dispositif, le ou les messages comprenant les informations de capacité de dispositif ; transmettre au moins un message à un serveur multimédia, l’au moins un message comprenant une demande de contenu vidéo 3D stéréoscopique et n’importe quels ajustements temporaires sur les informations de capacité de dispositif.
- 14. — Appareil selon la revendication 13, dans lequel les informations de capacité de dispositif ont un attribut de format 3D qui comprend un type de format pris en charge par le système de circuit du lecteur multimédia.
- 15. — Appareil selon la revendication 14, dans lequel le type de format est un type de format de combinaison de trame qui correspond à un format de combinaison compatible de trame ou à un format de combinaison par vue à pleine résolution, un type de format à diffusion simultanée, ou un type de format bidimensionnel plus auxiliaire.
- 16. — Appareil selon la revendication 15, dans lequel le type de format est un type de format à combinaison de trame qui est un format de combinaison compatible de trame avec une valeur pour indiquer entrelacement vertical, entrelacement horizontal, côte-à-côte, haut-bas, ou damier.
- 17. — Appareil selon la revendication 13, dans lequel le contenu vidéo 3D est reçu sans fil par le dispositif mobile par l'intermédiaire d'un service de diffusion en flux par paquets.
- 18. — Appareil selon la revendication 13, dans lequel le module de gestion de contenu sert à transmettre des informations de capacité de dispositif dans un message SUBSCRIBE de protocole d'initiation de session (SIP) à un sous-système de réseau central multimédia à protocole Internet durant la découverte de service.
- 19. — Appareil selon la revendication 18, dans lequel, après la découverte de service, le module de gestion de contenu consiste à utiliser un signalement SIP pour mettre à jour un ensemble codecs et formats vidéo 3D pris en charge.
- 20. — Appareil selon la revendication 13, dans lequel le lecteur multimédia est en outre configuré pour : recevoir un flux de données comprenant le contenu vidéo 3D stéréoscopique demandé, dans lequel le lecteur multimédia est en outre configuré pour recevoir le flux de données selon un protocole de diffusion en flux adaptative dynamique sur le protocole de transport hypertexte (DASH) ; un protocole de diffusion en flux par paquets (PSS) ; ou un protocole de services PSS et de diffusion/multidiffusion multimédia (MBMS) basé sur un sous-système multimédia à protocole Internet (IMS).
- 21. — Appareil selon la revendication 20, dans lequel le lecteur multimédia est en outre configuré pour recevoir un fichier de protocole de description de session (SDP) ou un fichier de métadonnées de description de présentation multimédia (MPD) associé au flux de données.
- 22. — Dispositif mobile comprenant l’appareil selon la revendication 13.
- 23. - Dispositif mobile selon la revendication 22, comprenant en outre : un affichage auto-stéréoscopique pour restituer le contenu vidéo 3D sous le contrôle du lecteur multimédia.
- 24. — Support(s) lisible(s) par ordinateur comportant des instructions qui, lorsqu’elles sont exécutées, font en sorte qu’un serveur de profils de dispositif : obtienne une demande d’informations de capacité 3D se rapportant à un équipement utilisateur ; et fournisse un attribut de format de combinaison de trame de diffusion en flux qui comprend une liste de formats de combinaison de trame, pris en charge par l’équipement utilisateur, appropriés pour la diffusion en flux d’une vidéo 3D stéréoscopique sur un protocole de transport pris en charge par une application de service de diffusion en flux par paquets (PSS) sur l’équipement utilisateur, le protocole de transport étant un protocole de transport en temps réel (RTP) ou un protocole de transfert hypertexte (HTTP).
- 25. — Support(s) lisible(s) par ordinateur selon la revendication 24, dans lequel la liste de formats de combinaison de trame comprend une indication d’un format de combinaison compatible de trame à entrelacement vertical, un format de combinaison compatible de trame à entrelacement horizontal, un format de combinaison compatible de trame côte-à-côte, un format de combinaison compatible de trame haut-bas, un format de combinaison compatible de trame à damier, ou un format de combinaison par vue à pleine résolution à entrelacement temporel.
- 26. — Support(s) lisible(s) par ordinateur selon la revendication 24, dans lequel le protocole de transport comprend RTP.
- 27. — Support(s) lisible(s) par ordinateur selon la revendication 24, dans lequel le protocole de transport comprend HTTP.
- 28. — Support(s) lisible(s) par ordinateur selon la revendication 24, dans lequel la liste comprend une liste d'une ou plusieurs valeurs entières qui correspondent respectivement à un ou plusieurs formats de combinaison de trame pris en charge.
- 29. — Support(s) lisible(s) par ordinateur selon la revendication 28, dans lequel la liste d'une ou plusieurs valeurs entières comprend un 1 pour correspondre à un format de combinaison compatible de trame à entrelacement vertical, un 2 pour correspondre à un format de combinaison compatible de trame à entrelacement horizontal, un 3 pour correspondre à un format de combinaison compatible de trame côte-à-côte, un 4 pour correspondre à un format de combinaison compatible de trame haut-bas, un 0 pour correspondre à un format de combinaison compatible de trame à damier, ou un 5 pour correspondre à un format de combinaison par vue à pleine résolution à entrelacement temporel.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201261621939P | 2012-04-09 | 2012-04-09 | |
US61/621939 | 2012-04-09 | ||
US201261679627P | 2012-08-03 | 2012-08-03 | |
US13/626,767 US9584793B2 (en) | 2012-04-09 | 2012-09-25 | Signaling three-dimensional video information in communication networks |
Publications (1)
Publication Number | Publication Date |
---|---|
BE1021405B1 true BE1021405B1 (fr) | 2015-11-17 |
Family
ID=74551320
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
BE2013/0244A BE1021405B1 (fr) | 2012-04-09 | 2013-04-09 | Signalement d'informations de video tridimensionnelle dans des reseaux de communication |
Country Status (19)
Country | Link |
---|---|
US (3) | US9584793B2 (fr) |
EP (2) | EP2966875A1 (fr) |
JP (2) | JP6248330B2 (fr) |
KR (3) | KR101881265B1 (fr) |
CN (2) | CN103369467B (fr) |
AU (1) | AU2016203175B2 (fr) |
BE (1) | BE1021405B1 (fr) |
CA (2) | CA2957198C (fr) |
FI (2) | FI126988B (fr) |
FR (1) | FR2993426B1 (fr) |
HK (1) | HK1187769A1 (fr) |
IT (1) | ITMI20130537A1 (fr) |
MX (2) | MX341486B (fr) |
MY (1) | MY168796A (fr) |
NL (1) | NL2010602C2 (fr) |
RU (2) | RU2591174C2 (fr) |
SE (1) | SE537942C2 (fr) |
TW (2) | TWI578756B (fr) |
WO (1) | WO2013155110A1 (fr) |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9438883B2 (en) | 2012-04-09 | 2016-09-06 | Intel Corporation | Quality of experience reporting for combined unicast-multicast/broadcast streaming of media content |
US9584793B2 (en) | 2012-04-09 | 2017-02-28 | Intel Corporation | Signaling three-dimensional video information in communication networks |
CN103294767A (zh) * | 2013-04-22 | 2013-09-11 | 腾讯科技(深圳)有限公司 | 浏览器的多媒体信息显示方法及装置 |
CA2912351A1 (fr) * | 2013-05-31 | 2014-12-04 | Sony Corporation | Dispositif de traitement d'informations et procede de traitement d'informations |
KR20150083429A (ko) * | 2014-01-08 | 2015-07-17 | 한국전자통신연구원 | Dash를 사용하는 비디오 재생을 위한 비트 깊이 표현 방법 |
TWI510911B (zh) * | 2014-01-14 | 2015-12-01 | Wistron Corp | 行動電話及內核除錯訊息之輸出方法 |
JP6456980B2 (ja) * | 2014-02-10 | 2019-01-23 | エルジー エレクトロニクス インコーポレイティド | 3d放送サービスのための放送信号の送受信方法及び装置 |
US20170055025A1 (en) * | 2014-04-30 | 2017-02-23 | Lg Electronics Inc. | Broadcast transmission apparatus, broadcast reception apparatus, operation method of the broadcast transmission apparatus and operation method of the broadcast reception apparatus |
CN107211032A (zh) * | 2015-02-11 | 2017-09-26 | Vid拓展公司 | 用于http动态自适应流媒体(dash)中的一般化http头的系统和方法 |
US20170026431A1 (en) * | 2015-07-20 | 2017-01-26 | Intel IP Corporation | Multicast mechanism for wireless devices |
JP2017092646A (ja) * | 2015-11-06 | 2017-05-25 | 株式会社リコー | 情報処理システム、情報処理装置、情報処理方法及びプログラム |
CN106454317B (zh) * | 2016-11-15 | 2018-04-13 | 天津大学 | 基于模糊控制的立体视频质量自适应算法 |
EP3603083A4 (fr) * | 2017-03-26 | 2020-12-16 | SHARP Kabushiki Kaisha | Systèmes et procédés de signalisation d'informations pour des applications de réalité virtuelle |
CN108668179B (zh) * | 2017-03-27 | 2021-05-14 | 华为技术有限公司 | 媒体索引文件的传输方法及相关设备 |
US10819763B2 (en) | 2017-03-31 | 2020-10-27 | At&T Intellectual Property I, L.P. | Apparatus and method of video streaming |
US10484308B2 (en) | 2017-03-31 | 2019-11-19 | At&T Intellectual Property I, L.P. | Apparatus and method of managing resources for video services |
US20190104326A1 (en) * | 2017-10-03 | 2019-04-04 | Qualcomm Incorporated | Content source description for immersive media data |
KR102476204B1 (ko) * | 2017-10-19 | 2022-12-08 | 삼성전자주식회사 | 멀티 코덱 인코더 및 이를 포함하는 멀티 코덱 인코딩 시스템 |
WO2019151798A1 (fr) * | 2018-01-31 | 2019-08-08 | 엘지전자 주식회사 | Procédé et dispositif de transmission/réception de métadonnées d'images dans un système de communication sans fil |
CN111670579A (zh) | 2018-02-28 | 2020-09-15 | 索尼公司 | 内容分发控制装置、内容分发控制方法、程序和内容分发控制系统 |
WO2019167633A1 (fr) * | 2018-02-28 | 2019-09-06 | ソニー株式会社 | Dispositif de commande de distribution de contenu, procédé de commande de distribution de contenu, programme et système de distribution de contenu |
CN109743281A (zh) * | 2018-11-19 | 2019-05-10 | 视联动力信息技术股份有限公司 | 一种通信方法及装置 |
US11044185B2 (en) | 2018-12-14 | 2021-06-22 | At&T Intellectual Property I, L.P. | Latency prediction and guidance in wireless communication systems |
US11320725B2 (en) | 2019-11-22 | 2022-05-03 | Canon Kabushiki Kaisha | Projection type display apparatus, projection type display system, control method of projection type display apparatus, and storage medium |
CN113382227A (zh) * | 2021-06-03 | 2021-09-10 | 天翼阅读文化传播有限公司 | 一种基于智能手机的裸眼3d全景视频渲染装置及方法 |
US20230007067A1 (en) | 2021-06-30 | 2023-01-05 | Tencent America LLC | Bidirectional presentation datastream |
JP2023044353A (ja) | 2021-09-17 | 2023-03-30 | セイコーエプソン株式会社 | 電気光学装置および電子機器 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020032751A1 (en) * | 2000-05-23 | 2002-03-14 | Srinivas Bharadwaj | Remote displays in mobile communication networks |
US20110138018A1 (en) * | 2009-12-04 | 2011-06-09 | Qualcomm Incorporated | Mobile media server |
US20120023518A1 (en) * | 2010-07-20 | 2012-01-26 | At&T Intellectual Property I, L.P. | Method and apparatus for adapting a presentation of media content |
EP2424251A2 (fr) * | 2010-08-23 | 2012-02-29 | Lg Electronics Inc. | Procédé de fourniture de données vidéo 3D dans une TV en 3D |
Family Cites Families (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6407680B1 (en) | 2000-12-22 | 2002-06-18 | Generic Media, Inc. | Distributed on-demand media transcoding system and method |
KR100420601B1 (ko) * | 2001-11-22 | 2004-03-02 | 에스케이 텔레콤주식회사 | 비디오 데이터 스트리밍 서비스 방법 |
JP2004282462A (ja) | 2003-03-17 | 2004-10-07 | Nippon Telegr & Teleph Corp <Ntt> | 3次元映像情報配信システム |
KR100556826B1 (ko) | 2003-04-17 | 2006-03-10 | 한국전자통신연구원 | Mpeg-4 기반의 양안식 3차원 동영상을 서비스하기 위한 인터넷 방송 시스템 및 그 방법 |
US7392316B2 (en) | 2003-06-30 | 2008-06-24 | Microsoft Corporation | Client to server streaming of multimedia content using HTTP |
US7426734B2 (en) | 2003-10-24 | 2008-09-16 | Microsoft Corporation | Facilitating presentation functionality through a programming interface media namespace |
US8537204B2 (en) | 2004-07-08 | 2013-09-17 | Gyoung Il Cho | 3D television broadcasting system |
TWI242382B (en) | 2004-08-31 | 2005-10-21 | Sunplus Technology Co Ltd | Three-dimensional video composite signal demodulating method and system capable of inhibiting pseudo-color noises |
JP2008530835A (ja) | 2005-02-08 | 2008-08-07 | テレフオンアクチーボラゲット エル エム エリクソン(パブル) | パケット交換ネットワーク上のオンデマンドマルチチャネルストリーミングセッション |
EP1877919B1 (fr) | 2005-04-28 | 2015-10-28 | ArenaNet, LLC | Systeme et procede de distribution selective d'informations |
JP2006331199A (ja) | 2005-05-27 | 2006-12-07 | Ntt Docomo Inc | サービス決定装置及びサービス決定方法 |
JP2007036874A (ja) * | 2005-07-28 | 2007-02-08 | Univ Of Tokyo | 視聴者情報測定システム及びこれを用いたマッチングシステム |
US8970680B2 (en) * | 2006-08-01 | 2015-03-03 | Qualcomm Incorporated | Real-time capturing and generating stereo images and videos with a monoscopic low power mobile device |
US20080228912A1 (en) | 2007-03-16 | 2008-09-18 | Ramakrishna Vedantham | Enhanced Quality Reporting for Transmission Sessions |
KR100962696B1 (ko) | 2007-06-07 | 2010-06-11 | 주식회사 이시티 | 부호화된 스테레오스코픽 영상 데이터 파일의 구성방법 |
US8630273B2 (en) | 2007-07-17 | 2014-01-14 | France Telecom | Dynamic appropriation of at least one multimedia device during call set-up |
US20100134494A1 (en) | 2008-12-02 | 2010-06-03 | Electronics And Telecommunications Research Institute | Remote shading-based 3d streaming apparatus and method |
US9083958B2 (en) | 2009-08-06 | 2015-07-14 | Qualcomm Incorporated | Transforming video data in accordance with three dimensional input formats |
US20110032331A1 (en) | 2009-08-07 | 2011-02-10 | Xuemin Chen | Method and system for 3d video format conversion |
US8380878B2 (en) * | 2009-08-13 | 2013-02-19 | Cox Communications, Inc. | Side loading |
US8310520B2 (en) | 2009-08-19 | 2012-11-13 | Avaya Inc. | Flexible decomposition and recomposition of multimedia conferencing streams using real-time control information |
US8976871B2 (en) | 2009-09-16 | 2015-03-10 | Qualcomm Incorporated | Media extractor tracks for file format track selection |
JP5591932B2 (ja) * | 2009-09-22 | 2014-09-17 | クゥアルコム・インコーポレイテッド | ファイルフォーマットトラック選択のためのメディアエクストラクタトラック |
PL2491720T3 (pl) * | 2009-10-20 | 2018-08-31 | Telefonaktiebolaget Lm Ericsson (Publ) | Zapewnienie uzupełniających informacji przetwarzania |
EP2522148A1 (fr) * | 2010-01-07 | 2012-11-14 | Thomson Licensing | Procédé et appareil destinés à fournir le contenu d'un affichage vidéo |
KR101694821B1 (ko) * | 2010-01-28 | 2017-01-11 | 삼성전자주식회사 | 다시점 비디오스트림에 대한 링크 정보를 이용하는 디지털 데이터스트림 전송 방법와 그 장치, 및 링크 정보를 이용하는 디지털 데이터스트림 전송 방법과 그 장치 |
US9172991B2 (en) | 2010-04-30 | 2015-10-27 | Lg Electronics Inc. | Apparatus of processing an image and a method of processing thereof |
US8402502B2 (en) | 2010-06-16 | 2013-03-19 | At&T Intellectual Property I, L.P. | Method and apparatus for presenting media content |
US9131033B2 (en) | 2010-07-20 | 2015-09-08 | Qualcomm Incoporated | Providing sequence data sets for streaming video data |
US9596447B2 (en) | 2010-07-21 | 2017-03-14 | Qualcomm Incorporated | Providing frame packing type information for video coding |
US9226045B2 (en) * | 2010-08-05 | 2015-12-29 | Qualcomm Incorporated | Signaling attributes for network-streamed video data |
US8677428B2 (en) | 2010-08-20 | 2014-03-18 | Disney Enterprises, Inc. | System and method for rule based dynamic server side streaming manifest files |
EP2432232A1 (fr) | 2010-09-19 | 2012-03-21 | LG Electronics, Inc. | Procédé et appareil pour traiter un signal de diffusion pour service de diffusion en 3D (tridimensionnel) |
WO2011144117A2 (fr) * | 2011-05-27 | 2011-11-24 | 华为技术有限公司 | Procédé de transmission de données multimédias, procédé de réception de données multimédias, client et système correspondants |
EP2597876A1 (fr) * | 2011-11-24 | 2013-05-29 | Koninklijke Philips Electronics N.V. | Vidéos 3D entrelacées |
US9584793B2 (en) | 2012-04-09 | 2017-02-28 | Intel Corporation | Signaling three-dimensional video information in communication networks |
-
2012
- 2012-09-25 US US13/626,767 patent/US9584793B2/en active Active
-
2013
- 2013-04-01 TW TW102111699A patent/TWI578756B/zh active
- 2013-04-01 TW TW106101014A patent/TW201720149A/zh unknown
- 2013-04-03 FI FI20135313A patent/FI126988B/en active IP Right Grant
- 2013-04-08 IT ITMI20130537 patent/ITMI20130537A1/it unknown
- 2013-04-09 EP EP15170900.3A patent/EP2966875A1/fr active Pending
- 2013-04-09 KR KR1020177009637A patent/KR101881265B1/ko active IP Right Grant
- 2013-04-09 JP JP2015504772A patent/JP6248330B2/ja active Active
- 2013-04-09 KR KR1020147026843A patent/KR101630108B1/ko active IP Right Grant
- 2013-04-09 RU RU2014138947/08A patent/RU2591174C2/ru active
- 2013-04-09 MX MX2014011579A patent/MX341486B/es active IP Right Grant
- 2013-04-09 MY MYPI2014702689A patent/MY168796A/en unknown
- 2013-04-09 CA CA2957198A patent/CA2957198C/fr active Active
- 2013-04-09 FR FR1353180A patent/FR2993426B1/fr active Active
- 2013-04-09 CN CN201310121164.5A patent/CN103369467B/zh active Active
- 2013-04-09 WO PCT/US2013/035839 patent/WO2013155110A1/fr active Application Filing
- 2013-04-09 BE BE2013/0244A patent/BE1021405B1/fr active IP Right Revival
- 2013-04-09 NL NL2010602A patent/NL2010602C2/en active
- 2013-04-09 CN CN201610342932.3A patent/CN105915882B/zh active Active
- 2013-04-09 CA CA2868038A patent/CA2868038C/fr active Active
- 2013-04-09 EP EP13776049.2A patent/EP2837192B8/fr active Active
- 2013-04-09 RU RU2016122772A patent/RU2643446C1/ru active
- 2013-04-09 MX MX2016010858A patent/MX362598B/es unknown
- 2013-04-09 SE SE1350444A patent/SE537942C2/sv unknown
- 2013-04-09 KR KR1020167014926A patent/KR101727875B1/ko active IP Right Grant
-
2014
- 2014-01-24 HK HK14100799.7A patent/HK1187769A1/zh unknown
- 2014-12-23 US US14/581,756 patent/US9787967B2/en active Active
-
2016
- 2016-05-16 AU AU2016203175A patent/AU2016203175B2/en active Active
-
2017
- 2017-05-04 FI FI20175391A patent/FI129521B/en active IP Right Grant
- 2017-08-22 US US15/683,682 patent/US10194134B2/en active Active
- 2017-09-11 JP JP2017174415A patent/JP6428885B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020032751A1 (en) * | 2000-05-23 | 2002-03-14 | Srinivas Bharadwaj | Remote displays in mobile communication networks |
US20110138018A1 (en) * | 2009-12-04 | 2011-06-09 | Qualcomm Incorporated | Mobile media server |
US20120023518A1 (en) * | 2010-07-20 | 2012-01-26 | At&T Intellectual Property I, L.P. | Method and apparatus for adapting a presentation of media content |
EP2424251A2 (fr) * | 2010-08-23 | 2012-02-29 | Lg Electronics Inc. | Procédé de fourniture de données vidéo 3D dans une TV en 3D |
Non-Patent Citations (1)
Title |
---|
"3rd Generation Partnership Project; Technical Specification Group Services and System Aspects; Mobile stereoscopic 3D video (Release 11)", 3GPP STANDARD; 3GPP TR 26.905, 3RD GENERATION PARTNERSHIP PROJECT (3GPP), MOBILE COMPETENCE CENTRE ; 650, ROUTE DES LUCIOLES ; F-06921 SOPHIA-ANTIPOLIS CEDEX ; FRANCE, vol. SA WG4, no. V1.1.0, 16 March 2012 (2012-03-16), pages 1 - 44, XP050580270 * |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
BE1021405B1 (fr) | Signalement d'informations de video tridimensionnelle dans des reseaux de communication | |
ES2482605B2 (es) | Señalización de información de vídeo tridimensional en redes de comunicación | |
US9674499B2 (en) | Compatible three-dimensional video communications | |
AU2013246041B2 (en) | Signaling three dimensional video information in communication networks | |
FI20225190A1 (en) | Signaling of three-dimensional video information in communication networks | |
BR112014024061B1 (pt) | Meio legível por computador, método, aparelho e sistema para sinalização de informação de vídeo tridimensional em redes de comunicação |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
MM | Lapsed because of non-payment of the annual fee |
Effective date: 20200430 |
|
PD | Change of ownership |
Owner name: APPLE INC.; US Free format text: DETAILS ASSIGNMENT: CHANGE OF OWNER(S), CESSION; FORMER OWNER NAME: INTEL CORPORATION Effective date: 20200512 Owner name: APPLE INC.; US Free format text: DETAILS ASSIGNMENT: CHANGE OF OWNER(S), CESSION Effective date: 20200512 |
|
NE | Restoration requested |
Effective date: 20210319 |
|
NF | Patent restored after lapse |
Effective date: 20210506 |