MXPA06013186A - Sincronizacion de datos de audio y video en un sistema de comunicacion inalambrica. - Google Patents
Sincronizacion de datos de audio y video en un sistema de comunicacion inalambrica.Info
- Publication number
- MXPA06013186A MXPA06013186A MXPA06013186A MXPA06013186A MXPA06013186A MX PA06013186 A MXPA06013186 A MX PA06013186A MX PA06013186 A MXPA06013186 A MX PA06013186A MX PA06013186 A MXPA06013186 A MX PA06013186A MX PA06013186 A MXPA06013186 A MX PA06013186A
- Authority
- MX
- Mexico
- Prior art keywords
- frame
- audio
- data
- video
- decoded
- Prior art date
Links
- 238000004891 communication Methods 0.000 title claims abstract description 171
- 238000000034 method Methods 0.000 claims abstract description 33
- 239000000872 buffer Substances 0.000 claims description 34
- 230000001360 synchronised effect Effects 0.000 claims description 34
- 230000005540 biological transmission Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 7
- 208000007944 Nodular Nonsuppurative Panniculitis Diseases 0.000 description 5
- 230000003139 buffering effect Effects 0.000 description 4
- OROGSEYTTFOCAN-DNJOTXNNSA-N codeine Chemical compound C([C@H]1[C@H](N(CC[C@@]112)C)C3)=C[C@H](O)[C@@H]1OC1=C2C3=CC=C1OC OROGSEYTTFOCAN-DNJOTXNNSA-N 0.000 description 3
- OROGSEYTTFOCAN-UHFFFAOYSA-N hydrocodone Natural products C1C(N(CCC234)C)C2C=CC(O)C3OC2=C4C1=CC=C2OC OROGSEYTTFOCAN-UHFFFAOYSA-N 0.000 description 3
- 238000005192 partition Methods 0.000 description 3
- 239000002131 composite material Substances 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 229920004880 RTP PEK Polymers 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000003999 initiator Substances 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000006249 magnetic particle Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- ICFJFFQQTFMIBG-UHFFFAOYSA-N phenformin Chemical compound NC(=N)NC(=N)NCCC1=CC=CC=C1 ICFJFFQQTFMIBG-UHFFFAOYSA-N 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W28/00—Network traffic management; Network resource management
- H04W28/02—Traffic management, e.g. flow control or congestion control
- H04W28/06—Optimizing the usage of the radio link, e.g. header compression, information sizing, discarding information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L47/00—Traffic control in data switching networks
- H04L47/10—Flow control; Congestion control
- H04L47/36—Flow control; Congestion control by determining packet size, e.g. maximum transfer unit [MTU]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/1066—Session management
- H04L65/1101—Session protocols
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/60—Network streaming of media packets
- H04L65/75—Media network packet handling
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/60—Network streaming of media packets
- H04L65/75—Media network packet handling
- H04L65/764—Media network packet handling at the destination
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/80—Responding to QoS
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L69/00—Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
- H04L69/04—Protocols for data compression, e.g. ROHC
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L69/00—Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
- H04L69/16—Implementation or adaptation of Internet protocol [IP], of transmission control protocol [TCP] or of user datagram protocol [UDP]
- H04L69/161—Implementation details of TCP/IP or UDP/IP stack architecture; Specification of modified or new header fields
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L69/00—Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
- H04L69/16—Implementation or adaptation of Internet protocol [IP], of transmission control protocol [TCP] or of user datagram protocol [UDP]
- H04L69/166—IP fragmentation; TCP segmentation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L69/00—Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
- H04L69/30—Definitions, standards or architectural aspects of layered protocol stacks
- H04L69/32—Architecture of open systems interconnection [OSI] 7-layer type protocol stacks, e.g. the interfaces between the data link level and the physical level
- H04L69/321—Interlayer communication protocols or service data unit [SDU] definitions; Interfaces between layers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L9/00—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
- H04L9/40—Network security protocols
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/115—Selection of the code volume for a coding unit prior to coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/146—Data rate or code amount at the encoder output
- H04N19/152—Data rate or code amount at the encoder output by measuring the fullness of the transmission buffer
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/164—Feedback from the receiver or from the transmission channel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/174—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/238—Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
- H04N21/2381—Adapting the multiplex stream to a specific network, e.g. an Internet Protocol [IP] network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/414—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
- H04N21/41407—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/61—Network physical structure; Signal processing
- H04N21/6106—Network physical structure; Signal processing specially adapted to the downstream path of the transmission network
- H04N21/6131—Network physical structure; Signal processing specially adapted to the downstream path of the transmission network involving transmission via a mobile phone network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/61—Network physical structure; Signal processing
- H04N21/6156—Network physical structure; Signal processing specially adapted to the upstream path of the transmission network
- H04N21/6181—Network physical structure; Signal processing specially adapted to the upstream path of the transmission network involving transmission via a mobile phone network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/63—Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
- H04N21/643—Communication protocols
- H04N21/6437—Real-time Transport Protocol [RTP]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/63—Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
- H04N21/647—Control signaling between network components and server or clients; Network processes for video distribution between server and clients, e.g. controlling the quality of the video stream, by dropping packets, protecting content from unauthorised alteration within the network, monitoring of network load, bridging between two different networks, e.g. between IP and wireless
- H04N21/64707—Control signaling between network components and server or clients; Network processes for video distribution between server and clients, e.g. controlling the quality of the video stream, by dropping packets, protecting content from unauthorised alteration within the network, monitoring of network load, bridging between two different networks, e.g. between IP and wireless for transferring content from a first network to a second network, e.g. between IP and wireless
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W28/00—Network traffic management; Network resource management
- H04W28/02—Traffic management, e.g. flow control or congestion control
- H04W28/06—Optimizing the usage of the radio link, e.g. header compression, information sizing, discarding information
- H04W28/065—Optimizing the usage of the radio link, e.g. header compression, information sizing, discarding information using assembly or disassembly of packets
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/06—Selective distribution of broadcast services, e.g. multimedia broadcast multicast service [MBMS]; Services to user groups; One-way selective calling services
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W72/00—Local resource management
- H04W72/04—Wireless resource allocation
- H04W72/044—Wireless resource allocation based on the type of the allocated resource
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W88/00—Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
- H04W88/02—Terminal devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W88/00—Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
- H04W88/18—Service support devices; Network management devices
- H04W88/181—Transcoding devices; Rate adaptation devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L69/00—Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
- H04L69/22—Parsing or analysis of headers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44004—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving video buffer management, e.g. video decoder buffer or video display buffer
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4788—Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W72/00—Local resource management
- H04W72/12—Wireless traffic scheduling
- H04W72/1263—Mapping of traffic onto schedule, e.g. scheduled allocation or multiplexing of flows
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W80/00—Wireless network protocols or protocol adaptations to wireless operation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W84/00—Network topologies
- H04W84/02—Hierarchically pre-organised networks, e.g. paging networks, cellular networks, WLAN [Wireless Local Area Network] or WLL [Wireless Local Loop]
- H04W84/04—Large scale networks; Deep hierarchical networks
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer Security & Cryptography (AREA)
- General Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- General Business, Economics & Management (AREA)
- Mobile Radio Communication Systems (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Time-Division Multiplex Systems (AREA)
- Small-Scale Networks (AREA)
- Communication Control (AREA)
- Reverberation, Karaoke And Other Acoustics (AREA)
- Reduction Or Emphasis Of Bandwidth Of Signals (AREA)
- Telephone Function (AREA)
- Alarm Systems (AREA)
Abstract
Se describen tecnicas para codificar una corriente de audio video que se transmite sobre una red, por ejemplo una red inalambrica o IP, tal como una trama entera de audio y una trama entera de video se transmiten simultaneamente dentro de un periodo requerido para rendir tramas de corriente de audio video por medio de una aplicacion de un receptor; los aspectos de la tecnica incluyen recibir corrientes RTP de audio y video y asignando una trama completa de datos de video RTP a paquetes de canal de comunicacion que ocupan el mismo periodo o menor, como la velocidad de trama de video, tambien se asigna una trama completa de datos de audio RTP a paquetes de canal de comunicacion que ocupan el mismo periodo o menor, como la velocidad de trama de audio; los paquetes de canal de comunicacion de audio y video se transmiten simultaneamente; la recepcion y asignacion de corrientes RTP se pueden llevar a cabo en una estacion remota o estacion base.
Description
SINCRONIZACIÓN DE DATOS DE AUDIO Y VIDEO EN UN SISTEMA DE COMUNICACIÓN INALÁMBRICA
CAMPO DE LA INVENCIÓN
La presente invención generalmente se refiere al suministro de información sobre un sistema de comunicación inalámbrica, y más específicamente a la sincronización de datos de audio y video transmitidos sobre un sistema de comunicación inalámbrica.
ANTECEDENTES DE LA INVENCIÓN
Se han desarrollado varias técnicas para transmitir datos de multimedia o en tiempo real, como datos de audio o video, sobre las varias redes de comunicación. Dicha técnica es el protocolo de transporte en tiempo real (RTP) . RTP provee las funciones de transporte de red de extremo-a-extremo convenientes para aplicaciones que transmiten datos de tiempo real sobre servicios de redes de multidifusión o unidifusión. RTP no trata la reservación de recursos y no garantiza la calidad-de-servicio para los servicios de tiempo real . El transporte de datos se aumenta por un protocolo de control (RTCP) para permitir supervisar el suministro de datos de una manera escalable para redes de multidifusión grandes, y para proveer un control mínimo y funcionalidad de identificación. Se diseñan RTP y RTCP para ser independientes del transporte subyacente y capas de red. El protocolo soporta el uso de traductores a nivel RTP y mezcladoras. Pueden encontrarse detalles adicionales sobre RTP en "RTP: A Transport Protocol for Real-Time Applications", (RTP: UN Protocolo de Transporte para las Aplicaciones en tiempo real" H. Schulzrinne [Columbia University], S. Casner [Packet Design], R. Frederick [Blue Coat Systems Inc.], V. Jacobson [Packet Design], estándar proyecto RFC- 3550, Internet Engineering Steering Group, julio, 2003 incorporado en la presente invención por referencia, en su totalidad.
Un ejemplo que ilustra los aspectos de RTP es una audio conferencia donde el RTP se lleva a cabo sobre los servicios de Protocolo de Internet (IP) de la Internet para las comunicaciones de voz . A través de un mecanismo de asignación, un creador de la conferencia obtiene una dirección de grupo de multidifusión y un par de puertos. Un puerto se usa para los datos de audio, y el otro se usa para los paquetes de control (RTCP) . Esta dirección y la información del puerto se distribuyen a las participantes intencionales. La aplicación de audio conferencia usada por cada participante de la conferencia envía los datos de audio en particiones pequeñas, por ejemplo, particiones de duración de 20 ms . Cada partición de datos de audio se precede por un título de RTP; y se encapsulan el título de RTP combinado y los datos en un paquete de UDP. El título de RTP incluye información sobre los datos, por ejemplo indica qué tipo de codificación de audio, como PCM, ADPCM o LPC, se contiene en cada paquete, estampa de fecha (TS) es el tiempo al cual se debe entregar el paquete de RTP, el Número de Secuencia (SN) , un número secuencial del paquete que puede usarse para detectar los paquetes perdidos/duplicados, etc. Esto les permite a los remitentes cambiar el tipo de codificación utilizada durante una conferencia, por ejemplo, para acomodar a un nuevo participante que se conecta a través de un enlace de ancho de banda baja o reacciona a las indicaciones de congestión de la red.
De acuerdo con el estándar de RTP, si se usan los medios de comunicación audio y video en una conferencia de RTP, estos se transmiten como sesiones de RTP separadas. Es decir, se transmiten RTP separados y paquetes de RTCP para cada medio que utiliza dos pares de puertos UDP diferentes y/o direcciones de multidifusión. No hay ningún acoplamiento directo al nivel de RTP entre las sesiones de audio y video, sólo que un usuario que participa en ambas sesiones debe usar el mismo nombre en los paquetes de RTCP para ambos, para que las sesiones puedan asociarse.
Una motivación para transmitir audio y video como sesiones de RTP separadas es permitir a algunos participantes en la conferencia recibir sólo un medio si ellos escogen así. A pesar de la separación, la reproducción sincronizada del audio y video de una fuente puede lograrse usando información de la elección del momento adecuado llevada en los paquetes de RTP/RTCP para ambas sesiones .
Las redes de paquete, como la Internet, pueden perder de vez en cuando, o pedir de nuevo, paquetes.
Además, los paquetes individuales pueden experimentar cantidades variables de retardo en sus tiempos de la transmisión respectivos. Para lidiar con estos inconvenientes, el título de RTP contiene la información de la elección del momento adecuado y un número de secuencia que le permiten a un receptor reconstruir la elección del momento adecuado producido por la fuente. Esta reconstrucción de la elección del momento adecuado, se ha realizado separadamente para cada fuente de paquetes de RTP en una sesión.
Aunque el título de RTP incluye información de la elección del momento adecuado y un número de secuencia, porque se entregan el audio y video en las corrientes de RTP separadas, hay una porción de tiempo potencial, también llamada lip-synch o AV-synch, entre las corrientes. Una aplicación a un receptor tendrá que re-sincronizar estas corrientes antes de prestar audio y video. Además, en aplicaciones donde se entrega RTP, como el audio y video, se transmite sobre las redes inalámbricas y hay una probabilidad aumentada que pueden perderse los paquetes, haciendo de esta manera que la re-sincronización de corrientes sea más difícil.
Existe la necesidad por consiguiente en la técnica por mejorar la sincronización de audio y las corrientes de video RTP que se transmiten sobre las redes.
SUMARIO DE LA INVENCIÓN
Las modalidades que se describen en la presente invención, abarcan las necesidades anteriormente descritas codificando las corrientes de datos, como un corriente de audio video que se transmite sobre una red, por ejemplo una red inalámbrica o de IP, tal que las corrientes de datos se sincronizan. Por ejemplo, un trama entero de audio y un trama entero de video se transmiten dentro de un período de la trama requerido para dar las tramas de audio y video por medio de una aplicación en el receptor. Por ejemplo, un sincronizador de corriente de datos puede incluir un primer decodificador configurado para recibir una primera corriente de datos codificados y para emitir una primera corriente de datos decodificados, en donde la primera corriente de datos codificados tiene una primera velocidad de bits durante un intervalo de información. Los datos sincronizados también pueden incluir un segundo decodificador configurado para recibir una segunda corriente de datos codificados y emitir segunda corriente de datos codificados, en donde la segunda corriente de datos codificados tiene una segunda corriente de datos decodificados durante el intervalo de información. Una primera memoria intermedia se configura para acumular los primera corriente de datos decodificados por lo menos para un intervalo de información y emitir una trama de los primera corriente de datos decodificados para cada período del intervalo. Una segunda memoria intermedia configurada para aumentar la segunda corriente de datos decodificados por lo menos para un intervalo de información y emitir una trama de la segunda corriente de datos decodificados cada período del intervalo. Entonces un combinador se configura para recibir la trama de la primera corriente de datos decodificados y la trama de la segunda corriente de datos decodificados y emitir una trama sincronizada de la primera y segunda corrientes de datos codificados. La primera corriente de datos codificados puede ser los datos de video, y el segunda corriente de datos decodificados puede emitir salida de datos de audio.
Un aspecto de esta técnica incluye la recepción de corrientes de RTP de audio y video y asignando una trama entero de datos de video de RTP a paquetes de canal de comunicación que ocupan el mismo período, o menos, como la velocidad de trama de video. También una trama entera de datos de audio RTP se asigna a paquetes de canal de comunicación que ocupan el mismo período, o menos, como la velocidad de trama de audio. Los paquetes de canal de comunicación de video y audio se transmiten simultáneamente. Recibiendo y asignando las corrientes de RTP puede realizarse en una estación remota, o una estación base.
Otro aspecto es recibir paquetes de canal de comunicación que incluyen audio y datos de video. Decodificando los datos de audio y video y aumentando los datos para un igual período al período de trama de los datos de audio y video. Al final del período de trama, se combina una trama de video y una trama de audio . Debido a que se transmiten la trama de audio y la trama de video al mismo tiempo, y cada transmisión ocurre dentro de un período de la trama, las tramas de audio y video se sincronizan. Decodificando y acumulando pueden realizarse en una estación remota o una estación baja.
BREVE DESCRIPCIÓN DE LAS FIGURAS
La figura 1 es una ilustración de porciones de un sistema de comunicación construido de acuerdo con la presente invención.
La figura 2 es un diagrama en bloques que ilustra una red de datos de paquete ejemplar y las varias opciones de interfaz aérea para entregar los datos de paquete sobre una red inalámbrica en el sistema de la figura 1.
La figura 3 es un mapa que ilustra las dificultades de la sincronización en una técnica convencional para la transmisión de corrientes de RTP separadas sobre un canal de comunicación inalámbrica. La figura 4 es un mapa que ilustra una técnica para la transmisión de corrientes de RTP separadas sobre una comunicación inalámbrica en canal de acuerdo con la invención.
La figura 5 es un diagrama en bloques de una porción de un receptor del audio/video inalámbrico configurado para recibir los paquetes de canal de comunicación.
La figura 6 es un diagrama en bloques de una porción de un transmisor del audio/video inalámbrico configurado para transmitir los paquetes de canal de comunicación.
La figura 7 es un diagrama de flujo de transmisión de corrientes de RTP independientes sobre un enlace de comunicación inalámbrica.
La figura 8 es un diagrama de flujo de recepción de datos de audio y video sobre un canal de comunicación inalámbrica.
La figura 9 es un diagrama en bloques de un dispositivo de comunicación inalámbrica, o una estación móvil (MS) , construida de acuerdo con una modalidad ejemplar de la presente invención.
DESCRIPCIÓN DETALLADA DE LA INVENCIÓN
La palabra" ejemplar" se usa en la presente invención para significar "que sirve como un ejemplo, caso, o ilustración" . Cualquier modalidad descrita en la presente invención como "ejemplar" no se traduce necesariamente como preferido o ventajoso sobre otras modalidades.
La palabra "propagar" se usa para significar la entrega en tiempo real de datos de multimedia continuos en la naturaleza en la presente invención, como, el audio, discurso o información de video, sobre el servidor dedicado y los canales compartidos en aplicaciones conversacionales, unidifusión y transmisión. La frase "trama de multimedia", para el video, se usa en la presente invención para significar una trama video que puede ser desplegada/entregada en un dispositivo de pantalla, después de decodificar. Una trama de video puede ser dividida además independientemente en unidades decodificables . En el lenguaje del video, éstas se llaman "rebanadas". En el caso de audio y discurso, el término "trama de multimedia" se usa para significar la información en una ventana de tiempo en la presente invención sobre el cual se comprime el discurso o audio para el transporte y decodificar al receptor. La frase "el intervalo de unidad de información" se usa para representar la duración de tiempo de la trama de multimedia descrita anteriormente en la presente invención. Por ejemplo, en caso del video, el intervalo de unidad de información es 100 milisegundos en el caso de 10 tramas por segundo video. Además, como un ejemplo, en el caso de discurso, el intervalo de unidad de información es típicamente 20 milisegundos en el cdma2000, GSM y WCDMA. De esta descripción, debe ser evidente que, típicamente los tramas de audio/discurso no son divididos además independientemente en las unidades decodificables y típicamente los tramas de video se dividen además en rebanadas que son independientemente decodificables . Debe ser evidente a partir del contexto cuando las frases "la trama de multimedia", el "intervalo de unidad de información", etc. Se refiere a los datos de multimedia de video, audio y discurso.
Se describen técnicas para sincronizar corrientes de RTP transmitidas sobre un conjunto de canales de comunicación de corriente de datos codificados constantes. Las técnicas incluyen la división de unidades de información que se transmiten en las corrientes de RTP en los paquetes de datos, en donde el tamaño de los paquetes de datos se selecciona para coincidir con los tamaños de paquetes de datos de capa física de un canal de comunicación. Por ejemplo, se pueden codificar datos de audio y video que se sincronizan entre sí. El codificador puede limitarse de tal forma que codifica los datos en tamaños que coinciden con el paquete de capa física disponible del canal de comunicación. Limitando el tamaños de paquete de datos para coincidir con uno o más de los tamaños de paquete de la capa física disponible que transmiten corrientes de RTP múltiples que se sincronizan porque las corrientes de RTP se transmiten simultáneamente o consecutivamente, pero dentro de la trama de tiempo de los paquetes de audio y video y se requiere ser entregados con la sincronización. Por ejemplo, si se transmiten las corrientes de RTP de audio y video, y los paquetes de datos están comprimidos para que su tamaño coincida con los paquetes de la capa física disponibles, entonces los datos de audio y video se transmiten dentro del tiempo de despliegue y se sincronizan. Como la cantidad de datos se necesita para representar la corriente de RTP varía la capacidad de canal de comunicación varía a través de la selección de paquete de la capa física diferente clasificada según el tamaño, como se ha descrito en solicitudes co-pendientes listadas en la REFERENCIA A SOLICITUDES CO-PENDIENTES PARA PATENTES anteriormente. Los ejemplos de unidades de información, como las corrientes de RTP, incluyen los datos de corriente de datos codificados variables, datos de multimedia, datos de video, y datos de audio. Las unidades de información pueden ocurrir a una velocidad de repetición constante. Por ejemplo, las unidades de información pueden ser tramas de datos de audio/video.
Se han establecido diferentes normas internas e internacionales para apoyar las varias interfaces incluyendo las interfaces aéreas, por ejemplo, el Servicio de Teléfono Móvil Avanzado (AMPS) , Sistema Global para
Móviles (GSM) , Servicio General de Radio Paquete (GPRS) ,
Ambiente Mejorado de Datos GSM (EDGE) , la Norma Interina 95 (IS-95) y sus derivados, IS-95A, IS-95B, ANSÍ J-STD-008
(a menudo se refiere colectivamente en la presente invención como IS-95) , y Sistemas Emergentes de Alta velocidad de datos tales como cdma2000, los Servicios de
Telecomunicaciones Móviles Universales (UMTS) , de banda ancha CDMA, WCDMA, y otros. Estas normas fueron promulgadas por la Asociación de la Industria de Telecomunicaciones
(TÍA), El Proyecto de Sociedades de la 3a. Generación
(3GPP) , el Instituto Europeo de Normas de
Telecomunicaciones (ETSI) , y otros organismos regulatorios muy conocidos.
La figura 1 muestra un sistema de comunicación 100 construido de acuerdo con la presente invención. El sistema de comunicación 100 incluye una infraestructura 101, dispositivos de comunicación inalámbrica múltiple (WCD) 104 y 105, y dispositivos de comunicación terrestre
122 y 124. Los WCD también se llamarán estaciones móviles
(MS) o celulares. En general, los WCD pueden ser tanto móviles como fijos. Los dispositivos de comunicación de línea terrestre 122 y 124 pueden incluir, por ejemplo, nodos de servicio, o servidores de contenido que proporcionan varios tipos de datos de multimedia tales como corrientes de datos de multimedia. Además, los MS pueden transmitir corrientes de datos, como los datos de multimedia.
La infraestructura 101 también puede incluir otros componentes, como la estación base 102, controladores de estaciones base 106, centros de conmutación móvil 108,' una red de conmutaciones 120, y similares. En una modalidad, la estación base 102 se integra con el controlador de estación base 106, y en otras modalidades, la estación base 102 y el controlador de estación base 106 son componentes separados. Pueden usarse tipos diferentes de redes de conmutación 120 para dirigir señales en el sistema de comunicación 100, por ejemplo, redes IP, u otras redes públicas de telefonía conmutada (PSTN) .
El término "enlace en avance" o "enlace descendente" se refiere a la trayectoria de señal de la infraestructura 101 a un MS, y el término "enlace inverso" o "enlace ascendente" se refiere a la trayectoria de señal desde un MS a la infraestructura. Como se muestra en la figura 1, los MS 104 y 105 reciben señales 132 y 136 en el enlace en avance y transmite señales 134 y 138 en el enlace inverso. En general, las señales transmitidas desde un MS 104 y 105 tienen el propósito de recepción a otro dispositivo de comunicación, como otra unidad remota, o un dispositivo de comunicación de línea terrestre 122 y 124, y son ruteados a través de la red de conmutación 120. Por ejemplo, si la señal 134 transmitida desde un WCD inicial 104 tiene la intención de ser recibida por un MS 105 destino, la señal es ruteada a través de la infraestructura 101 y se transmite una señal 136 en el enlace en avance al MS destino 105. Igualmente, las señales iniciales en la infraestructura 101 pueden ser transmitidas a un MS 105. Por ejemplo, un proveedor de contenido puede enviar datos de multimedia, como corrientes de datos de multimedia, a un MS 105. Típicamente, un dispositivo de comunicación, como un MS o un dispositivo de comunicación de línea terrestre, pueden ser tanto un iniciador como un destino para las señales.
Los ejemplos de un MS 104 incluyen los teléfonos celulares, computadoras personales habilitadas por comunicación inalámbrica, y los asistentes digitales personales (PDA), y otros dispositivos inalámbricos. El sistema de comunicación 100 puede diseñarse para soportar uno o más estándares inalámbricos. Por ejemplo, entre los estándares se pueden incluir estándares denominados como el Sistema Global de Comunicación Móvil (GSM) , Servicio General de Radio Paquete (GPRS) , Ambiente Mejorado de Datos GSM (EDGE), TIA/EIA-95-B (IS-95), TIA/EIA - IS98), IS2000, HRPD, cdma2000, CDMA de banda ancha (WCDMA), y otros. La figura 2 es un diagrama en bloques que ilustra una red de datos de paquete ejemplar y las varias opciones de interfaz aérea para entregar datos de paquete sobre una red inalámbrica. Pueden llevarse a cabo las técnicas descritas en un conmutador de paquetes de datos que se conecte una red de computadoras 200 como el ilustrado en la figura 2. Como se muestra en el ejemplo de la figura 2, el conmutador de paquetes de datos conecta una red de computadoras al sistema y puede incluir un canal 202 inalámbrico, una pluralidad de nodos del destinatario o MS 204, un nodo de envío o servidor 206 de contenido, un nodo de servicio 208, y un controlador 210. El nodo de envío 206 puede acoplarse al nodo de servicio 208 vía una red 212 como la Internet.
El nodo de servicio 208 puede comprender, por ejemplo, un nodo de servicio de paquete de datos (PDSN) o un Nodo de soporte de servicio GPRS (SGSN) o nodo de soporte de servicio de compuerta (GGSN) . El nodo de servicio 208 puede recibir el paquete de datos del nodo de envío 206, y da servicio a los paquetes de información al controlador 210. Por ejemplo, el controlador 210 puede comprender una Estación Base/función de Paquete Control (BSC/PCF) o Controlador de Red de Radio (RNC) . En una modalidad, el controlador 210 comunica con el nodo de servicio 208 sobre una Red de Acceso de Radio (RAN) . El controlador 210 comunica con el nodo de servicio 208 y transmite los paquetes de información sobre el canal inalámbrico 202 por lo menos a uno de los nodos receptores 204, como un MS .
En una modalidad, el nodo de servicio 208 o el nodo de envío 206, o ambos, también pueden incluir un codificador para codificar una corriente de datos, o un decodificador para decodificar una corriente de datos, o ambos. Por ejemplo, el codificador podría codificar una corriente de audio/video y producen de esa manera tramas de datos, y el decodificador podría recibir tramas de datos y decodificarias . Igualmente, un MS puede incluir un codificador para codificar una corriente de datos, o un decodificador para decodificar una corriente de datos recibida, o ambos. El término "codee" se usa para describir la combinación de un codificador y un decodificador.
En un ejemplo ilustrado en la figura 2, los datos, como los datos de multimedia, del nodo de envío 206 que se conecta a la red, o Internet 212 puede enviarse a un nodo del destinatario, o MS 204, vía el nodo de servicio, Nodo de servicio de paquete de Datos (PDSN) 206, y el Controlador, o Estación Base/ Función de control de paquete (BSC/PCF) 208. La interfaz de canal inalámbrico 202 entre el MS 204 y el BSC/PCF 210 es una interfaz aérea y, típicamente, puede usar muchos canales para la señalización y el portador, o carga útil, de datos.
La interfaz 202 aérea puede operar de acuerdo con cualquiera de varios estándares inalámbricos. Por ejemplo, las normas pueden incluir normas basadas en TDMA, como el Sistema Global para Comunicación Móvil (GSM) , Servicio General de Radio Paquete (GPRS) , los Ambiente Mejorado de Datos GSM (EDGE) , o los estándares basados en CDMA como TIA/EIA-95-B (IS-95), TIA/EIA-98-C (IS-98), IS2000, HRPD, cdma2000, CDMA banda ancha (WCDMA), y otros.
La figura 3 es un mapa que ilustra las dificultades de la sincronización en una técnica convencional para la transmisión de corrientes de RTP separadas sobre un canal de comunicación inalámbrica. En el ejemplo ilustrado en la figura 3, se codifican tramas de datos de video y audio en las corrientes de RTP y entonces se asignan a los paquetes de canal de comunicación. La figura 3 ilustra una corriente de tramas de video 302. Típicamente, las tramas de video ocurren a una velocidad constante. Por ejemplo, las tramas de video pueden ocurrir a una velocidad de 10 Hz que es una nueva trama que ocurre cada 100 milisegundos.
Tal como se muestra en la figura 3, las tramas de video individuales pueden contener cantidades diferentes de datos, como se indica por la altura de la barra que representa cada trama. Por ejemplo, si los datos de video se codifican como datos de Motion Picture Expert Group (MPEG) (Grupo de Peritos de Películas) entonces la corriente de video se constituye por intra-tramas (tramas-i), y tramas predictivas (tramas-p) Una trama-i es auto-contenida, que es, incluye toda la información necesaria para entregar, o desplegar una trama completa de video. Una trama-P no es auto-contenida y contendrá típicamente información diferencial relativa a la trama anterior, como los vectores de movimiento e información de textura diferencial. Típicamente, las tramas-l pueden ser de 8 a 10 veces más grandes que una trama-P, dependiendo del contenido y escenarios o configuraciones de codificación. Aunque las tramas de video pueden tener las cantidades diferentes de datos que ocurren a una velocidad constante. Las tramas-I y P pueden ser además partidas en múltiples rebanadas de video. Una rebanada de video representa una región menor en la pantalla y puede decodificarse individualmente por el decodificador.
En la figura 3 , en la trama de video N y N+4 podrían representar las tramas-I, y las tramas de video N+l, N+2, N+3 , y N+5 podrían representar tramas- P. Como se muestra, las tramas-I incluyen una cantidad más grande de datos, indicada por la altura de la barra que representa la trama, comparado con las tramas- P. Entonces, las tramas de video son empaquetadas en los paquetes en una corriente RTP 304. Como se muestra en la figura 3, los paquetes de RTP N y N+4, corresponden al video de tramas-I, N y N+4, son más grandes, indicado por su anchura, que los paquetes de RTP N+l, N+2 , y N+3 , correspondiendo a las tramas-P de video N+l, N+2, y N+3.
Los paquetes de De video RTP se asignan a paquetes de canal de comunicación 306. En un canal de comunicación convencional, como CDMA o GSM, los paquetes de datos de canal de comunicación 306 son de un tamaño constante, y se transmiten a una velocidad constante. Por ejemplo, los paquetes de datos de canal de comunicación 306 que pueden transmitirse a una velocidad de 50Hz, es decir, un nuevo paquete de datos se transmite cada 20 milisegundos. Debido a que los paquetes de canal de comunicación son de un tamaño constante, toma más paquetes de canal de comunicación para transmitir los paquetes de RTP más grandes. Así, toma más paquetes de canal de comunicación 306 para transmitir paquetes RTP que corresponden a tramas de video-I, N y N+4, que los paquetes de canal de comunicación necesarios para transmitir los paquetes de RTP menores que corresponden a las tramas de video P, N+l, N+2 y N+3. En el ejemplo ilustrado en la figura 3, la trama de video N ocupa un bloque 308 de nueve paquetes de canal de comunicación 306. Las tramas de video N+l, N+2, y N+3 ocupan los bloques 310, 312, y 314 respectivamente, cada uno con cuatro paquetes de canal de comunicación 306. La trama de video N+4 ocupa un bloque 316 de nueve paquetes de canal de comunicación 306.
Para cada trama de datos de video hay un dato de audio correspondiente. La figura 2 ilustra una corriente de tramas de audio 320. Cada trama de audio N, N+l, N+2, N+3 , N+4, y N+5 corresponde a la de trama video respectiva y ocurre a una velocidad de 10Hz, esto es que una nueva trama de audio empieza cada 100 milisegundos. En general, el dato de audio es menos complejo, tal que puede representarse por menos bits, que los datos de video asociados y se codifican típicamente tal como los paquetes RTP 322 son de un tamaño que puede transmitirse sobre el canal de comunicación dentro del período de una trama. Además, s generan tramas de audio típicas una vez cada 20 milisegundos en CDMA, GSM, WDCMA, etc. Se agrupan en atados tramas de audio múltiples en tales casos, los paquetes de audio y video representan la misma duración de tiempo para la paquetización de RTP. Por ejemplo, paquetes de RTP N, N+l, N+2, N+3 , N+4, y N+5 son de un tamaño que cada paquete de RTP puede asignarse a paquetes de canal de comunicación 324 tal que cada paquete de RTP puede transmitirse sobre el canal de comunicación dentro de un período de trama de 100 milisegundos .
Como se muestra en la figura 3, el paquete de tramas de audio N, N+l, N2 , N+3 , N+4, y N+5 cada uno ocupa bloques 326, 328, 330, 332, 334, y 336 respectivamente, cada uno con cinco paquetes de canal de comunicación 324. La comparación entre la asignación de las tramas de video y tramas de audio a sus respectivos paquetes de canal de comunicación ilustran la pérdida de sincronización entre los tramas de audio y video. En el ejemplo ilustrado en la figura 3, se requiere un bloque 308 de nueve paquetes de canal de comunicación 306 para transmitir la trama de video N. la trama de Audio N asociada con la trama de video N se transmitió en un bloque 326 de cinco paquetes de canal de comunicación 324. Debido a que el video y audio en los paquetes de canal de comunicación se transmiten al mismo tiempo, durante la transmisión de la trama video N, la trama de audio N, así como se transmiten cuatro de los cinco paquetes de canal de comunicación en el bloque 328 de la trama de audio N+l .
Por ejemplo, en la figura 3, si el video, y audio asociado, cuya velocidad de la trama es 10 Hz y la velocidad de paquete de canal de comunicaciones de 50 Hz, entonces durante el período de 100 milisegundos de la trama N, todos los datos audio se transmites, pero sólo una porción de los datos de video se transmite. En este ejemplo, todos los datos de video para la trama N no se transmiten hasta que se han transmitido otros cuatro paquetes de canal de comunicación 306 produciendo la trama completa de video N que requiere 180 milisegundos para la transmisión comparada a los 100 milisegundos para la transmisión completa de la trama de audio N. Debido a que las corrientes de RTP de audio y video son independientes, se transmite una porción de trama de audio N+l durante el tiempo que se transmite la trama de video de datos N. Esta pérdida de sincronización entre las corrientes de video y audio puede producir el "desliz" entre el video y audio a un receptor del canal de comunicación.
Debido a que los codificadores de video como H.263, AVC/H.264, MPEG-4, etc. son inherentemente de velocidad variable en naturaleza debido a que se codifica predeciblemente y también debido al uso de código longitud variable (VLC) de muchos parámetros, el envío de tiempo real de corrientes de bits de velocidad variable sobre las redes e conmutación de circuito y las redes de conmutación de paquetes se cumplen generalmente cumplidas por la conformación de tráfico con las memorias intermedias al remitente y receptor. El tráfico que conforman las memorias intermedias presenta un retardo adicional que es típicamente indeseable. Por ejemplo, el retardo adicional puede estar interfiriendo durante una teleconferencia cuando hay retardo entre el momento que una persona habla y cuando otra persona escucha el discurso.
Por ejemplo, debido a que el video a un receptor del canal de' comunicación se ha reproducido a la misma velocidad que la velocidad de la trama de video original, los retardos en el canal de comunicación pueden causar las pausas en la reproducción. En la figura 3, la trama de video N no puede reproducirse hasta que los datos de la trama entera se han recibido. Debido a que la trama de datos completa no se recibe durante el período de la trama, la reproducción tiene que pausarse hasta que se reciben todos los datos video para la trama N. Además, todos los datos de la trama de audio N necesitan ser guardados hasta que todos los datos de video para la trama N se reciben, para que se sincronice la reproducción de audio y video. También se menciona que los datos de audio de la trama N+l que se reciben mientras los datos de video de la trama N todavía están recibiéndose, deben guardarse hasta que se reciben todos los datos de video de la trama N+l . Debido al tamaño variable de las tramas de video, se requiere la conformación de sincronización de memorias intermedias de tráfico más grande.
La figura 4 es una gráfica que ilustra una técnica para la transmisión de corrientes RTP separadas sobre un canal comunicación inalámbrica de acuerdo con la invención. La figure 4, semejantemente a la figura 3, ilustra una corriente de tramas de video 302 de tamaño variante, y una corriente de tramas de audio 320 en código en RTP independiente 304 y 322 respectivamente. Las tramas de video y audio ocurren a una velocidad constante, por ejemplo una velocidad de 10Hz.
En la figura 4, como en la figura 3, la trama de video N y N+4 podrían representar las tramas-I, y tramas de video N+l, N+2, N+3, y N+5 podrían representar las tramas-P. Las tramas de video son empaquetadas en los paquetes en una corriente RTP 304. Como se muestra en la figura 4, los paquetes de RTP N y N+4, corresponden a las tramas de video I, N y N+4, son más grande, como se indica por su anchura, que los paquetes de RTP N+l, N+2 , y N+3, correspondiendo a las tramas P de video N+l, N+2, y N+3.
Los paquetes de video RTP se asignan a los paquetes de canal de comunicación 406. Las técnicas que se utilizan tal como se describe en la solicitud co-pendiente listada anteriormente en la REFERENCIA A LAS SOLICITUDES CO-PENDIENTES PARA PATENTES, la capacidad del canal de comunicación es variable. Debido a la capacidad variable de 2
los paquetes de canal de comunicación 406, la trama de video N puede transmitirse en un bloque 408 que contiene cinco paquetes de canal de comunicación 406.
En un canal de comunicación convencional, como los estándares basadas en CDMA como TIA/EIA-95-B (IS-95) , TIA/EIA-98-C (IS-98), IS2000, HRPD, cdma2000, y Banda ancha CDMA (WCDMA) , los paquetes de datos de canal de comunicación 406 que pueden transmitirse a una velocidad de 50Hz, es decir, un nuevo paquete de datos se transmite cada 20 milisegundos. Debido a que la capacidad de los paquetes de canal de comunicación 406 puede variar, la codificación de la trama de video N puede limitarse de tal forma que la trama entera de video N puede transmitirse durante un período de la trama. Como se muestra en la figura 4, la capacidad paquetes de canal de comunicación se 406 aumenta al transmitir el paquete RTP N, correspondiendo a la trama del video N, para que el paquete entero pueda transmitirse durante el período de la trama. También pueden aplicarse las técnicas descritas a canales de comunicación basados en GSM, GPRS, o EDGE.
Como se ilustra en figura 4, las tramas de video se codifican N, N+l, N+2, N+3, N+4, y N+5 en los paquetes de RTP y se asignan al canal de comunicación del bloque 408, 410, 412, 414, 416, y 418 respectivamente. También se nota que variando la capacidad de canal de comunicación, la entero trama de video se transmite dentro de un período de la trama. Por ejemplo, si la velocidad de la trama de video es entonces 10 Hz entonces una trama entera de datos de video se transmite durante un período de trama de lOOmilisegundos .
Para cada trama de datos de video 302 hay una trama de audio correspondiente 320. Cada trama de audio N, N+l, N+2, N+3, N+4, y N+5 corresponde a la trama de video respectiva y ocurre a una velocidad de 10 Hz que es un nueva trama de audio que empieza cada 100 milisegundos. Como se analizó en la figura 3, los datos de audio generalmente son menos complejos, tal que puede representarse por menos bits, que los datos de video asociados y se codifican típicamente de tal modo que los paquetes RTP 322 son de un tamaño que pueden transmitirse sobre el canal de comunicación dentro del período de lOOmilisegundos de una trama. Es decir, los paquetes de audio RTP N, N+l, N+2, N+3 , N+4, y N+5 son de un tamaño que cada paquete de RTP puede asignarse respectivamente a los bloques 326, 328, 330, 332, 334, y 336 de paquetes de canal de comunicación. Así, si la velocidad de la trama de video es entonces 10 Hz, cada trama de video puede transmitirse sobre el canal de comunicación dentro de un período de trama de 100 milisegundos. Semejantemente al video, si el tamaño del paquete audio es grande, la capacidad de canal de comunicación también puede variar para soportar la transmisión de una trama de audio entera durante un período de la trama.
En la figura 4, la comparación entre la asignación de las tramas de video y tramas de audio al paquete de canal de comunicación respectiva canal ilustra que las tramas de video y audio permanecen sincronizadas. En otros términos, se transmite cada período de la trama de video entera y una trama de audio entera. Porque un trama entero de video y audio se transmite cada período de la trama no hay necesidad de almacenar en memoria intermedia adicional . Los datos de video y audio recibidos sólo necesitan que se aumenten durante un período de la trama y entonces pueden reproducirse. Debido a que no hay ningún retardo introducido por el canal de comunicación, las tramas de video y audio permanecen sincronizadas.
Se debe notar que, como se ilustra en la figura 3, las tramas de video N+l, N+2 y N+3 requirieron cuatro paquetes de canal de comunicación de video 306 para transmitir la trama entera de datos de video. Como se ilustra en la figura 4, los paquetes de canal de comunicación de video 406 que pueden reducirse en tamaño para que los datos de video coincidan en cinco paquetes, o pueden transmitirse los paquetes en blanco. De manera similar, pueden transmitirse los paquetes en blanco si hay exceso de capacidad instalada disponible en el canal de comunicación de audio. Así, se codifican los datos de video y audio para que un trama entero de datos de audio y video se asigne a paquetes de canal de comunicación que ocupan el mismo período, o menos, o la velocidad de la trama respectiva.
Como se describe a continuación, mientras depende de los aspectos de la red de comunicación, pueden usarse las técnicas diferentes para sincronizar las corrientes de RTP. Por ejemplo, la red de comunicación puede estar sobre aprovisionada, es decir, tiene el exceso de capacidad instalada, o la red de comunicación puede tener una Calidad garantizada de Servicio. Además, las corrientes de RTP pueden modificarse para mantener la sincronización cuando se transmiten sobre una red de comunicación. Cada una de estas técnicas se analizará a continuación. Red de comunicación sobre aprovisionada.
En el escenario, cuando un enlace de comunicación entre PDSN 208 y el remitente 206 está sobre aprovisionado, es decir, hay exceso de capacidad instalada disponible para la transmisión de datos sobre la red de Internet, no hay retardo entonces debido a la congestión. Debido a que hay exceso de capacidad instalada en el enlace de comunicación no hay ninguna necesidad de retardar una transmisión para que la transmisión pueda acomodarse por el enlace de comunicación. Sin el retardo en la transmisión no hay ningún "salto" de tiempo entre los paquetes de voz y video cuando llegan a la infraestructura, como a un PDSN. En otros términos, los datos de audio y video permanecen sincronizados entre sí a al PDSN y la sincronización se mantiene entre el PDSN y el MS, como se describe en esta invención.
En el escenario sobre-aprovisionado, la sincronización audio-visual se cumple fácilmente. Por ejemplo, los datos de video pueden tener una velocidad de trama de 10 tramas por segundo (fps por sus siglas en inglés), basado en una trama de 100 milisegundos, y el audio asociado puede tener una velocidad de trama de 50 fps, basado en una trama de discurso de 20 milisegundos. En este ejemplo, cinco tramas de datos audio recibidas serían almacenadas en memoria intermedia, para que se sincronizara con la velocidad de la trama de video. Es decir, cinco tramas de datos audio serían almacenadas en memoria intermedia, mientras corresponde a 100 milisegundos de datos de audio, para que se sincronizara a la trama de video de 100 milisegundos. Las Redes de comunicación con un QoS garantizado en el retardo máximo.
Almacenando en memoria intermedia, un número apropiado de tramas de discurso de velocidad superior de trama, es posible coincidir con una trama de video de velocidad más baja. En general, si se entregan los paquetes de video con una garantía de retardo de calidad de servicio (QoS) : QoS_retardo = ms de NT Ecuación 1, donde n es el retardo en las tramas; y T = 1000/tramas por segundo.
Entonces una memoria intermedia clasificada según su tamaño para almacenar las tramas de discurso de nT/ dónde w es la duración de tramas del discurso en milisegundos, se necesita almacenar suficientes tramas de discurso para asegurar que pueden sincronizarse el discurso y video. En UMTS de cdma2000, la duración de una trama de discurso, W, es 20 milisegundos, en otros canales de comunicación, la duración de una trama de discurso puede ser diferente, o varía.
Otra técnica para la sincronización de datos de audio y video incluye el almacenamiento en memoria intermedia de ambas corrientes de datos. Por ejemplo, si un sistema de comunicación tiene un retardo máximo garantizado de DQ milisegundos, el significado que DQ es el retardo máximo que puede experimentarse durante la transmisión de audio y las corrientes de video, entonces una memoria intermedia clasificada según el tamaño apropiado puede emplearse para mantener la sincronización.
Por ejemplo, con un retardo máximo garantizado de DQ, entonces almacenando en memoria intermedia las tramas de video DQ/T (T es la duración de tramas de video en milisegundos) y tramas de discurso DQ/W (W es la duración de tramas del discurso en milisegundos) asegurará la sincronización de video audio (AV-synch) . Estos espacios adicionales de memoria intermedia normalmente se llaman memoria intermedia de oscilaciones periódicas.
Las técnicas describieron la sincronización de audio y las corrientes de datos de video. Las técnicas pueden usarse con cualquier corriente de datos que necesita ser sincronizada. Si hay dos corrientes de datos, la una primera corriente de datos de velocidad de bits más alta y una segundo corriente de datos de velocidad más baja que tienen el mismo intervalo de información y necesitan ser sincronizado, almacenando entonces en memoria intermedia la corriente de datos codificados de velocidad más alta permite que se sincronicen con los datos de velocidad más baja. Puede determinarse el tamaño de memoria intermedia, dependiendo de un QoS como se describió anteriormente. Igualmente, ambas corrientes de datos de velocidad de bit más alta y más baja pueden almacenarse en memoria intermedia y pueden sincronizarse como se describió anteriormente .
Se pueden desarrollar as técnicas descritas por medio de un sincronizador de corriente de datos que incluye un primer decodificador configurado para recibir una primera corriente de datos codificados y emitir una primera corriente de datos decodificádos, en' donde la primera corriente de datos codificados tiene una segunda velocidad de bit durante un intervalo de información. Y un segundo decodificador configurado para recibir una segunda corriente de datos codificados y emitir una segunda corriente de datos decodificados, en donde la segunda corriente de datos codificados tiene una segunda velocidad en bits durante el intervalo de información. La corriente de datos sincronizada también incluye una primera memoria intermedia configurada para aumentar la primera corriente de datos decodificados por lo menos para un intervalo de información y emitir un trama de la primera corriente de datos decodificados para cada período del intervalo, y una segunda memoria intermedia configurada para aumentar la segunda corriente de datos decodificados por lo menos para un intervalo de información y emitir una trama de la segunda corriente de datos decodificados para cada período del intervalo. Entonces se utiliza un combinador configurado para recibir la trama de la primera corriente de datos decodificados y la trama de la segunda corriente de datos decodificados y emitir una trama sincronizada de la primera y segunda corrientes de datos decodificados . En un ejemplo, la primera corriente de datos codificados puede ser los datos de video y la segunda corriente de datos codificados son los datos de audio, tal que la primera corriente de datos codificados es superior que la segunda corriente de datos codificados. Una sola corriente RTP Audio y Video Multiplexados.
Otra modalidad es portar audio y video en una sola corriente de RTP. Como se puede notar, no es ninguna práctica común en redes IP transmitir audio y video como una sola corriente de RTP. RTP fue diseñada para permitir a los participantes recursos diferentes, por ejemplo, terminales con capacidad de video y audio, y terminales con capacidad sólo de audio, para comunicar en la misma conferencia de multimedia.
La restricción de transmitir audio y video como corrientes de RTP separadas no puede ser aplicable en una red inalámbrica para los servicios de video. En este caso, un nuevo perfil de RTP puede diseñarse para llevar un discurso específico y cargas útiles de codee de video. La combinación de audio y video en una corriente de RTP común elimina el "salto" cuando se quiera entre los datos de audio y video sin requerir una red de comunicación sobre aprovisionada. Por lo tanto, puede lograrse la sincronización de video y audio utilizando las técnicas descritas en relación con una red sobre aprovisionada como se describió anteriormente.
La figura 5 es un diagrama en bloques de una porción de un receptor de audio/video inalámbrico 500 configurado para recibir los paquetes de canal de comunicación. Como se muestra en la figura 5, el receptor de audio/video 500 incluye una interfaz de canal de comunicación 502 configurada para recibir los paquetes de canal de comunicación. La interfaz de canal de comunicación 502 emite el paquete de canal de comunicación de video a un decodificador de video 504 y los paquetes de canal de comunicación de audio a un decodificador de audio 506. El decodificador de video 504 decodifica los paquetes de canal de comunicación de video y emite los datos de video a una memoria intermedia de video 508. El decodificador de audio 506 decodifica los paquetes de canal de comunicación de audio y emite los datos de audio a una memoria intermedia de audio 510. La memoria intermedia de video 508 y la memoria intermedia de audio aumentan los datos de video y audio respectivamente para un período de la trama. La memoria intermedia de video 508 y la memoria intermedia de audio 510 emiten una trama video y una trama de audio respectivamente a un combinador 512. El combinador 512 se configura para combinar las tramas de video y audio y emitir una señal de video y audio sincronizada. El funcionamiento de la memoria intermedia de video 508, la memoria intermedia de audio 510 y el combinador 512 pueden ser controlados por un controlador 514.
La figura 6 es un diagrama en bloques de una porción de un transmisor de audio/video inalámbrico 600 configurado para transmitir los paquetes de canal de comunicación. Como se muestra en la figura 6, el transmisor de audio/video 600 incluye una interfaz de canal de comunicación de video 602 configurada para recibir una corriente de datos de video RTP. La interfaz de canal de comunicación de video asigna los paquetes de RTP a los paquetes de canal de comunicación. Como se puede notar, la capacidad de los paquetes de canal de comunicación puede variar para asignar tramas enteras ricas en datos de video RTP a los paquetes de canal de comunicación que ocupan el mismo período como la trama de video. El transmisor de audio/video 600 también incluye una interfaz de canal de comunicación de audio 604 configurada para recibir una corriente datos de audio RTP. La interfaz de canal de comunicación de audio 604 asigna los paquetes de RTP a los paquetes de canal de comunicación. Como se puede notar, en general, la capacidad de los paquetes de canal de comunicación será suficiente para asignar los datos de audio a una trama entero de RTP a paquetes de canal de comunicación que ocupan el mismo período como la trama de audio. Si la capacidad del canal no es entonces suficiente puede variarse, así como a los paquetes de canal de comunicación de video para que hubiera capacidad suficiente para asignar los datos de audio a una trama entero de RTP a paquetes de canal de comunicación que ocupan el mismo período como la trama audio.
Los paquetes de canal de comunicación de video y audio son emitidos por las interfaces de canal de comunicación de video y audio 602 y 604 respectivamente y comunicados a un combinador 606. El combinador 606 se configura para aceptar los paquetes de canal de comunicación de video y audio y combinarlos y emitir una señal compuesta. La salida del combinador 606 se comunica a un transmisor 608 que transmite esa señal compuesta al canal inalámbrico. El funcionamiento de la interfaz del canal de comunicación de video 602, la interfaz del canal de comunicación de audio 604 y el combinador 606 pueden ser controlados por un controlador 614.
La figura 7 es un diagrama de flujo de transmisión de corriente de RTP independiente sobre un enlace de comunicación inalámbrica. Las salidas de flujo en el bloque 702 donde se reciben datos de video y las corrientes RTP de datos de audio. El flujo entonces continúa al bloque 704 donde la corriente de video RTP se asigna a los paquetes de canal de comunicación. En el bloque 706 la corriente audio de RTP se asigna a los paquetes de canal de comunicación. En el bloque 708 los paquetes de canal de comunicación de video y audio se combinan y transmitieron sobre un canal inalámbrico.
La figura 8 es un diagrama de flujo de recepción de datos de audio y video sobre un canal de comunicación inalámbrica. El flujo empieza en el bloque 802 donde los datos de video y audio se reciben sobre un canal de comunicación inalámbrica. El flujo continúa al bloque 804 de datos de video y audio y se decodifican. En el bloque 806, se agrupan los datos de video decodificados y los datos de audio en el video respectivo y las tramas de audio. En el bloque 810, los datos de video y audio se combinan en una trama de video/audio sincronizada. En el bloque 810, la trama de video/audio sincronizada es el emite.
La figura 9 es un diagrama en bloques de un dispositivo de comunicación inalámbrica, o una estación móvil (MS) , construida de acuerdo con una modalidad ejemplar de la presente invención. El dispositivo de comunicación 902 incluye una interfaz de red 906, un codee 908, un procesador central 910, un dispositivo de memoria 912, un producto de programa 914, y una interfaz del usuario 916.
Las señales de la infraestructura son recibidas por la interfaz de red 906 y se envían al procesador central 910. El procesador central 910 recibe señales y, dependiendo del volumen de la señal, responde con las acciones apropiadas. Por ejemplo, el procesador central 910 puede decodificar la propia señal recibida, o puede dirigir la señal recibida al codee 908 para decodificaria. En otra modalidad, la señal recibida se envía directamente al codee 908 de la interfaz de red 906.
En una modalidad, la interfaz de red 906 puede ser un transceptor y una antena para unir a la infraestructura sobre un canal inalámbrico. En otra modalidad, la interfaz de red 906 puede ser una tarjeta de interfaz de red unida a la infraestructura sobre la línea terrestre. Los codee 908 pueden llevarse a cabo como un procesador señalado digital (DSP) , o un procesador general como un procesador central (CPU) .
Tanto el procesador central 910 y el codee 908 se conectan a un dispositivo de memoria 912. El dispositivo de memoria 812 se puede utilizar para almacenar datos durante el funcionamiento del WCD, así como para almacenar un código de programa que se ejecutará por el procesador central 910 o el DSP 908. Por ejemplo, el procesador central, el codee, o ambos, pueden operar bajo el control de instrucciones de programación que se guardan temporalmente en el dispositivo de memoria 912. El procesador central 910 y el codee 908 también pueden incluir memoria de almacenamiento de programa propia. Cuando se ejecutan las instrucciones de programación, el procesador central 910 o el codee 908, o ambos, realizan sus funciones, por ejemplo decodificando o codificando corrientes multimedia, tal como datos de audio/video y ensamblando tramas de audio y video. Así, los pasos de programación implementan la funcionalidad del procesador central 910 respectivo y el codee 908, para que el procesador central y el codee puedan cada uno realizar las funciones de decodificar o codificar corrientes de contenidos y ensamblar tramas como sea deseado. Los pasos de programación se pueden recibir de un producto de programa 914. El producto de programa 914 puede almacenar, y transferir los pasos de programación en la memoria 912 para la ejecución por el procesador central, el codee, o ambos .
Los productos de programa 914 pueden ser circuitos integrados de memoria semiconductora, tal como memoria RAM, memoria instantánea, memoria ROM, memoria EPROM, memoria EEPROM, registros, así como otros dispositivos de almacenamiento tales como un disco duro, un disco removible, un CD-ROM, o cualquier otra forma de medio de almacenamiento conocido en la técnica que pueda almacenar instrucciones legibles por computadoras. Adicionalmente, el producto de programa 914 puede ser el archivo fuente que incluye los pasos del programa que se reciben de la red y almacenarlos dentro de la memoria y después se ejecutan. De esta manera, los pasos de procesamiento necesarios para el funcionamiento de conformidad con la presente invención se pueden modalizar en el producto de programa 914. En la figura 9, se muestra el medio de almacenamiento ejemplar acoplado al procesador central 910 de modo tal, que el procesador central puede leer la información de, y escribe la información al, medio de almacenamiento. Alternativamente, el medio de almacenamiento puede ser integral al procesador central 910.
La interfaz de usuario 916 se conecta tanto al procesador central 910 y al codee 908. Por ejemplo, la interfaz de usuario 916 puede incluir una pantalla y un altavoz utilizado para emitir la salida de datos de multimedia para el usuario.
Aquéllos expertos en la técnica reconocerán que el paso de un método descrito en relación con una modalidad se puede cambiar sin apartarse del alcance de la invención.
Aquéllos expertos en la técnica también entenderán que la información y las señales se pueden representar utilizando cualquiera de una variedad de diferentes tecnologías y técnicas. Por ejemplo, datos, instrucciones, comandos, información, señales, bits, símbolos, y circuitos integrados a los que se puede hacer referencia en toda la descripción anterior se pueden representar por voltajes, corrientes, ondas electromagnéticas, campos o partículas magnéticas, campos o partículas ópticas, o cualquier combinación de los mismos.
Aquéllos expertos además apreciarán que los varios bloques lógicos ilustrativos, módulos, circuitos, y pasos de algoritmo descritos en combinación con las modalidades descritas dentro de la invención se pueden implementar como hardware electrónico, software de computadoras, o combinaciones de ambos. Para ilustrar claramente este intercambiabilidad de hardware y software, varios componentes ilustrativos, bloques, módulos, circuitos, y pasos se han descrito claramente con anterioridad generalmente en términos de su funcionalidad. Si es que tal funcionalidad se implementa como hardware o software depende de la aplicación particular y de las restricciones impuestas en el sistema general. Los expertos en la técnica pueden implementar la funcionalidad descrita en varias maneras para cada aplicación particular, pero no deben interpretarse tales decisiones de implementación como causas para apartarse del alcance de la presente invención.
Los varios bloques lógicos ilustrativos, módulos, y circuitos descritos en conexión con las modalidades descritas en la presente invención se pueden implementar o llevar a cabo con un procesador de propósito general, un procesador de señales digital (DSP) , una circuito integrado de aplicación específica (ASIC) , un arreglo de compuerta de campo programable (FPGA) u otro dispositivo de lógica programable, compuerta discreta o lógica de transistor, componentes de hardware discretos, o cualquier combinación de los mismos diseñados para realizar las funciones descritas dentro de la presente invención. Un procesador de propósito general puede ser un microprocesador, pero en la alternativa, el procesador puede ser cualquier procesador convencional, controlador, microcontrolador, o máquina de estado. Se puede implementar también un procesador como una combinación de dispositivos de computadoras, por ejemplo, una combinación de un DSP y un microprocesador, una pluralidad de microprocesadores, uno o más microprocesadores junto con un núcleo DSP, o cualquier otra configuración tal .
Los pasos de un método o algoritmo descritos en conjunto con las modalidades descritas dentro de la presente invención se pueden incluir directamente en el hardware, en un módulo de software ejecutado por un procesador, o en una combinación de los dos. Un módulo de software puede residir en la memoria RAM, memoria instantánea, memoria ROM, memoria EPROM, memoria EEPROM, registros, disco duro, disco removible, CD-ROM, o cualquier otra forma de medio de almacenamiento conocidas en la técnica. Un medio de almacenamiento ejemplar se acopla al procesador de tal modo que el procesador puede leer la información de, y escribe la información al, medio de almacenamiento. En la alternativa, el medio de almacenamiento puede ser integral al procesador. El procesador y el medio de almacenamiento pueden residir en un ASIC. El ASIC puede residir en una terminal de usuario. En la alternativa, el procesador y el medio de almacenamiento pueden residir como componentes discretos en una terminal de usuario. Se provee la descripción anterior de las modalidades descritas para permitir hacer o utilizar la presente invención a cualquier persona experta en la técnica. Las varias modificaciones a estas modalidades serán fácilmente entendibles y claras para aquellos expertos en la técnica, y los principios genéricos definidos dentro de la presente invención se pueden aplicar a otras modalidades sin apartarse del espíritu o alcance de la presente invención. Así, la presente invención no intenta limitar a las modalidades mostradas aquí mismos pero será de conformidad con el alcance más amplio consistente con los principios y funciones novedosas descritas dentro de la presente invención.
Claims (29)
1.- Un sincronizador de corriente de datos que comprende: un primer decodificador configurado para recibir una primera corriente de datos codificados y para emitir la salida de una primer corriente de datos decodificados, en donde la primer corriente de datos codificados tiene una primera velocidad de bits durante un intervalo de información; un segundo decodificador configurado para recibir una segunda corriente de datos codificados y para emitir la salida de una segunda corriente de datos decodificados , en donde la segunda corriente de datos codificados tiene una segunda velocidad de bits durante el intervalo de información; una primera memoria intermedia configurada para acumular la primera corriente de datos decodificados por lo menos para un intervalo de información y para emitir la salida de una trama de de la primera corriente de datos decodificados en cada período de intervalo; una segunda memoria intermedia configurada para acumular la segunda corriente de datos decodificados por lo menos para un intervalo de información y para emitir la salida de una trama de la segunda corriente de datos decodificados en cada período de intervalo; y un combinador configurado para recibir la trama de la primera corriente de datos decodificados y la trama de la segunda corriente de datos decodificados y para emitir la salida de una trama sincronizada de la primera y la segunda corrientes de datos decodificados .
2.- El sincronizador de corriente de datos de conformidad con la reivindicación 1, caracterizado porque la primera corriente de datos codificados son datos de video.
3.- El sincronizador de corriente de datos de conformidad con la reivindicación 1, caracterizado porque la segunda corriente de datos codificados son datos de audio.
4.- El sincronizador de corriente de datos de conformidad con la reivindicación 1, caracterizado porque la primera velocidad de bits es superior que la segunda velocidad de bits.
5.- Un dispositivo de estación remota que comprende: un decodificador de video configurado para recibir datos de video codificados y para emitir la salida de datos de video decodificados; un decodificador de audio configurado para recibir datos de audio codificados y para emitir la salida de datos de audio decodificados; una memoria intermedia de video configurada para acumular datos de video decodificados por lo menos para un período de trama y para emitir la salida de una trama de datos de video en cada período de trama; una memoria intermedia de audio configurada para acumular datos de audio decodificados para los múltiples períodos de trama y para emitir la salida de una trama de datos de audio en cada período de trama; y un combinador configurado para recibir la trama de datos video y la trama de datos de audio y para emitir la salida de una trama de sincronizada de datos de video audio.
6. - La estación remota de conformidad con la reivindicación 5, caracterizada porque el decodificador de video es un decodificador de MPEG, un decodificador H.263, o un decodificador H.264.
7. - La estación remota de conformidad con la reivindicación 5, caracterizada porque el decodificador de audio es un decodificador de MPEG, un decodificador H.263, o un decodificador H.264.
8.- La estación remota de conformidad con la reivindicación 5, que además comprende un procesador de control que controla la decodificación y la sincronización los datos de audio y de video.
9.- Un dispositivo de estación remota que comprende: una interfaz de canal de comunicación de video configurada para recibir una corriente de video RTP y para asignar una trama entera de datos de video RTP a paquetes de canal de comunicación que ocupan el mismo período, o menos, que la velocidad de trama de video; una interfaz de canal de comunicación de audio configurada para recibir una corriente de audio RTP y para asignar una trama entera de datos de audio RTP a los paquetes de canal de comunicación que ocupan el mismo período, o menos, que la velocidad de trama de audio; y un transmisor configurado para recibir y transmitir los paquetes de canal de comunicación de video y audio.
10.- El dispositivo de estación remota de conformidad con la reivindicación 9, que además comprende un procesador de control que controla la asignación de datos de audio y video a paquetes de canal de comunicación.
11.- Un dispositivo de estación base que comprende: un decodificador de video configurado para recibir datos de video codificados y para emitir la salida de datos de video decodificados ; un decodificador de audio configurado para recibir datos de audio codificados y para emitir la salida de datos de audio decodificados; una memoria intermedia de video configurada para acumular datos de video decodificados para un período de trama de video y para emitir la salida de una trama de datos de video en cada período de trama; una memoria intermedia de audio configurada para acumular datos de audio decodificados para un período de trama de audio y para emitir la salida de una trama de datos de audio en cada período de trama; y un combinador configurado para recibir la trama de datos de video y la trama de datos de audio y para emitir la salida de una trama sincronizada de datos de video audio.
12.- La estación base de conformidad con la reivindicación 11, caracterizada porque el decodificador de video es un decodificador MPEG, un decodificador H.263, o un decodificador H.264.
13.- La estación base de conformidad con la reivindicación 11, caracterizada porque el decodificador de audio es un decodificador MPEG, un decodificador H.263, o un decodificador H.264.
14.- La estación base de conformidad con la reivindicación 11, que además comprende un procesador de control que controla la decodificación y sincronización de los datos de audio y video.
15.- Un dispositivo de estación base que comprende: una interfaz de canal de comunicación de video configurada para recibir una corriente de video RTP y para asignar una trama entera de datos de video RTP a paquetes de canal de comunicación que ocupan el mismo período, o menos, que la velocidad de trama de video; una interfaz de canal de comunicación de audio configurada para recibir una corriente de audio RTP y para asignar una trama entera de datos de audio RTP a paquetes de canal de comunicación que ocupan el mismo período, o menos, que la velocidad de trama de audio; y un transmisor configurado para recibir y transmitir los paquetes de canal de comunicación de video y audio .
16.- El dispositivo de estación base de conformidad con la reivindicación 15, que además comprende un procesador de control que controla la asignación de los datos de audio y video a los paquetes de canal de comunicación .
17.- Un sistema de comunicación inalámbrico que comprende: un dispositivo de estación base que comprende: una interfaz de canal de comunicación de video configurada para recibir una corriente de video RTP y para asignar una trama entera de datos de video RTP a paquetes de canal de comunicación que ocupan el mismo período, o menos, que la velocidad de trama de video; una interfaz de canal de comunicación de audio configurada para recibir una corriente de audio RTP y para asignar una trama entera de datos de audio RTP a paquetes de canal de comunicación que ocupan el mismo período, o menos, que la velocidad de trama de audio; un transmisor configurado para recibir y transmitir paquetes de canal de comunicación de video y audio,• un dispositivo de estación remota que comprende: un decodificador de video configurado para recibir paquetes de canal de comunicación videos y para emitir la salida de datos de video decodificados; un decodificador audio configurado para recibir los paquetes de canal de comunicación de audio y para emitir la salida de datos de audio decodificados ; una memoria intermedia de video configurada para acumular datos de video decodificados para un período de trama de video y para emitir la salida de una trama de datos de video en cada período de trama; una memoria intermedia de audio configurada para acumular datos de audio decodificados para un período de trama audio y para emitir la salida de una trama de datos de audio en cada período de trama; y un combinador configurado para recibir la trama de datos video y la trama de datos de audio y para emitir la salida de una trama de sincronizada de datos de video audio.
18.- Un sistema de comunicación inalámbrico que comprende: un dispositivo de estación remota que comprende: una interfaz de canal de comunicación de video configurada para recibir una corriente de video RTP y para asignar una trama entera de datos de video RTP a paquetes de canal de comunicación que ocupan el mismo período, o menos, que la velocidad de trama de video; una interfaz de canal de comunicación de audio configurada para recibir una corriente de audio RTP y para asignar una trama entera de datos de audio RTP a paquetes de canal de comunicación que ocupan el mismo período, o menos, que la velocidad de trama de audio; un transmisor configurado para recibir y transmitir los paquetes de canal de comunicación de video y audio; un dispositivo de estación base que comprende: un decodificador de video configurado para recibir paquetes de canal de comunicación de video y para emitir la salida de datos de video decodificados ; un decodificador de audio configurado para recibir paquetes de canal de comunicación de audio y para emitir la salida de datos de audio decodificados; una memoria intermedia de video configurada para acumular datos de video decodificados para un período de trama de video y para emitir la salida de una trama de datos de video en cada período de trama; una memoria intermedia de audio configurada para acumular datos de audio decodificados para un período de la trama audio y para emitir la salida de una trama de datos de audio en cada período de trama; y un combinador configurado para recibir la trama de datos de video y la trama de datos de audio y para emitir la salida de una trama de sincronizada de datos de video audio.
19.- Un método para decodificar corrientes de datos sincronizadas que comprende: recibir una primer corriente de datos codificada, decodificar y emitir la salida de una primer corriente de datos decodificada, en donde la primer corriente de datos codificada tiene una primera velocidad de bits durante un intervalo de información; recibir una segunda corriente de datos codificada, decodificar y emitir la salida de una segunda corriente de datos decodificada, en donde la segunda corriente de datos codificada tiene una segunda velocidad de bits durante un intervalo de información; que acumula la primera corriente de datos decodificados por lo menos para un intervalo de información y emitir la salida de una trama de la primera corriente de datos decodificados en cada período de intervalo; que acumula la segunda corriente de datos decodificados por lo menos para un intervalo de información y emitir la salida de una trama una trama de la segunda corriente de datos decodificados en cada período de intervalo; y combinar la trama de la primera corriente de datos decodificados y la trama de la segunda corriente de datos decodificados y emitir la salida de una trama sincronizada de la primera y la segunda corrientes de datos decodificados .
20.- Un método para decodificar y sincronizar datos de audio y video, el método comprende: recibir datos de video codificados y emitir la salida de datos de video decodificados; recibir datos de audio codificados y emitir la salida de datos de audio decodificados; que acumula los datos de video decodificados para un período de trama de video y emitir la salida de una trama datos de video en cada período de trama; que acumula datos de audio decodificados para un período de la trama audio y emitir la salida de una trama datos de audio en cada período de trama; y combina la trama de datos de video y la trama de datos de audio y emitir la salida de una trama sincronizada de datos de video audio en cada período de trama video.
21.- Un método para codificar datos de audio y video, el método comprende: recibir una corriente de video RTP y asignar los datos de video RTP a una trama entera a paquetes de canal de comunicación que ocupan el mismo período, o menos, como una velocidad de trama de video; y recibir una corriente de audio RTP y asignar una trama entera de datos de audio RTP a paquetes de canal de comunicación que ocupan el mismo período, o menos, como una velocidad de trama de audio.
22.- Un medio de comunicación legible por computadora que modaliza un método para decodificar y sincronizar corrientes de datos, el método comprende: recibir una primera corriente de datos codificada, decodificar y emitir la salida de una primer corriente de datos decodificada, en donde la primer corriente de datos codificados tiene una primera velocidad de bits durante un intervalo de información; recibir una segunda corriente de datos codificados, decodificar y emitir la salida de una segunda corriente de datos decodificados , en donde la segunda corriente de datos codificados tiene una segunda velocidad de bits durante el intervalo de información; que acumula la primera corriente de datos decodificados por lo menos para un intervalo de información y emitir la salida de una trama de la primera corriente de datos decodificados cada período de intervalo; acumular la segunda corriente de datos decodificados por lo menos para un intervalo de información y emitir la salida de una trama de la segunda corriente de datos decodificados en cada período de intervalo; y combinar la trama de la primera corriente de datos decodificados y la trama de la segunda corriente de datos decodificado y emitir la salida de una trama sincronizada de la primera y la segunda corrientes de datos decodificados .
23.- El medio de comunicación legible por computadora que modaliza un método para decodificar y sincronizar corrientes de datos de audio y datos de video, el método comprende: recibir datos de video codificados y emitir la salida de datos de video decodificados ; recibir datos de audio codificados y emitir la salida de datos de audio decodificados ; acumular los datos de video decodificados para un período de trama video y emitir la salida de una trama datos de video cada período de trama; acumular los datos de audio decodificados para un período de trama audio y emitir la salida de una trama datos de audio cada período de trama; y combinar la trama de datos de video y la trama de datos de audio y emitir la salida de una trama sincronizada de datos de video audio.
24.- El medio de comunicación legible por computadora que modaliza un método para codificar datos de audio y video, el método comprende: recibir una corriente de video RTP y asignar una trama entera de datos de video RTP a paquetes de canal de comunicación que ocupan el mismo período, o menos, como una velocidad de trama de video; y recibir una corriente de audio RTP y asignar una trama entera de datos de audio RTP a paquetes de canal de comunicación que ocupan el mismo período, o menos, como una velocidad de trama de audio.
25.- Un sincronizador de corriente de datos que comprenden: medios para decodificar una primera corriente de datos codificados y para emitir la salida de una primer corriente de datos decodificados, en donde la primer corriente de datos codificados tiene una primera velocidad de bits durante un intervalo de información; medios para decodificar una segunda corriente de datos codificados y para emitir la salida de una segunda corriente de datos decodificados , en donde la segunda corriente de datos codificados tiene una segunda velocidad de bits durante el intervalo de información; medios para acumular la primera corriente de datos decodificados por lo menos para un intervalo de información y para emitir la salida de una trama de de la primera corriente de datos decodificados en cada período de intervalo; medios para acumular la segunda corriente de datos decodificados por lo menos para un intervalo de información y para emitir la salida de una trama de la segunda corriente de datos decodificados en cada período de intervalo; y medios para combinar la trama de la primera corriente de datos decodificados y la trama de la segunda corriente de datos decodificados y para emitir la salida de una trama de sincronizada de la primera y la segunda corrientes de datos decodificados .
26.- Un dispositivo de estación remota que comprende: medios para recibir datos de video codificados y emitir la salida de datos de video decodificados ; medios para recibir datos de audio codificados y emitir la salida de datos de audio decodificados; medios para acumular datos de video decodificados para un período de trama de video y emitir la salida de una trama datos de video en cada período de trama; medios para acumular datos de audio decodificados para un período de trama de audio y emitir la salida de una trama datos de audio cada período de trama; y medios para combinar la trama de datos de video y la trama de datos de audio y emitir la salida de una trama sincronizada de datos de video audio.
27.- El dispositivo de estación remota comprende: medios para recibir una corriente de video RTP y asignar una trama entera de datos de video RTP a paquetes de canal de comunicación que ocupan el mismo período, o menos, como una velocidad de trama de video; y medios para recibir una corriente de audio RTP y asignar una trama entera de datos de audio RTP a paquetes de canal de comunicación que ocupan el mismo período, o menos, como una velocidad de trama de audio .
28.- Un dispositivo de estación base comprende: medios para recibir datos de video codificados y emitir la salida de datos de video decodificados; medios para recibir datos de audio codificados y emitir la salida de datos de audio decodificados; medios para acumular datos de video decodificados para un período de trama de video y emitir la salida de una trama datos de video cada período de trama; medios para acumular datos de audio decodificados para un período de trama de audio y emitir la salida de una trama datos de audio cada período de trama; y medios para combinar la trama de datos video y la trama de datos de audio y emitir la salida de una trama sincronizada de datos de video audio .
29.- El dispositivo de estación base comprende: medios para recibir una corriente de video RTP y asignar una trama entera de datos de video RTP a paquetes de canal de comunicación que ocupan el mismo período, o menos, como una velocidad de trama de video; y medios para recibir una corriente de audio RTP y asignar una trama entera de datos de audio RTP a paquetes de canal de comunicación que ocupan el mismo período, o menos, como una velocidad de trama de audio.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US57167304P | 2004-05-13 | 2004-05-13 | |
PCT/US2005/016839 WO2005115009A1 (en) | 2004-05-13 | 2005-05-13 | Synchronization of audio and video data in a wireless communication system |
Publications (1)
Publication Number | Publication Date |
---|---|
MXPA06013186A true MXPA06013186A (es) | 2007-02-14 |
Family
ID=34969576
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
MXPA06013211A MXPA06013211A (es) | 2004-05-13 | 2005-05-13 | Metodo y aparato para asignar a informacion a los canales de un sistema de comunicacion. |
MXPA06013193A MXPA06013193A (es) | 2004-05-13 | 2005-05-13 | Compresion de encabezado de datos de multimedia transmitidos sobre un sistema de comunicacion inalambrica. |
MXPA06013210A MXPA06013210A (es) | 2004-05-13 | 2005-05-13 | Suministro de informacion en un canal de comunicacion. |
MXPA06013186A MXPA06013186A (es) | 2004-05-13 | 2005-05-13 | Sincronizacion de datos de audio y video en un sistema de comunicacion inalambrica. |
Family Applications Before (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
MXPA06013211A MXPA06013211A (es) | 2004-05-13 | 2005-05-13 | Metodo y aparato para asignar a informacion a los canales de un sistema de comunicacion. |
MXPA06013193A MXPA06013193A (es) | 2004-05-13 | 2005-05-13 | Compresion de encabezado de datos de multimedia transmitidos sobre un sistema de comunicacion inalambrica. |
MXPA06013210A MXPA06013210A (es) | 2004-05-13 | 2005-05-13 | Suministro de informacion en un canal de comunicacion. |
Country Status (14)
Country | Link |
---|---|
US (6) | US20050259623A1 (es) |
EP (9) | EP1757027B1 (es) |
JP (5) | JP4554680B2 (es) |
KR (6) | KR100918596B1 (es) |
CN (5) | CN102984133B (es) |
AT (4) | ATE508567T1 (es) |
BR (4) | BRPI0510952B1 (es) |
CA (6) | CA2565977C (es) |
DE (4) | DE602005011611D1 (es) |
ES (4) | ES2366192T3 (es) |
MX (4) | MXPA06013211A (es) |
MY (3) | MY139431A (es) |
TW (4) | TWI381681B (es) |
WO (4) | WO2005114943A2 (es) |
Families Citing this family (196)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7136395B2 (en) * | 2000-11-30 | 2006-11-14 | Telefonaktiebolaget L M Ericsson (Publ) | Method and system for transmission of headerless data packets over a wireless link |
CN102984133B (zh) | 2004-05-13 | 2016-11-23 | 高通股份有限公司 | 用于分配信息到通信系统的信道的设备 |
US7599371B1 (en) * | 2004-06-09 | 2009-10-06 | Cisco Technology, Inc. | System and method for optimizing data transport in a communications system |
FI20040817A0 (fi) * | 2004-06-14 | 2004-06-14 | Nokia Corp | Pakkausparametrien siirto matkaviestinjärjestelmässä |
US7664057B1 (en) * | 2004-07-13 | 2010-02-16 | Cisco Technology, Inc. | Audio-to-video synchronization system and method for packet-based network video conferencing |
US20060062312A1 (en) * | 2004-09-22 | 2006-03-23 | Yen-Chi Lee | Video demultiplexer and decoder with efficient data recovery |
US7804850B2 (en) | 2004-10-01 | 2010-09-28 | Nokia Corporation | Slow MAC-e for autonomous transmission in high speed uplink packet access (HSUPA) along with service specific transmission time control |
EP1821442A4 (en) * | 2004-11-17 | 2011-07-20 | Sharp Kk | TRANSMITTER APPARATUS, RECEIVER APPARATUS AND COMMUNICATION SYSTEM |
US7675872B2 (en) | 2004-11-30 | 2010-03-09 | Broadcom Corporation | System, method, and apparatus for displaying pictures |
WO2006058544A1 (en) * | 2004-11-30 | 2006-06-08 | Telefonaktiebolaget Lm Ericsson (Publ) | Method for delivering multimedia files |
US7970345B2 (en) * | 2005-06-22 | 2011-06-28 | Atc Technologies, Llc | Systems and methods of waveform and/or information splitting for wireless transmission of information to one or more radioterminals over a plurality of transmission paths and/or system elements |
US7764713B2 (en) * | 2005-09-28 | 2010-07-27 | Avaya Inc. | Synchronization watermarking in multimedia streams |
US8102878B2 (en) * | 2005-09-29 | 2012-01-24 | Qualcomm Incorporated | Video packet shaping for video telephony |
US9692537B2 (en) * | 2005-10-18 | 2017-06-27 | Avago Technologies General Ip (Singapore) Pte. Ltd. | System, method, and apparatus for jitter reduction in a video decoder system |
US8406309B2 (en) | 2005-10-21 | 2013-03-26 | Qualcomm Incorporated | Video rate adaptation to reverse link conditions |
US8842555B2 (en) * | 2005-10-21 | 2014-09-23 | Qualcomm Incorporated | Methods and systems for adaptive encoding of real-time information in packet-switched wireless communication systems |
US8514711B2 (en) * | 2005-10-21 | 2013-08-20 | Qualcomm Incorporated | Reverse link lower layer assisted video error control |
WO2007050259A2 (en) * | 2005-10-21 | 2007-05-03 | Thomson Licensing | Method and apparatus for audio and video synchronization timestamp rollover correction |
US8548048B2 (en) * | 2005-10-27 | 2013-10-01 | Qualcomm Incorporated | Video source rate control for video telephony |
US7839948B2 (en) * | 2005-12-02 | 2010-11-23 | Qualcomm Incorporated | Time slicing techniques for variable data rate encoding |
JP4747816B2 (ja) * | 2005-12-05 | 2011-08-17 | 日本電気株式会社 | パケット相乗り方法、プログラム及び装置 |
US8014389B2 (en) * | 2005-12-06 | 2011-09-06 | Lippershy Celestial Llc | Bidding network |
EP1967006A2 (en) * | 2005-12-23 | 2008-09-10 | Koninklijke Philips Electronics N.V. | Splitting of a data stream |
US20070169152A1 (en) * | 2005-12-30 | 2007-07-19 | Daniel Roodnick | Data and wireless frame alignment for error reduction |
US8953596B2 (en) * | 2006-01-06 | 2015-02-10 | Qualcomm Incorporated | Conserving network capacity by releasing QoS resources |
US8284713B2 (en) * | 2006-02-10 | 2012-10-09 | Cisco Technology, Inc. | Wireless audio systems and related methods |
KR100754736B1 (ko) * | 2006-02-10 | 2007-09-03 | 삼성전자주식회사 | 영상 수신 시스템에서 영상 프레임의 재생 방법 및 그 장치 |
KR100728038B1 (ko) * | 2006-03-03 | 2007-06-14 | 삼성전자주식회사 | Plc 네트워크상에서 데이터를 묶어서 전송하는 방법 및장치 |
US7876695B2 (en) * | 2006-03-07 | 2011-01-25 | Telefonaktiebolaget Lm Ericsson (Publ) | Communication station and method providing flexible compression of data packets |
JP4659657B2 (ja) * | 2006-03-28 | 2011-03-30 | 富士通株式会社 | フレーム多重装置 |
WO2007114633A2 (en) * | 2006-04-03 | 2007-10-11 | Lg Electronics Inc. | Method of performing scheduling in a wired or wireless communication system and network scheduler thereof |
US7684816B2 (en) * | 2006-04-06 | 2010-03-23 | Motorola, Inc. | Method and apparatus to facilitate communication resource allocation for supergroups |
CN101438533B (zh) * | 2006-05-15 | 2013-01-23 | 艾利森电话股份有限公司 | 用于分层媒体的无线组播 |
CN1983905B (zh) * | 2006-05-25 | 2011-05-11 | 华为技术有限公司 | 终端在1x网络下建立HRPD网络分组数据业务的方法 |
US7920469B2 (en) * | 2006-06-15 | 2011-04-05 | Alcatel-Lucent Usa Inc. | Indicating a variable control channel structure for transmissions in a cellular system |
US20070299983A1 (en) * | 2006-06-21 | 2007-12-27 | Brothers Thomas J | Apparatus for synchronizing multicast audio and video |
US20070297454A1 (en) * | 2006-06-21 | 2007-12-27 | Brothers Thomas J | Systems and methods for multicasting audio |
US7584495B2 (en) * | 2006-06-30 | 2009-09-01 | Nokia Corporation | Redundant stream alignment in IP datacasting over DVB-H |
US20080025312A1 (en) * | 2006-07-28 | 2008-01-31 | Qualcomm Incorporated | Zero-header compression for improved communications |
US20080025249A1 (en) * | 2006-07-28 | 2008-01-31 | Qualcomm Incorporated | 1xEVDO WIRELESS INTERFACE TO ENABLE COMMUNICATIONS VIA A SATELLITE RELAY |
US8060651B2 (en) * | 2006-08-17 | 2011-11-15 | Sharp Laboratories Of America, Inc. | Systems and methods for adaptively packetizing data partitions for transport over a network |
US8644314B2 (en) * | 2006-09-07 | 2014-02-04 | Kyocera Corporation | Protocol and method of VIA field compression in session initiation protocol signaling for 3G wireless networks |
US8379733B2 (en) * | 2006-09-26 | 2013-02-19 | Qualcomm Incorporated | Efficient video packetization methods for packet-switched video telephony applications |
US8069412B2 (en) * | 2006-10-17 | 2011-11-29 | At&T Intellectual Property I, L.P. | Methods, systems, and products for mapping facilities data |
US8484059B2 (en) | 2006-10-17 | 2013-07-09 | At&T Intellectual Property I, L.P. | Methods, systems, and products for surveying facilities |
US20080101476A1 (en) * | 2006-11-01 | 2008-05-01 | Qualcomm Incorporated | Video coding rate adaptation to reduce packetization overhead |
CN101179484A (zh) * | 2006-11-09 | 2008-05-14 | 华为技术有限公司 | 一种不同媒体流间的同步方法及系统 |
CN100450163C (zh) * | 2006-11-30 | 2009-01-07 | 中兴通讯股份有限公司 | 一种移动多媒体广播视音频同步播放的方法 |
US7889191B2 (en) | 2006-12-01 | 2011-02-15 | Semiconductor Components Industries, Llc | Method and apparatus for providing a synchronized video presentation without video tearing |
US7953118B2 (en) * | 2006-12-08 | 2011-05-31 | Microsoft Corporation | Synchronizing media streams across multiple devices |
TWI364954B (en) | 2006-12-19 | 2012-05-21 | Innovative Sonic Ltd | Method and apparatus of continuous packet connectivity enhancement in a wireless communications system |
US8005043B2 (en) * | 2007-01-03 | 2011-08-23 | Samsung Electronics Co., Ltd | Method and apparatus for scheduling downlink packets in a mobile communication system |
CA2671731A1 (en) | 2007-01-04 | 2008-07-17 | Qualcomm Incorporated | Method and apparatus for distributed spectrum sensing for wireless communication |
KR101370478B1 (ko) * | 2007-01-10 | 2014-03-06 | 퀄컴 인코포레이티드 | 멀티미디어 전화 통신을 위한 컨텐트- 및 링크-의존 코딩 적응 구조 |
KR101369838B1 (ko) * | 2007-04-20 | 2014-03-06 | 삼성전자주식회사 | 전송 스트림 생성장치, 송신 장치, 수신 장치, 이들이포함된 디지털 방송 시스템 및 그 방법 |
KR100861594B1 (ko) * | 2007-04-23 | 2008-10-07 | 주식회사 케이티프리텔 | 멀티미디어 데이터 전송률 제어 장치 및 그 방법 |
US8671302B2 (en) * | 2007-05-14 | 2014-03-11 | Picongen Wireless, Inc. | Method and apparatus for wireless clock regeneration |
EP2183927A4 (en) | 2007-05-14 | 2014-12-17 | Sigma Group Inc | WIRELESS MULTIMEDIA SYSTEM |
CN100574283C (zh) * | 2007-06-12 | 2009-12-23 | 华为技术有限公司 | 上、下行传输方法及汇聚节点 |
EP2023521A1 (en) * | 2007-07-17 | 2009-02-11 | Alcatel Lucent | System and method for improving the use of radio spectrum in transmission of data |
CN101094406B (zh) * | 2007-07-23 | 2010-09-29 | 北京中星微电子有限公司 | 一种视频数据流的传输方法及装置 |
GB0715281D0 (en) * | 2007-08-07 | 2007-09-12 | Nokia Siemens Networks Oy | Reduced transmission time interval |
US7826360B1 (en) | 2007-08-27 | 2010-11-02 | Marvell International Ltd. | Adjusting transmission rates during packet expansion using in band signaling |
JP4410277B2 (ja) * | 2007-08-28 | 2010-02-03 | 富士通株式会社 | 半導体装置、および半導体装置の制御方法 |
KR100916469B1 (ko) | 2007-08-29 | 2009-09-08 | 엘지이노텍 주식회사 | 미디어 장치 및 그 제어방법 |
US9521186B2 (en) | 2007-09-13 | 2016-12-13 | International Business Machines Corporation | Method and system for file transfer over a messaging infrastructure |
CA2698328A1 (en) * | 2007-10-02 | 2009-04-09 | Nokia Corporation | Ip mtu control based on multiradio schedule |
CN101816206B (zh) * | 2007-10-04 | 2014-10-08 | Lm爱立信电话有限公司 | 针对服务gprs支持节点使用电路交换承载的系统间切换 |
KR100918961B1 (ko) | 2007-10-09 | 2009-09-25 | 강릉원주대학교산학협력단 | 무선 통신망에서 동적 영역 압축 및 ncb 결정방법 |
KR101422012B1 (ko) * | 2007-10-19 | 2014-07-23 | 엘지전자 주식회사 | 제어채널 생성 방법, 제어채널 복호화 방법, 이를 구현하는기지국 및 단말 |
US8797850B2 (en) * | 2008-01-10 | 2014-08-05 | Qualcomm Incorporated | System and method to adapt to network congestion |
US9705935B2 (en) * | 2008-01-14 | 2017-07-11 | Qualcomm Incorporated | Efficient interworking between circuit-switched and packet-switched multimedia services |
US20090185534A1 (en) * | 2008-01-18 | 2009-07-23 | Futurewei Technologies, Inc. | Method and Apparatus for Transmitting a Packet Header |
US9357233B2 (en) * | 2008-02-26 | 2016-05-31 | Qualcomm Incorporated | Video decoder error handling |
JP5115802B2 (ja) * | 2008-03-11 | 2013-01-09 | 富士通株式会社 | スケジューリング装置、スケジューリング方法、およびプログラム |
CN101257366B (zh) * | 2008-03-27 | 2010-09-22 | 华为技术有限公司 | 编解码方法、通讯系统及设备 |
US20090268732A1 (en) * | 2008-04-29 | 2009-10-29 | Thomson Licencing | Channel change tracking metric in multicast groups |
RU2010150108A (ru) * | 2008-05-07 | 2012-06-20 | Диджитал Фаунтин, Инк. (Us) | Быстрое переключение канала и защита потоковой передачи высокого качества по широковещательному каналу |
US8819749B2 (en) * | 2008-06-11 | 2014-08-26 | Koninklijke Philips B.V. | Synchronization of media stream components |
US20100003928A1 (en) * | 2008-07-01 | 2010-01-07 | Motorola, Inc. | Method and apparatus for header compression for cdma evdo systems |
US20100027524A1 (en) * | 2008-07-31 | 2010-02-04 | Nokia Corporation | Radio layer emulation of real time protocol sequence number and timestamp |
JP2010081212A (ja) * | 2008-09-25 | 2010-04-08 | Mitsubishi Electric Corp | 音声伝送装置 |
JP5135147B2 (ja) * | 2008-09-29 | 2013-01-30 | 富士フイルム株式会社 | 動画ファイル送信サーバおよびその動作制御方法 |
US8966543B2 (en) * | 2008-09-29 | 2015-02-24 | Nokia Corporation | Method and system to enable adaptation between physical bearers and OMA-BCAST |
EP2356817B1 (en) * | 2008-12-08 | 2017-04-12 | Telefonaktiebolaget LM Ericsson (publ) | Device and method for synchronizing received audio data with video data |
US8204038B2 (en) * | 2009-01-13 | 2012-06-19 | Mediatek Inc. | Method for efficient utilization of radio resources in wireless communications system |
JP4650573B2 (ja) | 2009-01-22 | 2011-03-16 | ソニー株式会社 | 通信装置、通信システム、プログラム、および通信方法 |
US8560718B2 (en) | 2009-03-03 | 2013-10-15 | Ronald R. Davenport, JR. | Wired Internet network system for the Internet video streams of radio stations |
US8958475B2 (en) * | 2009-07-02 | 2015-02-17 | Qualcomm Incorporated | Transmitter quieting and null data encoding |
US8902995B2 (en) * | 2009-07-02 | 2014-12-02 | Qualcomm Incorporated | Transmitter quieting and reduced rate encoding |
US9112618B2 (en) | 2009-07-02 | 2015-08-18 | Qualcomm Incorporated | Coding latency reductions during transmitter quieting |
KR101669533B1 (ko) * | 2009-07-06 | 2016-10-26 | 삼성전자주식회사 | 무선통신 시스템에서 매체 접속 제어 계층 패킷을 구성하는 방법 및 시스템 |
EP2460104A4 (en) | 2009-07-27 | 2016-10-05 | Ibm | METHOD AND SYSTEM FOR TRANSFORMING LOGICAL DATA OBJECTS FOR STORAGE USE |
CN101998508B (zh) * | 2009-08-14 | 2013-08-28 | 华为技术有限公司 | 数据封装方法及装置 |
WO2011027936A1 (ko) * | 2009-09-03 | 2011-03-10 | 에스케이 텔레콤주식회사 | 근거리 무선통신 기반 프로토콜의 상위에 탑재되는 전송계층의 헤더정보를 압축 및 해제하기 위한 시스템 및 방법, 그리고 이에 적용되는 장치 |
EP2302845B1 (en) | 2009-09-23 | 2012-06-20 | Google, Inc. | Method and device for determining a jitter buffer level |
EP2509359A4 (en) * | 2009-12-01 | 2014-03-05 | Samsung Electronics Co Ltd | METHOD AND APPARATUS FOR TRANSMITTING A MULTIMEDIA DATA PACKET USING LAYER OPTIMIZATION |
US8780720B2 (en) | 2010-01-11 | 2014-07-15 | Venturi Ip Llc | Radio access network load and condition aware traffic shaping control |
US20110182257A1 (en) * | 2010-01-26 | 2011-07-28 | Qualcomm Incorporated | White space spectrum commmunciation device with multiplexing capabilties |
KR20110090596A (ko) * | 2010-02-04 | 2011-08-10 | 삼성전자주식회사 | 지터 보정 방법 및 장치 |
EP2362653A1 (en) | 2010-02-26 | 2011-08-31 | Panasonic Corporation | Transport stream packet header compression |
CN101877643B (zh) * | 2010-06-29 | 2014-12-10 | 中兴通讯股份有限公司 | 多点混音远景呈现方法、装置及系统 |
US8630412B2 (en) | 2010-08-25 | 2014-01-14 | Motorola Mobility Llc | Transport of partially encrypted media |
US8477050B1 (en) | 2010-09-16 | 2013-07-02 | Google Inc. | Apparatus and method for encoding using signal fragments for redundant transmission of data |
US20120243602A1 (en) * | 2010-09-23 | 2012-09-27 | Qualcomm Incorporated | Method and apparatus for pipelined slicing for wireless display |
US8736700B2 (en) * | 2010-09-30 | 2014-05-27 | Apple Inc. | Techniques for synchronizing audio and video data in an image signal processing system |
US8595374B2 (en) * | 2010-12-08 | 2013-11-26 | At&T Intellectual Property I, L.P. | Method and apparatus for capacity dimensioning in a communication network |
WO2012086632A1 (ja) * | 2010-12-20 | 2012-06-28 | ヤマハ株式会社 | 無線オーディオ伝送方法 |
JP5847846B2 (ja) * | 2011-01-21 | 2016-01-27 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | ワイヤレスディスプレイのためのユーザ入力バックチャネル |
US9413803B2 (en) | 2011-01-21 | 2016-08-09 | Qualcomm Incorporated | User input back channel for wireless displays |
US9787725B2 (en) | 2011-01-21 | 2017-10-10 | Qualcomm Incorporated | User input back channel for wireless displays |
US10135900B2 (en) | 2011-01-21 | 2018-11-20 | Qualcomm Incorporated | User input back channel for wireless displays |
US9582239B2 (en) | 2011-01-21 | 2017-02-28 | Qualcomm Incorporated | User input back channel for wireless displays |
US8964783B2 (en) * | 2011-01-21 | 2015-02-24 | Qualcomm Incorporated | User input back channel for wireless displays |
US20130022032A1 (en) * | 2011-01-26 | 2013-01-24 | Qualcomm Incorporated | Systems and methods for communicating in a network |
US8838680B1 (en) | 2011-02-08 | 2014-09-16 | Google Inc. | Buffer objects for web-based configurable pipeline media processing |
EP2490447A1 (en) * | 2011-02-16 | 2012-08-22 | British Telecommunications Public Limited Company | Compact cumulative bit curves |
JP2012222530A (ja) * | 2011-04-06 | 2012-11-12 | Sony Corp | 受信装置及び方法、並びにプログラム |
US8831108B2 (en) * | 2011-05-04 | 2014-09-09 | Cavium, Inc. | Low latency rate control system and method |
EP2547062B1 (en) * | 2011-07-14 | 2016-03-16 | Nxp B.V. | Media streaming with adaptation |
CN102325261A (zh) * | 2011-09-14 | 2012-01-18 | 上海交通大学 | 立体视频采集合成系统的视间视频数据消抖同步方法 |
CN102521294A (zh) * | 2011-11-30 | 2012-06-27 | 苏州奇可思信息科技有限公司 | 基于音频触发式课件的远程教育授课方法 |
US20130155918A1 (en) * | 2011-12-20 | 2013-06-20 | Nokia Siemens Networks Oy | Techniques To Enhance Header Compression Efficiency And Enhance Mobile Node Security |
CN103179094B (zh) * | 2011-12-22 | 2019-10-01 | 南京中兴软件有限责任公司 | Ip报文头的发送、接收方法、发送装置以及接收装置 |
CN103179449B (zh) * | 2011-12-23 | 2016-03-02 | 联想(北京)有限公司 | 媒体文件的播放方法、电子设备和虚拟机架构 |
US8687654B1 (en) * | 2012-01-05 | 2014-04-01 | Google Inc. | Method to packetize an encoded video frame |
GB2498992B (en) * | 2012-02-02 | 2015-08-26 | Canon Kk | Method and system for transmitting video frame data to reduce slice error rate |
US20130223412A1 (en) * | 2012-02-24 | 2013-08-29 | Qualcomm Incorporated | Method and system to improve frame early termination success rate |
EP2648418A1 (en) * | 2012-04-05 | 2013-10-09 | Thomson Licensing | Synchronization of multimedia streams |
US9098596B2 (en) * | 2012-04-10 | 2015-08-04 | Cable Television Laboratories, Inc. | Redirecting web content |
US9204095B2 (en) * | 2012-05-04 | 2015-12-01 | Hong Jiang | Instant communications system having established communication channels between communication devices |
CN102665140B (zh) * | 2012-05-16 | 2014-04-09 | 哈尔滨工业大学深圳研究生院 | 一种avs视频帧的rtp封装方法 |
CN103428523B (zh) * | 2012-05-22 | 2015-07-08 | 华为技术有限公司 | 评估视频质量的方法和装置 |
US8953882B2 (en) | 2012-05-31 | 2015-02-10 | Apple Inc. | Systems and methods for determining noise statistics of image data |
US9031319B2 (en) | 2012-05-31 | 2015-05-12 | Apple Inc. | Systems and methods for luma sharpening |
US9142012B2 (en) | 2012-05-31 | 2015-09-22 | Apple Inc. | Systems and methods for chroma noise reduction |
US9014504B2 (en) | 2012-05-31 | 2015-04-21 | Apple Inc. | Systems and methods for highlight recovery in an image signal processor |
US9105078B2 (en) | 2012-05-31 | 2015-08-11 | Apple Inc. | Systems and methods for local tone mapping |
US11089247B2 (en) | 2012-05-31 | 2021-08-10 | Apple Inc. | Systems and method for reducing fixed pattern noise in image data |
US9743057B2 (en) | 2012-05-31 | 2017-08-22 | Apple Inc. | Systems and methods for lens shading correction |
US9332239B2 (en) | 2012-05-31 | 2016-05-03 | Apple Inc. | Systems and methods for RGB image processing |
US9025867B2 (en) | 2012-05-31 | 2015-05-05 | Apple Inc. | Systems and methods for YCC image processing |
US9077943B2 (en) | 2012-05-31 | 2015-07-07 | Apple Inc. | Local image statistics collection |
US8872946B2 (en) | 2012-05-31 | 2014-10-28 | Apple Inc. | Systems and methods for raw image processing |
US8917336B2 (en) | 2012-05-31 | 2014-12-23 | Apple Inc. | Image signal processing involving geometric distortion correction |
US8817120B2 (en) | 2012-05-31 | 2014-08-26 | Apple Inc. | Systems and methods for collecting fixed pattern noise statistics of image data |
US8863307B2 (en) | 2012-06-05 | 2014-10-14 | Broadcom Corporation | Authenticating users based upon an identity footprint |
TWI513320B (zh) * | 2012-06-25 | 2015-12-11 | Hon Hai Prec Ind Co Ltd | 視訊會議裝置及其唇形同步的方法 |
WO2014006837A1 (ja) * | 2012-07-05 | 2014-01-09 | パナソニック株式会社 | 符号化・復号化システム、復号化装置、符号化装置、及び符号化・復号化方法 |
US9668161B2 (en) * | 2012-07-09 | 2017-05-30 | Cisco Technology, Inc. | System and method associated with a service flow router |
KR101947000B1 (ko) * | 2012-07-17 | 2019-02-13 | 삼성전자주식회사 | 방송 시스템에서 멀티미디어 데이터의 전송 특징 정보 전달 방법 및 장치 |
US20140142955A1 (en) * | 2012-11-19 | 2014-05-22 | Apple Inc. | Encoding Digital Media for Fast Start on Digital Media Players |
US20140192200A1 (en) * | 2013-01-08 | 2014-07-10 | Hii Media Llc | Media streams synchronization |
US20140310735A1 (en) * | 2013-04-12 | 2014-10-16 | Codemate A/S | Flat rate billing of content distribution |
US9532043B2 (en) | 2013-08-02 | 2016-12-27 | Blackberry Limited | Wireless transmission of real-time media |
FR3011155A1 (fr) * | 2013-09-26 | 2015-03-27 | Orange | Procedes de synchronisation, de generation d'un flux, programmes d'ordinateur, media de stockage, dispositifs de restitution, d'execution et de generation correspondants. |
US20150195326A1 (en) * | 2014-01-03 | 2015-07-09 | Qualcomm Incorporated | Detecting whether header compression is being used for a first stream based upon a delay disparity between the first stream and a second stream |
US9282171B2 (en) * | 2014-03-06 | 2016-03-08 | Qualcomm Incorporated | Context establishment in marginal grant conditions |
US9369724B2 (en) * | 2014-03-31 | 2016-06-14 | Microsoft Technology Licensing, Llc | Decoding and synthesizing frames for incomplete video data |
US9801198B2 (en) | 2014-05-22 | 2017-10-24 | Kyocera Corporation | Unlicensed frequency band with licensed frequency band timing |
CN103986941A (zh) * | 2014-05-28 | 2014-08-13 | 深圳市智英实业发展有限公司 | 一种无线音视频传输系统 |
EP3016432B1 (en) * | 2014-10-30 | 2018-07-04 | Vodafone IP Licensing limited | Content compression in mobile network |
US10129839B2 (en) * | 2014-12-05 | 2018-11-13 | Qualcomm Incorporated | Techniques for synchronizing timing of wireless streaming transmissions to multiple sink devices |
KR102349450B1 (ko) * | 2014-12-08 | 2022-01-10 | 삼성전자주식회사 | 무결성 검사 데이터 제공 방법 및 장치 |
US9692709B2 (en) | 2015-06-04 | 2017-06-27 | Oracle International Corporation | Playout buffering of encapsulated media |
KR102402881B1 (ko) | 2015-06-05 | 2022-05-27 | 한화테크윈 주식회사 | 감시 시스템 |
US9929879B2 (en) | 2015-06-09 | 2018-03-27 | Oracle International Corporation | Multipath support of real-time communications |
CN104980955A (zh) * | 2015-06-19 | 2015-10-14 | 重庆市音乐一号科技有限公司 | 一种改善Wi-Fi Display传输速度的方法 |
WO2017008263A1 (en) * | 2015-07-15 | 2017-01-19 | Mediatek Singapore Pte. Ltd. | Conditional binary tree block partitioning structure |
CN105245273B (zh) * | 2015-08-27 | 2017-12-12 | 桂林理工大学 | 一种照度均衡的rs232与vlc通信协议转换方法 |
WO2017071730A1 (en) * | 2015-10-26 | 2017-05-04 | Telefonaktiebolaget Lm Ericsson (Publ) | Length control for packet header sampling |
GB201519090D0 (en) * | 2015-10-28 | 2015-12-09 | Microsoft Technology Licensing Llc | Multiplexing data |
WO2017074811A1 (en) * | 2015-10-28 | 2017-05-04 | Microsoft Technology Licensing, Llc | Multiplexing data |
CN106817350A (zh) * | 2015-11-30 | 2017-06-09 | 中兴通讯股份有限公司 | 报文处理方法及装置 |
US11924826B2 (en) | 2015-12-10 | 2024-03-05 | Qualcomm Incorporated | Flexible transmission unit and acknowledgment feedback timeline for efficient low latency communication |
US10332534B2 (en) * | 2016-01-07 | 2019-06-25 | Microsoft Technology Licensing, Llc | Encoding an audio stream |
KR101700370B1 (ko) * | 2016-06-08 | 2017-01-26 | 삼성전자주식회사 | 지터 보정 방법 및 장치 |
KR102497216B1 (ko) * | 2017-05-10 | 2023-02-07 | 삼성전자 주식회사 | 슬라이스 기반의 압축을 수행하는 영상 처리 장치 및 영상 처리 방법 |
US10367750B2 (en) * | 2017-06-15 | 2019-07-30 | Mellanox Technologies, Ltd. | Transmission and reception of raw video using scalable frame rate |
GB2564644B (en) * | 2017-07-12 | 2020-12-16 | Canon Kk | Method and system of encoding a data stream according to a variable bitrate mode |
WO2019037121A1 (en) * | 2017-08-25 | 2019-02-28 | SZ DJI Technology Co., Ltd. | SYSTEMS AND METHODS FOR SYNCHRONIZING SYNCHRONIZATION OF FRAMES BETWEEN A PHYSICAL LAYER FRAME AND A VIDEO FRAME |
EP3493535B1 (en) * | 2017-11-29 | 2020-09-09 | Mitsubishi Electric R & D Centre Europe B.V. | Method for controlling a video encoder of a video camera installed on a moving conveyance |
EP3902294A4 (en) | 2017-12-13 | 2022-09-14 | Fiorentino, Ramon | INTERCONNECTED SYSTEM FOR THE WIRELESS TRANSMISSION OF HIGH QUALITY AUDIO AND VIDEO SIGNALS BETWEEN CONSUMER ELECTRONIC DEVICES |
US10437745B2 (en) * | 2018-01-05 | 2019-10-08 | Denso International America, Inc. | Mobile de-whitening |
US10608947B2 (en) * | 2018-02-26 | 2020-03-31 | Qualcomm Incorporated | Per-flow jumbo MTU in NR systems |
KR102011806B1 (ko) * | 2018-04-12 | 2019-08-19 | 주식회사 넷커스터마이즈 | Udt 기반 트래픽 가속 방법 |
DE102018212655A1 (de) * | 2018-07-30 | 2020-01-30 | Conti Temic Microelectronic Gmbh | Erkennung der Bewegungsabsicht eines Fußgängers aus Kamerabildern |
US10834296B2 (en) * | 2018-09-12 | 2020-11-10 | Roku, Inc. | Dynamically adjusting video to improve synchronization with audio |
CN109618240A (zh) * | 2018-10-26 | 2019-04-12 | 安徽清新互联信息科技有限公司 | 用于实时音视频传输的无线多信道自适应均衡方法 |
EP4029280A1 (en) * | 2019-09-10 | 2022-07-20 | Sonos, Inc. | Synchronizing playback of audio information received from other networks |
CN111064541B (zh) * | 2019-12-18 | 2021-05-11 | 中国南方电网有限责任公司超高压输电公司 | 一种高低速数据传输通道复用的方法 |
CN111131917B (zh) * | 2019-12-26 | 2021-12-28 | 国微集团(深圳)有限公司 | 音频频谱实时同步方法、播放装置 |
CN111866753B (zh) * | 2020-06-02 | 2021-06-29 | 中山大学 | 一种数字传输广播通信方法及系统 |
WO2021252548A1 (en) * | 2020-06-08 | 2021-12-16 | Sky Peak Technologies, Inc. | Content shaping and routing in a network |
KR102408433B1 (ko) * | 2021-07-27 | 2022-06-10 | 한국항공우주연구원 | 다중 데이터 전송 방법 및 시스템 |
CN115484239B (zh) * | 2022-09-15 | 2023-10-27 | 北京百度网讯科技有限公司 | 多媒体数据流的处理方法、装置、电子设备及存储介质 |
Family Cites Families (129)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4948019A (en) | 1989-03-31 | 1990-08-14 | Rodum Roland K | Collapsible clothes hanger |
JP2712656B2 (ja) * | 1989-10-25 | 1998-02-16 | 日本電気ホームエレクトロニクス株式会社 | Cd―rom記録方法 |
AU2908492A (en) | 1991-10-22 | 1993-05-21 | Cae, Inc. | Synchronous parallel electronic timing generator |
EP0614317A3 (en) | 1993-03-05 | 1995-01-25 | Sony Corp | Decoding video signals. |
JP3364281B2 (ja) * | 1993-07-16 | 2003-01-08 | パイオニア株式会社 | 時分割ビデオ及びオーディオ信号の同期方式 |
JP3003839B2 (ja) * | 1993-11-08 | 2000-01-31 | エヌ・ティ・ティ移動通信網株式会社 | Cdma通信方法および装置 |
US5541852A (en) * | 1994-04-14 | 1996-07-30 | Motorola, Inc. | Device, method and system for variable bit-rate packet video communications |
US5583652A (en) * | 1994-04-28 | 1996-12-10 | International Business Machines Corporation | Synchronized, variable-speed playback of digitally recorded audio and video |
US5510842A (en) | 1994-05-04 | 1996-04-23 | Matsushita Electric Corporation Of America | Parallel architecture for a high definition television video decoder having multiple independent frame memories |
US5646693A (en) | 1994-11-04 | 1997-07-08 | Cismas; Sorin | Memory utilization for video decoding and display with 3:2 pull-down |
KR0137701B1 (ko) * | 1994-12-13 | 1998-05-15 | 양승택 | 엠피이지-2(mpeg-2) 시스템의 피이에스(pes) 패킷화 장치 |
FI114178B (fi) * | 1995-01-09 | 2004-08-31 | Nokia Corp | Radiokapasiteetin dynaaminen jakaminen TDMA-järjestelmässä |
EP0735776B1 (en) * | 1995-03-29 | 2004-01-28 | Hitachi, Ltd. | Decoder for compressed and multiplexed video and audio data |
US5914717A (en) | 1995-07-21 | 1999-06-22 | Microsoft | Methods and system for providing fly out menus |
KR0164184B1 (ko) | 1995-08-31 | 1999-01-15 | 배순훈 | 동영상 압축디스크의 엔코딩제어장치 |
US5844600A (en) * | 1995-09-15 | 1998-12-01 | General Datacomm, Inc. | Methods, apparatus, and systems for transporting multimedia conference data streams through a transport network |
KR970012585U (ko) | 1995-09-21 | 1997-04-25 | 자동차용 선바이저 | |
US6058141A (en) * | 1995-09-28 | 2000-05-02 | Digital Bitcasting Corporation | Varied frame rate video |
IT1281001B1 (it) * | 1995-10-27 | 1998-02-11 | Cselt Centro Studi Lab Telecom | Procedimento e apparecchiatura per codificare, manipolare e decodificare segnali audio. |
US5570372A (en) | 1995-11-08 | 1996-10-29 | Siemens Rolm Communications Inc. | Multimedia communications with system-dependent adaptive delays |
US5717464A (en) | 1995-12-18 | 1998-02-10 | Divicom, Inc. | Rate control for a video encoder |
IL117133A (en) * | 1996-02-14 | 1999-07-14 | Olivr Corp Ltd | Method and system for providing on-line virtual reality movies |
JPH09312656A (ja) * | 1996-03-21 | 1997-12-02 | Sony Corp | 伝送装置およびその方法 |
US5867230A (en) | 1996-09-06 | 1999-02-02 | Motorola Inc. | System, device, and method for streaming a multimedia file encoded at a variable bitrate |
US6041067A (en) * | 1996-10-04 | 2000-03-21 | Matsushita Electric Industrial Co., Ltd. | Device for synchronizing data processing |
US6473404B1 (en) | 1998-11-24 | 2002-10-29 | Connect One, Inc. | Multi-protocol telecommunications routing optimization |
KR100204043B1 (ko) * | 1996-11-28 | 1999-06-15 | 정선종 | 분산처리환경 상에서 오디오/비디오 데이타 전송을 위한 스트림 채널 형성방법 |
DE19652708C2 (de) * | 1996-12-18 | 1999-08-12 | Schott Glas | Verfahren zum Herstellen eines befüllten Kunststoff-Spritzenkorpus für medizinische Zwecke |
US6154780A (en) | 1996-12-18 | 2000-11-28 | Intel Corporation | Method and apparatus for transmission of a flexible and error resilient video bitstream |
EP0861001B1 (en) | 1997-02-07 | 2012-05-23 | Texas Instruments Incorporated | Error resilient video encoding |
KR100223298B1 (ko) * | 1997-02-12 | 1999-10-15 | 서평원 | 광대역 종합 정보 통신망의 터미널 정합 장치 |
US6542481B2 (en) | 1998-06-01 | 2003-04-01 | Tantivy Communications, Inc. | Dynamic bandwidth allocation for multiple access communication using session queues |
US6181711B1 (en) | 1997-06-26 | 2001-01-30 | Cisco Systems, Inc. | System and method for transporting a compressed video and data bit stream over a communication channel |
US6577610B1 (en) | 1997-06-30 | 2003-06-10 | Spacenet, Inc. | Flex slotted Aloha transmission system and method |
US5913190A (en) | 1997-10-17 | 1999-06-15 | Dolby Laboratories Licensing Corporation | Frame-based audio coding with video/audio data synchronization by audio sample rate conversion |
US6124895A (en) | 1997-10-17 | 2000-09-26 | Dolby Laboratories Licensing Corporation | Frame-based audio coding with video/audio data synchronization by dynamic audio frame alignment |
JP3407287B2 (ja) * | 1997-12-22 | 2003-05-19 | 日本電気株式会社 | 符号化復号システム |
DE69907158D1 (de) * | 1998-02-27 | 2003-05-28 | Ridgeway Systems And Software | Ton und video paketsynchronisierung in einer netzwerkdurchschaltvermittlung |
US6192257B1 (en) | 1998-03-31 | 2001-02-20 | Lucent Technologies Inc. | Wireless communication terminal having video image capability |
JPH11298878A (ja) | 1998-04-08 | 1999-10-29 | Nec Corp | 画像スクランブル方法およびそれを実施する装置 |
US6215789B1 (en) | 1998-06-10 | 2001-04-10 | Merlot Communications | Local area network for the transmission and control of audio, video, and computer data |
FI106832B (fi) * | 1998-06-10 | 2001-04-12 | Nokia Networks Oy | Suurinopeuksinen datasiirto matkaviestinjärjestelmässä |
US6085270A (en) | 1998-06-17 | 2000-07-04 | Advanced Micro Devices, Inc. | Multi-channel, multi-rate isochronous data bus |
US6496504B1 (en) | 1998-08-06 | 2002-12-17 | Ricoh Company, Ltd. | Smart allocation of bandwidth for multiple independent calls on a digital network |
US6728263B2 (en) * | 1998-08-18 | 2004-04-27 | Microsoft Corporation | Dynamic sizing of data packets |
US6295453B1 (en) | 1998-10-07 | 2001-09-25 | Telefonaktiebolaget Lm Ericsson (Publ) | Multi-full rate channel assignment for a cellular telephone system |
JP2000175189A (ja) * | 1998-12-07 | 2000-06-23 | Univ Tokyo | 動画符号化方法およびそれに用いる動画符号化装置 |
JP3454175B2 (ja) | 1998-12-24 | 2003-10-06 | 日本ビクター株式会社 | 画像情報送出装置 |
FI106998B (fi) * | 1999-01-15 | 2001-05-15 | Nokia Mobile Phones Ltd | Bittinopeuden ohjaus multimedialaitteessa |
US7016337B1 (en) | 1999-03-02 | 2006-03-21 | Cisco Technology, Inc. | System and method for multiple channel statistical re-multiplexing |
US6473442B1 (en) | 1999-04-12 | 2002-10-29 | Telefonaktiebolaget Lm Ericsson (Publ) | Communications system and method for matching and balancing the bit rates of transport channels to the bit rate of a physical channel |
KR100335441B1 (ko) | 1999-05-01 | 2002-05-04 | 윤종용 | 다중 비디오 디코딩 장치 및 그 방법 |
KR100352981B1 (ko) | 1999-05-21 | 2002-09-18 | 유혁 | 엠펙-1 데이터 전송 장치 및 그 방법 |
KR100608042B1 (ko) | 1999-06-12 | 2006-08-02 | 삼성전자주식회사 | 멀티 미디어 데이터의 무선 송수신을 위한 인코딩 방법 및그 장치 |
US6262829B1 (en) | 1999-07-29 | 2001-07-17 | Hewlett-Packard Co. | Method of digital grayscale control using modulation of a slow-acting light source |
US6680955B1 (en) | 1999-08-20 | 2004-01-20 | Nokia Networks Oy | Technique for compressing a header field in a data packet |
FI107680B (fi) | 1999-12-22 | 2001-09-14 | Nokia Oyj | Menetelmä videokuvien lähettämiseksi, tiedonsiirtojärjestelmä, lähettävä videopäätelaite ja vastaanottava videopäätelaite |
CA2581751C (en) * | 2000-01-14 | 2013-06-04 | Interdigital Technology Corporation | Wireless communication system with selectively sized data transport blocks |
GB0000873D0 (en) | 2000-01-14 | 2000-03-08 | Koninkl Philips Electronics Nv | Interconnection of audio/video devices |
US6996069B2 (en) * | 2000-02-22 | 2006-02-07 | Qualcomm, Incorporated | Method and apparatus for controlling transmit power of multiple channels in a CDMA communication system |
JP2001245268A (ja) | 2000-02-29 | 2001-09-07 | Toshiba Corp | コンテンツ伝送システム及びコンテンツ処理装置 |
EP1146713B1 (en) * | 2000-03-03 | 2005-04-27 | NTT DoCoMo, Inc. | Method and apparatus for packet transmission with header compression |
US6993009B2 (en) * | 2000-03-10 | 2006-01-31 | Hughes Electronics Corporation | Method and apparatus for deriving uplink timing from asynchronous traffic across multiple transport streams |
KR100796085B1 (ko) | 2000-04-14 | 2008-01-21 | 소니 가부시끼 가이샤 | 복호 장치, 복호 방법, 및 기록 매체 |
US7680912B1 (en) | 2000-05-18 | 2010-03-16 | thePlatform, Inc. | System and method for managing and provisioning streamed data |
US6535043B2 (en) * | 2000-05-26 | 2003-03-18 | Lattice Semiconductor Corp | Clock signal selection system, method of generating a clock signal and programmable clock manager including same |
US7292772B2 (en) | 2000-05-29 | 2007-11-06 | Sony Corporation | Method and apparatus for decoding and recording medium for a coded video stream |
US7274679B2 (en) * | 2000-06-22 | 2007-09-25 | Mati Amit | Scalable virtual channel |
US7149549B1 (en) | 2000-10-26 | 2006-12-12 | Ortiz Luis M | Providing multiple perspectives for a venue activity through an electronic hand held device |
US6529527B1 (en) | 2000-07-07 | 2003-03-04 | Qualcomm, Inc. | Method and apparatus for carrying packetized voice and data in wireless communication networks |
JP4337244B2 (ja) | 2000-07-25 | 2009-09-30 | ソニー株式会社 | Mpeg画像ストリームのデコード装置およびデコード方法 |
WO2002015591A1 (en) * | 2000-08-16 | 2002-02-21 | Koninklijke Philips Electronics N.V. | Method of playing multimedia data |
KR20020039693A (ko) | 2000-08-16 | 2002-05-27 | 요트.게.아. 롤페즈 | 멀티미디어 애플리케이션 재생 방법 |
ATE343278T1 (de) | 2000-08-23 | 2006-11-15 | Koninkl Philips Electronics Nv | Kommunikationssystem und -vorrichtung |
SE517245C2 (sv) * | 2000-09-14 | 2002-05-14 | Ericsson Telefon Ab L M | Synkronisering av audio- och videosignaler |
US6747964B1 (en) * | 2000-09-15 | 2004-06-08 | Qualcomm Incorporated | Method and apparatus for high data rate transmission in a wireless communication system |
KR20020043139A (ko) | 2000-12-01 | 2002-06-08 | 윤종용 | 이동통신시스템에서 고속 데이터 서비스를 위한 스케쥴링방법 |
US6920118B2 (en) | 2000-12-20 | 2005-07-19 | Lucent Technologies Inc. | Method and apparatus for communicating heterogeneous data traffic |
US6904059B1 (en) * | 2001-03-06 | 2005-06-07 | Microsoft Corporation | Adaptive queuing |
US6859500B2 (en) * | 2001-03-20 | 2005-02-22 | Telefonaktiebolaget Lm Ericsson | Run-length coding of non-coded macroblocks |
US20030016702A1 (en) | 2001-03-30 | 2003-01-23 | Bender Paul E. | Method and system for maximizing standby time in monitoring a control channel |
WO2002085030A1 (en) * | 2001-04-11 | 2002-10-24 | Cyber Operations, Llc | System and method for preconditioning analog video signals |
WO2002087212A2 (en) * | 2001-04-20 | 2002-10-31 | France Telecom Research And Development L.L.C. | Replacing commercials according to location and time |
US7230941B2 (en) * | 2001-04-26 | 2007-06-12 | Qualcomm Incorporated | Preamble channel decoding |
US20020194606A1 (en) * | 2001-06-14 | 2002-12-19 | Michael Tucker | System and method of communication between videoconferencing systems and computer systems |
JP2003046949A (ja) * | 2001-07-30 | 2003-02-14 | Hitachi Ltd | データ多重化方法、データ記録媒体、データ記録装置及びデータ記録プログラム |
JP4647149B2 (ja) * | 2001-08-06 | 2011-03-09 | 独立行政法人情報通信研究機構 | トランスポートストリームの送信装置および受信装置 |
US7327789B2 (en) | 2001-08-06 | 2008-02-05 | Matsushita Electric Industrial Co., Ltd. | Decoding apparatus, decoding method, decoding program, and decoding program storage medium |
KR100885904B1 (ko) * | 2001-08-10 | 2009-02-26 | 가부시키가이샤 한도오따이 에네루기 켄큐쇼 | 레이저 어닐링장치 및 반도체장치의 제작방법 |
US20080002669A1 (en) * | 2001-09-14 | 2008-01-03 | O'brien Ray | Packet voice gateway |
US7336680B2 (en) * | 2001-09-18 | 2008-02-26 | Scientific-Atlanta, Inc. | Multi-carrier frequency-division multiplexing (FDM) architecture for high speed digital service |
US6968091B2 (en) * | 2001-09-18 | 2005-11-22 | Emc Corporation | Insertion of noise for reduction in the number of bits for variable-length coding of (run, level) pairs |
US7075946B2 (en) | 2001-10-02 | 2006-07-11 | Xm Satellite Radio, Inc. | Method and apparatus for audio output combining |
WO2003041326A2 (en) * | 2001-11-09 | 2003-05-15 | Matsushita Electric Industrial Co., Ltd. | Moving picture coding method and apparatus |
US7453843B2 (en) * | 2001-12-11 | 2008-11-18 | Texas Instruments Incorporated | Wireless bandwidth aggregator |
US7292690B2 (en) | 2002-01-02 | 2007-11-06 | Sony Corporation | Video scene change detection |
DE10300048B4 (de) | 2002-01-05 | 2005-05-12 | Samsung Electronics Co., Ltd., Suwon | Verfahren und Vorrichtung zur Bildcodierung und -decodierung |
US7130313B2 (en) | 2002-02-14 | 2006-10-31 | Nokia Corporation | Time-slice signaling for broadband digital broadcasting |
US7596179B2 (en) | 2002-02-27 | 2009-09-29 | Hewlett-Packard Development Company, L.P. | Reducing the resolution of media data |
FI114679B (fi) | 2002-04-29 | 2004-11-30 | Nokia Corp | Satunnaisaloituspisteet videokoodauksessa |
FR2839407B1 (fr) | 2002-05-02 | 2004-12-17 | Canon Kk | Procede et dispositif d'ajustement de la taille maximale des sequences d'information transmises dans un reseau de telecommunications |
US8699505B2 (en) * | 2002-05-31 | 2014-04-15 | Qualcomm Incorporated | Dynamic channelization code allocation |
US20030224806A1 (en) | 2002-06-03 | 2003-12-04 | Igal Hebron | System and method for network data quality measurement |
US6956875B2 (en) | 2002-06-19 | 2005-10-18 | Atlinks Usa, Inc. | Technique for communicating variable bit rate data over a constant bit rate link |
US7486678B1 (en) | 2002-07-03 | 2009-02-03 | Greenfield Networks | Multi-slice network processor |
EP1532540A4 (en) | 2002-07-16 | 2010-06-02 | Nokia Corp | METHOD FOR ENHANCING PACKET TRANSFER DELAY COMPENSATION IN MULTIMEDIA STR MEN |
CN1221132C (zh) * | 2002-07-30 | 2005-09-28 | 华为技术有限公司 | 实现多种视音频流格式转换的装置和方法 |
US7567509B2 (en) | 2002-09-13 | 2009-07-28 | Dialogic Corporation | Methods and systems for jitter minimization in streaming media |
TW569556B (en) | 2002-10-04 | 2004-01-01 | Avid Electronics Corp | Adaptive differential pulse-code modulation compression encoding/decoding method capable of fast recovery and apparatus thereof |
US7191384B2 (en) * | 2002-10-17 | 2007-03-13 | Qualcomm Incorporated | Method and apparatus for transmitting and receiving a block of data in a communication system |
US7068708B2 (en) * | 2002-12-13 | 2006-06-27 | Motorola, Inc. | Method and receiving unit for demodulating a multi-path signal |
JP2004226272A (ja) | 2003-01-23 | 2004-08-12 | Seiko Epson Corp | シミ欠陥の検出方法及び装置 |
CN1759552B (zh) | 2003-03-10 | 2012-06-13 | 松下电器产业株式会社 | Ofdm信号的发送方法、发送装置和接收装置 |
US7535876B2 (en) | 2003-04-01 | 2009-05-19 | Alcatel-Lucent Usa Inc. | Method of flow control for HSDPA and HSUPA |
US7400889B2 (en) | 2003-04-01 | 2008-07-15 | Telefonaktiebolaget Lm Ericsson (Publ) | Scalable quality broadcast service in a mobile wireless communication network |
JP2006524856A (ja) * | 2003-04-14 | 2006-11-02 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 自動ダビングをオーディオ・ビジュアル・ストリームに対して行うシステム及び方法 |
US7391717B2 (en) * | 2003-06-30 | 2008-06-24 | Microsoft Corporation | Streaming of variable bit rate multimedia content |
KR100651566B1 (ko) * | 2003-08-26 | 2006-11-28 | 삼성전자주식회사 | 이동통신 단말기에서 출력 버퍼링을 이용한 멀티미디어재생 장치 및 그 제어 방법 |
WO2005025224A1 (ja) * | 2003-09-02 | 2005-03-17 | Sony Corporation | コンテンツ受信装置、ビデオオーディオ出力タイミング制御方法及びコンテンツ提供システム |
US9351013B2 (en) | 2003-11-13 | 2016-05-24 | Qualcomm Incorporated | Selective and/or scalable complexity control for video codecs |
US20050138251A1 (en) | 2003-12-18 | 2005-06-23 | Fanning Blaise B. | Arbitration of asynchronous and isochronous requests |
US20050172154A1 (en) | 2004-01-29 | 2005-08-04 | Chaoticom, Inc. | Systems and methods for providing digital content and caller alerts to wireless network-enabled devices |
US7599435B2 (en) | 2004-01-30 | 2009-10-06 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Video frame encoding and decoding |
US7558221B2 (en) | 2004-02-13 | 2009-07-07 | Seiko Epson Corporation | Method and system for recording videoconference data |
US7586882B2 (en) * | 2004-03-19 | 2009-09-08 | Telefonaktiebolaget Lm Ericsson (Publ) | Higher layer packet framing using RLP |
US7530089B1 (en) | 2004-03-29 | 2009-05-05 | Nortel Networks Limited | System and method for improving video quality using a constant bit rate data stream |
US7865255B2 (en) * | 2004-03-31 | 2011-01-04 | Mstar Semiconductor, Inc. | Audio buffering system and method of buffering audio in a multimedia receiver |
CN100576820C (zh) * | 2004-05-07 | 2009-12-30 | 艾格瑞系统有限公司 | 与帧集合一起使用的mac报头压缩 |
CN102984133B (zh) | 2004-05-13 | 2016-11-23 | 高通股份有限公司 | 用于分配信息到通信系统的信道的设备 |
-
2005
- 2005-05-13 CN CN201210450979.3A patent/CN102984133B/zh not_active Expired - Fee Related
- 2005-05-13 CN CN2005800208935A patent/CN1973515B/zh not_active Expired - Fee Related
- 2005-05-13 EP EP05749459A patent/EP1757027B1/en not_active Not-in-force
- 2005-05-13 AT AT05749640T patent/ATE508567T1/de not_active IP Right Cessation
- 2005-05-13 BR BRPI0510952A patent/BRPI0510952B1/pt not_active IP Right Cessation
- 2005-05-13 KR KR1020087021553A patent/KR100918596B1/ko not_active IP Right Cessation
- 2005-05-13 WO PCT/US2005/016837 patent/WO2005114943A2/en active Application Filing
- 2005-05-13 AT AT05748216T patent/ATE426988T1/de not_active IP Right Cessation
- 2005-05-13 WO PCT/US2005/016838 patent/WO2005114919A1/en active Application Filing
- 2005-05-13 TW TW094115632A patent/TWI381681B/zh not_active IP Right Cessation
- 2005-05-13 MX MXPA06013211A patent/MXPA06013211A/es active IP Right Grant
- 2005-05-13 MY MYPI20052170A patent/MY139431A/en unknown
- 2005-05-13 CA CA2565977A patent/CA2565977C/en not_active Expired - Fee Related
- 2005-05-13 EP EP10152927A patent/EP2214412A3/en not_active Withdrawn
- 2005-05-13 US US11/129,625 patent/US20050259623A1/en not_active Abandoned
- 2005-05-13 KR KR1020067026266A patent/KR101049701B1/ko active IP Right Grant
- 2005-05-13 MY MYPI20052171A patent/MY141497A/en unknown
- 2005-05-13 CA CA2566125A patent/CA2566125C/en not_active Expired - Fee Related
- 2005-05-13 TW TW100115872A patent/TW201145943A/zh unknown
- 2005-05-13 JP JP2007513420A patent/JP4554680B2/ja not_active Expired - Fee Related
- 2005-05-13 BR BRPI0510953-1A patent/BRPI0510953A/pt not_active IP Right Cessation
- 2005-05-13 MX MXPA06013193A patent/MXPA06013193A/es active IP Right Grant
- 2005-05-13 AT AT05748133T patent/ATE484157T1/de not_active IP Right Cessation
- 2005-05-13 JP JP2007513421A patent/JP4448171B2/ja not_active Expired - Fee Related
- 2005-05-13 JP JP2007513418A patent/JP4361585B2/ja not_active Expired - Fee Related
- 2005-05-13 DE DE602005011611T patent/DE602005011611D1/de active Active
- 2005-05-13 JP JP2007513422A patent/JP2007537684A/ja not_active Withdrawn
- 2005-05-13 DE DE602005027837T patent/DE602005027837D1/de active Active
- 2005-05-13 CA CA002566126A patent/CA2566126A1/en not_active Abandoned
- 2005-05-13 EP EP12195665.0A patent/EP2592836A1/en not_active Withdrawn
- 2005-05-13 EP EP10152796.8A patent/EP2182734B1/en not_active Not-in-force
- 2005-05-13 KR KR1020067026204A patent/KR100906586B1/ko not_active IP Right Cessation
- 2005-05-13 ES ES05749640T patent/ES2366192T3/es active Active
- 2005-05-13 EP EP17209499.7A patent/EP3331246A1/en not_active Withdrawn
- 2005-05-13 KR KR1020097004108A patent/KR101068055B1/ko active IP Right Grant
- 2005-05-13 BR BRPI0510961-2A patent/BRPI0510961A/pt not_active Application Discontinuation
- 2005-05-13 CN CN2005800232934A patent/CN1985477B/zh not_active Expired - Fee Related
- 2005-05-13 CA CA2566124A patent/CA2566124C/en not_active Expired - Fee Related
- 2005-05-13 TW TW094115717A patent/TWI394407B/zh not_active IP Right Cessation
- 2005-05-13 ES ES05749459T patent/ES2318495T3/es active Active
- 2005-05-13 CN CN2005800220439A patent/CN1977516B/zh not_active Expired - Fee Related
- 2005-05-13 US US11/129,735 patent/US8089948B2/en not_active Expired - Fee Related
- 2005-05-13 EP EP05748133A patent/EP1751987B1/en not_active Not-in-force
- 2005-05-13 ES ES05748216T patent/ES2323011T3/es active Active
- 2005-05-13 EP EP05749640A patent/EP1751956B1/en not_active Not-in-force
- 2005-05-13 TW TW094115718A patent/TWI353759B/zh not_active IP Right Cessation
- 2005-05-13 ES ES05748133T patent/ES2354079T3/es active Active
- 2005-05-13 WO PCT/US2005/016839 patent/WO2005115009A1/en active Application Filing
- 2005-05-13 DE DE602005013517T patent/DE602005013517D1/de active Active
- 2005-05-13 US US11/129,687 patent/US8855059B2/en not_active Expired - Fee Related
- 2005-05-13 KR KR1020067026252A patent/KR100870215B1/ko active IP Right Grant
- 2005-05-13 KR KR1020067026267A patent/KR100871305B1/ko not_active IP Right Cessation
- 2005-05-13 CA CA2811040A patent/CA2811040A1/en not_active Abandoned
- 2005-05-13 EP EP05748216A patent/EP1751955B1/en not_active Not-in-force
- 2005-05-13 CA CA2771943A patent/CA2771943C/en not_active Expired - Fee Related
- 2005-05-13 EP EP10182418A patent/EP2262304B1/en not_active Not-in-force
- 2005-05-13 MX MXPA06013210A patent/MXPA06013210A/es active IP Right Grant
- 2005-05-13 US US11/129,635 patent/US9717018B2/en not_active Expired - Fee Related
- 2005-05-13 WO PCT/US2005/016831 patent/WO2005114950A1/en active Application Filing
- 2005-05-13 BR BRPI0510962-0A patent/BRPI0510962A/pt active Search and Examination
- 2005-05-13 AT AT05749459T patent/ATE417436T1/de not_active IP Right Cessation
- 2005-05-13 DE DE602005023983T patent/DE602005023983D1/de active Active
- 2005-05-13 MX MXPA06013186A patent/MXPA06013186A/es active IP Right Grant
- 2005-05-13 MY MYPI20052165A patent/MY142161A/en unknown
- 2005-05-13 CN CN200580020252XA patent/CN1969562B/zh not_active Expired - Fee Related
-
2010
- 2010-11-29 JP JP2010265208A patent/JP5356360B2/ja not_active Expired - Fee Related
-
2014
- 2014-08-22 US US14/466,702 patent/US9674732B2/en active Active
- 2014-09-29 US US14/499,954 patent/US10034198B2/en not_active Expired - Fee Related
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1751987B1 (en) | Synchronization of audio and video data in a wireless communication system | |
EP1742455A1 (en) | Audio communication method and device | |
KR20050038646A (ko) | 멀티미디어 데이터를 스트리밍하는 방법 | |
EP2324635A1 (en) | Subdivision of media streams for channel switching | |
Garudadri et al. | Video transport over wireless networks | |
TWI416900B (zh) | 用以配置資訊至一通信系統之通道之方法及裝置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FG | Grant or registration |