MXPA06013186A - Sincronizacion de datos de audio y video en un sistema de comunicacion inalambrica. - Google Patents

Sincronizacion de datos de audio y video en un sistema de comunicacion inalambrica.

Info

Publication number
MXPA06013186A
MXPA06013186A MXPA06013186A MXPA06013186A MXPA06013186A MX PA06013186 A MXPA06013186 A MX PA06013186A MX PA06013186 A MXPA06013186 A MX PA06013186A MX PA06013186 A MXPA06013186 A MX PA06013186A MX PA06013186 A MXPA06013186 A MX PA06013186A
Authority
MX
Mexico
Prior art keywords
frame
audio
data
video
decoded
Prior art date
Application number
MXPA06013186A
Other languages
English (en)
Inventor
Sanjiv Nanda
Harinath Garudadri
Phoom Sagetong
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of MXPA06013186A publication Critical patent/MXPA06013186A/es

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W28/00Network traffic management; Network resource management
    • H04W28/02Traffic management, e.g. flow control or congestion control
    • H04W28/06Optimizing the usage of the radio link, e.g. header compression, information sizing, discarding information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/10Flow control; Congestion control
    • H04L47/36Flow control; Congestion control by determining packet size, e.g. maximum transfer unit [MTU]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/1066Session management
    • H04L65/1101Session protocols
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • H04L65/764Media network packet handling at the destination 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/80Responding to QoS
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L69/00Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
    • H04L69/04Protocols for data compression, e.g. ROHC
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L69/00Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
    • H04L69/16Implementation or adaptation of Internet protocol [IP], of transmission control protocol [TCP] or of user datagram protocol [UDP]
    • H04L69/161Implementation details of TCP/IP or UDP/IP stack architecture; Specification of modified or new header fields
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L69/00Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
    • H04L69/16Implementation or adaptation of Internet protocol [IP], of transmission control protocol [TCP] or of user datagram protocol [UDP]
    • H04L69/166IP fragmentation; TCP segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L69/00Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
    • H04L69/30Definitions, standards or architectural aspects of layered protocol stacks
    • H04L69/32Architecture of open systems interconnection [OSI] 7-layer type protocol stacks, e.g. the interfaces between the data link level and the physical level
    • H04L69/321Interlayer communication protocols or service data unit [SDU] definitions; Interfaces between layers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/40Network security protocols
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/115Selection of the code volume for a coding unit prior to coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/152Data rate or code amount at the encoder output by measuring the fullness of the transmission buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/164Feedback from the receiver or from the transmission channel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2381Adapting the multiplex stream to a specific network, e.g. an Internet Protocol [IP] network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6106Network physical structure; Signal processing specially adapted to the downstream path of the transmission network
    • H04N21/6131Network physical structure; Signal processing specially adapted to the downstream path of the transmission network involving transmission via a mobile phone network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6156Network physical structure; Signal processing specially adapted to the upstream path of the transmission network
    • H04N21/6181Network physical structure; Signal processing specially adapted to the upstream path of the transmission network involving transmission via a mobile phone network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/643Communication protocols
    • H04N21/6437Real-time Transport Protocol [RTP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/647Control signaling between network components and server or clients; Network processes for video distribution between server and clients, e.g. controlling the quality of the video stream, by dropping packets, protecting content from unauthorised alteration within the network, monitoring of network load, bridging between two different networks, e.g. between IP and wireless
    • H04N21/64707Control signaling between network components and server or clients; Network processes for video distribution between server and clients, e.g. controlling the quality of the video stream, by dropping packets, protecting content from unauthorised alteration within the network, monitoring of network load, bridging between two different networks, e.g. between IP and wireless for transferring content from a first network to a second network, e.g. between IP and wireless
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W28/00Network traffic management; Network resource management
    • H04W28/02Traffic management, e.g. flow control or congestion control
    • H04W28/06Optimizing the usage of the radio link, e.g. header compression, information sizing, discarding information
    • H04W28/065Optimizing the usage of the radio link, e.g. header compression, information sizing, discarding information using assembly or disassembly of packets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/06Selective distribution of broadcast services, e.g. multimedia broadcast multicast service [MBMS]; Services to user groups; One-way selective calling services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W72/00Local resource management
    • H04W72/04Wireless resource allocation
    • H04W72/044Wireless resource allocation based on the type of the allocated resource
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/02Terminal devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/18Service support devices; Network management devices
    • H04W88/181Transcoding devices; Rate adaptation devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L69/00Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
    • H04L69/22Parsing or analysis of headers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44004Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving video buffer management, e.g. video decoder buffer or video display buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W72/00Local resource management
    • H04W72/12Wireless traffic scheduling
    • H04W72/1263Mapping of traffic onto schedule, e.g. scheduled allocation or multiplexing of flows
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W80/00Wireless network protocols or protocol adaptations to wireless operation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W84/00Network topologies
    • H04W84/02Hierarchically pre-organised networks, e.g. paging networks, cellular networks, WLAN [Wireless Local Area Network] or WLL [Wireless Local Loop]
    • H04W84/04Large scale networks; Deep hierarchical networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Security & Cryptography (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Time-Division Multiplex Systems (AREA)
  • Small-Scale Networks (AREA)
  • Communication Control (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Reduction Or Emphasis Of Bandwidth Of Signals (AREA)
  • Telephone Function (AREA)
  • Alarm Systems (AREA)

Abstract

Se describen tecnicas para codificar una corriente de audio video que se transmite sobre una red, por ejemplo una red inalambrica o IP, tal como una trama entera de audio y una trama entera de video se transmiten simultaneamente dentro de un periodo requerido para rendir tramas de corriente de audio video por medio de una aplicacion de un receptor; los aspectos de la tecnica incluyen recibir corrientes RTP de audio y video y asignando una trama completa de datos de video RTP a paquetes de canal de comunicacion que ocupan el mismo periodo o menor, como la velocidad de trama de video, tambien se asigna una trama completa de datos de audio RTP a paquetes de canal de comunicacion que ocupan el mismo periodo o menor, como la velocidad de trama de audio; los paquetes de canal de comunicacion de audio y video se transmiten simultaneamente; la recepcion y asignacion de corrientes RTP se pueden llevar a cabo en una estacion remota o estacion base.

Description

SINCRONIZACIÓN DE DATOS DE AUDIO Y VIDEO EN UN SISTEMA DE COMUNICACIÓN INALÁMBRICA CAMPO DE LA INVENCIÓN La presente invención generalmente se refiere al suministro de información sobre un sistema de comunicación inalámbrica, y más específicamente a la sincronización de datos de audio y video transmitidos sobre un sistema de comunicación inalámbrica.
ANTECEDENTES DE LA INVENCIÓN Se han desarrollado varias técnicas para transmitir datos de multimedia o en tiempo real, como datos de audio o video, sobre las varias redes de comunicación. Dicha técnica es el protocolo de transporte en tiempo real (RTP) . RTP provee las funciones de transporte de red de extremo-a-extremo convenientes para aplicaciones que transmiten datos de tiempo real sobre servicios de redes de multidifusión o unidifusión. RTP no trata la reservación de recursos y no garantiza la calidad-de-servicio para los servicios de tiempo real . El transporte de datos se aumenta por un protocolo de control (RTCP) para permitir supervisar el suministro de datos de una manera escalable para redes de multidifusión grandes, y para proveer un control mínimo y funcionalidad de identificación. Se diseñan RTP y RTCP para ser independientes del transporte subyacente y capas de red. El protocolo soporta el uso de traductores a nivel RTP y mezcladoras. Pueden encontrarse detalles adicionales sobre RTP en "RTP: A Transport Protocol for Real-Time Applications", (RTP: UN Protocolo de Transporte para las Aplicaciones en tiempo real" H. Schulzrinne [Columbia University], S. Casner [Packet Design], R. Frederick [Blue Coat Systems Inc.], V. Jacobson [Packet Design], estándar proyecto RFC- 3550, Internet Engineering Steering Group, julio, 2003 incorporado en la presente invención por referencia, en su totalidad.
Un ejemplo que ilustra los aspectos de RTP es una audio conferencia donde el RTP se lleva a cabo sobre los servicios de Protocolo de Internet (IP) de la Internet para las comunicaciones de voz . A través de un mecanismo de asignación, un creador de la conferencia obtiene una dirección de grupo de multidifusión y un par de puertos. Un puerto se usa para los datos de audio, y el otro se usa para los paquetes de control (RTCP) . Esta dirección y la información del puerto se distribuyen a las participantes intencionales. La aplicación de audio conferencia usada por cada participante de la conferencia envía los datos de audio en particiones pequeñas, por ejemplo, particiones de duración de 20 ms . Cada partición de datos de audio se precede por un título de RTP; y se encapsulan el título de RTP combinado y los datos en un paquete de UDP. El título de RTP incluye información sobre los datos, por ejemplo indica qué tipo de codificación de audio, como PCM, ADPCM o LPC, se contiene en cada paquete, estampa de fecha (TS) es el tiempo al cual se debe entregar el paquete de RTP, el Número de Secuencia (SN) , un número secuencial del paquete que puede usarse para detectar los paquetes perdidos/duplicados, etc. Esto les permite a los remitentes cambiar el tipo de codificación utilizada durante una conferencia, por ejemplo, para acomodar a un nuevo participante que se conecta a través de un enlace de ancho de banda baja o reacciona a las indicaciones de congestión de la red.
De acuerdo con el estándar de RTP, si se usan los medios de comunicación audio y video en una conferencia de RTP, estos se transmiten como sesiones de RTP separadas. Es decir, se transmiten RTP separados y paquetes de RTCP para cada medio que utiliza dos pares de puertos UDP diferentes y/o direcciones de multidifusión. No hay ningún acoplamiento directo al nivel de RTP entre las sesiones de audio y video, sólo que un usuario que participa en ambas sesiones debe usar el mismo nombre en los paquetes de RTCP para ambos, para que las sesiones puedan asociarse.
Una motivación para transmitir audio y video como sesiones de RTP separadas es permitir a algunos participantes en la conferencia recibir sólo un medio si ellos escogen así. A pesar de la separación, la reproducción sincronizada del audio y video de una fuente puede lograrse usando información de la elección del momento adecuado llevada en los paquetes de RTP/RTCP para ambas sesiones .
Las redes de paquete, como la Internet, pueden perder de vez en cuando, o pedir de nuevo, paquetes.
Además, los paquetes individuales pueden experimentar cantidades variables de retardo en sus tiempos de la transmisión respectivos. Para lidiar con estos inconvenientes, el título de RTP contiene la información de la elección del momento adecuado y un número de secuencia que le permiten a un receptor reconstruir la elección del momento adecuado producido por la fuente. Esta reconstrucción de la elección del momento adecuado, se ha realizado separadamente para cada fuente de paquetes de RTP en una sesión.
Aunque el título de RTP incluye información de la elección del momento adecuado y un número de secuencia, porque se entregan el audio y video en las corrientes de RTP separadas, hay una porción de tiempo potencial, también llamada lip-synch o AV-synch, entre las corrientes. Una aplicación a un receptor tendrá que re-sincronizar estas corrientes antes de prestar audio y video. Además, en aplicaciones donde se entrega RTP, como el audio y video, se transmite sobre las redes inalámbricas y hay una probabilidad aumentada que pueden perderse los paquetes, haciendo de esta manera que la re-sincronización de corrientes sea más difícil.
Existe la necesidad por consiguiente en la técnica por mejorar la sincronización de audio y las corrientes de video RTP que se transmiten sobre las redes.
SUMARIO DE LA INVENCIÓN Las modalidades que se describen en la presente invención, abarcan las necesidades anteriormente descritas codificando las corrientes de datos, como un corriente de audio video que se transmite sobre una red, por ejemplo una red inalámbrica o de IP, tal que las corrientes de datos se sincronizan. Por ejemplo, un trama entero de audio y un trama entero de video se transmiten dentro de un período de la trama requerido para dar las tramas de audio y video por medio de una aplicación en el receptor. Por ejemplo, un sincronizador de corriente de datos puede incluir un primer decodificador configurado para recibir una primera corriente de datos codificados y para emitir una primera corriente de datos decodificados, en donde la primera corriente de datos codificados tiene una primera velocidad de bits durante un intervalo de información. Los datos sincronizados también pueden incluir un segundo decodificador configurado para recibir una segunda corriente de datos codificados y emitir segunda corriente de datos codificados, en donde la segunda corriente de datos codificados tiene una segunda corriente de datos decodificados durante el intervalo de información. Una primera memoria intermedia se configura para acumular los primera corriente de datos decodificados por lo menos para un intervalo de información y emitir una trama de los primera corriente de datos decodificados para cada período del intervalo. Una segunda memoria intermedia configurada para aumentar la segunda corriente de datos decodificados por lo menos para un intervalo de información y emitir una trama de la segunda corriente de datos decodificados cada período del intervalo. Entonces un combinador se configura para recibir la trama de la primera corriente de datos decodificados y la trama de la segunda corriente de datos decodificados y emitir una trama sincronizada de la primera y segunda corrientes de datos codificados. La primera corriente de datos codificados puede ser los datos de video, y el segunda corriente de datos decodificados puede emitir salida de datos de audio.
Un aspecto de esta técnica incluye la recepción de corrientes de RTP de audio y video y asignando una trama entero de datos de video de RTP a paquetes de canal de comunicación que ocupan el mismo período, o menos, como la velocidad de trama de video. También una trama entera de datos de audio RTP se asigna a paquetes de canal de comunicación que ocupan el mismo período, o menos, como la velocidad de trama de audio. Los paquetes de canal de comunicación de video y audio se transmiten simultáneamente. Recibiendo y asignando las corrientes de RTP puede realizarse en una estación remota, o una estación base.
Otro aspecto es recibir paquetes de canal de comunicación que incluyen audio y datos de video. Decodificando los datos de audio y video y aumentando los datos para un igual período al período de trama de los datos de audio y video. Al final del período de trama, se combina una trama de video y una trama de audio . Debido a que se transmiten la trama de audio y la trama de video al mismo tiempo, y cada transmisión ocurre dentro de un período de la trama, las tramas de audio y video se sincronizan. Decodificando y acumulando pueden realizarse en una estación remota o una estación baja.
BREVE DESCRIPCIÓN DE LAS FIGURAS La figura 1 es una ilustración de porciones de un sistema de comunicación construido de acuerdo con la presente invención.
La figura 2 es un diagrama en bloques que ilustra una red de datos de paquete ejemplar y las varias opciones de interfaz aérea para entregar los datos de paquete sobre una red inalámbrica en el sistema de la figura 1.
La figura 3 es un mapa que ilustra las dificultades de la sincronización en una técnica convencional para la transmisión de corrientes de RTP separadas sobre un canal de comunicación inalámbrica. La figura 4 es un mapa que ilustra una técnica para la transmisión de corrientes de RTP separadas sobre una comunicación inalámbrica en canal de acuerdo con la invención.
La figura 5 es un diagrama en bloques de una porción de un receptor del audio/video inalámbrico configurado para recibir los paquetes de canal de comunicación.
La figura 6 es un diagrama en bloques de una porción de un transmisor del audio/video inalámbrico configurado para transmitir los paquetes de canal de comunicación.
La figura 7 es un diagrama de flujo de transmisión de corrientes de RTP independientes sobre un enlace de comunicación inalámbrica.
La figura 8 es un diagrama de flujo de recepción de datos de audio y video sobre un canal de comunicación inalámbrica.
La figura 9 es un diagrama en bloques de un dispositivo de comunicación inalámbrica, o una estación móvil (MS) , construida de acuerdo con una modalidad ejemplar de la presente invención.
DESCRIPCIÓN DETALLADA DE LA INVENCIÓN La palabra" ejemplar" se usa en la presente invención para significar "que sirve como un ejemplo, caso, o ilustración" . Cualquier modalidad descrita en la presente invención como "ejemplar" no se traduce necesariamente como preferido o ventajoso sobre otras modalidades.
La palabra "propagar" se usa para significar la entrega en tiempo real de datos de multimedia continuos en la naturaleza en la presente invención, como, el audio, discurso o información de video, sobre el servidor dedicado y los canales compartidos en aplicaciones conversacionales, unidifusión y transmisión. La frase "trama de multimedia", para el video, se usa en la presente invención para significar una trama video que puede ser desplegada/entregada en un dispositivo de pantalla, después de decodificar. Una trama de video puede ser dividida además independientemente en unidades decodificables . En el lenguaje del video, éstas se llaman "rebanadas". En el caso de audio y discurso, el término "trama de multimedia" se usa para significar la información en una ventana de tiempo en la presente invención sobre el cual se comprime el discurso o audio para el transporte y decodificar al receptor. La frase "el intervalo de unidad de información" se usa para representar la duración de tiempo de la trama de multimedia descrita anteriormente en la presente invención. Por ejemplo, en caso del video, el intervalo de unidad de información es 100 milisegundos en el caso de 10 tramas por segundo video. Además, como un ejemplo, en el caso de discurso, el intervalo de unidad de información es típicamente 20 milisegundos en el cdma2000, GSM y WCDMA. De esta descripción, debe ser evidente que, típicamente los tramas de audio/discurso no son divididos además independientemente en las unidades decodificables y típicamente los tramas de video se dividen además en rebanadas que son independientemente decodificables . Debe ser evidente a partir del contexto cuando las frases "la trama de multimedia", el "intervalo de unidad de información", etc. Se refiere a los datos de multimedia de video, audio y discurso.
Se describen técnicas para sincronizar corrientes de RTP transmitidas sobre un conjunto de canales de comunicación de corriente de datos codificados constantes. Las técnicas incluyen la división de unidades de información que se transmiten en las corrientes de RTP en los paquetes de datos, en donde el tamaño de los paquetes de datos se selecciona para coincidir con los tamaños de paquetes de datos de capa física de un canal de comunicación. Por ejemplo, se pueden codificar datos de audio y video que se sincronizan entre sí. El codificador puede limitarse de tal forma que codifica los datos en tamaños que coinciden con el paquete de capa física disponible del canal de comunicación. Limitando el tamaños de paquete de datos para coincidir con uno o más de los tamaños de paquete de la capa física disponible que transmiten corrientes de RTP múltiples que se sincronizan porque las corrientes de RTP se transmiten simultáneamente o consecutivamente, pero dentro de la trama de tiempo de los paquetes de audio y video y se requiere ser entregados con la sincronización. Por ejemplo, si se transmiten las corrientes de RTP de audio y video, y los paquetes de datos están comprimidos para que su tamaño coincida con los paquetes de la capa física disponibles, entonces los datos de audio y video se transmiten dentro del tiempo de despliegue y se sincronizan. Como la cantidad de datos se necesita para representar la corriente de RTP varía la capacidad de canal de comunicación varía a través de la selección de paquete de la capa física diferente clasificada según el tamaño, como se ha descrito en solicitudes co-pendientes listadas en la REFERENCIA A SOLICITUDES CO-PENDIENTES PARA PATENTES anteriormente. Los ejemplos de unidades de información, como las corrientes de RTP, incluyen los datos de corriente de datos codificados variables, datos de multimedia, datos de video, y datos de audio. Las unidades de información pueden ocurrir a una velocidad de repetición constante. Por ejemplo, las unidades de información pueden ser tramas de datos de audio/video.
Se han establecido diferentes normas internas e internacionales para apoyar las varias interfaces incluyendo las interfaces aéreas, por ejemplo, el Servicio de Teléfono Móvil Avanzado (AMPS) , Sistema Global para Móviles (GSM) , Servicio General de Radio Paquete (GPRS) , Ambiente Mejorado de Datos GSM (EDGE) , la Norma Interina 95 (IS-95) y sus derivados, IS-95A, IS-95B, ANSÍ J-STD-008 (a menudo se refiere colectivamente en la presente invención como IS-95) , y Sistemas Emergentes de Alta velocidad de datos tales como cdma2000, los Servicios de Telecomunicaciones Móviles Universales (UMTS) , de banda ancha CDMA, WCDMA, y otros. Estas normas fueron promulgadas por la Asociación de la Industria de Telecomunicaciones (TÍA), El Proyecto de Sociedades de la 3a. Generación (3GPP) , el Instituto Europeo de Normas de Telecomunicaciones (ETSI) , y otros organismos regulatorios muy conocidos.
La figura 1 muestra un sistema de comunicación 100 construido de acuerdo con la presente invención. El sistema de comunicación 100 incluye una infraestructura 101, dispositivos de comunicación inalámbrica múltiple (WCD) 104 y 105, y dispositivos de comunicación terrestre 122 y 124. Los WCD también se llamarán estaciones móviles (MS) o celulares. En general, los WCD pueden ser tanto móviles como fijos. Los dispositivos de comunicación de línea terrestre 122 y 124 pueden incluir, por ejemplo, nodos de servicio, o servidores de contenido que proporcionan varios tipos de datos de multimedia tales como corrientes de datos de multimedia. Además, los MS pueden transmitir corrientes de datos, como los datos de multimedia.
La infraestructura 101 también puede incluir otros componentes, como la estación base 102, controladores de estaciones base 106, centros de conmutación móvil 108,' una red de conmutaciones 120, y similares. En una modalidad, la estación base 102 se integra con el controlador de estación base 106, y en otras modalidades, la estación base 102 y el controlador de estación base 106 son componentes separados. Pueden usarse tipos diferentes de redes de conmutación 120 para dirigir señales en el sistema de comunicación 100, por ejemplo, redes IP, u otras redes públicas de telefonía conmutada (PSTN) .
El término "enlace en avance" o "enlace descendente" se refiere a la trayectoria de señal de la infraestructura 101 a un MS, y el término "enlace inverso" o "enlace ascendente" se refiere a la trayectoria de señal desde un MS a la infraestructura. Como se muestra en la figura 1, los MS 104 y 105 reciben señales 132 y 136 en el enlace en avance y transmite señales 134 y 138 en el enlace inverso. En general, las señales transmitidas desde un MS 104 y 105 tienen el propósito de recepción a otro dispositivo de comunicación, como otra unidad remota, o un dispositivo de comunicación de línea terrestre 122 y 124, y son ruteados a través de la red de conmutación 120. Por ejemplo, si la señal 134 transmitida desde un WCD inicial 104 tiene la intención de ser recibida por un MS 105 destino, la señal es ruteada a través de la infraestructura 101 y se transmite una señal 136 en el enlace en avance al MS destino 105. Igualmente, las señales iniciales en la infraestructura 101 pueden ser transmitidas a un MS 105. Por ejemplo, un proveedor de contenido puede enviar datos de multimedia, como corrientes de datos de multimedia, a un MS 105. Típicamente, un dispositivo de comunicación, como un MS o un dispositivo de comunicación de línea terrestre, pueden ser tanto un iniciador como un destino para las señales.
Los ejemplos de un MS 104 incluyen los teléfonos celulares, computadoras personales habilitadas por comunicación inalámbrica, y los asistentes digitales personales (PDA), y otros dispositivos inalámbricos. El sistema de comunicación 100 puede diseñarse para soportar uno o más estándares inalámbricos. Por ejemplo, entre los estándares se pueden incluir estándares denominados como el Sistema Global de Comunicación Móvil (GSM) , Servicio General de Radio Paquete (GPRS) , Ambiente Mejorado de Datos GSM (EDGE), TIA/EIA-95-B (IS-95), TIA/EIA - IS98), IS2000, HRPD, cdma2000, CDMA de banda ancha (WCDMA), y otros. La figura 2 es un diagrama en bloques que ilustra una red de datos de paquete ejemplar y las varias opciones de interfaz aérea para entregar datos de paquete sobre una red inalámbrica. Pueden llevarse a cabo las técnicas descritas en un conmutador de paquetes de datos que se conecte una red de computadoras 200 como el ilustrado en la figura 2. Como se muestra en el ejemplo de la figura 2, el conmutador de paquetes de datos conecta una red de computadoras al sistema y puede incluir un canal 202 inalámbrico, una pluralidad de nodos del destinatario o MS 204, un nodo de envío o servidor 206 de contenido, un nodo de servicio 208, y un controlador 210. El nodo de envío 206 puede acoplarse al nodo de servicio 208 vía una red 212 como la Internet.
El nodo de servicio 208 puede comprender, por ejemplo, un nodo de servicio de paquete de datos (PDSN) o un Nodo de soporte de servicio GPRS (SGSN) o nodo de soporte de servicio de compuerta (GGSN) . El nodo de servicio 208 puede recibir el paquete de datos del nodo de envío 206, y da servicio a los paquetes de información al controlador 210. Por ejemplo, el controlador 210 puede comprender una Estación Base/función de Paquete Control (BSC/PCF) o Controlador de Red de Radio (RNC) . En una modalidad, el controlador 210 comunica con el nodo de servicio 208 sobre una Red de Acceso de Radio (RAN) . El controlador 210 comunica con el nodo de servicio 208 y transmite los paquetes de información sobre el canal inalámbrico 202 por lo menos a uno de los nodos receptores 204, como un MS .
En una modalidad, el nodo de servicio 208 o el nodo de envío 206, o ambos, también pueden incluir un codificador para codificar una corriente de datos, o un decodificador para decodificar una corriente de datos, o ambos. Por ejemplo, el codificador podría codificar una corriente de audio/video y producen de esa manera tramas de datos, y el decodificador podría recibir tramas de datos y decodificarias . Igualmente, un MS puede incluir un codificador para codificar una corriente de datos, o un decodificador para decodificar una corriente de datos recibida, o ambos. El término "codee" se usa para describir la combinación de un codificador y un decodificador.
En un ejemplo ilustrado en la figura 2, los datos, como los datos de multimedia, del nodo de envío 206 que se conecta a la red, o Internet 212 puede enviarse a un nodo del destinatario, o MS 204, vía el nodo de servicio, Nodo de servicio de paquete de Datos (PDSN) 206, y el Controlador, o Estación Base/ Función de control de paquete (BSC/PCF) 208. La interfaz de canal inalámbrico 202 entre el MS 204 y el BSC/PCF 210 es una interfaz aérea y, típicamente, puede usar muchos canales para la señalización y el portador, o carga útil, de datos.
La interfaz 202 aérea puede operar de acuerdo con cualquiera de varios estándares inalámbricos. Por ejemplo, las normas pueden incluir normas basadas en TDMA, como el Sistema Global para Comunicación Móvil (GSM) , Servicio General de Radio Paquete (GPRS) , los Ambiente Mejorado de Datos GSM (EDGE) , o los estándares basados en CDMA como TIA/EIA-95-B (IS-95), TIA/EIA-98-C (IS-98), IS2000, HRPD, cdma2000, CDMA banda ancha (WCDMA), y otros.
La figura 3 es un mapa que ilustra las dificultades de la sincronización en una técnica convencional para la transmisión de corrientes de RTP separadas sobre un canal de comunicación inalámbrica. En el ejemplo ilustrado en la figura 3, se codifican tramas de datos de video y audio en las corrientes de RTP y entonces se asignan a los paquetes de canal de comunicación. La figura 3 ilustra una corriente de tramas de video 302. Típicamente, las tramas de video ocurren a una velocidad constante. Por ejemplo, las tramas de video pueden ocurrir a una velocidad de 10 Hz que es una nueva trama que ocurre cada 100 milisegundos.
Tal como se muestra en la figura 3, las tramas de video individuales pueden contener cantidades diferentes de datos, como se indica por la altura de la barra que representa cada trama. Por ejemplo, si los datos de video se codifican como datos de Motion Picture Expert Group (MPEG) (Grupo de Peritos de Películas) entonces la corriente de video se constituye por intra-tramas (tramas-i), y tramas predictivas (tramas-p) Una trama-i es auto-contenida, que es, incluye toda la información necesaria para entregar, o desplegar una trama completa de video. Una trama-P no es auto-contenida y contendrá típicamente información diferencial relativa a la trama anterior, como los vectores de movimiento e información de textura diferencial. Típicamente, las tramas-l pueden ser de 8 a 10 veces más grandes que una trama-P, dependiendo del contenido y escenarios o configuraciones de codificación. Aunque las tramas de video pueden tener las cantidades diferentes de datos que ocurren a una velocidad constante. Las tramas-I y P pueden ser además partidas en múltiples rebanadas de video. Una rebanada de video representa una región menor en la pantalla y puede decodificarse individualmente por el decodificador.
En la figura 3 , en la trama de video N y N+4 podrían representar las tramas-I, y las tramas de video N+l, N+2, N+3 , y N+5 podrían representar tramas- P. Como se muestra, las tramas-I incluyen una cantidad más grande de datos, indicada por la altura de la barra que representa la trama, comparado con las tramas- P. Entonces, las tramas de video son empaquetadas en los paquetes en una corriente RTP 304. Como se muestra en la figura 3, los paquetes de RTP N y N+4, corresponden al video de tramas-I, N y N+4, son más grandes, indicado por su anchura, que los paquetes de RTP N+l, N+2 , y N+3 , correspondiendo a las tramas-P de video N+l, N+2, y N+3.
Los paquetes de De video RTP se asignan a paquetes de canal de comunicación 306. En un canal de comunicación convencional, como CDMA o GSM, los paquetes de datos de canal de comunicación 306 son de un tamaño constante, y se transmiten a una velocidad constante. Por ejemplo, los paquetes de datos de canal de comunicación 306 que pueden transmitirse a una velocidad de 50Hz, es decir, un nuevo paquete de datos se transmite cada 20 milisegundos. Debido a que los paquetes de canal de comunicación son de un tamaño constante, toma más paquetes de canal de comunicación para transmitir los paquetes de RTP más grandes. Así, toma más paquetes de canal de comunicación 306 para transmitir paquetes RTP que corresponden a tramas de video-I, N y N+4, que los paquetes de canal de comunicación necesarios para transmitir los paquetes de RTP menores que corresponden a las tramas de video P, N+l, N+2 y N+3. En el ejemplo ilustrado en la figura 3, la trama de video N ocupa un bloque 308 de nueve paquetes de canal de comunicación 306. Las tramas de video N+l, N+2, y N+3 ocupan los bloques 310, 312, y 314 respectivamente, cada uno con cuatro paquetes de canal de comunicación 306. La trama de video N+4 ocupa un bloque 316 de nueve paquetes de canal de comunicación 306.
Para cada trama de datos de video hay un dato de audio correspondiente. La figura 2 ilustra una corriente de tramas de audio 320. Cada trama de audio N, N+l, N+2, N+3 , N+4, y N+5 corresponde a la de trama video respectiva y ocurre a una velocidad de 10Hz, esto es que una nueva trama de audio empieza cada 100 milisegundos. En general, el dato de audio es menos complejo, tal que puede representarse por menos bits, que los datos de video asociados y se codifican típicamente tal como los paquetes RTP 322 son de un tamaño que puede transmitirse sobre el canal de comunicación dentro del período de una trama. Además, s generan tramas de audio típicas una vez cada 20 milisegundos en CDMA, GSM, WDCMA, etc. Se agrupan en atados tramas de audio múltiples en tales casos, los paquetes de audio y video representan la misma duración de tiempo para la paquetización de RTP. Por ejemplo, paquetes de RTP N, N+l, N+2, N+3 , N+4, y N+5 son de un tamaño que cada paquete de RTP puede asignarse a paquetes de canal de comunicación 324 tal que cada paquete de RTP puede transmitirse sobre el canal de comunicación dentro de un período de trama de 100 milisegundos .
Como se muestra en la figura 3, el paquete de tramas de audio N, N+l, N2 , N+3 , N+4, y N+5 cada uno ocupa bloques 326, 328, 330, 332, 334, y 336 respectivamente, cada uno con cinco paquetes de canal de comunicación 324. La comparación entre la asignación de las tramas de video y tramas de audio a sus respectivos paquetes de canal de comunicación ilustran la pérdida de sincronización entre los tramas de audio y video. En el ejemplo ilustrado en la figura 3, se requiere un bloque 308 de nueve paquetes de canal de comunicación 306 para transmitir la trama de video N. la trama de Audio N asociada con la trama de video N se transmitió en un bloque 326 de cinco paquetes de canal de comunicación 324. Debido a que el video y audio en los paquetes de canal de comunicación se transmiten al mismo tiempo, durante la transmisión de la trama video N, la trama de audio N, así como se transmiten cuatro de los cinco paquetes de canal de comunicación en el bloque 328 de la trama de audio N+l .
Por ejemplo, en la figura 3, si el video, y audio asociado, cuya velocidad de la trama es 10 Hz y la velocidad de paquete de canal de comunicaciones de 50 Hz, entonces durante el período de 100 milisegundos de la trama N, todos los datos audio se transmites, pero sólo una porción de los datos de video se transmite. En este ejemplo, todos los datos de video para la trama N no se transmiten hasta que se han transmitido otros cuatro paquetes de canal de comunicación 306 produciendo la trama completa de video N que requiere 180 milisegundos para la transmisión comparada a los 100 milisegundos para la transmisión completa de la trama de audio N. Debido a que las corrientes de RTP de audio y video son independientes, se transmite una porción de trama de audio N+l durante el tiempo que se transmite la trama de video de datos N. Esta pérdida de sincronización entre las corrientes de video y audio puede producir el "desliz" entre el video y audio a un receptor del canal de comunicación.
Debido a que los codificadores de video como H.263, AVC/H.264, MPEG-4, etc. son inherentemente de velocidad variable en naturaleza debido a que se codifica predeciblemente y también debido al uso de código longitud variable (VLC) de muchos parámetros, el envío de tiempo real de corrientes de bits de velocidad variable sobre las redes e conmutación de circuito y las redes de conmutación de paquetes se cumplen generalmente cumplidas por la conformación de tráfico con las memorias intermedias al remitente y receptor. El tráfico que conforman las memorias intermedias presenta un retardo adicional que es típicamente indeseable. Por ejemplo, el retardo adicional puede estar interfiriendo durante una teleconferencia cuando hay retardo entre el momento que una persona habla y cuando otra persona escucha el discurso.
Por ejemplo, debido a que el video a un receptor del canal de' comunicación se ha reproducido a la misma velocidad que la velocidad de la trama de video original, los retardos en el canal de comunicación pueden causar las pausas en la reproducción. En la figura 3, la trama de video N no puede reproducirse hasta que los datos de la trama entera se han recibido. Debido a que la trama de datos completa no se recibe durante el período de la trama, la reproducción tiene que pausarse hasta que se reciben todos los datos video para la trama N. Además, todos los datos de la trama de audio N necesitan ser guardados hasta que todos los datos de video para la trama N se reciben, para que se sincronice la reproducción de audio y video. También se menciona que los datos de audio de la trama N+l que se reciben mientras los datos de video de la trama N todavía están recibiéndose, deben guardarse hasta que se reciben todos los datos de video de la trama N+l . Debido al tamaño variable de las tramas de video, se requiere la conformación de sincronización de memorias intermedias de tráfico más grande.
La figura 4 es una gráfica que ilustra una técnica para la transmisión de corrientes RTP separadas sobre un canal comunicación inalámbrica de acuerdo con la invención. La figure 4, semejantemente a la figura 3, ilustra una corriente de tramas de video 302 de tamaño variante, y una corriente de tramas de audio 320 en código en RTP independiente 304 y 322 respectivamente. Las tramas de video y audio ocurren a una velocidad constante, por ejemplo una velocidad de 10Hz.
En la figura 4, como en la figura 3, la trama de video N y N+4 podrían representar las tramas-I, y tramas de video N+l, N+2, N+3, y N+5 podrían representar las tramas-P. Las tramas de video son empaquetadas en los paquetes en una corriente RTP 304. Como se muestra en la figura 4, los paquetes de RTP N y N+4, corresponden a las tramas de video I, N y N+4, son más grande, como se indica por su anchura, que los paquetes de RTP N+l, N+2 , y N+3, correspondiendo a las tramas P de video N+l, N+2, y N+3.
Los paquetes de video RTP se asignan a los paquetes de canal de comunicación 406. Las técnicas que se utilizan tal como se describe en la solicitud co-pendiente listada anteriormente en la REFERENCIA A LAS SOLICITUDES CO-PENDIENTES PARA PATENTES, la capacidad del canal de comunicación es variable. Debido a la capacidad variable de 2 los paquetes de canal de comunicación 406, la trama de video N puede transmitirse en un bloque 408 que contiene cinco paquetes de canal de comunicación 406.
En un canal de comunicación convencional, como los estándares basadas en CDMA como TIA/EIA-95-B (IS-95) , TIA/EIA-98-C (IS-98), IS2000, HRPD, cdma2000, y Banda ancha CDMA (WCDMA) , los paquetes de datos de canal de comunicación 406 que pueden transmitirse a una velocidad de 50Hz, es decir, un nuevo paquete de datos se transmite cada 20 milisegundos. Debido a que la capacidad de los paquetes de canal de comunicación 406 puede variar, la codificación de la trama de video N puede limitarse de tal forma que la trama entera de video N puede transmitirse durante un período de la trama. Como se muestra en la figura 4, la capacidad paquetes de canal de comunicación se 406 aumenta al transmitir el paquete RTP N, correspondiendo a la trama del video N, para que el paquete entero pueda transmitirse durante el período de la trama. También pueden aplicarse las técnicas descritas a canales de comunicación basados en GSM, GPRS, o EDGE.
Como se ilustra en figura 4, las tramas de video se codifican N, N+l, N+2, N+3, N+4, y N+5 en los paquetes de RTP y se asignan al canal de comunicación del bloque 408, 410, 412, 414, 416, y 418 respectivamente. También se nota que variando la capacidad de canal de comunicación, la entero trama de video se transmite dentro de un período de la trama. Por ejemplo, si la velocidad de la trama de video es entonces 10 Hz entonces una trama entera de datos de video se transmite durante un período de trama de lOOmilisegundos .
Para cada trama de datos de video 302 hay una trama de audio correspondiente 320. Cada trama de audio N, N+l, N+2, N+3, N+4, y N+5 corresponde a la trama de video respectiva y ocurre a una velocidad de 10 Hz que es un nueva trama de audio que empieza cada 100 milisegundos. Como se analizó en la figura 3, los datos de audio generalmente son menos complejos, tal que puede representarse por menos bits, que los datos de video asociados y se codifican típicamente de tal modo que los paquetes RTP 322 son de un tamaño que pueden transmitirse sobre el canal de comunicación dentro del período de lOOmilisegundos de una trama. Es decir, los paquetes de audio RTP N, N+l, N+2, N+3 , N+4, y N+5 son de un tamaño que cada paquete de RTP puede asignarse respectivamente a los bloques 326, 328, 330, 332, 334, y 336 de paquetes de canal de comunicación. Así, si la velocidad de la trama de video es entonces 10 Hz, cada trama de video puede transmitirse sobre el canal de comunicación dentro de un período de trama de 100 milisegundos. Semejantemente al video, si el tamaño del paquete audio es grande, la capacidad de canal de comunicación también puede variar para soportar la transmisión de una trama de audio entera durante un período de la trama.
En la figura 4, la comparación entre la asignación de las tramas de video y tramas de audio al paquete de canal de comunicación respectiva canal ilustra que las tramas de video y audio permanecen sincronizadas. En otros términos, se transmite cada período de la trama de video entera y una trama de audio entera. Porque un trama entero de video y audio se transmite cada período de la trama no hay necesidad de almacenar en memoria intermedia adicional . Los datos de video y audio recibidos sólo necesitan que se aumenten durante un período de la trama y entonces pueden reproducirse. Debido a que no hay ningún retardo introducido por el canal de comunicación, las tramas de video y audio permanecen sincronizadas.
Se debe notar que, como se ilustra en la figura 3, las tramas de video N+l, N+2 y N+3 requirieron cuatro paquetes de canal de comunicación de video 306 para transmitir la trama entera de datos de video. Como se ilustra en la figura 4, los paquetes de canal de comunicación de video 406 que pueden reducirse en tamaño para que los datos de video coincidan en cinco paquetes, o pueden transmitirse los paquetes en blanco. De manera similar, pueden transmitirse los paquetes en blanco si hay exceso de capacidad instalada disponible en el canal de comunicación de audio. Así, se codifican los datos de video y audio para que un trama entero de datos de audio y video se asigne a paquetes de canal de comunicación que ocupan el mismo período, o menos, o la velocidad de la trama respectiva.
Como se describe a continuación, mientras depende de los aspectos de la red de comunicación, pueden usarse las técnicas diferentes para sincronizar las corrientes de RTP. Por ejemplo, la red de comunicación puede estar sobre aprovisionada, es decir, tiene el exceso de capacidad instalada, o la red de comunicación puede tener una Calidad garantizada de Servicio. Además, las corrientes de RTP pueden modificarse para mantener la sincronización cuando se transmiten sobre una red de comunicación. Cada una de estas técnicas se analizará a continuación. Red de comunicación sobre aprovisionada.
En el escenario, cuando un enlace de comunicación entre PDSN 208 y el remitente 206 está sobre aprovisionado, es decir, hay exceso de capacidad instalada disponible para la transmisión de datos sobre la red de Internet, no hay retardo entonces debido a la congestión. Debido a que hay exceso de capacidad instalada en el enlace de comunicación no hay ninguna necesidad de retardar una transmisión para que la transmisión pueda acomodarse por el enlace de comunicación. Sin el retardo en la transmisión no hay ningún "salto" de tiempo entre los paquetes de voz y video cuando llegan a la infraestructura, como a un PDSN. En otros términos, los datos de audio y video permanecen sincronizados entre sí a al PDSN y la sincronización se mantiene entre el PDSN y el MS, como se describe en esta invención.
En el escenario sobre-aprovisionado, la sincronización audio-visual se cumple fácilmente. Por ejemplo, los datos de video pueden tener una velocidad de trama de 10 tramas por segundo (fps por sus siglas en inglés), basado en una trama de 100 milisegundos, y el audio asociado puede tener una velocidad de trama de 50 fps, basado en una trama de discurso de 20 milisegundos. En este ejemplo, cinco tramas de datos audio recibidas serían almacenadas en memoria intermedia, para que se sincronizara con la velocidad de la trama de video. Es decir, cinco tramas de datos audio serían almacenadas en memoria intermedia, mientras corresponde a 100 milisegundos de datos de audio, para que se sincronizara a la trama de video de 100 milisegundos. Las Redes de comunicación con un QoS garantizado en el retardo máximo.
Almacenando en memoria intermedia, un número apropiado de tramas de discurso de velocidad superior de trama, es posible coincidir con una trama de video de velocidad más baja. En general, si se entregan los paquetes de video con una garantía de retardo de calidad de servicio (QoS) : QoS_retardo = ms de NT Ecuación 1, donde n es el retardo en las tramas; y T = 1000/tramas por segundo.
Entonces una memoria intermedia clasificada según su tamaño para almacenar las tramas de discurso de nT/ dónde w es la duración de tramas del discurso en milisegundos, se necesita almacenar suficientes tramas de discurso para asegurar que pueden sincronizarse el discurso y video. En UMTS de cdma2000, la duración de una trama de discurso, W, es 20 milisegundos, en otros canales de comunicación, la duración de una trama de discurso puede ser diferente, o varía.
Otra técnica para la sincronización de datos de audio y video incluye el almacenamiento en memoria intermedia de ambas corrientes de datos. Por ejemplo, si un sistema de comunicación tiene un retardo máximo garantizado de DQ milisegundos, el significado que DQ es el retardo máximo que puede experimentarse durante la transmisión de audio y las corrientes de video, entonces una memoria intermedia clasificada según el tamaño apropiado puede emplearse para mantener la sincronización.
Por ejemplo, con un retardo máximo garantizado de DQ, entonces almacenando en memoria intermedia las tramas de video DQ/T (T es la duración de tramas de video en milisegundos) y tramas de discurso DQ/W (W es la duración de tramas del discurso en milisegundos) asegurará la sincronización de video audio (AV-synch) . Estos espacios adicionales de memoria intermedia normalmente se llaman memoria intermedia de oscilaciones periódicas.
Las técnicas describieron la sincronización de audio y las corrientes de datos de video. Las técnicas pueden usarse con cualquier corriente de datos que necesita ser sincronizada. Si hay dos corrientes de datos, la una primera corriente de datos de velocidad de bits más alta y una segundo corriente de datos de velocidad más baja que tienen el mismo intervalo de información y necesitan ser sincronizado, almacenando entonces en memoria intermedia la corriente de datos codificados de velocidad más alta permite que se sincronicen con los datos de velocidad más baja. Puede determinarse el tamaño de memoria intermedia, dependiendo de un QoS como se describió anteriormente. Igualmente, ambas corrientes de datos de velocidad de bit más alta y más baja pueden almacenarse en memoria intermedia y pueden sincronizarse como se describió anteriormente .
Se pueden desarrollar as técnicas descritas por medio de un sincronizador de corriente de datos que incluye un primer decodificador configurado para recibir una primera corriente de datos codificados y emitir una primera corriente de datos decodificádos, en' donde la primera corriente de datos codificados tiene una segunda velocidad de bit durante un intervalo de información. Y un segundo decodificador configurado para recibir una segunda corriente de datos codificados y emitir una segunda corriente de datos decodificados, en donde la segunda corriente de datos codificados tiene una segunda velocidad en bits durante el intervalo de información. La corriente de datos sincronizada también incluye una primera memoria intermedia configurada para aumentar la primera corriente de datos decodificados por lo menos para un intervalo de información y emitir un trama de la primera corriente de datos decodificados para cada período del intervalo, y una segunda memoria intermedia configurada para aumentar la segunda corriente de datos decodificados por lo menos para un intervalo de información y emitir una trama de la segunda corriente de datos decodificados para cada período del intervalo. Entonces se utiliza un combinador configurado para recibir la trama de la primera corriente de datos decodificados y la trama de la segunda corriente de datos decodificados y emitir una trama sincronizada de la primera y segunda corrientes de datos decodificados . En un ejemplo, la primera corriente de datos codificados puede ser los datos de video y la segunda corriente de datos codificados son los datos de audio, tal que la primera corriente de datos codificados es superior que la segunda corriente de datos codificados. Una sola corriente RTP Audio y Video Multiplexados.
Otra modalidad es portar audio y video en una sola corriente de RTP. Como se puede notar, no es ninguna práctica común en redes IP transmitir audio y video como una sola corriente de RTP. RTP fue diseñada para permitir a los participantes recursos diferentes, por ejemplo, terminales con capacidad de video y audio, y terminales con capacidad sólo de audio, para comunicar en la misma conferencia de multimedia.
La restricción de transmitir audio y video como corrientes de RTP separadas no puede ser aplicable en una red inalámbrica para los servicios de video. En este caso, un nuevo perfil de RTP puede diseñarse para llevar un discurso específico y cargas útiles de codee de video. La combinación de audio y video en una corriente de RTP común elimina el "salto" cuando se quiera entre los datos de audio y video sin requerir una red de comunicación sobre aprovisionada. Por lo tanto, puede lograrse la sincronización de video y audio utilizando las técnicas descritas en relación con una red sobre aprovisionada como se describió anteriormente.
La figura 5 es un diagrama en bloques de una porción de un receptor de audio/video inalámbrico 500 configurado para recibir los paquetes de canal de comunicación. Como se muestra en la figura 5, el receptor de audio/video 500 incluye una interfaz de canal de comunicación 502 configurada para recibir los paquetes de canal de comunicación. La interfaz de canal de comunicación 502 emite el paquete de canal de comunicación de video a un decodificador de video 504 y los paquetes de canal de comunicación de audio a un decodificador de audio 506. El decodificador de video 504 decodifica los paquetes de canal de comunicación de video y emite los datos de video a una memoria intermedia de video 508. El decodificador de audio 506 decodifica los paquetes de canal de comunicación de audio y emite los datos de audio a una memoria intermedia de audio 510. La memoria intermedia de video 508 y la memoria intermedia de audio aumentan los datos de video y audio respectivamente para un período de la trama. La memoria intermedia de video 508 y la memoria intermedia de audio 510 emiten una trama video y una trama de audio respectivamente a un combinador 512. El combinador 512 se configura para combinar las tramas de video y audio y emitir una señal de video y audio sincronizada. El funcionamiento de la memoria intermedia de video 508, la memoria intermedia de audio 510 y el combinador 512 pueden ser controlados por un controlador 514.
La figura 6 es un diagrama en bloques de una porción de un transmisor de audio/video inalámbrico 600 configurado para transmitir los paquetes de canal de comunicación. Como se muestra en la figura 6, el transmisor de audio/video 600 incluye una interfaz de canal de comunicación de video 602 configurada para recibir una corriente de datos de video RTP. La interfaz de canal de comunicación de video asigna los paquetes de RTP a los paquetes de canal de comunicación. Como se puede notar, la capacidad de los paquetes de canal de comunicación puede variar para asignar tramas enteras ricas en datos de video RTP a los paquetes de canal de comunicación que ocupan el mismo período como la trama de video. El transmisor de audio/video 600 también incluye una interfaz de canal de comunicación de audio 604 configurada para recibir una corriente datos de audio RTP. La interfaz de canal de comunicación de audio 604 asigna los paquetes de RTP a los paquetes de canal de comunicación. Como se puede notar, en general, la capacidad de los paquetes de canal de comunicación será suficiente para asignar los datos de audio a una trama entero de RTP a paquetes de canal de comunicación que ocupan el mismo período como la trama de audio. Si la capacidad del canal no es entonces suficiente puede variarse, así como a los paquetes de canal de comunicación de video para que hubiera capacidad suficiente para asignar los datos de audio a una trama entero de RTP a paquetes de canal de comunicación que ocupan el mismo período como la trama audio.
Los paquetes de canal de comunicación de video y audio son emitidos por las interfaces de canal de comunicación de video y audio 602 y 604 respectivamente y comunicados a un combinador 606. El combinador 606 se configura para aceptar los paquetes de canal de comunicación de video y audio y combinarlos y emitir una señal compuesta. La salida del combinador 606 se comunica a un transmisor 608 que transmite esa señal compuesta al canal inalámbrico. El funcionamiento de la interfaz del canal de comunicación de video 602, la interfaz del canal de comunicación de audio 604 y el combinador 606 pueden ser controlados por un controlador 614.
La figura 7 es un diagrama de flujo de transmisión de corriente de RTP independiente sobre un enlace de comunicación inalámbrica. Las salidas de flujo en el bloque 702 donde se reciben datos de video y las corrientes RTP de datos de audio. El flujo entonces continúa al bloque 704 donde la corriente de video RTP se asigna a los paquetes de canal de comunicación. En el bloque 706 la corriente audio de RTP se asigna a los paquetes de canal de comunicación. En el bloque 708 los paquetes de canal de comunicación de video y audio se combinan y transmitieron sobre un canal inalámbrico.
La figura 8 es un diagrama de flujo de recepción de datos de audio y video sobre un canal de comunicación inalámbrica. El flujo empieza en el bloque 802 donde los datos de video y audio se reciben sobre un canal de comunicación inalámbrica. El flujo continúa al bloque 804 de datos de video y audio y se decodifican. En el bloque 806, se agrupan los datos de video decodificados y los datos de audio en el video respectivo y las tramas de audio. En el bloque 810, los datos de video y audio se combinan en una trama de video/audio sincronizada. En el bloque 810, la trama de video/audio sincronizada es el emite.
La figura 9 es un diagrama en bloques de un dispositivo de comunicación inalámbrica, o una estación móvil (MS) , construida de acuerdo con una modalidad ejemplar de la presente invención. El dispositivo de comunicación 902 incluye una interfaz de red 906, un codee 908, un procesador central 910, un dispositivo de memoria 912, un producto de programa 914, y una interfaz del usuario 916.
Las señales de la infraestructura son recibidas por la interfaz de red 906 y se envían al procesador central 910. El procesador central 910 recibe señales y, dependiendo del volumen de la señal, responde con las acciones apropiadas. Por ejemplo, el procesador central 910 puede decodificar la propia señal recibida, o puede dirigir la señal recibida al codee 908 para decodificaria. En otra modalidad, la señal recibida se envía directamente al codee 908 de la interfaz de red 906.
En una modalidad, la interfaz de red 906 puede ser un transceptor y una antena para unir a la infraestructura sobre un canal inalámbrico. En otra modalidad, la interfaz de red 906 puede ser una tarjeta de interfaz de red unida a la infraestructura sobre la línea terrestre. Los codee 908 pueden llevarse a cabo como un procesador señalado digital (DSP) , o un procesador general como un procesador central (CPU) .
Tanto el procesador central 910 y el codee 908 se conectan a un dispositivo de memoria 912. El dispositivo de memoria 812 se puede utilizar para almacenar datos durante el funcionamiento del WCD, así como para almacenar un código de programa que se ejecutará por el procesador central 910 o el DSP 908. Por ejemplo, el procesador central, el codee, o ambos, pueden operar bajo el control de instrucciones de programación que se guardan temporalmente en el dispositivo de memoria 912. El procesador central 910 y el codee 908 también pueden incluir memoria de almacenamiento de programa propia. Cuando se ejecutan las instrucciones de programación, el procesador central 910 o el codee 908, o ambos, realizan sus funciones, por ejemplo decodificando o codificando corrientes multimedia, tal como datos de audio/video y ensamblando tramas de audio y video. Así, los pasos de programación implementan la funcionalidad del procesador central 910 respectivo y el codee 908, para que el procesador central y el codee puedan cada uno realizar las funciones de decodificar o codificar corrientes de contenidos y ensamblar tramas como sea deseado. Los pasos de programación se pueden recibir de un producto de programa 914. El producto de programa 914 puede almacenar, y transferir los pasos de programación en la memoria 912 para la ejecución por el procesador central, el codee, o ambos .
Los productos de programa 914 pueden ser circuitos integrados de memoria semiconductora, tal como memoria RAM, memoria instantánea, memoria ROM, memoria EPROM, memoria EEPROM, registros, así como otros dispositivos de almacenamiento tales como un disco duro, un disco removible, un CD-ROM, o cualquier otra forma de medio de almacenamiento conocido en la técnica que pueda almacenar instrucciones legibles por computadoras. Adicionalmente, el producto de programa 914 puede ser el archivo fuente que incluye los pasos del programa que se reciben de la red y almacenarlos dentro de la memoria y después se ejecutan. De esta manera, los pasos de procesamiento necesarios para el funcionamiento de conformidad con la presente invención se pueden modalizar en el producto de programa 914. En la figura 9, se muestra el medio de almacenamiento ejemplar acoplado al procesador central 910 de modo tal, que el procesador central puede leer la información de, y escribe la información al, medio de almacenamiento. Alternativamente, el medio de almacenamiento puede ser integral al procesador central 910.
La interfaz de usuario 916 se conecta tanto al procesador central 910 y al codee 908. Por ejemplo, la interfaz de usuario 916 puede incluir una pantalla y un altavoz utilizado para emitir la salida de datos de multimedia para el usuario.
Aquéllos expertos en la técnica reconocerán que el paso de un método descrito en relación con una modalidad se puede cambiar sin apartarse del alcance de la invención.
Aquéllos expertos en la técnica también entenderán que la información y las señales se pueden representar utilizando cualquiera de una variedad de diferentes tecnologías y técnicas. Por ejemplo, datos, instrucciones, comandos, información, señales, bits, símbolos, y circuitos integrados a los que se puede hacer referencia en toda la descripción anterior se pueden representar por voltajes, corrientes, ondas electromagnéticas, campos o partículas magnéticas, campos o partículas ópticas, o cualquier combinación de los mismos.
Aquéllos expertos además apreciarán que los varios bloques lógicos ilustrativos, módulos, circuitos, y pasos de algoritmo descritos en combinación con las modalidades descritas dentro de la invención se pueden implementar como hardware electrónico, software de computadoras, o combinaciones de ambos. Para ilustrar claramente este intercambiabilidad de hardware y software, varios componentes ilustrativos, bloques, módulos, circuitos, y pasos se han descrito claramente con anterioridad generalmente en términos de su funcionalidad. Si es que tal funcionalidad se implementa como hardware o software depende de la aplicación particular y de las restricciones impuestas en el sistema general. Los expertos en la técnica pueden implementar la funcionalidad descrita en varias maneras para cada aplicación particular, pero no deben interpretarse tales decisiones de implementación como causas para apartarse del alcance de la presente invención.
Los varios bloques lógicos ilustrativos, módulos, y circuitos descritos en conexión con las modalidades descritas en la presente invención se pueden implementar o llevar a cabo con un procesador de propósito general, un procesador de señales digital (DSP) , una circuito integrado de aplicación específica (ASIC) , un arreglo de compuerta de campo programable (FPGA) u otro dispositivo de lógica programable, compuerta discreta o lógica de transistor, componentes de hardware discretos, o cualquier combinación de los mismos diseñados para realizar las funciones descritas dentro de la presente invención. Un procesador de propósito general puede ser un microprocesador, pero en la alternativa, el procesador puede ser cualquier procesador convencional, controlador, microcontrolador, o máquina de estado. Se puede implementar también un procesador como una combinación de dispositivos de computadoras, por ejemplo, una combinación de un DSP y un microprocesador, una pluralidad de microprocesadores, uno o más microprocesadores junto con un núcleo DSP, o cualquier otra configuración tal .
Los pasos de un método o algoritmo descritos en conjunto con las modalidades descritas dentro de la presente invención se pueden incluir directamente en el hardware, en un módulo de software ejecutado por un procesador, o en una combinación de los dos. Un módulo de software puede residir en la memoria RAM, memoria instantánea, memoria ROM, memoria EPROM, memoria EEPROM, registros, disco duro, disco removible, CD-ROM, o cualquier otra forma de medio de almacenamiento conocidas en la técnica. Un medio de almacenamiento ejemplar se acopla al procesador de tal modo que el procesador puede leer la información de, y escribe la información al, medio de almacenamiento. En la alternativa, el medio de almacenamiento puede ser integral al procesador. El procesador y el medio de almacenamiento pueden residir en un ASIC. El ASIC puede residir en una terminal de usuario. En la alternativa, el procesador y el medio de almacenamiento pueden residir como componentes discretos en una terminal de usuario. Se provee la descripción anterior de las modalidades descritas para permitir hacer o utilizar la presente invención a cualquier persona experta en la técnica. Las varias modificaciones a estas modalidades serán fácilmente entendibles y claras para aquellos expertos en la técnica, y los principios genéricos definidos dentro de la presente invención se pueden aplicar a otras modalidades sin apartarse del espíritu o alcance de la presente invención. Así, la presente invención no intenta limitar a las modalidades mostradas aquí mismos pero será de conformidad con el alcance más amplio consistente con los principios y funciones novedosas descritas dentro de la presente invención.

Claims (29)

NOVEDAD DE LA INVENCIÓN Habiéndose descrito el presente invento se considera como una novedad, y por lo tanto, se reclama como prioridad en las siguientes: REIVINDICACIONES
1.- Un sincronizador de corriente de datos que comprende: un primer decodificador configurado para recibir una primera corriente de datos codificados y para emitir la salida de una primer corriente de datos decodificados, en donde la primer corriente de datos codificados tiene una primera velocidad de bits durante un intervalo de información; un segundo decodificador configurado para recibir una segunda corriente de datos codificados y para emitir la salida de una segunda corriente de datos decodificados , en donde la segunda corriente de datos codificados tiene una segunda velocidad de bits durante el intervalo de información; una primera memoria intermedia configurada para acumular la primera corriente de datos decodificados por lo menos para un intervalo de información y para emitir la salida de una trama de de la primera corriente de datos decodificados en cada período de intervalo; una segunda memoria intermedia configurada para acumular la segunda corriente de datos decodificados por lo menos para un intervalo de información y para emitir la salida de una trama de la segunda corriente de datos decodificados en cada período de intervalo; y un combinador configurado para recibir la trama de la primera corriente de datos decodificados y la trama de la segunda corriente de datos decodificados y para emitir la salida de una trama sincronizada de la primera y la segunda corrientes de datos decodificados .
2.- El sincronizador de corriente de datos de conformidad con la reivindicación 1, caracterizado porque la primera corriente de datos codificados son datos de video.
3.- El sincronizador de corriente de datos de conformidad con la reivindicación 1, caracterizado porque la segunda corriente de datos codificados son datos de audio.
4.- El sincronizador de corriente de datos de conformidad con la reivindicación 1, caracterizado porque la primera velocidad de bits es superior que la segunda velocidad de bits.
5.- Un dispositivo de estación remota que comprende: un decodificador de video configurado para recibir datos de video codificados y para emitir la salida de datos de video decodificados; un decodificador de audio configurado para recibir datos de audio codificados y para emitir la salida de datos de audio decodificados; una memoria intermedia de video configurada para acumular datos de video decodificados por lo menos para un período de trama y para emitir la salida de una trama de datos de video en cada período de trama; una memoria intermedia de audio configurada para acumular datos de audio decodificados para los múltiples períodos de trama y para emitir la salida de una trama de datos de audio en cada período de trama; y un combinador configurado para recibir la trama de datos video y la trama de datos de audio y para emitir la salida de una trama de sincronizada de datos de video audio.
6. - La estación remota de conformidad con la reivindicación 5, caracterizada porque el decodificador de video es un decodificador de MPEG, un decodificador H.263, o un decodificador H.264.
7. - La estación remota de conformidad con la reivindicación 5, caracterizada porque el decodificador de audio es un decodificador de MPEG, un decodificador H.263, o un decodificador H.264.
8.- La estación remota de conformidad con la reivindicación 5, que además comprende un procesador de control que controla la decodificación y la sincronización los datos de audio y de video.
9.- Un dispositivo de estación remota que comprende: una interfaz de canal de comunicación de video configurada para recibir una corriente de video RTP y para asignar una trama entera de datos de video RTP a paquetes de canal de comunicación que ocupan el mismo período, o menos, que la velocidad de trama de video; una interfaz de canal de comunicación de audio configurada para recibir una corriente de audio RTP y para asignar una trama entera de datos de audio RTP a los paquetes de canal de comunicación que ocupan el mismo período, o menos, que la velocidad de trama de audio; y un transmisor configurado para recibir y transmitir los paquetes de canal de comunicación de video y audio.
10.- El dispositivo de estación remota de conformidad con la reivindicación 9, que además comprende un procesador de control que controla la asignación de datos de audio y video a paquetes de canal de comunicación.
11.- Un dispositivo de estación base que comprende: un decodificador de video configurado para recibir datos de video codificados y para emitir la salida de datos de video decodificados ; un decodificador de audio configurado para recibir datos de audio codificados y para emitir la salida de datos de audio decodificados; una memoria intermedia de video configurada para acumular datos de video decodificados para un período de trama de video y para emitir la salida de una trama de datos de video en cada período de trama; una memoria intermedia de audio configurada para acumular datos de audio decodificados para un período de trama de audio y para emitir la salida de una trama de datos de audio en cada período de trama; y un combinador configurado para recibir la trama de datos de video y la trama de datos de audio y para emitir la salida de una trama sincronizada de datos de video audio.
12.- La estación base de conformidad con la reivindicación 11, caracterizada porque el decodificador de video es un decodificador MPEG, un decodificador H.263, o un decodificador H.264.
13.- La estación base de conformidad con la reivindicación 11, caracterizada porque el decodificador de audio es un decodificador MPEG, un decodificador H.263, o un decodificador H.264.
14.- La estación base de conformidad con la reivindicación 11, que además comprende un procesador de control que controla la decodificación y sincronización de los datos de audio y video.
15.- Un dispositivo de estación base que comprende: una interfaz de canal de comunicación de video configurada para recibir una corriente de video RTP y para asignar una trama entera de datos de video RTP a paquetes de canal de comunicación que ocupan el mismo período, o menos, que la velocidad de trama de video; una interfaz de canal de comunicación de audio configurada para recibir una corriente de audio RTP y para asignar una trama entera de datos de audio RTP a paquetes de canal de comunicación que ocupan el mismo período, o menos, que la velocidad de trama de audio; y un transmisor configurado para recibir y transmitir los paquetes de canal de comunicación de video y audio .
16.- El dispositivo de estación base de conformidad con la reivindicación 15, que además comprende un procesador de control que controla la asignación de los datos de audio y video a los paquetes de canal de comunicación .
17.- Un sistema de comunicación inalámbrico que comprende: un dispositivo de estación base que comprende: una interfaz de canal de comunicación de video configurada para recibir una corriente de video RTP y para asignar una trama entera de datos de video RTP a paquetes de canal de comunicación que ocupan el mismo período, o menos, que la velocidad de trama de video; una interfaz de canal de comunicación de audio configurada para recibir una corriente de audio RTP y para asignar una trama entera de datos de audio RTP a paquetes de canal de comunicación que ocupan el mismo período, o menos, que la velocidad de trama de audio; un transmisor configurado para recibir y transmitir paquetes de canal de comunicación de video y audio,• un dispositivo de estación remota que comprende: un decodificador de video configurado para recibir paquetes de canal de comunicación videos y para emitir la salida de datos de video decodificados; un decodificador audio configurado para recibir los paquetes de canal de comunicación de audio y para emitir la salida de datos de audio decodificados ; una memoria intermedia de video configurada para acumular datos de video decodificados para un período de trama de video y para emitir la salida de una trama de datos de video en cada período de trama; una memoria intermedia de audio configurada para acumular datos de audio decodificados para un período de trama audio y para emitir la salida de una trama de datos de audio en cada período de trama; y un combinador configurado para recibir la trama de datos video y la trama de datos de audio y para emitir la salida de una trama de sincronizada de datos de video audio.
18.- Un sistema de comunicación inalámbrico que comprende: un dispositivo de estación remota que comprende: una interfaz de canal de comunicación de video configurada para recibir una corriente de video RTP y para asignar una trama entera de datos de video RTP a paquetes de canal de comunicación que ocupan el mismo período, o menos, que la velocidad de trama de video; una interfaz de canal de comunicación de audio configurada para recibir una corriente de audio RTP y para asignar una trama entera de datos de audio RTP a paquetes de canal de comunicación que ocupan el mismo período, o menos, que la velocidad de trama de audio; un transmisor configurado para recibir y transmitir los paquetes de canal de comunicación de video y audio; un dispositivo de estación base que comprende: un decodificador de video configurado para recibir paquetes de canal de comunicación de video y para emitir la salida de datos de video decodificados ; un decodificador de audio configurado para recibir paquetes de canal de comunicación de audio y para emitir la salida de datos de audio decodificados; una memoria intermedia de video configurada para acumular datos de video decodificados para un período de trama de video y para emitir la salida de una trama de datos de video en cada período de trama; una memoria intermedia de audio configurada para acumular datos de audio decodificados para un período de la trama audio y para emitir la salida de una trama de datos de audio en cada período de trama; y un combinador configurado para recibir la trama de datos de video y la trama de datos de audio y para emitir la salida de una trama de sincronizada de datos de video audio.
19.- Un método para decodificar corrientes de datos sincronizadas que comprende: recibir una primer corriente de datos codificada, decodificar y emitir la salida de una primer corriente de datos decodificada, en donde la primer corriente de datos codificada tiene una primera velocidad de bits durante un intervalo de información; recibir una segunda corriente de datos codificada, decodificar y emitir la salida de una segunda corriente de datos decodificada, en donde la segunda corriente de datos codificada tiene una segunda velocidad de bits durante un intervalo de información; que acumula la primera corriente de datos decodificados por lo menos para un intervalo de información y emitir la salida de una trama de la primera corriente de datos decodificados en cada período de intervalo; que acumula la segunda corriente de datos decodificados por lo menos para un intervalo de información y emitir la salida de una trama una trama de la segunda corriente de datos decodificados en cada período de intervalo; y combinar la trama de la primera corriente de datos decodificados y la trama de la segunda corriente de datos decodificados y emitir la salida de una trama sincronizada de la primera y la segunda corrientes de datos decodificados .
20.- Un método para decodificar y sincronizar datos de audio y video, el método comprende: recibir datos de video codificados y emitir la salida de datos de video decodificados; recibir datos de audio codificados y emitir la salida de datos de audio decodificados; que acumula los datos de video decodificados para un período de trama de video y emitir la salida de una trama datos de video en cada período de trama; que acumula datos de audio decodificados para un período de la trama audio y emitir la salida de una trama datos de audio en cada período de trama; y combina la trama de datos de video y la trama de datos de audio y emitir la salida de una trama sincronizada de datos de video audio en cada período de trama video.
21.- Un método para codificar datos de audio y video, el método comprende: recibir una corriente de video RTP y asignar los datos de video RTP a una trama entera a paquetes de canal de comunicación que ocupan el mismo período, o menos, como una velocidad de trama de video; y recibir una corriente de audio RTP y asignar una trama entera de datos de audio RTP a paquetes de canal de comunicación que ocupan el mismo período, o menos, como una velocidad de trama de audio.
22.- Un medio de comunicación legible por computadora que modaliza un método para decodificar y sincronizar corrientes de datos, el método comprende: recibir una primera corriente de datos codificada, decodificar y emitir la salida de una primer corriente de datos decodificada, en donde la primer corriente de datos codificados tiene una primera velocidad de bits durante un intervalo de información; recibir una segunda corriente de datos codificados, decodificar y emitir la salida de una segunda corriente de datos decodificados , en donde la segunda corriente de datos codificados tiene una segunda velocidad de bits durante el intervalo de información; que acumula la primera corriente de datos decodificados por lo menos para un intervalo de información y emitir la salida de una trama de la primera corriente de datos decodificados cada período de intervalo; acumular la segunda corriente de datos decodificados por lo menos para un intervalo de información y emitir la salida de una trama de la segunda corriente de datos decodificados en cada período de intervalo; y combinar la trama de la primera corriente de datos decodificados y la trama de la segunda corriente de datos decodificado y emitir la salida de una trama sincronizada de la primera y la segunda corrientes de datos decodificados .
23.- El medio de comunicación legible por computadora que modaliza un método para decodificar y sincronizar corrientes de datos de audio y datos de video, el método comprende: recibir datos de video codificados y emitir la salida de datos de video decodificados ; recibir datos de audio codificados y emitir la salida de datos de audio decodificados ; acumular los datos de video decodificados para un período de trama video y emitir la salida de una trama datos de video cada período de trama; acumular los datos de audio decodificados para un período de trama audio y emitir la salida de una trama datos de audio cada período de trama; y combinar la trama de datos de video y la trama de datos de audio y emitir la salida de una trama sincronizada de datos de video audio.
24.- El medio de comunicación legible por computadora que modaliza un método para codificar datos de audio y video, el método comprende: recibir una corriente de video RTP y asignar una trama entera de datos de video RTP a paquetes de canal de comunicación que ocupan el mismo período, o menos, como una velocidad de trama de video; y recibir una corriente de audio RTP y asignar una trama entera de datos de audio RTP a paquetes de canal de comunicación que ocupan el mismo período, o menos, como una velocidad de trama de audio.
25.- Un sincronizador de corriente de datos que comprenden: medios para decodificar una primera corriente de datos codificados y para emitir la salida de una primer corriente de datos decodificados, en donde la primer corriente de datos codificados tiene una primera velocidad de bits durante un intervalo de información; medios para decodificar una segunda corriente de datos codificados y para emitir la salida de una segunda corriente de datos decodificados , en donde la segunda corriente de datos codificados tiene una segunda velocidad de bits durante el intervalo de información; medios para acumular la primera corriente de datos decodificados por lo menos para un intervalo de información y para emitir la salida de una trama de de la primera corriente de datos decodificados en cada período de intervalo; medios para acumular la segunda corriente de datos decodificados por lo menos para un intervalo de información y para emitir la salida de una trama de la segunda corriente de datos decodificados en cada período de intervalo; y medios para combinar la trama de la primera corriente de datos decodificados y la trama de la segunda corriente de datos decodificados y para emitir la salida de una trama de sincronizada de la primera y la segunda corrientes de datos decodificados .
26.- Un dispositivo de estación remota que comprende: medios para recibir datos de video codificados y emitir la salida de datos de video decodificados ; medios para recibir datos de audio codificados y emitir la salida de datos de audio decodificados; medios para acumular datos de video decodificados para un período de trama de video y emitir la salida de una trama datos de video en cada período de trama; medios para acumular datos de audio decodificados para un período de trama de audio y emitir la salida de una trama datos de audio cada período de trama; y medios para combinar la trama de datos de video y la trama de datos de audio y emitir la salida de una trama sincronizada de datos de video audio.
27.- El dispositivo de estación remota comprende: medios para recibir una corriente de video RTP y asignar una trama entera de datos de video RTP a paquetes de canal de comunicación que ocupan el mismo período, o menos, como una velocidad de trama de video; y medios para recibir una corriente de audio RTP y asignar una trama entera de datos de audio RTP a paquetes de canal de comunicación que ocupan el mismo período, o menos, como una velocidad de trama de audio .
28.- Un dispositivo de estación base comprende: medios para recibir datos de video codificados y emitir la salida de datos de video decodificados; medios para recibir datos de audio codificados y emitir la salida de datos de audio decodificados; medios para acumular datos de video decodificados para un período de trama de video y emitir la salida de una trama datos de video cada período de trama; medios para acumular datos de audio decodificados para un período de trama de audio y emitir la salida de una trama datos de audio cada período de trama; y medios para combinar la trama de datos video y la trama de datos de audio y emitir la salida de una trama sincronizada de datos de video audio .
29.- El dispositivo de estación base comprende: medios para recibir una corriente de video RTP y asignar una trama entera de datos de video RTP a paquetes de canal de comunicación que ocupan el mismo período, o menos, como una velocidad de trama de video; y medios para recibir una corriente de audio RTP y asignar una trama entera de datos de audio RTP a paquetes de canal de comunicación que ocupan el mismo período, o menos, como una velocidad de trama de audio.
MXPA06013186A 2004-05-13 2005-05-13 Sincronizacion de datos de audio y video en un sistema de comunicacion inalambrica. MXPA06013186A (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US57167304P 2004-05-13 2004-05-13
PCT/US2005/016839 WO2005115009A1 (en) 2004-05-13 2005-05-13 Synchronization of audio and video data in a wireless communication system

Publications (1)

Publication Number Publication Date
MXPA06013186A true MXPA06013186A (es) 2007-02-14

Family

ID=34969576

Family Applications (4)

Application Number Title Priority Date Filing Date
MXPA06013211A MXPA06013211A (es) 2004-05-13 2005-05-13 Metodo y aparato para asignar a informacion a los canales de un sistema de comunicacion.
MXPA06013193A MXPA06013193A (es) 2004-05-13 2005-05-13 Compresion de encabezado de datos de multimedia transmitidos sobre un sistema de comunicacion inalambrica.
MXPA06013210A MXPA06013210A (es) 2004-05-13 2005-05-13 Suministro de informacion en un canal de comunicacion.
MXPA06013186A MXPA06013186A (es) 2004-05-13 2005-05-13 Sincronizacion de datos de audio y video en un sistema de comunicacion inalambrica.

Family Applications Before (3)

Application Number Title Priority Date Filing Date
MXPA06013211A MXPA06013211A (es) 2004-05-13 2005-05-13 Metodo y aparato para asignar a informacion a los canales de un sistema de comunicacion.
MXPA06013193A MXPA06013193A (es) 2004-05-13 2005-05-13 Compresion de encabezado de datos de multimedia transmitidos sobre un sistema de comunicacion inalambrica.
MXPA06013210A MXPA06013210A (es) 2004-05-13 2005-05-13 Suministro de informacion en un canal de comunicacion.

Country Status (14)

Country Link
US (6) US20050259623A1 (es)
EP (9) EP1757027B1 (es)
JP (5) JP4554680B2 (es)
KR (6) KR100918596B1 (es)
CN (5) CN102984133B (es)
AT (4) ATE508567T1 (es)
BR (4) BRPI0510952B1 (es)
CA (6) CA2565977C (es)
DE (4) DE602005011611D1 (es)
ES (4) ES2366192T3 (es)
MX (4) MXPA06013211A (es)
MY (3) MY139431A (es)
TW (4) TWI381681B (es)
WO (4) WO2005114943A2 (es)

Families Citing this family (196)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7136395B2 (en) * 2000-11-30 2006-11-14 Telefonaktiebolaget L M Ericsson (Publ) Method and system for transmission of headerless data packets over a wireless link
CN102984133B (zh) 2004-05-13 2016-11-23 高通股份有限公司 用于分配信息到通信系统的信道的设备
US7599371B1 (en) * 2004-06-09 2009-10-06 Cisco Technology, Inc. System and method for optimizing data transport in a communications system
FI20040817A0 (fi) * 2004-06-14 2004-06-14 Nokia Corp Pakkausparametrien siirto matkaviestinjärjestelmässä
US7664057B1 (en) * 2004-07-13 2010-02-16 Cisco Technology, Inc. Audio-to-video synchronization system and method for packet-based network video conferencing
US20060062312A1 (en) * 2004-09-22 2006-03-23 Yen-Chi Lee Video demultiplexer and decoder with efficient data recovery
US7804850B2 (en) 2004-10-01 2010-09-28 Nokia Corporation Slow MAC-e for autonomous transmission in high speed uplink packet access (HSUPA) along with service specific transmission time control
EP1821442A4 (en) * 2004-11-17 2011-07-20 Sharp Kk TRANSMITTER APPARATUS, RECEIVER APPARATUS AND COMMUNICATION SYSTEM
US7675872B2 (en) 2004-11-30 2010-03-09 Broadcom Corporation System, method, and apparatus for displaying pictures
WO2006058544A1 (en) * 2004-11-30 2006-06-08 Telefonaktiebolaget Lm Ericsson (Publ) Method for delivering multimedia files
US7970345B2 (en) * 2005-06-22 2011-06-28 Atc Technologies, Llc Systems and methods of waveform and/or information splitting for wireless transmission of information to one or more radioterminals over a plurality of transmission paths and/or system elements
US7764713B2 (en) * 2005-09-28 2010-07-27 Avaya Inc. Synchronization watermarking in multimedia streams
US8102878B2 (en) * 2005-09-29 2012-01-24 Qualcomm Incorporated Video packet shaping for video telephony
US9692537B2 (en) * 2005-10-18 2017-06-27 Avago Technologies General Ip (Singapore) Pte. Ltd. System, method, and apparatus for jitter reduction in a video decoder system
US8406309B2 (en) 2005-10-21 2013-03-26 Qualcomm Incorporated Video rate adaptation to reverse link conditions
US8842555B2 (en) * 2005-10-21 2014-09-23 Qualcomm Incorporated Methods and systems for adaptive encoding of real-time information in packet-switched wireless communication systems
US8514711B2 (en) * 2005-10-21 2013-08-20 Qualcomm Incorporated Reverse link lower layer assisted video error control
WO2007050259A2 (en) * 2005-10-21 2007-05-03 Thomson Licensing Method and apparatus for audio and video synchronization timestamp rollover correction
US8548048B2 (en) * 2005-10-27 2013-10-01 Qualcomm Incorporated Video source rate control for video telephony
US7839948B2 (en) * 2005-12-02 2010-11-23 Qualcomm Incorporated Time slicing techniques for variable data rate encoding
JP4747816B2 (ja) * 2005-12-05 2011-08-17 日本電気株式会社 パケット相乗り方法、プログラム及び装置
US8014389B2 (en) * 2005-12-06 2011-09-06 Lippershy Celestial Llc Bidding network
EP1967006A2 (en) * 2005-12-23 2008-09-10 Koninklijke Philips Electronics N.V. Splitting of a data stream
US20070169152A1 (en) * 2005-12-30 2007-07-19 Daniel Roodnick Data and wireless frame alignment for error reduction
US8953596B2 (en) * 2006-01-06 2015-02-10 Qualcomm Incorporated Conserving network capacity by releasing QoS resources
US8284713B2 (en) * 2006-02-10 2012-10-09 Cisco Technology, Inc. Wireless audio systems and related methods
KR100754736B1 (ko) * 2006-02-10 2007-09-03 삼성전자주식회사 영상 수신 시스템에서 영상 프레임의 재생 방법 및 그 장치
KR100728038B1 (ko) * 2006-03-03 2007-06-14 삼성전자주식회사 Plc 네트워크상에서 데이터를 묶어서 전송하는 방법 및장치
US7876695B2 (en) * 2006-03-07 2011-01-25 Telefonaktiebolaget Lm Ericsson (Publ) Communication station and method providing flexible compression of data packets
JP4659657B2 (ja) * 2006-03-28 2011-03-30 富士通株式会社 フレーム多重装置
WO2007114633A2 (en) * 2006-04-03 2007-10-11 Lg Electronics Inc. Method of performing scheduling in a wired or wireless communication system and network scheduler thereof
US7684816B2 (en) * 2006-04-06 2010-03-23 Motorola, Inc. Method and apparatus to facilitate communication resource allocation for supergroups
CN101438533B (zh) * 2006-05-15 2013-01-23 艾利森电话股份有限公司 用于分层媒体的无线组播
CN1983905B (zh) * 2006-05-25 2011-05-11 华为技术有限公司 终端在1x网络下建立HRPD网络分组数据业务的方法
US7920469B2 (en) * 2006-06-15 2011-04-05 Alcatel-Lucent Usa Inc. Indicating a variable control channel structure for transmissions in a cellular system
US20070299983A1 (en) * 2006-06-21 2007-12-27 Brothers Thomas J Apparatus for synchronizing multicast audio and video
US20070297454A1 (en) * 2006-06-21 2007-12-27 Brothers Thomas J Systems and methods for multicasting audio
US7584495B2 (en) * 2006-06-30 2009-09-01 Nokia Corporation Redundant stream alignment in IP datacasting over DVB-H
US20080025312A1 (en) * 2006-07-28 2008-01-31 Qualcomm Incorporated Zero-header compression for improved communications
US20080025249A1 (en) * 2006-07-28 2008-01-31 Qualcomm Incorporated 1xEVDO WIRELESS INTERFACE TO ENABLE COMMUNICATIONS VIA A SATELLITE RELAY
US8060651B2 (en) * 2006-08-17 2011-11-15 Sharp Laboratories Of America, Inc. Systems and methods for adaptively packetizing data partitions for transport over a network
US8644314B2 (en) * 2006-09-07 2014-02-04 Kyocera Corporation Protocol and method of VIA field compression in session initiation protocol signaling for 3G wireless networks
US8379733B2 (en) * 2006-09-26 2013-02-19 Qualcomm Incorporated Efficient video packetization methods for packet-switched video telephony applications
US8069412B2 (en) * 2006-10-17 2011-11-29 At&T Intellectual Property I, L.P. Methods, systems, and products for mapping facilities data
US8484059B2 (en) 2006-10-17 2013-07-09 At&T Intellectual Property I, L.P. Methods, systems, and products for surveying facilities
US20080101476A1 (en) * 2006-11-01 2008-05-01 Qualcomm Incorporated Video coding rate adaptation to reduce packetization overhead
CN101179484A (zh) * 2006-11-09 2008-05-14 华为技术有限公司 一种不同媒体流间的同步方法及系统
CN100450163C (zh) * 2006-11-30 2009-01-07 中兴通讯股份有限公司 一种移动多媒体广播视音频同步播放的方法
US7889191B2 (en) 2006-12-01 2011-02-15 Semiconductor Components Industries, Llc Method and apparatus for providing a synchronized video presentation without video tearing
US7953118B2 (en) * 2006-12-08 2011-05-31 Microsoft Corporation Synchronizing media streams across multiple devices
TWI364954B (en) 2006-12-19 2012-05-21 Innovative Sonic Ltd Method and apparatus of continuous packet connectivity enhancement in a wireless communications system
US8005043B2 (en) * 2007-01-03 2011-08-23 Samsung Electronics Co., Ltd Method and apparatus for scheduling downlink packets in a mobile communication system
CA2671731A1 (en) 2007-01-04 2008-07-17 Qualcomm Incorporated Method and apparatus for distributed spectrum sensing for wireless communication
KR101370478B1 (ko) * 2007-01-10 2014-03-06 퀄컴 인코포레이티드 멀티미디어 전화 통신을 위한 컨텐트- 및 링크-의존 코딩 적응 구조
KR101369838B1 (ko) * 2007-04-20 2014-03-06 삼성전자주식회사 전송 스트림 생성장치, 송신 장치, 수신 장치, 이들이포함된 디지털 방송 시스템 및 그 방법
KR100861594B1 (ko) * 2007-04-23 2008-10-07 주식회사 케이티프리텔 멀티미디어 데이터 전송률 제어 장치 및 그 방법
US8671302B2 (en) * 2007-05-14 2014-03-11 Picongen Wireless, Inc. Method and apparatus for wireless clock regeneration
EP2183927A4 (en) 2007-05-14 2014-12-17 Sigma Group Inc WIRELESS MULTIMEDIA SYSTEM
CN100574283C (zh) * 2007-06-12 2009-12-23 华为技术有限公司 上、下行传输方法及汇聚节点
EP2023521A1 (en) * 2007-07-17 2009-02-11 Alcatel Lucent System and method for improving the use of radio spectrum in transmission of data
CN101094406B (zh) * 2007-07-23 2010-09-29 北京中星微电子有限公司 一种视频数据流的传输方法及装置
GB0715281D0 (en) * 2007-08-07 2007-09-12 Nokia Siemens Networks Oy Reduced transmission time interval
US7826360B1 (en) 2007-08-27 2010-11-02 Marvell International Ltd. Adjusting transmission rates during packet expansion using in band signaling
JP4410277B2 (ja) * 2007-08-28 2010-02-03 富士通株式会社 半導体装置、および半導体装置の制御方法
KR100916469B1 (ko) 2007-08-29 2009-09-08 엘지이노텍 주식회사 미디어 장치 및 그 제어방법
US9521186B2 (en) 2007-09-13 2016-12-13 International Business Machines Corporation Method and system for file transfer over a messaging infrastructure
CA2698328A1 (en) * 2007-10-02 2009-04-09 Nokia Corporation Ip mtu control based on multiradio schedule
CN101816206B (zh) * 2007-10-04 2014-10-08 Lm爱立信电话有限公司 针对服务gprs支持节点使用电路交换承载的系统间切换
KR100918961B1 (ko) 2007-10-09 2009-09-25 강릉원주대학교산학협력단 무선 통신망에서 동적 영역 압축 및 ncb 결정방법
KR101422012B1 (ko) * 2007-10-19 2014-07-23 엘지전자 주식회사 제어채널 생성 방법, 제어채널 복호화 방법, 이를 구현하는기지국 및 단말
US8797850B2 (en) * 2008-01-10 2014-08-05 Qualcomm Incorporated System and method to adapt to network congestion
US9705935B2 (en) * 2008-01-14 2017-07-11 Qualcomm Incorporated Efficient interworking between circuit-switched and packet-switched multimedia services
US20090185534A1 (en) * 2008-01-18 2009-07-23 Futurewei Technologies, Inc. Method and Apparatus for Transmitting a Packet Header
US9357233B2 (en) * 2008-02-26 2016-05-31 Qualcomm Incorporated Video decoder error handling
JP5115802B2 (ja) * 2008-03-11 2013-01-09 富士通株式会社 スケジューリング装置、スケジューリング方法、およびプログラム
CN101257366B (zh) * 2008-03-27 2010-09-22 华为技术有限公司 编解码方法、通讯系统及设备
US20090268732A1 (en) * 2008-04-29 2009-10-29 Thomson Licencing Channel change tracking metric in multicast groups
RU2010150108A (ru) * 2008-05-07 2012-06-20 Диджитал Фаунтин, Инк. (Us) Быстрое переключение канала и защита потоковой передачи высокого качества по широковещательному каналу
US8819749B2 (en) * 2008-06-11 2014-08-26 Koninklijke Philips B.V. Synchronization of media stream components
US20100003928A1 (en) * 2008-07-01 2010-01-07 Motorola, Inc. Method and apparatus for header compression for cdma evdo systems
US20100027524A1 (en) * 2008-07-31 2010-02-04 Nokia Corporation Radio layer emulation of real time protocol sequence number and timestamp
JP2010081212A (ja) * 2008-09-25 2010-04-08 Mitsubishi Electric Corp 音声伝送装置
JP5135147B2 (ja) * 2008-09-29 2013-01-30 富士フイルム株式会社 動画ファイル送信サーバおよびその動作制御方法
US8966543B2 (en) * 2008-09-29 2015-02-24 Nokia Corporation Method and system to enable adaptation between physical bearers and OMA-BCAST
EP2356817B1 (en) * 2008-12-08 2017-04-12 Telefonaktiebolaget LM Ericsson (publ) Device and method for synchronizing received audio data with video data
US8204038B2 (en) * 2009-01-13 2012-06-19 Mediatek Inc. Method for efficient utilization of radio resources in wireless communications system
JP4650573B2 (ja) 2009-01-22 2011-03-16 ソニー株式会社 通信装置、通信システム、プログラム、および通信方法
US8560718B2 (en) 2009-03-03 2013-10-15 Ronald R. Davenport, JR. Wired Internet network system for the Internet video streams of radio stations
US8958475B2 (en) * 2009-07-02 2015-02-17 Qualcomm Incorporated Transmitter quieting and null data encoding
US8902995B2 (en) * 2009-07-02 2014-12-02 Qualcomm Incorporated Transmitter quieting and reduced rate encoding
US9112618B2 (en) 2009-07-02 2015-08-18 Qualcomm Incorporated Coding latency reductions during transmitter quieting
KR101669533B1 (ko) * 2009-07-06 2016-10-26 삼성전자주식회사 무선통신 시스템에서 매체 접속 제어 계층 패킷을 구성하는 방법 및 시스템
EP2460104A4 (en) 2009-07-27 2016-10-05 Ibm METHOD AND SYSTEM FOR TRANSFORMING LOGICAL DATA OBJECTS FOR STORAGE USE
CN101998508B (zh) * 2009-08-14 2013-08-28 华为技术有限公司 数据封装方法及装置
WO2011027936A1 (ko) * 2009-09-03 2011-03-10 에스케이 텔레콤주식회사 근거리 무선통신 기반 프로토콜의 상위에 탑재되는 전송계층의 헤더정보를 압축 및 해제하기 위한 시스템 및 방법, 그리고 이에 적용되는 장치
EP2302845B1 (en) 2009-09-23 2012-06-20 Google, Inc. Method and device for determining a jitter buffer level
EP2509359A4 (en) * 2009-12-01 2014-03-05 Samsung Electronics Co Ltd METHOD AND APPARATUS FOR TRANSMITTING A MULTIMEDIA DATA PACKET USING LAYER OPTIMIZATION
US8780720B2 (en) 2010-01-11 2014-07-15 Venturi Ip Llc Radio access network load and condition aware traffic shaping control
US20110182257A1 (en) * 2010-01-26 2011-07-28 Qualcomm Incorporated White space spectrum commmunciation device with multiplexing capabilties
KR20110090596A (ko) * 2010-02-04 2011-08-10 삼성전자주식회사 지터 보정 방법 및 장치
EP2362653A1 (en) 2010-02-26 2011-08-31 Panasonic Corporation Transport stream packet header compression
CN101877643B (zh) * 2010-06-29 2014-12-10 中兴通讯股份有限公司 多点混音远景呈现方法、装置及系统
US8630412B2 (en) 2010-08-25 2014-01-14 Motorola Mobility Llc Transport of partially encrypted media
US8477050B1 (en) 2010-09-16 2013-07-02 Google Inc. Apparatus and method for encoding using signal fragments for redundant transmission of data
US20120243602A1 (en) * 2010-09-23 2012-09-27 Qualcomm Incorporated Method and apparatus for pipelined slicing for wireless display
US8736700B2 (en) * 2010-09-30 2014-05-27 Apple Inc. Techniques for synchronizing audio and video data in an image signal processing system
US8595374B2 (en) * 2010-12-08 2013-11-26 At&T Intellectual Property I, L.P. Method and apparatus for capacity dimensioning in a communication network
WO2012086632A1 (ja) * 2010-12-20 2012-06-28 ヤマハ株式会社 無線オーディオ伝送方法
JP5847846B2 (ja) * 2011-01-21 2016-01-27 クゥアルコム・インコーポレイテッドQualcomm Incorporated ワイヤレスディスプレイのためのユーザ入力バックチャネル
US9413803B2 (en) 2011-01-21 2016-08-09 Qualcomm Incorporated User input back channel for wireless displays
US9787725B2 (en) 2011-01-21 2017-10-10 Qualcomm Incorporated User input back channel for wireless displays
US10135900B2 (en) 2011-01-21 2018-11-20 Qualcomm Incorporated User input back channel for wireless displays
US9582239B2 (en) 2011-01-21 2017-02-28 Qualcomm Incorporated User input back channel for wireless displays
US8964783B2 (en) * 2011-01-21 2015-02-24 Qualcomm Incorporated User input back channel for wireless displays
US20130022032A1 (en) * 2011-01-26 2013-01-24 Qualcomm Incorporated Systems and methods for communicating in a network
US8838680B1 (en) 2011-02-08 2014-09-16 Google Inc. Buffer objects for web-based configurable pipeline media processing
EP2490447A1 (en) * 2011-02-16 2012-08-22 British Telecommunications Public Limited Company Compact cumulative bit curves
JP2012222530A (ja) * 2011-04-06 2012-11-12 Sony Corp 受信装置及び方法、並びにプログラム
US8831108B2 (en) * 2011-05-04 2014-09-09 Cavium, Inc. Low latency rate control system and method
EP2547062B1 (en) * 2011-07-14 2016-03-16 Nxp B.V. Media streaming with adaptation
CN102325261A (zh) * 2011-09-14 2012-01-18 上海交通大学 立体视频采集合成系统的视间视频数据消抖同步方法
CN102521294A (zh) * 2011-11-30 2012-06-27 苏州奇可思信息科技有限公司 基于音频触发式课件的远程教育授课方法
US20130155918A1 (en) * 2011-12-20 2013-06-20 Nokia Siemens Networks Oy Techniques To Enhance Header Compression Efficiency And Enhance Mobile Node Security
CN103179094B (zh) * 2011-12-22 2019-10-01 南京中兴软件有限责任公司 Ip报文头的发送、接收方法、发送装置以及接收装置
CN103179449B (zh) * 2011-12-23 2016-03-02 联想(北京)有限公司 媒体文件的播放方法、电子设备和虚拟机架构
US8687654B1 (en) * 2012-01-05 2014-04-01 Google Inc. Method to packetize an encoded video frame
GB2498992B (en) * 2012-02-02 2015-08-26 Canon Kk Method and system for transmitting video frame data to reduce slice error rate
US20130223412A1 (en) * 2012-02-24 2013-08-29 Qualcomm Incorporated Method and system to improve frame early termination success rate
EP2648418A1 (en) * 2012-04-05 2013-10-09 Thomson Licensing Synchronization of multimedia streams
US9098596B2 (en) * 2012-04-10 2015-08-04 Cable Television Laboratories, Inc. Redirecting web content
US9204095B2 (en) * 2012-05-04 2015-12-01 Hong Jiang Instant communications system having established communication channels between communication devices
CN102665140B (zh) * 2012-05-16 2014-04-09 哈尔滨工业大学深圳研究生院 一种avs视频帧的rtp封装方法
CN103428523B (zh) * 2012-05-22 2015-07-08 华为技术有限公司 评估视频质量的方法和装置
US8953882B2 (en) 2012-05-31 2015-02-10 Apple Inc. Systems and methods for determining noise statistics of image data
US9031319B2 (en) 2012-05-31 2015-05-12 Apple Inc. Systems and methods for luma sharpening
US9142012B2 (en) 2012-05-31 2015-09-22 Apple Inc. Systems and methods for chroma noise reduction
US9014504B2 (en) 2012-05-31 2015-04-21 Apple Inc. Systems and methods for highlight recovery in an image signal processor
US9105078B2 (en) 2012-05-31 2015-08-11 Apple Inc. Systems and methods for local tone mapping
US11089247B2 (en) 2012-05-31 2021-08-10 Apple Inc. Systems and method for reducing fixed pattern noise in image data
US9743057B2 (en) 2012-05-31 2017-08-22 Apple Inc. Systems and methods for lens shading correction
US9332239B2 (en) 2012-05-31 2016-05-03 Apple Inc. Systems and methods for RGB image processing
US9025867B2 (en) 2012-05-31 2015-05-05 Apple Inc. Systems and methods for YCC image processing
US9077943B2 (en) 2012-05-31 2015-07-07 Apple Inc. Local image statistics collection
US8872946B2 (en) 2012-05-31 2014-10-28 Apple Inc. Systems and methods for raw image processing
US8917336B2 (en) 2012-05-31 2014-12-23 Apple Inc. Image signal processing involving geometric distortion correction
US8817120B2 (en) 2012-05-31 2014-08-26 Apple Inc. Systems and methods for collecting fixed pattern noise statistics of image data
US8863307B2 (en) 2012-06-05 2014-10-14 Broadcom Corporation Authenticating users based upon an identity footprint
TWI513320B (zh) * 2012-06-25 2015-12-11 Hon Hai Prec Ind Co Ltd 視訊會議裝置及其唇形同步的方法
WO2014006837A1 (ja) * 2012-07-05 2014-01-09 パナソニック株式会社 符号化・復号化システム、復号化装置、符号化装置、及び符号化・復号化方法
US9668161B2 (en) * 2012-07-09 2017-05-30 Cisco Technology, Inc. System and method associated with a service flow router
KR101947000B1 (ko) * 2012-07-17 2019-02-13 삼성전자주식회사 방송 시스템에서 멀티미디어 데이터의 전송 특징 정보 전달 방법 및 장치
US20140142955A1 (en) * 2012-11-19 2014-05-22 Apple Inc. Encoding Digital Media for Fast Start on Digital Media Players
US20140192200A1 (en) * 2013-01-08 2014-07-10 Hii Media Llc Media streams synchronization
US20140310735A1 (en) * 2013-04-12 2014-10-16 Codemate A/S Flat rate billing of content distribution
US9532043B2 (en) 2013-08-02 2016-12-27 Blackberry Limited Wireless transmission of real-time media
FR3011155A1 (fr) * 2013-09-26 2015-03-27 Orange Procedes de synchronisation, de generation d'un flux, programmes d'ordinateur, media de stockage, dispositifs de restitution, d'execution et de generation correspondants.
US20150195326A1 (en) * 2014-01-03 2015-07-09 Qualcomm Incorporated Detecting whether header compression is being used for a first stream based upon a delay disparity between the first stream and a second stream
US9282171B2 (en) * 2014-03-06 2016-03-08 Qualcomm Incorporated Context establishment in marginal grant conditions
US9369724B2 (en) * 2014-03-31 2016-06-14 Microsoft Technology Licensing, Llc Decoding and synthesizing frames for incomplete video data
US9801198B2 (en) 2014-05-22 2017-10-24 Kyocera Corporation Unlicensed frequency band with licensed frequency band timing
CN103986941A (zh) * 2014-05-28 2014-08-13 深圳市智英实业发展有限公司 一种无线音视频传输系统
EP3016432B1 (en) * 2014-10-30 2018-07-04 Vodafone IP Licensing limited Content compression in mobile network
US10129839B2 (en) * 2014-12-05 2018-11-13 Qualcomm Incorporated Techniques for synchronizing timing of wireless streaming transmissions to multiple sink devices
KR102349450B1 (ko) * 2014-12-08 2022-01-10 삼성전자주식회사 무결성 검사 데이터 제공 방법 및 장치
US9692709B2 (en) 2015-06-04 2017-06-27 Oracle International Corporation Playout buffering of encapsulated media
KR102402881B1 (ko) 2015-06-05 2022-05-27 한화테크윈 주식회사 감시 시스템
US9929879B2 (en) 2015-06-09 2018-03-27 Oracle International Corporation Multipath support of real-time communications
CN104980955A (zh) * 2015-06-19 2015-10-14 重庆市音乐一号科技有限公司 一种改善Wi-Fi Display传输速度的方法
WO2017008263A1 (en) * 2015-07-15 2017-01-19 Mediatek Singapore Pte. Ltd. Conditional binary tree block partitioning structure
CN105245273B (zh) * 2015-08-27 2017-12-12 桂林理工大学 一种照度均衡的rs232与vlc通信协议转换方法
WO2017071730A1 (en) * 2015-10-26 2017-05-04 Telefonaktiebolaget Lm Ericsson (Publ) Length control for packet header sampling
GB201519090D0 (en) * 2015-10-28 2015-12-09 Microsoft Technology Licensing Llc Multiplexing data
WO2017074811A1 (en) * 2015-10-28 2017-05-04 Microsoft Technology Licensing, Llc Multiplexing data
CN106817350A (zh) * 2015-11-30 2017-06-09 中兴通讯股份有限公司 报文处理方法及装置
US11924826B2 (en) 2015-12-10 2024-03-05 Qualcomm Incorporated Flexible transmission unit and acknowledgment feedback timeline for efficient low latency communication
US10332534B2 (en) * 2016-01-07 2019-06-25 Microsoft Technology Licensing, Llc Encoding an audio stream
KR101700370B1 (ko) * 2016-06-08 2017-01-26 삼성전자주식회사 지터 보정 방법 및 장치
KR102497216B1 (ko) * 2017-05-10 2023-02-07 삼성전자 주식회사 슬라이스 기반의 압축을 수행하는 영상 처리 장치 및 영상 처리 방법
US10367750B2 (en) * 2017-06-15 2019-07-30 Mellanox Technologies, Ltd. Transmission and reception of raw video using scalable frame rate
GB2564644B (en) * 2017-07-12 2020-12-16 Canon Kk Method and system of encoding a data stream according to a variable bitrate mode
WO2019037121A1 (en) * 2017-08-25 2019-02-28 SZ DJI Technology Co., Ltd. SYSTEMS AND METHODS FOR SYNCHRONIZING SYNCHRONIZATION OF FRAMES BETWEEN A PHYSICAL LAYER FRAME AND A VIDEO FRAME
EP3493535B1 (en) * 2017-11-29 2020-09-09 Mitsubishi Electric R & D Centre Europe B.V. Method for controlling a video encoder of a video camera installed on a moving conveyance
EP3902294A4 (en) 2017-12-13 2022-09-14 Fiorentino, Ramon INTERCONNECTED SYSTEM FOR THE WIRELESS TRANSMISSION OF HIGH QUALITY AUDIO AND VIDEO SIGNALS BETWEEN CONSUMER ELECTRONIC DEVICES
US10437745B2 (en) * 2018-01-05 2019-10-08 Denso International America, Inc. Mobile de-whitening
US10608947B2 (en) * 2018-02-26 2020-03-31 Qualcomm Incorporated Per-flow jumbo MTU in NR systems
KR102011806B1 (ko) * 2018-04-12 2019-08-19 주식회사 넷커스터마이즈 Udt 기반 트래픽 가속 방법
DE102018212655A1 (de) * 2018-07-30 2020-01-30 Conti Temic Microelectronic Gmbh Erkennung der Bewegungsabsicht eines Fußgängers aus Kamerabildern
US10834296B2 (en) * 2018-09-12 2020-11-10 Roku, Inc. Dynamically adjusting video to improve synchronization with audio
CN109618240A (zh) * 2018-10-26 2019-04-12 安徽清新互联信息科技有限公司 用于实时音视频传输的无线多信道自适应均衡方法
EP4029280A1 (en) * 2019-09-10 2022-07-20 Sonos, Inc. Synchronizing playback of audio information received from other networks
CN111064541B (zh) * 2019-12-18 2021-05-11 中国南方电网有限责任公司超高压输电公司 一种高低速数据传输通道复用的方法
CN111131917B (zh) * 2019-12-26 2021-12-28 国微集团(深圳)有限公司 音频频谱实时同步方法、播放装置
CN111866753B (zh) * 2020-06-02 2021-06-29 中山大学 一种数字传输广播通信方法及系统
WO2021252548A1 (en) * 2020-06-08 2021-12-16 Sky Peak Technologies, Inc. Content shaping and routing in a network
KR102408433B1 (ko) * 2021-07-27 2022-06-10 한국항공우주연구원 다중 데이터 전송 방법 및 시스템
CN115484239B (zh) * 2022-09-15 2023-10-27 北京百度网讯科技有限公司 多媒体数据流的处理方法、装置、电子设备及存储介质

Family Cites Families (129)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4948019A (en) 1989-03-31 1990-08-14 Rodum Roland K Collapsible clothes hanger
JP2712656B2 (ja) * 1989-10-25 1998-02-16 日本電気ホームエレクトロニクス株式会社 Cd―rom記録方法
AU2908492A (en) 1991-10-22 1993-05-21 Cae, Inc. Synchronous parallel electronic timing generator
EP0614317A3 (en) 1993-03-05 1995-01-25 Sony Corp Decoding video signals.
JP3364281B2 (ja) * 1993-07-16 2003-01-08 パイオニア株式会社 時分割ビデオ及びオーディオ信号の同期方式
JP3003839B2 (ja) * 1993-11-08 2000-01-31 エヌ・ティ・ティ移動通信網株式会社 Cdma通信方法および装置
US5541852A (en) * 1994-04-14 1996-07-30 Motorola, Inc. Device, method and system for variable bit-rate packet video communications
US5583652A (en) * 1994-04-28 1996-12-10 International Business Machines Corporation Synchronized, variable-speed playback of digitally recorded audio and video
US5510842A (en) 1994-05-04 1996-04-23 Matsushita Electric Corporation Of America Parallel architecture for a high definition television video decoder having multiple independent frame memories
US5646693A (en) 1994-11-04 1997-07-08 Cismas; Sorin Memory utilization for video decoding and display with 3:2 pull-down
KR0137701B1 (ko) * 1994-12-13 1998-05-15 양승택 엠피이지-2(mpeg-2) 시스템의 피이에스(pes) 패킷화 장치
FI114178B (fi) * 1995-01-09 2004-08-31 Nokia Corp Radiokapasiteetin dynaaminen jakaminen TDMA-järjestelmässä
EP0735776B1 (en) * 1995-03-29 2004-01-28 Hitachi, Ltd. Decoder for compressed and multiplexed video and audio data
US5914717A (en) 1995-07-21 1999-06-22 Microsoft Methods and system for providing fly out menus
KR0164184B1 (ko) 1995-08-31 1999-01-15 배순훈 동영상 압축디스크의 엔코딩제어장치
US5844600A (en) * 1995-09-15 1998-12-01 General Datacomm, Inc. Methods, apparatus, and systems for transporting multimedia conference data streams through a transport network
KR970012585U (ko) 1995-09-21 1997-04-25 자동차용 선바이저
US6058141A (en) * 1995-09-28 2000-05-02 Digital Bitcasting Corporation Varied frame rate video
IT1281001B1 (it) * 1995-10-27 1998-02-11 Cselt Centro Studi Lab Telecom Procedimento e apparecchiatura per codificare, manipolare e decodificare segnali audio.
US5570372A (en) 1995-11-08 1996-10-29 Siemens Rolm Communications Inc. Multimedia communications with system-dependent adaptive delays
US5717464A (en) 1995-12-18 1998-02-10 Divicom, Inc. Rate control for a video encoder
IL117133A (en) * 1996-02-14 1999-07-14 Olivr Corp Ltd Method and system for providing on-line virtual reality movies
JPH09312656A (ja) * 1996-03-21 1997-12-02 Sony Corp 伝送装置およびその方法
US5867230A (en) 1996-09-06 1999-02-02 Motorola Inc. System, device, and method for streaming a multimedia file encoded at a variable bitrate
US6041067A (en) * 1996-10-04 2000-03-21 Matsushita Electric Industrial Co., Ltd. Device for synchronizing data processing
US6473404B1 (en) 1998-11-24 2002-10-29 Connect One, Inc. Multi-protocol telecommunications routing optimization
KR100204043B1 (ko) * 1996-11-28 1999-06-15 정선종 분산처리환경 상에서 오디오/비디오 데이타 전송을 위한 스트림 채널 형성방법
DE19652708C2 (de) * 1996-12-18 1999-08-12 Schott Glas Verfahren zum Herstellen eines befüllten Kunststoff-Spritzenkorpus für medizinische Zwecke
US6154780A (en) 1996-12-18 2000-11-28 Intel Corporation Method and apparatus for transmission of a flexible and error resilient video bitstream
EP0861001B1 (en) 1997-02-07 2012-05-23 Texas Instruments Incorporated Error resilient video encoding
KR100223298B1 (ko) * 1997-02-12 1999-10-15 서평원 광대역 종합 정보 통신망의 터미널 정합 장치
US6542481B2 (en) 1998-06-01 2003-04-01 Tantivy Communications, Inc. Dynamic bandwidth allocation for multiple access communication using session queues
US6181711B1 (en) 1997-06-26 2001-01-30 Cisco Systems, Inc. System and method for transporting a compressed video and data bit stream over a communication channel
US6577610B1 (en) 1997-06-30 2003-06-10 Spacenet, Inc. Flex slotted Aloha transmission system and method
US5913190A (en) 1997-10-17 1999-06-15 Dolby Laboratories Licensing Corporation Frame-based audio coding with video/audio data synchronization by audio sample rate conversion
US6124895A (en) 1997-10-17 2000-09-26 Dolby Laboratories Licensing Corporation Frame-based audio coding with video/audio data synchronization by dynamic audio frame alignment
JP3407287B2 (ja) * 1997-12-22 2003-05-19 日本電気株式会社 符号化復号システム
DE69907158D1 (de) * 1998-02-27 2003-05-28 Ridgeway Systems And Software Ton und video paketsynchronisierung in einer netzwerkdurchschaltvermittlung
US6192257B1 (en) 1998-03-31 2001-02-20 Lucent Technologies Inc. Wireless communication terminal having video image capability
JPH11298878A (ja) 1998-04-08 1999-10-29 Nec Corp 画像スクランブル方法およびそれを実施する装置
US6215789B1 (en) 1998-06-10 2001-04-10 Merlot Communications Local area network for the transmission and control of audio, video, and computer data
FI106832B (fi) * 1998-06-10 2001-04-12 Nokia Networks Oy Suurinopeuksinen datasiirto matkaviestinjärjestelmässä
US6085270A (en) 1998-06-17 2000-07-04 Advanced Micro Devices, Inc. Multi-channel, multi-rate isochronous data bus
US6496504B1 (en) 1998-08-06 2002-12-17 Ricoh Company, Ltd. Smart allocation of bandwidth for multiple independent calls on a digital network
US6728263B2 (en) * 1998-08-18 2004-04-27 Microsoft Corporation Dynamic sizing of data packets
US6295453B1 (en) 1998-10-07 2001-09-25 Telefonaktiebolaget Lm Ericsson (Publ) Multi-full rate channel assignment for a cellular telephone system
JP2000175189A (ja) * 1998-12-07 2000-06-23 Univ Tokyo 動画符号化方法およびそれに用いる動画符号化装置
JP3454175B2 (ja) 1998-12-24 2003-10-06 日本ビクター株式会社 画像情報送出装置
FI106998B (fi) * 1999-01-15 2001-05-15 Nokia Mobile Phones Ltd Bittinopeuden ohjaus multimedialaitteessa
US7016337B1 (en) 1999-03-02 2006-03-21 Cisco Technology, Inc. System and method for multiple channel statistical re-multiplexing
US6473442B1 (en) 1999-04-12 2002-10-29 Telefonaktiebolaget Lm Ericsson (Publ) Communications system and method for matching and balancing the bit rates of transport channels to the bit rate of a physical channel
KR100335441B1 (ko) 1999-05-01 2002-05-04 윤종용 다중 비디오 디코딩 장치 및 그 방법
KR100352981B1 (ko) 1999-05-21 2002-09-18 유혁 엠펙-1 데이터 전송 장치 및 그 방법
KR100608042B1 (ko) 1999-06-12 2006-08-02 삼성전자주식회사 멀티 미디어 데이터의 무선 송수신을 위한 인코딩 방법 및그 장치
US6262829B1 (en) 1999-07-29 2001-07-17 Hewlett-Packard Co. Method of digital grayscale control using modulation of a slow-acting light source
US6680955B1 (en) 1999-08-20 2004-01-20 Nokia Networks Oy Technique for compressing a header field in a data packet
FI107680B (fi) 1999-12-22 2001-09-14 Nokia Oyj Menetelmä videokuvien lähettämiseksi, tiedonsiirtojärjestelmä, lähettävä videopäätelaite ja vastaanottava videopäätelaite
CA2581751C (en) * 2000-01-14 2013-06-04 Interdigital Technology Corporation Wireless communication system with selectively sized data transport blocks
GB0000873D0 (en) 2000-01-14 2000-03-08 Koninkl Philips Electronics Nv Interconnection of audio/video devices
US6996069B2 (en) * 2000-02-22 2006-02-07 Qualcomm, Incorporated Method and apparatus for controlling transmit power of multiple channels in a CDMA communication system
JP2001245268A (ja) 2000-02-29 2001-09-07 Toshiba Corp コンテンツ伝送システム及びコンテンツ処理装置
EP1146713B1 (en) * 2000-03-03 2005-04-27 NTT DoCoMo, Inc. Method and apparatus for packet transmission with header compression
US6993009B2 (en) * 2000-03-10 2006-01-31 Hughes Electronics Corporation Method and apparatus for deriving uplink timing from asynchronous traffic across multiple transport streams
KR100796085B1 (ko) 2000-04-14 2008-01-21 소니 가부시끼 가이샤 복호 장치, 복호 방법, 및 기록 매체
US7680912B1 (en) 2000-05-18 2010-03-16 thePlatform, Inc. System and method for managing and provisioning streamed data
US6535043B2 (en) * 2000-05-26 2003-03-18 Lattice Semiconductor Corp Clock signal selection system, method of generating a clock signal and programmable clock manager including same
US7292772B2 (en) 2000-05-29 2007-11-06 Sony Corporation Method and apparatus for decoding and recording medium for a coded video stream
US7274679B2 (en) * 2000-06-22 2007-09-25 Mati Amit Scalable virtual channel
US7149549B1 (en) 2000-10-26 2006-12-12 Ortiz Luis M Providing multiple perspectives for a venue activity through an electronic hand held device
US6529527B1 (en) 2000-07-07 2003-03-04 Qualcomm, Inc. Method and apparatus for carrying packetized voice and data in wireless communication networks
JP4337244B2 (ja) 2000-07-25 2009-09-30 ソニー株式会社 Mpeg画像ストリームのデコード装置およびデコード方法
WO2002015591A1 (en) * 2000-08-16 2002-02-21 Koninklijke Philips Electronics N.V. Method of playing multimedia data
KR20020039693A (ko) 2000-08-16 2002-05-27 요트.게.아. 롤페즈 멀티미디어 애플리케이션 재생 방법
ATE343278T1 (de) 2000-08-23 2006-11-15 Koninkl Philips Electronics Nv Kommunikationssystem und -vorrichtung
SE517245C2 (sv) * 2000-09-14 2002-05-14 Ericsson Telefon Ab L M Synkronisering av audio- och videosignaler
US6747964B1 (en) * 2000-09-15 2004-06-08 Qualcomm Incorporated Method and apparatus for high data rate transmission in a wireless communication system
KR20020043139A (ko) 2000-12-01 2002-06-08 윤종용 이동통신시스템에서 고속 데이터 서비스를 위한 스케쥴링방법
US6920118B2 (en) 2000-12-20 2005-07-19 Lucent Technologies Inc. Method and apparatus for communicating heterogeneous data traffic
US6904059B1 (en) * 2001-03-06 2005-06-07 Microsoft Corporation Adaptive queuing
US6859500B2 (en) * 2001-03-20 2005-02-22 Telefonaktiebolaget Lm Ericsson Run-length coding of non-coded macroblocks
US20030016702A1 (en) 2001-03-30 2003-01-23 Bender Paul E. Method and system for maximizing standby time in monitoring a control channel
WO2002085030A1 (en) * 2001-04-11 2002-10-24 Cyber Operations, Llc System and method for preconditioning analog video signals
WO2002087212A2 (en) * 2001-04-20 2002-10-31 France Telecom Research And Development L.L.C. Replacing commercials according to location and time
US7230941B2 (en) * 2001-04-26 2007-06-12 Qualcomm Incorporated Preamble channel decoding
US20020194606A1 (en) * 2001-06-14 2002-12-19 Michael Tucker System and method of communication between videoconferencing systems and computer systems
JP2003046949A (ja) * 2001-07-30 2003-02-14 Hitachi Ltd データ多重化方法、データ記録媒体、データ記録装置及びデータ記録プログラム
JP4647149B2 (ja) * 2001-08-06 2011-03-09 独立行政法人情報通信研究機構 トランスポートストリームの送信装置および受信装置
US7327789B2 (en) 2001-08-06 2008-02-05 Matsushita Electric Industrial Co., Ltd. Decoding apparatus, decoding method, decoding program, and decoding program storage medium
KR100885904B1 (ko) * 2001-08-10 2009-02-26 가부시키가이샤 한도오따이 에네루기 켄큐쇼 레이저 어닐링장치 및 반도체장치의 제작방법
US20080002669A1 (en) * 2001-09-14 2008-01-03 O'brien Ray Packet voice gateway
US7336680B2 (en) * 2001-09-18 2008-02-26 Scientific-Atlanta, Inc. Multi-carrier frequency-division multiplexing (FDM) architecture for high speed digital service
US6968091B2 (en) * 2001-09-18 2005-11-22 Emc Corporation Insertion of noise for reduction in the number of bits for variable-length coding of (run, level) pairs
US7075946B2 (en) 2001-10-02 2006-07-11 Xm Satellite Radio, Inc. Method and apparatus for audio output combining
WO2003041326A2 (en) * 2001-11-09 2003-05-15 Matsushita Electric Industrial Co., Ltd. Moving picture coding method and apparatus
US7453843B2 (en) * 2001-12-11 2008-11-18 Texas Instruments Incorporated Wireless bandwidth aggregator
US7292690B2 (en) 2002-01-02 2007-11-06 Sony Corporation Video scene change detection
DE10300048B4 (de) 2002-01-05 2005-05-12 Samsung Electronics Co., Ltd., Suwon Verfahren und Vorrichtung zur Bildcodierung und -decodierung
US7130313B2 (en) 2002-02-14 2006-10-31 Nokia Corporation Time-slice signaling for broadband digital broadcasting
US7596179B2 (en) 2002-02-27 2009-09-29 Hewlett-Packard Development Company, L.P. Reducing the resolution of media data
FI114679B (fi) 2002-04-29 2004-11-30 Nokia Corp Satunnaisaloituspisteet videokoodauksessa
FR2839407B1 (fr) 2002-05-02 2004-12-17 Canon Kk Procede et dispositif d'ajustement de la taille maximale des sequences d'information transmises dans un reseau de telecommunications
US8699505B2 (en) * 2002-05-31 2014-04-15 Qualcomm Incorporated Dynamic channelization code allocation
US20030224806A1 (en) 2002-06-03 2003-12-04 Igal Hebron System and method for network data quality measurement
US6956875B2 (en) 2002-06-19 2005-10-18 Atlinks Usa, Inc. Technique for communicating variable bit rate data over a constant bit rate link
US7486678B1 (en) 2002-07-03 2009-02-03 Greenfield Networks Multi-slice network processor
EP1532540A4 (en) 2002-07-16 2010-06-02 Nokia Corp METHOD FOR ENHANCING PACKET TRANSFER DELAY COMPENSATION IN MULTIMEDIA STR MEN
CN1221132C (zh) * 2002-07-30 2005-09-28 华为技术有限公司 实现多种视音频流格式转换的装置和方法
US7567509B2 (en) 2002-09-13 2009-07-28 Dialogic Corporation Methods and systems for jitter minimization in streaming media
TW569556B (en) 2002-10-04 2004-01-01 Avid Electronics Corp Adaptive differential pulse-code modulation compression encoding/decoding method capable of fast recovery and apparatus thereof
US7191384B2 (en) * 2002-10-17 2007-03-13 Qualcomm Incorporated Method and apparatus for transmitting and receiving a block of data in a communication system
US7068708B2 (en) * 2002-12-13 2006-06-27 Motorola, Inc. Method and receiving unit for demodulating a multi-path signal
JP2004226272A (ja) 2003-01-23 2004-08-12 Seiko Epson Corp シミ欠陥の検出方法及び装置
CN1759552B (zh) 2003-03-10 2012-06-13 松下电器产业株式会社 Ofdm信号的发送方法、发送装置和接收装置
US7535876B2 (en) 2003-04-01 2009-05-19 Alcatel-Lucent Usa Inc. Method of flow control for HSDPA and HSUPA
US7400889B2 (en) 2003-04-01 2008-07-15 Telefonaktiebolaget Lm Ericsson (Publ) Scalable quality broadcast service in a mobile wireless communication network
JP2006524856A (ja) * 2003-04-14 2006-11-02 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 自動ダビングをオーディオ・ビジュアル・ストリームに対して行うシステム及び方法
US7391717B2 (en) * 2003-06-30 2008-06-24 Microsoft Corporation Streaming of variable bit rate multimedia content
KR100651566B1 (ko) * 2003-08-26 2006-11-28 삼성전자주식회사 이동통신 단말기에서 출력 버퍼링을 이용한 멀티미디어재생 장치 및 그 제어 방법
WO2005025224A1 (ja) * 2003-09-02 2005-03-17 Sony Corporation コンテンツ受信装置、ビデオオーディオ出力タイミング制御方法及びコンテンツ提供システム
US9351013B2 (en) 2003-11-13 2016-05-24 Qualcomm Incorporated Selective and/or scalable complexity control for video codecs
US20050138251A1 (en) 2003-12-18 2005-06-23 Fanning Blaise B. Arbitration of asynchronous and isochronous requests
US20050172154A1 (en) 2004-01-29 2005-08-04 Chaoticom, Inc. Systems and methods for providing digital content and caller alerts to wireless network-enabled devices
US7599435B2 (en) 2004-01-30 2009-10-06 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Video frame encoding and decoding
US7558221B2 (en) 2004-02-13 2009-07-07 Seiko Epson Corporation Method and system for recording videoconference data
US7586882B2 (en) * 2004-03-19 2009-09-08 Telefonaktiebolaget Lm Ericsson (Publ) Higher layer packet framing using RLP
US7530089B1 (en) 2004-03-29 2009-05-05 Nortel Networks Limited System and method for improving video quality using a constant bit rate data stream
US7865255B2 (en) * 2004-03-31 2011-01-04 Mstar Semiconductor, Inc. Audio buffering system and method of buffering audio in a multimedia receiver
CN100576820C (zh) * 2004-05-07 2009-12-30 艾格瑞系统有限公司 与帧集合一起使用的mac报头压缩
CN102984133B (zh) 2004-05-13 2016-11-23 高通股份有限公司 用于分配信息到通信系统的信道的设备

Also Published As

Publication number Publication date
JP4448171B2 (ja) 2010-04-07
US20150016427A1 (en) 2015-01-15
CA2565977A1 (en) 2005-12-01
CN102984133B (zh) 2016-11-23
CN1985477B (zh) 2012-11-07
EP1751987B1 (en) 2010-10-06
JP2007537683A (ja) 2007-12-20
KR101068055B1 (ko) 2011-09-28
BRPI0510962A (pt) 2007-11-20
CA2811040A1 (en) 2005-12-01
US9674732B2 (en) 2017-06-06
CN102984133A (zh) 2013-03-20
WO2005115009A1 (en) 2005-12-01
US20050259694A1 (en) 2005-11-24
ATE484157T1 (de) 2010-10-15
BRPI0510961A (pt) 2007-11-20
CA2566125C (en) 2012-01-24
ATE508567T1 (de) 2011-05-15
JP2007537682A (ja) 2007-12-20
CA2771943C (en) 2015-02-03
CN1985477A (zh) 2007-06-20
EP1751955B1 (en) 2009-03-25
EP2214412A2 (en) 2010-08-04
WO2005114919A1 (en) 2005-12-01
TW200618544A (en) 2006-06-01
CN1977516B (zh) 2010-12-01
EP2592836A1 (en) 2013-05-15
US10034198B2 (en) 2018-07-24
CN1973515B (zh) 2013-01-09
MXPA06013211A (es) 2007-03-01
ES2354079T3 (es) 2011-03-09
WO2005114950A1 (en) 2005-12-01
CA2566124C (en) 2014-09-30
MY139431A (en) 2009-09-30
EP1757027A1 (en) 2007-02-28
KR100918596B1 (ko) 2009-09-25
JP4361585B2 (ja) 2009-11-11
KR20070013330A (ko) 2007-01-30
CA2771943A1 (en) 2005-12-01
BRPI0510952A (pt) 2007-11-20
US20050259623A1 (en) 2005-11-24
DE602005011611D1 (de) 2009-01-22
TWI394407B (zh) 2013-04-21
JP5356360B2 (ja) 2013-12-04
CA2566126A1 (en) 2005-12-01
KR20080084866A (ko) 2008-09-19
ES2318495T3 (es) 2009-05-01
DE602005023983D1 (de) 2010-11-18
KR100871305B1 (ko) 2008-12-01
DE602005013517D1 (de) 2009-05-07
US20050259613A1 (en) 2005-11-24
BRPI0510953A (pt) 2007-11-20
TW201145943A (en) 2011-12-16
TWI381681B (zh) 2013-01-01
ATE417436T1 (de) 2008-12-15
KR20090039809A (ko) 2009-04-22
US8855059B2 (en) 2014-10-07
EP2182734B1 (en) 2013-12-18
JP2007537681A (ja) 2007-12-20
EP2214412A3 (en) 2012-11-14
WO2005114943A3 (en) 2006-01-19
JP2007537684A (ja) 2007-12-20
EP1751987A1 (en) 2007-02-14
EP1751955A1 (en) 2007-02-14
WO2005114943A2 (en) 2005-12-01
CA2566125A1 (en) 2005-12-01
TW200618564A (en) 2006-06-01
EP1751956A2 (en) 2007-02-14
EP2262304A1 (en) 2010-12-15
MXPA06013210A (es) 2007-02-28
JP4554680B2 (ja) 2010-09-29
EP1751956B1 (en) 2011-05-04
JP2011142616A (ja) 2011-07-21
BRPI0510952B1 (pt) 2019-09-03
KR101049701B1 (ko) 2011-07-15
US20050259690A1 (en) 2005-11-24
CN1977516A (zh) 2007-06-06
EP2182734A1 (en) 2010-05-05
US9717018B2 (en) 2017-07-25
MY141497A (en) 2010-04-30
KR100906586B1 (ko) 2009-07-09
US20140362740A1 (en) 2014-12-11
ATE426988T1 (de) 2009-04-15
EP2262304B1 (en) 2012-08-22
CA2565977C (en) 2013-06-11
CN1969562B (zh) 2011-08-03
DE602005027837D1 (de) 2011-06-16
US8089948B2 (en) 2012-01-03
EP3331246A1 (en) 2018-06-06
KR20070014201A (ko) 2007-01-31
TW200623737A (en) 2006-07-01
EP1757027B1 (en) 2008-12-10
MY142161A (en) 2010-10-15
KR20070023731A (ko) 2007-02-28
TWI353759B (en) 2011-12-01
ES2323011T3 (es) 2009-07-03
MXPA06013193A (es) 2007-02-14
KR20070014200A (ko) 2007-01-31
CN1973515A (zh) 2007-05-30
CN1969562A (zh) 2007-05-23
KR100870215B1 (ko) 2008-11-24
CA2566124A1 (en) 2005-12-01
ES2366192T3 (es) 2011-10-18

Similar Documents

Publication Publication Date Title
EP1751987B1 (en) Synchronization of audio and video data in a wireless communication system
EP1742455A1 (en) Audio communication method and device
KR20050038646A (ko) 멀티미디어 데이터를 스트리밍하는 방법
EP2324635A1 (en) Subdivision of media streams for channel switching
Garudadri et al. Video transport over wireless networks
TWI416900B (zh) 用以配置資訊至一通信系統之通道之方法及裝置

Legal Events

Date Code Title Description
FG Grant or registration