JP2009506611A - Method for signaling a device so that a device performs asynchronous or includes a synchronization delay in a multimedia stream - Google Patents

Method for signaling a device so that a device performs asynchronous or includes a synchronization delay in a multimedia stream Download PDF

Info

Publication number
JP2009506611A
JP2009506611A JP2008527536A JP2008527536A JP2009506611A JP 2009506611 A JP2009506611 A JP 2009506611A JP 2008527536 A JP2008527536 A JP 2008527536A JP 2008527536 A JP2008527536 A JP 2008527536A JP 2009506611 A JP2009506611 A JP 2009506611A
Authority
JP
Japan
Prior art keywords
multimedia streams
receiving device
attribute
jitter
sync
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008527536A
Other languages
Japanese (ja)
Inventor
イゴール ダニーロ ディエゴ クルチオ
ウメッシュ チャンドラ
ダヴィッド レオン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nokia Oyj
Original Assignee
Nokia Oyj
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nokia Oyj filed Critical Nokia Oyj
Publication of JP2009506611A publication Critical patent/JP2009506611A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/1066Session management
    • H04L65/1101Session protocols
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L7/00Arrangements for synchronising receiver with transmitter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04JMULTIPLEX COMMUNICATION
    • H04J3/00Time-division multiplex systems
    • H04J3/02Details
    • H04J3/06Synchronising arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/65Network streaming protocols, e.g. real-time transport protocol [RTP] or real-time control protocol [RTCP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/80Responding to QoS
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4345Extraction or processing of SI, e.g. extracting service information from an MPEG stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/643Communication protocols
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/54Store-and-forward switching systems 
    • H04L12/56Packet switching systems
    • H04L12/5601Transfer mode dependent, e.g. ATM
    • H04L2012/5603Access techniques

Abstract

【課題】伝達電子デバイスが、伝達されているマルチメディア・ストリームにおけるどのストリームを同期するべきでないか、又は指定量の同期ジッタを含むべきかを明白に指示することを許容する改良されたシステム及び方法を提供する。
【解決手段】本発明は、受信デバイスがストリーム特徴を理解するのを援助する。本発明はまた、受信デバイスが、2つ又はそれ以上のストリームを同期するときに、同期ジッタを用いるべきかどうかに関して、充分な情報を得た上で決定できるようにする。単方向ビデオ共有又はビデオPoCといった特定のアプリケーションでは、ストリームの送信デバイスは、より優れたメディア品質のために、受信デバイスが全く同期を実行しないか又は制限された同期を実行することを指示することができる。
【選択図】図1
An improved system that allows a transmitting electronic device to explicitly indicate which streams in a multimedia stream being transmitted should not be synchronized or should include a specified amount of synchronization jitter, and Provide a method.
The present invention assists a receiving device in understanding stream characteristics. The present invention also allows a receiving device to make an informed decision as to whether to use synchronization jitter when synchronizing two or more streams. In certain applications, such as unidirectional video sharing or video PoC, the sending device of the stream instructs the receiving device to perform no or limited synchronization for better media quality. Can do.
[Selection] Figure 1

Description

本発明は、一般に、IPマルチメディア通信の領域に関する。さらに具体的には、本発明は、受信デバイスが、異なるマルチメディア・ストリーム間で、同期を実行しないように、又は、同期ジッタを含むように命令する、マルチメディア通信において用いられる信号通知(シグナリング)機構に関する。   The present invention relates generally to the field of IP multimedia communications. More specifically, the present invention relates to signal notification (signaling) used in multimedia communications, in which the receiving device commands not to perform synchronization between different multimedia streams or includes synchronization jitter. ) Regarding the mechanism.

IPマルチメディア呼出しの設定中に、呼出しの送信デバイス(即ち提供者又は発信者)は、セッション情報を指定する。セッション情報は、メディア及び伝送関連情報を含む。このセッション情報は、Session Description Protocol(SDP)といったプロトコル・メッセージで運ばれる。SDPは、Session Initiation Protocol(SIP)、Real Time Streaming Protocol(RTSP)等の高レベル信号通知プロトコルで運ばれる。第三世代パートナーシップ・プロジェクト(3GPP)は、IPマルチメディア・サブシステム(IMS)に対するマルチメディア・セッション設定のための信号通知プロトコルの選択としてSIPを指定した。   During setup of an IP multimedia call, the sending device (ie, provider or caller) of the call specifies session information. The session information includes media and transmission related information. This session information is carried in a protocol message such as Session Description Protocol (SDP). The SDP is carried by a high-level signal notification protocol such as Session Initiation Protocol (SIP) or Real Time Streaming Protocol (RTSP). The Third Generation Partnership Project (3GPP) has designated SIP as the signaling protocol choice for multimedia session setup for the IP Multimedia Subsystem (IMS).

SDPでは、送信デバイス及び受信デバイスは、メディア・ストリームに対して異なる方向を指定して、異なる種類の適用例を生じさせることができる。例えば、送信デバイスが一方向メディア・セッションを設定することを望む場合には(ビデオを送信し、受信デバイスはこのビデオのみを受け取ることを期待する、ということを意味する)、SDPにおいて、このメディア・ストリームをa=sendonlyとして指定する。受信デバイスは、このSDPメッセージを受信し、このセッションに参加することを望む場合には、ストリームをa=recvonlyと指定することができる。テレビ電話では、送信デバイス及び受信デバイスは両方とも、メディア・ストリームの方向をa=sendrecvと指定する。   In SDP, the sending device and the receiving device can specify different directions for the media stream, resulting in different types of applications. For example, if the sending device wants to set up a one-way media session (meaning that it sends video and the receiving device expects to receive only this video), this media in SDP Specify the stream as a = sendonly. If the receiving device receives this SDP message and wishes to join this session, the receiving device can specify the stream as a = recvonly. In a videophone, both the sending device and the receiving device specify the media stream direction as a = sendrecv.

一般的には、IPマルチメディア呼出しでは、受信デバイス側で、異なるメディアの種類を同期させる必要がある。例えば、オーディオ/ビデオIP呼出しにおいては、良好なユーザ体験のために、受信デバイス側でリップシンクが実行される必要がある。同期の別の例は字幕を用いることを含み、オーディオ及び/又はビデオの送信者が英語で話している場合、及び音声と一緒に、音声のテキストが異なる言語で異なるReal Time Transport Protocol(RTP)により送信される場合には、これら2つのストリームは受信デバイスで同期される必要がある。   In general, IP multimedia calls require that different media types be synchronized on the receiving device side. For example, in audio / video IP calls, lip sync needs to be performed on the receiving device side for a good user experience. Another example of synchronization includes the use of subtitles, and if the audio and / or video sender is speaking in English, and together with the speech, the text of the speech is different in different languages. These two streams need to be synchronized at the receiving device.

(送信デバイス側からの)異なるメディア・ストリームは、異なるRTP/ユーザ・データ・プロトコル(UDP)/インターネット・プロトコル(IP)ストリームで運ばれる。RTPタイムスタンプは受信デバイスのクライアントにより用いられて、メディア間の同期を実行する。   Different media streams (from the sending device side) are carried in different RTP / User Data Protocol (UDP) / Internet Protocol (IP) streams. The RTP time stamp is used by the client of the receiving device to perform synchronization between media.

図1は、送信デバイスからマルチメディア・ストリームを受信する受信デバイスを示す。水平軸は経過時間を表わし、受信されるパケットを示す。図1に示すオーディオ及びビデオ・バッファは、送信デバイスからパケットを受信するときにRTPパケットを保持する。バッファは(ネットワークから)ジッタ除去を実行し、各々のメディアに対して各々のパケットのプレイアウト時間を算出する。パケットが、所与の時間だけバッファに留まると、デコード化が実行される。この時間は一般に可変であり、この時間の一部はジッタと称される。プレイアウト時間に基づいてデコード化が完了すると、パケットは、表示のため又は再生のために与えられる。入ってくるRTPパケットを保持するために、1つはジッタのため、もう1つはキューをデコードするための2つの異なるバッファがあるとすることができることに注目すべきである。明確かつ例示的な目的のために、図1では、1つのキューだけが示され、組み合わされたジッタ及びデコード化バッファが示されている。パケットがデコードされ、プレイアウト時間が経過すると、再生又は表示の準備が整う。しかしながら、受信デバイスがオーディオ/ビデオ同期を実行しようとしている場合には、最初に到達したパケットを遅延させることを試みる。   FIG. 1 shows a receiving device that receives a multimedia stream from a transmitting device. The horizontal axis represents elapsed time and shows the packets received. The audio and video buffer shown in FIG. 1 holds RTP packets when receiving packets from the transmitting device. The buffer performs jitter removal (from the network) and calculates the playout time for each packet for each media. Decoding is performed when the packet remains in the buffer for a given time. This time is generally variable and a portion of this time is referred to as jitter. When decoding is complete based on the playout time, the packet is given for display or playback. It should be noted that there can be two different buffers for decoding incoming queues, one for jitter and another for holding incoming RTP packets. For clear and illustrative purposes, in FIG. 1, only one queue is shown, showing a combined jitter and decoding buffer. When the packet is decoded and the playout time has elapsed, it is ready for playback or display. However, if the receiving device is trying to perform audio / video synchronization, it will attempt to delay the first arrived packet.

図1に示す例では、オーディオ・パケット1はTA1で到達し、ビデオ・パケットはTA1より後の時間であるTV1で到達する。「到達する」という用語は、パケットが到達する時間、又は各々のパケットに対するプレイアウト時間を指すことに注目すべきである。図1の例では、同じ再生時間を有するオーディオ及びビデオ・パケットは、同じ基準クロック取得時間を(送信デバイスで)有し、これは送信デバイスで同時にサンプリングされたことを意味するため、同期される必要がある。基準クロック取得時間の算出は、RTPパケットにおけるRTPタイムスタンプ、及びRTCP送信者レポート(SR)パケットにおいて送信されるNTPタイムスタンプを用いて実行される。オーディオ及びビデオ・パケットは、異なるネットワーク経路を取ることがあり、各々のパケットに対する処理遅延は異なることがあるため、異なる時間に受信デバイスに到達する可能性が大いに高い。従って、図1に示す例では、オーディオ・パケットは、同期ジッタ又は遅延であるTV1−TA1の時間だけ遅延されなければならない。   In the example shown in FIG. 1, the audio packet 1 arrives at TA1, and the video packet arrives at TV1, which is a time later than TA1. It should be noted that the term “arrive” refers to the time that a packet arrives, or the playout time for each packet. In the example of FIG. 1, audio and video packets with the same playback time have the same reference clock acquisition time (at the transmitting device), which means they have been sampled at the transmitting device at the same time, so they are synchronized There is a need. The calculation of the reference clock acquisition time is performed using the RTP time stamp in the RTP packet and the NTP time stamp transmitted in the RTCP sender report (SR) packet. Audio and video packets can take different network paths, and the processing delay for each packet can be different, so it is very likely to reach the receiving device at different times. Thus, in the example shown in FIG. 1, the audio packet must be delayed by the time of TV1-TA1, which is synchronization jitter or delay.

図1に示す例では、アプリケーション(又は送信者)が、A/V同期を実行する意図がなく、それにもかかわらず受信デバイスが(デフォルト動作であるために)同期の実行を試みた場合には、受信デバイスは、オーディオ・パケットを付加的な時間だけ保持するよう強いられる。この動作は、オーディオ・バッファをオーバーフローさせる可能性がある。さらに、キューの先頭にあるオーディオ・パケットは、同期を試みたときに遅延され、悪いユーザ体験又はメディア品質を招く。サービスの質(QoS)が保証された場合には、オーディオ及びビデオ・パケットは、キューでさらに遅延された場合にドロップされなくてはならないこともある。従って、送信デバイスが受信デバイスに対して、同期又は遅延された同期が必要ないことを示す機構がないために、送信デバイスが、メディア・ストリームが同期されることを望まなくとも、パケット損失、遅延パケット、及び計算リソースの無駄といった問題が生じることがある。   In the example shown in FIG. 1, if the application (or sender) does not intend to perform A / V synchronization and the receiving device nevertheless attempts to perform synchronization (because it is the default behavior) The receiving device is forced to hold the audio packet for an additional time. This action can overflow the audio buffer. Furthermore, audio packets at the head of the queue are delayed when attempting to synchronize, resulting in a bad user experience or media quality. If quality of service (QoS) is guaranteed, audio and video packets may have to be dropped if further delayed in the queue. Thus, packet loss, delay, even if the transmitting device does not want the media stream to be synchronized because there is no mechanism to indicate that the transmitting device does not require synchronized or delayed synchronization to the receiving device. Problems such as waste of packets and computational resources may occur.

Internet Engineering Task Force’s Network Working Groupからのリクエスト・フォー・コメント(RFC)第3388号では、セッションにおけるどのメディア・ストリームが同期される必要があるかを、送信デバイスが明確に指定することができる機構が指定される。新しいSDP属性(例えば「群」、「中間」、及びリップシンク(LS))が定められ、送信デバイスが、セッションにおけるどのメディア・ストリームがリップシンクされる必要があるか指定する手助けをする。また、RTP受信デバイスのデフォルト実施動作は、同じソースから受信するメディア・ストリームを同期することである。さらに、指定は、マルチメディア・ストリームを同期しなければならないかどうかを命令しないので、RFC3388が必要になる。RFC3388は、それが2つ又はそれ以上のストリームを送信している場合には、どのストリームが同期される必要があるかを送信デバイスに指定させることができる機構を指定するにすぎない。   Request for Comments (RFC) No. 3388 from the Internet Engineering Task Force's Network Working Group allows the sending device to clearly specify which media streams in a session need to be synchronized. A mechanism is specified. New SDP attributes (eg, “group”, “intermediate”, and lip sync (LS)) are defined to help the sending device specify which media streams in the session need to be lip synced. Also, the default implementation behavior of the RTP receiving device is to synchronize media streams received from the same source. Further, RFC 3388 is required because the specification does not dictate whether the multimedia stream must be synchronized. RFC 3388 only specifies a mechanism that allows a transmitting device to specify which streams need to be synchronized if it is transmitting two or more streams.

マルチメディア・ストリームが同期されるべきでないことを要する適用例及び使用例がある。例えば、Real Time Video Sharing(RTVS)アプリケーションでは、ユーザは、単方向のビデオ共有セッションを開始する。単方向メディア・セッションは、SDP内メディア・ストリームを、a=sendonly又はa=recvnlyと明示することにより設定される。既に、双方向(又は単方向でもよい)のオーディオ・セッションが2つの当事者の間に設定されている。呼出しにおける当事者の一方は、他方の当事者とビデオを共有することを望む。オーディオ及びビデオは、IPベアラ上で設定されるが、オーディオ又はビデオ・セッションは、回路交換ベアラ上で同様に設定することも可能である。共有ビデオは、ファイルからであってもよいし、又はライブ・カメラの視野からであってもよい。   There are applications and uses that require that multimedia streams should not be synchronized. For example, in a Real Time Video Sharing (RTVS) application, the user initiates a unidirectional video sharing session. A unidirectional media session is established by specifying the media stream in SDP as a = sendly or a = recvnly. Already a bi-directional (or uni-directional) audio session is set up between the two parties. One of the parties in the call wants to share the video with the other party. Audio and video are set up on IP bearers, but audio or video sessions can be set up on circuit switched bearers as well. The shared video may be from a file or from a live camera view.

単方向ビデオ共有におけるいくつかのシナリオでは、送信デバイスは、(ファイルから共有している)ビデオと音声を同期させることを望まない。同期しないというこの要求の1つの理由は、送信デバイスは、ビデオが、遅延されても、受信デバイスにおいて高品質で受信されることを好むためであるとすることができる。この状況では、送信デバイスは、受信デバイスがより高い遅延バッファを有することを好み、従って同期を実行することは望まないとすることができる。   In some scenarios in unidirectional video sharing, the transmitting device does not want to synchronize video and audio (shared from a file). One reason for this requirement to not synchronize may be that the transmitting device prefers that the video be received with high quality at the receiving device, even if delayed. In this situation, the transmitting device may prefer that the receiving device have a higher delay buffer and therefore not want to perform synchronization.

単方向ビデオ共有の別の例は、ユーザが何らかの物体のビデオを撮り、それについて話している場合を含む。この状況においては、ユーザはユーザ自身の顔のビデオを撮るのではなく、別の物体を録画しているため、完璧な同期よりもより粗い同期の形態で充分である。さらに別の例は、グラフィックがリアルタイムのオーディオ及びビデオと合成される「増強現実」を含む。この場合、より粗い形態の同期で充分である。   Another example of unidirectional video sharing involves the user taking a video of some object and talking about it. In this situation, since the user is recording another object rather than taking a video of the user's own face, a coarser form of synchronization is sufficient than perfect synchronization. Yet another example includes “augmented reality” where graphics are combined with real-time audio and video. In this case, a coarser form of synchronization is sufficient.

クライアントのデフォルト動作がこれら2つのストリームを同期するものである場合には、受信デバイスのクライアントは、これらストリームを同期する特別なアルゴリズムを採用するであろう。受信デバイス側における同期アルゴリズムは、指定量の計算の複雑さを必要とし、クライアントは、送信デバイスがどのような同期も好まないときでも、いくらかのリソースを消耗するであろう。オーディオ及びビデオ・ストリームは、異なる遅延で受信デバイスに到達できる。受信デバイスがストリームを同期しようとする場合には、オーディオ及びビデオ・フレームをドロップする結果をもたらすことがあり、従って受信したメディアの品質を落とす。   If the default behavior of the client is to synchronize these two streams, the receiving device client will employ a special algorithm to synchronize these streams. The synchronization algorithm on the receiving device side requires a specified amount of computational complexity, and the client will consume some resources even when the transmitting device does not like any synchronization. Audio and video streams can reach the receiving device with different delays. If the receiving device attempts to synchronize the stream, it may result in dropping audio and video frames, thus reducing the quality of the received media.

あいにく、RFC3388は、どのストリームが同期されるべきでないかを明確に識別できる機構を説明していない。例えば、送信デバイスが、セッションにおいて3つのストリームと、2つのオーディオ・ストリーム(A1及びA2)と、1つのビデオ・ストリーム(V1)とを送信することを望み、送信デバイスがストリームA1とV1を同期(シップシンク)することを望む場合には、群、中間SDP属性、及びLS意味タグを用いて、それを指定できる。これは、A1とV1が同期される必要があり、A2は同期されるべきでないことを受信デバイスに示すことになる。しかし、2つ又はそれ以上のストリームがあり、どのストリームも同期される必要がない使用例の場合には、RFC3388は不充分である。また、リップシンクの性能を示すために(及び非リップシンクを指定するのにRFC3388を用いることができるいくつかの場合)、RFC3388は、命令されなくてはならない。最後に、RFC3388は、デバイスが異なるメディア間で望ましい同期ジッタを示すことができる機構を提供しない。   Unfortunately, RFC 3388 does not describe a mechanism that can clearly identify which streams should not be synchronized. For example, the transmitting device wishes to transmit three streams, two audio streams (A1 and A2) and one video stream (V1) in the session, and the transmitting device synchronizes the streams A1 and V1. If it is desired to (ship sync), it can be specified using groups, intermediate SDP attributes, and LS semantic tags. This will indicate to the receiving device that A1 and V1 need to be synchronized and A2 should not be synchronized. However, for use cases where there are two or more streams and none of the streams need to be synchronized, RFC 3388 is insufficient. Also, to indicate lip sync performance (and in some cases where RFC 3388 can be used to specify non-lip sync), RFC 3388 must be commanded. Finally, RFC 3388 does not provide a mechanism by which a device can exhibit desirable synchronization jitter between different media.

上記の理由のために、送信デバイスが、送信デバイスにより伝達されるマルチメディア・ストリームを同期しないように、マルチメディアの呼出において受信デバイスに指示できる機構は現在存在せず、マルチメディア・ストリームに対して同期遅延(同期化遅延)又はジッタを指定する機構もない。   For the reasons described above, there is currently no mechanism that can instruct the receiving device in a multimedia call so that the transmitting device does not synchronize the multimedia stream conveyed by the transmitting device. There is also no mechanism for specifying synchronization delay (synchronization delay) or jitter.

本発明は、伝達又は送信デバイスが、送信されているマルチメディア・ストリームにおけるどのストリームが同期されるべきでないか、又は指定量の同期ジッタを含むべきかを、明白に指示できる機構を提供する。この機構は、受信デバイスがストリームの特徴を理解するのを助け、同期を実行すべきか否か、並びに、同期ジッタ値を指定することについて、受信デバイスが充分な情報を得た上で決定できるようにする。単方向ビデオ共有又はビデオPoCといった特定のアプリケーションでは、ストリームの送信デバイスは、より優れたメディア品質のために、受信デバイスが全く同期を実行しないことを指示できる。   The present invention provides a mechanism by which a transmission or transmission device can explicitly indicate which streams in the multimedia stream being transmitted should not be synchronized or contain a specified amount of synchronization jitter. This mechanism helps the receiving device understand the characteristics of the stream so that it can make informed decisions about whether to perform synchronization and to specify the synchronization jitter value. To. In certain applications, such as unidirectional video sharing or video PoC, the sending device of the stream can indicate that the receiving device does not perform any synchronization for better media quality.

本発明の1つの実施形態は、多数の新しいSDP属性の導入を含む。送信デバイスは、セッションの設定段階の間、SDPにおけるこれら属性を明示し、属性は、いずれのより高度な信号通知プロトコル(例えばSIP、RTSP等)によっても運ばれることができる。しかしながら、これら属性は、SDPプロトコルの使用に限定されるものではなく、ISO OSIプロトコル・スタック(例えばXML、HTTP、UPnP、CC/PP等)の層1−7のいずれかにおいて、何らかの他の通信プロトコルを用いて、定められ、運ばれることができる。   One embodiment of the present invention involves the introduction of a number of new SDP attributes. The sending device specifies these attributes in the SDP during the session setup phase, and the attributes can be carried by any higher signaling protocol (eg SIP, RTSP, etc.). However, these attributes are not limited to the use of the SDP protocol and any other communication at any of layers 1-7 of the ISO OSI protocol stack (eg, XML, HTTP, UPnP, CC / PP, etc.) It can be defined and carried using a protocol.

本発明は、セッションの設定段階の間、送信デバイスのメディア・ストリーム間の非同期に対するプリファレンスを示す能力を与えることにより、通常のRFC3388フレームワークと比較して実質的な利益を提供する。送信デバイスが伝達しているメディアを同期することを望まない使用例及び適用例がある。このプリファレンスを受信デバイスに信号通知できるときには、受信デバイスは、それに応じてリソースを設定することができ、他のタスク又はより高いメディア品質のために使用できる計算リソースを無駄にしないで済む。結果として、本発明は、受信デバイスがメディア・ストリームの同期を実行しようとした場合に発生することがある受信デバイスのパケット損失を少なくすることができる。   The present invention provides substantial benefits compared to the normal RFC3388 framework by providing the ability to indicate preferences for asynchronousness between the media streams of the transmitting device during the session setup phase. There are use cases and application cases where it is not desired to synchronize the media being transmitted by the transmitting device. When this preference can be signaled to the receiving device, the receiving device can set resources accordingly and not waste computing resources that can be used for other tasks or higher media quality. As a result, the present invention can reduce the packet loss of the receiving device that may occur when the receiving device attempts to perform media stream synchronization.

上記に加えて、本発明は、セッションの設定段階の間、送信デバイスのメディア・ストリーム間の同期ジッタに対するプリファレンスを示す能力を与えることにより、RFC3388を改良する。さらに、送信デバイスが、伝達されているメディアがより粗いジッタで同期されるべきであると望む使用例及び適用例もあるため、このプリファレンスを受信デバイスに信号通知する能力は、受信デバイスがそれに応じてリソースを設定することを可能にする。これはまた、計算リソースを節約する機会も提供する。いくつかの場合には、これは、改良されたレベルのメディア品質も生むことができる。事実、強制メディア同期シナリオでは、受信デバイスがメディア・ストリームの同期を実行しようとする場合に、受信デバイスにおけるデータ廃棄又は他の理由のために発生することがある、いくらかのパケット損失が存在する。これはメディア・データが異なる遅延で受信デバイスに到達することがあるという事実のためであり、いくつかのコンテンツは、完全に同期された再生に有用であるには到達が遅すぎるという結果をもたらす可能性がある。同期ジッタを制御することによって、この課題は緩和できる又は取り除くことができる。   In addition to the above, the present invention improves RFC 3388 by providing the ability to indicate preferences for synchronization jitter between the media streams of the transmitting device during the session setup phase. In addition, there are use cases and applications in which the transmitting device wishes that the media being transmitted should be synchronized with coarser jitter, so the ability of the receiving device to signal this preference to the receiving device It is possible to set resources accordingly. This also provides an opportunity to save computational resources. In some cases, this can also yield an improved level of media quality. In fact, in a forced media synchronization scenario, there is some packet loss that can occur due to data loss or other reasons at the receiving device when the receiving device attempts to perform media stream synchronization. This is due to the fact that media data can reach the receiving device with different delays, and some content results in being too late to be useful for fully synchronized playback there is a possibility. By controlling the synchronization jitter, this problem can be mitigated or eliminated.

本発明のこれら及び他の目的、利点、及び特徴は、その動作の構成及び様式と併せて、いくつかの図面にわたり同様の要素が同様の番号を有する添付の図面と共に検討されるときに、以下の詳細な説明から明白になるであろう。   These and other objects, advantages, and features of the present invention, as well as the structure and mode of operation thereof, will be described below when considered in conjunction with the accompanying drawings in which like elements have like numerals throughout the several drawings. Will become apparent from the detailed description of.

本発明は、伝達又は送信デバイスが、送信されているマルチメディア・ストリームにおけるどのストリームが同期されるべきでないか、又は指定量の同期ジッタを含むべきかを、明白に指示できる機構を提供する。この機構は、受信デバイスがストリームの特徴を理解するのを助け、同期を実行すべきか否か、並びに、同期ジッタ値を指定することについて、受信デバイスが充分な情報を得た上で決定できるようにする。   The present invention provides a mechanism by which a transmission or transmission device can explicitly indicate which streams in the multimedia stream being transmitted should not be synchronized or contain a specified amount of synchronization jitter. This mechanism helps the receiving device understand the characteristics of the stream so that it can make informed decisions about whether to perform synchronization and to specify the synchronization jitter value. To.

本発明の実施を理解するために、図1は、セッション設定期間中に、送信デバイスは、受信デバイスに、どのような同期も実行することを望まないこと、又は指定値(例えば500ミリ秒)を用いて、より粗い同期遅延又はジッタで同期を実行することを通知するという理解に基づいて用いることができる。このシナリオでは、受信デバイスは、各々のメディア・ストリームの各々のパケットに対してデコードを完了し、プレイアウト・タイムが経過したときに、表示のためにそれぞれのパケットを提供できる。受信デバイスは、指定値より長くパケットを遅延させなくてよい。これは、ジッタ・バッファのオーバーフロー問題を防止する働きをし、パケットは同期目的のために遅延されることはなく、メディア品質が改良される。このシナリオでは、受信は、どのような相関関係もなく、両方のメディア・キューを別個に管理しなくてはならない。   In order to understand the implementation of the present invention, FIG. 1 shows that during the session setup period, the transmitting device does not want the receiving device to perform any synchronization or a specified value (eg 500 milliseconds). Can be used based on the understanding of performing synchronization with coarser synchronization delay or jitter. In this scenario, the receiving device has completed decoding for each packet in each media stream and can provide each packet for display when the playout time has elapsed. The receiving device may not delay the packet longer than the specified value. This serves to prevent jitter buffer overflow problems, packets are not delayed for synchronization purposes, and media quality is improved. In this scenario, the reception must manage both media queues separately without any correlation.

送信デバイスが、受信デバイスは指定遅延値により何らかの同期を実行すると予測する場合には、受信デバイスは、デコード後、オーディオ及びビデオ・パケットのためのプレイアウト・タイムの差(TV1−TA1)を求める。この値が同期ジッタのためのセッションの設定で定められた値よりも小さい場合には、受信デバイスは、オーディオ及びビデオ・パケットをプレイアウト・タイムが示すよりも長い期間保持する必要はない。値(TV1−TA1)が同期ジッタよりも大きい場合には、受信デバイスは短い時間だけパケットを保持する必要がある。例えば、セッション設定中に、同期ジッタが500ミリ秒と指定され、TV1−TA1が350ミリ秒である場合には、受信デバイスは何も指定する必要はない。しかしながら、TV1−TA1が600ミリ秒である場合には、オーディオ・パケットは、キューにおいて、追加の100ミリ秒だけ遅延されなくてはならない。   If the sending device expects the receiving device to perform some synchronization with the specified delay value, the receiving device will determine the playout time difference (TV1-TA1) for audio and video packets after decoding. . If this value is smaller than the value set in the session setup for synchronization jitter, the receiving device need not hold audio and video packets for a longer period than the playout time indicates. If the value (TV1-TA1) is greater than the synchronization jitter, the receiving device needs to hold the packet for a short time. For example, if the synchronization jitter is specified as 500 milliseconds and TV1-TA1 is 350 milliseconds during session setup, the receiving device need not specify anything. However, if TV1-TA1 is 600 milliseconds, the audio packet must be delayed in the queue by an additional 100 milliseconds.

本発明の第1の実施形態では、マルチメディア・ストリームの送信デバイスが、マルチメディア・ストリームが同期されるべきでないと指示することを許容する2つの機構が指定される。本実施形態は、マルチメディア・ストリームの送信デバイスが、受信デバイスは同期を実行すべきでないと指定するのを補助する、新しいSDPパラメータの導入を含む。   In the first embodiment of the present invention, two mechanisms are specified that allow a multimedia stream sending device to indicate that the multimedia stream should not be synchronized. This embodiment includes the introduction of new SDP parameters that assist the sending device of the multimedia stream to specify that the receiving device should not perform synchronization.

第1の機構では、“NO_SYNC”と呼ばれる新しいSDP属性が導入される。“NO_SYNC”は、ストリームは、セッションにおける他のいずれのマルチメディア・ストリームとも同期されるべきでないことを示す。NO_SYNC属性は、a=NO_SYNCと明示される。   In the first mechanism, a new SDP attribute called “NO_SYNC” is introduced. “NO_SYNC” indicates that the stream should not be synchronized with any other multimedia stream in the session. The NO_SYNC attribute is specified as a = NO_SYNC.

NO_SYNC属性は、メディア・レベル(即ちSDPにおけるmラインの後)で定められることができ、又はセッション・レベルで定められることができる。メディア・レベルで定められるとき、NO_SYNC属性は、メディア・ストリームが、セッションにおけるいずれの他のストリームとも同期されるべきでないことを意味する。NO_SYNC属性を用いた例は、以下のとおりである。
v=0
0=NRC 289084412 2890841235 IN IP4 123.124.125.1
s=Demo
c=IN IP4 123.124.125.1
m=video 6001 RTP/AVP 98
a=rtpmap:98 MP4V−ES/90000
a=NO_SYNC
m=video 5001 RTP/AVP 99
a=rtpmap 99 H2.63/90000
m=audio 6001 RTP/AVP 98
a=rtpmap:98 AMR
The NO_SYNC attribute can be defined at the media level (ie after the m line in SDP) or can be defined at the session level. When defined at the media level, the NO_SYNC attribute means that the media stream should not be synchronized with any other stream in the session. An example using the NO_SYNC attribute is as follows.
v = 0
0 = NRC 289084412 2890884235 IN IP4 123.11245.1
s = Demo
c = IN IP4 123.11245.1
m = video 6001 RTP / AVP 98
a = rtpmap: 98 MP4V-ES / 90000
a = NO_SYNC
m = video 5001 RTP / AVP 99
a = rtpmap 99 H2.63 / 90000
m = audio 6001 RTP / AVP 98
a = rtpmap: 98 AMR

上の例では、第1のビデオ・ストリームは、受信デバイスで同期されるべきでない。受信デバイスのクライアントは、このSDPを受信したとき、(MPEG4コーデックを備える)ビデオ・ストリームはいずれの他のストリームとも同期されるべきでないことがわかる。受信デバイスは、残存(オーディオ及びビデオ)ストリームを同期すること又は同期しないことを選択できる。   In the above example, the first video stream should not be synchronized at the receiving device. When the receiving device client receives this SDP, it knows that the video stream (with the MPEG4 codec) should not be synchronized with any other stream. The receiving device can choose to synchronize or not synchronize the remaining (audio and video) streams.

NO_SYNC属性は、セッションの開始で明示され、セッションにおける全ストリームが同期されるべきでないことを示唆する。これは以下のように示される。
v=0
o=NRC 289084412 2890841235 IN IP4 123.124.125.1
s=Demo
c=IN IP4 123.124.125.1
a=NO_SYNC
m=video 6001 RTP/AVP 98
a=rtpmap:98 MP4V−ES/90000
m=audio 6001 RTP/AVP 98
a=rtpmap:98 AMR
The NO_SYNC attribute is specified at the start of the session and suggests that all streams in the session should not be synchronized. This is shown as follows.
v = 0
o = NRC 289084412 2890884235 IN IP4 123.11245.1
s = Demo
c = IN IP4 123.11245.1
a = NO_SYNC
m = video 6001 RTP / AVP 98
a = rtpmap: 98 MP4V-ES / 90000
m = audio 6001 RTP / AVP 98
a = rtpmap: 98 AMR

上の例では、送信デバイスは、セッションにおけるストリームの全てが同期されるべきでないことを、受信デバイスに示す。   In the above example, the sending device indicates to the receiving device that not all of the streams in the session should be synchronized.

別の実施例では、RFC 3388への拡張を定めることができる。この拡張は、どのストリームが同期されるべきでないかを指定するのに用いることができる。以下は、同期がSDPにおいてどのように指示されるかを示す通常のRFC3388システムからの例である。
v=0
0=Laura 289083124 289083124 IN IP4 one.example.com
t=0 0
c=IN IP4 224.2.17.12/127
a=group:LS 1 2
m=audio 30000 RTP/AVP 0
a=mid:1
m=video 30002 RTP/AVP 31
a=mid:2
m=audio 30004 RTP/AVP 0
i=This media stream contains the Spanish translation(このメディア・ストリームはスペイン語翻訳を含む)
a=mid:3
In another embodiment, an extension to RFC 3388 can be defined. This extension can be used to specify which streams should not be synchronized. The following is an example from a normal RFC3388 system that shows how synchronization is indicated in SDP.
v = 0
0 = Laura 289083124 289083124 IN IP4 one. example. com
t = 0 0
c = IN IP4 224.2.7.12/127
a = group: LS 1 2
m = audio 30000 RTP / AVP 0
a = mid: 1
m = video 30002 RTP / AVP 31
a = mid: 2
m = audio 30004 RTP / AVP 0
i = This media stream content the the Spanish translation (this media stream includes a Spanish translation)
a = mid: 3

上記の例では、mid 1及びmid 2を備えるストリームが同期される。これは、群属性においてLS意味タグと共に示される。しかしながら、新しい実施においては、新しい意味タグは、非同期の意味を有する群属性「NLS」と共に用いられる。以下の例は、ストリームはセッションにおけるいずれの他のストリームとも同期されるべきではないという指示をどのように与えることができるかを示す。
v=0
0=Laura 289083124 289083124 IN IP4 one.example.com
t=0 0
c=IN IP4 224.2.17.12/127
a=group:NLS 1
m=audio 30000 RTP/AVP 0
a=mid:1
m=video 30002 RTP/AVP 31
a=mid:2
m=audio 30004 RTP/AVP 0
i=This media stream contains Spanish translation(このメディア・ストリームはスペイン語翻訳を含む)
a=mid:3
In the above example, streams with mid 1 and mid 2 are synchronized. This is indicated with the LS semantic tag in the group attribute. However, in a new implementation, a new semantic tag is used with the group attribute “NLS” having an asynchronous meaning. The following example shows how a stream can be given an indication that it should not be synchronized with any other stream in the session.
v = 0
0 = Laura 289083124 289083124 IN IP4 one. example. com
t = 0 0
c = IN IP4 224.2.7.12/127
a = group: NLS 1
m = audio 30000 RTP / AVP 0
a = mid: 1
m = video 30002 RTP / AVP 31
a = mid: 2
m = audio 30004 RTP / AVP 0
i = This media stream contains Spanish translation (this media stream includes Spanish translation)
a = mid: 3

上の例では、MID 1を備えるストリームは、セッションにおけるいずれの他のストリームとも同期されない。RFC 3388は、従って、この新しい意味タグにより拡張され、メディア・ストリームには同期は必要でないことを送信デバイスが指示するのを補助する。   In the above example, the stream with MID 1 is not synchronized with any other stream in the session. RFC 3388 is therefore extended with this new semantic tag to help the sending device indicate that no synchronization is required for the media stream.

意味タグLS及びNLSは、どのストリームが同期されるべきか、及びどのストリームが同期されるべきでないかを記述するのに、同じセッション記述に用いることができる。例えば、以下に示すSDP例では、ストリーム1はセッションにおけるいずれの他のストリームとも同期されるべきでなく、ストリーム2及びストリーム3は同期されるべきである。このように、送信デバイスは、どのストリームが同期されるべきで、どのストリームが同期されるべきでないかを明白に記述する。
v=0
o=Laura 289083124 289083124 IN IP4 one.example.com
t=0 0
c=IN IP4 224.2.17.12/127
a=group:NLS 1
a=group:LS 2 3
m=audio 30000 RTP/AVP 0
a=mid:1
m=video 30002 RTP/AVP 31
a=mid:2
m=audio 30004 RTP/AVP 0
i=This media stream contains the Spanish translation(このメディア・ストリームは、スペイン語翻訳を含む)
a=mid:3
The semantic tags LS and NLS can be used in the same session description to describe which streams should be synchronized and which streams should not be synchronized. For example, in the SDP example shown below, stream 1 should not be synchronized with any other stream in the session, and stream 2 and stream 3 should be synchronized. In this way, the transmitting device explicitly describes which streams should be synchronized and which streams should not be synchronized.
v = 0
o = Laura 289083124 289083124 IN IP4 one. example. com
t = 0 0
c = IN IP4 224.2.7.12/127
a = group: NLS 1
a = group: LS 2 3
m = audio 30000 RTP / AVP 0
a = mid: 1
m = video 30002 RTP / AVP 31
a = mid: 2
m = audio 30004 RTP / AVP 0
i = This media stream contains the Spanish translation (this media stream includes a Spanish translation)
a = mid: 3

本発明の第2の実施形態では、マルチメディア・ストリームの送信デバイスが、受信デバイスが同期することを望むマルチメディア・ストリーム間の同期遅延又はジッタ値を指示することを許容する機構が導入される。本実施形態では、新しいSDPパラメータは、ジッタ値を指定するのに用いられる。これらSDP属性により、送信デバイスはまた、所与のマルチメディア・セッションのどのストリームが、同じセッションにおけるいずれの他のストリームとも同期されるべきでないことを指定することもできる。   In a second embodiment of the present invention, a mechanism is introduced that allows a multimedia stream transmitting device to indicate a synchronization delay or jitter value between multimedia streams that the receiving device wishes to synchronize. . In this embodiment, the new SDP parameter is used to specify the jitter value. With these SDP attributes, the sending device can also specify that no stream in a given multimedia session should be synchronized with any other stream in the same session.

本実施形態の1つの特定の実施では、“sync_jitter”と呼ばれる新しいSDP属性が定められる。この属性は、マルチメディア・ストリーム間の同期遅延を指示する。sync_jitter SDP属性は、時間単位(例えばミリ秒)又はいずれかの他の好適な単位で指定される。sync_jitterの値0は、非同期が実行されるべきであることを意味する。属性は、SDPにおいては、
a=sync_jitter:value //value is for example in milliseconds.(値は例えばミリ秒である。)
として明示される。
In one particular implementation of this embodiment, a new SDP attribute called “sync_jitter” is defined. This attribute indicates the synchronization delay between multimedia streams. The sync_jitter SDP attribute is specified in units of time (eg milliseconds) or any other suitable unit. A sync_jitter value of 0 means that asynchronous should be executed. Attributes in SDP
a = sync_jitter: value // value is for example in milliseconds. (The value is, for example, milliseconds.)
Is specified as

sync_jitter SDP属性は、(RFC3388に定められるように)群及びmid属性及びLS意味タグと併せて用いることができる。この属性と共に用いられるとき、sync_jitterは、LS意味タグに指定されたように同期される必要があるストリーム間で、受け入れられる同期ジッタを指定する。以下は、SDPにおいて同期が通常どのように示されているかを記述するRFC 3388からの例である。
v=0
o=Laura 289083124 289083124 IN IP4 one.example.com
t=0 0
c=IN IP4 224.2.17.12/127
a=group:LS 1 2
m=audio 30000 RTP/AVP 0
a=mid:1
m=video 30002 RTP/AVP 31
a=mid:2
m=audio 30004 RTP/AVP 0
i=This media stream contains the Spanish translation(このメディア・ストリームは、スペイン語翻訳を含む)
a=mid:3
The sync_jitter SDP attribute can be used in conjunction with group and mid attributes and LS semantic tags (as defined in RFC3388). When used with this attribute, sync_jitter specifies the synchronization jitter that is accepted between streams that need to be synchronized as specified in the LS semantic tag. The following is an example from RFC 3388 that describes how synchronization is usually shown in SDP.
v = 0
o = Laura 289083124 289083124 IN IP4 one. example. com
t = 0 0
c = IN IP4 224.2.7.12/127
a = group: LS 1 2
m = audio 30000 RTP / AVP 0
a = mid: 1
m = video 30002 RTP / AVP 31
a = mid: 2
m = audio 30004 RTP / AVP 0
i = This media stream contains the Spanish translation (this media stream includes a Spanish translation)
a = mid: 3

上の例では、mid 1とmid 2を備えるストリームが同期される。これは群属性におけるLS意味タグにより指示される。しかしながら、この例では、mid 1及び2を備えるストリーム間で望ましい同期を指示する方法はない。(単方向ビデオ共有又はリアルタイム会話のテレビ電話といった)様々なアプリケーションによって、同期値は異なる。   In the above example, streams with mid 1 and mid 2 are synchronized. This is indicated by the LS semantic tag in the group attribute. However, in this example, there is no way to indicate the desired synchronization between streams with mid 1 and 2. Depending on the various applications (such as unidirectional video sharing or videophone for real-time conversation), the synchronization value will be different.

以下の例は、上の例をsync_jitter属性で拡張する。上のSDP記述が単方向ビデオ共有アプリケーションに用いられる場合、及びより粗い形態の同期が特定の状況に充分である場合には、送信デバイスは、mid 1及びmid 2を備えるストリーム間の同期ジッタに、例えば、500ミリ秒の値を用いることができる。そのような状況では、SDPは以下のようになる。
v=0
o=Laura 289083124 289083124 IN IP4 one.example.com
t=0 0
c=IN IP4 224.2.17.12/127
a=group:LS 1 2
a=sync_jitter:500
m=audio 30000 RTP/AVP 0
a=mid:1
m=video 30002 RTP/AVP 31
a=mid:2
m=audio 30004 RTP/AVP 0
i=This media stream contains the Spanish translation(このメディア・ストリームは、スペイン語翻訳を含む)
a=mid:3
The following example extends the above example with the sync_jitter attribute. If the above SDP description is used for a unidirectional video sharing application, and if a coarser form of synchronization is sufficient for a particular situation, the transmitting device will account for synchronization jitter between streams with mid 1 and mid 2. For example, a value of 500 milliseconds can be used. In such a situation, the SDP is as follows:
v = 0
o = Laura 289083124 289083124 IN IP4 one. example. com
t = 0 0
c = IN IP4 224.2.7.12/127
a = group: LS 1 2
a = sync_jitter: 500
m = audio 30000 RTP / AVP 0
a = mid: 1
m = video 30002 RTP / AVP 31
a = mid: 2
m = audio 30004 RTP / AVP 0
i = This media stream contains the Spanish translation (this media stream includes a Spanish translation)
a = mid: 3

sync_jitter属性は、0の値と併せて用いることができる。0の値は、本質的には、送信デバイスが、特定のメディア・ストリームが所与のセッションにおけるいずれの他のストリームとも同期されることを望まないことを指定する。前述のように、デフォルト実施は、同期を実行することであり、送信デバイスのSDP実施がRFC 3388を支援しない場合には、送信デバイスは、0の値を備えるsync_jitter属性を用いて、セッションにおける所与のストリームを、いずれの他のストリームとも同期することを望まないことを示す。送信デバイスが、sync_jitter値を0と指定するSDP例は、以下のとおりである。
v=0
o=NRC 289084412 2890841235 IN IP4 123.124.125.1
s=Demo
c=IN IP4 123.124.125.1
m=video 6001 RTP/AVP 98
a=rtpmap:98 MP4V−ES/90000
a=sync_jitter:0
m=video 5001 RTP/AVP 99
a=rtpmap 99 H2.63/90000
m=audio 6001 RTP/AVP 98
a=rtpmap:98 AMR
The sync_jitter attribute can be used in conjunction with a value of 0. A value of 0 essentially specifies that the sending device does not want a particular media stream to be synchronized with any other stream in a given session. As mentioned above, the default implementation is to perform synchronization, and if the SDP implementation of the transmitting device does not support RFC 3388, the transmitting device uses the sync_jitter attribute with a value of 0 to Indicates that a given stream does not want to be synchronized with any other stream. An example of an SDP in which the transmitting device designates the sync_jitter value as 0 is as follows.
v = 0
o = NRC 289084412 2890884235 IN IP4 123.11245.1
s = Demo
c = IN IP4 123.11245.1
m = video 6001 RTP / AVP 98
a = rtpmap: 98 MP4V-ES / 90000
a = sync_jitter: 0
m = video 5001 RTP / AVP 99
a = rtpmap 99 H2.63 / 90000
m = audio 6001 RTP / AVP 98
a = rtpmap: 98 AMR

上記の例では、送信デバイスは、(MPEG−4を備える)第1のビデオ・ストリームが、セッションにおけるいずれの他のストリームとも同期されることを望まない。受信デバイスは、セッションに与えられる残存する2つのストリームを同期させるかどうか選択することができる。   In the above example, the transmitting device does not want the first video stream (comprising MPEG-4) to be synchronized with any other stream in the session. The receiving device can choose whether to synchronize the two remaining streams given to the session.

0は異なる意味を持つため、sync_jitterに対する0以外の適切な値は、同期が必要ではないことを示すように選択されなければならない可能性があることに注目すべきである。   It should be noted that since 0 has a different meaning, an appropriate value other than 0 for sync_jitter may have to be selected to indicate that no synchronization is required.

図4は、送信デバイスが、非同期、又は同期ジッタの特定値の導入のいずれかを指定することができる、本発明の実施形態の実施を表す一般的なフローチャートである。図4のステップ300では、送信デバイスはSDP情報を伝達する。SDP情報は、伝達されているマルチメディア・ストリームの同期に関する、上述の種類の命令を含む。ステップ310では、受信デバイスはSDP情報を受信する。ステップ320では、受信デバイスはSDP情報を読み込んで、マルチメディア・ストリームのいずれか又は全てを同期しない命令があるかどうか、特定量の同期ジッタを含むかどうか、又は完全な同期が発生するかどうかを判断する。非同期命令がある場合には、この命令はステップ330で従われる。同期ジッタ値がある場合には、ステップ340で、ジッタの指定量がストリームに導入される。同期又は同期ジッタの量の欠如に関する命令がない場合、又は完全な同期のための特定の命令がある場合には、ステップ350で完全な同期が発生する。   FIG. 4 is a general flow chart representing an implementation of an embodiment of the present invention in which a transmitting device can specify either asynchronous or introduction of a specific value of synchronous jitter. In step 300 of FIG. 4, the transmitting device communicates SDP information. The SDP information includes instructions of the type described above relating to the synchronization of the multimedia stream being transmitted. In step 310, the receiving device receives SDP information. In step 320, the receiving device reads the SDP information to see if there is an instruction that does not synchronize any or all of the multimedia stream, whether it contains a certain amount of synchronization jitter, or whether full synchronization occurs Judging. If there is an asynchronous instruction, this instruction is followed at step 330. If there is a synchronization jitter value, at step 340, a specified amount of jitter is introduced into the stream. If there is no instruction regarding the lack of synchronization or amount of synchronization jitter, or if there is a specific instruction for complete synchronization, complete synchronization occurs at step 350.

図2及び図3は、本発明を実施することができる1つの代表的な電子デバイス12を示す。図2及び図3の電子デバイスは携帯電話を含み、送信デバイス又は受信デバイスとして用いることができる。しかしながら、本発明は、電子デバイスの1つの特定の種類に制限することが目的でないことを理解すべきである。例えば、電子デバイス12は、携帯情報端末(PDA)、PDAと携帯電話の組み合わせ、統合メッセージング・デバイス(IMD)、デスクトップ・コンピュータ、ノートブック・コンピュータ、又は多様な他のデバイスを含むことができる。   2 and 3 show one exemplary electronic device 12 in which the present invention can be implemented. The electronic device of FIGS. 2 and 3 includes a mobile phone and can be used as a transmitting device or a receiving device. However, it should be understood that the invention is not intended to be limited to one particular type of electronic device. For example, the electronic device 12 may include a personal digital assistant (PDA), a combination of a PDA and a mobile phone, an integrated messaging device (IMD), a desktop computer, a notebook computer, or a variety of other devices.

図2及び図3の電子デバイス12は、ハウジング30、液晶ディスプレイ形態のディスプレイ32、キーパッド34、マイクロフォン36、イヤホン38、バッテリ40、赤外線ポート42、アンテナ44、本発明の1つの実施形態によるUICC形態のスマートカード46、カード・リーダ48、無線インターフェース回路52、コーデック回路54、コントローラ56、及びメモリ58を含む。個別の回路及び要素は全て、例えば携帯電話のノキアの範囲において当業者によく知られる種類のものである。   2 and 3 includes a housing 30, a display 32 in the form of a liquid crystal display, a keypad 34, a microphone 36, an earphone 38, a battery 40, an infrared port 42, an antenna 44, and a UICC according to one embodiment of the present invention. Smart card 46, card reader 48, wireless interface circuit 52, codec circuit 54, controller 56, and memory 58. The individual circuits and elements are all of the kind familiar to those skilled in the art, for example in the Nokia range of mobile phones.

本発明は、ネットワーク環境でコンピュータにより実行されるプログラム・コードといったコンピュータ実行可能な命令を含むプログラム製品によって、1つの実施形態で実施することができる方法ステップの一般的な文脈で説明される。   The present invention is described in the general context of method steps that can be implemented in one embodiment by a program product that includes computer-executable instructions, such as program code, that is executed by a computer in a network environment.

一般に、プログラム・モジュールは、特定のタスクを実行する、又は特定の抽象データ・タイプを実施するルーチン、プログラム、オブジェクト、コンポーネント、データ構造体等を含む。コンピュータ実行可能命令、関連データ構造体、及びプログラム・モジュールは、本明細書に開示される方法の実行ステップのためのプログラム・コードの例を表す。そのような実行可能命令又は関連データ構造体の特定の順序は、そのようなステップに説明される機能を実施するための対応する動作の例を表す。   Generally, program modules include routines, programs, objects, components, data structures, etc. that perform particular tasks or implement particular abstract data types. Computer-executable instructions, associated data structures, and program modules represent examples of program code for executing steps of the methods disclosed herein. The specific order of such executable instructions or associated data structures represents an example of a corresponding operation for performing the functions described in such steps.

本発明のソフトウェア及びウェブ実施は、ルールをベースとした論理、及び、様々なデータベース検索ステップ、相関ステップ、比較ステップ、及び決定ステップを遂行する他の論理を備えた標準的なプログラミング技術によって達成することができる。また、本明細書及び特許請求の範囲で用いられる「コンポーネント」及び「モジュール」という用語は、ソフトウェア・コードの1つ又はそれ以上のライン、及び/又はハードウェア実施、及び/又は手入力を受信するための機器を用いた実施を包含することを目的とすることに注目すべきである。   The software and web implementation of the present invention is accomplished by standard programming techniques with rule-based logic and other logic that performs various database search, correlation, comparison, and decision steps. be able to. Also, as used in the specification and claims, the terms “component” and “module” receive one or more lines of software code and / or hardware implementation and / or manual input. It should be noted that the aim is to encompass implementation using equipment to do.

本発明の実施形態の上記の説明は、例示及び説明の目的で提示された。本発明は、網羅的なものであること又は開示される厳密な形態に限定することを目的とするものではなく、修正及び変形態様は、上述の教示を考慮して可能であり、又は、本発明の実践により得ることができる。実施形態は、本発明の原理及びその実用的な適用例を説明して、当業者が本発明を種々の実施形態において、及び想定される特定の用途に適した種々の修正をもって使用できるように選択され、説明された。   The foregoing descriptions of embodiments of the present invention have been presented for purposes of illustration and description. The present invention is not intended to be exhaustive or limited to the precise forms disclosed, and modifications and variations are possible in light of the above teachings or It can be obtained by practice of the invention. The embodiments describe the principles of the invention and its practical applications so that those skilled in the art can use the invention in various embodiments and with various modifications suitable for the particular application envisaged. Selected and explained.

送信デバイスが同期を必要としなくても、受信デバイスによって同期が実行される、送信デバイスから受信デバイスへの複数のオーディオ及びビデオ・パケットの伝達を示す図である。FIG. 6 illustrates the transmission of multiple audio and video packets from a transmitting device to a receiving device, where synchronization is performed by the receiving device even though the transmitting device does not require synchronization. 本発明の実施に用いることができる電子デバイスの斜視図である。It is a perspective view of the electronic device which can be used for implementation of this invention. 図1の電子デバイスの回路の概略図である。It is the schematic of the circuit of the electronic device of FIG. 本発明の1つの実施形態の標準的な実施を表すフローチャートである。Figure 5 is a flow chart representing a standard implementation of one embodiment of the present invention.

Claims (35)

複数のマルチメディア・ストリームに同期情報を与えるための方法であって、
複数のマルチメディア・ストリームを受信デバイスに伝達し、
前記複数のマルチメディア・ストリームの少なくとも1つと該複数のマルチメディア・ストリームの少なくとも他の1つとの間に、非同期、又は指定量の同期遅延を可能にする、前記受信デバイスに対する特定の命令を含む、前記複数のマルチメディア・ストリームに関する情報を伝達する、
ことを含むことを特徴とする方法。
A method for providing synchronization information to a plurality of multimedia streams, comprising:
Communicate multiple multimedia streams to the receiving device,
Includes specific instructions for the receiving device that allow an asynchronous or specified amount of synchronization delay between at least one of the plurality of multimedia streams and at least one other of the plurality of multimedia streams. Convey information about the plurality of multimedia streams;
A method comprising:
前記命令は、前記受信デバイスに伝達されるセッション情報における属性として含まれることを特徴とする請求項1に記載の方法。   The method of claim 1, wherein the command is included as an attribute in session information communicated to the receiving device. 前記命令は、前記マルチメディア・ストリームのうちの少なくとも2つの間に、受け入れることができる同期遅延値を含むことを特徴とする請求項1に記載の方法。   The method of claim 1, wherein the instructions include an acceptable synchronization delay value between at least two of the multimedia streams. 前記命令は“sync_jitter”属性を含むことを特徴とする請求項1に記載の方法。   The method of claim 1, wherein the instruction includes a "sync_jitter" attribute. 前記“sync_jitter”属性は、非同期を指示する値を伴うことを特徴とする請求項4に記載の方法。   The method of claim 4, wherein the "sync_jitter" attribute is accompanied by a value indicating asynchronous. 前記“sync_jitter”属性は、受け入れることができる同期遅延値を伴うことを特徴とする請求項4に記載の方法。   The method of claim 4, wherein the "sync_jitter" attribute is accompanied by an acceptable synchronization delay value. 前記“sync_jitter”属性はSDP属性であることを特徴とする請求項4に記載の方法。   The method of claim 4, wherein the "sync_jitter" attribute is an SDP attribute. 前記命令は“NO_SYNC”属性を含むことを特徴とする請求項1に記載の方法。   The method of claim 1, wherein the instruction includes a "NO_SYNC" attribute. 前記命令は“NLS”意味タグを含むことを特徴とする請求項1に記載の方法。   The method of claim 1, wherein the instruction includes an "NLS" semantic tag. 前記伝達される情報は、前記受信デバイスに、前記複数のマルチメディア・ストリームのいずれも互いに同期しないように命令することを特徴とする請求項1に記載の方法。   The method of claim 1, wherein the communicated information instructs the receiving device not to synchronize any of the plurality of multimedia streams with each other. 前記伝達される情報は、前記受信デバイスに、前記複数のマルチメディア・ストリームの1つを該複数のマルチメディア・ストリームの他のいずれとも同期しないように命令することを含むことを特徴とする請求項1に記載の方法。   The communicated information comprises instructing the receiving device not to synchronize one of the plurality of multimedia streams with any other of the plurality of multimedia streams. Item 2. The method according to Item 1. 複数のマルチメディア・ストリームに同期情報を与えるコンピュータ・プログラム製品であって、
複数のマルチメディア・ストリームを受信デバイスに伝達するためのコンピュータ・コードと、
前記複数のマルチメディア・ストリームの少なくとも1つと該複数のマルチメディア・ストリームの少なくとも他の1つとの間に、非同期、又は指定量の同期遅延を可能にする、前記受信デバイスに対する特定の命令を含む、前記複数のマルチメディア・ストリームに関する情報を伝達するためのコンピュータ・コードと、
を含むことを特徴とするコンピュータ・プログラム製品。
A computer program product that provides synchronization information to multiple multimedia streams,
Computer code for communicating a plurality of multimedia streams to a receiving device;
Includes specific instructions for the receiving device that allow an asynchronous or specified amount of synchronization delay between at least one of the plurality of multimedia streams and at least one other of the plurality of multimedia streams. Computer code for communicating information about the plurality of multimedia streams;
A computer program product comprising:
前記命令は、前記受信デバイスに伝達されるセッション情報における属性として含まれることを特徴とする請求項12に記載のコンピュータ・プログラム製品。   The computer program product of claim 12, wherein the instructions are included as attributes in session information communicated to the receiving device. 前記命令は、前記マルチメディア・ストリームのうちの少なくとも2つの間に、受け入れることができる同期遅延値を含むことを特徴とする請求項12に記載のコンピュータ・プログラム製品。   The computer program product of claim 12, wherein the instructions include an acceptable synchronization delay value between at least two of the multimedia streams. 前記命令は“sync_jitter”属性を含むことを特徴とする請求項12に記載のコンピュータ・プログラム製品。   The computer program product of claim 12, wherein the instructions include a "sync_jitter" attribute. 前記“sync_jitter”属性は、受け入れることができる同期遅延値を伴うことを特徴とする請求項15に記載のコンピュータ・プログラム製品。   The computer program product of claim 15, wherein the “sync_jitter” attribute is accompanied by an acceptable synchronization delay value. 前記“sync_jitter”属性はSDP属性であることを特徴とする請求項15に記載のコンピュータ・プログラム製品。   The computer program product of claim 15, wherein the "sync_jitter" attribute is an SDP attribute. 前記伝達される情報は、前記受信デバイスに、前記複数のマルチメディア・ストリームの1つを該複数のマルチメディア・ストリームの他のいずれとも同期しないように命令することを含むことを特徴とする請求項12に記載のコンピュータ・プログラム製品。   The communicated information comprises instructing the receiving device not to synchronize one of the plurality of multimedia streams with any other of the plurality of multimedia streams. Item 13. The computer program product according to Item 12. 前記伝達される情報は、前記受信デバイスに、前記複数のマルチメディア・ストリームのいずれも互いに同期しないように命令することを特徴とする請求項12に記載のコンピュータ・プログラム製品。   The computer program product of claim 12, wherein the communicated information instructs the receiving device not to synchronize any of the plurality of multimedia streams. プロセッサと、
複数のマルチメディア・ストリームを受信デバイスに伝達するためのコンピュータ・コードと、
前記複数のマルチメディア・ストリームの少なくとも1つと該複数のマルチメディア・ストリームの少なくとも他の1つとの間に、非同期、又は指定量の同期遅延を可能にする、前記受信デバイスに対する特定の命令を含む、前記複数のマルチメディア・ストリームに関する情報を伝達するためのコンピュータ・コードと
を含む、前記プロセッサに動作的に連結するメモリ・ユニットと、
を含むことを特徴とする電子デバイス。
A processor;
Computer code for communicating a plurality of multimedia streams to a receiving device;
Includes specific instructions for the receiving device that allow an asynchronous or specified amount of synchronization delay between at least one of the plurality of multimedia streams and at least one other of the plurality of multimedia streams. A memory unit operatively coupled to the processor, comprising: computer code for communicating information about the plurality of multimedia streams;
An electronic device comprising:
前記命令は、前記受信デバイスに伝達されるセッション情報における属性として含まれることを特徴とする請求項20に記載の電子デバイス。   The electronic device according to claim 20, wherein the command is included as an attribute in session information transmitted to the receiving device. 前記命令は、前記マルチメディア・ストリームのうちの少なくとも2つの間に、受け入れることができる同期遅延値を含むことを特徴とする請求項20に記載の電子デバイス。   The electronic device of claim 20, wherein the instructions include an acceptable synchronization delay value between at least two of the multimedia streams. 前記命令は“sync_jitter”属性を含むことを特徴とする請求項20に記載の電子デバイス。   The electronic device of claim 20, wherein the instruction includes a "sync_jitter" attribute. 前記“sync_jitter”属性は、受け入れることができる同期遅延値を伴うことを特徴とする請求項23に記載の電子デバイス。   24. The electronic device of claim 23, wherein the "sync_jitter" attribute is accompanied by an acceptable synchronization delay value. 前記“sync_jitter”属性はSDP属性であることを特徴とする請求項23に記載の電子デバイス。   24. The electronic device of claim 23, wherein the “sync_jitter” attribute is an SDP attribute. 前記伝達される情報は、前記受信デバイスに、前記複数のマルチメディア・ストリームのいずれも互いに同期しないように命令することを特徴とする請求項20に記載の電子デバイス。   The electronic device of claim 20, wherein the communicated information instructs the receiving device not to synchronize any of the plurality of multimedia streams. 前記伝達される情報は、前記受信デバイスに、前記複数のマルチメディア・ストリームの1つを該複数のマルチメディア・ストリームの他のいずれとも同期しないように命令することを含むことを特徴とする請求項20に記載の電子デバイス。   The communicated information comprises instructing the receiving device not to synchronize one of the plurality of multimedia streams with any other of the plurality of multimedia streams. Item 20. The electronic device according to Item 20. 前記電子デバイスは、携帯電話、携帯情報端末、ラップトップ・コンピュータ、デスクトップ・コンピュータ、統合メッセージング・デバイス、及びそれらの組合せから成る群から選択されるデバイスを含むことを特徴とする請求項20に記載の電子デバイス。   The electronic device comprises a device selected from the group consisting of a mobile phone, a personal digital assistant, a laptop computer, a desktop computer, an integrated messaging device, and combinations thereof. Electronic devices. マルチメディア・コンテンツを処理するための方法であって、
送信デバイスから複数のマルチメディア・ストリームを受信し、
前記送信デバイスから、前記複数のマルチメディア・ストリームに関する情報を受信し、
前記受信した情報が、前記複数のマルチメディア・ストリームの少なくとも1つと該複数のマルチメディア・ストリームの他の少なくとも1つとの間に、非同期又は指定量の同期遅延を可能にする特定の命令を含む場合には、前記特定の命令により該複数のマルチメディア・ストリームを表示する、
ことを含むことを特徴とする方法。
A method for processing multimedia content, comprising:
Receive multiple multimedia streams from the sending device,
Receiving information about the plurality of multimedia streams from the transmitting device;
The received information includes specific instructions that allow an asynchronous or specified amount of synchronization delay between at least one of the plurality of multimedia streams and at least one other of the plurality of multimedia streams. And displaying the plurality of multimedia streams according to the specific instruction.
A method comprising:
前記命令は、前記マルチメディア・ストリームのうちの少なくとも2つの間に、受け入れることができる同期遅延値を含むことを特徴とする請求項29に記載の方法。   The method of claim 29, wherein the instructions include an acceptable synchronization delay value between at least two of the multimedia streams. 前記命令は“sync_jitter”属性を含むことを特徴とする請求項29に記載の方法。   30. The method of claim 29, wherein the instruction includes a "sync_jitter" attribute. 前記“sync_jitter”属性は、受け入れることができる同期遅延値を伴うことを特徴とする請求項31に記載の方法。   The method of claim 31, wherein the "sync_jitter" attribute is accompanied by an acceptable synchronization delay value. 前記受信された情報により、前記複数のマルチメディア・ストリームのいずれも互いに同期されないことを特徴とする請求項29に記載の方法。   30. The method of claim 29, wherein none of the plurality of multimedia streams are synchronized with each other due to the received information. 前記受信された情報により、前記複数のマルチメディア・ストリームの1つは、該複数のマルチメディア・ストリームの他のいずれのものとも同期されないことを特徴とする請求項29に記載の方法。   30. The method of claim 29, wherein the received information does not synchronize one of the plurality of multimedia streams with any other of the plurality of multimedia streams. プロセッサと、
複数のマルチメディア・ストリームを受信デバイスに伝達するための手段と、
前記複数のマルチメディア・ストリームの少なくとも1つと該複数のマルチメディア・ストリームの少なくとも他の1つとの間に、非同期又は指定量の同期遅延を可能にする、前記受信デバイスに対する特定の命令を含む、前記複数のマルチメディア・ストリームに関する情報を伝達するための手段と
を含む、前記プロセッサに動作的に連結するメモリ・ユニットと、
を含むことを特徴とする電子デバイス。
A processor;
Means for communicating a plurality of multimedia streams to a receiving device;
Specific instructions for the receiving device that allow an asynchronous or specified amount of synchronization delay between at least one of the plurality of multimedia streams and at least one other of the plurality of multimedia streams; Means for communicating information about the plurality of multimedia streams; and a memory unit operatively coupled to the processor;
An electronic device comprising:
JP2008527536A 2005-08-26 2006-08-25 Method for signaling a device so that a device performs asynchronous or includes a synchronization delay in a multimedia stream Pending JP2009506611A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/213,330 US20070047590A1 (en) 2005-08-26 2005-08-26 Method for signaling a device to perform no synchronization or include a synchronization delay on multimedia stream
PCT/IB2006/002325 WO2007023378A2 (en) 2005-08-26 2006-08-25 Method for signaling a device to perform no synchronization or include a syncronization delay on multimedia streams

Publications (1)

Publication Number Publication Date
JP2009506611A true JP2009506611A (en) 2009-02-12

Family

ID=37771989

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008527536A Pending JP2009506611A (en) 2005-08-26 2006-08-25 Method for signaling a device so that a device performs asynchronous or includes a synchronization delay in a multimedia stream

Country Status (10)

Country Link
US (1) US20070047590A1 (en)
EP (1) EP1938498A2 (en)
JP (1) JP2009506611A (en)
KR (1) KR20080038251A (en)
CN (1) CN101288257A (en)
AU (1) AU2006283294A1 (en)
MX (1) MX2008002738A (en)
RU (1) RU2392753C2 (en)
WO (1) WO2007023378A2 (en)
ZA (1) ZA200802531B (en)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006110960A1 (en) 2005-04-22 2006-10-26 National Ict Australia Limited Method for transporting digital media
CN100477650C (en) * 2005-09-30 2009-04-08 华为技术有限公司 IP interconnected gateway in next-generation of Internet and method for interconnecting IP domain
CN100479528C (en) * 2006-08-30 2009-04-15 华为技术有限公司 Method, system and stream media server of supporting multiple audio tracks
US20080178243A1 (en) * 2007-01-19 2008-07-24 Suiwu Dong Multimedia client/server system with audio synchronization and methods for use therewith
US8077745B2 (en) * 2007-03-23 2011-12-13 Qualcomm Incorporated Techniques for unidirectional disabling of audio-video synchronization
EP2043323A1 (en) * 2007-09-28 2009-04-01 THOMSON Licensing Communication device able to synchronise the received stream with that sent to another device
CN101340626B (en) * 2007-11-21 2010-08-11 华为技术有限公司 Method and apparatus for identifying and acquiring authority information in SDP protocol
CN100550860C (en) * 2007-11-27 2009-10-14 华为技术有限公司 Media resource reservation method and business packet information getting method and device
CN101729532B (en) 2009-06-26 2012-09-05 中兴通讯股份有限公司 Method and system for transmitting delay media information of IP multimedia subsystem
US8327029B1 (en) * 2010-03-12 2012-12-04 The Mathworks, Inc. Unified software construct representing multiple synchronized hardware systems
US9143539B2 (en) * 2010-11-18 2015-09-22 Interdigital Patent Holdings, Inc. Method and apparatus for inter-user equipment transfer of streaming media
US9014170B2 (en) * 2011-02-11 2015-04-21 Interdigital Patent Holdings, Inc. Method and apparatus for synchronizing mobile station media flows during a collaborative session
CN109068155B (en) * 2011-09-23 2021-01-26 韩国电子通信研究院 Apparatus for transmitting media data and apparatus for receiving media data
EP2592842A1 (en) 2011-11-14 2013-05-15 Accenture Global Services Limited Computer-implemented method, computer system, and computer program product for synchronizing output of media data across a plurality of devices
WO2014115147A1 (en) * 2013-01-24 2014-07-31 Telesofia Medical Ltd. System and method for flexible video construction
WO2015002586A1 (en) * 2013-07-04 2015-01-08 Telefonaktiebolaget L M Ericsson (Publ) Audio and video synchronization
KR20150026069A (en) * 2013-08-30 2015-03-11 삼성전자주식회사 Method for playing contents and an electronic device thereof
WO2018170852A1 (en) * 2017-03-23 2018-09-27 华为技术有限公司 Method and device for lip-speech synchronization among multiple devices
US11392786B2 (en) * 2018-10-23 2022-07-19 Oracle International Corporation Automated analytic resampling process for optimally synchronizing time-series signals

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5953049A (en) * 1996-08-02 1999-09-14 Lucent Technologies Inc. Adaptive audio delay control for multimedia conferencing

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1993005593A1 (en) * 1991-09-10 1993-03-18 Hybrid Networks, Inc. Remote link adapter for use in tv broadcast data transmission system
US5751694A (en) * 1995-05-22 1998-05-12 Sony Corporation Methods and apparatus for synchronizing temporally related data streams
US5737531A (en) * 1995-06-27 1998-04-07 International Business Machines Corporation System for synchronizing by transmitting control packet to omit blocks from transmission, and transmitting second control packet when the timing difference exceeds second predetermined threshold
US5570372A (en) * 1995-11-08 1996-10-29 Siemens Rolm Communications Inc. Multimedia communications with system-dependent adaptive delays
US6480902B1 (en) * 1999-05-25 2002-11-12 Institute For Information Industry Intermedia synchronization system for communicating multimedia data in a computer network
US7346698B2 (en) * 2000-12-20 2008-03-18 G. W. Hannaway & Associates Webcasting method and system for time-based synchronization of multiple, independent media streams
AU2003259240A1 (en) * 2002-07-26 2004-02-16 Green Border Technologies, Inc. Transparent configuration authentication of networked devices
JP2004112113A (en) * 2002-09-13 2004-04-08 Matsushita Electric Ind Co Ltd Method and apparatus for adaptively controlling real-time communication, method of measuring for continuous erasure of receiving report packet, apparatus for dynamically deciding sending interval of receiving report packet, data receiver and data delivering apparatus
US7231229B1 (en) * 2003-03-16 2007-06-12 Palm, Inc. Communication device interface
US7443849B2 (en) * 2004-12-30 2008-10-28 Cisco Technology, Inc. Mechanisms for detection of non-supporting NAT traversal boxes in the path

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5953049A (en) * 1996-08-02 1999-09-14 Lucent Technologies Inc. Adaptive audio delay control for multimedia conferencing

Also Published As

Publication number Publication date
MX2008002738A (en) 2008-03-26
AU2006283294A1 (en) 2007-03-01
WO2007023378A2 (en) 2007-03-01
WO2007023378A3 (en) 2007-04-26
ZA200802531B (en) 2009-01-28
KR20080038251A (en) 2008-05-02
CN101288257A (en) 2008-10-15
US20070047590A1 (en) 2007-03-01
RU2008107932A (en) 2009-10-10
RU2392753C2 (en) 2010-06-20
EP1938498A2 (en) 2008-07-02

Similar Documents

Publication Publication Date Title
JP2009506611A (en) Method for signaling a device so that a device performs asynchronous or includes a synchronization delay in a multimedia stream
US10015440B2 (en) Multiple channel communication using multiple cameras
EP2740265B1 (en) System and method for adapting video communications
US10778731B2 (en) Communications methods, apparatus and systems for conserving media resource function resources
EP2988494B1 (en) Apparatus for adapting video communications
US9363472B2 (en) Video injection for video communication
CN111147893B (en) Video self-adaption method, related equipment and storage medium
US20110010625A1 (en) Method for Manually Optimizing Jitter, Delay and Synch Levels in Audio-Video Transmission
US7280650B2 (en) Method and apparatus to manage a conference
US20100274909A1 (en) Connection device and connection method
JP2013013105A (en) Efficient interworking between circuit-switched and packet-switched multimedia services, regulating maximum packet size attribute
CN105122761A (en) Local control of additional media session for a packet based call
WO2023231478A1 (en) Audio and video sharing method and device, and computer-readable storage medium
US20220311812A1 (en) Method and system for integrating video content in a video conference session
US20190089755A1 (en) Multiplexing data
CN112689118B (en) Data transmission method and device for multi-screen network terminal
Yuan et al. A scalable video communication framework based on D-bus
Jang et al. Synchronization quality enhancement in 3G-324M video telephony
KR20050014554A (en) Multimedia streaming service method for mobile communication terminal
WO2017074811A1 (en) Multiplexing data

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100510

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20101018