JP2020155988A - バッファリング処理装置、通信システム、バッファリング処理方法、及びプログラム - Google Patents

バッファリング処理装置、通信システム、バッファリング処理方法、及びプログラム Download PDF

Info

Publication number
JP2020155988A
JP2020155988A JP2019053811A JP2019053811A JP2020155988A JP 2020155988 A JP2020155988 A JP 2020155988A JP 2019053811 A JP2019053811 A JP 2019053811A JP 2019053811 A JP2019053811 A JP 2019053811A JP 2020155988 A JP2020155988 A JP 2020155988A
Authority
JP
Japan
Prior art keywords
time
packet
buffering processing
video
networks
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019053811A
Other languages
English (en)
Inventor
中村 大輔
Daisuke Nakamura
大輔 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Communications Corp
Original Assignee
NTT Communications Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Communications Corp filed Critical NTT Communications Corp
Priority to JP2019053811A priority Critical patent/JP2020155988A/ja
Publication of JP2020155988A publication Critical patent/JP2020155988A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

【課題】複数系統のネットワークで伝送されるパケットを受信する受信側において、複数系統のパケット間のタイミングのずれを解消する。【解決手段】バッファリング処理装置において、複数系統のネットワーク間での最大遅延時間を保持する記憶部と、前記複数系統のネットワークのそれぞれから、時刻が付されたパケットを受信する入力部と、受信したパケットを系統毎に格納するバッファ部と、系統毎に、パケットに付された時刻から前記最大遅延時間が経過した時刻に当該パケットを出力する出力部とを備える。【選択図】図1

Description

本発明は、映像、音声、データ等のメディア信号をIP変換し、当該IPパケットを送信する技術に関連するものである。
カメラ・マイク等で取得した映像及び音声等のメディア信号をIP変換してネットワークに送信する技術がある。
メディア信号のIPパケット化においては、標準的な規定により、各社の製品が製造されている。標準的な規定としては、例えば、SMPTE(Society of Motion Picture and Television Engineers、米国映画テレビ技術者協会)が定めた標準規定ST2110があり、ST2110では、放送における映像・音声等メディア信号(SDI:Serial Digital Interface信号)をIPパケット(Video over IP)に変換(あるいはその逆の変換)する方法が規定されている。
当該規定では、変換装置及び途中のIPネットワーク経路上のスイッチ等各装置で時刻同期をさせたうえで、同期をIPパケットに反映させることで、放送用途での同期を実現させている。なお、時刻同期に関しては、SMPTE ST2059というPTP:Precision Time Protocol(IEEE1588)に基づく規定を利用して1μ秒以下の精度で時刻を合わせている。
特開2018−125744号公報
複数拠点のカメラ・マイク等で取得した映像/音声を、それぞれの拠点でIP変換してネットワーク送信することにより、複数拠点の映像/音声を合成して表示したり、複数拠点の映像/音声を切り替えて表示したりする用途が検討されている。
しかし、IP変換を行う各送信側拠点から、IPパケットを受信する受信側拠点へのネットワーク遅延は、送信側拠点毎に異なる。そのため、各送信側拠点から伝送されたそれぞれのIPパケットを映像・音声信号に変換して表示した際に、送信側拠点間で同じ時刻に取得された映像/音声を同時に表示することができず、ずれが生じる。そのため、例えば、同じ対象物(スポーツにおける競技者等)を複数の送信側拠点で撮影し、受信側拠点において映像・音声信号を合成した場合に合成映像・音声内でずれが生じたり、切り替えて利用しようとすると切替前後で映像・音声の流れが少し前へ遡ったり、少し先へ飛んだりすることになる。
本発明は上記の点に鑑みてなされたものであり、複数系統のネットワークで伝送されるパケットを受信する受信側において、複数系統のパケット間のタイミングのずれを解消することを可能とする技術を提供することを目的とする。
開示の技術によれば、複数系統のネットワーク間での最大遅延時間を保持する記憶部と、
前記複数系統のネットワークのそれぞれから、時刻が付されたパケットを受信する入力部と、
受信したパケットを系統毎に格納するバッファ部と、
系統毎に、パケットに付された時刻から前記最大遅延時間が経過した時刻に当該パケットを出力する出力部と
を備えるバッファリング処理装置が提供される。
開示の技術によれば、複数系統のネットワークで伝送されるパケットを受信する受信側において、複数系統のパケット間のタイミングのずれを解消することを可能とする技術が提供される。
本発明の実施の形態におけるシステムの全体構成例を示す図である。 本発明の実施の形態におけるシステムの全体構成例を示す図である。 バッファリング処理装置の機能構成を示す図である。 バッファリング処理装置のハードウェア構成例を示す図である。 バッファリング処理装置の処理手順を示すフローチャートである。 映像フレームの到着タイミングと送信タイミングとの関係を説明するための図である。
以下、図面を参照して本発明の実施の形態(本実施の形態)を説明する。以下で説明する実施の形態は一例に過ぎず、本発明が適用される実施の形態は、以下の実施の形態に限られるわけではない。
以下の説明では、映像、音声、データ(センサデータ、制御信号等)のそれぞれ、及びこれらの組み合わせ(映像+音声、映像+データ、音声+データ、又は、映像+音声+データ)を総称してメディア信号と呼ぶ。
また、本実施の形態における通信システムは、SMPTE ST2110、及びSMPTE ST2059に準拠した動作を行うことを想定しているが、SMPTE ST2110、及びSMPTE ST2059を用いることは一例に過ぎない。本発明は、SMPTE ST2110、及びSMPTE ST2059を用いない場合にも適用可能である。
また、本実施の形態における通信システムは、メディア信号をIP変換して伝送し、バッファに蓄積することとしているが、対象とするパケットはIPパケットに限らない。例えば、対象とするパケットが、Etherフレームであってもよいし、その他の単位のデータ(パケット、フレーム、あるいはセルと呼ばれてもよい)であってもよい。
(システム構成)
図1に、本実施の形態における通信システムの構成例を示す。図1に示すように、本実施の形態における通信システムでは、映像撮影及び音声収集可能なカメラ(マイクを含む)が複数の拠点(図1の例では拠点Aと拠点Bが示されている)に備えられている。各拠点は、1つの場所にあり、拠点毎の物理的な位置は異なっている。
なお、本実施の形態では、メディア信号として、カメラにより取得できる、映像単独、音声単独、あるいは映像と音声の組み合わせを用いることを想定しているが、例えば、センサ等から取得される振動データ等もメディア信号として用いることも可能である。この場合、例えば、ある拠点でコンサートの振動データをメディア信号として取得し、別の拠点で同じコンサートの映像・音声をメディア信号として取得し、受信側において、振動と映像・音声を同期させて出力することができる。
図1の例において、拠点Aには、カメラ11、メディア信号IP変換送出装置12、及びNWスイッチ13が備えられており、拠点Bには、カメラ21、メディア信号IP変換送出装置22、及びNWスイッチ23が備えられている。
カメラ11は、マイクも有しており、映像を撮影するとともに、音声を収集し、映像と音声からなるメディア信号としてのSDI信号を送信する。メディア信号IP変換送出装置12は、カメラから受信するメディア信号(具体的にはSDI信号)をIP変換し、IPパケットを送出する。NWスイッチ13は、受信したIPパケットを所望の宛先に向けて送出する。
拠点Bにおけるカメラ21、メディア信号IP変換送出装置22、NWスイッチ23は、それぞれ拠点Aにおけるカメラ11、メディア信号IP変換送出装置12、NWスイッチ13と同様の機能を備える。
拠点Oには、NWスイッチ14、24、バッファリング処理装置100、IP信号受信メディア変換装置15、25、再生装置16、26が備えられる。なお、再生装置16、26を備えることは一例に過ぎない。例えば、再生装置16、26に代えて、IP信号受信メディア変換装置15、25からのSDI信号を受信し、合成、切り替え等の編集を行って出力する配信サーバが備えられてもよい。
NWスイッチ14、24は、受信したIPパケットを所望の宛先に送出する。バッファリング処理装置100は、複数系統のネットワークから受信したIPパケットのタイミングを系統間で揃えてから当該IPパケットを出力する。バッファリング処理装置100の詳細は後述する。IP信号受信メディア変換装置15、25は、受信したIPパケットをメディア信号(具体的にはSDI信号)に変換し、出力する。
図1の例では、拠点Aと拠点Oとの間(具体的には、NWスイッチ13とNWスイッチ14との間)は、有線ネットワークで接続されている。また、拠点Bと拠点Oとの間(具体的には、NWスイッチ23とNWスイッチ24との間)は、無線ネットワークと有線ネットワークが組み合わされたネットワークで接続されている。ここでは、拠点Aと拠点Oとの間の経路を系統1と呼び、拠点Bと拠点Oとの間の経路を系統2と呼ぶ。無線ネットワークは、例えば5Gネットワークである。5Gネットワークにより、大容量でリアルタイム性のある通信が無線で可能になる。
図1に示す例において、それぞれの系統のネットワーク遅延は、伝送経路の距離や機器・回線種別によって異なる。例えば、無線区間では、カメラと基地局との距離や、周囲の建物の状況等によって、遅延が大きくなる場合がある。そのため、図1に示す例において、有線ネットワークのみで接続される拠点Aと拠点Oとの間と、無線ネットワークと有線ネットワークが組み合わされたネットワークで接続される拠点Bと拠点Oとの間では、後者の遅延のほうが大きくなることが考えられる。
そのため、複数拠点のカメラで取得したメディア信号を、それぞれの拠点で、SMPTE ST2110等の規定に従ってIP変換してネットワークに送信する場合において、伝送されたそれぞれのIPパケットをメディア信号(映像・音声信号)に変換して表示した際に、各地点の映像・音声の撮影時時刻からの遅延時間が系統間でずれてしまう。
このずれたままの映像・音声信号を、放送や映像解析等に利用しようとすると、例えば、同じ対象物(スポーツにおける競技者等)を複数のカメラで撮影した(IP変換・伝送、映像・音声信号に戻された)映像・音声信号を合成した場合に合成映像・音声内でずれが生じたり、切り替えて利用しようとすると切替前後で映像・音声の流れが少し前へ遡ったり、少し先へ飛んだりすることになる。
そこで、本実施の形態では、予め、それぞれの系統のネットワークにIPパケットを流した際の遅延量を測定しておき、測定した遅延量を実際のメディア伝送時の予測遅延量として使用する。具体的には、後述するように、バッファリング処理装置100において、系統間の遅延時間の最大値に合わせて、各系統のIPパケットをバッファに蓄積することで、各系統でタイミングを合わせて送信することとしている。
なお、本実施の形態では、メディア信号IP変換送出装置/IP信号受信メディア変換装置での変換にかかる時間は一定と見なしている。また、本実施の形態では、各装置における時刻はPTP:Precision Time Protocol(SMPTE ST2059に基づくプロファイル)により、誤差1μ秒以内に合わせられていて、メディア信号IP変換送出装置でその時刻(映像/音声/データがカメラ等で撮影/収集/取得された時刻であると見なしてよい)がIPヘッダに正しく書き込まれる。そのため、各IPパケットが送信タイミングからどれだけ遅延して到着しているかは、IPヘッダに書き込まれた時刻とバッファリング処理装置側の時刻とを比較することで算出できる。
(装置構成)
図2は、図1における構成において、拠点A,Bに加え、拠点Cが加えられた例を示す図である。図2は、拠点Cがあることを除き、実質的に図1と同じであるが、各系統の構成をより分かり易く示している。また、図2では、メディア信号IP変換送出装置12、22、32は、その処理内容(メディア信号をパケット化)に着目してEnCapsulationと記載している。また、IP信号受信メディア変換装置15、25、35は、その処理内容(パケットをメディア信号化)に着目してDeCapsulationと記載している。
図3に、バッファリング処理装置100の機能構成図を示す。図3に示すように、バッファリング処理装置100は、入力部110、バッファ部120、出力部130、制御部140を有する。
入力部110は、各NWスイッチからのIPパケットを受信し、入力する。バッファ部120は、例えば系統毎にバッファを備え、各バッファに各系統のIPパケットを格納する。出力部130は、各バッファからIPパケットを読み出し、送出する。制御部140は、IPパケットのバッファへの格納、及びIPパケットのバッファからの読み出しの制御を行う。制御の詳細は後述する。
(ハードウェア構成例)
バッファリング処理装置100は、例えば、コンピュータに、本実施の形態で説明する処理内容を記述したプログラムを実行させることにより実現可能である。
すなわち、バッファリング処理装置100は、コンピュータに内蔵されるCPUやメモリ等のハードウェア資源を用いて、当該バッファリング処理装置100で実施される処理に対応するプログラムを実行することによって実現することが可能である。上記プログラムは、コンピュータが読み取り可能な記録媒体(可搬メモリ等)に記録して、保存したり、配布したりすることが可能である。また、上記プログラムをインターネットや電子メール等、ネットワークを通して提供することも可能である。
図4は、本実施の形態における上記コンピュータのハードウェア構成例を示す図である。図4のコンピュータは、それぞれバスBで相互に接続されているドライブ装置1000、補助記憶装置1002、メモリ装置1003、CPU1004、インタフェース装置1005、表示装置1006、及び入力装置1007等を有する。
当該コンピュータでの処理を実現するプログラムは、例えば、CD−ROM又はメモリカード等の記録媒体1001によって提供される。プログラムを記憶した記録媒体1001がドライブ装置1000にセットされると、プログラムが記録媒体1001からドライブ装置1000を介して補助記憶装置1002にインストールされる。但し、プログラムのインストールは必ずしも記録媒体1001より行う必要はなく、ネットワークを介して他のコンピュータよりダウンロードするようにしてもよい。補助記憶装置1002は、インストールされたプログラムを格納すると共に、必要なファイルやデータ等を格納する。
メモリ装置1003は、プログラムの起動指示があった場合に、補助記憶装置1002からプログラムを読み出して格納する。CPU1004は、メモリ装置1003に格納されたプログラムに従って、当該バッファリング処理装置100に係る機能を実現する。インタフェース装置1005は、ネットワークに接続するためのインタフェースとして用いられる。表示装置1006はプログラムによるGUI(Graphical User Interface)等を表示する。入力装置1007はキーボード及びマウス、ボタン、又はタッチパネル等で構成され、様々な操作指示を入力させるために用いられる。
(動作例)
次に、図2、図3に示す構成を有するバッファリング処理装置100の動作例を図5のフローチャートの手順に沿って説明する。この動作の前提として、通信システム全体の各装置間では、SMPTE ST2059(PTP)により時刻が同期して揃っているものとする。
なお、以下では、遅延測定やmax_T算出等の事前処理をバッファリング処理装置100が行うこととしているが、これは一例であり、バッファリング処理装置100以外の装置が事前処理を行って、当該装置からmax_T等の値をバッファリング処理装置100に設定することとしてもよい。
<S101:事前処理>
本実施の形態では、事前に系統毎のネットワーク経路における、IPパケットを流したときの遅延時間を測定しておく。遅延時間の測定方法は特定の方法に限られないが、例えば、系統毎に、カメラ等でメディア信号を取得し、メディア信号IP変換送出装置によりメディア信号をIPパケットに変換し、送出し、受信側の拠点におけるNWスイッチあるいはバッファリング処理装置においてIPパケットの受信時刻からIPパケットのヘッダに付された時刻を引くことで遅延時間を測定する。
上記の測定に関し、測定の目的のためにIPパケットを流すこととしてもよいし、メディア伝送のサービス提供中に測定を行うこととしてもよい。
バッファリング処理装置100(の制御部140)は、系統毎の過去の遅延時間の実績をメモリ等の記憶部に記録し、系統毎に、有効範囲における(無視できる特殊な場合における無効値(異常値)を除いた)最小値と最大値をmin_t、max_tとし、また全系統合わせての最小値と最大値をmin_T、max_Tとし、これらの値を記憶部に保持する。
バッファリング処理装置100の制御部140は、系統毎に「max_T−min_t」を算出し、系統毎に、「max_T−min_t」の時間長に相当するサイズのバッファをバッファ部120に設定する。ある時間長に相当するバッファのサイズは、IPパケットの帯域(例:単位時間当たりの伝送バイト量等)と当該時間長を掛けることで得ることができる。なお、「バッファを設定する」とは、例えば、バッファとして使用するメモリ領域を確保することである。
系統毎に、「max_T−min_t」の時間長に相当するサイズのバッファを設定することは一例であり、例えば、各系統で同一の値であるmax_Tの時間長に相当するサイズのバッファを設定することとしてもよいし、これよりも大きなサイズのバッファを設定することとしてもよい。
上記の準備の後、拠点A〜CのそれぞれにおけるEnCapsulationに対してSDI→IP変換・送信の開始を指示し、拠点Oの各DeCapsulationにIP受信・SDI変換の開始を指示することで、IP化されたメディア信号の拠点間伝送が始まる。なお、ここでは、各カメラからのメディア信号送出が既に開始されている状態であるとする。また、送信側IPパケットには、メディア信号がIP変換された際の時刻xがIPヘッダに記される。当該時刻xは、カメラでメディア(映像等)が取得された時刻であると見なしてもよい。
<ステップS102:IPパケット入力、S103、バッファ蓄積>
系統毎に、メディア信号をIP化したIPパケットがバッファリング処理装置100に到着すると、入力部110によりIPパケットが入力され、入力されたIPパケットは系統毎にバッファに格納される。
<S104:IPパケット出力>
制御部140は、系統毎に、バッファに格納されているIPパケットのヘッダに記載されている時刻x(メディア信号がIP変換された時刻であり、映像等が撮影された時刻と見なしてよい)を確認し、時刻xからmax_T時間が経過したIPパケットを検出すると、当該IPパケットをバッファから読み出し、出力するよう、出力部130に指示する。指示を受けた出力部130は、当該時刻xのIPパケットを、その系統に対応するDeCapsulationに送信する。なお、時刻xからmax_T時間が経過したかどうか、つまり、IPパケットを出力するかどうかの判断を出力部130が行うこととしてもよい。
上記の制御により、各系統のバッファには「max_T−実際の遅延時間t」分のIPパケットが蓄えられることになり、時刻xの古いもの(例:撮影順)から送信されることになる。
<S105:IPパケット削除>
制御部140は、IPパケットが送出されたバッファから当該IPパケットを削除する。
各DeCapsulationでは、送られた順にIPパケットをSDI信号(映像・音声等)に変換する処理をして、当該SDI信号を例えば再生装置に出力する。また上記により、DeCapsulationから出力されるSDI信号をそのまま合成したり、リアルタイムで切り替えて出力したりすることで、同期の取れた合成・切替が可能になっている。
バッファリング処理装置100におけるIPパケットの到着タイミングとDeCapsulation(SDI変換装置)に送信するタイミングとの関係の例を図6に示す。図6においては、理解のしやすさのために、IPパケットを、SDI変換後の映像フレームとして表現している。ただし、図6の「映像フレーム」をIPパケットであると見なして考えてもよい。また、図6は、図2の場合のように、3つの系統がある場合を示している。
図6に示すように、max_t3が、通信システム全体での遅延の最大値であり、前述したmax_Tに相当する。また、t1、t2、t3はそれぞれ、系統1、系統2、系統3における実際の遅延時間である。
図6に示す状態において、映像フレームXは時刻xに取得された映像フレームである。これは、前述した時刻xのIPパケットに相当する。各系統において、時刻xからmax_t3が経過した時点で、当該映像フレームXはSDI変換装置に送信される。例えば、系統1に関し、時刻xの映像フレームXは、t1の遅延でバッファされるので、時刻xからmax_t3が経過した時点の時刻は、バッファされてから「max_t3−t1」が経過した時刻となる。よって、「max_t3−t1」分のパケットがバッファに蓄積されたら時刻xの映像フレームXが出力される。系統2、3も同様である。
系統1〜3において、時刻xの映像フレームXは、「時刻xからmax_t3が経過した時刻」に同時に出力される。それ以降の映像フレームも同様に、系統1〜3において同時に出力される。
(シナリオ例)
本実施の形態に係る技術は様々な場面(シナリオ)において適用することが可能であり、特定のシナリオに限定して適用されるわけではない。本実施の形態に係る技術が適用されるシナリオの例として下記のシナリオ(1)〜(3)がある。
(1)同じ被写体を撮影した際の、別のカメラ・マイクの映像・音声を合成する場合に、映像と音声をきちんと合わせたい場合。例えば、野球の試合において、バッターをカメラで遠隔から撮影するとともに、そのバッターの打球音をバッターに近いマイクで収集する場合において、バットに球が当たる映像と、打球音とが合うようにする。
(2)同じ被写体を別の角度から撮影した映像を切り替えて放送する際に、時刻が巻き戻ったり、シーンが飛んだりしないようにする場合。例えば、駅伝のテレビ中継において、中継車のカメラで撮影された映像と、定点カメラで撮影された映像とを切り替えて、走者の一連の動作を見せる。
(3)複数拠点の映像・音声を同時に並べて表示する場合。例えば、複数拠点での音楽セッション等でタイミングを合わせて演奏する様子を同時に並べて表示する際に、拠点間で映像・音声がずれないように表示を行う。
(効果について)
本実施の形態に係る技術により、複数拠点のカメラ、マイク、センサ等で取得したメディア信号(映像、音声、データ等)を、それぞれの拠点でIP変換してネットワーク送信する場合において、系統間でのIPネットワーク遅延が異なる場合であっても、受信側において複数系統のIPパケットをタイミングを合わせて出力できる。これにより、例えば、放送や映像解析等において映像・音声信号を合成や切替等に利用する際に、合わせる作業を行わなくても、合成映像・音声内でずれが生じることがなくなり、また、切替前後で映像・音声の流れが少し前へ遡ったり、少し先へ飛んだりすることもなくなる。
なお、ずれを調整する方法として、IP変換前に(カメラ側で)調整する方法や、映像・音声信号(SDI信号)に再変換後に調整する方法も考えられる。しかし、これらの方法では、SDI信号としての同期のための放送基準信号(BB信号:Black Burst Signal等)の配布が必要になりコストがかかる。
他方、本実施の形態に係る技術では、IPネットワーク上の機器で同期している時刻をそのまま参照できるので、放送基準信号の配布が不要でありコストメリットがある。また、本実施の形態に係る技術は、IPネットワーク上での処理であるために、IPネットワークにおける遅延量の変化に対応し易いというメリットもある。
(実施の形態のまとめ)
以上、説明したとおり、本明細書には、少なくとも、下記の各項に記載したバッファリング処理装置、通信システム、バッファリング処理方法、及びプログラムが開示されている。
(第1項)
複数系統のネットワーク間での最大遅延時間を保持する記憶部と、
前記複数系統のネットワークのそれぞれから、時刻が付されたパケットを受信する入力部と、
受信したパケットを系統毎に格納するバッファ部と、
系統毎に、パケットに付された時刻から前記最大遅延時間が経過した時刻に当該パケットを出力する出力部と
を備えるバッファリング処理装置。
なお、上記の最大遅延時間は、例えば、実施の形態でのmax_Tに相当する。
(第2項)
前記パケットは、映像、音声、データ、又は、これらの任意の組み合わせであるメディア信号から変換されたパケットである
第1項に記載のバッファリング処理装置。
(第3項)
前記最大遅延時間は、前記複数系統のネットワークのそれぞれにおいて測定された過去の遅延時間における最大遅延時間のうち、前記複数系統のネットワーク間で最大の遅延時間である
第1項又は第2項に記載のバッファリング処理装置。
(第4項)
前記複数系統のネットワークの受信側に、第1項ないし第3項のうちいずれか1項に記載の前記バッファリング処理装置を備え、
前記複数系統のネットワークのそれぞれの送信側に、映像、音声、データ、又は、これらの任意の組み合わせであるメディア信号を、時刻を付したパケットに変換する変換装置を備える
通信システム。
(第5項)
複数系統のネットワーク間での最大遅延時間を保持するバッファリング処理装置が実行するバッファリング処理方法であって、
前記複数系統のネットワークのそれぞれから、時刻が付されたパケットを受信する入力ステップと、
受信したパケットを系統毎に格納するバッファリングステップと、
系統毎に、パケットに付された時刻から前記最大遅延時間が経過した時刻に当該パケットを出力する出力ステップと
を備えるバッファリング処理方法。
(第6項)
コンピュータを、第1項ないし第3項のうちいずれか1項に記載のバッファリング処理装置における各部として機能させるためのプログラム。
以上、本実施の形態について説明したが、本発明はかかる特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
11、21、31 カメラ
12、22、32 メディア信号IP変換送出装置
13、14、23、24、33、34 NWスイッチ
15、25、35 IP信号受信メディア変換装置
16、26、36 再生装置
100 バッファリング処理装置
110 入力部
120 バッファ部
130 出力部
140 制御部
1000 ドライブ装置
1002 補助記憶装置
1003 メモリ装置
1004 CPU
1005 インタフェース装置
1006 表示装置
1007 入力装置

Claims (6)

  1. 複数系統のネットワーク間での最大遅延時間を保持する記憶部と、
    前記複数系統のネットワークのそれぞれから、時刻が付されたパケットを受信する入力部と、
    受信したパケットを系統毎に格納するバッファ部と、
    系統毎に、パケットに付された時刻から前記最大遅延時間が経過した時刻に当該パケットを出力する出力部と
    を備えるバッファリング処理装置。
  2. 前記パケットは、映像、音声、データ、又は、これらの任意の組み合わせであるメディア信号から変換されたパケットである
    請求項1に記載のバッファリング処理装置。
  3. 前記最大遅延時間は、前記複数系統のネットワークのそれぞれにおいて測定された過去の遅延時間における最大遅延時間のうち、前記複数系統のネットワーク間で最大の遅延時間である
    請求項1又は2に記載のバッファリング処理装置。
  4. 前記複数系統のネットワークの受信側に、請求項1ないし3のうちいずれか1項に記載の前記バッファリング処理装置を備え、
    前記複数系統のネットワークのそれぞれの送信側に、映像、音声、データ、又は、これらの任意の組み合わせであるメディア信号を、時刻を付したパケットに変換する変換装置を備える
    通信システム。
  5. 複数系統のネットワーク間での最大遅延時間を保持するバッファリング処理装置が実行するバッファリング処理方法であって、
    前記複数系統のネットワークのそれぞれから、時刻が付されたパケットを受信する入力ステップと、
    受信したパケットを系統毎に格納するバッファリングステップと、
    系統毎に、パケットに付された時刻から前記最大遅延時間が経過した時刻に当該パケットを出力する出力ステップと
    を備えるバッファリング処理方法。
  6. コンピュータを、請求項1ないし3のうちいずれか1項に記載のバッファリング処理装置における各部として機能させるためのプログラム。
JP2019053811A 2019-03-20 2019-03-20 バッファリング処理装置、通信システム、バッファリング処理方法、及びプログラム Pending JP2020155988A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019053811A JP2020155988A (ja) 2019-03-20 2019-03-20 バッファリング処理装置、通信システム、バッファリング処理方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019053811A JP2020155988A (ja) 2019-03-20 2019-03-20 バッファリング処理装置、通信システム、バッファリング処理方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2020155988A true JP2020155988A (ja) 2020-09-24

Family

ID=72559948

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019053811A Pending JP2020155988A (ja) 2019-03-20 2019-03-20 バッファリング処理装置、通信システム、バッファリング処理方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP2020155988A (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004254149A (ja) * 2003-02-21 2004-09-09 Nippon Telegr & Teleph Corp <Ntt> データ伝送制御方法およびシステム
JP2010016449A (ja) * 2008-07-01 2010-01-21 Kddi Corp グループ通信装置及びグループ通信プログラム
JP2014127863A (ja) * 2012-12-26 2014-07-07 Nippon Telegr & Teleph Corp <Ntt> チャネル同期方法とその装置とプログラムとその記録媒体
US20170195243A1 (en) * 2016-01-06 2017-07-06 Nxp B.V. Received path delay mechanism
JP2018037885A (ja) * 2016-08-31 2018-03-08 株式会社メディアリンクス 時刻同期システム
JP2018042020A (ja) * 2016-09-05 2018-03-15 株式会社メディアリンクス 映像伝送システム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004254149A (ja) * 2003-02-21 2004-09-09 Nippon Telegr & Teleph Corp <Ntt> データ伝送制御方法およびシステム
JP2010016449A (ja) * 2008-07-01 2010-01-21 Kddi Corp グループ通信装置及びグループ通信プログラム
JP2014127863A (ja) * 2012-12-26 2014-07-07 Nippon Telegr & Teleph Corp <Ntt> チャネル同期方法とその装置とプログラムとその記録媒体
US20170195243A1 (en) * 2016-01-06 2017-07-06 Nxp B.V. Received path delay mechanism
CN107066402A (zh) * 2016-01-06 2017-08-18 恩智浦有限公司 接收路径延迟机制
JP2018037885A (ja) * 2016-08-31 2018-03-08 株式会社メディアリンクス 時刻同期システム
JP2018042020A (ja) * 2016-09-05 2018-03-15 株式会社メディアリンクス 映像伝送システム

Similar Documents

Publication Publication Date Title
US8264421B2 (en) Multi-screen video playback system
US9462195B2 (en) System and method for distributed video and or audio production
JP5086285B2 (ja) 映像配信システム,映像配信装置,及び同期補正処理装置
JP4322851B2 (ja) 動画配信システムおよび動画配信サーバー
US10341672B2 (en) Method and system for media synchronization
EP2866451A1 (en) Method and apparatus for IP video signal synchronization
JP2005244931A (ja) マルチ画面映像再生システム
KR20180090719A (ko) 미디어 동기화 방법 및 시스템
JP6486628B2 (ja) メディア・ストリームの同期再生を行う相互接続マルチメディア・システム
CN113542897A (zh) 一种适用于多视角直播的音视频直播方法
JPWO2017179593A1 (ja) Avサーバおよびavサーバシステム
JP4329819B2 (ja) タイミングサーバ、描画ユニット及び表示装置
JP4534201B2 (ja) 情報コミュニケーション端末装置
JP7053525B2 (ja) バッファリング処理装置、通信システム、バッファリング処理方法、及びプログラム
JP2020155988A (ja) バッファリング処理装置、通信システム、バッファリング処理方法、及びプログラム
JPH10224772A (ja) 遠隔制御装置
JP2018182617A (ja) 情報処理装置、情報処理方法、プログラム、および記録媒体製造方法
JP2009081654A (ja) ストリーム同期再生システム及び方法
JP2020005063A (ja) 処理装置及びその制御方法、出力装置、同期制御システム、並びにプログラム
JP7315758B1 (ja) メディア伝送システム、送信装置、送信システム、受信装置及び受信システム
JP5068224B2 (ja) 映像送受信システム及びその制御方法
KR0154005B1 (ko) 시스템 부호화기를 위한 재생시간정보 발생장치
CN115297335B (zh) 基于接收缓冲区的视频直播时的音频传输方法及系统
JP7480908B2 (ja) 映像合成装置及び映像合成方法
KR101810883B1 (ko) 라이브 스트리밍 시스템 및 그의 스트리밍 클라이언트

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210623

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220311

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220530

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220802