JP6197211B2 - 映像音声配信システム、音声映像配信方法及びプログラム - Google Patents
映像音声配信システム、音声映像配信方法及びプログラム Download PDFInfo
- Publication number
- JP6197211B2 JP6197211B2 JP2013203145A JP2013203145A JP6197211B2 JP 6197211 B2 JP6197211 B2 JP 6197211B2 JP 2013203145 A JP2013203145 A JP 2013203145A JP 2013203145 A JP2013203145 A JP 2013203145A JP 6197211 B2 JP6197211 B2 JP 6197211B2
- Authority
- JP
- Japan
- Prior art keywords
- communication terminal
- video
- audio
- signal
- video signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Telephonic Communication Services (AREA)
Description
このようなテレプレゼンスシステムとして、例えば特許文献1には、3以上の会議室の動画を合成して仮想会議室の映像を大画面ディスプレイに表示する映像表示装置が記載されている。
この対策として、厳密に時間調整された時計とメトロノームなどを使うことによってリズムを合わせることが可能になるものの、コラボレーション演奏の基準となる奏者や指揮者の動きを遅延時間なしで遠隔地のスタジオに伝えることができないので、映像信号と音声信号の収録と合成にあたっては、きめ細かな予行演習など大掛かりな準備が必要となる課題があった。特に、コラボレーション演奏の間に、複数の遠隔地のスタジオ間で交わされる会話が交わるような場合、会話と演奏と両立させにくい。
第2の技術手段は、第1の技術手段において、前記映像音声合成装置は、第1通信端末から送信された映像信号及び音声信号と、前記第2通信端末から送信された映像信号及び音声信号を、前記同期させることなくそれぞれ合成する第2のモードをさらに有し、前記第1のモードと前記第2のモードとを切り換えることを特徴とするものである。
第9の技術手段は、第8の技術手段において、前記映像音声合成装置は、前記第1通信端末から送信された映像信号及び音声信号と、前記第2通信端末から送信された映像信号及び音声信号を、前記同期させることなくそれぞれ合成する第2のモードをさらに有し、前記第1のモードと前記第2のモードとを切り換えるステップを有することを特徴としたものである。
第1通信端末10及び第2通信端末20は、例えば音楽スタジオ等に配置することができ、音楽家や芸術家などの演奏やパフォーマンス等の映像信号及び音声信号を収録し、映像信号及び音声信号を相互に送信して表示部やスピーカから出力することができる。
そして映像音声合成装置30は、合成した映像信号及び音声信号を通信回線を介して接続された複数のユーザ通信端末40(第1ユーザ通信端末40a〜第nユーザ通信端末40n)に送信可能とする。
一方、第1通信端末10で収録された映像信号及び音声信号は、映像音声合成装置30にも送信される。そして、第1通信端末10で収録された映像信号及び音声信号と、第2通信端末20で収録された映像信号及び音声信号とを映像音声合成装置30で合成することで、遠隔の二つの場所で演奏等がなされた映像と音声を合成して出力させることができる。
第1のモードは、上記のような遠隔の場所で両者の演奏等を同期させて合成するためのモードであり、コラボレーション演奏/合成モードとして使用できるものである。第1のモードでは、映像音声合成装置30は、第1通信端末10から送信された映像信号及び音声信号と、第1通信端末10から送信された映像信号及び音声信号が第2通信端末20で再生され、再生と同時に収録された映像信号及び音声信号と、を同期させて、第1通信端末10から送信された映像信号と第2通信端末20から送信された映像信号とを合成するともに、第1通信端末10から送信された音声信号と第2通信端末20から送信された音声信号とを合成する。これにより演奏時におけるリズムズレや会話時における間延びを抑え、合成した音声映像に対する違和感を低減できる。
なお、本発明における同期とは、遠隔の場所でそれぞれ収録された映像音声を合成する際に、特別な遅延量を意識的に与えることによって、データ処理時間やデータ通信時間に起因して発生する(相対的な)ズレ時間を短くすることを示し、ズレ時間としては人が違和感を感じないレベル(あるいは、認識できない)の時間(例えば0.3秒以内)に収めることが好ましい。
第1通信端末10は、表示部11と、ユーザを撮像する撮像部12と、第2通信端末20で取得された音声信号を出力するスピーカ13と、ユーザの音声を取得するマイクロフォン14と、ユーザによる操作入力を受け付ける操作部19とを備える。
映像音声処理部17は、撮像部12で撮像された映像信号、及びマイクロフォン14で取得した音声信号を圧縮符号化処理して出力する。また、通信相手となる第2通信端末20から送信された映像信号及び音声信号を復号処理して、表示部11及びスピーカ13から出力可能とする。
映像音声処理部27は、撮像部22で撮像された映像信号、及びマイクロフォン24で取得した音声信号を圧縮符号化処理して出力する。また、第1通信端末10から送信された映像信号及び音声信号を復号処理して、表示部21及びスピーカ23から出力可能とする。通信処理部28は、映像信号及び音声信号を送受信するための通信制御処理を行う。
第1通信端末10の映像音声処理部17は、映像信号を入力して符号化(エンコード)するビデオエンコーダ171と、音声信号を入力して符号化(エンコード)するオーディオエンコーダ172を備える。映像信号は、図2に示す撮像部12にて取得され、音声信号は、同じく図2のマイクロフォン14で取得される。
例えば本映像音声配信システムには、RTP(Real-time Transport Protocol)を用いてデータ配信を行うシステムを適用することができる。一般にRTPは、音声や動画映像などのデータストリームをリアルタイムに配送するためのデータ転送プロトコルである。RTPパケットを受信したホストでは、各パケットの時間の情報から時間的な関係を把握し、データを再生することができる。RTPパケットは、通信端末の映像や音声についてそれぞれ決まったパケット送出間隔で送信する。RTPヘッダにはタイムスタンプを記述することができる。
第1受信部301は、第1通信端末10から送信された映像信号及び音声信号を多重化した多重化信号を受信する。受信した多重化信号は、マルチメディア分離部302で分離され、分離された映像信号が第1ビデオデコーダ303で復号されて、第1ビデオ遅延メモリ305に保持される。また、マルチメディア分離部302で分離された音声信号は、第1オーディオデコーダ304で復号され、第1オーディオ遅延メモリ306に保持される。
また、第2受信部307では、第1通信端末10から送信された多重化データから、第2ビデオタイムスタンプと第2オーディオタイムスタンプを取り出し、第1/第2タイムスタンプ比較部320に出力する。
映像合成部314で合成された映像信号は、ビデオエンコーダ316で符号化され、マルチメディア多重化部318に出力される。また音声合成部315から出力された音声信号は、オーディオエンコーダ317で符号化されてマルチメディア多重化部318に出力される。マルチメディア多重化部318は、入力した映像信号と音声信号を多重化し、合成動画送信部319からネットワーク上のユーザ通信端末に送信する。
(第1の実施形態)
図5は、本発明による音声映像システムで第1のモードにより映像信号及び音声信号を合成して配信するときの処理例を説明するためのタイミングチャートである。
第1のモードは、上記のように第1通信端末10から送信された映像信号及び音声信号と、第1通信端末10から送信された映像信号及び音声信号が第2通信端末20で再生され、再生と同時に収録された映像信号及び音声信号と、を同期させて、第1通信端末10から送信された映像信号と第2通信端末20から送信された映像信号とを合成するともに、第1通信端末10から送信された音声信号と第2通信端末20から送信された音声信号とを合成するモードである。
第1のモードでは、第1通信端末10から第2通信端末20への映像信号と音声信号の送信を音質・画質優先モードで実行するものとする。
エンコードされた映像信号及び音声信号は、各ユーザ通信端末40a〜40nに配信されて再生される(S13,S14)。遅延時間d4には、映像音声合成装置30による映像信号及び音声信号の送信からネットワーク遅延時間、ユーザ通信端末における受信、デコード、再生までの時間が含まれる。
上記第1の実施形態では、第2通信端末20でタイムスタンプを補正するときに、第1通信端末10で第1映像信号及び第1音声信号を収録した時点から、その映像信号及び音声信号が第2通信端末20で再生されるまでの遅延時間d1を予め測定し、第2通信端末20で第2映像信号及び第2音声信号の収録時に付与されるタイムスタンプを、遅延時間d1だけ早くなるように補正した。
これに対してタイムスタンプを補正する第2実施形態では、第2通信端末20は、第1通信端末10で第1映像信号及び第1音声信号を収録したときの時刻を記録したタイムスタンプと、その第1映像信号及び第1音声信号を符号化した符号化信号が第2通信端末20で再生されたときの時刻を示すタイムスタンプとに基づき、これらの時間差を計算して遅延時間d1とする。そして映像音声合成装置30では、第2通信端末20で第2映像信号及び第2音声信号の収録時に付与されるタイムスタンプを、遅延時間d1だけ早くなるように補正する。
図6は、本発明による音声映像システムで第2のモードにより映像信号及び音声信号を合成して配信するときの処理例を説明するためのタイミングチャートである。
第2のモードは、上記のように第1通信端末10から送信された第1映像信号及び第2音声信号と、第2通信端末20から送信された第2映像信号及び第2音声信号を同期させることなくそれぞれ合成するモードである。第2のモードは、第1のモードのようなコラボレーション演奏等を意識することなく、遠隔の場所で収録された映像信号及び音声信号をできるだけ遅延なくそのまま合成して出力させるモードで、例えば遠隔のユーザ同士が対話を行うときのトーク/合成モードとして使用できるものである。
つまり、第1通信端末10における収録と、第2通信端末20における収録が並行して行われ、収録された各映像信号及び音声信号が相手先の通信端末に送信される。
また、第1通信端末10では、第2映像信号と第2音声信号とのタイムスタンプに基づき、これら第2映像信号と第2音声信号とを同期させて再生出力させるようにしてもよい。この場合、再生が遅くなる方のメディアに同期させてもう一方のメディの再生を行うことができる。
また、第2通信端末20では、第1映像信号と第1音声信号とのタイムスタンプに基づき、これら第1映像信号と第1音声信号とを同期させて再生出力させるようにしてもよい。この場合、再生が遅くなる方のメディアに同期させてもう一方のメディの再生を行うことができる。
エンコードされた映像音声合成信号は、各ユーザ通信端末40に配信されて再生される(S35,S36)。遅延時間d17には、映像音声合成装置30による映像信号及び音声信号の送信からネットワーク遅延時間、ユーザ通信端末における受信、デコード、再生までの時間が含まれる。
上記第3の実施形態では、映像音声合成装置30では、第1通信端末10から送信された第1映像信号及び第1音声信号と、第2通信端末20から送信された第2映像信号及び第2音声信号とをタイムスタンプを使用して同期させて合成した。
これに対して第4の実施形態では、映像音声合成装置30では、第1通信端末10から送信された映像信号及び音声信号と、第2通信端末20から送信された映像信号及び音声信号とをタイムスタンプにより同期させることなく、再生可能となった時点で随時再生し、再生された映像信号及び音声信号を合成してユーザ通信端末40に送信する。この場合、第1通信端末10から送信された第1映像信号及び第1音声信号をタイムスタンプにより同期させ、かつ第2通信端末20から送信された第2映像信号及び第2音声信号をタイムスタンプにより同期させて再生し、第1通信端末10と第2通信端末20との間では同期を考慮することなく適宜再生するものであってもよい。
本実施形態では、第1通信端末10で第1映像信号及び第1音声信号が収録されてから、映像音声合成装置30で合成が行われるまでの時間を、第1のモードと第2のモードとで同じにする。これにより、第1のモードと第2のモードとが相互に切り替えられたときにも、ユーザの違和感をできるだけ無くすようにすることができる。
これにより、例えば音楽等のリズムの基準となる第1通信端末10で収録された映像信号及び音声信号の合成タイミングが第1のモードと第2のモードとで変化しないため、モード切り替え時の違和感をできるだけ抑えることができる。
本実施形態では、第1通信端末10で第1映像信号及び第1音声信号が収録されてから、映像音声合成装置30で合成が行われるまでの時間を、第1のモードと第2のモードの切り換え時に徐々に切り替えるようにする。これにより、第1のモードと第2のモードとが相互に切り替えられたときにも、ユーザの違和感をできるだけ無くすようにすることができる。
これにより、第1のモードと第2のモードとを切り換えたときに、モード切り替え時の映像と音声の間伸びや飛びによる違和感をできるだけ抑えることができる。
図7は、本発明による映像音声配信システムに使用する通信端末の外観構成例を示す図である。図7は第1通信端末10を例とするが、第2通信端末20も同様の構成とすることができる。第1通信端末10は、表示部11が備えられ、第2通信端末20で撮像されたユーザの映像が表示される。また、スピーカ13からは、第2通信端末20で撮像されたユーザの音声が出力される。撮像部12は、表示部11の正面方向に画角を有するカメラからなり、第1通信端末10を使用するユーザを撮像する。また、マイクロフォン14は、第1通信端末10を使用するユーザの音声を取得する。撮像部12とマイクロフォン14によりそれぞれ取得された映像信号及び音声信号は、映像音声合成装置30及び第2通信端末20に送信される。
映像音声配信システムでは、コレボレーション演奏等が可能な第1のモードと、遠隔地のユーザが対話するときの第2のモードとが切り換え可能に設定される。
第1のモードは、遠隔の場所で両者の演奏等を同期させて合成するためのモードであり、例えば第1通信端末10で取得された映像が、図8(B)に示すように第2通信端末20の表示部21に表示される。このときに第1通信端末10で取得された音声信号も第2通信端末20のスピーカ23から音声出力される。
これにより、第2通信端末20では、第1通信端末10で演じられた音楽等に合わせたリズムやテンポ等でコラボレーション演奏等を行うことができる。
また、第2通信端末20で撮影された映像信号は、第1通信端末10で表示させることができるが、この場合、デコード及びエンコードによる遅延やネットワーク通信の遅延等が含まれるため、第1のモードでは参考とされる程度となる。この場合、第2通信端末10で取得された音声は第1通信端末10では出力しないようにすることができる。
これにより、第1通信端末10と第2通信端末20のユーザは、できるだけリアルタイムに近い状態で相互に映像と音声をやりとりしながら対話等を行うことができる。
一方、第2のモードの場合には、第1通信端末10と第2通信端末20でできるだけリアルタイムに近い状態で収録された映像信号及び音声信号をユーザ通信端末で視聴することができる。
映像配信システムでは、まず第1通信端末10、第2通信端末20、及び映像音声合成装置30の通信接続を行う(ステップS1)。そして映像音声配信システムのトーク時合成スイッチがONであるか判断する(ステップS2)。トーク時合成スイッチとは、遠隔のユーザ同士の対話の合成に好適な第2のモードを選択するためのスイッチであり、例えば映像音声合成装置30、もしくは第1通信端末10または第2通信端末20のいずれかまたは複数の機器に設けられ、当該スイッチがONであるかの判断はそのスイッチが操作された機器が行うことができる。なおこのスイッチは、ボタンなどのハードキーだけでなくソフトウェア上のボタンを含む。
また、トーク時合成スイッチがONであれば、さらにコラボ演奏時合成スイッチがONであるかを判断する(ステップS3)。コラボ演奏時合成スイッチとは、遠隔のユーザ同士コラボレーションしながら演奏等を行う場合に好適な第1のモードを選択するためのスイッチであり、例えば映像音声合成装置30、もしくは第1通信端末10または第2通信端末20のいずれかまたは複数の機器に設けられ、当該スイッチがONであるかの判断はそのスイッチが操作された機器が行うことができる。なお第1のモード、及び第2のモードを選択するための手段は、上記のようなスイッチに限ることなく適宜設計できる。
ここではまず、第1通信端末10の撮像部12とマイクロフォン14とにより、第1通信端末10のユーザの映像信号及び音声信号を収録する(ステップS12)。また、第2通信端末20では、撮像部22とマイクロフォン24とにより、第2通信端末20のユーザの映像信号及び音声信号を収録する(ステップS13)。ステップS12とステップS13とは並行して実行することができる。
第1通信端末10では、受信した映像信号及び音声信号を復号し、映像信号と音声信号とを同期させて表示部11とスピーカ13で再生出力させる(ステップS16)。また、第2通信端末20では、受信した映像信号及び音声信号を復号し、映像信号と音声信号とを同期させて表示部21とスピーカ23で再生出力させる(ステップS17)。ステップS16とステップS17の処理も並行して実行することができる。
Claims (10)
- 第1通信端末、第2通信端末、及び映像音声合成装置が通信可能に備えられた映像音声配信システムであって、
前記第1通信端末は、該第1通信端末が収録した映像信号及び音声信号を前記第2通信端末と前記映像音声合成装置に送信し、前記第2通信端末は、前記第1通信端末から送信された映像信号及び音声信号を再生し、該再生とともに収録した映像信号及び音声信号を前記映像音声合成装置に送信し、
前記映像音声合成装置は、
前記第1通信端末から送信された映像信号及び音声信号と、
前記第1通信端末から送信された映像信号及び音声信号が第2通信端末で再生され、該再生と同時に収録された映像信号及び音声信号と、を同期させて、
前記第1通信端末から送信された映像信号と前記第2通信端末から送信された映像信号とを合成するとともに、前記第1通信端末から送信された音声信号と前記第2通信端末から送信された音声信号とを合成する第1のモードを有することを特徴とする映像音声配信システム。 - 請求項1に記載の映像音声配信システムにおいて、前記映像音声合成装置は、前記第1通信端末から送信された映像信号及び音声信号と、前記第2通信端末から送信された映像信号及び音声信号を、前記同期させることなくそれぞれ合成する第2のモードをさらに有し、前記第1のモードと前記第2のモードとを切り換えることを特徴とする映像音声配信システム。
- 請求項1または2に記載の映像音声配信システムにおいて、
前記映像音声合成装置は、前記第1のモードでは、
前記第1通信端末で映像信号及び音声信号に対して付与されるタイムスタンプと、
前記第1通信端末で映像信号及び音声信号に対して付与されたタイムスタンプを有する映像信号及び音声信号が前記第2通信端末で再生され、該再生と同時に収録された映像信号及び音声信号に対して前記第2通信端末で付与されたタイムスタンプとを一致させるように合成を行うことを特徴とする映像音声配信システム。 - 請求項3に記載の映像音声配信システムにおいて、
予め前記第1通信端末で収録された映像信号及び音声信号が、前記第2通信端末で再生されるまでの時間を測定しておき、
前記第2通信端末は、前記第1のモードでは、
第2通信端末で映像信号及び音声信号に付与されるタイムスタンプを、測定した前記時間だけ早くなるように補正することを特徴とする映像音声配信システム。 - 請求項3に記載の映像音声配信システムにおいて、
前記第2通信端末は、前記第1のモードでは、
前記第1通信端末で映像信号及び音声信号を収録したときのタイムスタンプと、前記第1通信端末でタイムスタンプが付与された映像信号及び音声信号が前記第2通信端末で再生されたときの時刻に相当するタイムスタンプとの時間差を計算し、
第2通信端末で映像信号及び音声信号に付与されるタイムスタンプを、前記時間差だけ早くなるように補正することを特徴とする映像音声配信システム。 - 請求項2に記載の映像音声配信システムにおいて、
前記第1通信端末で映像信号及び音声信号が収録されてから、前記映像音声合成装置で合成が行われるまでの時間を、前記第1のモードと前記第2のモードとで同じにすることを特徴とする映像音声配信システム。 - 請求項2に記載の映像音声配信システムにおいて、
前記映像音声合成装置は、前記第1のモードと前記第2のモードとが相互に切り換えられたときに、前記第1通信端末で映像信号及び音声信号が収録されてから、前記映像音声合成装置で合成が行われるまでの時間を徐々に変化させることを特徴とする映像音声配信システム。 - 第1通信端末、第2通信端末、及び映像音声合成装置が通信可能に備えられた通信システムにより実行される音声映像配信方法であって、
前記第1通信端末が、該第1通信端末が収録した映像信号及び音声信号を前記第2通信端末と前記映像音声合成装置に送信し、前記第2通信端末は、前記第1通信端末から送信された映像信号及び音声信号を再生し、該再生とともに収録した映像信号及び音声信号を前記映像音声合成装置に送信するステップと、
前記映像音声合成装置が、
前記第1通信端末から送信された映像信号及び音声信号と、
前記第1通信端末から送信された映像信号及び音声信号が第2通信端末で再生され、該再生と同時に収録された映像信号及び音声信号と、を同期させて、
前記第1通信端末から送信された映像信号と前記第2通信端末から送信された映像信号とを合成するともに、前記第1通信端末から送信された音声信号と前記第2通信端末から送信された音声信号とを合成する第1のモードを有することを特徴とする映像音声配信方法。 - 請求項8に記載の映像音声配信方法において、前記映像音声合成装置は、前記第1通信端末から送信された映像信号及び音声信号と、前記第2通信端末から送信された映像信号及び音声信号を、前記同期させることなくそれぞれ合成する第2のモードをさらに有し、前記第1のモードと前記第2のモードとを切り換えるステップを有することを特徴とする音声映像配信方法。
- 請求項1〜7のいずれか1に記載の映像音声配信システムの機能をコンピュータに実現させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013203145A JP6197211B2 (ja) | 2013-09-30 | 2013-09-30 | 映像音声配信システム、音声映像配信方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013203145A JP6197211B2 (ja) | 2013-09-30 | 2013-09-30 | 映像音声配信システム、音声映像配信方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015070460A JP2015070460A (ja) | 2015-04-13 |
JP6197211B2 true JP6197211B2 (ja) | 2017-09-20 |
Family
ID=52836748
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013203145A Active JP6197211B2 (ja) | 2013-09-30 | 2013-09-30 | 映像音声配信システム、音声映像配信方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6197211B2 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10158905B2 (en) * | 2016-09-14 | 2018-12-18 | Dts, Inc. | Systems and methods for wirelessly transmitting audio synchronously with rendering of video |
JP2018061181A (ja) * | 2016-10-07 | 2018-04-12 | 万弘 坂入 | 情報処理システム |
WO2019003357A1 (ja) * | 2017-06-28 | 2019-01-03 | 株式会社オプティム | コンピュータシステム、Web会議音声補助方法及びプログラム |
JP7181173B2 (ja) | 2019-09-13 | 2022-11-30 | 株式会社スクウェア・エニックス | プログラム、情報処理装置、情報処理システム及び方法 |
JP7377352B2 (ja) * | 2020-01-16 | 2023-11-09 | テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド | 複数メンバーでのインスタントメッセージング方法、システム、装置及び電子機器、並びにコンピュータプログラム |
CN111405228A (zh) * | 2020-04-30 | 2020-07-10 | 聚好看科技股份有限公司 | 一种实现视频通话流畅度自动优化的电视、装置及方法 |
JPWO2022137326A1 (ja) * | 2020-12-22 | 2022-06-30 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4423790B2 (ja) * | 2001-01-11 | 2010-03-03 | ソニー株式会社 | 実演システム、ネットワークを介した実演方法 |
JP4511270B2 (ja) * | 2004-07-21 | 2010-07-28 | シャープ株式会社 | 送信装置、受信装置、及び通信システム |
JP2008244888A (ja) * | 2007-03-27 | 2008-10-09 | Yamaha Corp | 通信装置、通信方法およびプログラム |
JP5109496B2 (ja) * | 2007-06-20 | 2012-12-26 | ヤマハ株式会社 | データ配信装置、データ配信方法およびプログラム |
-
2013
- 2013-09-30 JP JP2013203145A patent/JP6197211B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015070460A (ja) | 2015-04-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6197211B2 (ja) | 映像音声配信システム、音声映像配信方法及びプログラム | |
US8918541B2 (en) | Synchronization of audio and video signals from remote sources over the internet | |
EP1690378B1 (en) | Apparatus and method for transmitting synchronized the five senses with a/v data | |
US8301790B2 (en) | Synchronization of audio and video signals from remote sources over the internet | |
JP4001091B2 (ja) | 演奏システム及び楽音映像再生装置 | |
EP2141690B1 (en) | Generating a stream comprising synchronized content for multimedia interactive services. | |
KR100658222B1 (ko) | 3차원 디지털 멀티미디어 방송 시스템 | |
JP5761446B2 (ja) | 符号化装置、復号化装置、符号化方法および復号化方法 | |
CN108600815A (zh) | 一种在线实时合唱的方法及系统 | |
JP2011019224A (ja) | デジタル放送システムのステレオスコピックビデオ送受信方法およびその装置 | |
WO2011050690A1 (zh) | 用于录制和回播多媒体会议的方法和系統 | |
JP2009278381A (ja) | 音像定位音響メタ情報を付加した音響信号多重伝送システム、制作装置及び再生装置 | |
KR20100030663A (ko) | 디코더 장치 및 디코드 방법 | |
JP5841715B2 (ja) | 映像音声出力装置、および映像音声出力システム、およびマスタ装置 | |
JP2008079114A (ja) | 同期再生システム | |
KR20060065436A (ko) | 디지털 멀티미디어 방송 수신 장치에서의 오디오 및 비디오동기화 방법 및 장치 | |
JP2002125203A (ja) | メディア符号器及びメディア復号器 | |
EP2695389B1 (en) | Processing media streams for synchronised output at multiple end points | |
JP4534201B2 (ja) | 情報コミュニケーション端末装置 | |
CN101166264B (zh) | 流媒体节目切换时的播放方法和系统 | |
JP2002369163A (ja) | マルチストリーム出力時刻制御方法及びその制御装置 | |
WO2013150852A1 (ja) | デジタルデータ配信装置及び方法、及びデジタルデータ再生装置及び方法、同期再生システム、プログラム、並びに記録媒体 | |
WO2021111988A1 (ja) | 動画再生装置、動画再生システム、および動画再生方法 | |
JP5771098B2 (ja) | 通信コンテンツ生成装置および通信コンテンツ生成プログラム | |
JP2007020095A (ja) | 情報合成装置、情報合成システム、情報同期方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160225 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170220 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170228 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170328 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170516 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170522 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170725 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170801 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6197211 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |