JP2006352306A - コンテンツデータ配信装置 - Google Patents

コンテンツデータ配信装置 Download PDF

Info

Publication number
JP2006352306A
JP2006352306A JP2005173381A JP2005173381A JP2006352306A JP 2006352306 A JP2006352306 A JP 2006352306A JP 2005173381 A JP2005173381 A JP 2005173381A JP 2005173381 A JP2005173381 A JP 2005173381A JP 2006352306 A JP2006352306 A JP 2006352306A
Authority
JP
Japan
Prior art keywords
frame
data
audio
video
multiplexing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005173381A
Other languages
English (en)
Inventor
Hiroji Yokoyama
洋児 横山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2005173381A priority Critical patent/JP2006352306A/ja
Publication of JP2006352306A publication Critical patent/JP2006352306A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】従来の方法及び装置では解決できなかった画像と音声との同期再生を可能とするコンテンツデータ配信装置を提供する。
【解決手段】フレームごとに再生時間情報が記録された映像フレームと音声フレームとを有するコンテンツデータを記憶する記憶手段と、コンテンツデータから映像フレームと音声フレームとを取り出すフレームデータ抽出手段と、取り出された映像フレームと音声フレームとを復号するフレームデータ復号手段と、復号された映像フレームと音声フレームとを制御信号とともに再符号化し多重化する多重化制御手段と、多重化されたデータを受信端末に送信する送信手段とを備え、多重化制御手段は、映像フレームと音声フレームとを再符号化し多重化する際、映像フレームに対応する音声フレームの一つ前の再生時間情報が記録された音声フレームとともに多重化するよう多重化制御することを特徴とする。
【選択図】図1

Description

本発明は、画像や音声の伝送などに使用される画像・音声伝送方法に基づきコンテンツデータを配信する装置に関し、特に、リアルタイム画像通信や蓄積されたコンテンツの画像伝送を行う際に、映像と音声とを相手端末にて同期せしめて表示/再生することを可能とするコンテンツデータ配信装置に関する。
従来から、画像符号化データと音声符号化データとの同期を取りながら再生可能にするための画像音声符号化データ多重化方法、及びその多重化方法を用いた装置がある。
一般に、従来の多重化方法及び装置では、符号化を行う画像データは一定の速度で入力されており、音声フレームデータに対応する画像データのフレーム数は一定の枚数となっている。しかし、画像音声多重化データを構成する画像符号化データと音声符号化データは符号化及び復号化方法が異なっていることに起因して、画像データの符号化及び復号化の処理時間の方が、音声フレームデータの符号化及び復号化の処理時間よりはるかに多くなるという状況が発生する。したがって、音声フレームデータの符号化及び復号化が終了しても、音声フレームデータの再生時間に対応するフレーム数の画像データの符号化及び復号化が終了していないことがあるという課題を生じさせていた。ここで、この課題に対し、画像と音声の同期再生を行うべく音声符号化データを対応する画像符号化データの作成終了まで遅延させることとすると、今度は受信側において音声データの遅延を大きくしてしまい、例えば、テレビ会議やテレビ電話などのシステムにおいては音声の遅延が大きくなり利用者に違和感を覚えさせるという新たな課題も生じさせることとなっていた。
そこで、下記の特許文献1では、音声データ符号化部で音声フレームデータの符号化が終了するまでに画像データ符号化部で符号化された画像データのフレーム数を画像符号化フレーム数情報計測部で画像符号化フレーム数情報として計測し、この計測した画像符号化フレーム数情報を用いて符号化する音声フレームデータに対応する画像データのフレーム数を算出している。そして、この算出したフレーム数の画像データの符号化を行い、音声符号化データとこの音声符号化データに対応する画像符号化データとを画像音声符号化データ多重化部にて多重化するという画像音声符号化データ多重化方法およびその装置を提供している。
一方、TV電話による映像配信サービスは大きな進歩を遂げ、録画された映像だけでなく、様々な生中継(ライブ映像)をも視聴することができるようになっている。例えば、Vライブ(登録商標)と呼ばれる映像配信サービスでは、コンテンツ配信元が公開している電話番号へ直接ダイヤルするか、あるいは、コンテンツ配信元が公開しているiモード(登録商標)サイトなどのリンクからアクセスし、クリックと同時にリンク先として記載されているテレビ電話番号へ自動発信することによって、例えば、釣り情報として釣りスポット現場の波の状況等をライブ中継で受信したり、映画情報として各映画館で上映される最新映画の予告編の提供を受けることができる。なお、Vライブコンテンツ配信元としての電話番号としては、2005年5月現在、「*8607」で始まるアクセス番号が提供されている状況である。
特開平10−336602号公報
しかしながら、上記したVライブ(登録商標)などの映像配信サービスでは、従来と同
様に発生する画像と音声との非同期再生に対して従来の多重化方法及び装置において行われていた手法を用いることだけでは十分な解決が図れないという問題を生じさせていた。つまり、従来の従来の多重化方法及び装置では、画像フレーム数や音声フレーム数の情報計測や計算に膨大な負荷がかかってしまい、上記映像配信サービスにおいては有効な解決手段とはなっておらず、もっと簡便な方法や装置が求められていた。また、上記映像配信サービスにおける受信端末は、当該受信端末の製造元によって、映像フレーム及び対応する音声フレームの再生タイミング(再生時間の相対的関係)が異なるため、受信端末に応じた画像フレーム及び音声フレームの適切な多重化送信が要求されていた。
そこで、本発明は、上記課題を解決するために、より簡便な構成で従来の方法及び装置では解決できなかった画像と音声との同期再生を可能にし、かつ、異なる設計仕様を有する複数タイプの受信端末に応じたフレーム及び音声の多重化を可能とするコンテンツデータ配信装置を提供するものである。
本発明は、フレームごとに再生時間情報がそれぞれ記録された映像フレームと音声フレームとを有するコンテンツデータを記憶する記憶手段と、前記記憶手段に記憶されたコンテンツデータから前記映像フレームと音声フレームとをそれぞれ取り出すフレームデータ抽出手段と、前記フレームデータ抽出手段により取り出された映像フレームと音声フレームとをそれぞれ復号するフレームデータ復号手段と、前記フレームデータ復号手段により復号された映像フレームと音声フレームとを制御信号とともに再符号化し多重化する多重化制御手段と、前記多重化制御手段によって再符号化し多重化された映像データ及び音声データを受信端末に送信する送信手段とを備え、前記多重化制御手段は、前記映像フレームと音声フレームとを再符号化し多重化する際、前記映像フレームに対応する音声フレームの一つ前の再生時間情報が記録された音声フレームとともに多重化するよう多重化制御することを特徴とするコンテンツデータ配信装置を提供する。
また、本発明は、前記多重化制御手段は、前記映像フレームと音声フレームとを再符号化し多重化する際、前記映像フレームの一つ前の再生時間情報が記録された映像フレームに対応する音声フレームとともに多重化するよう多重化制御することを特徴とするコンテンツデータ配信装置を提供する。
また、本発明は、フレームごとに再生時間情報がそれぞれ記録された映像フレームと音声フレームとを有するコンテンツデータを記憶する記憶手段と、前記記憶手段に記憶されたコンテンツデータから前記映像フレームと音声フレームとをそれぞれ取り出すフレームデータ抽出手段と、前記フレームデータ抽出手段により取り出された映像フレームと音声フレームとをそれぞれ復号するフレームデータ復号手段と、前記フレームデータ抽出手段により取り出された音声フレームに対し、前記映像フレームの伝送終了時間を計算し、当該伝送終了時間分を遅延時間として遅延情報を生成する遅延情報生成手段と、前記フレームデータ復号手段により復号された映像フレームと音声フレームとを前記遅延情報生成手段により生成された遅延情報及び制御信号とともに再符号化し多重化する多重化手段と、前記多重化手段によって再符号化し多重化された映像データ及び音声データを受信端末に送信する送信手段とを備えたことを特徴とするコンテンツデータ配信装置を提供する。
また、本発明は、前記遅延情報生成手段が前記音声フレームの遅延時間を計算する際に、前記フレームデータ抽出手段によりそれぞれ抽出された前記映像フレーム及び前記音声フレームの復号時間、並びに再符号化時間をも考慮して、前記映像フレームに対応する音声フレームを遅延送信するよう遅延情報を生成することを特徴とするコンテンツデータ配信装置を提供する。
また、本発明は、フレームごとに再生時間情報がそれぞれ記録された映像フレームと音声フレームとを有するコンテンツデータを記憶する記憶手段と、前記記憶手段に記憶されたコンテンツデータから前記映像フレームと音声フレームとをそれぞれ取り出すフレームデータ抽出手段と、前記フレームデータ抽出手段により取り出された映像フレームと音声フレームとをそれぞれ復号するフレームデータ復号手段と、前記フレームデータ抽出手段により取り出された音声フレームに対する遅延情報を生成する遅延情報生成手段と、前記フレームデータ復号手段により復号された映像フレームと音声フレームとを前記遅延情報生成手段により生成された遅延情報及び制御信号とともに再符号化し多重化する多重化手段と、前記多重化手段によって再符号化し多重化された映像データ及び音声データを受信端末に送信する送信手段とを備え、前記遅延情報生成手段が受信端末の端末情報に応じた遅延情報を生成することを特徴とするコンテンツデータ配信装置を提供する。
本発明によれば、より簡便な構成で従来の方法及び装置では解決できなかった画像と音声との同期再生を可能にし、かつ、異なる設計仕様を有する複数タイプの受信端末に応じたフレーム及び音声の多重化を可能とするコンテンツデータ配信装置を提供することができる。
以下、本発明の実施の形態について図面を用いて説明する。本実施例においては、コンテンツデータが配信装置にあらかじめ記憶された蓄積型データの配信サービスを例として説明するが、この実施例そのものは本発明の本質を何ら制限するものではない。すなわち、本発明を例えばリアルタイム配信(ライブ中継)に対しても適用可能である。
(第1の実施の形態)図1は、本発明の第1の実施の形態におけるコンテンツデータ配信装置のブロック構成を示すブロック図である。
図1において、ファイルデータ抽出部100は、メモリ101から後述するフォーマットにて記憶されているコンテンツデータを取り出し、映像フレームデータと音声フレームデータとをそれぞれ分離抽出する。ここで、コンテンツデータは、例えばASFやMP4などのフォーマットで記憶されており、ファイルデータ抽出部100で取り出された映像フレームデータ及び音声フレームデータはそれぞれ別個に復号化され再符号化されて多重化される。具体的には、映像フレームデータは映像復号化部102にて復号化され、音声フレームデータは音声復号化部104にて復号化される。そして、結果的に受信端末にてこれら映像データ及び音声データを受信したときに同期がとれるように多重化制御を行う。この多重化制御は、映像であれば映像符号化部103における映像フレームの再符号化、及び、音声であれば音声符号化部105における音声フレームの再符号化、ならびに、多重化制御部106における再符号化された映像データ及び音声データの多重化処理を経て行われ、多重化されたデータが送信部107から送信される。そして、以上述べた多重化制御は、詳細には、当初コンテンツデータに記録された映像フレームデータ及び音声フレームデータの再生時間(時刻)に基づく調整が必要となるので、以下、具体的に説明する。
図3は、本発明の第1の実施の形態におけるコンテンツデータ配信装置に置かれたコンテンツデータのデータフォーマット例を示す図である。図3に示すように、コンテンツデータは大きくは映像や音声のフレームデータが格納された「データ領域」と、これらフレームデータごとの再生時間(時刻)を管理記憶している「データ再生時間(時刻)管理領域」とから構成されている。なお、データ領域におかれば映像フレームデータや音声フレームデータについて例示すると、映像データであればMPEG4のシンプルプロファイル@レベル2で符号化されており、音声データであればG.726で符号化されているとい
った具合である。したがって、本実施例では、ファイルデータ抽出部100から多重化制御部106までのデータフローにおいて、映像及び音声のそれぞれについて復号化部と符号化部とを備えた構成としている。
まず、「データ領域」についてみると、映像データフレームと音声データフレームとが交互に格納されている。交互に格納するとは、必ずしも映像データフレームと音声データフレームとが1つずつ交互に格納されていなければならないわけではなく、映像データフレームと音声データフレームとがそれぞれある程度の塊(群)となって、塊(群)ごとに交互に格納される場合も含まれる。したがって、図3においては、映像データフレームAに対して音声データフレームA及び音声データフレームBとがセットになって格納されており、次に、映像データフレームBに対する音声データとして音声データフレームC及び音声データフレームDとがセットになって格納されている。
次に、「データ再生時間管理領域」についてみると、上記した各データフレームに対する再生時間(時刻)が順次格納されている。図3ではデータ領域に格納された各データフレームに対応するように順次再生時間(時刻)が格納されているがこのように配置することにより対応関係を明らかしているだけで、実施例としてはこれに限定されるわけではなく、別のインデックスによって各データフレームとその再生時間とを管理することも可能である。図3においては、データ領域に格納された各データフレームの再生時間(時刻)として、順次t0,T0,T1,t1,T2,T3,t3,・・・と記憶されている。通常、なんら映像データと音声データとの同期再生につき配慮しないとすれば、このデータ再生時間管理領域に記載されている時刻にしたがって、受信端末側で映像データ及び音声データの再生を行えば事足りるが、通信路の通信容量や映像データ及び音声データのコーディング時間のずれなどが原因となって、現在では映像データと音声データとの同期再生が必要となっている。
図4は、本発明の第1の実施の形態におけるコンテンツデータ配信装置から送信された音声データ及び映像データの再生タイミング例を示すタイミング図である。
例えば図3ようにレイアウトされたデータが順次送信され受信端末にて受信された場合、映像データ及び音声データは、図4に示すように、音声データフレームA、映像データフレームA、音声データフレームB、音声データフレームC、映像データフレームBの順に受信端末に到達する。しかしながら、受信端末によって、例えば音声データフレームAに対する映像データフレームAの再生時刻が異なる場合がある。
具体的には、まず、最初に到達する音声データフレームAはT(C)のタイミングで再生される。これはすべての受信端末において共通である。しかしながら、映像データフレームAの再生時刻には、少なくとも次の2通りがある。すなわち、前記音声データフレームAの次の音声データフレームBの到達時刻T(A)に再生される場合と、前記映像データフレームAの次の映像データフレームBの到達タイミングであるT(B)に再生される場合とである。ここでは、時刻T(A)に映像データフレームAが再生される受信端末を「Aタイプ」、時刻T(B)に映像データフレームAが再生される受信端末を「Bタイプ」と呼ぶこととする。
図5は、本発明の第1の実施の形態におけるコンテンツデータ配信装置から多重化送信する映像データ及び音声データの多重化送信タイミング例を示す図である。図5に示すタイミング例は、図3のごときレイアウトのコンテンツデータを、図4における映像データフレームAの再生時刻がT2である受信端末で受信する場合の多重化送信タイミング例である。さて、このような場合においては、まず、映像データフレームAの再生時刻t0に映像データフレームAのみを送信する。次に、映像データフレームBの再生時刻t1に映
像データフレームBと音声データフレームAと音声データフレームBとを多重化送信する。そして、映像データフレームDの再生時刻t3に映像データフレームDと音声データフレームCと音声データフレームDとを多重化送信する。
ここで、一連の多重化送信処理は、図1に示すブロック図において種々の実現方式がある。例えば、多重化制御部106において、上記した映像データと音声データとの多重化送信の組み合わせで送信部107から送信されるように制御信号を挿入するなどして多重化してもよいし、映像符号化部103及び音声符号化部105それぞれにおいて映像データ及び音声データを再符号化する際に、受信端末において再生されるべき時刻を挿入してしまってから多重化制御部106において制御信号とともに多重化することも可能である。いずれにせよ、図5に示したタイミングで多重化送信する処理は、映像符号化部103、音声符号化部105、多重化制御部106のいずれで行ってもよい。以上の自由度は、例えば、MPEG4においては、映像データはシンプルプロファイル@レベル0で多重化されなければならないという仕様、音声であればAMRで多重化されなければならないという仕様に左右される。
一方、図示はしないが、映像データフレームと音声データフレームとがちょうど一つずつ交互にレイアウトされたコンテンツデータに関して、受信端末における映像データフレームの再生時刻がちょうど自身に対応する音声フレームデータの一つ前の音声データフレームデータとともに再生する時刻と同じくすると好適であるような場合には、次のような多重化送信タイミングで多重化送信することとなる。
すなわち、コンテンツデータの具体的なレイアウトとして、映像A、音声A、映像B、音声B、映像C、音声Cというように映像データフレームと音声データフレームとが一つずつ交互にレイアウトされた状態にあって、まず、第1に映像Aの再生時刻に映像Aのみを送信する。次に、映像Bの再生時刻に映像B及び音声Aを多重化送信する。そして、映像Cの再生時刻に映像C及び音声Bを多重化送信する。
(第2の実施の形態)図2は、本発明の第2の実施の形態におけるコンテンツデータ配信装置のブロック構成を示すブロック図である。図2のブロック構成は、図1のブロック構成とおおむね共通するが、構成要素上明確に相違する点は、遅延情報生成部200が新たに設けられている点である。この遅延情報生成部200は、図5で示したようなタイミング、すなわち、映像フレームに対応する音声フレームの一つ前の再生時間情報が記録された音声フレームとともに多重化送信しても、映像フレームの一つ前の再生時間情報が記録された映像フレームに対応する音声フレームとともに多重化送信してもうまく対応できないような場合に、具体的に音声データフレームの遅延時間を遅延情報として算出してより適切な多重化送信に活かすことをその役割としている。
次に、図2のブロック構成上、図1のブロック構成と異なる第2の点は、ファイルデータ抽出部100から多重化部201への経路につき、復号化部及び符号化部を通らないバイパス経路が設けられている点である。すなわち、図2において、映像データの流れに着目すると、フレームデータ抽出部100から映像復号化部102、映像符号化部103を経て多重化部201へ至る経路の他に、フレームデータ抽出部100から直接多重化部201へ至る経路が設けられている。同様に、音声データの流れに着目すると、フレームデータ抽出部100から遅延情報生成部200、音声復号化部104、音声符号化部105を経て多重化部201へ至る経路の他に、遅延情報生成部200から直接多重化部201へ至る経路が設けられている。以下、映像データか音声データかを問わず、復号化部と符号化部とを通過する経路を「経路P」、復号化部と符号化部とをバイパスする経路と「経路Q」と呼ぶこととする。すなわち、経路Pは,映像データについては、フレームデータ抽出部100から映像復号化部102、映像符号化部103を経て多重化部201へと至
る経路であり、音声データについては、遅延情報生成部200から音声復号化部104、音声符号化部105を経て多重化部201へと至る経路である。一方、経路Qは、映像データの流れについては、フレームデータ抽出部100から多重化部201へと直接流れる経路であり、音声データについては、遅延情報生成部200から多重化部201へと直接流れる経路である。
このように、図2において、図1にあったような経路Pの他に復号化部及び符号化部をバイパスする経路Qを設けた理由は、コンテンツデータ配信装置のメモリ101にあらかじめ蓄積されている映像/音声データと多重化部201の直前で多重化される映像/音声データとが同じフォーマットであった場合に、わざわざ復号化及び再符号化を行うことが無駄であるためにバイパスする趣旨である。
例えば、メモリ101に蓄積された映像フレームデータがMPEG4のシンプルプロファイル@レベル0であって、多重化部201において多重化される直前の映像フォーマットも同じくMPEG4のシンプルプロファイル@レベル0であるならば、フレームデータ抽出部100から多重化部201へ映像が至る経路としては、経路Qが採用される。音声データについても同様に、メモリ101に蓄積されているデータフォーマットと多重化部201の直前で多重化される音声のフレームデータフォーマットが同じならば、遅延情報生成部200から多重化部201へ直接至る経路である経路Qが採用される。あるいは、映像データについては、フレームデータ抽出部100から多重化部201へと至る経路Qが採用され、音声データについては、遅延情報生成部200から音声復号化部104、音声符号化部105を経て多重化部201へと至る経路Pが採用されることもあり得る。
次に、遅延情報生成部200の動作について詳しく説明する。なお、メモリ101に蓄積されているコンテンツデータは、図3で例示したレイアウトで映像フレームデータ及び音声フレームデータが配置されているものとする。
まず、遅延情報生成部200で計算される遅延時間(「遅延情報」ともいう。以下、同じ。)は、次のパラメータに依存する。すなわち、映像に関わるパラメータとして、映像復号化部の遅延量E0、映像符号化部の遅延量E1、伝送路上映像に割り当てられる映像のビットレートX、映像符号化部で生成された映像ストリームのビット量Bである。そして、音声に関わるパラメータとして、音声復号化部の遅延量D0、音声符号化部の遅延量D2、伝送路上音声に割り当てられる音声のビットレートY、音声符号化部で生成された音声ストリームのビット量Cである。
そうすると、図4において説明した「受信端末Aタイプ」に対して上記経路P又は経路Qをとった場合の遅延量の計算としては、経路Pの場合には、E0+E1+X/B−D0−D2−Y/Cと計算される。一方、経路Qの場合には、X/B−Y/Cと計算される。これを図6のフローに基づいて説明すると次の通りとなる。すなわち、動作フローが開始され、S601において現在選択されている経路がPであるかどうか判断する。この判断は、現在メモリ101に蓄積されているデータのフォーマットが受信端末に送信しようとしている多重化データのフォーマットと一致するか否かで判断される。一致していなければ経路Pである(Yes)と判断してS602へ、一致していれば経路Qである(No)と判断してS603へ進む。
S602に進んだ場合には、上記の通りの計算に基づき遅延時間をE0+E1+X/B−D0−D2−Y/Cと計算する。一方、S603に進んだ場合には、上記の通りの計算に基づき遅延時間をX/B−Y/Cと計算する。
このようにして各経路に応じて計算された遅延時間を遅延情報生成部200においてセットし(S604)、S605において遅延情報として生成する。
なお、この図6をもとに説明したケースでは、映像データ及び音声データがともに「経路P」をとる場合と、ともに「経路Q」をとる場合とについて説明しているが、その他の組み合わせについても容易に適用できる。例えば、映像データは「経路P」をとるが音声データは「経路Q」をとる場合、遅延量は、図6と同様の考え方に基づき、E0+E1+X/B−Y/Cとして計算される。また、映像データは「経路Q」をとるが音声データは「経路P」をとる場合、遅延量は、図6と同様の考え方に基づき、X/B−D0−D2−Y/Cとして計算される。
また、図4において説明した「受信端末Bタイプ」に対して上記経路P又は経路Qをとった場合の遅延量の計算については、図7のフローに基づいて説明する。
図7においてフローが開始されると、まず、S701において経路がPであるかQであるかが判断される。この判断は、図6におけるS601と同様に、メモリ101に蓄積されたデータと多重化部201において多重化される直前のデータとのフォーマットが一致するか否かによって経路P又はQのいずれが採用されているかが決定される。経路Pでであると判断された場合には、S702へ進み、経路Qであると判断された場合には、S703へ進む。
S702では、X/BがT1(図3における音声データBの再生時間T1である)より小さいかどうかが判定される。小さいと判定されればS704へ進み、そうでない場合にはS705へ進む。そして、S704では、遅延時間をT1−T0(T0は、図3における音声データAの再生時間T0である)として計算する。一方、S705では、X/BがT1−T0よりも小さくなるように映像符号化部106で調整される。このように、経路Pをとる場合には、X/BがT1以上になってしまった場合でも、多重化送信の前の映像符号化の段階で、X/BがT1以下になるように調整される。
S703でもX/BがT1(図3における音声データBの再生時間T1である)より小さいかどうかが判定される。小さいと判定されればS706へ進み、そうでない場合にはS707へ進む。S706では、遅延時間をT1−T0(T0は、図3における音声データAの再生時間T0である)として計算する。一方、S707では、遅延時間をTx−T0として決定する。ここで、Txとは、図3における音声データの再生時間T0、T1、T2、T3・・・のいずれかであるが、これらのうち、X/Bをはじめて越える音声データの再生時間である。すなわち、X/Bが、T2よりも大きくT3よりも小さい場合にはTxはT3と決定される。このようにして、遅延量がTx−T0として計算される。
以上のようにして各経路に応じて計算された遅延時間を遅延情報生成部200においてセットし(S604)、S605において遅延情報として生成する。
なお、この図7をもとに説明したケースでは、映像データ及び音声データがともに「経路P」をとる場合と、ともに「経路Q」をとる場合とについて説明しているが、その他の組み合わせについても容易に適用できる。例えば、映像データは「経路P」をとるが音声データは「経路Q」をとる場合、遅延量は、図7と同様の考え方に基づき、常にT1−T0の値以下になるように、X/Bが制御される。また、映像データは「経路Q」をとるが音声データは「経路P」をとる場合、遅延量は、図7と同様の考え方に基づき、X/BがT1より小さい場合にはT1−T0として決定され、X/BがT1以上の場合にはTx−T0として決定される。
(第3の実施の形態)最後に第3の実施の形態として、上記した「遅延情報」を受信端末によって適宜切り替える場合の実施例を説明する。ブロック構成上は、基本的に図2と
同じなので、第3の実施の形態に対する図示は行わない。まず、受信端末の種別を識別する方法については次の通りである。つまり、冒頭ですでに説明したように、本発明にかかるコンテンツデータ配信装置(コンテンツ配信元が公開している電話番号)に対して、受信端末から直接ダイヤルするか、あるいは、コンテンツ配信元が公開しているiモード(登録商標)サイトなどのリンクからアクセスし、クリックと同時にリンク先として記載されているテレビ電話番号へ受信端末から自動発信する。したがって、コンテンツ配信装置としては、受信端末からの発呼があった際、発信者通知手段等を用いて当該受信端末の種別を取得することが可能である。
次に、受信端末の種別が特定できたなら、コンテンツデータ配信装置のメモリ101に別途記憶されている図示しないテーブル(対比表)等を用いて、受信端末に応じた最適な遅延情報(例えば、1)映像フレームに対応する音声フレームの一つ前の再生時間情報が記録された音声フレームとともに多重化し送信するような遅延情報を生成する、2)映像フレームの一つ前の再生時間情報が記録された映像フレームに対応する音声フレームとともに多重化し送信するような遅延情報を生成する、3)フレームデータ抽出手段により取り出された音声フレームに対し、映像フレームの伝送終了時間を計算し当該伝送終了時間分を遅延時間として遅延情報を生成する、4)音声フレームの遅延時間を計算する際に、フレームデータ抽出手段によりそれぞれ抽出された映像フレーム及び音声フレームの復号時間、並びに再符号化時間をも考慮して、映像フレームに対応する音声フレームを遅延送信するよう遅延情報を生成する)を決定する。この決定プロセスは、遅延情報生成部200で行うこととなる。そして、この決定された遅延情報をもとに、多重化部201において映像データ及び音声データの多重化を行う。
以上の通り、本発明にかかるコンテンツデータ配信装置は、画像符号化データと音声符号化データとを同期を取りながら再生可能にするための画像音声符号化データ多重化方法を用いたテレビ会議やテレビ電話などのシステム、あるいは、テレビ電話を利用した映像配信サービスシステムに広く適用することができる。
本発明の第1の実施の形態におけるコンテンツデータ配信装置のブロック構成を示すブロック構成図 本発明の第2の実施の形態におけるコンテンツデータ配信装置のブロック構成を示すブロック構成図 本発明の第1の実施の形態におけるコンテンツデータ配信装置に置かれたコンテンツデータのデータフォーマット例を示す図 本発明の第1の実施の形態におけるコンテンツデータ配信装置から送信された音声データ及び映像データの再生タイミング例を示すタイミング図 本発明の第1の実施の形態におけるコンテンツデータ配信装置から多重化送信する映像データ及び音声データの多重化送信タイミング例を示す図 本発明の第2の実施の形態における受信端末Aタイプにおける遅延情報生成フロー図 本発明の第2の実施の形態における受信端末Bタイプにおける遅延情報生成フロー図
符号の説明
100 フレームデータ抽出部
101 メモリ
102 映像復号化部
103 映像符号化部
104 音声復号化部
105 音声符号化部
106 多重化制御部
107 送信部
200 遅延情報生成部
201 多重化部


Claims (5)

  1. フレームごとに再生時間情報がそれぞれ記録された映像フレームと音声フレームとを有するコンテンツデータを記憶する記憶手段と、
    前記記憶手段に記憶されたコンテンツデータから前記映像フレームと音声フレームとをそれぞれ取り出すフレームデータ抽出手段と、
    前記フレームデータ抽出手段により取り出された映像フレームと音声フレームとをそれぞれ復号するフレームデータ復号手段と、
    前記フレームデータ復号手段により復号された映像フレームと音声フレームとを制御信号とともに再符号化し多重化する多重化制御手段と、
    前記多重化制御手段によって再符号化し多重化された映像データ及び音声データを受信端末に送信する送信手段とを備え、
    前記多重化制御手段は、前記映像フレームと音声フレームとを再符号化し多重化する際、前記映像フレームに対応する音声フレームの一つ前の再生時間情報が記録された音声フレームとともに多重化するよう多重化制御することを特徴とするコンテンツデータ配信装置。
  2. 前記多重化制御手段は、前記映像フレームと音声フレームとを再符号化し多重化する際、前記映像フレームの一つ前の再生時間情報が記録された映像フレームに対応する音声フレームとともに多重化するよう多重化制御することを特徴とする前記請求項1記載のコンテンツデータ配信装置。
  3. フレームごとに再生時間情報がそれぞれ記録された映像フレームと音声フレームとを有するコンテンツデータを記憶する記憶手段と、
    前記記憶手段に記憶されたコンテンツデータから前記映像フレームと音声フレームとをそれぞれ取り出すフレームデータ抽出手段と、
    前記フレームデータ抽出手段により取り出された映像フレームと音声フレームとをそれぞれ復号するフレームデータ復号手段と、
    前記フレームデータ抽出手段により取り出された音声フレームに対し、前記映像フレームの伝送終了時間を計算し、当該伝送終了時間分を遅延時間として遅延情報を生成する遅延情報生成手段と、
    前記フレームデータ復号手段により復号された映像フレームと音声フレームとを前記遅延情報生成手段により生成された遅延情報及び制御信号とともに再符号化し多重化する多重化手段と、
    前記多重化手段によって再符号化し多重化された映像データ及び音声データを受信端末に送信する送信手段とを備えたことを特徴とするコンテンツデータ配信装置。
  4. 前記遅延情報生成手段は、前記音声フレームの遅延時間を計算する際に、前記フレームデータ抽出手段によりそれぞれ抽出された前記映像フレーム及び前記音声フレームの復号時間、並びに再符号化時間をも考慮して、前記映像フレームに対応する音声フレームを遅延送信するよう遅延情報を生成することを特徴とする前記請求項3記載のコンテンツデータ配信装置。
  5. フレームごとに再生時間情報がそれぞれ記録された映像フレームと音声フレームとを有するコンテンツデータを記憶する記憶手段と、
    前記記憶手段に記憶されたコンテンツデータから前記映像フレームと音声フレームとをそれぞれ取り出すフレームデータ抽出手段と、
    前記フレームデータ抽出手段により取り出された映像フレームと音声フレームとをそれぞれ復号するフレームデータ復号手段と、
    前記フレームデータ抽出手段により取り出された音声フレームに対する遅延情報を生成する遅延情報生成手段と、
    前記フレームデータ復号手段により復号された映像フレームと音声フレームとを前記遅延情報生成手段により生成された遅延情報及び制御信号とともに再符号化し多重化する多重化手段と、
    前記多重化手段によって再符号化し多重化された映像データ及び音声データを受信端末に送信する送信手段とを備え、
    前記遅延情報生成手段は、
    (1)前記映像フレームに対応する音声フレームの一つ前の再生時間情報が記録された音
    声フレームとともに多重化し送信するよう遅延情報を生成するか、
    (2)前記映像フレームの一つ前の再生時間情報が記録された映像フレームに対応する音
    声フレームとともに多重化し送信するよう遅延情報を生成するか、
    (3)前記フレームデータ抽出手段により取り出された音声フレームに対し、前記映像フ
    レームの伝送終了時間を計算し、当該伝送終了時間分を遅延時間として遅延情報を
    生成するか、
    (4)前記音声フレームの遅延時間を計算する際に、前記フレームデータ抽出手段により
    それぞれ抽出された前記映像フレーム及び前記音声フレームの復号時間、並びに再
    符号化時間をも考慮して、前記映像フレームに対応する音声フレームを遅延送信す
    るよう遅延情報を生成するか、
    のうち、少なくとも2種以上の遅延情報生成を行い、受信端末の端末情報に応じた遅延情報を生成することを特徴とするコンテンツデータ配信装置。


JP2005173381A 2005-06-14 2005-06-14 コンテンツデータ配信装置 Pending JP2006352306A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005173381A JP2006352306A (ja) 2005-06-14 2005-06-14 コンテンツデータ配信装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005173381A JP2006352306A (ja) 2005-06-14 2005-06-14 コンテンツデータ配信装置

Publications (1)

Publication Number Publication Date
JP2006352306A true JP2006352306A (ja) 2006-12-28

Family

ID=37647701

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005173381A Pending JP2006352306A (ja) 2005-06-14 2005-06-14 コンテンツデータ配信装置

Country Status (1)

Country Link
JP (1) JP2006352306A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015008490A1 (ja) * 2013-07-19 2015-01-22 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 送信方法、受信方法、送信装置及び受信装置

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015008490A1 (ja) * 2013-07-19 2015-01-22 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 送信方法、受信方法、送信装置及び受信装置
JP2015023575A (ja) * 2013-07-19 2015-02-02 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 送信方法、受信方法、送信装置及び受信装置
CN105393547A (zh) * 2013-07-19 2016-03-09 松下电器(美国)知识产权公司 发送方法、接收方法、发送装置及接收装置
CN105393547B (zh) * 2013-07-19 2019-01-15 太阳专利托管公司 发送方法、接收方法、发送装置及接收装置
CN109905725A (zh) * 2013-07-19 2019-06-18 太阳专利托管公司 发送方法、接收方法、发送装置及接收装置
JP2019176503A (ja) * 2013-07-19 2019-10-10 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 送信方法、受信方法、送信装置及び受信装置
US10484734B2 (en) 2013-07-19 2019-11-19 Sun Patent Trust Transmitting method, receiving method, transmitting apparatus, and receiving apparatus
US11064243B2 (en) 2013-07-19 2021-07-13 Sun Patent Trust Transmitting method, receiving method, transmitting apparatus, and receiving apparatus
JP2021119697A (ja) * 2013-07-19 2021-08-12 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 送信方法及び送信装置
CN109905725B (zh) * 2013-07-19 2021-09-24 太阳专利托管公司 发送方法、接收方法、发送装置及接收装置
JP7100175B2 (ja) 2013-07-19 2022-07-12 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 送信方法及び送信装置
JP7307239B2 (ja) 2013-07-19 2023-07-11 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 送信方法及び送信装置
US11770577B2 (en) 2013-07-19 2023-09-26 Sun Patent Trust Transmitting method, receiving method, transmitting apparatus, and receiving apparatus

Similar Documents

Publication Publication Date Title
US10856029B2 (en) Providing low and high quality streams
CN103621101B (zh) 用于自适应音频系统的同步化和切换方法及系统
JP3676979B2 (ja) 電話回線による高速映像伝送
JP4948147B2 (ja) 複合コンテンツファイルの編集方法および装置
CN101827271B (zh) 音频视频同步方法、装置以及数据接收终端
WO2011050690A1 (zh) 用于录制和回播多媒体会议的方法和系統
JP2007274019A (ja) デジタル方式情報配信システムおよびその方法
JP2014013400A (ja) オブジェクトベースのオーディオサービスシステム及びその方法
JP2003114845A (ja) メディア変換方法およびメディア変換装置
CN103888815B (zh) 一种音视频流实时分离处理及同步的方法及其系统
KR20050102858A (ko) 참여방송 시스템
CN102045586A (zh) 网络设备、信息处理装置、流切换方法和内容分送系统
CN113301295A (zh) 多画面视频数据处理方法、装置、计算机设备和存储介质
WO2005027439A1 (ja) メディアストリ−ムのマルチキャスト配信方法及び装置
JP2015012557A (ja) 映像音声処理装置、映像音声処理システム、映像音声同期方法、プログラム
JP2006352306A (ja) コンテンツデータ配信装置
CN105763848B (zh) 鱼眼摄像机后端接入方法及系统
JPH1169330A (ja) 留守録機能を備えた画像通信装置
CN114257771A (zh) 一种多路音视频的录像回放方法、装置、存储介质和电子设备
JPH10285568A (ja) 会議通信システム
JP2002204437A (ja) 通信装置、通信システム、通信方法、及び記憶媒体
JP3907973B2 (ja) データ送信装置
KR101810883B1 (ko) 라이브 스트리밍 시스템 및 그의 스트리밍 클라이언트
JP3178509B2 (ja) ステレオ音声テレビ会議装置
US20240107104A1 (en) Systems and methods for broadcasting a single media stream composited with metadata from a plurality of broadcaster computing devices