JP2006287642A - Mpegコンテンツの同期再生方法、クライアント端末、mpegコンテンツの同期再生プログラム - Google Patents

Mpegコンテンツの同期再生方法、クライアント端末、mpegコンテンツの同期再生プログラム Download PDF

Info

Publication number
JP2006287642A
JP2006287642A JP2005105118A JP2005105118A JP2006287642A JP 2006287642 A JP2006287642 A JP 2006287642A JP 2005105118 A JP2005105118 A JP 2005105118A JP 2005105118 A JP2005105118 A JP 2005105118A JP 2006287642 A JP2006287642 A JP 2006287642A
Authority
JP
Japan
Prior art keywords
data
video
audio
bit rate
mpeg content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005105118A
Other languages
English (en)
Other versions
JP4457349B2 (ja
Inventor
Chihiro Harada
千尋 原田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2005105118A priority Critical patent/JP4457349B2/ja
Publication of JP2006287642A publication Critical patent/JP2006287642A/ja
Application granted granted Critical
Publication of JP4457349B2 publication Critical patent/JP4457349B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】 クライアント端末ごとの処理能力や、再生開始時刻に依存することなく同期再生を行うことができるMPEGコンテンツデータの同期再生方法を提供する。
【解決手段】 配信サーバからマルチキャストにより配信されるMPEGコンテンツデータを受信したクライアント端末10は、受信したMPEGコンテンツデータ内の映像データ内の最初のシーケンスヘッダまでの映像データのデータ量を記録し、受信した最初の映像データよりも早い時刻の音声データが存在する場合に、当該音声データのデータ量を記憶し、映像データについて、記憶したデータ量と映像ビットレートとから算出される所定のウェイト時間分のウエイト処理を行って再生を行い、音声データについて、記憶したデータ量と音声ビットレートとから算出されるウェイト時間分のウェイト処理を行って再生を行う。
【選択図】 図1

Description

本発明は、配信サーバからクライアント端末に対してマルチキャストにより配信されるMPEGコンテンツデータの同期再生に関し、特に、複数のクライアント端末間で正確に同期再生を行うことを可能にするMPEGコンテンツの同期再生方法、クライアント端末、MPEGコンテンツの同期再生プログラムに関する。
IPマルチキャスト映像配信等において複数のクライアント端末間でMPEGコンテンツの同期再生を行う場合、従来ではクライアント端末間でバッファリング量を統一させ又はバッファリング時間を統一させることで同期再生を行う方式が一般に用いられる。
ところで、マルチキャストによるMPEGコンテンツの受信においては、クライアント端末の参加開始時刻やチャネル切り替え時刻によって、MPEGコンテンツ内の任意の位置から受信を開始することができる。
しかし、ネットワーク上ではMPEGコンテンツはパケット単位で送信され、どのパケットからでも随時映像及び音声の復号処理が開始できるというわけではない。
このため、クライアント端末では受信開始直後のデータが映像の復号処理または音声復号処理の開始データでない限り、復号処理を開始できるデータを受信するまでに受信したデータは不要なデータとして残ってしまうことになる。
従来の配信された映像コンテンツの同時再生方法が、例えば、特開2003−235027号公報(特許文献1)に開示されている。
この特許文献1に開示される映像の同時再生方法においては、映像データと配信時刻を含むマルチキャストパケットを端末装置に配信すると共に、マルチキャストパケットを受信した端末装置では、配信時刻と受信時刻から最大の配信遅延時間を算出し、この配信遅延時間を基準として映像データの再生タイミングを調整するものである。
特開2003−235027号公報
上記のように従来のバッファリング量を統一又はバッファリング時間を統一によってMPEGコンテンツの同期再生を行う方法では、再生開始時に上記の不要データ蓄積分を、同期再生に用いる有効なバッファリング量やバッファリング時間として蓄積してしまうために、クライアント端末間で正確な同期再生を行うことができないといった問題点があった。
その理由は、マルチキャストによる映像データの受信においては、参加開始やチャネル切り替えのタイミングによってMPEGデータ内の任意の位置から受信を開始することとなる。このため、受信開始位置によっては、映像の再生に有効なデータを受信するまでの受信データは不要なデータとなってしまい、端末間での実際に有効なバッファリング量やバッファリング時間が端末ごとに異なってしまうためである。すなわち、映像や音声の復号処理開始データも同じ時刻に受信されるため、参加開始時刻やチャネル切り替え時刻の違いによって実際に蓄積される有効なバッファリング量やバッファリング時間が異なるためである。
本発明の目的は、クライアント端末ごとの処理能力や、再生開始時刻に依存することなく同期再生を行うことができるMPEGコンテンツの同期再生方法、クライアント端末、MPEGコンテンツの同期再生プログラムを提供することにある。
上記目的を達成する本発明は、配信サーバからクライアント端末に対してマルチキャストにより配信されるMPEGコンテンツデータの同期再生方法であって、受信した前記MPEGコンテンツデータ内の映像データ内の最初のシーケンスヘッダまでの映像データ量と映像ビットレートとから算出される所定のウェイト時間と、受信した最初の映像データよりも早い時刻の音声データが存在する場合に、当該音声データ量と音声ビットレートとから算出されるウェイト時間を合計したウエイト時間分のウェイト処理を行って再生を行うことを特徴とする。
(作 用)
本発明によれば、クライアント端末で受信したMPEGコンテンツデータを、映像データと音声データに分離し、映像データ内から最初に出現するシーケンスヘッダを検索し、次いで、音声データ内からAAUヘッダを検索する。そして、シーケンスヘッダ内より映像画面サイズと映像ビットレートを取得し、AAUヘッダより音声ビットレートを取得する。
次に、映像データ内のシーケンスヘッダまでの映像データを破棄する。受信データ内に現れる最初の映像データよりも早い時刻の音声データが存在する場合は、その音声データを破棄する。
また、音声データについて、シーケンスヘッダより前に届いた音声データを破棄する。
そして、個々のクライアント端末が異なることによる処理速度の違いを吸収するため、MPEGコンテンツデータについて、受信開始時刻から一定時間分のウェイト処理を行う。
また、破棄した映像データのデータ量と映像のビットレートとから算出されるウエイト時間と破棄した音声データのデータ量と音声のビットレートとから算出されるウエイト時間を合計したウエイト時間分のウェイト処理を行う。
ウェイト処理後に映像データと音声データの再生を同時に開始することで、どのクライアント端末でも配信サーバから定期的に送信されるIピクチャの初回出現時刻から一定時間後に再生が開始されるようになる。
本発明のによれば、以下に述べるような効果が達成される。
クライアント端末ごとの処理能力や、再生開始時刻に依存することなく同期再生を行うことができる効果が得られる。この結果、クライアント端末間やサーバとの時刻の同期合わせ等の処理を行う必要性がなくなる。
その理由は、どの時刻から再生を開始した場合であっても、受信したMPEGコンテンツデータ内の映像データ内の最初のシーケンスヘッダまでの映像データのデータ量と映像ビットレートから算出されるウエイト時間と受信した最初の映像データよりも早い時刻の音声データのデータ量と音声ビットレートから算出されるウェイト時間を合計したウエイト時間分のウエイト処理を行ってコンテンツデータの再生を開始するためである。
以下、本発明の好適な実施の形態について図面を参照して詳細に説明する。
(構成の説明)
図1は、本発明の第1の実施の形態によるクライアント端末の構成を示すブロック図である。
マルチキャスト配信されるコンテンツの再生を行うクライアント端末10は、データ受信部11と、映像/音声分離部12と、映像データ処理部13と、処音声データ理部14と、映像出力用デコーダ15と、音声出力用デコーダ16及び記憶装置17を備えて構成される。
このクライアント端末10は、CPU、主記憶装置やHDD等の補助記憶装置及びその他のハードウェアを備える一般的なコンピュータ装置によって実現される。図1においては、本発明の特徴的な構成要素のみを示しているが、クライアント端末10には上記の構成要素以外に、コンピュータ装置として一般的に備えられるハードウェア及びソフトウェアが設けられていることは言うまでもない。
ここで、データ受信部11は、ネットワークを介して配信されるMPEGコンテンツデータを受信する。
映像/音声分離部12は、入力したMPEGコンテンツデータから映像データと音声データに分離する。
この映像/音声分離部12は、図3に示すように、MPEGコンテンツデータから映像データのPID及び音声データのPIDを取得するTSパケット解析部31と、取得したPIDに基づいてMPEGコンテンツデータを映像データと音声データとに分離するデータ分離部32とを備えて構成される。
映像データ処理部13は、映像/音声分離部12で分離されたデータのうちの映像データについて後述する内容の処理を行う。
この映像データ処理部13は、図4に示すように、分離された映像データ内からシーケンスヘッダ(シーケンス層)の開始位置を検索するシーケンスヘッダ検索部41と、シーケンスヘッダから映像画面サイズ、映像ビットレートを取得するパラメータ抽出部42と、シーケンスヘッダより前に届いたTSパケットを破棄して、破棄したデータ量を記憶する映像データ破棄部43と、取得した映像画面サイズ、映像ビットレートより映像出力用のフィルタの構築を行う映像出力用デコーダ構築部44とを備えて構成される。
音声データ処理部14は、映像/音声分離部12で分離されたデータのうちの音声データについて後述する内容の処理を行う。
この音声データ処理部14は、図5に示すように、分離された音声データ内からAAUヘッダ出現位置を検索するAAUヘッダ検索部51と、AAUヘッダ検索部51で取得したAAUヘッダ内から音声ビットレートを取得するパラメータ抽出部52と、シーケンスヘッダより前に届いたAAUヘッダに該当するTSパケットを破棄する音声データ破棄部53と、音声出力用のフィルタの構築を行う音声出力用デコーダ構成部54とを備えて構成される。
映像出力用デコーダ15は、映像データ処理部13で処理されたMPEGコンテンツデータの映像データを復号して映像出力(再生)する。
音声出力用デコーダ16は、音声データ処理部14で処理されたMPEGコンテンツデータの音声データを復号して音声出力(再生)する。
記憶装置17は、入力したMPEGコンテンツデータをはじめ、上記各処理部による処理結果等を含む情報を記憶する。
(動作の説明)
上記のように構成される本実施の形態によるクライアント端末10の動作について、図2のフローチャート、図6から図8を参照して詳細に説明する。
ここでは、上記構成のクライアント端末10に、MPEGコンテンツデータとして、映像及び音声が多重されたMPEG2−TS(MPEG2トランスポートストリーム)形式のコンテンツデータが入力された場合の動作を説明する。
図6にMPEG2−TS(MPEG2トランスポートストリーム)のデータ構造を示す。
MPEG2−TS(MPEG2トランスポートストリーム)は、188バイトの固定長パケットであるTSパケット100から構成される。
1つのTSパケット100は、TSヘッダ101とTSペイロード102とで構成され、TSパケット100のTSヘッダ101内には、PID(Packet Identification)と呼ばれるTSペイロード102の属性を示すパケットID(識別子)が記録されている。
本発明においては、以下の3種類の時点をMPEGコンテンツデータの受信開始時刻とする。
(1)クライアント端末10がマルチキャストのチャネルを切り替え、クライアント端末10にてMPEGコンテンツデータの受信を開始した時。
(2)クライアント端末10が未使用のマルチキャストアドレスへ参加しており、サーバからMPEGコンテンツデータの送信が開始され、クライアント端末10にてMPEGコンテンツデータの受信を開始した時。
(3)クライアント端末10が使用中のマルチキャストアドレスへ参加しており、サーバから送信されたMPEGコンテンツデータを、クライアント端末10にて受信を開始した時。
図2において、マルチキャストアドレスへ参加しているかどうかを判定し(ステップ201)、マルチキャストアドレスへ参加していれば、MPEG2−TSデータの受信が可能であるかを判定する(ステップ202)。
MPEG2−TSデータの受信が可能であれば、現在時刻を受信開始時刻Tとし(ステップ203)、MPEG2−TSデータの受信を行う(ステップ204)。
クライアント端末10のデータ受信部11で受信したMPEG2−TSデータは、映像/音声分離部12にて映像データと音声データに分離される(ステップ205)。
映像/音声分離部12のTSパケット解析部31では、受信したMPEG2−TSデータから、映像データのPID、及び音声データのPIDを取得し、データ分離部32でPIDに基づいてMPEG2−TSデータを映像データと音声データとに分離する。
次に、映像データ処理部13のシーケンスヘッダ検索部41では、分離された映像データ内からシーケンスヘッダ(シーケンス層)の開始同期コードである「00 00 01 B3 (H)」を検索する(ステップ206)。
シーケンスヘッダ(シーケンス層)の開始同期コード「00 00 01 B3 (H)」が検索されるまで、MPEG2−TSデータを受信する(ステップ207)。
ステップ207で、シーケンスヘッダの開始同期コードが検索されると、次に、音声データ処理部14のAAUヘッダ検索部51では、1つ1つ単独でオーディオ信号に復号できる最小単位であるAAU(Audio Access Unit:オーディオ復号単位)単位で分離された音声データ内を検索し、AAUヘッダの出現位置を検索する(ステップ301)。
AAUヘッダが検索されるまで、MPEG2−TSデータを受信する(ステップ302)。
ステップ302で、AAUヘッダが検索された場合、映像データ処理部13のパラメータ抽出部42では、検索されたシーケンスヘッダから映像画面サイズ、映像ビットレートVBRを取得する(ステップ208)。
また、音声データ処理部14のパラメータ抽出部52では、AAUヘッダ検索部51で取得したAAUヘッダ内から音声ビットレートABRを取得する(ステップ303)。
映像データ処理部13の映像データ破棄部43では、検索されたシーケンスヘッダより前に届いた映像データ(映像データ量V)を破棄する(ステップ209)。
また、音声データ処理部14の音声データ破棄部53では、TSパケット内のPCR値(Program clock Reference:プログラム時刻基準値)を比較することにより、受信データ内に現れる最初の映像データよりも早い時刻の音声データが存在する場合は、その映像データより前に届いた音声データ(音声データ量A)を記録する(ステップ304)。
さらに、音声データ破棄部53では、音声データのうち、シーケンスヘッダより前に届いた音声データを破棄する(ステップ305)。
図8は、2台のクライアント端末CL1、CL2で、それぞれ受信開始時刻TS1、及び受信開始時刻TS2でMPEG2−TSデータの受信を開始することを示している。
図8に示すように、受信データ内に現れる最初の映像データよりも早い時刻の音声データが存在する場合は、その音声データ(音声データ量A)を破棄する。クライアント端末CL1では、その受信開始時刻TS1から現れる最初の映像データよりも早い時刻の音声データが存在しないので、破棄する音声データ量AG1は0となる。また、クライアント端末CL2では、その受信開始時刻TS2から現れる最初の映像データよりも早い時刻の音声データが存在するので、その存在する音声データの音声データ量AG2が破棄される。
また、映像データ処理部13の映像出力用デコーダ構築部44で、取得した映像画面サイズ、映像ビットレート情報VBRより映像出力用のフィルタの構築を行い(ステップ210)、音声データ処理部14の音声出力用デコーダ構成部54で、取得した音声ビットレートABR音声出力用のフィルタの構築を行う(ステップ306)。
さらに、ステップ209で不要映像データとして破棄した映像データ量Vと映像のビットレート情報VBRとからウェイト時間TVWを算出する(ステップ211)と共に、ステップ304で記録した音声データ量Aと音声のビットレートABRとからウェイト時間TAWを算出する(ステップ307)。
映像データのウエイト時間TVWは、次の式(1)によって算出される。
VW= 1000 × ( V [Byte] × 8 / VBR [bit/sec] ) [ms] ・・・(1)
音声データのウェイト時間TAWは、次式(2)によって算出される。
AW = 1000 × ( A [Byte] × 8 / ABR [bit/sec] ) [ms] ・・・(2)
次に、MPEGコンテンツデータについて、受信開始時刻Tから予め設定した一定時間Tに達するまでのウェイト処理を行う(ステップ212)。
ここでは、個々のクライアント端末毎における処理速度の違いを吸収するため、受信開始時刻から一定時間に達するまでウェイト処理を行うものである。
さらに、それぞれ上記算出したウェイト時間TVWとウェイト時間TAWを合計したウエイト時間分のウェイト処理を行う(ステップ213)。
図7は、2台のクライアント端末CL1、CL2が、それぞれ時刻TS1、及び時刻TS2で受信を開始し、一定時間T秒のウェイト処理を行い、ウェイト時間TVW1、及びウェイト時間TVW2秒後のウェイト処理を行って再生を開始することを示している。
上記ウエイト時間TVWの算出は、例えば、映像データ処理部13で実行され、ウエイト処理は、映像出力用デコーダ15において実行される。
上記ウェイト時間TAWの算出は、例えば、音声データ処理部14で実行され、ウエイト処理は、音声出力用デコーダ16において実行される。
上記ウエイト処理の後、映像データの再生と音声データの再生を同時に開始する(ステップ214、308)
上記ウェイト時間TVWとウェイト時間TAWを合計したウエイト時間分のウェイト処理後に映像再生を開始することで、どのクライアント端末10でも配信サーバから定期的に送信されるIピクチャ(Intra−Picture:イントラ符号化画像)の初回出現時刻から一定時間後に再生が開始されるようになり、クライアント端末10での再生開始時刻や、個々のクライアント端末が異なることによる処理速度の違いによる処理速度に依存することなく、各クライアント端末10間で映像の同期を取ることが可能となる。
(実施の形態による効果)
どの時刻から再生を開始した場合であっても、受信したMPEGコンテンツデータ内の映像データ内の最初のシーケンスヘッダまでの映像データのデータ量と映像ビットレートから算出されるウエイト時間と受信した最初の映像データよりも早い時刻の音声データのデータ量と音声ビットレートから算出されるウェイト時間を合計したウエイト時間分のウエイト処理を行ってコンテンツデータの再生を開始するため、Iピクチャの初回出現以降のデータからは映像出力用デコーダで復号処理を行うことができるため、クライアント端末での再生開始時刻や、個々のクライアント端末が異なることによる処理速度の違いに依存することなく、各クライアント端末間で映像の同期を取ることが可能となる。
すなわち、どの時刻から再生を開始した場合であっても、受信開始後の配信サーバから定期的に送信される初回Iピクチャ出現時刻から一定時間後に、初回Iピクチャの出現位置からの再生を行うためである。
上記各実施の形態におけるクライアント端末10の各機能については、ハードウェアによって実現できることは勿論として、それらの各機能を有する同期再生プログラム500を、クライアント端末10を構成するコンピュータ装置上で実行することで実現することが可能である。
この同期再生プログラム500は、磁気ディスク、半導体メモリその他の記録媒体に格納され、その記録媒体からクライアント端末10であるあるコンピュータ装置にロードされ、コンピュータ装置の動作を制御することにより、上述した各機能を実現する。
なお、本発明は上述した実施の形態に限定されるものではなく、その技術思想の範囲内において様々に変形して実施することができる。
例えば、上記実施の形態では、複数のクライアント端末においてMPEGコンテンツデータを同期再生する場合について説明したが、複数のアングルから同場面を撮影するマルチアングルシステムのように、1台の端末内で複数のMPEG映像を再生させる場合でも、本発明を適用することにより映像の同期再生が可能となる。
本発明によれば、動画,音声を使用するLL教室や、端末を使った試験会場など、クライアント端末間で同期をとらなければならないような場所に適用することができる。
本発明の好適な実施の形態によるクライアント端末の構成を示すブロック図である。 本発明の好適な実施の形態によるクライアント端末における動作を説明するフローチャートである。 本発明の好適な実施の形態によるクライアント端末の映像/音声分離部の構成を示すブロック図である。 本発明の好適な実施の形態によるクライアント端末の映像データ処理部の構成を示すブロック図である。 本発明の好適な実施の形態によるクライアント端末の音声データ処理部の構成を示すブロック図である。 MPEG2−TS(MPEG2トランスポートストリーム)のデータ構造を示す図である。 2台のクライアント端末がそれぞれ異なる時刻で受信を開始し、一定時間分のウェイト処理と、算出したウェイト時間分のウェイト処理を行って再生を開始する様子を説明する図である。 2台のクライアント端末で、それぞれ受信開始時刻でMPEG2−TSデータの受信を開始する様子を説明する図である。
符号の説明
10:クライアント端末
11:データ受信部
12:映像/音声分離部
13:映像データ処理部
14:音声データ処理部
15:映像出力用デコーダ
16:音声出力用デコーダ
17:記憶装置
31:TSパケット解析部
32:データ分離部
41:シーケンスヘッダ検索部
42:パラメータ抽出部
43:映像データ破棄部
44:映像出力用デコーダ構築部
51:AAUヘッダ検索部
52:パラメータ抽出部
53:音声データ破棄部
54:音声出力用デコーダ構築部
100:TSパケット
101:TSヘッダ
102:TSペイロード

Claims (15)

  1. 配信サーバからクライアント端末に対してマルチキャストにより配信されるMPEGコンテンツデータの同期再生方法であって、
    受信した前記MPEGコンテンツデータ内の映像データ内の最初のシーケンスヘッダまでの映像データ量と映像ビットレートとから算出される所定のウェイト時間と、受信した最初の映像データよりも早い時刻の音声データが存在する場合に、当該音声データ量と音声ビットレートとから算出されるウェイト時間を合計したウエイト時間分のウェイト処理を行って再生を行うことを特徴とするMPEGコンテンツデータの同期再生方法。
  2. 前記シーケンスヘッダから映像ビットレートを取得し、
    受信した前記MPEGコンテンツデータ内の映像データ内の最初のシーケンスヘッダまでの映像データを破棄し、
    受信した前記MPEGコンテンツデータ内の音声データ内のAAUヘッダから音声ビットレートを取得し、
    受信した最初の映像データよりも早い時刻の音声データが存在する場合に、存在する音声データの音声データ量を記録し、
    前記シーケンスヘッダより前に届いた音声データを破棄することを特徴とする請求項1に記載のMPEGコンテンツデータの同期再生方法。
  3. 前記MPEGコンテンツデータについて、予め設定された一定時間分のウエイト処理を行った後に、算出される前記ウエイト時間分のウエイト処理を行うことを特徴とする請求項1又は請求項2に記載のMPEGコンテンツデータの同期再生方法。
  4. 前記映像データから最初に出現する前記シーケンスヘッダを検索し、
    検索した前記シーケンスヘッダから映像画面サイズと映像ビットレートを取得し、
    前記音声データからAAUヘッダを検索し、
    検索した前記AAUヘッダから音声ビットレートを取得し、
    前記映像画面サイズ、映像ビットレートより映像出力用のフィルタの構築を行い、
    前記音声ビットレートにより音声出力用のフィルタの構築を行うことを特徴とする請求項1から請求項3の何れか1項に記載のMPEGコンテンツデータの同期再生方法。
  5. 前記映像データの前記ウエイト時間を、前記破棄した映像データのデータ量を取得した前記映像ビットレートで除算することで算出し、
    前記音声データの前記ウエイト時間を、前記記録した音声データ量を前記音声ビットレートで除算することで算出することを特徴とする請求項2から請求項4の何れか1項に記載のMPEGコンテンツデータの同期再生方法。
  6. 配信サーバからマルチキャストにより配信されるMPEGコンテンツデータの同期再生を行うクライアント端末であって、
    受信した前記MPEGコンテンツデータ内の映像データ内の最初のシーケンスヘッダまでの映像データ量と映像ビットレートとから算出される所定のウェイト時間と、受信した最初の映像データよりも早い時刻の音声データが存在する場合に、当該音声データ量と音声ビットレートとから算出されるウェイト時間を合計したウエイト時間分のウェイト処理を行って再生を行う手段を備えることを特徴とするクライアント端末。
  7. 前記シーケンスヘッダから映像ビットレートを取得する機能と、
    受信した前記MPEGコンテンツデータ内の映像データ内の最初のシーケンスヘッダまでの映像データを破棄する機能と、
    受信した前記MPEGコンテンツデータ内の音声データ内のAAUヘッダから音声ビットレートを取得する機能と、
    受信した最初の映像データよりも早い時刻の音声データが存在する場合に、存在する音声データの音声データ量を記録する機能と、
    前記シーケンスヘッダより前に届いた音声データを破棄する機能を備えることを特徴とする請求項6に記載のクライアント端末。
  8. 前記MPEGコンテンツデータについて、予め設定された一定時間分のウエイト処理を行った後に、算出される前記ウエイト時間分のウエイト処理を行う機能を備えることを特徴とする請求項6又は請求項7に記載のクライアント端末。
  9. 前記映像データから最初に出現する前記シーケンスヘッダを検索する機能と、
    検索した前記シーケンスヘッダから映像画面サイズと映像ビットレートを取得する機能と、
    前記音声データからAAUヘッダを検索する機能と、
    検索した前記AAUヘッダから音声ビットレートを取得する機能と、
    前記映像画面サイズ、映像ビットレートより映像出力用のフィルタの構築を行う機能と、
    前記音声ビットレートにより音声出力用のフィルタの構築を行う機能を備えることを特徴とする請求項6から請求項8の何れか1項に記載のクライアント端末。
  10. 前記映像データの前記ウエイト時間を、前記破棄した映像データのデータ量を取得した前記映像ビットレートで除算することで算出する機能と、
    前記音声データの前記ウエイト時間を、前記記録した音声データ量を前記音声ビットレートで除算することで算出する機能を備えることを特徴とする請求項7から請求項9の何れか1項に記載のクライアント端末。
  11. クライアント端末上で実行され、配信サーバからクライアント端末に対してマルチキャストにより配信されるMPEGコンテンツデータの同期再生プログラムであって、
    前記クライアント端末に、
    受信した前記MPEGコンテンツデータ内の映像データ内の最初のシーケンスヘッダまでの映像データ量と映像ビットレートとから算出される所定のウェイト時間と、受信した最初の映像データよりも早い時刻の音声データが存在する場合に、当該音声データ量と音声ビットレートとから算出されるウェイト時間を合計したウエイト時間分のウェイト処理を行って再生を行う機能を持たせることを特徴とするMPEGコンテンツデータの同期再生プログラム。
  12. 前記クライアント端末に、
    前記シーケンスヘッダから映像ビットレートを取得し、
    受信した前記MPEGコンテンツデータ内の映像データ内の最初のシーケンスヘッダまでの映像データを破棄し、
    受信した前記MPEGコンテンツデータ内の音声データ内のAAUヘッダから音声ビットレートを取得し、
    受信した最初の映像データよりも早い時刻の音声データが存在する場合に、存在する音声データの音声データ量を記録し、
    前記シーケンスヘッダより前に届いた音声データを破棄する機能を持たせることを特徴とする請求項11に記載のMPEGコンテンツデータの同期再生プログラム。
  13. 前記クライアント端末に、
    前記MPEGコンテンツデータについて、予め設定された一定時間分のウエイト処理を行った後に、算出される前記ウエイト時間分のウエイト処理を実行する機能を持たせることを特徴とする請求項11又は請求項12に記載のMPEGコンテンツデータの同期再生プログラム。
  14. 前記クライアント端末に、
    前記映像データから最初に出現する前記シーケンスヘッダを検索し、
    検索した前記シーケンスヘッダから映像画面サイズと映像ビットレートを取得し、
    前記音声データからAAUヘッダを検索し、
    検索した前記AAUヘッダから音声ビットレートを取得し、
    前記映像画面サイズ、映像ビットレートより映像出力用のフィルタの構築を行い、
    前記音声ビットレートにより音声出力用のフィルタの構築を行う機能を持たせることを特徴とする請求項11から請求項13の何れか1項に記載のMPEGコンテンツデータの同期再生プログラム。
  15. 前記クライアント端末に、
    前記映像データの前記ウエイト時間を、前記破棄した映像データのデータ量を取得した前記映像ビットレートで除算することで算出し、
    前記音声データの前記ウエイト時間を、前記記録した音声データ量を前記音声ビットレートで除算することで算出する機能を持たせることを特徴とする請求項12から請求項14の何れか1項に記載のMPEGコンテンツデータの同期再生プログラム。
JP2005105118A 2005-03-31 2005-03-31 Mpegコンテンツの同期再生方法、クライアント端末、mpegコンテンツの同期再生プログラム Expired - Fee Related JP4457349B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005105118A JP4457349B2 (ja) 2005-03-31 2005-03-31 Mpegコンテンツの同期再生方法、クライアント端末、mpegコンテンツの同期再生プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005105118A JP4457349B2 (ja) 2005-03-31 2005-03-31 Mpegコンテンツの同期再生方法、クライアント端末、mpegコンテンツの同期再生プログラム

Publications (2)

Publication Number Publication Date
JP2006287642A true JP2006287642A (ja) 2006-10-19
JP4457349B2 JP4457349B2 (ja) 2010-04-28

Family

ID=37409064

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005105118A Expired - Fee Related JP4457349B2 (ja) 2005-03-31 2005-03-31 Mpegコンテンツの同期再生方法、クライアント端末、mpegコンテンツの同期再生プログラム

Country Status (1)

Country Link
JP (1) JP4457349B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008160581A (ja) * 2006-12-25 2008-07-10 Sony Corp コンテンツ再生システム、再生装置、再生制御方法及びプログラム
WO2009011087A1 (ja) * 2007-07-13 2009-01-22 Panasonic Corporation 映像音声配信サーバ、映像表示装置、音声出力装置、映像音声提供システムおよび映像音声同期方法
WO2009016957A1 (ja) * 2007-08-01 2009-02-05 Softbank Bb Corp. 映像データ取得方法、映像データ取得システム、映像受信装置及び映像配信装置
WO2011064909A1 (ja) * 2009-11-27 2011-06-03 三菱電機株式会社 映像情報再生方法及びシステム、並びに映像情報コンテンツ
JP5667059B2 (ja) * 2009-08-21 2015-02-12 トムソン ライセンシングThomson Licensing コンテンツ再生装置およびコンテンツ再生方法
JP2015527598A (ja) * 2012-05-23 2015-09-17 ソノズ インコーポレイテッド オーディオコンテンツの試聴

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008160581A (ja) * 2006-12-25 2008-07-10 Sony Corp コンテンツ再生システム、再生装置、再生制御方法及びプログラム
US8316154B2 (en) 2006-12-25 2012-11-20 Sony Corporation Content playback system, playback device, playback control method and program
WO2009011087A1 (ja) * 2007-07-13 2009-01-22 Panasonic Corporation 映像音声配信サーバ、映像表示装置、音声出力装置、映像音声提供システムおよび映像音声同期方法
WO2009016957A1 (ja) * 2007-08-01 2009-02-05 Softbank Bb Corp. 映像データ取得方法、映像データ取得システム、映像受信装置及び映像配信装置
JP5667059B2 (ja) * 2009-08-21 2015-02-12 トムソン ライセンシングThomson Licensing コンテンツ再生装置およびコンテンツ再生方法
US9124921B2 (en) 2009-08-21 2015-09-01 Gvbb Holdings S.A.R.L. Apparatus and method for playing back contents
JP2011114681A (ja) * 2009-11-27 2011-06-09 Mitsubishi Electric Corp 映像情報再生方法及びシステム、並びに映像情報コンテンツ
US9066061B2 (en) 2009-11-27 2015-06-23 Mitsubishi Electric Corporation Video information reproduction method and system, and video information content
WO2011064909A1 (ja) * 2009-11-27 2011-06-03 三菱電機株式会社 映像情報再生方法及びシステム、並びに映像情報コンテンツ
JP2015527598A (ja) * 2012-05-23 2015-09-17 ソノズ インコーポレイテッド オーディオコンテンツの試聴
US9395951B2 (en) 2012-05-23 2016-07-19 Sonos, Inc. Audio content auditioning
US9395950B2 (en) 2012-05-23 2016-07-19 Sonos, Inc. Audio content auditioning
US9977647B2 (en) 2012-05-23 2018-05-22 Sonos, Inc. Audio content auditioning by playback device
US10338881B2 (en) 2012-05-23 2019-07-02 Sonos, Inc. Audio content auditioning by playback device
US10956118B2 (en) 2012-05-23 2021-03-23 Sonos, Inc. Audio content auditioning by playback device
US11893306B2 (en) 2012-05-23 2024-02-06 Sonos, Inc. Audio content auditioning by playback device

Also Published As

Publication number Publication date
JP4457349B2 (ja) 2010-04-28

Similar Documents

Publication Publication Date Title
JP4983923B2 (ja) デコーダ装置、およびデコード方法
JP3900050B2 (ja) データ処理装置、ビデオカメラ及びデータ処理方法
JP2006260762A (ja) データ列間の連続再生を保障するための付加情報生成方法、この情報を貯蔵する記録媒体及び記録、編集及び/または再生装置
US20090010615A1 (en) Recording/reproducing apparatus, recording apparatus, reproducing apparatus, recording method, reproducing method and computer program
JP4457349B2 (ja) Mpegコンテンツの同期再生方法、クライアント端末、mpegコンテンツの同期再生プログラム
US20080037956A1 (en) Systems and Methods of Generating Encapsulated MPEG Program Streams
JP4715306B2 (ja) ストリーム制御装置、ストリーム再生方法、映像記録再生システム
JP5063944B2 (ja) 録画機能付デジタル放送受信機
JP4213697B2 (ja) 動画ストリームの画像再生装置及び方法
JP2000278643A (ja) データ変換装置
JP4690965B2 (ja) データ記録再生装置
JP2007267144A (ja) 情報配信方法、サーバ装置およびプログラム
JP2002033712A (ja) パケット処理装置及びそのパケット出力方法
KR100431548B1 (ko) 스트림 헤더정보를 이용한 동영상 파일 재생장치
JP2005197839A (ja) トランスポートストリームの特殊再生方法及びトランスポートストリームの記録再生装置
JP2006101229A (ja) 映像再生装置
JP2009164964A (ja) 情報処理装置、情報処理方法、情報処理システム、及び情報処理プログラム
JP3892759B2 (ja) 記録再生装置、記録装置、再生装置および記録再生方法
JP3780142B2 (ja) 映像記録再生装置
JP2007066511A (ja) 記録再生装置、記録装置、再生装置および記録再生方法
US20080145021A1 (en) Apparatus for video recording and reproducing, and method for trick play of video
JP5100852B2 (ja) デジタル信号記録再生装置および方法、デジタル信号再生装置および方法
JPWO2004095836A1 (ja) データ処理装置
KR100657262B1 (ko) 데이터열간의 연속 재생을 보장하기 위한 부가 정보를저장하는 기록 매체
JP2005026854A (ja) ディジタル記録再生装置及び再生レート制御方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090520

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090716

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090911

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100115

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100128

R150 Certificate of patent or registration of utility model

Ref document number: 4457349

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130219

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130219

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140219

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees