JP2004215074A - Server, transmitting rate control method, program, and record medium - Google Patents

Server, transmitting rate control method, program, and record medium Download PDF

Info

Publication number
JP2004215074A
JP2004215074A JP2003001217A JP2003001217A JP2004215074A JP 2004215074 A JP2004215074 A JP 2004215074A JP 2003001217 A JP2003001217 A JP 2003001217A JP 2003001217 A JP2003001217 A JP 2003001217A JP 2004215074 A JP2004215074 A JP 2004215074A
Authority
JP
Japan
Prior art keywords
data
video
network
server
audio data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003001217A
Other languages
Japanese (ja)
Other versions
JP3976191B2 (en
Inventor
Yuichiro Miyazaki
雄一朗 宮崎
Hiroko Onoe
裕子 尾上
Hiroaki Hagino
浩明 萩野
Yukio Atsumi
幸雄 渥美
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2003001217A priority Critical patent/JP3976191B2/en
Publication of JP2004215074A publication Critical patent/JP2004215074A/en
Application granted granted Critical
Publication of JP3976191B2 publication Critical patent/JP3976191B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To conduct data communication by a bit rate suitable for the network band. <P>SOLUTION: In transmission for video audio data (stream data) constituted with unit data via a network 20, data of different compression rate (amount of data) are prepared beforehand as the candidates of unit data to be transmitted. Unit data are transmitted about the level closest to and below an upper limit of a bit rate determined for a detected band of the network 20 is transmitted. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、ネットワークを経由して映像や音声に係るデータを送信する技術に係る。
【0002】
【従来の技術】
インターネット等のネットワークを経由して、サーバからユーザ端末に映像や音声に係るデータ(以下、映像音声データという)を送信するシステムがある。データの送り手であるサーバは、ネットワークの帯域を検知した上で、送信するデータ量(ビットレート)を調整する。ここで、データ量を調整する手段としては、▲1▼符号化装置(エンコーダ)の圧縮率を変えてデータ量を変化させる方法、▲2▼予め複数の圧縮率で符号化したデータを用意しておき、符号化したデータの平均データ量に基づき、いずれかのデータを送信する方法が知られている(非特許文献1参照)。
【0003】
【非特許文献1】
萩野,尾上,安木,渥美,駒木,村尾,串田,山内,「モバイルストリーミングQoSサーバにおけるファイル切り替え方式」,信学技法,MoMUc2001−121,pp91−pp98,Mar.2002
【0004】
【発明が解決しようとする課題】
上述した▲1▼の方法では、実際に符号化処理を完了するまで、どの程度データ量が変化するのかわからず、必要以上にデータ量を落とす/上げる制御をしてしまうおそれがあった。たとえば、必要以上にビットレートを落としてしまった結果、データを受けたユーザ端末において再生映像の画質が急激に悪化してしまう問題があった。
【0005】
一方、▲2▼の方法によれば、予め符号化処理を行っておくから、上述したような問題は生じない。しかしながら、▲2▼の方法では、符号化データのうち一時的にデータ量が増えた場合に、ネットワークの帯域を無視したデータ送信制御が行なわれ、データ輻輳やパケットロス等を引き起こしていた。そして、ユーザ端末において正常な映像再生ができない問題につながっていた。
本発明の目的は、以上述べたような諸問題を生じることなく、ネットワークを経由して映像音声データを問題なく送信するための技術を提供することを目的とする。
【0006】
【課題を解決するための手段】
上述した課題を解決するために、本発明に係るサーバは、ネットワークを経由して送信する映像音声データを異なる圧縮率で圧縮するとともに、圧縮したデータの各々を当該映像音声データの再生開始時から一定時間ごとに互いに分割し、当該分割により生成される分割データのビットレートをそれぞれ記憶する記憶部と、前記ネットワークの帯域を検知する検知部と、前記映像音声データの再生経過時が同じ分割データに係るビットレートのうち、検知した帯域に沿うものを送信レートとして決定する制御部とを有することを特徴とする。
かかるサーバの構成によれば、ネットワークを経由して送信する映像音声データを異なる圧縮率で圧縮するとともに、圧縮したデータの各々を当該映像音声データの再生開始時から一定時間ごとに互いに分割し、当該分割により生成される分割データのビットレートがそれぞれ記憶されており、前記映像音声データの再生経過時が同じ分割データに係るビットレートのうち、検知したネットワークの帯域に沿うものが送信レートとして決定される。このため、常にネットワークの帯域に沿ったビットレートによるデータ送信が行われることになる。
【0007】
上述したサーバの構成において、前記記憶部は、前記映像音声データの再生経過時が同じ分割データに係るビットレートについて並べた管理テーブルであって、前記一定時間ごとにビットレートの低い/高い順に内容が更新される管理テーブルを記憶し、前記制御部は、前記管理テーブルにおけるビットレートの値のうち、検知した帯域が指定するビットレート上限値に内輪で一番近いものを送信レートとして決定することを特徴としてもよい。この場合、管理テーブルの内容は、一定時間ごとにビットレートの低い/高い順に内容が更新されるから、検知した帯域が指定するビットレート上限値に内輪で一番近いものを送信レートして決定する際の便宜性が図られる。
【0008】
本発明に係る送信レート制御方法は、ネットワークを経由して送信する映像音声データを異なる圧縮率で圧縮するとともに、圧縮したデータの各々を当該映像音声データの再生開始時から一定時間ごとに互いに分割し、当該分割により生成される分割データのビットレートをそれぞれ記憶する過程と、前記ネットワークの帯域を検知する過程と、前記映像音声データの再生経過時が同じ分割データに係るビットレートのうち、検知した帯域に沿うものを送信レートとして決定する過程とを有することを特徴とする。
かかる方法を用いれば、ネットワークの帯域に沿うビットレートで常にデータ送信を行うことができ、ネットワークにおけるデータ輻輳やパケットロスといった問題は生じるおそれがない。
【0009】
本発明に係るプログラムは、サーバを、ネットワークを経由して送信する映像音声データを異なる圧縮率で圧縮するとともに、圧縮したデータの各々を当該映像音声データの再生開始時から一定時間ごとに互いに分割し、当該分割により生成される分割データのビットレートをそれぞれ記憶する手段と、前記ネットワークの帯域を検知する手段と、前記映像音声データの再生経過時が同じ分割データに係るビットレートのうち、検知した帯域に沿うものを送信レートとして決定する手段として機能させることを特徴とする。
かかるプログラムを利用すれば、ネットワークの帯域に沿うビットレートで常にデータ送信を行うことができ、ネットワークにおけるデータ輻輳やパケットロスといった問題は生じるおそれがない。
上述したプログラムはFD(Floppy Disk)やCD−ROM(Compact Disc Read Only Memory)といった各種記録媒体に記録しておけば、プログラムのインストール時やプログラム取引の際の便宜性が図られる。
【0010】
【発明の実施の形態】
以下、本発明の一実施形態の内容について、図面を用いながら説明する。
図1は、本発明を適用したデータ送信システム(以下、単にシステムという)100の構成図である。図1に示したよりも多くのユーザ端末10が存在していてもよい。
本システム100は、サーバ30からネットワーク20を経由してユーザ端末10映像音声データを送信するシステムである。本実施形態に係る映像音声データは、たとえば映画等のコンテンツに係るデータであり、MPEG4(Moving Picture Experts Group phase4)の規格で符号化されているものを想定する。なお、符号化の規格はMPEG2やMP3(MPEG−1 Audio Layer3)といった他のものであってもよい。
【0011】
ユーザ端末10は、携帯電話機などであり、サーバ30から送信された映像音声データをデコードし、映像や音声の再生処理をする。
ネットワーク20は、インターネットなどのデータ通信網である。ネットワーク20において通信を共有する端末の数に応じて、ネットワーク20の帯域は変動する。
サーバ30は、たとえばPC(パーソナルコンピュータ)であり、CPU(中央演算ユニット)やハードディスク(記憶部)を有している。サーバ30には、MPEG4の規格による符号化処理や、ネットワーク20の帯域を検知するためのプログラム等が予めインストールされている。
【0012】
次に、本実施形態の内容を特徴付けるサーバ30の動作の内容を説明する。図2は、サーバ30において、ユーザ端末10に映像音声データを送信する準備段階として、データの符号化やデータを管理するための各種テーブルを生成する際の処理内容を示すフローチャートである。以下、図2に沿って説明する。
【0013】
(1)映像ファイルの作成(図2:ステップSa1)
サーバ30は、1つの映像音声(コンテンツ)データにつき、異なる圧縮率(符号化レート)により圧縮処理(符号化処理)し、圧縮データに係るファイル(映像ファイル)を作成する。映像ファイルの内容は、MPEG4の規格に基づく符号化データ、たとえば1秒あたり15フレームのフレームデータを集めたものになる。
図3に、映像ファイルを生成する過程の概念図を示した。一つの映像音声データを、符号化レートR1で符号化して映像ファイルF1を生成する。また、同じ映像音声データを別の符号化レートR2で符号化して映像ファイルF2を作成する。他の映像ファイルも同様に生成する。
各々の映像ファイルF1,F2,……、は、単位時間(1秒)あたり15フレームのフレームデータを包含している点で共通するが、異なる符号化レートで符号化しているため、各々の映像ファイルF1,F2,……、の圧縮率は異なるものになっている。
【0014】
(2)インデックス番号等の決定(図2:ステップSa2)
次にサーバ30は、生成した映像ファイルF1,F2,……、のそれぞれについて、予め決められるいくつかのパターン(間引きパターン)で間引き処理を行っていく。間引き処理とは、単位時間(1秒)あたりに含まれる15のフレームデータごとに行う処理である。
本実施形態においては、個々の映像ファイルについて、映像音声の再生開始時から一定経過時間(1秒)ごとに分割して得られる分割データ、すなわち、15のフレームデータごとに分割した分割データを、「単位データ」と呼ぶことにする。
【0015】
図4は、映像ファイルF1に包含される一の単位データに着目し、この単位データに対して間引き処理をする概念を示したものである。なお図4に示す映像ファイルF1は、一般的なMPEGフォーマット(MPEG1やMPEG2)を考慮し、Iフレームデータ、Pフレームデータ、Bフレームデータと3種のフレームデータにより構成されることとしたが、MPEG4のフォーマットを用いた場合はIフレームデータとPフレームデータのみの構成となる。
【0016】
図4では、間引きパターンとして2種類(間引きパターンa,b)示しており、このうち間引きパターンaは、単位データの先頭に位置するフレームデータ(Iフレームデータ)を残し、その他のフレームデータを間引く処理をするものである。
また、間引きパターンbは、単位データに含まれるIフレームデータおよびPフレームデータを残し、その他のフレームデータ(Bフレームデータ)を間引く処理をするものである。
【0017】
このような間引きパターンは、各フレームデータの性質に基づいて予め決められている。たとえばIフレームは他のPフレームやBフレームからのデータ依存性がないため、Iフレームデータを残すように間引き処理(間引きパターンa)してもその後の再生処理を問題なく行うことができる。また、Pフレームは同じ単位データ内のIフレーム(あるいはPフレーム)からのデータ依存性があるから、IフレームとPフレームのデータを残すように間引き処理(間引きパターンb)すれば、その後の再生処理を問題なく実行できる。
このように、間引き処理後のデータ処理を踏まえた間引きパターンが予め用意されており、これにより、同じ単位データについて複数の間引きパターンで間引き処理をし、データ量が異なる新たな単位データを複数生成するのである。
【0018】
以上、映像ファイルF1の1つの単位データに着目して、間引き処理の内容を具体的に説明したが、このような間引き処理は映像ファイルF1に含まれるすべての単位データに対して行われる。
図5は、映像ファイルF1に含まれる単位データの内容を模式的に示したものである。映像ファイルF1の先頭に位置するの単位データから終点に位置する単位データの順に、単位データF1−1,F1−2,……,F1−nと表した。映像ファイルF1の最後に位置する単位データはF1−nであり、本実施形態においては単位データは1秒あたりのデータに相当するため、nは映像音声(コンテンツ)の再生時間長を示す自然数である。
このような映像ファイルF1における、単位データF1−1,F1−2,……,F1−nのそれぞれについて、間引き処理aをすることにより生成した単位データを、単位データF1−a1,F1−a2,……,F1−anと表し、間引き処理bをすることにより生成した単位データを、単位データF1−b1,F1−b2,……,F1−bnと表した。
【0019】
図6は、このようにして生成した単位データの各々について、サーバ30に格納した状態を示す概念図である。個々の単位データには、単位データを特定するための名前(識別番号)と、当該単位データのデータ量をあわせて示した。本実施形態において単位データは1秒あたりのデータに対応するから、個々の単位データのデータ量は、ネットワーク20を経由して送信する際のビットレートに相当することになる。
【0020】
図6に示すように、サーバ30は、個々の単位データについて、映像ファイルの先頭から終点に向かう順に格納していく。このため、図6において、単位データF1−a1,F1−a2,……,F1−anの順で再生(デコード)処理すると、一の映像音声の再生が行われることになる。また、単位データF1−a1と単位データF1−b1とは、データ量、すなわち再生した際の映像や音声の品質は違うものの、その内容は同一である。
このため、単位データF1−a1,F1−a2,……,F1−anの順で再生処理した場合であっても、単位データF1−a1を単位データF1−b1に置き換えて、単位データF1−b1,F1−a2,……,F1−anの順で再生処理した場合であっても、得られる映像音声の品質は異なるものの、その内容は同一である。
【0021】
以上は、映像ファイルF1に対し、間引きパターンa,b,……、で間引き処理を行った場合の内容を説明したが、映像ファイルF1と同様にして映像ファイルF2,F3,……、についても、それぞれ間引きパターンa,b,……、により間引き処理を行っていく。そして、サーバ30は、生成した単位データについて、図6に示すようにして、映像ファイルの先頭から終点に向かう順に格納していく。
図6において、個々の単位データは、映像音声(コンテンツ)の1秒分のデータに相当し、コンテンツ開始からの時間順に格納されている点では同じである。このため、図6において、縦軸位置を同じに示した単位データF1−a1,F1−b2,……,F2−a1,F2−b1,……、は、ビットレートは異なるものの、再生処理をして得られるコンテンツ(映像)の内容はほとんど同じものになる。
【0022】
サーバ30は、このようにして個々の単位データを格納した後、映像ファイルと間引き処理の組み合わせによって一義に決められる単位データ群(たとえば、単位データF1−a1,F1−a2,……,F1−anのデータ群)ごとにビットレートの平均値を算出する。そして、ビットレートの平均値の低いほうから順に、インデックス番号を付しておく(図6参照)。
【0023】
(3)管理テーブルの作成(図2:ステップSa3)
その後、サーバ30は、インデックス番号の若い順、すなわち、平均ビットレートが低い順に並べ替えを行い管理テーブルを作成する。図7は、管理テーブルの内容を図示したものである。従来のデータ送信システムにおいては、平均ビットレートの値をもとに、データ送信時のビットレート制御を行っていた。このため、一時的にビットレートが大きく/小さく変化する現象を検知することができず、ネットワーク20における諸問題(データ輻輳やパケットロス等)が生じることとなっていたのは上述したとおりである。
【0024】
(4)動的管理テーブルの作成(図2:ステップSa4)
次にサーバ30は、本実施形態の特徴である動的管理テーブルを生成する。動的管理テーブルは、映像音声データの送信開始時(映像音声データの再生開始時に相当)から単位時間(本実施形態では1秒)ごとに生成(更新)されるテーブルである。
【0025】
図8は、映像音声データの再生開始時点(映像音声データを送信するときは送信開始時点に相当)を0秒としたときの、コンテンツ開始から0秒目と、1秒経過時点における動的管理テーブルの内容を示したものである。
ここで、0秒目における動的管理テーブルは、0秒〜1秒に相当する単位データ(図6における単位データF1−a1,F1−b1,……,F2−a1,F2−b1,……)のビットレートが低い順に並び替えたものである。また、1秒経過後における動的管理テーブルは、コンテンツ開始から1秒〜2秒に相当する単位データ(図6における単位データF1−a1,F1−b1,……,F2−a1,F2−b1,……)のビットレートが低い順に並び替えたものである。
【0026】
図8に示されるように、動的管理テーブルの並び順は、インデックス番号、すなわち、平均ビットレートの順番とは無関係であり、その時点における単位データのビットレートの低い順に並べたものである。このため、ある単位データが一時的にビットレートが高く/低くなるような場合であっても、その内容が動的管理テーブルには忠実に反映されることになるのである。
以上が図2のフローチャートの内容説明である。
【0027】
このようにして生成される動的管理テーブルの内容に基づいて、サーバ30は、ユーザ端末10に映像音声データを送信する。
図9は、サーバ30が映像音声データを送信する際の動作の内容を示すフローチャートである。
ユーザ端末10に映像音声データの送信を開始する際、サーバ30は、はじめにネットワーク20の帯域について検知してビットレートの上限値を判別する(ステップSb1)。なお、ネットワーク20の帯域を検知したり、ビットレートの上限値を判別するためのプログラムは予めサーバ30にインストールされている。
【0028】
次にサーバ30は、該時点(ここでは映像音声データの再生開始時点)における動的管理テーブルを生成する(ステップSb2)。この時点の動的管理テーブルは、映像音声データの再生開始時点における単位データについて、データ量(ビットレート値)が小さい順に並べたテーブルに相当する。サーバ30は、判別したビットレート上限値に内輪で最も近いビットレートの単位データを、動的管理テーブルの内容から判断し、送信データとして決定する(ステップSb3)。
【0029】
図8に例示する動的管理テーブルを用いて説明する。図8において左側のテーブルが、映像音声データ再生開始時(データ送信開始時)の動的管理テーブルである。ネットワーク20のビットレート上限値が27000(bps)であるとすると、サーバ30は、27000(bps)の内輪で一番近い、インデックス番号003の単位データF1−b1を、送信データとして決定する。その後、サーバ30は、このようにして決定した送信データを、実際にユーザ端末10に送信する(図9:ステップSb4)。
【0030】
以上は、映像音声データの再生開示時(データ送信開始時)におけるサーバ30の動作内容であったが、その後も、サーバ30は所定時間(1秒)ごとに、ネットワーク20の帯域を検知する(ステップSb1)。そして、動的管理テーブルの内容を生成(更新)していく(ステップSb2)。たとえば、映像音声データを送信開始後1秒の時点であれば、サーバ30は、映像音声データの再生開始から1秒経過時点における単位データについて、データ量(ビットレート値)を小さい順に並べかえをして動的管理テーブルの内容を更新する。この後の処理は同様であり、サーバ30は、判別したビットレート上限値に内輪で最も近いビットレートの単位データを、更新した動的管理テーブルの内容から判断し、送信データとして決定する(ステップSb3)。そしてユーザ端末10に送信する(ステップSb4)。
【0031】
図8に例示する動的管理テーブルを用いて説明する。図8において右側のテーブルが、映像音声データ再生開始から1秒経過後(データ送信開始から1秒後)の動的管理テーブルである。ここで、ネットワーク20のビットレート上限値が27000(bps)であるとすると、サーバ30は、27000(bps)の内輪で一番近い、インデックス番号002の単位データF2−a2を、送信データとして決定することになる。
【0032】
その後も、サーバ30は同様の制御を繰り返し、映像音声データを送信していく。1秒ごとに、動的管理テーブルの内容は更新され、その時点における単位データのデータレートの低い順に並べ替えが行われることになる。このため、ネットワーク20のビットレート上限値に内輪で最も近い単位データについて迅速に見つけ出すことができるように図られている。
【0033】
以上説明したように、本実施形態によれば、ネットワーク20を経由し、単位データにより構成される映像音声データ(ストリームデータ)を送信するにあたり、送信する単位データの候補として、圧縮率(データ量)が異なるものを予め用意しておく。そして、ネットワーク20の帯域を検知して判断したビットレートの上限値について、内輪で最も近い単位データを送信するようにするから、ネットワーク20を経由するデータ通信は常に正常に行われ、従来に問題となっていた、データ輻輳やパケットロス等の問題は生じない。
【0034】
なお上述した各実施形態の内容は、あくまで一例であり、任意に変形を加えることができる。以下に変形例のいくつかを示す。
サーバ30には、各々の単位データに係るデータ量(ビットレート)の情報が記憶されてさえいれば、ネットワーク20の帯域に適した単位データを送信するという、本発明の効果を奏することができる。このため、単位データそのものをサーバ30内に格納しておき、随時読み出してデータ送信を行ってもよいし、単位データそのものはサーバ30内に格納することなく、データ送信時に随時生成する構成をとってもよい。
【0035】
また、本発明に係るプログラムのインストール方法は任意である。上述実施形態においては、予めサーバ30にインストールしている場合を想定したが、プログラムの内容を記憶した記憶媒体(フロッピーディスクやCD−ROM等)を介して、サーバ30にインストールしてもよい。また、ネットワーク20やその他の網を介してインストールする、いわゆるネット配信を利用する形態であってもよい。
【0036】
【発明の効果】
以上説明したように、本発明によれば、ネットワークの帯域に応じた映像音声データの送信を問題なく行うことができる。
【図面の簡単な説明】
【図1】本発明の一実施形態に係るデータ送信システム100の構成図である。
【図2】同データ送信システム100のサーバ30が各種テーブルを作成する手順を示すフローチャートである。
【図3】同サーバ30が映像ファイルを作成する処理内容を示す概念図である。
【図4】同サーバ30が行う間引き処理の内容を示す概念図である。
【図5】同サーバ30が作成した映像ファイルの内容を説明するための図である。
【図6】同サーバ30に単位データが格納された状態を示す概念図である。
【図7】同サーバ30に格納される管理テーブルの内容を示す図である。
【図8】同サーバ30に格納される動的管理テーブルの内容を示す図である。
【図9】同サーバ30の動作内容を示すフローチャートである。
【符号の説明】
10……ユーザ端末、20……ネットワーク、
30……サーバ、100……データ送信システム。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a technology for transmitting video and audio data via a network.
[0002]
[Prior art]
There is a system for transmitting data relating to video and audio (hereinafter referred to as video / audio data) from a server to a user terminal via a network such as the Internet. The server, which is the data sender, detects the network bandwidth and adjusts the amount of data to be transmitted (bit rate). Here, as means for adjusting the data amount, (1) a method of changing the data amount by changing the compression rate of the encoding device (encoder), (2) data prepared in advance with a plurality of compression rates is prepared. A method of transmitting any data based on the average amount of encoded data is known (see Non-Patent Document 1).
[0003]
[Non-patent document 1]
Hagino, Onoe, Yasugi, Atsumi, Komaki, Murao, Kushida, Yamauchi, "File Switching Method in Mobile Streaming QoS Server", IEICE, MoMUc 2001-121, pp91-pp98, Mar. 2002
[0004]
[Problems to be solved by the invention]
In the above method (1), it is not possible to know how much the data amount changes until the encoding process is actually completed, and there is a possibility that the data amount may be unnecessarily reduced / increased. For example, as a result of lowering the bit rate more than necessary, there is a problem that the image quality of the reproduced video is rapidly deteriorated in the user terminal receiving the data.
[0005]
On the other hand, according to the method (2), since the encoding process is performed in advance, the above-described problem does not occur. However, in the method (2), when the data amount of the encoded data temporarily increases, data transmission control ignoring the network bandwidth is performed, causing data congestion and packet loss. This has led to a problem that normal video reproduction cannot be performed on the user terminal.
An object of the present invention is to provide a technique for transmitting video and audio data via a network without any problem without causing the above-described problems.
[0006]
[Means for Solving the Problems]
In order to solve the above-described problems, the server according to the present invention compresses video and audio data transmitted via a network at different compression rates, and converts each of the compressed data from the start of reproduction of the video and audio data. A storage unit that divides each other at regular time intervals and stores a bit rate of the divided data generated by the division, a detection unit that detects the band of the network, And a controller that determines a bit rate along the detected band among the bit rates according to the above as a transmission rate.
According to the configuration of the server, the video and audio data transmitted via the network is compressed at different compression ratios, and each of the compressed data is divided from each other at regular intervals from the start of reproduction of the video and audio data, The bit rates of the divided data generated by the division are stored, and among the bit rates related to the divided data at the same playback time of the video and audio data, the bit rate along the detected network band is determined as the transmission rate. Is done. For this reason, data transmission is always performed at a bit rate along the band of the network.
[0007]
In the configuration of the server described above, the storage unit is a management table in which bit rates related to the divided data at the same time of reproduction of the video / audio data are arranged. Is stored, and the control unit determines, as the transmission rate, the bit rate value in the management table that is closest to the bit rate upper limit specified by the detected band on the inner ring. May be characterized. In this case, the contents of the management table are updated in order of the bit rate from low to high at regular time intervals. Therefore, the transmission rate is determined based on the inner band closest to the bit rate upper limit specified by the detected band. This is convenient for the user.
[0008]
The transmission rate control method according to the present invention compresses video and audio data to be transmitted via a network at different compression rates, and divides each of the compressed data at regular intervals from the start of reproduction of the video and audio data. Storing the bit rates of the divided data generated by the division, detecting the network bandwidth, and detecting the bit rate of the divided data at the time when the video / audio data is reproduced. And determining the transmission rate along the determined band as the transmission rate.
By using such a method, data transmission can always be performed at a bit rate along the bandwidth of the network, and there is no possibility that problems such as data congestion and packet loss in the network will occur.
[0009]
The program according to the present invention compresses a server at different compression ratios of video and audio data transmitted via a network, and divides each of the compressed data at regular intervals from the start of reproduction of the video and audio data. Means for respectively storing the bit rates of the divided data generated by the division, means for detecting the band of the network, and detection of the bit rate of the divided data at the same time when the reproduction of the video and audio data is performed. It is characterized in that it functions as means for determining a transmission rate along the determined band as a transmission rate.
If such a program is used, data transmission can always be performed at a bit rate along the bandwidth of the network, and there is no possibility that problems such as data congestion and packet loss in the network will occur.
If the above-mentioned program is recorded on various recording media such as FD (Floppy Disk) and CD-ROM (Compact Disc Read Only Memory), convenience at the time of installing the program and at the time of transaction of the program is achieved.
[0010]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, the contents of one embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a configuration diagram of a data transmission system (hereinafter, simply referred to as a system) 100 to which the present invention is applied. There may be more user terminals 10 than shown in FIG.
The present system 100 is a system for transmitting video / audio data of the user terminal 10 from the server 30 via the network 20. The video and audio data according to the present embodiment is data relating to content such as a movie, for example, and is assumed to be encoded according to the MPEG4 (Moving Picture Experts Group4) standard. The encoding standard may be another standard such as MPEG2 or MP3 (MPEG-1 Audio Layer 3).
[0011]
The user terminal 10 is a mobile phone or the like, and decodes video and audio data transmitted from the server 30 and performs video and audio reproduction processing.
The network 20 is a data communication network such as the Internet. The bandwidth of the network 20 varies according to the number of terminals sharing communication in the network 20.
The server 30 is, for example, a PC (Personal Computer) and has a CPU (Central Processing Unit) and a hard disk (storage unit). In the server 30, programs for encoding processing according to the MPEG4 standard, detecting a band of the network 20, and the like are installed in advance.
[0012]
Next, the operation of the server 30 characterizing the contents of the present embodiment will be described. FIG. 2 is a flowchart showing processing contents when the server 30 prepares various tables for encoding data and managing data as a preparation stage for transmitting video / audio data to the user terminal 10. Hereinafter, description will be given with reference to FIG.
[0013]
(1) Creation of a video file (FIG. 2: Step Sa1)
The server 30 performs compression processing (encoding processing) on one video / audio (content) data at different compression rates (encoding rates), and creates a file (video file) related to the compressed data. The content of the video file is a collection of encoded data based on the MPEG4 standard, for example, frame data of 15 frames per second.
FIG. 3 shows a conceptual diagram of a process of generating a video file. One video / audio data is encoded at an encoding rate R1 to generate a video file F1. Also, the same video / audio data is encoded at another encoding rate R2 to create a video file F2. Other video files are similarly generated.
Each of the video files F1, F2,... Is common in that it contains 15 frames of frame data per unit time (one second), but is encoded at a different encoding rate. The files F1, F2,... Have different compression ratios.
[0014]
(2) Determination of index number etc. (FIG. 2: Step Sa2)
Next, the server 30 performs the thinning-out processing on each of the generated video files F1, F2,... In some predetermined patterns (thinning-out patterns). The thinning process is a process performed for every 15 frame data included per unit time (1 second).
In the present embodiment, for each video file, divided data obtained by dividing every fixed time (1 second) from the start of reproduction of video and audio, that is, divided data divided for every 15 frame data, It will be called "unit data".
[0015]
FIG. 4 shows the concept of focusing on one unit data included in the video file F1 and performing a thinning process on this unit data. Note that the video file F1 shown in FIG. 4 is made up of three types of frame data, i.e., I frame data, P frame data, and B frame data in consideration of a general MPEG format (MPEG1 and MPEG2). When the MPEG4 format is used, only the I frame data and the P frame data are used.
[0016]
FIG. 4 shows two types of thinning patterns (thinning patterns a and b), of which the thinning pattern a leaves frame data (I frame data) located at the head of unit data and thins other frame data. It does the processing.
The thinning pattern “b” is a processing for thinning out other frame data (B frame data) while leaving the I frame data and the P frame data included in the unit data.
[0017]
Such a thinning pattern is determined in advance based on the properties of each frame data. For example, since the I frame has no data dependency from other P frames or B frames, even if the thinning processing (thinning pattern a) is performed so that the I frame data remains, the subsequent reproduction processing can be performed without any problem. Further, since the P frame has data dependency from the I frame (or P frame) in the same unit data, if the thinning processing (thinning pattern b) is performed so as to leave the data of the I frame and the P frame, the subsequent reproduction is performed. Processing can be executed without any problem.
In this way, a thinning pattern based on the data processing after the thinning processing is prepared in advance, and thereby, the thinning processing is performed on the same unit data with a plurality of thinning patterns, and a plurality of new unit data having different data amounts are generated. You do it.
[0018]
As described above, the details of the thinning process have been specifically described by focusing on one unit data of the video file F1, but such a thinning process is performed on all the unit data included in the video file F1.
FIG. 5 schematically shows the contents of the unit data included in the video file F1. Unit data F1-1, F1-2,..., F1-n are shown in order from the unit data located at the head of the video file F1 to the unit data located at the end point. The unit data located at the end of the video file F1 is F1-n. In the present embodiment, the unit data corresponds to data per second. Therefore, n is a natural number indicating the playback time length of video and audio (content). is there.
.., F1-n in such a video file F1 are converted into unit data F1-a1 and F1-a2 by performing thinning-out processing a on each of the unit data F1-1,. ,..., F1-an, and the unit data generated by performing the thinning-out processing b is referred to as unit data F1-b1, F1-b2,.
[0019]
FIG. 6 is a conceptual diagram showing a state where each of the unit data generated in this way is stored in the server 30. Each unit data includes a name (identification number) for specifying the unit data and the data amount of the unit data. In the present embodiment, since the unit data corresponds to data per second, the data amount of each unit data corresponds to the bit rate when transmitting via the network 20.
[0020]
As shown in FIG. 6, the server 30 stores individual unit data in order from the head of the video file to the end point. For this reason, in FIG. 6, if the reproduction (decode) processing is performed in the order of the unit data F1-a1, F1-a2,..., F1-an, one video / audio is reproduced. The unit data F1-a1 and the unit data F1-b1 are different in data amount, that is, the quality of video and audio when reproduced, but have the same contents.
Therefore, even when the reproduction processing is performed in the order of the unit data F1-a1, F1-a2,..., F1-an, the unit data F1-a1 is replaced with the unit data F1-b1, and the unit data F1-a1 is replaced. Even when the reproduction processing is performed in the order of b1, F1-a2,..., F1-an, the quality of the obtained video and audio is different, but the content is the same.
[0021]
In the above, the contents when the thinning processing is performed on the video file F1 with the thinning patterns a, b,... Have been described, but the video files F2, F3,. , Respectively, the thinning patterns a, b,... Then, the server 30 stores the generated unit data in the order from the beginning to the end point of the video file as shown in FIG.
In FIG. 6, each unit data corresponds to one second of data of video and audio (content), and is the same in that it is stored in order of time from the start of the content. For this reason, in FIG. 6, although the unit data F1-a1, F1-b2,..., F2-a1, F2-b1,. The content (video) obtained by the above is almost the same.
[0022]
After storing the individual unit data in this way, the server 30 unit data groups (for example, unit data F1-a1, F1-a2,..., F1- The average value of the bit rate is calculated for each data group (an data group). Then, index numbers are assigned in ascending order of the average value of the bit rates (see FIG. 6).
[0023]
(3) Creation of management table (FIG. 2: step Sa3)
Thereafter, the server 30 sorts in ascending order of the index numbers, that is, in ascending order of the average bit rate, and creates a management table. FIG. 7 illustrates the contents of the management table. In a conventional data transmission system, bit rate control during data transmission is performed based on the value of the average bit rate. For this reason, it is not possible to detect a phenomenon in which the bit rate temporarily changes to a large or small value, and various problems (data congestion, packet loss, etc.) in the network 20 occur as described above. .
[0024]
(4) Creation of a dynamic management table (FIG. 2: Step Sa4)
Next, the server 30 generates a dynamic management table which is a feature of the present embodiment. The dynamic management table is a table generated (updated) every unit time (1 second in the present embodiment) from the start of transmission of video and audio data (corresponding to the start of reproduction of video and audio data).
[0025]
FIG. 8 shows the dynamic management at the 0th second from the start of the content and at the 1 second elapse when the reproduction start time of the video / audio data (corresponding to the transmission start time when transmitting the video / audio data) is set to 0 second. It shows the contents of the table.
Here, the dynamic management table at the 0th second contains unit data (unit data F1-a1, F1-b1,..., F2-a1, F2-b1,. ) Are sorted in ascending order of bit rate. Further, the dynamic management table after one second has elapsed includes unit data (unit data F1-a1, F1-b1,..., F2-a1, F2-b1 in FIG. 6) corresponding to one to two seconds from the start of the content. ,...) Are rearranged in ascending order of bit rate.
[0026]
As shown in FIG. 8, the order of arrangement of the dynamic management tables is irrelevant to the index number, that is, the order of the average bit rate, and is arranged in ascending order of the bit rate of the unit data at that time. For this reason, even if the bit rate of a certain unit data temporarily becomes high / low, the content is faithfully reflected in the dynamic management table.
The above is the description of the content of the flowchart in FIG.
[0027]
The server 30 transmits the video / audio data to the user terminal 10 based on the contents of the dynamic management table generated as described above.
FIG. 9 is a flowchart showing the contents of the operation when the server 30 transmits the video / audio data.
When starting transmission of video and audio data to the user terminal 10, the server 30 first detects the band of the network 20 and determines the upper limit of the bit rate (step Sb1). A program for detecting the band of the network 20 and determining the upper limit of the bit rate is installed in the server 30 in advance.
[0028]
Next, the server 30 generates a dynamic management table at the time (here, the reproduction start time of the video / audio data) (step Sb2). The dynamic management table at this time corresponds to a table in which unit data at the time of starting reproduction of video and audio data are arranged in ascending order of data amount (bit rate value). The server 30 determines the unit data of the bit rate closest to the determined bit rate upper limit value on the inner ring from the contents of the dynamic management table, and determines it as transmission data (step Sb3).
[0029]
This will be described using the dynamic management table illustrated in FIG. The left table in FIG. 8 is a dynamic management table at the start of video / audio data reproduction (at the start of data transmission). Assuming that the upper limit of the bit rate of the network 20 is 27000 (bps), the server 30 determines the unit data F1-b1 of the index number 003 which is the closest to the inner ring of 27000 (bps) as the transmission data. After that, the server 30 actually transmits the transmission data determined in this way to the user terminal 10 (FIG. 9: step Sb4).
[0030]
The above is the operation of the server 30 when the reproduction of the video / audio data is disclosed (at the start of the data transmission). After that, the server 30 detects the band of the network 20 every predetermined time (one second) ( Step Sb1). Then, the contents of the dynamic management table are generated (updated) (step Sb2). For example, if it is one second after the start of the transmission of the video and audio data, the server 30 rearranges the data amount (bit rate value) in ascending order of the unit data at the lapse of one second from the start of the reproduction of the video and audio data. To update the contents of the dynamic management table. The subsequent processing is the same, and the server 30 determines the unit data of the bit rate closest to the determined bit rate upper limit value on the inner ring from the contents of the updated dynamic management table, and determines it as transmission data (step Sb3). And it transmits to the user terminal 10 (step Sb4).
[0031]
This will be described using the dynamic management table illustrated in FIG. The table on the right side in FIG. 8 is a dynamic management table after a lapse of one second from the start of video / audio data reproduction (one second after the start of data transmission). Here, assuming that the upper limit of the bit rate of the network 20 is 27000 (bps), the server 30 determines the unit data F2-a2 of the index number 002 closest to the inner ring of 27000 (bps) as the transmission data. Will do.
[0032]
After that, the server 30 repeats the same control and transmits video and audio data. Every second, the contents of the dynamic management table are updated, and the unit data is rearranged in ascending order of the data rate. Therefore, the unit data closest to the upper limit of the bit rate of the network 20 on the inner ring can be quickly found.
[0033]
As described above, according to the present embodiment, when transmitting video / audio data (stream data) composed of unit data via the network 20, the compression rate (data amount) ) Are prepared in advance. Then, the unit data closest to the inner ring is transmitted with respect to the upper limit of the bit rate determined by detecting the band of the network 20. Therefore, data communication via the network 20 is always performed normally, which is a problem in the related art. However, problems such as data congestion and packet loss do not occur.
[0034]
The contents of each embodiment described above are merely examples, and can be arbitrarily modified. Some of the modifications will be described below.
As long as the information on the data amount (bit rate) of each unit data is stored in the server 30, the effect of the present invention that the unit data suitable for the band of the network 20 is transmitted can be obtained. . For this reason, the unit data itself may be stored in the server 30 and read out as needed to perform data transmission, or the unit data itself may be generated at any time during data transmission without being stored in the server 30. Good.
[0035]
The method of installing the program according to the present invention is optional. In the above embodiment, it is assumed that the program is installed in the server 30 in advance. However, the program may be installed in the server 30 via a storage medium (a floppy disk, a CD-ROM, or the like) storing the contents of the program. In addition, a form using so-called net distribution that is installed via the network 20 or another network may be used.
[0036]
【The invention's effect】
As described above, according to the present invention, transmission of video and audio data according to a network band can be performed without any problem.
[Brief description of the drawings]
FIG. 1 is a configuration diagram of a data transmission system 100 according to an embodiment of the present invention.
FIG. 2 is a flowchart showing a procedure in which a server 30 of the data transmission system 100 creates various tables.
FIG. 3 is a conceptual diagram showing a process of creating a video file by the server 30.
FIG. 4 is a conceptual diagram showing the contents of a thinning process performed by the server.
FIG. 5 is a diagram for explaining the contents of a video file created by the server 30.
FIG. 6 is a conceptual diagram showing a state in which unit data is stored in the server 30.
FIG. 7 is a diagram showing contents of a management table stored in the server 30.
FIG. 8 is a diagram showing contents of a dynamic management table stored in the server 30.
FIG. 9 is a flowchart showing the operation of the server 30.
[Explanation of symbols]
10 user terminal, 20 network
30 ... server, 100 ... data transmission system.

Claims (5)

ネットワークを経由して送信する映像音声データを異なる圧縮率で圧縮するとともに、圧縮したデータの各々を当該映像音声データの再生開始時から一定時間ごとに互いに分割し、当該分割により生成される分割データのビットレートをそれぞれ記憶する記憶部と、
前記ネットワークの帯域を検知する検知部と、
前記映像音声データの再生経過時が同じ分割データに係るビットレートのうち、検知した帯域に沿うものを送信レートとして決定する制御部と
を有することを特徴とするサーバ。
The video and audio data transmitted via the network is compressed at different compression ratios, and each of the compressed data is divided from each other at regular intervals from the start of reproduction of the video and audio data, and the divided data generated by the division A storage unit for storing the bit rate of
A detection unit that detects a band of the network,
A server comprising: a control unit that determines, as a transmission rate, a bit rate along a detected band among bit rates related to the divided data having the same reproduction progress time of the video / audio data.
請求項1に記載のサーバにおいて、
前記記憶部は、前記映像音声データの再生経過時が同じ分割データに係るビットレートについて並べた管理テーブルであって、前記一定時間ごとにビットレートの低い/高い順に内容が更新される管理テーブルを記憶し、
前記制御部は、前記管理テーブルにおけるビットレートの値のうち、検知した帯域が指定するビットレート上限値に内輪で一番近いものを送信レートとして決定すること
を特徴とするサーバ。
The server according to claim 1,
The storage unit is a management table in which bit rates related to the same divided data at the time of reproduction of the video / audio data are arranged. Remember,
The server, wherein the control unit determines, as a transmission rate, a bit rate value closest to the bit rate upper limit value specified by the detected band among the bit rate values in the management table.
ネットワークを経由して送信する映像音声データを異なる圧縮率で圧縮するとともに、圧縮したデータの各々を当該映像音声データの再生開始時から一定時間ごとに互いに分割し、当該分割により生成される分割データのビットレートをそれぞれ記憶する過程と、
前記ネットワークの帯域を検知する過程と、
前記映像音声データの再生経過時が同じ分割データに係るビットレートのうち、検知した帯域に沿うものを送信レートとして決定する過程と
を有することを特徴とする送信レート制御方法。
The video and audio data transmitted via the network is compressed at different compression ratios, and each of the compressed data is divided from each other at regular intervals from the start of reproduction of the video and audio data, and the divided data generated by the division Storing each of the bit rates of
Detecting the bandwidth of the network;
Deciding, as a transmission rate, a bit rate along the detected band among bit rates related to the divided data having the same reproduction time of the video and audio data.
サーバを、
ネットワークを経由して送信する映像音声データを異なる圧縮率で圧縮するとともに、圧縮したデータの各々を当該映像音声データの再生開始時から一定時間ごとに互いに分割し、当該分割により生成される分割データのビットレートをそれぞれ記憶する手段と、
前記ネットワークの帯域を検知する手段と、
前記映像音声データの再生経過時が同じ分割データに係るビットレートのうち、検知した帯域に沿うものを送信レートとして決定する手段と
して機能させることを特徴とするプログラム。
Server
The video and audio data transmitted via the network is compressed at different compression ratios, and each of the compressed data is divided from each other at regular intervals from the start of reproduction of the video and audio data, and the divided data generated by the division Means for storing the respective bit rates of
Means for detecting the bandwidth of the network;
A program that functions as means for determining, as a transmission rate, a bit rate along a detected band among bit rates related to divided data having the same reproduction time of the video and audio data.
請求項4に記載のプログラムを記録した記録媒体。A recording medium on which the program according to claim 4 is recorded.
JP2003001217A 2003-01-07 2003-01-07 Server, transmission rate control method, program, and recording medium Expired - Fee Related JP3976191B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003001217A JP3976191B2 (en) 2003-01-07 2003-01-07 Server, transmission rate control method, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003001217A JP3976191B2 (en) 2003-01-07 2003-01-07 Server, transmission rate control method, program, and recording medium

Publications (2)

Publication Number Publication Date
JP2004215074A true JP2004215074A (en) 2004-07-29
JP3976191B2 JP3976191B2 (en) 2007-09-12

Family

ID=32819297

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003001217A Expired - Fee Related JP3976191B2 (en) 2003-01-07 2003-01-07 Server, transmission rate control method, program, and recording medium

Country Status (1)

Country Link
JP (1) JP3976191B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009117963A (en) * 2007-11-02 2009-05-28 Panasonic Corp Communication terminal and information display method
JP2011040879A (en) * 2009-08-07 2011-02-24 Hitachi Consumer Electronics Co Ltd Data distribution system, switching device, and data distribution method
JP2014519259A (en) * 2011-05-17 2014-08-07 アルカテル−ルーセント How to stream video content, nodes in a network for monitoring video content streaming
JP2015130600A (en) * 2014-01-07 2015-07-16 キヤノン株式会社 Picture processing device and control method for the same, and picture distribution system
JP2016007026A (en) * 2009-11-13 2016-01-14 サムスン エレクトロニクス カンパニー リミテッド Method and apparatus for adaptive streaming using segmentation
US9699486B2 (en) 2010-02-23 2017-07-04 Samsung Electronics Co., Ltd. Method and apparatus for transmitting and receiving data
US9756364B2 (en) 2009-12-07 2017-09-05 Samsung Electronics Co., Ltd. Streaming method and apparatus operating by inserting other content into main content
US9860573B2 (en) 2009-11-13 2018-01-02 Samsung Electronics Co., Ltd. Method and apparatus for providing and receiving data
US9967598B2 (en) 2009-11-13 2018-05-08 Samsung Electronics Co., Ltd. Adaptive streaming method and apparatus
USRE48360E1 (en) 2009-11-13 2020-12-15 Samsung Electronics Co., Ltd. Method and apparatus for providing trick play service

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009117963A (en) * 2007-11-02 2009-05-28 Panasonic Corp Communication terminal and information display method
JP2011040879A (en) * 2009-08-07 2011-02-24 Hitachi Consumer Electronics Co Ltd Data distribution system, switching device, and data distribution method
JP2016007026A (en) * 2009-11-13 2016-01-14 サムスン エレクトロニクス カンパニー リミテッド Method and apparatus for adaptive streaming using segmentation
US9860573B2 (en) 2009-11-13 2018-01-02 Samsung Electronics Co., Ltd. Method and apparatus for providing and receiving data
US9967598B2 (en) 2009-11-13 2018-05-08 Samsung Electronics Co., Ltd. Adaptive streaming method and apparatus
US10425666B2 (en) 2009-11-13 2019-09-24 Samsung Electronics Co., Ltd. Method and apparatus for adaptive streaming using segmentation
USRE48360E1 (en) 2009-11-13 2020-12-15 Samsung Electronics Co., Ltd. Method and apparatus for providing trick play service
US9756364B2 (en) 2009-12-07 2017-09-05 Samsung Electronics Co., Ltd. Streaming method and apparatus operating by inserting other content into main content
US9699486B2 (en) 2010-02-23 2017-07-04 Samsung Electronics Co., Ltd. Method and apparatus for transmitting and receiving data
JP2014519259A (en) * 2011-05-17 2014-08-07 アルカテル−ルーセント How to stream video content, nodes in a network for monitoring video content streaming
JP2015130600A (en) * 2014-01-07 2015-07-16 キヤノン株式会社 Picture processing device and control method for the same, and picture distribution system

Also Published As

Publication number Publication date
JP3976191B2 (en) 2007-09-12

Similar Documents

Publication Publication Date Title
JP4421156B2 (en) Image reproducing apparatus and image recording / reproducing apparatus
CN104253999B (en) Apparatus and method for transmission content
JP4944484B2 (en) Playback apparatus, playback method, and program
US10728302B2 (en) Dynamic bit rate encoding
JP2007523524A (en) Information storage medium recording multimedia data, reproducing method and reproducing apparatus thereof
JP2004112789A (en) Multimedia streaming device and its method
KR20070121662A (en) Media timeline processing infrastructure
JP2007060286A (en) Content-editing device and reproducing device thereof
JP2017519406A (en) Network video playback method and apparatus
WO2009119394A1 (en) Video acquisition method, video acquisition device, video acquisition system, and program for video acquisition
JP2004215074A (en) Server, transmitting rate control method, program, and record medium
US7479594B2 (en) Sound data encoding apparatus and sound decoding apparatus
JP2006050531A (en) Information recording apparatus
WO2017169720A1 (en) Playback device and playback method, and file generation device and file generation method
WO2017169721A1 (en) File generation device and file generation method
JP2016072858A (en) Media data generation method, media data reproduction method, media data generation device, media data reproduction device, computer readable recording medium and program
US7664373B2 (en) Program, data processing method, and system of same
JP7070886B2 (en) Information storage device
JP4750759B2 (en) Video / audio playback device
JP5219122B2 (en) Electronics
JP2006020281A (en) Recording device, playback device, and program
US20240086451A1 (en) Information processing apparatus, reception apparatus, information processing method, and storage medium
JP4441572B2 (en) Recording device
JP4600698B2 (en) Stream reproducing apparatus and program thereof
JP2009060353A (en) Content distribution apparatus, mobile terminal device, content distribution system, content distribution method, content receiving method, and content distribution program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050407

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061212

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070612

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070614

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100629

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100629

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110629

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120629

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120629

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130629

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees