JP4622121B2 - Data conversion apparatus and method, and encoding apparatus and method - Google Patents

Data conversion apparatus and method, and encoding apparatus and method Download PDF

Info

Publication number
JP4622121B2
JP4622121B2 JP2001065077A JP2001065077A JP4622121B2 JP 4622121 B2 JP4622121 B2 JP 4622121B2 JP 2001065077 A JP2001065077 A JP 2001065077A JP 2001065077 A JP2001065077 A JP 2001065077A JP 4622121 B2 JP4622121 B2 JP 4622121B2
Authority
JP
Japan
Prior art keywords
information
encoding
transcoding
output
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001065077A
Other languages
Japanese (ja)
Other versions
JP2002044622A (en
Inventor
輝彦 鈴木
クーン ピーター
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001065077A priority Critical patent/JP4622121B2/en
Publication of JP2002044622A publication Critical patent/JP2002044622A/en
Application granted granted Critical
Publication of JP4622121B2 publication Critical patent/JP4622121B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、データ変換装置および方法、並びに、符号化装置および方法に関し、特に、動画像信号を、例えば光磁気ディスクや磁気テープなどの記録媒体に記録し、これを再生してディスプレイなどに表示したり、テレビ会議システム、テレビ電話システム、放送用機器、マルチメディアデータベース検索システムなど、動画像信号を伝送路を介して送信側から受信側に伝送し、受信側において、これを受信し、表示する場合や、動画像信号を編集し記録する場合などに用いて好適なデータ変換装置および方法、並びに、符号化装置および方法に関する。
【0002】
【従来の技術】
例えば、テレビ会議システム、テレビ電話システムなどのように、動画像信号を遠隔地に伝送するシステムにおいては、伝送路を効率良く利用するため、映像信号のライン相関やフレーム間相関を利用して、画像信号を圧縮符号化するようになされている。
【0003】
動画像の高能率符号化方式の代表的なものとして、 蓄積用動画像符号化方式としてのMPEG(Moving Picture Expert Group)方式がある。これはISO−IEC/JTC1/SC2/WG11にて議論され、標準案として提案されたものであり、動き補償予測符号化とDCT(Discrete Cosine Transform)符号化を組み合わせたハイブリッド方式が採用されている。
【0004】
MPEGでは様々なアプリケーションや機能に対応するために、いくつかのプロファイルおよびレベルが定義されている。最も基本となるのが、メインプロファイル メインレベル(MP@ML)である。
【0005】
図1を参照して、MPEG方式の MP@ML(メインプロファイル@メインレベル) のエンコーダの構成例について説明する。
【0006】
入力画像信号はまずフレームメモリ群1に入力され、所定の順番で符号化される。
【0007】
符号化されるべき画像データは、マクロブロック単位で動きベクトル検出回路2に入力される。動きベクトル検出回路2は、予め設定されている所定のシーケンスに従って、各フレームの画像データを、Iピクチャ、Pピクチャ、またはBピクチャとして処理する。シーケンシャルに入力される各フレームの画像を、I,P,Bのいずれのピクチャとして処理するかは、予め定められている(例えば、I,B,P,B,P,…B,Pとして処理される)。
【0008】
動きベクトル検出回路2は予め定められた所定の参照フレームを参照し、動き補償を行い、その動きベクトルを検出する。動き補償(フレーム間予測)には前方予測、後方予測、両方向予測の3種類のモードがある。Pピクチャの予測モードは前方予測のみであり Bピクチャの予測モードは前方予測、後方予測、両方向予測の3種類である。動きベクトル検出回路2は予測誤差を最小にする予測モードを選択し、その際の予測モードを発生する。
【0009】
この際、予測誤差は例えば、符号化するマクロブロックの分散と比較され、マクロブロックの分散の方が小さい場合、そのマクロブロックでは予測は行わず、フレーム内符号化が行われる。この場合、予測モードは画像内符号化(イントラ)となる。動きベクトルおよび上記予測モードは可変長符号化回路6および動き補償回路12に入力される。
【0010】
動き補償回路12では所定の動きベクトルに基づいて予測画像を生成し、演算回路3に入力する。演算回路3は、符号化するマクロブロックの値と予測画像の値の差分信号を DCT 回路4に出力する。イントラマクロブロックの場合、演算回路3は、符号化するマクロブロックの信号をそのまま DCT 回路4に出力する。
【0011】
DCT 回路4は、入力されたデータを DCT(離散コサイン変換)処理し、 DCT 係数に変換する。このDCT係数は、量子化回路5に入力され、送信バッファ7のデータ蓄積量(バッファ蓄積量)に対応した量子化ステップで量子化された後、可変長符号化回路6に入力される。
【0012】
可変長符号化回路6は、量子化回路5より供給される量子化ステップ(スケール)に対応して、量子化回路5より供給される画像データ(いまの場合、Iピクチャのデータ)を、例えばハフマン符号などの可変長符号に変換し、送信バッファ7に出力する。
【0013】
可変長符号化回路6にはまた、量子化回路5より量子化ステップ(スケール)、動きベクトル検出回路2より予測モード(画像内予測、前方予測、後方予測、または両方向予測のいずれが設定されたかを示すモード)、および動きベクトル、が入力されており、これらも可変長符号化される。
【0014】
送信バッファ7は、入力されたデータを一時蓄積し、蓄積量に対応するデータを量子化回路5に出力する。
【0015】
送信バッファ7は、そのデータ残量が許容上限値まで増量すると、量子化制御信号によって量子化回路5の量子化スケールを大きくすることにより、量子化データのデータ量を低下させる。また、これとは逆に、データ残量が許容下限値まで減少すると、送信バッファ7は、量子化制御信号によって量子化回路5の量子化スケールを小さくすることにより、量子化データのデータ量を増大させる。このようにして、送信バッファ7のオーバフローまたはアンダフローが防止される。
【0016】
そして、送信バッファ7に蓄積されたデータは、所定のタイミングで読み出され、伝送路に出力される。
【0017】
一方、量子化回路5より出力されたデータは、逆量子化回路8に入力され、量子化回路5より供給される量子化ステップに対応して逆量子化される。逆量子化回路8の出力は、IDCT(逆DCT)回路9に入力され、逆DCT処理された後、演算器10を介してフレームメモリ群11に記憶される。
【0018】
次に、図2を用いて、MPEG の MP@ML のデコーダの構成例を説明する。伝送路を介して伝送された符号化された画像データは、図示せぬ受信回路で受信されたり、再生装置で再生され、受信バッファ31に一時記憶された後、可変長復号回路32に供給される。可変長復号回路32は、受信バッファ31より供給されたデータを可変長復号し、動きベクトル、予測モードを動き補償回路37に、また、量子化ステップを逆量子化回路33に、それぞれ出力するとともに、復号された画像データを逆量子化回路33に出力する。
【0019】
逆量子化回路33は、可変長復号回路32より供給された画像データを、同じく可変長復号回路32より供給された量子化ステップに従って逆量子化し、逆DCT回路34に出力する。逆量子化回路33より出力されたデータ(DCT係数)は、逆DCT回路34で、逆DCT処理され、演算器35に供給される。
【0020】
逆DCT回路34より供給された画像データが、Iピクチャのデータである場合、そのデータは演算器35より出力され、演算器35に後に入力される画像データ(PまたはBピクチャのデータ)の予測画像データ生成のために、フレームメモリ群36に供給されて記憶される。また、このデータは、そのまま、再生画像として外部に出力される。
【0021】
入力ビットストリームがPまたはBピクチャの場合、動き補償回路37は可変長復号回路32より供給される、動きベクトルおよび予測モードに従って、予測画像を生成し、演算器35に出力する。演算器35は 逆DCT回路34より入力される画像データと、動き補償回路37より供給される予測画像データを加算し、出力画像とする。またPピクチャの場合、演算器35の出力は、フレームメモリ群36に入力されて記憶され、次に復号する画像信号の参照画像とされる。
【0022】
MPEG では MP@ML の他に、様々なプロファイルおよびレベルが定義され、また各種ツールが用意されている。スケーラビリティも、MPEGのこうしたツールの1つである。
【0023】
MPEGでは、異なる画像サイズやフレームレートに対応する、スケーラビリティを実現するスケーラブル符号化方式が導入されている。例えば空間スケーラビリティの場合、下位レイヤのビットストリームのみを復号する場合、画像サイズの小さい画像信号を復号し、下位レイヤおよび上位レイヤのビットストリームを復号する場合、画像サイズの大きい画像信号を復号する。
【0024】
図3を用いて空間スケーラビリティのエンコーダを説明する。空間スケーラビリティの場合、下位レイヤは画像サイズの小さい画像信号、また上位レイヤは画像サイズの大きい画像信号に対応する。
【0025】
下位レイヤの画像信号はまずフレームメモリ群1に入力され、MP@ML と同様に符号化される。ただし、演算器10の出力はフレームメモリ群11に供給され、下位レイヤの予測参照画像として用いられるだけでなく、画像拡大回路41により上位レイヤの画像サイズと同一の画像サイズに拡大された後、上位レイヤの予測参照画像にも用いられる。
【0026】
上位レイヤの画像信号はまず、フレームメモリ群51に入力される。動きベクトル検出回路52は MP@ML と同様に、動きベクトルおよび予測モードを決定する。
【0027】
動き補償回路62は動きベクトル検出回路52によって決定された動きベクトルおよび予測モードに従って、予測画像を生成し、重み付加回路44に出力する。重み付加回路44では予測画像に対して重み(係数) W を乗算し、演算器43に出力する。
【0028】
演算器10の出力は上記のとおり、フレームメモリ群11および画像拡大回路41に入力される。画像拡大回路41では演算器10によって生成された画像信号を拡大して上位レイヤの画像サイズと同一の大きさにして重み付加回路42に出力する。重み付加回路42では、画像拡大回路41の出力に、重み (1-W) を乗算し、演算器43に出力する。
【0029】
演算器43は重み付加回路42および44の出力を加算し、予測画像として演算器53に出力する。演算器43の出力はまた演算器60に入力され、逆DCT回路59の出力と加算された後、フレームメモリ群61に入力され、この後符号化される画像信号の予測参照フレームとして用いられる。
【0030】
演算器53は符号化する画像信号と、演算器43の出力との差分を計算し、出力する。ただし、フレーム内符号化マクロブロックの場合、演算器53は符号化する画像信号をそのまま DCT回路54に出力する。
【0031】
DCT回路54は演算器53の出力を DCT(離散コサイン変換)処理し、DCT係数を生成し、量子化回路55に出力する。量子化回路55では MP@ML の場合と同様に、送信バッファ57のデータ蓄積量などから決定された量子化スケールにしたがって DCT 係数を量子化し、可変長符号化回路56に出力する。可変長符号化回路56は、量子化された DCT 係数を可変長符号化した後、送信バッファ57を介して上位レイヤのビットストリームとして出力する。
【0032】
量子化回路55の出力はまた、量子化回路55で用いた量子化スケールで逆量子化回路58により逆量子化され、逆DCT回路59で逆DCTされた後、演算器60に入力される。演算器60は、演算器43と逆DCT回路59の出力を加算し、フレームメモリ群61に入力する。
【0033】
可変長符号化回路56ではまた、動きベクトル検出回路52で検出された動きベクトルおよび予測モード、量子化回路55で用いた量子化スケール、重み付加回路42および44で用いた重み W が入力され、それぞれ符号化され、伝送される。
【0034】
【発明が解決しようとする課題】
これまでの動画像符号化装置および復号装置は、それぞれが1対1に対応することが前提となっていた。例えば、テレビ会議システムにおいては、送信側と受信側は常に1対1であり、また送信端末と受信端末の処理能力や仕様などは、予め定められていた。さらに、DVDなどの蓄積メディアでは、復号装置の仕様、処理能力などは、予め厳密に決められており、符号化装置は、その仕様を満たす復号装置のみを前提として動画像信号の符号化を行う。したがって、符号化装置では、予め決められた仕様の復号装置で最適な画質が得られるように画像信号を符号化すれば、常に最適な画質で画像を伝送することが可能であった。
【0035】
しかしながら、例えばインターネットなどのように、伝送容量が一定でなく、時間や経路により伝送容量が変化するような伝送路へ動画像を送信する場合、また不特定多数の端末が接続されていて、受信端末の仕様が予め決められておらず、様々な処理能力をもつ受信端末に向けて動画像を送信する場合、最適な画質を知ること自体が困難であり、効率よく動画像を送信することが困難である。
【0036】
さらに、端末の仕様が一意でないため、符号化装置と復号装置の符号化方式が異なる場合もあり、その場合には符号化ビットストリームを効率よく所定のフォーマットへ変換する必要があるが、最適な変換方法は未だ確立していない。
【0037】
本発明はこのような状況に鑑みてなされたものであり、様々な伝送容量をもつ伝送路を介して画像信号を効率よく伝送することができるようにするとともに、様々な処理能力をもつ受信端末に対して最適な動画像を伝送することができるようにするものである。
【0038】
【課題を解決するための手段】
本発明のデータ変換装置は、入力フォーマットでエンコードされた第1のビットストリームを出力フォーマットでエンコードされた第2のビットストリームにトランスコードするデータ変換装置において、第1のビットストリームをトランスコードする際に利用する符号化パラメータを含む、第1のビットストリームを第2のビットストリームにトランスコードするトランスコーディングの方法の決定に利用するコンテンツ情報と、第2のビットストリームを受信するクライアントの処理能力を示すクライアント情報とを受け取る受け取り手段と、受け取り手段により受け取られたコンテンツ情報及びクライアント情報に基づいて、トランスコーディングの方法を決定し、出力フォーマット及びトランスコーディングの方法を示すトランスコーディングタイプ情報を生成する制御手段と、制御手段により生成されたトランスコーディングタイプ情報を利用して、第1のビットストリームを第2のビットストリームにトランスコードする変換手段とを有することを特徴とする。
【0039】
上記変換手段は、第1のビットストリームをデコードして画像データを生成し、第1のビットストリームをデコードする際にデコードされた符号化パラメータを伝送するデコーダと、制御手段により生成されたトランスコーディングタイプ情報と、デコーダにより伝送された符号化パラメータとを利用して、デコーダによりデコードされた画像データをエンコードするエンコーダとを有することができる。
【0040】
上記コンテンツ情報は、トランスコーディングを行う際のヒントとなるヒント情報を含むことができる。
【0041】
上記コンテンツ情報は、ヒント情報を識別する識別情報を含むことができる。
【0042】
上記ヒント情報は、ヒント情報自身が有効である範囲、および、トランスコーディングを行う際に利用する符号化パラメータの組み合わせを示すパラメータセット情報を含むことができる。
【0043】
上記パラメータセット情報は、コンテンツを符号化する際のビットレートに対応する符号化パラメータを含むことができる。
【0044】
上記パラメータセット情報は、ビットレートに対応する画枠サイズとフレームレートを含むことができる。
【0045】
上記パラメータセット情報は、ヒント情報が有効である最小ビットレートを示す最小ビットレート情報とヒント情報が有効である最大ビットレートを示す最大ビットレート情報とを含むことができる。
【0046】
上記パラメータセット情報は、最小ビットレートと最大ビットレートとの間でエンコードする際に最適な画質を得るフレームレートを示すフレームレート情報を含むことができる。
【0047】
上記パラメータセット情報は、最小ビットレートと最大ビットレートとの間でエンコードする際に最適な画質を得る画枠サイズを示す画枠情報を含むことができる。
【0048】
上記ヒント情報は、ヒント情報自身が有効である範囲、および、エンコードする際の難易度を示す符号化難易度情報を含むことができる。
【0049】
上記符号化難易度情報は、ヒント情報が有効であるビットストリームの先頭の位置を示す先頭位置情報とヒント情報が有効であるビットストリームの最後の位置を示す最後位置情報とを含むことができる。
【0050】
上記符号化難易度情報は、先頭の位置から最後の位置の間のビットストリームを対象としてエンコードする際の難易度を示す部分符号化難易度情報を含むことができる。
【0051】
上記第1のビットストリームは、固定ビットレートでエンコーダされており、上記変換手段は、上記符号化難易度情報を利用して、可変ビットレートでエンコードすることができる。
【0052】
本発明のデータ変換方法は、入力フォーマットでエンコードされた第1のビットストリームを出力フォーマットでエンコードされた第2のビットストリームにトランスコードするデータ変換装置のデータ変換方法であって、受け取り手段が、第1のビットストリームをトランスコードする際に利用する符号化パラメータを含む、第1のビットストリームを第2のビットストリームにトランスコードするトランスコーディングの方法の決定に利用するコンテンツ情報と、第2のビットストリームを受信するクライアントの処理能力を示すクライアント情報とを受け取り、制御手段が、受け取られたコンテンツ情報及びクライアント情報に基づいて、トランスコーディングの方法を決定し、出力フォーマット及びトランスコーディングの方法を示すトランスコーディングタイプ情報を生成し、変換手段が、生成されたトランスコーディングタイプ情報を利用して、第1のビットストリームを第2のビットストリームにトランスコードすることを特徴とする。
【0053】
本発明の符号化装置は、入力フォーマットでエンコードされた第1のビットストリームをデコードして得られる画像データをエンコードして、出力フォーマットでエンコードされた第2のビットストリームを生成する符号化装置において、エンコードする際に利用する符号化パラメータを含む、第1のビットストリームを第2のビットストリームにトランスコードするトランスコーディングの方法の決定に利用するコンテンツ情報と、第2のビットストリームを受信するクライアントの処理能力を示すクライアント情報とを受け取る受け取り手段と、受け取り手段により受け取られたコンテンツ情報及びクライアント情報に基づいて、トランスコーディングの方法を決定し、出力フォーマット及びトランスコーディングの方法を示すトランスコーディングタイプ情報を生成する制御手段と、制御手段により生成されたトランスコーディングタイプ情報を利用して、画像データをエンコードすることにより、第2ビットストリームを生成する符号化手段とを有することを特徴とする。
【0054】
本発明の符号化方法は、入力フォーマットでエンコードされた第1のビットストリームをデコードして得られる画像データをエンコードして、出力フォーマットでエンコードされた第2のビットストリームを生成する符号化装置の符号化方法であって、受け取り手段が、エンコードする際に利用する符号化パラメータを含む、第1のビットストリームを第2のビットストリームにトランスコードするトランスコーディングの方法の決定に利用するコンテンツ情報と、第2のビットストリームを受信するクライアントの処理能力を示すクライアント情報とを受け取り、制御手段が、受け取られたコンテンツ情報及びクライアント情報に基づいて、トランスコーディングの方法を決定し、出力フォーマット及びトランスコーディングの方法を示すトランスコーディングタイプ情報を生成し、符号化手段が、生成されたトランスコーディングタイプ情報を利用して、画像データをエンコードすることにより、第2ビットストリームを生成することを特徴とする。
【0065】
本発明のデータ変換装置および方法においては、第1のビットストリームをトランスコードする際に利用する符号化パラメータを含む、第1のビットストリームを第2のビットストリームにトランスコードするトランスコーディングの方法の決定に利用するコンテンツ情報と、第2のビットストリームを受信するクライアントの処理能力を示すクライアント情報とが受け取られ、その受け取られたコンテンツ情報及びクライアント情報に基づいて、トランスコーディングの方法が決定され、出力フォーマット及びトランスコーディングの方法を示すトランスコーディングタイプ情報が生成され、生成されたトランスコーディングタイプ情報を利用して、第1のビットストリームが第2のビットストリームにトランスコードされる。
【0066】
本発明の符号化装置および方法においては、エンコードする際に利用する符号化パラメータを含む、第1のビットストリームを第2のビットストリームにトランスコードするトランスコーディングの方法の決定に利用するコンテンツ情報と、第2のビットストリームを受信するクライアントの処理能力を示すクライアント情報とが受け取られ、その受け取られたコンテンツ情報及びクライアント情報に基づいて、トランスコーディングの方法が決定され、出力フォーマット及びトランスコーディングの方法を示すトランスコーディングタイプ情報が生成され、生成されたトランスコーディングタイプ情報を利用して、画像データをエンコードすることにより、第2ビットストリームが生成される。
【0069】
【発明の実施の形態】
(第1の実施の形態)
図4に本発明の第1の実施の形態の構成を示す。
【0070】
マルチメディアコンテンツサーバ101は、動画像などを含むマルチメディアコンテンツを、ハードディスクなどの蓄積メディア(例えば、後述する図5のコンテンツ記録装置112)に記録し保持する。マルチメディアコンテンツは、例えば、非圧縮で、または、MPEG-1,MPEG-2,またはMPEG-4(以下、これをMPEG-1/2/4のように略記する) などの圧縮ビットストリーム形式で記録される。
【0071】
受信端末(クライアント)103はマルチメディアコンテンツを要求し、受信し、表示する端末である。ユーザは受信端末103を用いてコンテンツを取得する。受信端末103は、所定のコンテンツを要求するコンテンツ要求信号1、並びに自身の端末の処理能力、例えばメモリサイズ、画像表示装置の解像度、演算能力、バッファサイズ、復号可能なビットストリームのフォーマット、などを示すクライアント情報信号を送信する。
【0072】
コンテンツ要求信号1は、例えば映画のタイトルなど、要求するコンテンツの意味的な内容を含む情報であり、MPEG-7 符号化方式により符号化されている。
【0073】
データアクセスサーバ102は、ネットワークまたは所定の伝送路を介して受信端末103よりコンテンツ要求信号1およびクライアント情報信号を受信する。データアクセスサーバ102は、コンテンツ要求信号1に基づき要求されたコンテンツの情報を要求するコンテンツ情報要求信号を、ネットワークまたは所定の伝送路を介してマルチメディアコンテンツサーバ101に送信する。
【0074】
マルチメディアコンテンツサーバ101には、マルチメディアコンテンツおよび記録されているマルチメディアコンテンツの情報が、内蔵する蓄積メディアに記録されている。マルチメディアコンテンツサーバ101は、コンテンツ情報要求信号を受信すると、それに基づき、所定のコンテンツ情報信号を、データアクセスサーバ102に送信する。
【0075】
コンテンツ情報信号は、マルチメディアコンテンツサーバ101に記録されているマルチメディアコンテンツの情報を示す信号であり、例えば、ファイル名、コンテンツのタイトル、著者、出演者などの情報を含む。コンテンツ情報信号は、意味的情報および物理的情報の双方を含み、例えば MPEG-7 方式で符号化される。物理的情報とは、例えば、蓄積メディアに記録されている際のファイル名や、ビットストリーム中の所定の位置を示すポインタなどである。意味的情報とは、例えば、コンテンツのタイトルや出演者などである。
【0076】
データアクセスサーバ102は、コンテンツ情報信号、コンテンツ要求信号1、およびクライアント情報信号より、所定のコンテンツを確定し、そのコンテンツを要求するコンテンツ要求信号2を、マルチメディアコンテンツサーバ101に送信する。
【0077】
コンテンツ要求信号2は、例えばファイル名を含む。コンテンツ要求信号2は物理的な情報であり、例えばファイル名やビットストリーム中の所定の位置を示すポインタである。コンテンツ要求信号2は、例えば MPEG-7 により符号化されている。
【0078】
マルチメディアコンテンツサーバ101は、コンテンツ要求信号2により要求されたマルチメディア(MM)コンテンツをデータアクセスサーバ102に送信する。
【0079】
データアクセスサーバ102は、コンテンツ情報信号およびマルチメディアコンテンツを、マルチメディアコンテンツサーバ101より受信する。データアクセスサーバ102は、クライアント情報信号およびコンテンツ情報信号に基づき、マルチメディアコンテンツを最適な形式に変換(Transcode(トランスコード))する。データアクセスサーバ102は、変換したマルチメディアコンテンツを受信端末103に送信する。
【0080】
図4においては、データアクセスサーバ102と受信端末103、およびデータアクセスサーバ102とマルチメディアコンテンツサーバ101は、それぞれ伝送路により隔てられ、独立して記載されているが、それぞれが同一の端末内に実装されていても構わない。例えば、マルチメディアコンテンツサーバ101、データアクセスサーバ102、受信端末103のすべてが同一端末内にあっても構わないし、またマルチメディアコンテンツサーバ101およびデータアクセスサーバ102が同一端末内にあり、受信端末103がネットワークを介して隔てられた別の端末になっていても良い。同様に、マルチメディアコンテンツサーバ101がネットワークを介して隔てられた別の端末で、データアクセスサーバ102と受信端末103が同一端末となっていてもよい。以下、簡単のため、それぞれが独立している場合について説明するが、同一端末内にある場合にも、以下の説明はそのまま適用できる。
【0081】
図5に、図4におけるマルチメディアコンテンツサーバ101の構成例を示す。コンテンツ情報信号、および、その他のコンテンツの情報を記述するメタデータは、メタデータ記録装置111に記録される。また動画像を含むマルチメディアコンテンツはコンテンツ記録装置112に記録される。
【0082】
コンテンツ情報信号およびその他コンテンツに関連するメタデータは、意味的および物理的な情報である。意味的情報とは、例えば、映画のタイトルや監督名といった情報である。物理的な情報とは、例えば、ファイル名、URL、ビットストリーム中の所定の位置を示すポインタなどである。こうしたコンテンツ情報信号およびメタデータは、例えば MPEG-7 により符号化され、記録される。
【0083】
マルチメディアコンテンツそれ自身は、コンテンツ記録装置112に、様々なフォーマット、例えば MPEG-1/2/4 などで符号化され、記録される。
【0084】
データアクセスサーバ102より入力されたコンテンツ情報要求信号は、メタデータマネージャ113に入力される。メタデータマネージャ113は、メタデータ記録装置111に記録されるメタデータとコンテンツ情報信号を管理する。メタデータマネージャ113は、コンテンツ情報要求信号をメタデータ記録装置111に供給する。
【0085】
メタデータ記録装置111は、供給されたコンテンツ情報要求信号に基づき、所定のメタデータまたはコンテンツ情報信号を検索し、メタデータマネージャ113に供給する。メタデータマネージャ113は、コンテンツ情報信号を、図4におけるデータアクセスサーバ102に出力する。
【0086】
データアクセスサーバ102より入力されたコンテンツ要求信号2は、マルチメディアコンテンツマネージャ114に入力される。マルチメディアコンテンツマネージャ114は、コンテンツ記録装置112に記録されているマルチメディアコンテンツの管理を行う。マルチメディアコンテンツマネージャ114は、コンテンツ要求信号2をコンテンツ記録装置112に供給する。
【0087】
コンテンツ記録装置112は、供給されたコンテンツ要求信号2に基づき、所定のマルチメディア(MM)コンテンツを検索し、マルチメディアコンテンツマネージャ114に出力する。マルチメディアコンテンツマネージャ114は、マルチメディアコンテンツを図4におけるデータアクセスサーバ102に出力する。
【0088】
図6に、図4におけるデータアクセスサーバ102の構成例を示す。データアクセスサーバ102は、トランスコーディングマネージャ121、トランスコーディング装置122、およびトランスコーディングライブラリ123から構成される。
【0089】
図4における受信端末103より入力されるクライアント情報信号は、トランスコーディングマネージャ121に入力され、また図4におけるマルチメディアコンテンツサーバ101より入力されるコンテンツ情報信号は、トランスコーディングマネージャ121に入力される。
【0090】
トランスコーディングマネージャ121は、クライアント情報信号、およびコンテンツ情報信号に基づき、マルチメディアコンテンツの出力フォーマットを決定する。トランスコーディングマネージャ121は、トランスコーディングタイプ情報をトランスコーディング装置122に出力する。トランスコーディングタイプ情報は、マルチメディアコンテンツの出力フォーマット、およびトランスコーディング装置122におけるトランスコーディングの方法を示す情報である。
【0091】
トランスコーディングマネージャ121はまた、コンテンツ利用可能情報、およびコンテンツ情報信号を、図4における受信端末103に出力する。トランスコーディングマネージャ121は、要求されたコンテンツがマルチメディアコンテンツサーバ101に無い場合、コンテンツ利用可能情報を "0" にし、また要求されたコンテンツがマルチメディアコンテンツサーバ101にある場合、コンテンツ利用可能情報を "1" にセットする。
【0092】
トランスコーディング装置122は、トランスコーディングタイプ情報に基づき、入力されたコンテンツの変換を行う。
【0093】
トランスコーディング装置122は、CPU や DSP などの上で動作するソフトウエアモジュールとして実装することも可能である。この場合、トランスコーディング装置122はトランスコーディングタイプ情報に基づき、トランスコーディングライブラリ123に記録されている所定のトランスコーディングツールを用いてトランスコーディング(コンテンツの変換)を行う。トランスコーディング装置122はトランスコーディングタイプ情報に基づき、ツール要求信号をトランスコーディングライブラリ123に出力する。トランスコーディングライブラリ123は要求されたソフトウエアモジュール(トランスコーディングツール)をトランスコーディング装置122に出力する。トランスコーディング装置122はソフトウエアモジュールを実行する際に必要なメモリなどを確保し、そのソフトウエアモジュールを用いてトランスコーディングを行う。
【0094】
図7を用いてトランスコーディング装置122の構成例について説明する。もっとも簡単にトランスコーディング装置122を実現する方法は、コンテンツ(ビットストリーム)をデコードした後、所定のフォーマットのエンコーダを用いて再エンコードすることである。
【0095】
図7におけるトランスコーディング装置122では、マルチメディアコンテンツサーバ101より供給されたビットストリームは、まずデコーダ131に入力され、デコードされる。デコードされた画像信号は、受信端末103が受信できるフォーマットのエンコーダ132に供給され、符号化される。
【0096】
デコーダ131によりビットストリームを復号する際に復号された符号化パラメータ、例えば、動きベクトル、量子化係数、符号化モードは、エンコーダ132に供給され、エンコーダ132において画像信号を符号化する際に用いられる。エンコーダ132は、デコーダ131より供給される符号化パラメータ、およびトランスコーディングマネージャ121から供給されるトランスコーディングタイプの情報に基づいて復号画像を符号化し、所定のフォーマットのビットストリームを生成し、出力する。
【0097】
図8を参照して、トランスコーディング装置122がコンテンツ情報信号を用いてトランスコーディングする方法の一例を説明する。
【0098】
所定のコンテンツを符号化する場合、その画質は、同一ビットレートであっても、画枠サイズ、フレームレートなどによって異なる。図8(B)にその一例を示す。この図は、同一画像を、異なる3つの画枠サイズ、フレームレートで符号化した際の、ビットレート(図8(B)の横軸)と画質(図8(B)の縦軸)の関係を示す図である。ビットレートが十分に高い場合には、画枠が大きく(ITU-R Recommendation601)、フレームレートが高い(30Hz)画像を符号化するとき、最も画質が良くなるが、ビットレートが低くなると、急激に画質が劣化する。
【0099】
所定のビットレートRB2以下では、Rec.601の画像サイズを縦横 1/2 (SIF)にし、フレームレートを低く(10Hzに)して符号化した方が画質が良くなる。さらに所定のビットレートRB1以下では、SIFの画像サイズをさらに縦横 1/2 (QSIF)にして符号化した方が画質が良くなる。しかしながら、各ビットレートでどの画像サイズとフレームレートで符号化すれば画質が最適になるかは、画像の性質に依存する。図8(B)に示すような関係はコンテンツによって異なる。
【0100】
本実施の形態におけるコンテンツ情報信号は、例えば、各ビットレートにおいて、そのコンテンツを符号化する際に最適な符号化パラメータのリストである。図8(A)にその一例を示す。この場合のコンテンツ情報信号では、ビットレートRA1以下では、縦横 1/4 サイズの画枠でフレームレート 10 Hz で符号化を行い、ビットレートRA1以上RA2以下では、縦横 1/2 サイズの画枠で符号化を行い、ビットレートRA2以上では 、Rec 601 サイズ、フレームレート 30 Hz で符号化を行うものとされている。
【0101】
この場合のコンテンツ情報信号の記述方法の詳細は後述する。
【0102】
次に図9を参照して、コンテンツ情報信号を用いてトランスコーディング装置122が行うトランスコーディング方法の変形例を説明する。所定のマルチメディアコンテンツを送信する伝送路には、ビットレートが時間変動することを許す可変ビットレートの伝送路と、ビットレートが固定の固定ビットレートの伝送路とが存在する。また符号化方式にも、可変ビットレートで符号化することが可能な符号化方式と、固定ビットレートのみでしか符号化することができない符号化方式とが存在する。
【0103】
例えば、無線伝送路を介したテレビ会議システムや放送などでは、固定ビットレートでビットストリームが符号化される。これに対して、DVDなどにおいては、可変ビットレートで符号化される。また、符号化方式においては、 MPEG-1 や H.263 は、固定ビットレートでのみ符号化可能であり、MPEG-2 や MPEG-4 では、可変ビットレートで符号化することが可能である。
【0104】
コンテンツを固定ビットレートまたは可変ビットレートで符号化する場合、可変ビットレートで符号化した方が一般的に画質は良い。コンテンツの符号化効率はその画像の性質に依存する。したがって、コンテンツが異なれば、符号化効率は異なるし、また同一コンテンツでも、時刻により符号化効率は異なる。図9(A)に、符号化難易度の時間的変化の一例を示す。横軸は時刻を表し、縦軸は符号化難易度を表している。符号化難易度が低いシーンでは、低いビットレートで高画質が得られるのに対して、符号化難易度の高いシーンでは、高いビットレートでも十分な画質を得ることが難しい。
【0105】
図9(B)に、この動画像を固定ビットレートで符号化した場合の、画質の時間的変化を示す。図9(A)と図9(B)を比較して明らかなように、固定ビットレートで符号化する場合、符号化難易度の低いシーンでは画質は良くなるが、符号化難易度の高いシーンにおいては画質がかなり悪くなる。従って、時刻によって画質が大きく変動する。
【0106】
図9(C)に、図9(A)の動画像を可変ビットレートで符号化した場合の符号化ビットレートの時間的変化を示す。符号化難易度の高いシーンには、より高いビットが割り当てられ、符号化難易度の低いシーンには、比較的少ないビットが割り当てられる。その結果、図9(D)に示されるように画質が変化する。固定ビットレートで符号化する場合(図9(B))と比較して、コンテンツ全体の発生ビット量は同一であっても、平均的な画質は可変ビットレートの方が良くなる。また可変ビットレート符号化では、画質の時間的変化がより少なくなる。
【0107】
しかしながら、効率よく可変ビットレート符号化を行うためには、一度動画像全体の符号化難易度を解析し、図9(A)に示すような特性を予め求めておく必要がある。ある程度大きい容量のバッファをもち、そのバッファが許容する範囲で符号化難易度を計測する方法もあるが、これもあくまで、その容量の範囲内で最適化が行われるだけであって、そのコンテンツ全体で最適化が行われるわけではない。
【0108】
そこで、このような問題を解決するため、本発明の他の実施の形態では、マルチメディアコンテンツサーバ101より出力されるコンテンツ情報信号に、図9(A)に示されるようなコンテンツの符号化難易度情報を記述し、トランスコーディング装置122は、固定ビットレートで符号化されたビットストリームを、この符号化難易度情報を用いて可変ビットレートで符号化して出力する。
【0109】
すなわち、図7の実施の形態のトランスコーディング装置122においては、エンコーダ132はマルチメディアコンテンツサーバ101より供給されるコンテンツ情報信号に基づき、ビットストリームを符号化し、ビットストリームを出力していた。
【0110】
これに対して図10に示される実施の形態においては、図4におけるマルチメディアコンテンツサーバ101に所定のマルチメディアコンテンツを記録する場合、外部より、マルチメディアコンテンツサーバ101にビットストリームが供給されると、それは、まず符号化難易度解析回路141に入力される。本実施の形態ではビットストリームが入力されるが、圧縮されていない動画像を直接入力しても構わない。
【0111】
符号化難易度解析回路141はコンテンツの符号化難易度を解析し、図9(A)に示すような符号化難易度の特性を得、コンテンツ情報信号として、メタデータ記録装置111に出力するとともに、入力されたコンテンツのビットストリームをコンテンツ記録装置112に出力する。
【0112】
図11に符号化難易度解析回路141の構成例を示す。図11(A)の例では、入力されたビットストリームは、まず構文解析回路(パーサ)151に入力され、ビットストリームから符号化パラメータ(量子化係数、ビット量など)が抽出される。ヒントジェネレータ152は、この時、各フレームにおける量子化係数の平均値Q、そのフレームでの発生ビット量Bを求め、さらに、QラBを、そのフレームでの符号化難易度として求め、コンテンツ情報信号としてメタデータ記録装置111に供給し、記録させる。
【0113】
図11(B)は、符号化難易度解析回路141の変形例を示す。この例では、入力ビットストリームは一度デコーダ161で復号される。復号された画像はエンコーダ162に入力される。エンコーダ162では、固定量子化スケール、例えばQ=1で符号化が行われる。Q=1で符号化した際の各フレームの発生ビット量がそのフレームの符号化難易度となり、コンテンツ情報としてメタデータ記録装置111に供給され、記録される。
【0114】
図12を参照してコンテンツ情報信号を記述するフォーマットの一例を説明する。図12の例では、コンテンツ情報信号は、Transcoding を行う際のヒントとなる情報を含む記述子である、図12(A)に示すTranscodingHintに記述される。図12(A)の例では、TranscodingHintは、ID、並びにTranscodingParameterSet およびTranscodingComplexityHint の記述子を含む。IDは、記述子を識別する識別番号である。
【0115】
TranscodingParameterSetは、図12(B)に示されるように、各ビットレートにおける符号化、トランスコーディングを行う際に最適な符号化パラメータを記述する記述子であり、ID,MinBitRate,MaxBitRate,FrameRate,FrameSizeにより構成されている。
【0116】
MinBitRateはこの記述子の情報が有効である最低のビットレートを示すフラグである。
【0117】
MaxBitRateはこの記述子の情報が有効である最大のビットレートを示すフラグである。
【0118】
FrameRate は、MinBitrate 以上 MaxBitRate 以下で、その画像を符号化する際に最適な画質を得るフレームレートを示すフラグである。
【0119】
FrameSize は、MinBitrate 以上 MaxBitRate 以下で、その画像を符号化する際に最適な画質を得る画枠サイズを示すフラグである。
【0120】
TranscodingComplexityHint は、そのコンテンツの符号化、トランスコーディングの難易度を記述する記述子であり、図12(C)に示されるように構成される。そのStartMediaLocator は、この記述子の情報が有効であるビットストリームの先頭の位置を示すポインタである。
【0121】
EndMediaLocator は、この記述子の情報が有効であるビットストリームの最後の位置を示すポインタである。Complexity は、bitstream 上でStartMediaLocator と EndMediaLocator の間の部分での符号化難易度を示すフラグである。
【0122】
TranscodingComplexityHintは、図12(D)に示すように構成することもできる。StartFrameNumber はこの記述子の情報が有効である先頭のフレーム番号を示すポインタである。
【0123】
EndFrameNumber はこの記述子の情報が有効である最後のフレーム番号を示すポインタである。
【0124】
Complexity は、bitstream 上でStartFrameNumberとEndFrameNumber の間の部分での符号化難易度を示すフラグである。
【0125】
図12(A)に示されるTranscodingHint 記述子のデータ構造を、UML(Universal Modeling Language)で表現すると、図13に示すようになる。TranscodingHint は、1個以上のTranscodingParameterSetと、1個以上のTranscodingComplexityHintで構成されている。TranscodingParameterSetは0回以上繰り返される。TranscodingComplexityHintも同様に、0回以上繰り返される。
【0126】
MPEG-7 はコンテンツに関する情報を記述するメタデータの標準であり、複数の記述子から構成される。MPEG-7 の仕様の詳細は、ISO/IEC SC29/WG11N3112,N3113, N3114 に記述されている。TranscodingHintは記述子は、このMPEG-7のメタデータの一種として構成することができる。
【0127】
図14は、MPEG-7 のMediaInformation記述子 (MediaIdentification記述子, MediaFormat記述子, MediaCoding記述子, MediaTranscodingHint記述子, およびMediaInstance記述子により構成される)に、上記 TranscodingHint を付加して記述する場合のデータ構造の例を示す。MediaInformation記述子 はコンテンツのメディア、例えば符号化方式などを記述する記述子である。TranscodingHint 記述子はこのMediaInformation記述子
に、0または1つ記述される。
【0128】
MediaInformation記述子 はコンテンツ全体あるいはコンテンツの一部分に付加される。したがって、この例では、TranscodingHint 記述子もコンテンツ全体あるいはコンテンツの一部に付加される。
【0129】
図15に、MPEG-7 のSegment記述子 に、TranscodingHint記述子 を記述する場合のデータ構造の例を示す。Segment記述子 は、コンテンツを、例えば各シーンなどの複数部分に分割した場合における、それぞれの部分に関する情報を記述する記述子である。この例では、TranscodingHint 記述子は、このVisualSegment記述子 およびAudioSegment記述子 に、0または1つ記述される。
【0130】
Segment記述子はコンテンツの一部分に付加される。したがって、この例の場合、 TranscodingHint記述子もコンテンツの一部に付加される。
【0131】
図14に示されるように、MPEG-7 のMediaInformation記述子 に、TranscodingHint 記述子を付加して記述すると、MPEG-7 全体のデータ構造は、図16に示すようになる。
(第2の実施の形態)
次に、第2の実施の形態を説明する。第2の実施の形態において、コンテンツ情報信号を構成する符号化難易度は、動き補償の難易度を示す情報と、イントラ符号の難易度を示す情報とから構成することを特徴とする。この2つの情報からも、第1の実施の形態において図9(A)に示すようなコンテンツの所定のシーンの符号化難易度を知ることが可能である。この場合、図10に示す符号化難易度解析回路141は、例えば、図17に示すように構成される。
【0132】
入力ビットストリームは、必要であれば、デコーダ201によりデコードされた後、エンコーダ202乃至205に供給される。エンコーダ202は、デコーダ201より入力された画像データを、固定量子スケール、例えばQ=1で、イントラ符号化のみで符号化処理を行う。Q=1で符号化した際のフレームの発生ビット量が、その符号化のイントラ符号化難易度となり、コンテンツ情報信号発生回路208に供給される。
【0133】
エンコーダ203は、固定量子化スケールで、例えばQ=1,且つm=1で符号化処理(I,Pピクチャのみの符号化処理)を行う。エンコーダ204は、固定量子化スケールで、例えばQ=1,m=2で(隣接する2つのPピクチャの間に1フレームのBピクチャを挿入して)符号化を行う。エンコーダ205は、固定量子化スケールで、例えば、Q1,m=3で(隣接する2つのPピクチャの間に2フレームのBピクチャを挿入して)符号化を行う。
【0134】
平均値回路206は、エンコーダ203乃至205の出力の平均値を演算する。この平均値は、動き補償符号化難易度として差分回路207に供給される。
【0135】
差分回路207は、エンコーダ202の出力から、平均値回路206の出力を減算し、その差分値を、コンテンツ情報信号発生回路208に供給する。コンテンツ情報信号発生回路208には、不図示の外部装置からセグメント(Segment)の開始時刻と終了時刻が供給されている。コンテンツ情報信号発生回路208は、開始時刻と終了時刻で特定されるセグメントのコンテンツ情報信号を、エンコーダ202の出力と差分回路207の出力から生成し、メタデータ記録装置111に供給する。
【0136】
次にその動作について説明する。デコーダ201は、必要であれば、入力ビットストリームをデコードし、エンコーダ202乃至205に供給する。エンコーダ202は、Q=1でイントラ符号化のみを実行する。この際の各フレームの発生ビット量は、そのフレームのイントラ符号化難易度を表し、コンテンツ情報信号発生回路208と差分回路207に供給される。
【0137】
なお、このイントラ符号化難易度は、後述するTextureHint記述子(図19(C))に記述される。
【0138】
エンコーダ203は、Q=1,m=1でデコーダ201より供給された画像データをエンコードする。エンコーダ204は、Q=1,m=2でデコーダ201より出力された画像データをエンコードし、エンコーダ205は、Q=1,m=3で、デコーダ201からの画像データをエンコードする。エンコーダ203乃至205は、各フレームの発生ビット量を平均値回路206に出力する。
【0139】
平均値回路206は、エンコーダ203乃至205より供給された各フレームの発生ビット量の平均値を演算する。この平均値は、動き補償符号化難易度として差分回路207に供給される。
【0140】
差分回路207は、エンコーダ202より供給されるイントラ符号化の難易度を表すイントラ符号化難易度から平均値回路206より供給される動き補償符号化難易度を減算し、これを動き補償難易度としてコンテンツ情報信号発生回路208に供給する。
【0141】
なお、この動き補償難易度は、後述するMotionHint記述子(図19(B))に記述される。
【0142】
コンテンツ情報信号発生回路208は、エンコーダ202より供給されたイントラ符号化難易度と、差分回路207より供給された動き補償難易度に基づいて、コンテンツ情報信号を生成し、メタデータ記録装置111に供給し、記録させる。
【0143】
次に、図18のフローチャートを参照して、このコンテンツ情報信号発生回路208が行うコンテンツ情報信号生成処理について説明する。
【0144】
最初にステップS1において、コンテンツ情報信号発生回路208は、開始時刻と終了時刻で指定されるセグメント内の全てのフレームのイントラ符号化難易度の合計を計算する。
【0145】
なお、セグメントは、ビデオ信号の時間軸方向の所定の区間を意味し、1つのビデオコンテンツは、1つまたは複数のセグメントから構成される。このセグメントの具体的例については、図22を参照して後述する。
【0146】
次に、ステップS2において、コンテンツ情報信号発生回路208は、シーケンス全体に渡って、全てのフレームのイントラ符号化難易度の合計値を計算する。
【0147】
次にステップS3において、コンテンツ情報信号発生回路208は、次式に従って正規化処理を実行し、後述するTextureHintのDifficultyを演算する。
【0148】
Difficulty=(そのセグメント内のイントラ符号化難易度の和÷セグメント内のフレーム数)÷(シーケンス全体のイントラ符号化難易度の和÷シーケンス全体のフレーム数)
このDifficultyは、各セグメント毎に求められる。
【0149】
次に、ステップS4において、コンテンツ情報信号発生回路208は、セグメント内の動き補償難易度の合計を計算する。さらにステップS5において、シーケンス全体の符号化難易度が計算される。そしてステップS6において、コンテンツ情報信号発生回路208は、次式に従って、セグメント毎に正規化処理を実行し、後述するMotionHintのMotion_uncompensabilityを演算する。
【0150】
Motion_uncompensability=(セグメント内の動き補償難易度の和÷セグメント内のフレーム数)÷(シーケンス全体の動き補償難易度の和÷シーケンス全体のフレーム数)
このMotion_uncompensabilityも各セグメント毎に求められる。
【0151】
次に、ステップS7において、コンテンツ情報信号発生回路208は、ステップS3とステップS6の演算結果に基づいて、コンテンツ情報信号としてMediaTranscodingHint記述子を生成する。
【0152】
このMediaTranscodingHint記述子は、トランスコーディングを行う際に最適な符号化パラメータを記述する記述子であり、本発明においては、図19に示すように記述する。
【0153】
図19(A)に示されるように、MediaTranscodingHint記述子は、ID,UtilityScaling(),MotionHint(),およびTextureHint()により構成される。
【0154】
UtilityScaling記述子は、コンテンツの各ビットレートにおける画質を記述する記述子である。
【0155】
MotionHint記述子は、そのコンテンツの動き補償の難易度を記述する記述子であり、図19(B)に示されるように、ID,Motion_uncompensability,Motion_range_x_left,Motion_range_x_right,Motion_range_y_left,Motion_range_y_rightにより構成される。
【0156】
フレーム間相関が低い場合、動き補償によって、向上することができる符号化効率はそれほど大きくなく、より多くのビットをフレーム間相関が低い部分に割り当てる必要がある。Motion_uncompensabilityは、0から1の値を取るパラメータである。0は、各フレームが全く同一であることを示し、1はフレーム間相関が全くないことを示す。このMotion_uncompensabilityには、図17の差分回路207が出力する動き補償難易度が記述される。
【0157】
Motion_range_x_left,Motion_range_x_rightは、動き補償における動き量の水平方向の最大変化量を表す。同様に、Motion_range_y_left,Motion_range_y_rightは、動き補償における動き量の垂直方向の最大変化量を示す。これらは、動きベクトル検出における水平方向と垂直方向の最大サーチレンジを表すことになる。動きベクトルの最大値を予め指定することにより、トランスコーディングにおける演算量を画質を保持したまま減少させることが可能となる。
【0158】
TextureHint記述子は、そのコンテンツの空間方向の圧縮の難易度を記述する記述子であり、図17のエンコーダ202が出力するイントラ符号化難易度が記述される。このTextureHint記述子は、図19(C)に示すように、ID,Difficulty,DifficultyTypeにより構成される。
【0159】
Difficultyは、そのコンテンツのイントラ符号化難易度を示すフラグであり、動き補償を用いずに符号化する場合の符号化難易度を示す。
【0160】
DifficultyTypeは、Difficultyの処理、すなわちどのようにしてその記述子中に記述されているDifficultyが計測されたのかを示すフラグである。DifficultyTypeは、図20に示されるように、その値の"0"は、EncodingDifficultyを表している。
【0161】
図19(A)に示すMediaTranscodingHint記述子のデータ構造を、UMLで表現すると、図21に示すようになる。
【0162】
MediaTranscodingt記述子は、それぞれ0または1個のUtilityScaling記述子,MotionHint記述子,TextureHint記述子で構成される。
【0163】
図21に示すMediaTranscodingHint記述子は、図22に示されるように、MediaIdentification記述子,MediaFormat記述子,MediaCoding記述子,MediaInstance記述子とともに、コンテンツのメディア、例えば符号化方式などを記述する記述子であるMediaInformation記述子を構成する。
【0164】
MediaInformation記述子は、コンテンツ全体、あるいはコンテンツの一部分に付加される。従って、MediaTranscodingHint記述子もコンテンツ全体、あるいはコンテンツの一部に付加されることになる。
【0165】
図23には、MediaTranscodingHint記述子のビデオデータとの関連を模式的に表している。ビデオコンテンツ211は、少なくとも1つのシーケンスで構成され、その一部のシーン(セグメント)212は、開始時刻(Start Time)と終了時刻(End Time)によって規定される。このセグメント212に関する情報(開始時刻や終了時刻など)は、Segment記述子213に記述される。MediaInformation記述子は、コンテンツ1つに対して1つ定義にしても構わないし、Segment記述子に対して1つ定義してもよい。Segment記述子213の子記述子として、MediaInformation記述子214を定義する場合、MediaTrancodingHint記述子215は、MediaInformation記述子214の子記述子であるから、MediaTranscodingHint記述子215は、各セグメント(シーン)毎に規定されることになる。MediaTranscodingHint記述子215は、子記述子として、UtilityScaling記述子216、MediaHint記述子217およびTextureHint記述子218を有している。
【0166】
MediaInformation記述子214およびその子記述子は、全てSegment記述子213の子記述子となり、その記述内容は、親記述子であるSegment記述子213が規定する開始時刻および終了時刻の間でのみ有効な値となる。
【0167】
上述した一連の処理は、ハードウエアにより実行させることもできるが、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。
【0168】
図24は、上記処理を実行するパーソナルコンピュータの構成例を表している。CPU(Central Processing Unit)221は、ROM(Read Only Memory)222に記憶されているプログラム、または記憶部228からRAM(Random Access Memory)223にロードされたプログラムに従って各種の処理を実行する。RAM223にはまた、CPU221が各種の処理を実行する上において必要なデータなども適宜記憶される。
【0169】
CPU221、ROM222、およびRAM223は、バス224を介して相互に接続されている。このバス224にはまた、入出力インタフェース225も接続されている。
【0170】
入出力インタフェース225には、キーボード、マウスなどよりなる入力部226、CRT、LCDなどよりなるディスプレイ、並びにスピーカなどよりなる出力部227、ハードディスクなどより構成される記憶部228、モデム、ターミナルアダプタなどより構成される通信部229が接続されている。通信部229は、ネットワークを介しての通信処理を行う。
【0171】
入出力インタフェース225にはまた、必要に応じてドライブ230が接続され、磁気ディスク241、光ディスク242、光磁気ディスク243、或いは半導体メモリ244などが適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部228にインストールされる。
【0172】
プログラムが記録されている記録媒体は、コンピュータとは別に、ユーザにプログラムを提供するために配布される、磁気ディスク241(フロッピディスクを含む)、光ディスク242(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク243(MD(Mini-Disk)を含む)、もしくは半導体メモリ244などよりなるパッケージメディアにより構成されるだけでなく、コンピュータに予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM222や、記憶部228に含まれるハードディスクなどで構成される。
【0173】
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
【0174】
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
【0175】
また、本明細書において、コンテンツとは主に画像信号を例に説明したが、画像信号に限ることなく、音声信号、プログラム、テキスト信号等を含むものである。
【0176】
【発明の効果】
以上のように、本発明のコンテンツ供給装置および方法、並びに記録媒体のプログラムによれば、他の装置の機能に関する第1の情報に対応するコンテンツに関する第2の情報を取得し、その第2の情報に基づいて、コンテンツを変換するようにしたので、様々な伝送容量をもつ伝送路へのコンテンツの効率よい伝送、および様々な処理能力をもつ他の装置への最適なコンテンツの伝送が可能になる。
【0177】
本発明の信号生成装置および方法によれば、コンテンツの符号化難易度を解析してコンテンツ情報信号として出力し、前記コンテンツ及びコンテンツ情報信号を保持するようにしたので、前記コンテンツを所定の別形式に変換する場合には、コンテンツ情報信号を参照することで、最適な画質が得られるように形式変換を行うことが可能となる。
【0178】
また、本発明の変換装置および方法によれば、コンテンツを再生する端末の情報を取得し、コンテンツの符号化難易度及び端末情報とに基づいて、コンテンツを別形式に変換するようにしたので、再生を行う端末に最適な画質となるように形式変換を行うことが可能となる。
【0179】
また、本発明の再生端末および再生方法によれば、コンテンツをコンテンツの符号化難易度情報に基づいて、端末に適した別形式に変換し再生するようにしたので、再生端末に常に最適な画質で再生することが可能となる。
【図面の簡単な説明】
【図1】従来のMPEGのエンコーダの構成を示すブロック図である。
【図2】従来のMPEGのデコーダの構成を示すブロック図である。
【図3】従来のMPEGの他のエンコーダの構成を示すブロック図である。
【図4】本発明が適用されるシステムの構成を示すブロック図である。
【図5】図4のマルチメディアコンテンツサーバの構成を示すブロック図である。
【図6】図4のデータアクセスサーバの構成を示すブロック図である。
【図7】図6のトランスコーディング装置の構成を示すブロック図である。
【図8】トランスコーディングを説明する図である。
【図9】トランスコーディングを説明する図である。
【図10】図4のマルチメディアコンテンツサーバの記録を説明する図である。
【図11】図10の符号化難易度解析回路の構成を示すブロック図である。
【図12】コンテンツ情報信号の構成を説明する図である。
【図13】トランスコーディングヒント記述子の構造を説明する図である。
【図14】メディアインフォメーション記述子の構造を説明する図である。
【図15】セグメント記述子の構造を説明する図である。
【図16】 MPEG−7の全体の構造を説明する図である。
【図17】図10の符号化難易度解析回路の他の構成例を示すブロック図である。
【図18】図17のコンテンツ情報信号発生回路の動作を説明するフローチャートである。
【図19】 MediaTranscodingHint記述子の構造を説明する図である。
【図20】 DifficultyTypeを説明する図である。
【図21】 MediaTranscodingHints記述子の構造を説明する図である。
【図22】 MediaInformation記述子の構造を説明する図である。
【図23】ビデオデータとSegment記述子の関係を説明する図である。
【図24】パーソナルコンピュータの構成例を示すブロック図である。
【符号の説明】
101 マルチメディアコンテンツサーバ, 102 データアクセスサーバ, 103 受信端末, 111 メタデータ記録装置, 112 コンテンツ記録装置, 113 メタデータマネージャ, 114 マルチメディアコンテンツマネージャ, 121 トランスコーディングマネージャ, 122 トランスコーディング装置, 123 トランスコーディングライブラリ, 131 デコーダ, 132 エンコーダ, 141 符号化難易度解析回路, 151 パーサ, 152 ヒントジェネレータ, 161 デコーダ, 162 エンコーダ
[0001]
BACKGROUND OF THE INVENTION
  The present inventionData conversion apparatus and method, and encoding apparatus and methodIn particular, a moving image signal is recorded on a recording medium such as a magneto-optical disk or a magnetic tape, and is reproduced and displayed on a display or the like, a video conference system, a video phone system, a broadcasting device, multimedia, etc. Used to transmit a moving image signal from a transmitting side to a receiving side via a transmission path, such as in a database search system, and receive and display it on the receiving side, or edit and record a moving image signal SuitableData conversion apparatus and method, and encoding apparatus and methodAbout.
[0002]
[Prior art]
For example, in a system that transmits a moving image signal to a remote place such as a video conference system and a video phone system, in order to efficiently use a transmission path, the line correlation of video signals and the correlation between frames are used. An image signal is compressed and encoded.
[0003]
As a representative example of a high-efficiency encoding method for moving images, there is a moving picture expert group (MPEG) method as a moving image encoding method for storage. This was discussed in ISO-IEC / JTC1 / SC2 / WG11, and was proposed as a standard proposal. A hybrid method combining motion compensation prediction coding and DCT (Discrete Cosine Transform) coding is adopted. .
[0004]
In MPEG, several profiles and levels are defined to support various applications and functions. The most basic is the main profile main level (MP @ ML).
[0005]
A configuration example of an MPEG MP @ ML (main profile @ main level) encoder will be described with reference to FIG.
[0006]
The input image signal is first input to the frame memory group 1 and encoded in a predetermined order.
[0007]
Image data to be encoded is input to the motion vector detection circuit 2 in units of macroblocks. The motion vector detection circuit 2 processes the image data of each frame as an I picture, P picture, or B picture according to a predetermined sequence set in advance. It is predetermined (for example, processed as I, B, P, B, P,... B, P) to process the image of each frame that is sequentially input as an I, P, or B picture. )
[0008]
The motion vector detection circuit 2 refers to a predetermined reference frame, performs motion compensation, and detects the motion vector. There are three types of motion compensation (interframe prediction): forward prediction, backward prediction, and bidirectional prediction. The prediction mode for P pictures is only forward prediction, and there are three types of prediction modes for B pictures: forward prediction, backward prediction, and bidirectional prediction. The motion vector detection circuit 2 selects a prediction mode that minimizes the prediction error, and generates a prediction mode at that time.
[0009]
At this time, for example, the prediction error is compared with the variance of the macroblock to be encoded. When the variance of the macroblock is smaller, the prediction is not performed on the macroblock, and the intraframe encoding is performed. In this case, the prediction mode is intra-picture coding (intra). The motion vector and the prediction mode are input to the variable length coding circuit 6 and the motion compensation circuit 12.
[0010]
The motion compensation circuit 12 generates a predicted image based on a predetermined motion vector and inputs it to the arithmetic circuit 3. The arithmetic circuit 3 outputs a differential signal between the value of the macroblock to be encoded and the value of the predicted image to the DCT circuit 4. In the case of an intra macroblock, the arithmetic circuit 3 outputs the macroblock signal to be encoded to the DCT circuit 4 as it is.
[0011]
The DCT circuit 4 performs DCT (discrete cosine transform) processing on the input data and converts it into DCT coefficients. This DCT coefficient is input to the quantization circuit 5, quantized at a quantization step corresponding to the data storage amount (buffer storage amount) of the transmission buffer 7, and then input to the variable length encoding circuit 6.
[0012]
The variable length encoding circuit 6 corresponds to the quantization step (scale) supplied from the quantization circuit 5, and converts image data (in this case, I picture data) supplied from the quantization circuit 5 into, for example, It is converted into a variable length code such as a Huffman code and output to the transmission buffer 7.
[0013]
The variable length coding circuit 6 also has a quantization step (scale) set by the quantization circuit 5 and a prediction mode (intra-picture prediction, forward prediction, backward prediction, or bidirectional prediction) set by the motion vector detection circuit 2. ) And a motion vector are input, and these are also variable-length encoded.
[0014]
The transmission buffer 7 temporarily accumulates the input data and outputs data corresponding to the accumulation amount to the quantization circuit 5.
[0015]
When the remaining amount of data increases to the allowable upper limit value, the transmission buffer 7 increases the quantization scale of the quantization circuit 5 by the quantization control signal, thereby reducing the data amount of the quantized data. On the other hand, when the remaining data amount is reduced to the allowable lower limit value, the transmission buffer 7 reduces the quantization scale of the quantization circuit 5 by the quantization control signal, thereby reducing the data amount of the quantized data. Increase. In this way, overflow or underflow of the transmission buffer 7 is prevented.
[0016]
The data stored in the transmission buffer 7 is read at a predetermined timing and output to the transmission path.
[0017]
On the other hand, the data output from the quantization circuit 5 is input to the inverse quantization circuit 8 and inversely quantized corresponding to the quantization step supplied from the quantization circuit 5. The output of the inverse quantization circuit 8 is input to an IDCT (inverse DCT) circuit 9, subjected to inverse DCT processing, and then stored in the frame memory group 11 via the arithmetic unit 10.
[0018]
Next, a configuration example of an MPEG MP @ ML decoder will be described with reference to FIG. The encoded image data transmitted through the transmission path is received by a receiving circuit (not shown), reproduced by a reproducing device, temporarily stored in the receiving buffer 31, and then supplied to the variable length decoding circuit 32. The The variable length decoding circuit 32 performs variable length decoding on the data supplied from the reception buffer 31 and outputs the motion vector and prediction mode to the motion compensation circuit 37 and the quantization step to the inverse quantization circuit 33, respectively. The decoded image data is output to the inverse quantization circuit 33.
[0019]
The inverse quantization circuit 33 inversely quantizes the image data supplied from the variable length decoding circuit 32 according to the quantization step supplied from the variable length decoding circuit 32 and outputs the result to the inverse DCT circuit 34. The data (DCT coefficient) output from the inverse quantization circuit 33 is subjected to inverse DCT processing by the inverse DCT circuit 34 and supplied to the computing unit 35.
[0020]
When the image data supplied from the inverse DCT circuit 34 is I picture data, the data is output from the computing unit 35 and prediction of image data (P or B picture data) to be input to the computing unit 35 later. In order to generate image data, it is supplied to and stored in the frame memory group 36. Further, this data is output to the outside as a reproduced image as it is.
[0021]
When the input bit stream is a P or B picture, the motion compensation circuit 37 generates a prediction image according to the motion vector and the prediction mode supplied from the variable length decoding circuit 32 and outputs the prediction image to the calculator 35. The computing unit 35 adds the image data input from the inverse DCT circuit 34 and the predicted image data supplied from the motion compensation circuit 37 to obtain an output image. In the case of a P picture, the output of the computing unit 35 is input to and stored in the frame memory group 36 and is used as a reference image of an image signal to be decoded next.
[0022]
In MPEG, in addition to MP @ ML, various profiles and levels are defined, and various tools are provided. Scalability is another such MPEG tool.
[0023]
In MPEG, a scalable encoding method that realizes scalability corresponding to different image sizes and frame rates is introduced. For example, in the case of spatial scalability, when only a lower layer bit stream is decoded, an image signal with a small image size is decoded, and when a lower layer and an upper layer bit stream are decoded, an image signal with a large image size is decoded.
[0024]
The spatial scalability encoder will be described with reference to FIG. In the case of spatial scalability, the lower layer corresponds to an image signal having a small image size, and the upper layer corresponds to an image signal having a large image size.
[0025]
The lower layer image signal is first input to the frame memory group 1 and encoded in the same manner as MP @ ML. However, the output of the computing unit 10 is supplied to the frame memory group 11 and is used not only as a predicted reference image of the lower layer, but also after being enlarged to the same image size as that of the upper layer by the image enlargement circuit 41, It is also used for an upper layer prediction reference image.
[0026]
The upper layer image signal is first input to the frame memory group 51. The motion vector detection circuit 52 determines a motion vector and a prediction mode, similarly to MP @ ML.
[0027]
The motion compensation circuit 62 generates a prediction image according to the motion vector and the prediction mode determined by the motion vector detection circuit 52 and outputs the prediction image to the weight addition circuit 44. The weight addition circuit 44 multiplies the predicted image by a weight (coefficient) W and outputs the result to the calculator 43.
[0028]
The output of the arithmetic unit 10 is input to the frame memory group 11 and the image enlargement circuit 41 as described above. The image enlarging circuit 41 enlarges the image signal generated by the arithmetic unit 10, makes it the same size as the image size of the upper layer, and outputs it to the weight addition circuit 42. The weight addition circuit 42 multiplies the output of the image enlargement circuit 41 by the weight (1-W) and outputs the result to the calculator 43.
[0029]
The computing unit 43 adds the outputs of the weight addition circuits 42 and 44 and outputs the result to the computing unit 53 as a predicted image. The output of the arithmetic unit 43 is also input to the arithmetic unit 60, added with the output of the inverse DCT circuit 59, input to the frame memory group 61, and used as a prediction reference frame of the image signal to be encoded thereafter.
[0030]
The computing unit 53 calculates and outputs the difference between the image signal to be encoded and the output of the computing unit 43. However, in the case of an intra-frame encoded macro block, the arithmetic unit 53 outputs the image signal to be encoded to the DCT circuit 54 as it is.
[0031]
The DCT circuit 54 performs DCT (discrete cosine transform) processing on the output of the computing unit 53, generates a DCT coefficient, and outputs it to the quantization circuit 55. The quantization circuit 55 quantizes the DCT coefficient according to the quantization scale determined from the data accumulation amount of the transmission buffer 57 and outputs the result to the variable length coding circuit 56 as in the case of MP @ ML. The variable length coding circuit 56 performs variable length coding on the quantized DCT coefficient, and then outputs it as a higher layer bit stream via the transmission buffer 57.
[0032]
The output of the quantization circuit 55 is also inversely quantized by the inverse quantization circuit 58 at the quantization scale used in the quantization circuit 55, subjected to inverse DCT by the inverse DCT circuit 59, and then input to the computing unit 60. The arithmetic unit 60 adds the outputs of the arithmetic unit 43 and the inverse DCT circuit 59 and inputs the result to the frame memory group 61.
[0033]
The variable length coding circuit 56 also receives the motion vector and prediction mode detected by the motion vector detection circuit 52, the quantization scale used by the quantization circuit 55, and the weight W used by the weight addition circuits 42 and 44, Each is encoded and transmitted.
[0034]
[Problems to be solved by the invention]
Conventional video encoding devices and decoding devices are premised on a one-to-one correspondence. For example, in a video conference system, the transmission side and the reception side are always one-to-one, and the processing capabilities and specifications of the transmission terminal and the reception terminal are determined in advance. Furthermore, in a storage medium such as a DVD, the specifications and processing capabilities of the decoding device are strictly determined in advance, and the encoding device encodes a video signal on the premise of only the decoding device that satisfies the specifications. . Therefore, in the encoding device, if an image signal is encoded so that an optimum image quality can be obtained by a decoding device having a predetermined specification, an image can always be transmitted with an optimum image quality.
[0035]
However, for example, when transmitting a moving image to a transmission path where the transmission capacity is not constant and the transmission capacity changes depending on the time and path, such as the Internet, and when an unspecified number of terminals are connected, If the terminal specifications are not determined in advance and a moving image is transmitted to a receiving terminal having various processing capabilities, it is difficult to know the optimum image quality itself, and the moving image can be transmitted efficiently. Have difficulty.
[0036]
Furthermore, since the specifications of the terminal are not unique, the encoding method of the encoding device and the decoding device may be different. In this case, it is necessary to efficiently convert the encoded bit stream to a predetermined format. A conversion method has not yet been established.
[0037]
The present invention has been made in view of such a situation, and enables a video signal to be efficiently transmitted via a transmission line having various transmission capacities, and a receiving terminal having various processing capabilities. Therefore, an optimal moving image can be transmitted.
[0038]
[Means for Solving the Problems]
  The data conversion apparatus of the present invention transcodes a first bit stream in a data conversion apparatus that transcodes a first bit stream encoded in an input format into a second bit stream encoded in an output format. Including the encoding parameters used forDetermining a transcoding method for transcoding a first bitstream into a second bitstreamBased on the content information and client information received by the receiving means, the receiving means for receiving the content information used for the client and the client information indicating the processing capability of the client receiving the second bitstream,Transcoding methodControl means for generating transcoding type information indicating an output format and a transcoding method, and using the transcoding type information generated by the control means, the first bit stream is converted into the second bit stream. And a conversion means for transcoding.
[0039]
  The converting means decodes the first bit stream to generate image data, transmits a decoding parameter decoded when the first bit stream is decoded, and transcoding generated by the control means An encoder that encodes image data decoded by the decoder using type information and encoding parameters transmitted by the decoder;be able to.
[0040]
  The above content informationTranscodingIt is possible to include hint information that serves as a hint when performing.
[0041]
  The content information includes identification information for identifying hint information.be able to.
[0042]
  The hint information is a range in which the hint information itself is valid, andTranscodingCan include parameter set information indicating a combination of encoding parameters used when performing the above.
[0043]
  The parameter set information can include an encoding parameter corresponding to a bit rate for encoding content.
[0044]
  The parameter set information can include an image frame size and a frame rate corresponding to the bit rate.
[0045]
  The parameter set information includes minimum bit rate information indicating a minimum bit rate for which hint information is valid, andTipsAnd maximum bit rate information indicating a maximum bit rate for which the information is valid.
[0046]
  The parameter set information includes frame rate information indicating a frame rate for obtaining an optimum image quality when encoding between the minimum bit rate and the maximum bit rate.be able to.
[0047]
  The parameter set information includes image frame information indicating an image frame size for obtaining an optimum image quality when encoding between the minimum bit rate and the maximum bit rate.be able to.
[0048]
  The hint information above isThe range in which the hint information itself is valid, andEncoding difficulty level information indicating the difficulty level at the time of encoding can be included.
[0049]
  The encoding difficulty level information includes head position information indicating the head position of the bitstream in which the hint information is valid and end position information indicating the last position of the bitstream in which the hint information is valid.be able to.
[0050]
  The encoding difficulty level information includes partial encoding difficulty level information indicating a difficulty level when encoding a bit stream between a head position and a last position.be able to.
[0051]
  The first bit stream is encoded at a fixed bit rate, and the conversion means encodes at a variable bit rate using the encoding difficulty level information.be able to.
[0052]
  The data conversion method of the present invention is a data conversion method for a data conversion apparatus that transcodes a first bit stream encoded in an input format into a second bit stream encoded in an output format, and the receiving means includes: Including encoding parameters for use in transcoding the first bitstream;Determining a transcoding method for transcoding a first bitstream into a second bitstreamReceiving the content information used for the client and client information indicating the processing capability of the client receiving the second bitstream, and the control means, based on the received content information and client information,Transcoding methodAnd generating transcoding type information indicating an output format and a transcoding method, and the converting means uses the generated transcoding type information to convert the first bit stream into the second bit stream. It is characterized by coding.
[0053]
  An encoding apparatus according to the present invention encodes image data obtained by decoding a first bit stream encoded in an input format, and generates a second bit stream encoded in an output format. , Including encoding parameters used when encoding,Determining a transcoding method for transcoding a first bitstream into a second bitstreamBased on the content information received by the receiving means and the client information, the receiving means for receiving the client information indicating the processing capability of the client receiving the second bitstream,Transcoding methodDetermine the output format andTranscodingControl means for generating transcoding type information indicating the method of the above, and encoding means for generating a second bit stream by encoding image data using the transcoding type information generated by the control means It is characterized by having.
[0054]
  The encoding method of the present invention is an encoding device that encodes image data obtained by decoding a first bit stream encoded in an input format and generates a second bit stream encoded in an output format. An encoding method, wherein the receiving means includes an encoding parameter used when encoding.Determining a transcoding method for transcoding a first bitstream into a second bitstreamReceiving the content information used for the client and client information indicating the processing capability of the client receiving the second bitstream, and the control means, based on the received content information and client information,Transcoding methodDetermine the output format andTranscodingTranscoding type information indicating the above method is generated, and the encoding means encodes the image data using the generated transcoding type information to generate a second bit stream.
[0065]
  In the data conversion apparatus and method of the present invention, the data conversion apparatus and method includes an encoding parameter used when transcoding the first bit stream.Determining a transcoding method for transcoding a first bitstream into a second bitstreamContent information used for the client and client information indicating the processing capability of the client receiving the second bitstream are received, and based on the received content information and client information,Transcoding methodIs determined, transcoding type information indicating an output format and a transcoding method is generated, and the first bit stream is transcoded into the second bit stream using the generated transcoding type information.
[0066]
  In the encoding apparatus and method of the present invention, including an encoding parameter used for encoding,Determining a transcoding method for transcoding a first bitstream into a second bitstreamContent information used for the client and client information indicating the processing capability of the client receiving the second bitstream are received, and based on the received content information and client information,Transcoding methodOutput format andTranscodingTranscoding type information indicating the above method is generated, and the second bit stream is generated by encoding the image data using the generated transcoding type information.
[0069]
DETAILED DESCRIPTION OF THE INVENTION
(First embodiment)
FIG. 4 shows the configuration of the first embodiment of the present invention.
[0070]
The multimedia content server 101 records and holds multimedia content including moving images in a storage medium such as a hard disk (for example, the content recording device 112 in FIG. 5 described later). Multimedia content is, for example, uncompressed or in a compressed bitstream format such as MPEG-1, MPEG-2, or MPEG-4 (hereinafter abbreviated as MPEG-1 / 2/4). To be recorded.
[0071]
A receiving terminal (client) 103 is a terminal that requests, receives, and displays multimedia content. The user acquires content using the receiving terminal 103. The receiving terminal 103 receives the content request signal 1 for requesting a predetermined content, as well as the processing capability of its own terminal, for example, the memory size, the resolution of the image display device, the calculation capability, the buffer size, the format of a decodable bitstream, and the like. The client information signal shown is transmitted.
[0072]
The content request signal 1 is information including the semantic content of the requested content, such as a movie title, and is encoded by the MPEG-7 encoding method.
[0073]
The data access server 102 receives the content request signal 1 and the client information signal from the receiving terminal 103 via the network or a predetermined transmission path. The data access server 102 transmits a content information request signal for requesting content information requested based on the content request signal 1 to the multimedia content server 101 via a network or a predetermined transmission path.
[0074]
In the multimedia content server 101, multimedia content and information of the recorded multimedia content are recorded in a built-in storage medium. Upon receiving the content information request signal, the multimedia content server 101 transmits a predetermined content information signal to the data access server 102 based thereon.
[0075]
The content information signal is a signal indicating information on multimedia content recorded in the multimedia content server 101, and includes information such as a file name, content title, author, performer, and the like. The content information signal includes both semantic information and physical information, and is encoded by, for example, the MPEG-7 method. The physical information is, for example, a file name recorded on the storage medium, a pointer indicating a predetermined position in the bit stream, and the like. Semantic information is, for example, content titles, performers, and the like.
[0076]
The data access server 102 determines a predetermined content from the content information signal, the content request signal 1 and the client information signal, and transmits a content request signal 2 for requesting the content to the multimedia content server 101.
[0077]
The content request signal 2 includes a file name, for example. The content request signal 2 is physical information, for example, a file name or a pointer indicating a predetermined position in the bit stream. The content request signal 2 is encoded by, for example, MPEG-7.
[0078]
The multimedia content server 101 transmits the multimedia (MM) content requested by the content request signal 2 to the data access server 102.
[0079]
The data access server 102 receives the content information signal and the multimedia content from the multimedia content server 101. The data access server 102 converts the multimedia content into an optimal format (Transcode) based on the client information signal and the content information signal. The data access server 102 transmits the converted multimedia content to the receiving terminal 103.
[0080]
In FIG. 4, the data access server 102 and the receiving terminal 103, and the data access server 102 and the multimedia content server 101 are separated from each other by a transmission path and are described independently, but each is in the same terminal. It may be implemented. For example, the multimedia content server 101, the data access server 102, and the receiving terminal 103 may all be in the same terminal, or the multimedia content server 101 and the data access server 102 are in the same terminal, and the receiving terminal 103 May be another terminal separated via a network. Similarly, the multimedia content server 101 may be another terminal separated by a network, and the data access server 102 and the receiving terminal 103 may be the same terminal. Hereinafter, for the sake of simplicity, a case where each is independent will be described. However, the following description can be applied to a case where they are in the same terminal.
[0081]
FIG. 5 shows a configuration example of the multimedia content server 101 in FIG. Metadata describing the content information signal and other content information is recorded in the metadata recording device 111. Multimedia content including moving images is recorded in the content recording device 112.
[0082]
Content information signals and other content related metadata are semantic and physical information. Semantic information is information, such as a movie title and a director name, for example. The physical information is, for example, a file name, a URL, a pointer indicating a predetermined position in the bit stream, and the like. Such content information signals and metadata are encoded and recorded by, for example, MPEG-7.
[0083]
The multimedia content itself is encoded and recorded in the content recording device 112 in various formats, such as MPEG-1 / 2/4.
[0084]
The content information request signal input from the data access server 102 is input to the metadata manager 113. The metadata manager 113 manages metadata and content information signals recorded in the metadata recording device 111. The metadata manager 113 supplies a content information request signal to the metadata recording device 111.
[0085]
The metadata recording device 111 searches for predetermined metadata or a content information signal based on the supplied content information request signal, and supplies it to the metadata manager 113. The metadata manager 113 outputs the content information signal to the data access server 102 in FIG.
[0086]
The content request signal 2 input from the data access server 102 is input to the multimedia content manager 114. The multimedia content manager 114 manages multimedia content recorded on the content recording device 112. The multimedia content manager 114 supplies the content request signal 2 to the content recording device 112.
[0087]
The content recording device 112 searches for predetermined multimedia (MM) content based on the supplied content request signal 2 and outputs it to the multimedia content manager 114. The multimedia content manager 114 outputs the multimedia content to the data access server 102 in FIG.
[0088]
FIG. 6 shows a configuration example of the data access server 102 in FIG. The data access server 102 includes a transcoding manager 121, a transcoding device 122, and a transcoding library 123.
[0089]
The client information signal input from the receiving terminal 103 in FIG. 4 is input to the transcoding manager 121, and the content information signal input from the multimedia content server 101 in FIG. 4 is input to the transcoding manager 121.
[0090]
The transcoding manager 121 determines the output format of the multimedia content based on the client information signal and the content information signal. The transcoding manager 121 outputs the transcoding type information to the transcoding device 122. The transcoding type information is information indicating a multimedia content output format and a transcoding method in the transcoding device 122.
[0091]
The transcoding manager 121 also outputs the content availability information and the content information signal to the receiving terminal 103 in FIG. The transcoding manager 121 sets the content availability information to “0” when the requested content is not in the multimedia content server 101, and sets the content availability information when the requested content is in the multimedia content server 101. Set to "1".
[0092]
The transcoding device 122 converts the input content based on the transcoding type information.
[0093]
The transcoding device 122 can also be implemented as a software module that operates on a CPU, DSP, or the like. In this case, the transcoding device 122 performs transcoding (content conversion) using a predetermined transcoding tool recorded in the transcoding library 123 based on the transcoding type information. The transcoding device 122 outputs a tool request signal to the transcoding library 123 based on the transcoding type information. The transcoding library 123 outputs the requested software module (transcoding tool) to the transcoding device 122. The transcoding device 122 secures a memory or the like necessary for executing the software module, and performs transcoding using the software module.
[0094]
A configuration example of the transcoding device 122 will be described with reference to FIG. The simplest method for realizing the transcoding device 122 is to decode the content (bit stream) and then re-encode it using an encoder of a predetermined format.
[0095]
In the transcoding device 122 in FIG. 7, the bit stream supplied from the multimedia content server 101 is first input to the decoder 131 and decoded. The decoded image signal is supplied to the encoder 132 in a format that can be received by the receiving terminal 103 and encoded.
[0096]
Coding parameters, for example, motion vectors, quantization coefficients, and coding modes decoded when the bit stream is decoded by the decoder 131 are supplied to the encoder 132 and used when the image signal is encoded by the encoder 132. . The encoder 132 encodes the decoded image based on the encoding parameter supplied from the decoder 131 and the transcoding type information supplied from the transcoding manager 121, generates a bit stream of a predetermined format, and outputs it.
[0097]
With reference to FIG. 8, an example of a method in which transcoding apparatus 122 performs transcoding using a content information signal will be described.
[0098]
When a predetermined content is encoded, the image quality varies depending on the image frame size, the frame rate, etc., even at the same bit rate. An example is shown in FIG. This figure shows the relationship between bit rate (horizontal axis in FIG. 8B) and image quality (vertical axis in FIG. 8B) when the same image is encoded with three different frame sizes and frame rates. FIG. When the bit rate is sufficiently high, the image quality is the best when encoding an image with a large image frame (ITU-R Recommendation 601) and a high frame rate (30 Hz). Image quality deteriorates.
[0099]
Predetermined bit rate RB2Below, the image quality is better when the Rec.601 image size is set to 1/2 (SIF) in the vertical and horizontal direction and the frame rate is set low (10 Hz). Furthermore, a predetermined bit rate RB1In the following, the image quality is better if the SIF image size is further encoded in 1/2 (QSIF). However, which image size and frame rate should be used for encoding at each bit rate depends on the nature of the image. The relationship shown in FIG. 8B differs depending on the content.
[0100]
The content information signal in the present embodiment is, for example, a list of optimum encoding parameters when encoding the content at each bit rate. An example is shown in FIG. In the content information signal in this case, the bit rate RA1In the following, encoding is performed at a frame rate of 10 Hz with an image frame of 1/4 vertical and horizontal size, and bit rate RA1RA2In the following, encoding is performed with an image frame of 1/2 size in length and width and bit rate RA2In the above, encoding is performed with Rec 601 size and a frame rate of 30 Hz.
[0101]
Details of the description method of the content information signal in this case will be described later.
[0102]
Next, a modification of the transcoding method performed by the transcoding device 122 using the content information signal will be described with reference to FIG. A transmission path for transmitting a predetermined multimedia content includes a transmission path with a variable bit rate that allows the bit rate to change over time, and a transmission path with a fixed bit rate with a fixed bit rate. In addition, there are an encoding method capable of encoding at a variable bit rate and an encoding method capable of encoding only at a fixed bit rate.
[0103]
For example, in a video conference system or broadcast via a wireless transmission path, a bit stream is encoded at a fixed bit rate. On the other hand, in a DVD or the like, encoding is performed at a variable bit rate. In addition, MPEG-1 and H.263 can be encoded only at a fixed bit rate, and MPEG-2 and MPEG-4 can be encoded at a variable bit rate.
[0104]
When the content is encoded at a fixed bit rate or a variable bit rate, the image quality is generally better when the content is encoded at a variable bit rate. The encoding efficiency of content depends on the nature of the image. Therefore, if the content is different, the encoding efficiency is different, and even for the same content, the encoding efficiency is different depending on the time. FIG. 9A shows an example of the temporal change in the encoding difficulty level. The horizontal axis represents time, and the vertical axis represents encoding difficulty. In a scene with a low encoding difficulty level, a high image quality can be obtained at a low bit rate, whereas in a scene with a high encoding difficulty level, it is difficult to obtain a sufficient image quality even at a high bit rate.
[0105]
FIG. 9B shows temporal changes in image quality when this moving image is encoded at a fixed bit rate. As is apparent from a comparison between FIG. 9A and FIG. 9B, when encoding at a fixed bit rate, the image quality is improved in a low encoding difficulty scene, but the encoding difficulty scene is high. In this case, the image quality is considerably deteriorated. Therefore, the image quality varies greatly with time.
[0106]
FIG. 9C shows temporal changes in the encoding bit rate when the moving image of FIG. 9A is encoded at a variable bit rate. Higher bits are assigned to scenes with a high degree of encoding difficulty, and relatively few bits are assigned to scenes with a low degree of encoding difficulty. As a result, the image quality changes as shown in FIG. Compared to the case of encoding at a fixed bit rate (FIG. 9B), even if the generated bit amount of the entire content is the same, the average image quality is better at the variable bit rate. Also, with variable bit rate encoding, temporal changes in image quality are lessened.
[0107]
However, in order to perform variable bit rate encoding efficiently, it is necessary to analyze the encoding difficulty level of the entire moving image and obtain the characteristics as shown in FIG. 9A in advance. There is a method that has a buffer with a certain amount of capacity and measures the encoding difficulty within the range allowed by the buffer, but this is also only an optimization within the capacity range, and the entire content Is not optimized.
[0108]
Therefore, in order to solve such a problem, in another embodiment of the present invention, it is difficult to encode the content information signal output from the multimedia content server 101 as shown in FIG. The degree information is described, and the transcoding device 122 encodes the bit stream encoded at the fixed bit rate at the variable bit rate using the encoding difficulty level information, and outputs the encoded bit stream.
[0109]
That is, in the transcoding device 122 of the embodiment of FIG. 7, the encoder 132 encodes the bit stream based on the content information signal supplied from the multimedia content server 101 and outputs the bit stream.
[0110]
On the other hand, in the embodiment shown in FIG. 10, when a predetermined multimedia content is recorded on the multimedia content server 101 in FIG. 4, a bit stream is supplied to the multimedia content server 101 from the outside. , It is first input to the encoding difficulty analysis circuit 141. In this embodiment, a bit stream is input, but an uncompressed moving image may be directly input.
[0111]
The encoding difficulty level analysis circuit 141 analyzes the encoding difficulty level of the content, obtains the characteristics of the encoding difficulty level as shown in FIG. 9A, and outputs the characteristics to the metadata recording device 111 as a content information signal. The bit stream of the input content is output to the content recording device 112.
[0112]
FIG. 11 shows a configuration example of the encoding difficulty level analysis circuit 141. In the example of FIG. 11A, the input bitstream is first input to a syntax analysis circuit (parser) 151, and encoding parameters (quantization coefficients, bit amounts, etc.) are extracted from the bitstream. At this time, the hint generator 152 obtains the average value Q of the quantization coefficient in each frame and the generated bit amount B in that frame, further obtains QraB as the encoding difficulty level in that frame, and the content information The signal is supplied to the metadata recording device 111 as a signal and recorded.
[0113]
FIG. 11B shows a modification of the encoding difficulty analysis circuit 141. In this example, the input bit stream is once decoded by the decoder 161. The decoded image is input to the encoder 162. The encoder 162 performs encoding with a fixed quantization scale, for example, Q = 1. The generated bit amount of each frame when encoded with Q = 1 is the encoding difficulty level of the frame, and is supplied to the metadata recording apparatus 111 as content information and recorded.
[0114]
An example of a format for describing the content information signal will be described with reference to FIG. In the example of FIG. 12, the content information signal is described in TranscodingHint shown in FIG. 12A, which is a descriptor including information that serves as a hint when performing Transcoding. In the example of FIG. 12A, TranscodingHint includes an ID and descriptors of TranscodingParameterSet and TranscodingComplexityHint. The ID is an identification number that identifies the descriptor.
[0115]
As shown in FIG. 12B, TranscodingParameterSet is a descriptor that describes optimum encoding parameters when encoding and transcoding at each bit rate, and is based on ID, MinBitRate, MaxBitRate, FrameRate, and FrameSize. It is configured.
[0116]
MinBitRate is a flag indicating the lowest bit rate for which the information of this descriptor is valid.
[0117]
MaxBitRate is a flag indicating the maximum bit rate for which the information of this descriptor is valid.
[0118]
FrameRate is a flag indicating a frame rate that obtains an optimal image quality when encoding an image that is between MinBitrate and MaxBitRate.
[0119]
FrameSize is a flag indicating an image frame size that obtains an optimal image quality when encoding an image that is between MinBitrate and MaxBitRate.
[0120]
TranscodingComplexityHint is a descriptor that describes the difficulty of encoding and transcoding of the content, and is configured as shown in FIG. The StartMediaLocator is a pointer indicating the start position of the bit stream in which the information of this descriptor is valid.
[0121]
EndMediaLocator is a pointer indicating the last position of the bit stream in which the information of this descriptor is valid. Complexity is a flag indicating the encoding difficulty in the part between StartMediaLocator and EndMediaLocator on bitstream.
[0122]
TranscodingComplexityHint can also be configured as shown in FIG. StartFrameNumber is a pointer indicating the first frame number for which the information of this descriptor is valid.
[0123]
EndFrameNumber is a pointer indicating the last frame number for which the information of this descriptor is valid.
[0124]
Complexity is a flag indicating the difficulty level of encoding in the portion between StartFrameNumber and EndFrameNumber on bitstream.
[0125]
When the data structure of the TranscodingHint descriptor shown in FIG. 12A is expressed in UML (Universal Modeling Language), it becomes as shown in FIG. TranscodingHint is composed of one or more TranscodingParameterSet and one or more TranscodingComplexityHint. TranscodingParameterSet is repeated zero or more times. Similarly, TranscodingComplexityHint is repeated zero or more times.
[0126]
MPEG-7 is a metadata standard that describes information about content, and consists of multiple descriptors. Details of the MPEG-7 specification are described in ISO / IEC SC29 / WG11N3112, N3113, N3114. TranscodingHint can be configured as a kind of MPEG-7 metadata.
[0127]
Fig. 14 shows data when MPEG-7 MediaInformation descriptor (comprised of MediaIdentification descriptor, MediaFormat descriptor, MediaCoding descriptor, MediaTranscodingHint descriptor, and MediaInstance descriptor) is added with the above TranscodingHint. An example of the structure is shown. The MediaInformation descriptor is a descriptor that describes the content media, for example, the encoding method. TranscodingHint descriptor is this MediaInformation descriptor
0 or 1 is described.
[0128]
The MediaInformation descriptor is added to the entire content or a part of the content. Therefore, in this example, the TranscodingHint descriptor is also added to the entire content or a part of the content.
[0129]
FIG. 15 shows an example of a data structure when a TranscodingHint descriptor is described in the MPEG-7 Segment descriptor. The Segment descriptor is a descriptor that describes information about each part when content is divided into a plurality of parts such as scenes. In this example, 0 or one TranscodingHint descriptor is described in this VisualSegment descriptor and AudioSegment descriptor.
[0130]
The Segment descriptor is added to a part of the content. Therefore, in this example, the TranscodingHint descriptor is also added to a part of the content.
[0131]
As shown in FIG. 14, when a TranscodingHint descriptor is added to the MPEG-7 MediaInformation descriptor, the data structure of the entire MPEG-7 is as shown in FIG.
(Second Embodiment)
Next, a second embodiment will be described. In the second embodiment, the encoding difficulty level of the content information signal is configured by information indicating the difficulty level of motion compensation and information indicating the difficulty level of the intra code. Also from these two pieces of information, it is possible to know the degree of difficulty in encoding a predetermined scene of content as shown in FIG. 9A in the first embodiment. In this case, the encoding difficulty level analysis circuit 141 shown in FIG. 10 is configured as shown in FIG. 17, for example.
[0132]
If necessary, the input bit stream is decoded by the decoder 201 and then supplied to the encoders 202 to 205. The encoder 202 encodes the image data input from the decoder 201 with a fixed quantum scale, for example, Q = 1, using only intra coding. The generated bit amount of the frame when encoded with Q = 1 is the intra-coding difficulty level of the encoding, and is supplied to the content information signal generating circuit 208.
[0133]
The encoder 203 performs encoding processing (encoding processing of only I and P pictures) with Q = 1 and m = 1, for example, at a fixed quantization scale. The encoder 204 performs encoding at a fixed quantization scale, for example, with Q = 1 and m = 2 (by inserting one frame of B picture between two adjacent P pictures). The encoder 205 performs encoding at a fixed quantization scale, for example, with Q1, m = 3 (by inserting two frames of B pictures between two adjacent P pictures).
[0134]
The average value circuit 206 calculates the average value of the outputs of the encoders 203 to 205. This average value is supplied to the difference circuit 207 as the motion compensation encoding difficulty level.
[0135]
The difference circuit 207 subtracts the output of the average value circuit 206 from the output of the encoder 202 and supplies the difference value to the content information signal generation circuit 208. The content information signal generation circuit 208 is supplied with a segment start time and end time from an external device (not shown). The content information signal generation circuit 208 generates the content information signal of the segment specified by the start time and the end time from the output of the encoder 202 and the output of the difference circuit 207, and supplies it to the metadata recording device 111.
[0136]
Next, the operation will be described. If necessary, the decoder 201 decodes the input bit stream and supplies it to the encoders 202 to 205. The encoder 202 performs only intra coding with Q = 1. The amount of bits generated in each frame at this time represents the intra coding difficulty level of the frame, and is supplied to the content information signal generation circuit 208 and the difference circuit 207.
[0137]
This intra coding difficulty level is described in a TextureHint descriptor (FIG. 19C) described later.
[0138]
The encoder 203 encodes the image data supplied from the decoder 201 with Q = 1 and m = 1. The encoder 204 encodes the image data output from the decoder 201 with Q = 1 and m = 2, and the encoder 205 encodes the image data from the decoder 201 with Q = 1 and m = 3. The encoders 203 to 205 output the generated bit amount of each frame to the average value circuit 206.
[0139]
The average value circuit 206 calculates the average value of the generated bit amount of each frame supplied from the encoders 203 to 205. This average value is supplied to the difference circuit 207 as the motion compensation encoding difficulty level.
[0140]
The difference circuit 207 subtracts the motion compensation coding difficulty level supplied from the average value circuit 206 from the intra coding difficulty level representing the difficulty level of the intra coding supplied from the encoder 202, and uses this as the motion compensation difficulty level. The content information signal generation circuit 208 is supplied.
[0141]
This motion compensation difficulty level is described in a MotionHint descriptor (FIG. 19B) described later.
[0142]
The content information signal generation circuit 208 generates a content information signal based on the intra coding difficulty level supplied from the encoder 202 and the motion compensation difficulty level supplied from the difference circuit 207 and supplies the content information signal to the metadata recording device 111. And record.
[0143]
Next, content information signal generation processing performed by the content information signal generation circuit 208 will be described with reference to the flowchart of FIG.
[0144]
First, in step S1, the content information signal generation circuit 208 calculates the sum of the intra coding difficulty levels of all the frames in the segment specified by the start time and the end time.
[0145]
A segment means a predetermined section in the time axis direction of a video signal, and one video content is composed of one or a plurality of segments. A specific example of this segment will be described later with reference to FIG.
[0146]
Next, in step S2, the content information signal generation circuit 208 calculates the total value of the intra coding difficulty levels of all frames over the entire sequence.
[0147]
Next, in step S3, the content information signal generation circuit 208 performs normalization processing according to the following equation, and calculates TextureHint Difficulty described later.
[0148]
Difficulty = (sum of intra coding difficulty in the segment / number of frames in the segment) / (sum of intra coding difficulty of the entire sequence / number of frames in the entire sequence)
This Difficulty is obtained for each segment.
[0149]
Next, in step S4, the content information signal generation circuit 208 calculates the total motion compensation difficulty in the segment. Further, in step S5, the encoding difficulty level of the entire sequence is calculated. In step S6, the content information signal generation circuit 208 executes normalization processing for each segment in accordance with the following equation, and calculates Motion_uncompensability of MotionHint described later.
[0150]
Motion_uncompensability = (Sum of motion compensation difficulty in segment ÷ Number of frames in segment) ÷ (Sum of motion compensation difficulty of entire sequence ÷ Number of frames in entire sequence)
This Motion_uncompensability is also obtained for each segment.
[0151]
Next, in step S7, the content information signal generation circuit 208 generates a MediaTranscodingHint descriptor as a content information signal based on the calculation results of steps S3 and S6.
[0152]
This MediaTranscodingHint descriptor is a descriptor that describes an optimal encoding parameter when transcoding is performed, and is described as shown in FIG. 19 in the present invention.
[0153]
As shown in FIG. 19A, the MediaTranscodingHint descriptor is composed of ID, UtilityScaling (), MotionHint (), and TextureHint ().
[0154]
The UtilityScaling descriptor is a descriptor that describes the image quality at each bit rate of content.
[0155]
The MotionHint descriptor is a descriptor that describes the degree of motion compensation difficulty of the content, and is configured by ID, Motion_uncompensability, Motion_range_x_left, Motion_range_x_right, Motion_range_y_left, and Motion_range_y_right as shown in FIG.
[0156]
When the inter-frame correlation is low, the coding efficiency that can be improved by the motion compensation is not so high, and more bits need to be allocated to the portion where the inter-frame correlation is low. Motion_uncompensability is a parameter that takes a value from 0 to 1. 0 indicates that each frame is exactly the same, and 1 indicates that there is no inter-frame correlation. This Motion_uncompensability describes the motion compensation difficulty level output from the difference circuit 207 in FIG.
[0157]
Motion_range_x_left and Motion_range_x_right represent the maximum amount of change in the horizontal direction of the motion amount in motion compensation. Similarly, Motion_range_y_left and Motion_range_y_right indicate the maximum change amount in the vertical direction of the motion amount in motion compensation. These represent the maximum search range in the horizontal direction and the vertical direction in motion vector detection. By designating the maximum value of the motion vector in advance, it is possible to reduce the amount of computation in transcoding while maintaining the image quality.
[0158]
The TextureHint descriptor is a descriptor that describes the difficulty level of compression of the content in the spatial direction, and describes the intra coding difficulty level that is output by the encoder 202 in FIG. This TextureHint descriptor is composed of ID, Difficulty, and DifficultyType, as shown in FIG.
[0159]
Difficulty is a flag indicating the intra coding difficulty level of the content, and indicates the coding difficulty level when coding without using motion compensation.
[0160]
DifficultyType is a flag indicating Difficulty processing, that is, how Difficulty described in the descriptor is measured. As shown in FIG. 20, the value “0” of DifficultyType represents EncodingDifficulty.
[0161]
When the data structure of the MediaTranscodingHint descriptor shown in FIG. 19A is expressed in UML, it becomes as shown in FIG.
[0162]
Each MediaTranscodingt descriptor is composed of 0 or 1 UtilityScaling descriptor, MotionHint descriptor, and TextureHint descriptor.
[0163]
As shown in FIG. 22, the MediaTranscodingHint descriptor shown in FIG. 21 is a descriptor that describes the media of the content, for example, the encoding method, together with the MediaIdentification descriptor, MediaFormat descriptor, MediaCoding descriptor, and MediaInstance descriptor. Configure MediaInformation descriptor.
[0164]
The MediaInformation descriptor is added to the entire content or a part of the content. Therefore, the MediaTranscodingHint descriptor is also added to the entire content or a part of the content.
[0165]
FIG. 23 schematically shows the relationship between the MediaTranscodingHint descriptor and the video data. The video content 211 is composed of at least one sequence, and a part of the scene (segment) 212 is defined by a start time (Start Time) and an end time (End Time). Information about the segment 212 (start time, end time, etc.) is described in the Segment descriptor 213. One MediaInformation descriptor may be defined for one piece of content, or one MediaInformation descriptor may be defined for a Segment descriptor. When the MediaInformation descriptor 214 is defined as a child descriptor of the Segment descriptor 213, since the MediaTrancodingHint descriptor 215 is a child descriptor of the MediaInformation descriptor 214, the MediaTranscodingHint descriptor 215 is provided for each segment (scene). It will be specified. The MediaTranscodingHint descriptor 215 includes a UtilityScaling descriptor 216, a MediaHint descriptor 217, and a TextureHint descriptor 218 as child descriptors.
[0166]
The MediaInformation descriptor 214 and its child descriptors are all child descriptors of the Segment descriptor 213, and the description content is a value that is valid only between the start time and the end time specified by the Segment descriptor 213 that is the parent descriptor. It becomes.
[0167]
The series of processes described above can be executed by hardware, but can also be executed by software. When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, a general-purpose personal computer is installed from a network or a recording medium.
[0168]
FIG. 24 shows an example of the configuration of a personal computer that executes the above processing. A CPU (Central Processing Unit) 221 executes various processes according to a program stored in a ROM (Read Only Memory) 222 or a program loaded from a storage unit 228 to a RAM (Random Access Memory) 223. The RAM 223 also appropriately stores data necessary for the CPU 221 to execute various processes.
[0169]
The CPU 221, ROM 222, and RAM 223 are connected to each other via a bus 224. An input / output interface 225 is also connected to the bus 224.
[0170]
The input / output interface 225 includes an input unit 226 including a keyboard and a mouse, a display including a CRT and an LCD, an output unit 227 including a speaker, a storage unit 228 including a hard disk, a modem, a terminal adapter, and the like. A configured communication unit 229 is connected. The communication unit 229 performs communication processing via a network.
[0171]
A drive 230 is connected to the input / output interface 225 as necessary, and a magnetic disk 241, an optical disk 242, a magneto-optical disk 243, a semiconductor memory 244, or the like is appropriately mounted, and a computer program read from these is loaded. It is installed in the storage unit 228 as necessary.
[0172]
The recording medium on which the program is recorded is distributed to provide the program to the user separately from the computer, and includes a magnetic disk 241 (including a floppy disk), an optical disk 242 (CD-ROM (Compact Disk-Read Only Memory). ), DVD (Digital Versatile Disk)), magneto-optical disk 243 (including MD (Mini-Disk)), or a package medium composed of a semiconductor memory 244, etc., but also pre-installed in a computer The program is configured by a ROM 222 in which a program is recorded and a hard disk included in the storage unit 228, which is provided to the user in a state.
[0173]
In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the described order, but is not necessarily performed in chronological order. It also includes processes that are executed individually.
[0174]
Further, in this specification, the system represents the entire apparatus constituted by a plurality of apparatuses.
[0175]
Further, in the present specification, the content is described mainly using an image signal as an example, but is not limited to an image signal, but includes an audio signal, a program, a text signal, and the like.
[0176]
【The invention's effect】
As described above, according to the content supply device and method and the recording medium program of the present invention, the second information related to the content corresponding to the first information related to the function of the other device is acquired, and the second Content conversion based on information enables efficient transmission of content to transmission paths with various transmission capacities and transmission of optimal content to other devices with various processing capabilities Become.
[0177]
According to the signal generation device and method of the present invention, the content encoding difficulty level is analyzed and output as a content information signal, and the content and the content information signal are retained. In the case of conversion to, format conversion can be performed so as to obtain an optimum image quality by referring to the content information signal.
[0178]
In addition, according to the conversion device and method of the present invention, since the information of the terminal that reproduces the content is acquired, the content is converted into another format based on the encoding difficulty level of the content and the terminal information. It is possible to perform format conversion so that the image quality is optimal for the terminal that performs the reproduction.
[0179]
Also, according to the playback terminal and the playback method of the present invention, the content is converted into another format suitable for the terminal based on the content encoding difficulty information and played back. Can be played.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a conventional MPEG encoder.
FIG. 2 is a block diagram showing a configuration of a conventional MPEG decoder.
FIG. 3 is a block diagram showing the configuration of another conventional MPEG encoder.
FIG. 4 is a block diagram showing a configuration of a system to which the present invention is applied.
5 is a block diagram showing a configuration of the multimedia content server of FIG. 4. FIG.
6 is a block diagram showing a configuration of the data access server of FIG. 4. FIG.
7 is a block diagram showing a configuration of the transcoding apparatus of FIG. 6. FIG.
FIG. 8 is a diagram illustrating transcoding.
FIG. 9 is a diagram illustrating transcoding.
FIG. 10 is a diagram for explaining recording in the multimedia content server in FIG. 4;
11 is a block diagram showing a configuration of the encoding difficulty analysis circuit of FIG.
FIG. 12 is a diagram illustrating the configuration of a content information signal.
FIG. 13 is a diagram illustrating the structure of a transcoding hint descriptor.
FIG. 14 is a diagram illustrating the structure of a media information descriptor.
FIG. 15 is a diagram illustrating a structure of a segment descriptor.
FIG. 16 is a diagram illustrating the overall structure of MPEG-7.
17 is a block diagram showing another configuration example of the encoding difficulty analysis circuit of FIG.
18 is a flowchart for explaining the operation of the content information signal generating circuit of FIG.
FIG. 19 is a diagram illustrating the structure of a MediaTranscodingHint descriptor.
FIG. 20 is a diagram for explaining DifficultyType.
FIG. 21 is a diagram illustrating the structure of a MediaTranscodingHints descriptor.
FIG. 22 is a diagram illustrating the structure of a MediaInformation descriptor.
FIG. 23 is a diagram for explaining the relationship between video data and a Segment descriptor.
FIG. 24 is a block diagram illustrating a configuration example of a personal computer.
[Explanation of symbols]
101 multimedia content server, 102 data access server, 103 receiving terminal, 111 metadata recording device, 112 content recording device, 113 metadata manager, 114 multimedia content manager, 121 transcoding manager, 122 transcoding device, 123 transcoding Library, 131 Decoder, 132 Encoder, 141 Coding Difficulty Analysis Circuit, 151 Parser, 152 Hint Generator, 161 Decoder, 162 Encoder

Claims (9)

入力フォーマットでエンコードされた入力ビットストリームを出力フォーマットでエンコードされた出力ビットストリームにトランスコードするデータ変換装置において、
上記トランスコードのヒントとなるヒント情報に記述される、上記入力ビットストリームに含まれるフレームの発生ビット量から求められる符号化パラメータを含むコンテンツ情報と、上記出力ビットストリームを受信するクライアントの処理能力を示すクライアント情報とを受け取る受け取り手段と、
上記受け取り手段により受け取られた上記コンテンツ情報及び上記クライアント情報に基づいて上記出力フォーマットを決定し、上記出力フォーマット及び上記トランスコードの方法を示すトランスコーディングタイプ情報を生成する制御手段と、
上記入力ビットストリームを、上記コンテンツ情報に含まれる上記符号化パラメータを用いて、上記入力フォーマットから、上記制御手段により生成された上記トランスコーディングタイプ情報により示される上記出力フォーマットにトランスコードし、上記出力ビットストリームを生成する変換手段と
を有するデータ変換装置。
In a data conversion apparatus for transcoding an input bit stream encoded in an input format into an output bit stream encoded in an output format,
Content information including an encoding parameter obtained from the amount of generated bits of a frame included in the input bit stream described in the hint information serving as a hint for the transcoding, and processing capability of a client that receives the output bit stream Receiving means for receiving client information indicating;
Based on the content information and the client information received by said receiving means, and control means for determining the output format, generates the transcoding type information that shows how the output format and the transcoding,
The input bitstream is transcoded from the input format to the output format indicated by the transcoding type information generated by the control means , using the encoding parameter included in the content information, and the output A data conversion device comprising: conversion means for generating a bit stream.
上記符号化パラメータは、上記入力ビットストリームの符号化難易度情報である
求項1に記載のデータ変換装置。
The encoding parameter is encoding difficulty level information of the input bitstream.
Data conversion apparatus according to Motomeko 1.
上記クライアント情報は、上記クライアントが復号可能なビットストリームのフォーマットを示す情報を含み、
上記制御手段は、上記クライアント情報に基づいて、上記出力フォーマットとして、上記出力ビットストリームの符号化方式を、可変ビットレートの符号化方式に決定し、
上記変換手段は、上記入力ビットストリームを、上記符号化難易度情報を用いて、上記可変ビットレートでトランスコードし、上記出力ビットストリームを生成する
請求項2に記載のデータ変換装置。
The client information includes information indicating a bitstream format that can be decoded by the client,
The control means determines, based on the client information, the output bit stream encoding method as a variable bit rate encoding method as the output format,
The converting means transcodes the input bit stream at the variable bit rate using the encoding difficulty level information, and generates the output bit stream.
The data conversion device according to claim 2 .
上記コンテンツ情報は、上記ヒント情報に記述される、上記トランスコードに用いられる符号化パラメータの、各ビットレートにおける上記トランスコードに適切な値を示すパラメータセット情報を含み、
上記クライアント情報は、上記クライアントが復号可能なビットストリームのフォーマットを示す情報を含み、
上記制御手段は、上記クライアント情報および上記パラメータセット情報に基づいて、上記出力フォーマットとして、上記トランスコードに用いられる符号化パラメータの値を決定し、
上記変換手段は、上記制御手段により値が決定された上記符号化パラメータを用いて上記入力ビットストリームを上記出力ビットストリームにトランスコードする
請求項1に記載のデータ変換装置。
The content information includes parameter set information indicating an appropriate value for the transcoding at each bit rate of the encoding parameters used for the transcoding described in the hint information,
The client information includes information indicating a bitstream format that can be decoded by the client,
The control means determines a value of an encoding parameter used for the transcoding as the output format based on the client information and the parameter set information,
The converting means transcodes the input bit stream into the output bit stream using the encoding parameter whose value is determined by the control means.
The data conversion apparatus according to claim 1 .
上記パラメータセット情報により値が示される、上記トランスコードに用いられる符号化パラメータは、上記出力ビットストリームの画枠サイズである
請求項4に記載のデータ変換装置。
The encoding parameter used for the transcoding whose value is indicated by the parameter set information is the frame size of the output bitstream.
The data conversion device according to claim 4 .
上記パラメータセット情報により値が示される、上記トランスコードに用いられる符号化パラメータは、上記出力ビットストリームのフレームレートである
請求項4に記載のデータ変換装置。
The encoding parameter used for the transcoding whose value is indicated by the parameter set information is the frame rate of the output bitstream.
The data conversion device according to claim 4 .
入力フォーマットでエンコードされた入力ビットストリームを出力フォーマットでエンコードされた出力ビットストリームにトランスコードするデータ変換装置のデータ変換方法であって、
受け取り手段が、上記トランスコードのヒントとなるヒント情報に記述される、上記入力ビットストリームに含まれるフレームの発生ビット量から求められる符号化パラメータを含むコンテンツ情報と、上記出力ビットストリームを受信するクライアントの処理能力を示すクライアント情報とを受け取り、
制御手段が、受け取られた上記コンテンツ情報及び上記クライアント情報に基づいて、上記出力フォーマットを決定し、上記出力フォーマット及び上記トランスコードの方法を示すトランスコーディングタイプ情報を生成し、
変換手段が、上記入力ビットストリームを、上記コンテンツ情報に含まれる上記符号化パラメータを用いて、上記入力フォーマットから、生成された上記トランスコーディングタイプ情報により示される上記出力フォーマットにトランスコードし、上記出力ビットストリームを生成する
データ変換方法。
A data conversion method of a data conversion apparatus for transcoding an input bit stream encoded in an input format into an output bit stream encoded in an output format,
Receiving means is described in the hint information the hint of the transcoding, receives the content information, the output bit stream including the encoded parameters obtained from the generated bit amount of a frame included in the input bit stream client Client information indicating the processing power of
Control means determines the output format based on the received content information and the client information, and generates transcoding type information indicating the output format and the transcoding method;
Transform means transcodes the input bitstream from the input format to the output format indicated by the generated transcoding type information using the encoding parameter included in the content information, and outputs the output A data conversion method that generates a bitstream.
入力フォーマットでエンコードされた入力ビットストリームをデコードして得られる入力画像データをエンコードして、出力フォーマットでエンコードされた出力ビットストリームを生成する符号化装置において、
上記エンコードのヒントとなるヒント情報に記述される、上記入力画像データに含まれるフレームの発生ビット量から求められる符号化パラメータを含むコンテンツ情報と、上記出力ビットストリームを受信するクライアントの処理能力を示すクライアント情報とを受け取る受け取り手段と、
上記受け取り手段により受け取られた上記コンテンツ情報及び上記クライアント情報に基づいて、上記出力フォーマットを決定し、上記出力フォーマット及び上記トランスコードの方法を示すトランスコーディングタイプ情報を生成する制御手段と、
上記入力画像データを、上記コンテンツ情報に含まれる上記符号化パラメータを用いて、上記制御手段により生成された上記トランスコーディングタイプ情報により示される上記出力フォーマットでエンコードし、上記出力ビットストリームを生成する符号化手段と
を有する符号化装置。
In an encoding device that encodes input image data obtained by decoding an input bitstream encoded in an input format and generates an output bitstream encoded in an output format,
The content information including the encoding parameter obtained from the generated bit amount of the frame included in the input image data described in the hint information serving as the encoding hint, and the processing capability of the client that receives the output bitstream Receiving means for receiving client information;
Control means for determining the output format based on the content information and the client information received by the receiving means, and generating transcoding type information indicating the output format and the transcoding method;
A code that encodes the input image data in the output format indicated by the transcoding type information generated by the control means , using the encoding parameter included in the content information, and generates the output bitstream And an encoding device.
入力フォーマットでエンコードされた入力ビットストリームをデコードして得られる入力画像データをエンコードして、出力フォーマットでエンコードされた出力ビットストリームを生成する符号化装置の符号化方法であって、
受け取り手段が、上記エンコードのヒントとなるヒント情報に記述される、上記入力画像データに含まれるフレームの発生ビット量から求められる符号化パラメータを含むコンテンツ情報と、上記出力ビットストリームを受信するクライアントの処理能力を示すクライアント情報とを受け取り、
制御手段が、受け取られた上記コンテンツ情報及び上記クライアント情報に基づいて、上記出力フォーマットを決定し、上記出力フォーマット及び上記トランスコードの方法を示すトランスコーディングタイプ情報を生成し、
符号化手段が、上記入力画像データを、上記コンテンツ情報に含まれる上記符号化パラメータを用いて、生成された上記トランスコーディングタイプ情報により示される上記出力フォーマットでエンコードし、上記出力ビットストリームを生成する
符号化方法。
An encoding method of an encoding device that encodes input image data obtained by decoding an input bitstream encoded in an input format and generates an output bitstream encoded in an output format,
The receiving means describes the content information including the encoding parameter calculated from the generated bit amount of the frame included in the input image data described in the hint information serving as the encoding hint, and the client receiving the output bitstream. Client information indicating the processing capacity,
Control means determines the output format based on the received content information and the client information, and generates transcoding type information indicating the output format and the transcoding method;
Encoding means encodes the input image data in the output format indicated by the generated transcoding type information using the encoding parameter included in the content information, and generates the output bitstream Encoding method.
JP2001065077A 2000-03-13 2001-03-08 Data conversion apparatus and method, and encoding apparatus and method Expired - Fee Related JP4622121B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001065077A JP4622121B2 (en) 2000-03-13 2001-03-08 Data conversion apparatus and method, and encoding apparatus and method

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2000068719 2000-03-13
JP2000147768 2000-05-19
JP2000-147768 2000-05-19
JP2000-68719 2000-05-19
JP2001065077A JP4622121B2 (en) 2000-03-13 2001-03-08 Data conversion apparatus and method, and encoding apparatus and method

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP2009237234A Division JP4483997B2 (en) 2000-03-13 2009-10-14 Data conversion apparatus and method, and encoding apparatus and method
JP2010206584A Division JP5088594B2 (en) 2000-03-13 2010-09-15 Data conversion apparatus and method

Publications (2)

Publication Number Publication Date
JP2002044622A JP2002044622A (en) 2002-02-08
JP4622121B2 true JP4622121B2 (en) 2011-02-02

Family

ID=27342643

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001065077A Expired - Fee Related JP4622121B2 (en) 2000-03-13 2001-03-08 Data conversion apparatus and method, and encoding apparatus and method

Country Status (1)

Country Link
JP (1) JP4622121B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101336585B1 (en) * 2012-04-16 2013-12-05 갤럭시아커뮤니케이션즈 주식회사 Systme and method for providing adaptive streaming service

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4600875B2 (en) * 2000-08-28 2010-12-22 ソニー株式会社 Multimedia information processing apparatus and method
EP1455504B1 (en) * 2003-03-07 2014-11-12 Samsung Electronics Co., Ltd. Apparatus and method for processing audio signal and computer readable recording medium storing computer program for the method
CA2521458A1 (en) 2003-04-10 2004-10-28 Nec Corporation Moving image compression-coding system conversion device and moving image communication system
WO2005029237A2 (en) * 2003-09-15 2005-03-31 Digital Networks North America, Inc. Method and system for adaptive transcoding and transrating in a video network
JP2007235185A (en) * 2004-04-16 2007-09-13 Matsushita Electric Ind Co Ltd Information recording medium appropriate to random access, and recording/reproducing apparatus and recording/reproducing method thereof
EP1932358A4 (en) * 2005-09-28 2011-04-13 Ericsson Telefon Ab L M Media content management
JP4941507B2 (en) * 2009-05-27 2012-05-30 沖電気工業株式会社 LOAD DISTRIBUTION CONTROL DEVICE, PROGRAM AND METHOD, LOAD DISTRIBUTION DEVICE, AND INFORMATION PROCESSING DEVICE
JP5553140B2 (en) 2009-10-02 2014-07-16 ソニー株式会社 Information processing apparatus and method
US9681091B2 (en) 2011-01-21 2017-06-13 Thomson Licensing System and method for enhanced remote transcoding using content profiling
US20160234523A1 (en) * 2013-09-06 2016-08-11 Mitsubishi Electric Corporation Video encoding device, video transcoding device, video encoding method, video transcoding method, and video stream transmission system
CN110198474B (en) 2018-02-27 2022-03-15 中兴通讯股份有限公司 Code stream processing method and device
JP7310212B2 (en) * 2019-03-27 2023-07-19 日本電気株式会社 Data relay device, data relay method and program
GB2616740B (en) * 2021-10-11 2024-02-21 Advanced Risc Mach Ltd Decoding data arrays

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003523024A (en) * 2000-02-10 2003-07-29 テレフォンアクチーボラゲット エル エム エリクソン(パブル) Method and apparatus for intelligent code conversion of multimedia data

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003523024A (en) * 2000-02-10 2003-07-29 テレフォンアクチーボラゲット エル エム エリクソン(パブル) Method and apparatus for intelligent code conversion of multimedia data

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101336585B1 (en) * 2012-04-16 2013-12-05 갤럭시아커뮤니케이션즈 주식회사 Systme and method for providing adaptive streaming service

Also Published As

Publication number Publication date
JP2002044622A (en) 2002-02-08

Similar Documents

Publication Publication Date Title
JP5327366B2 (en) Data conversion apparatus and method, and recording medium
KR100440953B1 (en) Method for transcoding of image compressed bit stream
JP4622121B2 (en) Data conversion apparatus and method, and encoding apparatus and method
JP2005323353A (en) High-fidelity transcoding
US20040013399A1 (en) Information processing method and apparatus
JP2005525011A (en) Method and system for optimal video transcoding based on utility function description
KR101128165B1 (en) Dynamic image distribution system, conversion device, and dynamic image distribution method
EP1162844A2 (en) Dynamic feature extraction from compressed digital video signals for content-based retrieval in a video playback system
JP3852366B2 (en) Encoding apparatus and method, decoding apparatus and method, and program
JP4421734B2 (en) Encoded data conversion method and data recording medium
Kim et al. An optimal framework of video adaptation and its application to rate adaptation transcoding
Vetro et al. Media conversions to support mobile users
JP5472094B2 (en) Moving image conversion apparatus, moving image distribution system, moving image conversion method, and program
KR100932727B1 (en) Video stream switching device and method
JP2000013791A (en) Image encoding device, image encoding method, image decoding device, image decoding method, and providing medium
KR101684705B1 (en) Apparatus and method for playing media contents
Suchomski et al. Format independence of audio and video in multimedia database systems
Vetro Media Format Interoperability
JP2001061145A (en) Image coding device and method therefor, and image decoding device and method therefor
JP2004134889A (en) Image signal converting apparatus and image signal converting method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100506

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100812

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100915

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101005

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101018

R151 Written notification of patent or utility model registration

Ref document number: 4622121

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131112

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees