JP2004120415A - Device and method for converting moving picture data stream - Google Patents

Device and method for converting moving picture data stream Download PDF

Info

Publication number
JP2004120415A
JP2004120415A JP2002281614A JP2002281614A JP2004120415A JP 2004120415 A JP2004120415 A JP 2004120415A JP 2002281614 A JP2002281614 A JP 2002281614A JP 2002281614 A JP2002281614 A JP 2002281614A JP 2004120415 A JP2004120415 A JP 2004120415A
Authority
JP
Japan
Prior art keywords
encoding
stream
data stream
frame rate
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002281614A
Other languages
Japanese (ja)
Inventor
Yukio Yanagida
柳田 幸雄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002281614A priority Critical patent/JP2004120415A/en
Priority to PCT/JP2003/010319 priority patent/WO2004030367A1/en
Publication of JP2004120415A publication Critical patent/JP2004120415A/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/40Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video transcoding, i.e. partial or full decoding of a coded input stream followed by re-encoding of the decoded output stream

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To reduce the processing costs in converting an encoded stream of an MPEG-2 system having a higher frame rate (for example, 30 fps) into an encoded stream of an MPEG-4 system having a lower frame rate (10 fps, for example). <P>SOLUTION: A stream converting device 4 receives the encoded stream of the 30 fps MPEG-2 system from a content server 2, converts the frame rate and the encoding system of the encoding stream, and transmits the encoded stream of the 10 fps MPEG-4 system via a network 3. In these processes, the stream converting device 4 does not decode a frame which is not encoded in the encoding stream of MPEG4-4 system from the encoding stream of the MPEG-2 system. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、動画像データのフレームレートの変換処理並びに動画像データの符号化方式の変換処理を行う動画像データストリームの変換装置及び方法に関するものである。
【0002】
【従来の技術】
インターネット等のネットワークを介した動画像データのリアルタイム配信が行われ始めている。動画像データのリアルタイム配信を行う場合、通常、ソースとなる動画像データをコンテンツサーバに記録しておき、そのコンテンツサーバからネットワークを介してクライアントに送出する。また、コンテンツサーバに記録されている動画像データは、リアルタイム配信に用いられるのみならず、ネットワークを介さずに直接表示されたり、或いは、他のコンテンツの素材映像として用いられたりもする。
【0003】
ところで、ネットワークを介して動画像データのリアルタイム配信を行う場合、そのネットワークの伝送容量に制限があるので、通常の動画像の表示レート(例えば30フレーム毎秒(fps))よりも、低いフレームレート(例えば10fps程度)で送信されるのが一般的である。しかしながら、コンテンツサーバに記録されている動画像データは、ネットワークを介さずに直接表示したり、他のコンテンツの素材映像等として用いられたりすることを考慮して、通常の動画像の表示レートの30fpsで記録されている場合がある。このようにフレームレートが30fpsの動画像データがコンテンツサーバに記録されている場合、この動画像データをネットワークを介して送出するには、フレームレートをリアルタイム処理でダウンコンバートしながら配信をしなければならない。
【0004】
また、ネットワークを介して配信されてきた動画像データを例えばハードディスク等の記録メディアに記録する場合、そのままのフレームレートで記録するよりも、通常の動画像の表示レート(30fps)で記録する方が、再生処理等を考慮すると望ましいことがある。このような場合、受信した動画像データのフレームレートをリアルタイム処理でアップコンバートしながら記録しなければならない。
【0005】
また、近年、ネットワーク配信に適した動画像圧縮方式として、MPEG−4と呼ばれる規格が提案されている。しかしながら、これまでの映像資産はMPEG−2方式のデータが多く、また、記録メディアからネットワークを介さずに直接に映像を再生することを考慮すると、MPEG−4方式で符号化された動画像データを記録メディアに記録するよりも、MPEG−2方式で符号化された動画像データを記録メディアに記録した方が都合がよい場合もある。そのため、MPEG−4方式の動画像データをネットワークを介して配信する場合であっても、コンテンツサーバにMPEG−2方式の動画像データを記録しておき、適宜符号化方式の変換を行って、配信することも多いと考えられる。
【0006】
以上のような実状を鑑みると、ネットワーク配信を行う場合には、フレームレートの変換処理並びにMPEG−2とMPEG−4との間の符号化方式の変換処理を行うことができるストリーム変換装置が必要になってくると考えられる。
【0007】
図8に、従来から提案されているストリーム変換装置の構成図を示す。
【0008】
図8に示すストリーム変換装置110は、MPEG−2方式の符号化ストリームの符号化及び復号を行うMPEG−2符号化/復号部111と、MPEG−4方式の符号化ストリームの符号化及び復号を行うMPEG−4符号化/復号部112と、フレームメモリ113とを備えている。
【0009】
ストリーム変換装置110では、コンテンツサーバ101に格納されているフレームレートが30fpsのMPEG−2方式の符号化ストリームを、フレームレートが10fpsのMPEG−4方式の符号化ストリームに変換して、ネットワーク102を介して送出する場合には、図9に示すような動作を行う。
【0010】
ストリーム変換装置110は、図9のAに示すような30fpsのMPEG−2方式の符号化ストリームをコンテンツサーバ101から読み出して、MPEG−2符号化/復号部111により復号し、図9のBに示すような30fpsのベースバンドの動画像データを生成する。生成された30fpsのベースバンドの動画像データは、一旦フレームメモリ113に格納される。続いて、ストリーム変換装置110は、図9のCに示すようにフレームメモリ113上で任意のフレームの間引き処理を行い、図9のDに示すようなフレームレートが10fpsのベースバンドの動画像データを生成する。そして、ストリーム変換装置110は、図9のDに示すフレームレートが10fpsのベースバンドの動画像データをフレームメモリ110から読み出して、MPEG−4符号化/復号部112により符号化し、図9のEに示すようなMPEG−4方式の符号化ストリームを生成し、ネットワーク102へ配信する。
【0011】
また、ストリーム変換装置110では、ネットワーク102を介して受信したフレームレートが10fpsのMPEG−4方式の符号化ストリームを、フレームレートが30fpsのMPEG−2方式の符号化ストリームに変換して、コンテンツサーバ101に格納する場合には、図10に示すような動作を行う。
【0012】
ストリーム変換装置110は、図10のAに示すようなフレームレートが10fpsのMPEG−4方式の符号化ストリームをネットワーク102から受信して、MPEG−4符号化/復号部112により復号し、図10のBに示すような10fpsのベースバンドの動画像データを生成する。生成された10fpsのベースバンドの動画像データは、一旦フレームメモリ113に格納される。続いて、ストリーム変換装置110は、図10のCに示すようにフレームメモリ113上でフレームコピー処理を行い、図10のDに示すようなフレームレートが30fpsのベースバンドの動画像データを生成する。そして、ストリーム変換装置110は、図10のDに示すフレームレートが30fpsのベースバンドの動画像データをフレームメモリ110から読み出して、MPEG−2符号化/復号部111により符号化し、図10のEに示すようなMPEG−4方式の符号化ストリームを生成し、コンテンツサーバ101へ格納する。
【0013】
【発明が解決しようとする課題】
しかしながら、以上のようなストリーム変換装置110によりフレームレートの変換を行った場合、30fpsから10fpsへのダウンコンバート時には、30fpsの復号処理及び10fpsの符号化処理とを合算した処理量が、処理コストとして費やされてしまう。また、10fpsから30fpsへのアップコンバート時には、10fpsの復号処理及び30fpsの符号化処理とを合算した処理量が、処理コストとして費やされてしまう。
【0014】
本発明は、このような実状を鑑みて提案されたものであり、第1のフレームレートの動画像信号を第1の符号化方式を用いて符号化した第1のデータストリームから、上記第1のフレームレートより低い第2のフレームレートの上記動画像信号を第2の符号化方式を用いて符号化した第2のデータストリームを生成する動画像データストリームの変換を行う際に、処理コストを低減させるストリーム変換装置及び方法を提供することを目的とする。
【0015】
また、第1のフレームレートの動画像信号を第1の符号化方式を用いて符号化した第1のデータストリームから、上記第1のフレームレートより高い第2のフレームレートの上記動画像信号を第2の符号化方式を用いて符号化した第2のデータストリームを生成する動画像データストリームの変換を行う際に、処理コストを低減させるストリーム変換装置及び方法を提供することを目的とする。
【0016】
【課題を解決するための手段】
本発明にかかるストリーム変換装置及び方法は、第1のフレームレートの動画像信号を第1の符号化方式を用いて符号化した第1のデータストリームから、上記第1のフレームレートより低い第2のフレームレートの上記動画像信号を第2の符号化方式を用いて符号化した第2のデータストリームを生成する。この発明では、上記第2のデータストリーム中に符号化されないフレームを復号せずに上記第1のデータストリームから上記動画像信号を復号し、復号された上記動画像信号を第2の符号化方式を用いて符号化して第2のデータストリームを生成することを特徴としている。
【0017】
また、本発明にかかるストリーム変換装置及び方法は、第1のフレームレートの動画像信号を第1の符号化方式を用いて符号化した第1のデータストリームから、上記第1のフレームレートより高い第2のフレームレートの上記動画像信号を第2の符号化方式を用いて符号化した第2のデータストリームを生成する。この発明では、上記第1のデータストリームから上記動画像信号を復号し、復号された上記動画像信号を第2の符号化方式を用いて符号化して第2のデータストリームを生成するとともに、同一のフレーム画像を繰り返し挿入することによりフレームレートを高くする場合には、挿入されるフレーム画像に対して、前画像からの繰り返し画像であることを示す符号化処理を行うことを特徴としている。
【0018】
【発明の実施の形態】
本発明の実施の形態として本発明を適用したストリーム変換装置について説明をする。本発明の実施の形態のストリーム変換装置は、MPEG−2方式で符号化された動画像の符号化ストリームから、MPEG−4方式で符号化された動画像の符号化ストリームへの変換、並びに、その逆変換を行う符号化方式変換処理が可能となっている。また、本実施の形態のストリーム変換装置は、動画像の符号化ストリームのフレームレートの変換を行うことが可能となっている。
【0019】
本発明の実施の形態のストリーム変換装置は、例えば、図1に示すように、コンテンツサーバ2から第1のフレームレート(例えば30fps)のMPEG−2方式の符号化ストリームが入力ストリームS1として入力され、その入力ストリームS1の符号化方式及びフレームレートを変換することによって、第1のフレームレートより低い第2のフレームレート(例えば10fps)のMPEG−4方式の符号化ストリームを生成し、生成した符号化ストリームを出力ストリームS2としてネットワーク3を介して配信するストリーム変換装置1に適用される。
【0020】
また、本発明の実施の形態のストリーム変換装置は、例えば、図2に示すように、ネットワーク3から上記第2のフレームレート(例えば10fps)のMPEG−4方式の符号化ストリームが入力ストリームS1として入力され、その入力された入力ストリームS1の符号化方式及びフレームレートを変換することによって、上記第1のフレームレート(例えば30fps)のMPEG−2方式の符号化ストリームを生成し、生成した符号化ストリームを出力ストリームS2としてコンテンツサーバ2に格納するストリーム変換装置1に適用される。
【0021】
図3に、上記のストリーム変換装置1の内部構成図を示す。
【0022】
ストリーム変換装置1は、コンテンツサーバ2又はネットワーク3から入力される入力ストリームS1に対する入力処理を行う入力部11と、コンテンツサーバ2又はネットワーク3へ出力する出力ストリームS2に対する出力を行う出力部12と、ベースバンドの動画像データの入出力処理を行う画像入出力部13と、符号化ストリームの符号化及び復号を行う符号化/復号部14と、ベースバンドの動画像データを記憶するフレームメモリ15と、フレームメモリ15のインターフェースとなるメモリインタフェース16とを備えている。
【0023】
このストリーム変換装置1には、入力ストリームS1及び出力ストリームS2として、MPEG−2方式の符号化ストリーム又はMPEG−4方式の符号化ストリームが入出力される。
【0024】
入力部11は、MPEG−2又はMPEG−4の符号化ストリームをコンテンツサーバ2又はネットワーク3から受信して、符号化/復号部14に供給する。
【0025】
出力部12は、符号化/復号部14から出力されたMPEG−2又はMPEG−4の符号化ストリームを、コンテンツサーバ2又はネットワーク3へ送信する。
【0026】
画像入出力部13は、外部装置との間でベースバンドの動画像データの送受信を行う。
【0027】
符号化/復号部14は、MEPG−2及びMPEG−4の両者に対する符号化及び復号処理を行うことができる共用回路となっている。また、符号化/復号部14は、外部コントローラ等からの制御に基づき例えば時分割処理等が行われ、符号化処理及び復号処理を同時平行的に行うことができ、また、MPEG−2及びMPEG−4の異なる方式同士のストリームに対する処理も同時平行的に行うことができる。また、例えば、複数本の符号化ストリームに対する複数の符号化処理及び復号処理も行うことができる。
【0028】
フレームメモリ15は、ベースバンドの動画像データを格納する。フレームメモリ15は、メモリインタフェース16を介して動画像データの読み出し及び書き込みが行われる。符号化/復号部14は、符号化ストリームを復号して生成された動画像データを、フレーム単位でフレームメモリ15に格納する。また、符号化/復号部14は、フレームメモリ15に格納されている動画像データをフレーム単位で読み出して、符号化処理を行う。また、画像入出力部13は、フレームメモリ15に格納されているベースバンドの動画像データを読み出して外部装置に出力し、また、外部装置から入力されたベースバンドの動画像データをフレームメモリ15に格納する。
【0029】
つぎに、符号化/復号部14の構成について説明をする。
【0030】
符号化/復号部14は、可変長符号化/復号部21と、量子化/逆量子化部22と、DCT/IDCT処理部23と、動き補償部24と、減算器25と、加算器26と、動き検出部27と、コントローラ28とを備えている。
【0031】
可変長符号化/復号部21は、可変長符号及び固定長符号の符号化及び復号を行う。可変長符号化/復号部21は、符号化処理を行う場合には、量子化/逆量子化部22から量子化後のDCT係数データが入力されるとともに、コントローラ28から動きベクトル等の各種シンタックスが入力され、これらに対して可変長符号または固定長符号の符号化処理を行う。可変長符号化/復号部21は、可変長符号及び固定長符号の符号化処理をしたのち、MPEG−2又はMPEG−4の規格に応じたストリームを形成し、形成したストリームを出力部12に供給する。また、可変長符号化/復号部21は、復号処理を行う場合には、入力部11から符号化ストリームが入力され、入力された符号化ストリームの構造を解析してストリームを分割し、それぞれ分割したデータに対して可変長符号の復号処理又は固定長符号の復号処理を行う。可変長符号化/復号部21は、DCT係数は量子化/逆量子化部22に供給し、動きベクトル等のシンタックスはコントローラ28に供給する。
【0032】
量子化/逆量子化部22は、量子化処理及び逆量子化処理を行う。量子化/逆量子化部22は、符号化処理を行う場合には、DCT/IDCT処理部23からDCT係数データが入力され、入力されたDCT係数データに対して所定の量子化パラメータを用いて量子化処理を行い、量子化処理をしたDCT係数データを可変長符号化/復号部21に供給する。また、量子化/逆量子化部22は、復号処理を行う場合には、可変長符号化/復号部21からDCT係数データが入力され、入力されたDCT係数データに対して所定の量子化パラメータを用いて逆量子化処理を行い、逆量子化処理をしたDCT係数データをDCT/IDCT処理部23に供給する。
【0033】
DCT/IDCT処理部23は、離散コサイン変換処理及び逆離散コサイン変換処理を行う。DCT/IDCT処理部23は、符号化処理を行う場合には、減算器25から出力された空間領域に画像データがフレーム単位で入力され、入力された画像データに対して離散コサイン変換処理を行い、DCT係数データを生成する。DCT/IDCT処理部23は、符号化処理時には、生成したDCT係数データを量子化/逆量子化処理部22に供給する。DCT/IDCT処理部23は、復号処理を行う場合には、量子化/逆量子化部22からDCT係数データが入力され、入力されたDCT係数データに対して逆離散コサイン変換を行い、空間領域の画像データを生成する。DCT/IDCT処理部23は、復号処理を行う場合には、生成した空間領域の画像データを加算器26に供給する。
【0034】
動き補償部24は、フレームメモリ15に格納されている参照フレームを読み出して、上記参照フレームに対して動きベクトルに応じた動き補償を行い、予測フレームを生成する。
【0035】
ここで、符号化/復号部14は、符号化処理を行う場合には、一旦量子化処理がされた後のDCT係数データに対して逆量子化、IDCT処理及び動き補償といった局所復号処理を行い、局所復号がされた画像データをフレームメモリ16内に格納する。さらに、動き補償部24は、その局所復号された画像データを参照フレームとし予測フレームを生成する。また、動き補償部24は、復号処理を行う場合には、すでに復号された参照フレームをフレームメモリ15から読み出して、予測フレームを生成する。動き補償部24は、符号化処理を行う場合には予測フレームを減算器25に供給し、復号処理を行う場合には予測フレームを加算器26に供給する。
【0036】
減算器25は、符号化処理を行う場合に、フレームメモリ16から符号化対象となるフレームが入力される。減算器25は、符号化対象となるフレームから、動き補償部24から供給された予測フレームを減算する。減算器25は、減算後のフレームをDCT/IDCT処理部23に供給する。
【0037】
加算器26は、復号処理を行う場合に、DCT/IDCT処理部23からフレーム単位で画像データが入力され、入力された画像データに動き補償部24から供給された予測フレームを加算する。加算器26は、加算後のフレームをフレームメモリ15に格納する。
【0038】
動き検出部27は、フレームメモリ16内の画像データに基づき、各フレーム間の動きベクトルを、マクロブロック単位で算出する。算出された動きベクトルは、動き補償部24に供給されるとともに、コントローラ28に供給する。
【0039】
コントローラ28は、符号化ストリームに含まれる画像データ以外のシンタックスを生成するとともに、符号化/復号部14内の各回路の制御を行う。
【0040】
つぎに、コンテンツサーバ2に格納されているフレームレートが30fpsのMPEG−2方式の符号化ストリームを、フレームレートが10fpsのMPEG−4方式の符号化ストリームに変換して、ネットワーク3を介して送出する場合の、ストリーム変換装置1の動作について図4を参照して説明をする。
【0041】
ストリーム変換装置1は、図4のAに示すような30fpsのMPEG−2方式の符号化ストリームをコンテンツサーバ2から読み出す。読み出されたMPEG−2方式の符号化ストリームは、入力部11を介して符号化/復号部14に供給される。符号化/復号部14は、入力されたMPEG−2の符号化ストリームを復号して、ベースバンドの動画像データを生成する。生成されたベースバンドの動画像データはフレームメモリ15に格納される。
【0042】
この際、符号化/復号部14は、MPEG−4の符号化時に必要なフレームのみの復号処理を行い、符号化されないフレームに対しては復号をせずに破棄する。破棄するフレームは、例えば、Bピクチャのような削除しても他のフレームの復号処理に影響を与えないものが望ましい。例えば、Iピクチャ又はPピクチャの現れる周期が3フレームに1回である一般的なGOP構成の符号化ストリームであれば、図4のBに示すように、Bピクチャの復号を行わずに破棄し、I又はPピクチャのみを復号を行う。このように復号を行うことによって、フレームレートが10fpsのベースバンドの動画像データを生成することができる。
【0043】
そして、符号化/復号部14は、図4のBに示すフレームレートが10fpsのベースバンドの動画像データをフレームメモリ15から読み出して、MPEG−4方式で符号化し、図4のCに示すようなMPEG−4方式の符号化ストリームを生成し、ネットワーク3へ配信する。
【0044】
ストリーム変換装置1は、以上のような処理を行うことによって、復号処理の処理量を削減し、全体の処理コストを少なくすることができる。
【0045】
つぎに、ネットワーク3を介して受信したフレームレートが10fpsのMPEG−4方式の符号化ストリームを、フレームレートが30fpsのMPEG−2方式の符号化ストリームに変換して、コンテンツサーバ2に格納する場合の、ストリーム変換装置1の動作について図5を参照して説明をする。
【0046】
ストリーム変換装置1は、図5のAに示すようなフレームレートが10fpsのMPEG−4方式の符号化ストリームをネットワーク3から受信する。受信されたMPEG−4方式の符号化ストリームは、入力部11を介して符号化/復号部14に供給される。符号化/復号部14は、入力されたMPEG−4の符号化ストリームを復号して、図5のBに示すような、10fpsのベースバンドの動画像データを生成する。生成されたベースバンドの動画像データはフレームメモリ15に格納される。続いて、符号化/復号部14は、フレームメモリ15に格納されている10fpsのベースバンドの動画像データを読み出して符号化し、MPEG−2方式の符号化ストリームの生成を行う。
【0047】
この際、符号化/復号部14は、フレームレートを10fpsから30fpsにするために、任意の位置に新たなフレームを挿入する。挿入する新たなフレームは、過去のフレームをそのまま繰り返して用いる。符号化/復号部14では、その繰り返して用いられる新たなフレームを、MPEG−2の符号化方式で規定されているスキップドマクロブロックにより構成するように符号化を行う。スキップドマクロブロックは、現在の画像データが時間的に前のマクロブロックのデータと同一である場合、そのマクロブロックをスキップし、実際の画像データを伝送しないマクロブロックである。例えば、図5のCに示すように、B0、B1、B3、B4の画像をスキップドマクロブロックで構成されたフレームとする。このようにスキップドマクロブロックで構成されたフレームとすることによって、そのフレームに対するDCT処理等の演算を行わなくてもよくなり、処理量を削減することができる。そして、符号化/復号部14は、以上のように生成した図5のCに示すような30fpsのMPEG−2の符号化ストリームを、出力部12を介してコンテンツサーバ2に格納する。
【0048】
ストリーム変換装置1は、以上のような処理を行うことによって、符号化処理の処理量を削減し、全体の処理コストを少なくすることができる。
【0049】
以上のように本発明の実施の形態のストリーム変換装置1では、従来のストリーム変換装置に比べて、フレームレートを変換する際の処理量を削減することができる。
【0050】
なお、本発明の実施の形態のストリーム変換装置1は、図1及び図2に示したアプリケーションのみならず、例えば、図6に示すように、フレームレートが10fpsのMPEG−4の符号化ストリームをネットワーク3を介して受信し、且つ、フレームレートが30fpsのMPEG−2の符号化ストリームをコンテンツサーバ2から読み出して、その読み出した符号化ストリームをフレームレートが10fpsのMPEG−4の符号化ストリームに変換して、ネットワーク3を介して配信することもできる。
【0051】
また、例えば、図7に示すように、フレームレートが10fpsのMPEG−4の符号化ストリームをネットワーク3を介して受信し、受信した符号化ストリームを、MPEG−1及びMPEG−2の2つの30fpsの符号化ストリームに変換し、MPEG−1の符号化ストリームをフラッシュメモリ4等のリムーバブルなメディアに記録し、MPEG−2の符号化ストリームをコンテンツサーバ2に記録するといったこともできる。
【0052】
【発明の効果】
本発明にかかるストリーム変換装置及び方法では、第1のフレームレートの動画像信号を第1の符号化方式を用いて符号化した第1のデータストリームから、上記第1のフレームレートより低い第2のフレームレートの上記動画像信号を第2の符号化方式を用いて符号化した第2のデータストリームを生成する際に、上記第2のデータストリーム中に符号化されないフレームを復号せずに上記第1のデータストリームから上記動画像信号を復号し、復号された上記動画像信号を第2の符号化方式を用いて符号化して第2のデータストリームを生成する。
【0053】
このことにより本発明にかかるストリーム変換装置及び方法では、処理コストの低減を図ることができる。
【0054】
また、本発明にかかるストリーム変換装置及び方法は、第1のフレームレートの動画像信号を第1の符号化方式を用いて符号化した第1のデータストリームから、上記第1のフレームレートより高い第2のフレームレートの上記動画像信号を第2の符号化方式を用いて符号化した第2のデータストリームを生成する際に、同一のフレーム画像を繰り返し挿入することによりフレームレートを高くする場合には、挿入されるフレーム画像に対して、前画像からの繰り返し画像であることを示す符号化処理を行う。
【0055】
このことにより本発明にかかるストリーム変換装置及び方法では、処理コストの低減を図ることができる。
【図面の簡単な説明】
【図1】本発明の実施の形態のストリーム変換装置の第1の適用例を示す図である。
【図2】本発明の実施の形態のストリーム変換装置の第2の適用例を示す図である。
【図3】本発明の実施の形態のストリーム変換装置のブロック構成図である。
【図4】本発明の実施の形態のストリーム変換装置により、フレームレートが30fpsのMPEG−2方式の符号化ストリームを、フレームレートが10fpsのMPEG−4方式の符号化ストリームに変換する際に生成されるデータ等を示す図である。
【図5】本発明の実施の形態のストリーム変換装置により、フレームレートが10fpsのMPEG−4方式の符号化ストリームを、フレームレートが30fpsのMPEG−2方式の符号化ストリームに変換する際に生成されるデータ等を示す図である。
【図6】本発明の実施の形態のストリーム変換装置の第1の適用例を示す図である。
【図7】本発明の実施の形態のストリーム変換装置の第2の適用例を示す図である。
【図8】従来のストリーム変換装置のブロック構成図である。
【図9】従来のストリーム変換装置により、フレームレートが30fpsのMPEG−2方式の符号化ストリームを、フレームレートが10fpsのMPEG−4方式の符号化ストリームに変換する際に生成されるデータ等を示す図である。
【図10】従来のストリーム変換装置により、フレームレートが10fpsのMPEG−4方式の符号化ストリームを、フレームレートが30fpsのMPEG−2方式の符号化ストリームに変換する際に生成されるデータ等を示す図である。
【符号の説明】
1 ストリーム変換装置、2 コンテンツサーバ、3 ネットワーク、11 入力部、12 出力部、13 画像入出力部、14 符号化/復号部、15 フレームメモリ、16 メモリインタフェース
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a moving image data stream conversion device and method for performing a moving image data frame rate conversion process and a moving image data encoding method conversion process.
[0002]
[Prior art]
Real-time distribution of moving image data via a network such as the Internet has begun to be performed. When real-time distribution of moving image data is performed, usually, moving image data as a source is recorded in a content server, and is transmitted from the content server to a client via a network. In addition, the moving image data recorded in the content server is used not only for real-time distribution, but also for direct display without using a network, or for use as a material video of another content.
[0003]
By the way, when real-time distribution of moving image data is performed via a network, a transmission rate of the network is limited. Generally, it is transmitted at, for example, about 10 fps). However, in consideration of the fact that moving image data recorded on a content server is directly displayed without going through a network or used as a material video of another content, the display rate of a normal moving image is reduced. It may be recorded at 30 fps. When moving image data having a frame rate of 30 fps is recorded in the content server in this way, in order to transmit the moving image data via a network, the frame rate must be down-converted by real-time processing and distributed. No.
[0004]
When recording moving image data distributed via a network on a recording medium such as a hard disk, recording at a normal moving image display rate (30 fps) is better than recording at a frame rate as it is. It may be desirable in consideration of reproduction processing and the like. In such a case, it is necessary to record the frame rate of the received moving image data while upconverting the frame rate by real-time processing.
[0005]
In recent years, a standard called MPEG-4 has been proposed as a moving image compression method suitable for network distribution. However, most of the conventional video assets are MPEG-2 format data. Considering that video is directly reproduced from a recording medium without passing through a network, moving image data encoded in the MPEG-4 format is considered. In some cases, it may be more convenient to record moving image data encoded by the MPEG-2 system on a recording medium than to record the moving image data on a recording medium. Therefore, even when the moving image data of the MPEG-4 system is distributed via the network, the moving image data of the MPEG-2 system is recorded on the content server, and the encoding system is appropriately converted. It is considered that they are often distributed.
[0006]
In view of the above situation, when performing network distribution, a stream converter capable of performing frame rate conversion processing and conversion processing of an encoding method between MPEG-2 and MPEG-4 is required. It is thought that it becomes.
[0007]
FIG. 8 shows a configuration diagram of a conventionally proposed stream converter.
[0008]
A stream converter 110 shown in FIG. 8 performs encoding and decoding of an MPEG-2 encoded stream, and performs encoding and decoding of an MPEG-4 encoded stream. An MPEG-4 encoding / decoding unit 112 for performing the operation and a frame memory 113 are provided.
[0009]
The stream converter 110 converts an MPEG-2 encoded stream with a frame rate of 30 fps stored in the content server 101 into an MPEG-4 encoded stream with a frame rate of 10 fps. In the case of transmission via an external device, an operation as shown in FIG. 9 is performed.
[0010]
The stream converter 110 reads an MPEG-2 encoded stream of 30 fps as shown in FIG. 9A from the content server 101 and decodes the stream by the MPEG-2 encoding / decoding unit 111. 30 fps baseband moving image data as shown is generated. The generated 30 fps baseband moving image data is temporarily stored in the frame memory 113. Subsequently, the stream converter 110 performs a thinning process of an arbitrary frame on the frame memory 113 as shown in FIG. 9C, and baseband moving image data having a frame rate of 10 fps as shown in FIG. 9D. Generate Then, the stream converter 110 reads the baseband moving image data with the frame rate of 10 fps shown in FIG. 9D from the frame memory 110, encodes the read moving image data by the MPEG-4 encoding / decoding unit 112, and outputs And generates an MPEG-4 encoded stream as shown in FIG.
[0011]
Also, the stream converter 110 converts the MPEG-4 coded stream having a frame rate of 10 fps received via the network 102 into an MPEG-2 coded stream having a frame rate of 30 fps. When the data is stored in the memory 101, an operation as shown in FIG. 10 is performed.
[0012]
The stream converter 110 receives an MPEG-4 encoded stream having a frame rate of 10 fps from the network 102 as shown in FIG. 10A, and decodes the stream by the MPEG-4 encoder / decoder 112. 10B, the baseband moving image data of 10 fps is generated. The generated 10 fps baseband moving image data is temporarily stored in the frame memory 113. Subsequently, the stream converter 110 performs frame copy processing on the frame memory 113 as shown in FIG. 10C, and generates baseband moving image data with a frame rate of 30 fps as shown in D in FIG. . Then, the stream converter 110 reads the baseband moving image data having the frame rate of 30 fps shown in D of FIG. 10 from the frame memory 110, encodes the read data by the MPEG-2 encoding / decoding unit 111, and outputs And generates an MPEG-4 encoded stream as shown in FIG.
[0013]
[Problems to be solved by the invention]
However, when the frame rate is converted by the stream converter 110 as described above, the processing amount obtained by adding the decoding processing at 30 fps and the encoding processing at 10 fps at the time of down-conversion from 30 fps to 10 fps is a processing cost. Will be spent. Also, at the time of up-conversion from 10 fps to 30 fps, the processing amount obtained by adding the decoding processing at 10 fps and the encoding processing at 30 fps is consumed as the processing cost.
[0014]
The present invention has been proposed in view of such an actual situation, and the present invention has been proposed in accordance with the first data stream obtained by encoding a moving image signal of a first frame rate using a first encoding method. When converting a moving image data stream that generates a second data stream obtained by encoding the moving image signal of the second frame rate lower than the frame rate of It is an object of the present invention to provide a stream conversion apparatus and method for reducing the number of streams.
[0015]
In addition, from the first data stream obtained by encoding the video signal of the first frame rate using the first encoding method, the video signal of the second frame rate higher than the first frame rate is obtained. It is an object of the present invention to provide a stream conversion apparatus and a stream conversion method that reduce processing costs when converting a moving image data stream that generates a second data stream encoded using the second encoding method.
[0016]
[Means for Solving the Problems]
A stream conversion device and method according to the present invention are configured to convert a video signal of a first frame rate from a first data stream encoded using a first encoding scheme to a second data stream lower than the first frame rate. A second data stream is generated by encoding the moving image signal having the frame rate of the above by using the second encoding method. In the present invention, the video signal is decoded from the first data stream without decoding a frame that is not coded in the second data stream, and the decoded video signal is converted to a second coding scheme. And generating a second data stream by encoding the data stream.
[0017]
In addition, the stream conversion device and method according to the present invention are configured such that a moving image signal having a first frame rate is higher than the first frame rate from a first data stream obtained by encoding the moving image signal using a first encoding method. A second data stream is generated by encoding the video signal at the second frame rate using a second encoding scheme. In the present invention, the moving image signal is decoded from the first data stream, and the decoded moving image signal is encoded using a second encoding scheme to generate a second data stream. In order to increase the frame rate by repeatedly inserting the frame image, the encoding process is performed on the inserted frame image to indicate that the frame image is a repetition image from the previous image.
[0018]
BEST MODE FOR CARRYING OUT THE INVENTION
A stream converter to which the present invention is applied will be described as an embodiment of the present invention. A stream converter according to an embodiment of the present invention converts an encoded stream of a moving image encoded by the MPEG-2 method into an encoded stream of a moving image encoded by the MPEG-4 method, and An encoding system conversion process for performing the inverse conversion is possible. Further, the stream conversion device of the present embodiment can convert the frame rate of the encoded stream of the moving image.
[0019]
In the stream conversion device according to the embodiment of the present invention, for example, as shown in FIG. 1, an MPEG-2 coded stream of a first frame rate (for example, 30 fps) is input from a content server 2 as an input stream S1. By converting the encoding scheme and the frame rate of the input stream S1, an MPEG-4 encoded stream having a second frame rate (for example, 10 fps) lower than the first frame rate is generated, and the generated code is generated. The present invention is applied to a stream conversion device 1 that distributes a converted stream via a network 3 as an output stream S2.
[0020]
In addition, for example, as shown in FIG. 2, the stream conversion apparatus according to the embodiment of the present invention converts the MPEG-4 encoded stream of the second frame rate (for example, 10 fps) from the network 3 as the input stream S1. By converting the encoding method and the frame rate of the input stream S1 that has been input, the MPEG-2 encoded stream of the first frame rate (for example, 30 fps) is generated, and the generated encoding is performed. The present invention is applied to a stream conversion device 1 that stores a stream as an output stream S2 in a content server 2.
[0021]
FIG. 3 shows an internal configuration diagram of the stream conversion device 1 described above.
[0022]
The stream converter 1 includes an input unit 11 that performs an input process on an input stream S1 input from the content server 2 or the network 3, an output unit 12 that outputs an output stream S2 that is output to the content server 2 or the network 3, An image input / output unit 13 for performing input / output processing of baseband moving image data, an encoding / decoding unit 14 for performing encoding and decoding of an encoded stream, and a frame memory 15 for storing baseband moving image data. , A memory interface 16 serving as an interface of the frame memory 15.
[0023]
The stream converter 1 inputs and outputs an MPEG-2 encoded stream or an MPEG-4 encoded stream as an input stream S1 and an output stream S2.
[0024]
The input unit 11 receives an encoded stream of MPEG-2 or MPEG-4 from the content server 2 or the network 3 and supplies the stream to the encoding / decoding unit 14.
[0025]
The output unit 12 transmits the encoded stream of MPEG-2 or MPEG-4 output from the encoding / decoding unit 14 to the content server 2 or the network 3.
[0026]
The image input / output unit 13 transmits / receives baseband moving image data to / from an external device.
[0027]
The encoding / decoding unit 14 is a shared circuit that can perform encoding and decoding processing for both MPEG-2 and MPEG-4. Further, the encoding / decoding unit 14 can perform, for example, time-division processing or the like based on control from an external controller or the like, and can perform encoding and decoding simultaneously and in parallel. The processing for streams of different modes of −4 can also be performed simultaneously in parallel. Also, for example, a plurality of encoding processes and a plurality of decoding processes for a plurality of encoded streams can be performed.
[0028]
The frame memory 15 stores baseband moving image data. The frame memory 15 reads and writes moving image data via the memory interface 16. The encoding / decoding unit 14 stores moving image data generated by decoding the encoded stream in the frame memory 15 in frame units. Further, the encoding / decoding unit 14 reads out the moving image data stored in the frame memory 15 on a frame basis and performs an encoding process. Further, the image input / output unit 13 reads the baseband moving image data stored in the frame memory 15 and outputs it to an external device, and also outputs the baseband moving image data input from the external device to the frame memory 15. To be stored.
[0029]
Next, the configuration of the encoding / decoding unit 14 will be described.
[0030]
The encoding / decoding unit 14 includes a variable-length encoding / decoding unit 21, a quantization / inverse quantization unit 22, a DCT / IDCT processing unit 23, a motion compensation unit 24, a subtractor 25, and an adder 26. , A motion detecting section 27 and a controller 28.
[0031]
The variable length encoding / decoding unit 21 performs encoding and decoding of a variable length code and a fixed length code. When performing the encoding process, the variable-length encoding / decoding unit 21 receives the quantized DCT coefficient data from the quantization / inverse quantization unit 22 and receives various types of synthesizing data such as motion vectors from the controller 28. Taxes are input, and a variable-length code or a fixed-length code is encoded for them. The variable-length encoding / decoding unit 21 performs a variable-length code and a fixed-length code encoding process, forms a stream according to the MPEG-2 or MPEG-4 standard, and outputs the formed stream to the output unit 12. Supply. When performing a decoding process, the variable-length encoding / decoding unit 21 receives an encoded stream from the input unit 11, analyzes the structure of the encoded stream that has been input, and divides the stream. A variable-length code decoding process or a fixed-length code decoding process is performed on the obtained data. The variable length encoding / decoding unit 21 supplies the DCT coefficient to the quantization / inverse quantization unit 22 and supplies the syntax such as the motion vector to the controller 28.
[0032]
The quantization / inverse quantization unit 22 performs a quantization process and an inverse quantization process. When performing the encoding process, the quantization / inverse quantization unit 22 receives DCT coefficient data from the DCT / IDCT processing unit 23 and uses a predetermined quantization parameter for the input DCT coefficient data. The quantization processing is performed, and the quantized DCT coefficient data is supplied to the variable-length encoding / decoding unit 21. When performing a decoding process, the quantization / inverse quantization unit 22 receives DCT coefficient data from the variable-length encoding / decoding unit 21 and performs a predetermined quantization parameter on the input DCT coefficient data. , And supplies the inversely quantized DCT coefficient data to the DCT / IDCT processing unit 23.
[0033]
The DCT / IDCT processing unit 23 performs a discrete cosine transform process and an inverse discrete cosine transform process. When performing the encoding process, the DCT / IDCT processing unit 23 inputs the image data to the spatial region output from the subtracter 25 in frame units, performs a discrete cosine transform process on the input image data. , DCT coefficient data. The DCT / IDCT processing unit 23 supplies the generated DCT coefficient data to the quantization / inverse quantization processing unit 22 during the encoding processing. When performing a decoding process, the DCT / IDCT processing unit 23 receives DCT coefficient data from the quantization / inverse quantization unit 22, performs inverse discrete cosine transform on the input DCT coefficient data, and performs spatial domain Is generated. When performing the decoding process, the DCT / IDCT processing unit 23 supplies the generated image data of the spatial region to the adder 26.
[0034]
The motion compensator 24 reads the reference frame stored in the frame memory 15, performs motion compensation on the reference frame according to the motion vector, and generates a predicted frame.
[0035]
Here, when performing the encoding processing, the encoding / decoding unit 14 performs local decoding processing such as inverse quantization, IDCT processing, and motion compensation on the DCT coefficient data once subjected to the quantization processing. , And stores the locally decoded image data in the frame memory 16. Further, the motion compensating unit 24 generates a predicted frame using the locally decoded image data as a reference frame. When performing the decoding process, the motion compensation unit 24 reads the already decoded reference frame from the frame memory 15 and generates a predicted frame. The motion compensation unit 24 supplies the predicted frame to the subtractor 25 when performing the encoding process, and supplies the predicted frame to the adder 26 when performing the decoding process.
[0036]
When performing the encoding process, the subtracter 25 receives a frame to be encoded from the frame memory 16. The subtractor 25 subtracts the predicted frame supplied from the motion compensation unit 24 from the frame to be encoded. The subtracter 25 supplies the frame after the subtraction to the DCT / IDCT processing unit 23.
[0037]
When performing a decoding process, the adder 26 receives image data from the DCT / IDCT processing unit 23 in frame units, and adds a prediction frame supplied from the motion compensation unit 24 to the input image data. The adder 26 stores the added frame in the frame memory 15.
[0038]
The motion detection unit 27 calculates a motion vector between frames on a macroblock basis based on image data in the frame memory 16. The calculated motion vector is supplied to the motion compensator 24 and also to the controller 28.
[0039]
The controller 28 generates a syntax other than the image data included in the encoded stream, and controls each circuit in the encoding / decoding unit 14.
[0040]
Next, an MPEG-2 encoded stream with a frame rate of 30 fps stored in the content server 2 is converted to an MPEG-4 encoded stream with a frame rate of 10 fps, and transmitted via the network 3. In this case, the operation of the stream converter 1 will be described with reference to FIG.
[0041]
The stream converter 1 reads an MPEG-2 coded stream of 30 fps as shown in FIG. The read encoded stream of the MPEG-2 system is supplied to the encoding / decoding unit 14 via the input unit 11. The encoding / decoding unit 14 decodes the input MPEG-2 encoded stream to generate baseband moving image data. The generated baseband moving image data is stored in the frame memory 15.
[0042]
At this time, the encoding / decoding unit 14 performs a decoding process on only a frame necessary for MPEG-4 encoding, and discards an uncoded frame without decoding. It is desirable that the frame to be discarded does not affect the decoding process of another frame even if it is deleted, such as a B picture. For example, in the case of a coded stream having a general GOP configuration in which an I-picture or a P-picture appears once every three frames, as shown in B in FIG. 4, the stream is discarded without decoding the B-picture. , I or P pictures only. By performing decoding in this manner, baseband moving image data with a frame rate of 10 fps can be generated.
[0043]
Then, the encoding / decoding unit 14 reads the moving image data of the baseband having the frame rate of 10 fps shown in FIG. 4B from the frame memory 15 and encodes the moving image data by the MPEG-4 method, as shown in FIG. An MPEG-4 encoded stream is generated and distributed to the network 3.
[0044]
By performing the above-described processing, the stream conversion apparatus 1 can reduce the amount of decoding processing and reduce the overall processing cost.
[0045]
Next, a case in which an MPEG-4 encoded stream at a frame rate of 10 fps received via the network 3 is converted into an MPEG-2 encoded stream at a frame rate of 30 fps and stored in the content server 2 The operation of the stream converter 1 will be described with reference to FIG.
[0046]
The stream converter 1 receives an MPEG-4 coded stream having a frame rate of 10 fps from the network 3 as shown in FIG. The received MPEG-4 encoded stream is supplied to the encoding / decoding unit 14 via the input unit 11. The encoding / decoding unit 14 decodes the input MPEG-4 encoded stream to generate 10 fps baseband moving image data as shown in FIG. 5B. The generated baseband moving image data is stored in the frame memory 15. Subsequently, the encoding / decoding unit 14 reads and encodes 10 fps baseband moving image data stored in the frame memory 15 to generate an MPEG-2 encoded stream.
[0047]
At this time, the encoding / decoding unit 14 inserts a new frame at an arbitrary position to change the frame rate from 10 fps to 30 fps. As a new frame to be inserted, a past frame is used repeatedly as it is. The encoding / decoding unit 14 performs encoding such that a new frame used repeatedly is constituted by a skipped macroblock defined by the MPEG-2 encoding method. A skipped macroblock is a macroblock in which, when the current image data is the same as the data of the previous macroblock in time, the macroblock is skipped and the actual image data is not transmitted. For example, as shown in FIG. 5C, images B0, B1, B3, and B4 are assumed to be frames composed of skipped macroblocks. By using a frame composed of skipped macroblocks in this way, it is not necessary to perform an operation such as DCT processing on the frame, and the amount of processing can be reduced. Then, the encoding / decoding unit 14 stores the encoded MPEG-2 stream of 30 fps as shown in FIG. 5C in the content server 2 via the output unit 12 as described above.
[0048]
By performing the above-described processing, the stream conversion device 1 can reduce the processing amount of the encoding processing and reduce the overall processing cost.
[0049]
As described above, the stream converter 1 according to the embodiment of the present invention can reduce the amount of processing when converting the frame rate as compared with the conventional stream converter.
[0050]
Note that the stream conversion apparatus 1 according to the embodiment of the present invention not only converts the applications shown in FIGS. 1 and 2 but also, for example, as shown in FIG. 6, an MPEG-4 encoded stream having a frame rate of 10 fps. An MPEG-2 encoded stream received at the network 3 and having a frame rate of 30 fps is read from the content server 2 and the read encoded stream is converted into an MPEG-4 encoded stream having a frame rate of 10 fps. It can be converted and distributed via the network 3.
[0051]
For example, as shown in FIG. 7, an MPEG-4 encoded stream having a frame rate of 10 fps is received via the network 3, and the received encoded stream is converted into two 30 fps of MPEG-1 and MPEG-2. , An MPEG-1 encoded stream can be recorded on a removable medium such as the flash memory 4, and an MPEG-2 encoded stream can be recorded on the content server 2.
[0052]
【The invention's effect】
In the stream conversion apparatus and method according to the present invention, a second data stream lower than the first frame rate is converted from a first data stream obtained by encoding a moving image signal of a first frame rate using a first coding scheme. When generating a second data stream obtained by encoding the moving image signal having the frame rate of the second data stream using a second encoding scheme, the decoding apparatus does not decode a frame that is not encoded in the second data stream. The moving image signal is decoded from the first data stream, and the decoded moving image signal is encoded using a second encoding scheme to generate a second data stream.
[0053]
Thus, the stream conversion apparatus and method according to the present invention can reduce the processing cost.
[0054]
In addition, the stream conversion device and method according to the present invention are configured such that a moving image signal having a first frame rate is higher than the first frame rate from a first data stream obtained by encoding the moving image signal using a first encoding method. When generating a second data stream obtained by encoding the video signal of the second frame rate using the second encoding scheme, when increasing the frame rate by repeatedly inserting the same frame image Performs encoding processing on the inserted frame image to indicate that the frame image is a repetitive image from the previous image.
[0055]
Thus, the stream conversion apparatus and method according to the present invention can reduce the processing cost.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a first application example of a stream conversion device according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating a second application example of the stream conversion device according to the embodiment of the present invention.
FIG. 3 is a block diagram of a stream converter according to the embodiment of the present invention.
FIG. 4 is a diagram illustrating a case where an MPEG-2 encoded stream with a frame rate of 30 fps is converted into an MPEG-4 encoded stream with a frame rate of 10 fps by the stream converter according to the embodiment of the present invention. It is a figure which shows the data etc. which are performed.
FIG. 5 is a diagram illustrating a case where an MPEG-4 encoded stream with a frame rate of 10 fps is converted into an MPEG-2 encoded stream with a frame rate of 30 fps by the stream converter according to the embodiment of the present invention. It is a figure which shows the data etc. which are performed.
FIG. 6 is a diagram showing a first application example of the stream conversion device according to the embodiment of the present invention.
FIG. 7 is a diagram illustrating a second application example of the stream conversion device according to the embodiment of the present invention.
FIG. 8 is a block diagram of a conventional stream converter.
FIG. 9 shows data and the like generated when a conventional stream converter converts an MPEG-2 encoded stream having a frame rate of 30 fps into an MPEG-4 encoded stream having a frame rate of 10 fps. FIG.
FIG. 10 shows data generated when a conventional stream converter converts an MPEG-4 encoded stream at a frame rate of 10 fps into an MPEG-2 encoded stream at a frame rate of 30 fps. FIG.
[Explanation of symbols]
1 stream converter, 2 content server, 3 network, 11 input unit, 12 output unit, 13 image input / output unit, 14 encoding / decoding unit, 15 frame memory, 16 memory interface

Claims (4)

第1のフレームレートの動画像信号を第1の符号化方式を用いて符号化した第1のデータストリームが入力され、入力された第1のデータストリームから上記動画像信号を復号する復号手段と、
上記復号手段により復号された上記動画像信号を上記第1のフレームレートより低い第2のフレームレートで第2の符号化方式を用いて符号化して第2のデータストリームを生成し、生成した第2のデータストリームを出力する符号化手段とを備え、
上記復号手段は、上記符号化手段により符号化されないフレームを復号しないこと
を特徴とする動画像データストリームの変換装置。
Decoding means for receiving a first data stream obtained by encoding a moving image signal of a first frame rate using a first encoding method, and decoding the moving image signal from the input first data stream; ,
The moving image signal decoded by the decoding means is encoded at a second frame rate lower than the first frame rate using a second encoding method to generate a second data stream. Encoding means for outputting a second data stream,
The decoding device according to claim 1, wherein the decoding unit does not decode a frame that is not encoded by the encoding unit.
第1のフレームレートの動画像信号を第1の符号化方式を用いて符号化した第1のデータストリームが入力され、入力された第1のデータストリームから上
記動画像信号を復号する復号手段と、
上記復号手段により復号された動画像信号を上記第1のフレームレートより高い第2のフレームレートで第2の符号化方式を用いて符号化して第2のデータストリームを生成し、生成した第2のデータストリームを出力する符号化手段とを備え、
上記符号化手段は、同一のフレーム画像を繰り返し挿入することによりフレームレートを高くする場合には、挿入されるフレーム画像に対して、前画像からの繰り返し画像であることを示す符号化処理を行うこと
を特徴とする動画像データストリームの変換装置。
Decoding means for receiving a first data stream obtained by encoding a moving image signal of a first frame rate using a first encoding method, and decoding the moving image signal from the input first data stream; ,
The moving picture signal decoded by the decoding means is encoded at a second frame rate higher than the first frame rate by using a second encoding method, and a second data stream is generated. Encoding means for outputting a data stream of
When the encoding unit increases the frame rate by repeatedly inserting the same frame image, the encoding unit performs an encoding process on the inserted frame image to indicate that the image is a repetition image from the previous image. A moving image data stream conversion device, characterized in that:
第1のフレームレートの動画像信号を第1の符号化方式を用いて符号化した第1のデータストリームから、上記第1のフレームレートより低い第2のフレームレートの上記動画像信号を第2の符号化方式を用いて符号化した第2のデータストリームを生成する動画像データストリームの変換方法において、
上記第2のデータストリーム中に符号化されないフレームを復号せずに上記第1のデータストリームから上記動画像信号を復号し、
復号された上記動画像信号を第2の符号化方式を用いて符号化して第2のデータストリームを生成すること
を特徴とする動画像データストリームの変換方法。
From a first data stream obtained by encoding a video signal of a first frame rate using a first encoding scheme, the video signal of a second frame rate lower than the first frame rate is converted into a second video stream. A method of converting a moving image data stream that generates a second data stream encoded using the encoding method of
Decoding the video signal from the first data stream without decoding frames that are not encoded in the second data stream;
A method of converting a moving image data stream, comprising: coding the decoded moving image signal using a second coding method to generate a second data stream.
第1のフレームレートの動画像信号を第1の符号化方式を用いて符号化した第1のデータストリームから、上記第1のフレームレートより高い第2のフレームレートの上記動画像信号を第2の符号化方式を用いて符号化した第2のデータストリームを生成する動画像データストリームの変換方法において、
上記第1のデータストリームから上記動画像信号を復号し、
復号された上記動画像信号を第2の符号化方式を用いて符号化して第2のデータストリームを生成するとともに、同一のフレーム画像を繰り返し挿入することによりフレームレートを高くする場合には、挿入されるフレーム画像に対して、前画像からの繰り返し画像であることを示す符号化処理を行うこと
を特徴とする動画像データストリームの変換方法。
From a first data stream obtained by encoding a video signal of a first frame rate using a first encoding scheme, the video signal of a second frame rate higher than the first frame rate is converted to a second video stream. A method of converting a moving image data stream that generates a second data stream encoded using the encoding method of
Decoding the video signal from the first data stream;
If the decoded video signal is encoded using a second encoding scheme to generate a second data stream and the same frame image is repeatedly inserted to increase the frame rate, A moving image data stream conversion method comprising: performing a coding process on a frame image to be performed to indicate that the frame image is a repetitive image from a previous image.
JP2002281614A 2002-09-26 2002-09-26 Device and method for converting moving picture data stream Withdrawn JP2004120415A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2002281614A JP2004120415A (en) 2002-09-26 2002-09-26 Device and method for converting moving picture data stream
PCT/JP2003/010319 WO2004030367A1 (en) 2002-09-26 2003-08-13 Moving picture data stream conversion device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002281614A JP2004120415A (en) 2002-09-26 2002-09-26 Device and method for converting moving picture data stream

Publications (1)

Publication Number Publication Date
JP2004120415A true JP2004120415A (en) 2004-04-15

Family

ID=32040515

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002281614A Withdrawn JP2004120415A (en) 2002-09-26 2002-09-26 Device and method for converting moving picture data stream

Country Status (2)

Country Link
JP (1) JP2004120415A (en)
WO (1) WO2004030367A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007157011A (en) * 2005-12-08 2007-06-21 Hitachi Ulsi Systems Co Ltd Information processing unit
WO2008069160A1 (en) * 2006-12-06 2008-06-12 Nec Corporation Ptt server, ptt communication system, ptt communication method, and program
JP2008300997A (en) * 2007-05-29 2008-12-11 Sharp Corp Image re-encoding device and image re-encoding method
US8682934B2 (en) 2005-08-26 2014-03-25 Sony Corporation Metadata generating apparatus, information processing apparatus, imaging apparatus, video conference system, security system, method of generating metadata, and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0984011A (en) * 1995-09-14 1997-03-28 Hitachi Ltd Moving image coding system converter
JP2002262295A (en) * 2001-02-28 2002-09-13 Victor Co Of Japan Ltd Moving image decoder and moving image coder

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8682934B2 (en) 2005-08-26 2014-03-25 Sony Corporation Metadata generating apparatus, information processing apparatus, imaging apparatus, video conference system, security system, method of generating metadata, and program
JP2007157011A (en) * 2005-12-08 2007-06-21 Hitachi Ulsi Systems Co Ltd Information processing unit
JP4578396B2 (en) * 2005-12-08 2010-11-10 株式会社日立超エル・エス・アイ・システムズ Information processing device
WO2008069160A1 (en) * 2006-12-06 2008-06-12 Nec Corporation Ptt server, ptt communication system, ptt communication method, and program
JPWO2008069160A1 (en) * 2006-12-06 2010-03-18 日本電気株式会社 PTT server, PTT communication system, PTT communication method, and program
US8369881B2 (en) 2006-12-06 2013-02-05 Nec Corporation PTT server, PTT communication system, PTT communication method, and program
JP2008300997A (en) * 2007-05-29 2008-12-11 Sharp Corp Image re-encoding device and image re-encoding method

Also Published As

Publication number Publication date
WO2004030367A1 (en) 2004-04-08

Similar Documents

Publication Publication Date Title
JP4132664B2 (en) Transcoding
JP3610578B2 (en) Rounding error prevention method and apparatus when inversely transforming transform coefficient indicating moving image signal
KR100694137B1 (en) Apparatus for encoding or decoding motion image, method therefor, and recording medium storing a program to implement thereof
JP2004015744A (en) Image information conversion apparatus, bit-stream converter and image information conversion and transmission method
US20040013399A1 (en) Information processing method and apparatus
JPH0818979A (en) Image processor
JP3852366B2 (en) Encoding apparatus and method, decoding apparatus and method, and program
JPH11298903A (en) Digital image decoding device/method and supply medium thereof
KR100364748B1 (en) Apparatus for transcoding video
JP2004120415A (en) Device and method for converting moving picture data stream
WO1996033573A1 (en) Device and method for coding moving image
KR20030000310A (en) Apparatus for transcoding video
JPH11289515A (en) Picture signal processor and its method, picture signal recorder and its method and recording medium
JP3454304B2 (en) Encoding / decoding device
JP2005123738A (en) Apparatus and method of image processing, and electronic camera
JPH11155147A (en) Image reproduction method, image coder, and image coding method
JP4747109B2 (en) Calculation amount adjustment device
JP2937180B2 (en) Video encoding method and recording medium storing code data according to the video encoding method
JP2000023096A (en) Data encoding method, decoding method and device
JP2004274411A (en) Picture encoder and picture decoder, and picture encoding method and picture decoding method
JP2924866B2 (en) Moving picture coding apparatus, moving picture decoding apparatus, moving picture coding method, and moving picture decoding method
JP3862479B2 (en) How to prevent drift errors in video downconversion
JP2000156868A (en) Method and device for decoding image
JP3381723B2 (en) Data generator
JPH0865565A (en) Image recorder

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060110