JP2008118693A - Digital signal conversion method and digital signal conversion device - Google Patents

Digital signal conversion method and digital signal conversion device Download PDF

Info

Publication number
JP2008118693A
JP2008118693A JP2007323441A JP2007323441A JP2008118693A JP 2008118693 A JP2008118693 A JP 2008118693A JP 2007323441 A JP2007323441 A JP 2007323441A JP 2007323441 A JP2007323441 A JP 2007323441A JP 2008118693 A JP2008118693 A JP 2008118693A
Authority
JP
Japan
Prior art keywords
digital signal
unit
format
signal
conversion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007323441A
Other languages
Japanese (ja)
Inventor
Naofumi Yanagihara
尚史 柳原
Nobuaki Izumi
伸明 泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007323441A priority Critical patent/JP2008118693A/en
Publication of JP2008118693A publication Critical patent/JP2008118693A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a digital signal conversion method and a digital signal conversion device which can efficiently perform processing for resolution conversion etc., and have small deterioration of signals. <P>SOLUTION: An input digital signal of a first format (DV video signal) is restored to a variable-length code by having its framing canceled by a de-framing section 11, then decoded by a variable-length decoding (VLD) section 12, inversely quantized by an inverse quantizing (IQ) section 13, and resolution-converted by a resolution conversion section 16. After that, the video signal having the resolution converted is inversely weighted by the first format and also weighted by a second format by a weighting (IW*W) section 18, then quantized by a quantizing (Q) section 19, coded by variable-length coding by a variable-length coding (VLC) section 20, and output as a digital signal of a second format (MPEG video signal). The weighting section 18 may be disposed in front of the resolution conversion section 16. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、離散コサイン変換(DCT)などの直交変換を用いて圧縮符号化されたディジタル信号の変換処理に関し、特に、フォーマットが互いに異なる圧縮ビデオ信号の間で解像度を変換するディジタル信号変換方法およびディジタル信号変換装置に関するものである。   The present invention relates to a conversion process of a digital signal compressed and encoded using orthogonal transform such as discrete cosine transform (DCT), and more particularly, a digital signal conversion method for converting resolution between compressed video signals having different formats and The present invention relates to a digital signal converter.

従来、静止画データや動画データ等を効率よく圧縮符号化するための符号化方式として、直交変換符号化の一種である離散コサイン変換(DCT:Discrete Cosine Transform )が用いられている。このような直交変換されたディジタル信号を取り扱う際に、解像度や変換基底を変更することが必要とされることがある。   Conventionally, discrete cosine transform (DCT), which is a kind of orthogonal transform coding, is used as an encoding method for efficiently compressing and encoding still image data, moving image data, and the like. When handling such orthogonally-transformed digital signals, it may be necessary to change the resolution or conversion base.

例えば、家庭用のディジタルビデオのフォーマットの一つである、解像度が720×480画素とされた第1の直交変換されたディジタル信号から、いわゆるMPEG1フォーマットの解像度が360×240画素とされた第2の直交変換されたディジタル信号に変換する場合には、上記の第1の信号に対して逆直交変換を行って空間領域の信号に復元した後に、必要とされる補間や間引き等の変換処理を行い、再び直交変換を施して上記の第2の信号に変換している。   For example, a second digital signal whose resolution is so-called MPEG1 format is 360 × 240 pixels from a first orthogonally-transformed digital signal whose resolution is 720 × 480 pixels, which is one of home digital video formats. In the case of conversion to the orthogonally transformed digital signal, after performing inverse orthogonal transformation on the first signal to restore the signal in the spatial domain, necessary conversion processing such as interpolation and decimation is performed. And orthogonal transform is performed again to convert the signal into the second signal.

このように、直交変換されたディジタル信号は、一旦逆変換されて原信号に戻された後に所要の変換操作が行われ、その後再び直交変換されることが多い。   In this way, the orthogonally transformed digital signal is often inversely transformed and returned to the original signal, and then a required transformation operation is performed, and then orthogonal transformation is performed again in many cases.

図28は、DCT変換されたディジタル信号に対して上記のような解像度変換を施すための従来のディジタル信号処理装置の構成例を示している。   FIG. 28 shows a configuration example of a conventional digital signal processing apparatus for performing resolution conversion as described above on a DCT-converted digital signal.

この従来のディジタル信号変換装置は、家庭用ディジタルビデオ信号のフォーマットの一つである、いわゆる「DVフォーマット」のビデオ信号(以下ではDVビデオ信号という。)が第1のフォーマットのディジタル信号として入力され、いわゆる MPEG
(Moving Picture Experts Group)のフォーマットに従うビデオ信号(以下ではMPEGビデオ信号という。)を第2のフォーマットのディジタル信号として出力するようにされている。
In this conventional digital signal converter, a so-called “DV format” video signal (hereinafter referred to as a DV video signal), which is one of the formats of a home digital video signal, is input as a digital signal of the first format. , So-called MPEG
A video signal (hereinafter referred to as an MPEG video signal) conforming to the format of (Moving Picture Experts Group) is output as a digital signal of the second format.

デフレーミング部51は、DVビデオ信号のフレーミングを解くためのものである。このデフレーミング部51では、いわゆるDVフォーマットに従ってフレーミングされているDVビデオ信号が、可変長符号に戻される。   The deframing unit 51 is for solving the framing of the DV video signal. In the deframing unit 51, a DV video signal that has been framed according to a so-called DV format is returned to a variable length code.

可変長復号(VLD)部52は、デフレーミング部51で可変長符号に戻されたビデオ信号を可変長復号する。DVフォーマットにおける圧縮データは、そのデータ量が原信号に対して約1/5になるように固定レートで圧縮されており、データ圧縮効率を高めるために可変長符号化されている。可変長復号部52は、この可変長符号化に応じた復号を行う。   A variable length decoding (VLD) unit 52 performs variable length decoding on the video signal returned to the variable length code by the deframing unit 51. Compressed data in the DV format is compressed at a fixed rate so that the amount of data is about 1/5 of the original signal, and is variable-length encoded to increase data compression efficiency. The variable length decoding unit 52 performs decoding according to the variable length encoding.

逆量子化(IQ)部53は、可変長復号部52で復号されたビデオ信号を逆量子化する。   The inverse quantization (IQ) unit 53 inversely quantizes the video signal decoded by the variable length decoding unit 52.

逆重み付け(IW)部54は、逆量子化部53で逆量子化されたビデオ信号に施された重み付けの逆操作である逆重み付けを行う。   The inverse weighting (IW) unit 54 performs inverse weighting, which is an inverse operation of weighting performed on the video signal inversely quantized by the inverse quantization unit 53.

ここで、重み付けとは、人間の視覚特性が高域のひずみに対してあまり敏感でない性質を利用して、ビデオ信号の高域成分ほどDCT係数の値が小さくなるようにすることをいう。これにより、値が0になる高域係数の数が多くなり、可変長符号化の効率を向上させることができる。また、その結果として、DCT変換の演算量を低減することができる場合もある。   Here, the weighting refers to making the DCT coefficient value smaller for the high frequency component of the video signal by utilizing the property that the human visual characteristic is not very sensitive to the high frequency distortion. As a result, the number of high frequency coefficients having a value of 0 increases, and the efficiency of variable length coding can be improved. As a result, the amount of calculation of the DCT conversion may be reduced.

逆離散コサイン変換(IDCT)部55は、逆重み付け部54で逆重み付けされたビデオ信号に逆DCT(逆離散コサイン変換)を施して、DCT係数を空間領域のデータ、すなわち画素データに戻す。   An inverse discrete cosine transform (IDCT) unit 55 performs inverse DCT (inverse discrete cosine transform) on the video signal inversely weighted by the inverse weighting unit 54 to return the DCT coefficient to spatial domain data, that is, pixel data.

そして、解像度変換部56で、逆離散コサイン変換部55で画素データに戻されたビデオ信号に対して所要の解像度変換が施される。   Then, the resolution conversion unit 56 performs a required resolution conversion on the video signal converted back to the pixel data by the inverse discrete cosine conversion unit 55.

次に、離散コサイン変換(DCT)部57は、解像度変換部56により解像度変換されたビデオ信号に、離散コサイン変換(DCT)が施され、再び直交変換係数(DCT係数)に変換される。   Next, a discrete cosine transform (DCT) unit 57 performs a discrete cosine transform (DCT) on the video signal whose resolution has been converted by the resolution conversion unit 56 and converts the video signal again into an orthogonal transform coefficient (DCT coefficient).

重み付け(W)部58は、DCT係数に変換された解像度変換後のビデオ信号に重み付けを行う。この重み付けについては前述した通りである。   The weighting (W) unit 58 performs weighting on the video signal after resolution conversion converted into the DCT coefficient. This weighting is as described above.

量子化(Q)部59は、重み付け部58で重み付けされたビデオ信号を量子化する。   The quantization (Q) unit 59 quantizes the video signal weighted by the weighting unit 58.

そして、可変長符号化(VLC)部60で、量子化部59で量子化されたビデオ信号を可変長符号化して、MPEGビデオ信号として出力する。   Then, the variable length coding (VLC) unit 60 performs variable length coding on the video signal quantized by the quantization unit 59 and outputs it as an MPEG video signal.

ここで、上述した「MPEG」は、ISO/IEC JTC1/SC29( International Organization for Standardization / International Electrotechnical Commission, Joint Technical Committee 1 /Sub Committee 29:国際標準化機構/国際電気標準会議 合同技術委員会1/専門部会29)の動画圧縮符号化の検討組織(Moving Picture Image Coding Experts Group)の略称であり、MPEG1標準としてISO11172が、MPEG2標準としてISO13818がある。これらの国際標準において、マルチメディア多重化の項目でISO11172-1およびISO13818-1が、映像の項目でISO11172-2およびISO13818-2が、また音声の項目でISO11172-3およびISO13818-3が、それぞれ標準化されている。   The above-mentioned “MPEG” is ISO / IEC JTC1 / SC29 (International Organization for Standardization / International Electrotechnical Commission, Joint Technical Committee 1 / Sub Committee 29: International Organization for Standardization / International Electrotechnical Commission Joint Technical Committee 1 / Specialized This is an abbreviation for the Moving Picture Image Coding Experts Group of the group 29), which includes ISO11172 as the MPEG1 standard and ISO13818 as the MPEG2 standard. In these international standards, ISO11172-1 and ISO13818-1 for multimedia multiplexing items, ISO11172-2 and ISO13818-2 for video items, and ISO11172-3 and ISO13818-3 for audio items, respectively. It has been standardized.

画像圧縮符号化規格としてのISO11172-2またはISO13818-2においては、画像信号を、ピクチャ(フレームまたはフィールド)単位で、画像の時間および空間方向の相関を利用して圧縮符号化を行っており、空間方向の相関の利用はDCT符号化を用いることで実現している。   In ISO11172-2 or ISO13818-2 as an image compression coding standard, image signals are compressed and coded using picture time and space direction correlation in picture (frame or field) units. The use of the correlation in the spatial direction is realized by using DCT coding.

なお、このDCT等の直交変換は、この他にも、JPEG(Joint Photographic Coding Experts group) 等の種々の画像情報圧縮符号化に広く採用されている。   In addition to this, orthogonal transform such as DCT is widely used for various image information compression encoding such as JPEG (Joint Photographic Coding Experts group).

一般に直交変換は、時間領域あるいは空間領域の原信号を周波数領域等の直交変換された領域に変換することにより、圧縮効率が高く再現性に優れた圧縮符号化を可能にするものである。   In general, orthogonal transform enables compression encoding with high compression efficiency and excellent reproducibility by transforming an original signal in the time domain or space domain into a domain subjected to orthogonal transform such as a frequency domain.

また、上述した「DVフォーマット」は、ディジタルビデオ信号のデータ量を約1/5にまで圧縮して磁気テープにコンポーネント記録するためのものであり、家庭用ディジタルビデオ装置や業務用のディジタルビデオ装置の一部に用いられているものである。このDVフォーマットは、離散コサイン変換(DCT)と可変長符号化(VLC)と組み合わせることにより、ビデオ信号の効率的な圧縮を実現している。   The above-mentioned “DV format” is for compressing the data amount of the digital video signal to about 1/5 and recording the component on the magnetic tape. The home digital video device or the commercial digital video device is used. It is used for a part of. This DV format realizes efficient compression of video signals by combining discrete cosine transform (DCT) and variable length coding (VLC).

従来技術として、特許文献1〜4が知られている。   Patent documents 1 to 4 are known as conventional techniques.

特開平08−065663号公報Japanese Patent Application Laid-Open No. 08-066563 特開平09−219861号公報JP 09-219861 A 特開平05−111005号公報Japanese Patent Laid-Open No. 05-111005 特開平07−203443号公報Japanese Patent Application Laid-Open No. 07-203443

ところで、離散コサイン変換(DCT)などの直交変換およびその逆変換には、多くの計算量を要するのが通常であるため、上述したようなビデオ信号の解像度変換を効率良く行えないという問題がある。また、計算量の増加に伴って誤差が蓄積されるため、信号が劣化するという問題もある。   By the way, since orthogonal transformation such as discrete cosine transformation (DCT) and its inverse transformation usually require a large amount of calculation, there is a problem that the above-described video signal resolution conversion cannot be performed efficiently. . There is also a problem that the signal deteriorates because errors are accumulated as the amount of calculation increases.

本発明は、このような問題を解決するためになされたものであり、異なるフォーマットに変換するために解像度変換などの処理が施された信号のデータ量の算出処理量を低減することによって、解像度変換等の変換処理を効率良く行うことができ、しかも信号の劣化が少ないディジタル信号変換方法およびディジタル信号変換装置を提供することを目的とする。   The present invention has been made to solve such a problem, and by reducing the calculation processing amount of the data amount of a signal subjected to processing such as resolution conversion in order to convert to a different format, the resolution It is an object of the present invention to provide a digital signal conversion method and a digital signal conversion apparatus that can efficiently perform conversion processing such as conversion and that cause little signal deterioration.

上述したような課題を解決するために、本発明に係るディジタル信号変換方法は、第1のフォーマットのディジタル信号を、第2のフォーマットのディジタル信号に変換するディジタル信号変換方法において、上記第1のフォーマットのディジタル信号を復号する復号工程と、上記復号された第1のフォーマットのディジタル信号を上記第2のフォーマットのディジタル信号に変換する信号変換工程と、上記第2のフォーマットのディジタル信号を符号化する符号化工程と、上記復号された第1のフォーマットのディジタル信号に対する逆重み付けと上記第2のフォーマットのディジタル信号に対する重み付けとをまとめて行う重み付け処理工程とを有することを特徴とするものである。   In order to solve the above-described problems, a digital signal conversion method according to the present invention is a digital signal conversion method for converting a digital signal of a first format into a digital signal of a second format. A decoding step for decoding a digital signal in the format; a signal conversion step for converting the decoded digital signal in the first format into a digital signal in the second format; and encoding the digital signal in the second format And a weighting processing step for collectively performing inverse weighting on the decoded digital signal in the first format and weighting on the digital signal in the second format. .

また、上記の課題を解決するために提案する本発明では、第1のフォーマットのディジタル信号を、第2のフォーマットのディジタル信号に変換するディジタル信号変換装置において、上記第1のフォーマットのディジタル信号を復号する復号手段と、上記復号された第1のフォーマットのディジタル信号を上記第2のフォーマットのディジタル信号に変換する信号変換手段と、上記第2のディジタル信号を符号化する符号化手段と、上記第1のフォーマットのディジタル信号に対する逆重み付けと上記第2のフォーマットのディジタル信号に対する重み付けとをまとめて行う重み付け処理手段とを備えることを特徴とするものである。   Further, in the present invention proposed to solve the above problems, in the digital signal converter for converting the digital signal of the first format into the digital signal of the second format, the digital signal of the first format is converted. Decoding means for decoding; signal converting means for converting the decoded digital signal of the first format into a digital signal of the second format; encoding means for encoding the second digital signal; There is provided weighting processing means for collectively performing inverse weighting on the digital signal in the first format and weighting on the digital signal in the second format.

本発明によれば、入力される第1のフォーマットのディジタル信号に施されている重み付けの逆操作であるである逆重み付けと重み付けとを別々に行う場合よりも計算量が低減され、解像度変換等の変換処理を効率良く行うことができ、しかも信号の劣化が少ないディジタル信号変換処理方法およびディジタル信号変換処理装置を提供できる。   According to the present invention, the amount of calculation is reduced as compared with the case where inverse weighting and weighting, which are inverse operations of weighting applied to the input digital signal of the first format, are performed separately, resolution conversion, etc. Therefore, it is possible to provide a digital signal conversion processing method and a digital signal conversion processing apparatus that can efficiently perform the conversion process of FIG.

以下、本発明の好ましい実施の形態について、図面を参照しながら説明する。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.

なお、以下では、まず本発明に係るディジタル信号変換装置の構成について説明し、次にその構成を参照しながら本発明に係るディジタル信号変換方法について説明する。   In the following, the configuration of the digital signal conversion apparatus according to the present invention will be described first, and then the digital signal conversion method according to the present invention will be described with reference to the configuration.

図1は、本発明の第1の実施の形態となるディジタル信号変換装置の主要部の一構成例を示し、信号変換としては解像度変換を例示しているが、これに限定されず、フォーマット変換やフィルタ処理等の種々の信号変換に適用できることは勿論である。   FIG. 1 shows an example of the configuration of the main part of the digital signal converter according to the first embodiment of the present invention. The signal conversion is exemplified by resolution conversion, but the present invention is not limited to this. Of course, the present invention can be applied to various signal conversions such as filter processing and the like.

このディジタル信号変換装置は、前述したいわゆる「DVフォーマット」のビデオ信号(以下ではDV信号という。)が第1のディジタル信号として入力され、MPEG(Moving Picture Experts Group)のフォーマットに従うビデオ信号(以下ではMPEGビデオ信号という。)を第2のディジタル信号として出力するものである。   In this digital signal converter, the video signal (hereinafter referred to as DV signal) of the so-called “DV format” described above is input as the first digital signal, and the video signal (hereinafter referred to as the MPEG (Moving Picture Experts Group) format). MPEG video signal) is output as a second digital signal.

デフレーミング部11は、DVビデオ信号のフレーミングを解くためのものである。このデフレーミング部11では、所定のフォーマット(いわゆるDVフォーマット)に従ってフレーミングされているDVビデオ信号が、可変長符号に戻される。   The deframing unit 11 is for solving the framing of the DV video signal. In the deframing unit 11, a DV video signal that has been framed according to a predetermined format (so-called DV format) is returned to a variable-length code.

可変長復号(VLD)部12は、デフレーミング部11で可変長符号に戻されたビデオ信号を可変長復号する。   The variable length decoding (VLD) unit 12 performs variable length decoding on the video signal returned to the variable length code by the deframing unit 11.

逆量子化(IQ)部13は、可変長復号部12で可変長復号されたビデオ信号を逆量子化する。   The inverse quantization (IQ) unit 13 inversely quantizes the video signal variable-length decoded by the variable-length decoding unit 12.

逆重み付け(IW)部14は、逆量子化部14で逆量子化されたビデオ信号に施された重み付けの逆操作である、逆重み付けを行う。   The inverse weighting (IW) unit 14 performs inverse weighting, which is an inverse operation of weighting applied to the video signal inversely quantized by the inverse quantization unit 14.

そして、信号変換処理の一例として解像度変換を行う場合には、解像度変換部16で、逆重み付け部14で逆重み付けされたビデオ信号に対して、直交変換領域(周波数領域)で所要の解像度変換が施される。   When resolution conversion is performed as an example of signal conversion processing, the resolution conversion unit 16 performs necessary resolution conversion in the orthogonal transform region (frequency region) on the video signal inversely weighted by the inverse weighting unit 14. Applied.

重み付け(W)部18は、解像度変換後のビデオ信号に重み付けを行う。   The weighting (W) unit 18 weights the video signal after resolution conversion.

量子化(Q)部19は、重み付け部18で重み付けされたビデオ信号を量子化する。   The quantization (Q) unit 19 quantizes the video signal weighted by the weighting unit 18.

そして、可変長符号化(VLC)部20で、量子化部19で量子化されたビデオ信号を可変長符号化して、MPEGビデオ信号として出力する。   Then, the variable length coding (VLC) unit 20 performs variable length coding on the video signal quantized by the quantization unit 19 and outputs it as an MPEG video signal.

以上説明した、図1に例示の本発明に係るディジタル信号変換装置の各部の構成は、図28に例示した従来のディジタル信号変換装置の各部と同様とすることができる。   The configuration of each part of the digital signal converter according to the present invention illustrated in FIG. 1 described above can be the same as that of each part of the conventional digital signal converter illustrated in FIG.

しかし、この本発明に係るディジタル信号変換装置は、解像度変換部16の前後に逆コサイン変換(IDCT)部およびコサイン変換(DCT)部が配されていない点が従来のディジタル信号変換装置と異なっている。   However, the digital signal converter according to the present invention is different from the conventional digital signal converter in that an inverse cosine transform (IDCT) unit and a cosine transform (DCT) unit are not arranged before and after the resolution conversion unit 16. Yes.

すなわち、従来のディジタル信号変換装置は、入力される第1のフォーマットのディジタル信号の直交変換係数を逆直交変換して空間領域(周波数軸上)のデータに戻した後に所要の変換操作を行うようにされているため、再び直交変換して直交変換係数に戻す操作を行っていた。   That is, the conventional digital signal conversion apparatus performs a required conversion operation after inverse orthogonal transformation is performed on the orthogonal transformation coefficient of the input digital signal of the first format to return the data to the spatial domain (on the frequency axis). Therefore, an operation for returning to the orthogonal transformation coefficient by performing the orthogonal transformation again is performed.

これに対して、本発明に係るディジタル信号変換装置は、入力される第1のフォーマットのディジタル信号の直交変換係数に対する所要の変換操作を、直交変換係数領域(周波数領域)で行い、解像度変換等の変換処理を行うための手段の前後に逆直交変換手段および直交変換手段を備えていないことを特徴とする。   On the other hand, the digital signal conversion apparatus according to the present invention performs a required conversion operation on the orthogonal transform coefficient of the input digital signal of the first format in the orthogonal transform coefficient domain (frequency domain), and performs resolution conversion or the like. It is characterized in that the inverse orthogonal transforming means and the orthogonal transforming means are not provided before and after the means for performing the conversion process.

次に、解像度変換部16における解像度変換処理の原理について、図2および図3を用いて説明する。   Next, the principle of resolution conversion processing in the resolution conversion unit 16 will be described with reference to FIGS.

図2において、入力直交変換行列生成部1では、入力ディジタル信号5に対して予め施された直交変換を表す直交変換行列Ts(k)の逆行列Ts(k) −1を生成し、変換行列生成部3に送っている。出力直交変換行列生成部2では、出力ディジタル信号に対して施される逆直交変換を示す逆変換行列Td(L) −1に対応する直交変換行列Td(L)を生成し、変換行列生成部3に送っている。変換行列生成部3では、解像度変換等の変換処理を周波数領域で行うための変換行列Dを生成し、信号変換部4に送る。この信号変換部4は、直交変換により例えば周波数領域に変換された入力ディジタル信号5を、例えば周波数領域等の直交変換された領域のままで変換処理して、出力ディジタル信号6とするものである。 In FIG. 2, an input orthogonal transformation matrix generation unit 1 generates an inverse matrix Ts (k) −1 of an orthogonal transformation matrix Ts (k) representing an orthogonal transformation performed in advance on the input digital signal 5, and a transformation matrix. It is sent to the generation unit 3. The output orthogonal transformation matrix generation unit 2 generates an orthogonal transformation matrix Td (L) corresponding to the inverse transformation matrix Td (L) −1 indicating the inverse orthogonal transformation performed on the output digital signal, and the transformation matrix generation unit It is sent to 3. The conversion matrix generation unit 3 generates a conversion matrix D for performing conversion processing such as resolution conversion in the frequency domain, and sends it to the signal conversion unit 4. The signal conversion unit 4 converts an input digital signal 5 converted into, for example, a frequency domain by orthogonal transformation into an output digital signal 6 by converting the input digital signal 5 in a region subjected to orthogonal transformation such as a frequency domain. .

すなわち、図3に例示するように、元の時間領域(あるいは空間領域)の信号(原信号A)を、上記直交変換行列Ts(k)により例えば周波数領域に変換して周波数信号B (上記入力ディジタル信号5に相当)とし、これを上記信号変換部4により例えばN/Lに縮小(又は拡大)して周波数信号B (上記出力ディジタル信号6に相当)とし、この周波数信号B を上記逆変換行列Td(L) −1により逆直交変換して、時間領域の信号Cを得るようにしている。 That is, as illustrated in FIG. 3, the original time domain (or space domain) signal (original signal A) is transformed into, for example, the frequency domain by the orthogonal transformation matrix Ts (k) and the frequency signal B 1 (above and equivalent) to the input digital signal 5, which was a reduction, for example N / L by the signal conversion unit 4 (or enlarged) to the frequency signal B 2 (corresponding to the output digital signal 6), the frequency signal B 2 The signal C in the time domain is obtained by performing inverse orthogonal transform using the inverse transform matrix Td (L) -1 .

ここで、図3に示す例では、1次元の原信号Aを、長さkの変換ブロック毎に直交変換し、得られた周波数領域の変換ブロックの隣接するm個のブロック、すなわち長さL(=k×m)の連続する周波数信号を、長さN(ただし、N<L)の1つのブロックに変換する場合、すなわち全体をN/Lに縮小する場合を示している。   Here, in the example shown in FIG. 3, the one-dimensional original signal A is orthogonally transformed for each transform block of length k, and m blocks adjacent to the obtained transform block in the frequency domain, that is, the length L This shows a case where (= k × m) continuous frequency signals are converted into one block of length N (where N <L), that is, the whole is reduced to N / L.

以下の説明では、長さnの直交変換基底ベクトル< , ,…, >を各行に配列した行列(直交変換行列)をT(n) 、その逆変換行列をT(n) −1 のように記述する。なお、は、xのベクトル表現を示す。このとき、いずれの行列もn次の正方行列である。一例として、n=8のときの1次元DCT変換行列T(8) を、次の式(1)に示す。 In the following description, a matrix (orthogonal transformation matrix) in which orthogonal transformation basis vectors < e 1 , e 2 ,..., E n > of length n are arranged in each row is T (n) , and its inverse transformation matrix is T (n ) Write as -1 . Note that x represents a vector representation of x. At this time, all the matrices are n-order square matrices. As an example, a one-dimensional DCT transformation matrix T (8) when n = 8 is shown in the following equation (1).

Figure 2008118693
Figure 2008118693

上記図3において、既に直交変換行列Ts(k)により周波数領域に直交変換された入力ディジタル信号5について、その直交変換ブロックの大きさ、すなわち基底の長さがkであるとき、上記入力直交変換行列生成部1により逆直交変換行列Ts(k) −1を生成し、また、上記出力直交変換行列生成部2により基底の長さがL(=k×m)の直交変換行列Td(L)を生成する。 In FIG. 3, when the size of the orthogonal transform block, that is, the length of the base, is k for the input digital signal 5 that has already been orthogonally transformed into the frequency domain by the orthogonal transformation matrix Ts (k) , the input orthogonal transformation is performed. The matrix generation unit 1 generates an inverse orthogonal transformation matrix Ts (k) −1, and the output orthogonal transformation matrix generation unit 2 generates an orthogonal transformation matrix Td (L) whose base length is L (= k × m ). Is generated.

このとき、入力直交変換行列生成部1により生成される逆直交変換行列Ts(k) −1は、入力ディジタル信号5を生成する際の直交変換処理(の逆処理)に対応し、出力直交変換行列生成部2により生成される直交変換行列Td(L)は、信号変換部14で変換された出力ディジタル信号を復号する際、すなわち時間領域に変換する際の逆直交変換処理(の逆処理)に対応し、これらの直交変換行列生成部1、2共に、任意の長さの基底ベクトルを生成することができるものとする。 At this time, the inverse orthogonal transformation matrix Ts (k) −1 generated by the input orthogonal transformation matrix generation unit 1 corresponds to the orthogonal transformation processing (reverse processing) when the input digital signal 5 is generated, and the output orthogonal transformation. The orthogonal transformation matrix Td (L) generated by the matrix generation unit 2 is an inverse orthogonal transformation process when the output digital signal transformed by the signal transformation unit 14 is decoded, that is, when it is transformed into the time domain. It is assumed that both of these orthogonal transformation matrix generation units 1 and 2 can generate a base vector having an arbitrary length.

なお、これらの直交変換行列生成部1、2は、同一の直交変換行列生成部であってもよく、この場合、直交変換行列Ts(k)とTd(L)とは、基底の長さのみ異なる同一種の直交変換行列になる。直交変換行列生成部は、異なる直交変換方式毎に存在するものである。 The orthogonal transformation matrix generation units 1 and 2 may be the same orthogonal transformation matrix generation unit. In this case, the orthogonal transformation matrices Ts (k) and Td (L) are only the base lengths. Different orthogonal transformation matrices of the same type. The orthogonal transformation matrix generation unit exists for each different orthogonal transformation method.

次に、変換行列生成部3においては、入力直交変換行列生成部1により生成された上記逆直交変換行列Ts(k) −1を、次の式(2)に示すように、対角上にm個配置して、L次の正方行列Aを作成する。また、出力ディジタル信号6の基底の長さをNとするとき、上記直交変換行列Td(L)の低周波基底ベクトルN個を取り出し、N行L列から成る行列Bを作成する。 Next, in the transformation matrix generation unit 3, the inverse orthogonal transformation matrix Ts (k) −1 generated by the input orthogonal transformation matrix generation unit 1 is placed diagonally as shown in the following equation (2). An L-th order square matrix A is created by arranging m. When the base length of the output digital signal 6 is N, N low-frequency base vectors of the orthogonal transformation matrix Td (L) are extracted, and a matrix B composed of N rows and L columns is created.

Figure 2008118693
Figure 2008118693

ただし、 , ,…, は、Td(L)を以下のように基底ベクトルで表したとき、低周波のN個を取り出したものである。 Here, e 1 , e 2 ,..., E N are obtained by extracting N low-frequency components when Td (L) is represented by a basis vector as follows.

Figure 2008118693
Figure 2008118693

そして、
D=α・B・A ・・・(5)
を計算し、N行L列の行列Dを作成する。この行列Dが、上記縮小率(又は拡大率)N/Lに解像度を変換する変換行列になる。なお、αはスカラー値又はベクトル値で、レベル補正等のための係数である。
And
D = α · B · A (5)
To create a matrix D with N rows and L columns. This matrix D becomes a conversion matrix for converting the resolution to the reduction ratio (or enlargement ratio) N / L. Α is a scalar value or vector value, and is a coefficient for level correction or the like.

上記図2の信号変換部4において、図3に示すように、周波数領域の入力ディジタル信号B のブロックm個をひとまとめにし、Lの大きさのメタブロック(1メタブロック=mブロック)に分割する。入力ディジタル信号B の長さがLの倍数でない場合には、信号を補う等により、例えば0等のダミーデータを充填(スタッフィング)すること等により、Lの倍数になるようにする。このようにしてできたメタブロックをMi (i=0,1,2,・・・)とする。 Divided in the signal conversion unit 4 of FIG. 2, as shown in FIG. 3, the block m input digital signal B 1 of the frequency domain together, the L size of the metablock (1 metablock = m blocks) To do. If the length of the input digital signal B 1 is not a multiple of L, due like compensate for signal, for example, such as by the dummy data of 0 or the like filling (stuffing), to be a multiple of L. Let the metablock thus formed be Mi (i = 0, 1, 2,...).

なお、以上の解像度変換処理の原理については、本出願人が1998年6月16日に出願したPCT/JP98/02653に詳細に記載されている。   The principle of the resolution conversion processing described above is described in detail in PCT / JP98 / 02653 filed on June 16, 1998 by the present applicant.

次に、第1の実施の形態のディジタル信号変換方法について、上述したディジタル信号変換装置の構成を参照しながら説明する。   Next, the digital signal conversion method according to the first embodiment will be described with reference to the configuration of the digital signal conversion apparatus described above.

図4A〜Cは、本発明に係る実施の形態のディジタル信号変換により、DVビデオ信号がMPEGビデオ信号に変換される際の処理を模式的に示している。この処理は、図1に示した本発明に係る実施の形態のディジタル信号処理装置においては、主に解像度変換部16で行われるものである。   4A to 4C schematically show processing when a DV video signal is converted into an MPEG video signal by digital signal conversion according to the embodiment of the present invention. This processing is mainly performed by the resolution conversion unit 16 in the digital signal processing apparatus according to the embodiment of the present invention shown in FIG.

なお、以下では、1次元のDCT係数ブロックを例として用いて説明するが、2次元のDCT係数に対する処理も同様である。   In the following description, a one-dimensional DCT coefficient block will be described as an example, but the same processing applies to a two-dimensional DCT coefficient.

まず、図4Aに示すように、第1のフォーマットのディジタル信号の、各々が8つのDCT係数からなる、互いに隣接するブロック(i)およびブロック(i+1)から、それぞれの低域側のDCT係数を4つずつ取出す。すなわち、ブロック(i)の8つのDCT係数a0,a1,a2,a3,・・・,a7のうちの、低域側の4つのDCT係数a0,a1,a2,a3のみを取り出して、DCT係数の数が1/2にされた部分ブロックをつくる。同様に、ブロック(i+1)の8つのDCT係数b0,b1,b2,b3,・・・,b7のうちの、低域側の4つのDCT係数b0,b1,b2,b3のみを取り出して、DCT係数の数が1/2にされた部分ブロックをつくる。ここで、低域側のDCT係数を取り出すのは、ビデオ信号を周波数変換すると、DCおよびACの低周波数にエネルギーが集中するという性質に基づいている。   First, as shown in FIG. 4A, the low-frequency side DCT coefficients are obtained from adjacent blocks (i) and (i + 1) each composed of eight DCT coefficients of the digital signal of the first format. Take out four at a time. That is, out of the eight DCT coefficients a0, a1, a2, a3,..., A7 of the block (i), only the four DCT coefficients a0, a1, a2, a3 on the low frequency side are extracted, and the DCT coefficients A partial block in which the number of is halved is created. Similarly, out of the eight DCT coefficients b0, b1, b2, b3,..., B7 of the block (i + 1), only the four low-frequency DCT coefficients b0, b1, b2, b3 are extracted, and the DCT A partial block in which the number of coefficients is halved is created. Here, the DCT coefficient on the low frequency side is extracted based on the property that when the video signal is frequency-converted, the energy is concentrated on the low frequency of DC and AC.

そして、各々が4つのDCT係数からなる上記の各部分ブロックに対して、それぞれ4ポイントの逆離散コサイン変換(4-point IDCT)を施して、縮小された画素データを得る。これらを、図4Bの画素データp0,p1,p2,p3、及び画素データp4,p5,p6,p7としてそれぞれ示す。   Then, each of the partial blocks each including four DCT coefficients is subjected to 4-point inverse discrete cosine transform (4-point IDCT) to obtain reduced pixel data. These are shown as pixel data p0, p1, p2, p3 and pixel data p4, p5, p6, p7 in FIG. 4B, respectively.

次に、それぞれ逆離散コサイン変換が施された上記の縮小された画素データからなる各部分ブロックどうしを結合して、元のブロックと同じ大きさのブロックを生成する。すなわち、画素データp0,p1,p2,p3と、画素データp4,p5,p6,p7とを結合して、8つの画素データからなる新たなブロックを生成する。   Next, the partial blocks composed of the reduced pixel data that have been subjected to inverse discrete cosine transform are combined to generate a block having the same size as the original block. That is, the pixel data p0, p1, p2, and p3 and the pixel data p4, p5, p6, and p7 are combined to generate a new block of eight pixel data.

そして、上記の8つの画素データからなる新たなブロックに、8ポイントの離散コサイン変換(8-point DCT) を施し、図4Cに示すように、8つのDCT係数c0,c1,c2,c3,・・・,c7からなる1つのブロック(j)を生成する。   Then, an 8-point discrete cosine transform (8-point DCT) is applied to the new block consisting of the above eight pixel data, and as shown in FIG. 4C, eight DCT coefficients c0, c1, c2, c3,. .., One block (j) consisting of c7 is generated.

以上のような手順により、所定のブロック単位あたりの直交変換係数(DCT係数)の数を半分に間引きして、解像度が異なるフォーマットのビデオ信号に変換することができる。また例えばDCT係数の数を1/4に間引きたい時には、上述の処理を連続して2回行なうことで実現できる。   According to the procedure as described above, the number of orthogonal transform coefficients (DCT coefficients) per predetermined block unit can be reduced to half and converted into video signals of different formats. For example, when it is desired to thin out the number of DCT coefficients to ¼, it can be realized by performing the above-described process twice.

上記の解像度変換処理は、例えば、DVフォーマットからMPEG1フォーマットに変換する際に適用することができる。   The resolution conversion process described above can be applied, for example, when converting from the DV format to the MPEG1 format.

ここで、図5を参照しながら、DVフォーマットとMPEGフォーマットとの関係、及びこれらの間のフォーマット変換について説明する。   Here, the relationship between the DV format and the MPEG format and the format conversion between them will be described with reference to FIG.

つまり、図5に示すようにビデオ信号がNTSC方式である場合には、DVフォーマットは、解像度が720画素×480画素,輝度信号のサンプリング周波数と2つの色差信号のサンプリング周波数の比が4:1:1の圧縮ビデオ信号であり、MPEG1フォーマットは、解像度が360画素×240画素,輝度信号のサンプリング周波数と2つの色差信号のサンプリング周波数との比が4:2:0の圧縮ビデオ信号である。従って、この場合には、上述した本発明に係る解像度変換処理により、輝度(Y)信号の水平・垂直方向のDCT係数の数を1/2に、また色差(C)信号の垂直方向のDCT係数の数を、それぞれ1/4にすればよい。   That is, as shown in FIG. 5, when the video signal is in the NTSC format, the DV format has a resolution of 720 pixels × 480 pixels, and the ratio of the sampling frequency of the luminance signal and the sampling frequency of the two color difference signals is 4: 1. The MPEG1 format is a compressed video signal having a resolution of 360 pixels × 240 pixels and a ratio of the sampling frequency of the luminance signal and the sampling frequency of the two color difference signals to 4: 2: 0. Therefore, in this case, the number of DCT coefficients in the horizontal and vertical directions of the luminance (Y) signal is halved and the DCT in the vertical direction of the color difference (C) signal is obtained by the resolution conversion processing according to the present invention described above. The number of coefficients may be reduced to ¼.

なお、4:2:0は、奇数ラインと偶数ラインとが、交互に4:2:0と4:0:2とになるため、一方の値を代表させて表している。   Note that 4: 2: 0 is represented by representing one value because the odd lines and the even lines are alternately 4: 2: 0 and 4: 0: 2.

また、ビデオ信号がPAL方式である場合には、DVフォーマットは、解像度が720画素×576画素,輝度信号のサンプリング周波数と2つの色差信号のサンプリング周波数との比が4:2:0の圧縮ビデオ信号であり、MPEG1フォーマットは、解像度が360画素×288画素,輝度信号のサンプリング周波数と2つの色差信号のサンプリング周波数との比が4:2:0の圧縮ビデオ信号である。従って、この場合には、上述した本発明に係る解像度変換処理により、Y信号の水平・垂直方向のDCT係数の数をそれぞれ1/2に、またC信号の水平・垂直方向のDCT係数の数をそれぞれ1/2にすればよい。   When the video signal is in the PAL format, the DV format is a compressed video in which the resolution is 720 pixels × 576 pixels and the ratio between the sampling frequency of the luminance signal and the sampling frequency of the two color difference signals is 4: 2: 0. The MPEG1 format is a compressed video signal having a resolution of 360 pixels × 288 pixels and a ratio of the sampling frequency of the luminance signal and the sampling frequency of the two color difference signals to 4: 2: 0. Therefore, in this case, the number of DCT coefficients in the horizontal and vertical directions of the Y signal is halved and the number of DCT coefficients in the horizontal and vertical directions of the C signal is obtained by the resolution conversion processing according to the present invention described above. Can be halved.

また、上記の解像度変換処理は、例えば、DVフォーマットからMPEG2フォーマットに変換する際にも同様に適用することができる。   Further, the resolution conversion process described above can be applied in the same manner, for example, when converting from the DV format to the MPEG2 format.

ビデオ信号がNTSC方式である場合には、MPEG2フォーマットは、解像度が720画素×480画素,輝度信号のサンプリング周波数と2つの色差信号のサンプリング周波数との比が4:2:0の圧縮ビデオ信号である。従って、この場合には、Y信号に対しては変換処理を行わず、C信号の垂直方向のDCT係数の数を1/2に、またC信号の水平方向のDCT係数の数を2倍にすればよい。なお、この拡大の方法については後述する。   When the video signal is in the NTSC format, the MPEG2 format is a compressed video signal with a resolution of 720 pixels × 480 pixels and a ratio between the sampling frequency of the luminance signal and the sampling frequency of the two color difference signals of 4: 2: 0. is there. Therefore, in this case, conversion processing is not performed on the Y signal, the number of DCT coefficients in the vertical direction of the C signal is halved, and the number of DCT coefficients in the horizontal direction of the C signal is doubled. do it. This enlargement method will be described later.

また、ビデオ信号がPAL方式である場合には、MPEG2フォーマットは、解像度が720画素×576画素,輝度信号のサンプリング周波数と2つの色差信号のサンプリング周波数との比が4:2:0の圧縮ビデオ信号である。従って、この場合には、Y信号およびC信号のいずれに対しても変換処理を行う必要がない。   When the video signal is in the PAL format, the MPEG2 format is a compressed video with a resolution of 720 pixels × 576 pixels and a ratio between the sampling frequency of the luminance signal and the sampling frequency of the two color difference signals of 4: 2: 0. Signal. Therefore, in this case, it is not necessary to perform conversion processing for both the Y signal and the C signal.

図6は、以上説明した解像度変換処理のための基本的な計算手順を表している。   FIG. 6 shows a basic calculation procedure for the resolution conversion process described above.

すなわち、入力される第1のフォーマットのディジタル信号の互いに隣接する2つのブロックからそれぞれ取り出された4つのDCT係数a0,a1,a2,a3と4つのDCT係数b0,b1,b2,b3とを連結して作成された、8つのDCT係数からなるブロックに、各々が(4×4)行列として与えられる2つの逆離散コサイン変換行列(IDCT4)を対角に含み、他の成分が0である(8×8)行列が乗じられる。   That is, the four DCT coefficients a0, a1, a2, a3 and the four DCT coefficients b0, b1, b2, b3 respectively extracted from two adjacent blocks of the input digital signal of the first format are connected. The block consisting of eight DCT coefficients created in this way includes two inverse discrete cosine transform matrices (IDCT4) each given as a (4 × 4) matrix on the diagonal, and the other components are zero ( An 8 × 8) matrix is multiplied.

そして、これらの積には、さらに(8×8)行列として与えられる離散コサイン変換行列(DCT8)が乗じられ、8つのDCT係数c0,c1,c2,c3,..,c7からなる新たなブロックが得られる。   These products are further multiplied by a discrete cosine transform matrix (DCT8) given as an (8 × 8) matrix, and eight DCT coefficients c0, c1, c2, c3,. . , C7, a new block is obtained.

ここで、本発明に係るディジタル信号変換方法においては、解像度変換処理をDCT領域(周波数領域)で行うようにしたため、その前後の逆DCTおよびDCTが不要になったことに加え、上記の2つの(4×4)逆離散コサイン変換行列(DCT4)を対角に含む(8×8)行列と、上記の(8×8)の離散コサイン変換行列との積を、変換行列Dとして予め求めておくことにより、演算量を効果的に低減することができる。   Here, in the digital signal conversion method according to the present invention, since the resolution conversion processing is performed in the DCT domain (frequency domain), the inverse DCT and DCT before and after that are no longer necessary, and the above two A product of an (8 × 8) matrix diagonally including a (4 × 4) inverse discrete cosine transform matrix (DCT4) and the above-described (8 × 8) discrete cosine transform matrix is obtained in advance as a transform matrix D. Therefore, the amount of calculation can be effectively reduced.

次に、前述した第1のフォーマットのディジタル信号であるDVビデオ信号を、第2のフォーマットのディジタル信号であるMPEG1ビデオ信号に変換する場合の処理について、さらに詳細に説明する。   Next, a process for converting the above-described DV video signal, which is a digital signal of the first format, into an MPEG1 video signal, which is a digital signal of the second format, will be described in more detail.

上記のDVフォーマットには、画像の動き検出結果に応じて切り換えられる「静止モード」と「動きモード」とがある。これらのモードは、例えば、ビデオセグメント内の各(8×8)行列のDCTの前に、動き検出により判別され、その結果に応じてどちらか一方のモードでDCTが行われる。上記の動き検出には種々の方法が考えられ、具体的には、フィールド間の差分の絶対値の和を所定のしきい値と比較する方法などがある。   The DV format includes a “still mode” and a “motion mode” that can be switched in accordance with the image motion detection result. These modes are discriminated by motion detection before DCT of each (8 × 8) matrix in the video segment, for example, and DCT is performed in one of the modes according to the result. Various methods are conceivable for the motion detection described above, and specifically, there is a method of comparing the sum of absolute values of differences between fields with a predetermined threshold.

「静止モード」は、DVフォーマットの基本モードとされ、ブロック内の(8×8)画素に対して(8×8)DCTが施される。   The “still mode” is a basic mode of the DV format, and (8 × 8) DCT is performed on (8 × 8) pixels in the block.

なお、上記の(8×8)ブロックは、1個のDC成分と63個のAC成分から構成される。   The (8 × 8) block is composed of one DC component and 63 AC components.

また、「動きモード」は、被写体が動いているときなどにDCTすると、インターレース走査のためにエネルギが分散して圧縮効率が低下してしまうことを避けるために用いられる。この動きモードでは、(8×8)ブロックを、第1フィールドの(4×8)ブロックと第2フィールドの(4×8)ブロックとに分割し、各(4×8)ブロックの画素データに対して(4×8)DCTを施すことにより、垂直方向の高周波成分の増加を抑えて圧縮率の低下を防ぐことができる。   Further, the “motion mode” is used in order to avoid a reduction in compression efficiency due to energy dispersion due to interlace scanning when DCT is performed while the subject is moving. In this motion mode, the (8 × 8) block is divided into a (4 × 8) block in the first field and a (4 × 8) block in the second field, and the pixel data of each (4 × 8) block. On the other hand, by applying (4 × 8) DCT, it is possible to suppress an increase in high-frequency components in the vertical direction and prevent a reduction in compression rate.

なお、上記の各(4×8)ブロックは、1個のDCの成分と31個のAC成分から構成される。   Each (4 × 8) block is composed of one DC component and 31 AC components.

このように、DVフォーマットにおいては、静止モードと動きモードとで、ブロックの構成が異なるため、以降の処理を同様に行えるようにするために、動きモードのブロックに対しては、各(4×8)のDCT後、各ブロックの同じ次数の係数どうしで和および差を求めて(8×8)ブロックを構成する。この処理により、動きモードのブロックも、静止モードのブロックと同様に1個のDC成分と63個のAC成分から構成されているようにみなすことができる。   As described above, in the DV format, the block configuration differs between the still mode and the motion mode. Therefore, in order to perform the subsequent processing in the same manner, each block (4 × After the DCT of 8), the sum and difference are obtained between the coefficients of the same order in each block to form an (8 × 8) block. By this processing, the motion mode block can be regarded as being composed of one DC component and 63 AC components, similarly to the still mode block.

ところで、DVフォーマットのビデオ信号をMPEG1フォーマットのビデオ信号に変換する際には、MPEG1フォーマットには30フレーム/秒のビデオ信号しか扱わなく、フィールドの概念がないため、一方のフィールドのみを分離する必要がある。   By the way, when converting a DV format video signal to an MPEG1 format video signal, the MPEG1 format only handles a video signal of 30 frames / second, and there is no concept of a field, so it is necessary to separate only one field. There is.

図7Aは、DVフォーマットの「動きモード(2×4×8DCTモード)」によるDCT係数をMPEG1フォーマットのDCT係数に変換する際に、フィールドを分離する処理を模式的に示している。   FIG. 7A schematically shows a process of separating fields when converting a DCT coefficient in the “motion mode (2 × 4 × 8 DCT mode)” in the DV format into a DCT coefficient in the MPEG1 format.

(8×8)のDCT係数ブロック31の上半分の(4×8)ブロック31aは第1フィールドの係数と第2フィールドの係数との和(A+B)であり、上記(8×8)のDCT係数ブロック31の下半分の(4×8)ブロック31bは上記2つのフィールドの各係数の差(A−B)である。   The upper (4 × 8) block 31a in the upper half of the (8 × 8) DCT coefficient block 31 is the sum (A + B) of the first field coefficient and the second field coefficient, and the above (8 × 8) DCT. The lower half (4 × 8) block 31b of the coefficient block 31 is a difference (A−B) between the coefficients of the two fields.

従って、(8×8)のDCT係数ブロック31の上半分の(4×8)ブロック31aと下半分の(4×8)ブロック31bとを加算して、その和を1/2にすれば、第1フィールド(A)のDCT係数のみからなる(4×8)ブロック35aを得ることができる。同様に(4×8)ブロック31aと下半分の(4×8)ブロック31bとを減算して、その差を1/2にすれば、第2フィールド(B)の離散コサイン係数のみからなる(4×8)ブロック35bを得ることができる。すなわち、上記の処理により、フィールドが分離された(8×8)ブロック35を得ることができる。   Therefore, by adding the upper half (4 × 8) block 31a and the lower half (4 × 8) block 31b of the (8 × 8) DCT coefficient block 31, the sum is halved. A (4 × 8) block 35a consisting only of DCT coefficients of the first field (A) can be obtained. Similarly, if the (4 × 8) block 31a and the lower half (4 × 8) block 31b are subtracted and the difference is halved, only the discrete cosine coefficient of the second field (B) is formed ( A 4 × 8) block 35b can be obtained. That is, by the above processing, an (8 × 8) block 35 in which fields are separated can be obtained.

そして、これらのいずれか一方のフィールド、例えば第1フィールドのDCT係数に対して、前述した解像度変換処理が施される。   Then, the above-described resolution conversion processing is performed on any one of these fields, for example, the DCT coefficient of the first field.

図7Bは、「静止モード(8×8DCTモード)」でフィールドを分離する処理を模式的に示している。   FIG. 7B schematically shows processing for separating fields in the “still mode (8 × 8 DCT mode)”.

(8×8)のDCT係数ブロック32は、第1フィールド(A)のDCT係数と第2フィールド(B)のDCT係数が混合されている。そこで、これを以下に述べる処理でフィールド分離して、第1フィールド(A)のみからなる(4×8)ブロック35aを得ることができ、同様に(4×8)ブロック31aと下半分の(4×8)ブロック31bとを減算すれば第2フィールド(B)のみからなる(4×8)ブロック35bを得るための変換処理を行う必要がある。   In the (8 × 8) DCT coefficient block 32, the DCT coefficient of the first field (A) and the DCT coefficient of the second field (B) are mixed. Therefore, this can be field-separated by the processing described below to obtain a (4 × 8) block 35a consisting only of the first field (A). Similarly, the (4 × 8) block 31a and the lower half ( If the 4 × 8) block 31b is subtracted, it is necessary to perform a conversion process to obtain a (4 × 8) block 35b consisting only of the second field (B).

図8は、「静止モード」におけるフィールド分離処理の手順を表している。   FIG. 8 shows the procedure of the field separation process in the “still mode”.

まず、8つのDCT係数d0,d1,d2,d3,・・・,d7からなる入力に8次の逆離散コサイン変換行列(IDCT8)が乗じられて、画素データに戻される。   First, an input composed of eight DCT coefficients d0, d1, d2, d3,..., D7 is multiplied by an eighth-order inverse discrete cosine transform matrix (IDCT8), and returned to pixel data.

次に、フィールド分離のための(8×8)行列が乗じられることにより、(8×8)ブロックの上下が、それぞれ(4×8)ブロックの第1フィールドおよび第2フィールドに分けられる。   Next, by multiplying the (8 × 8) matrix for field separation, the upper and lower sides of the (8 × 8) block are divided into the first field and the second field of the (4 × 8) block, respectively.

そして、各々が(4×4)行列として与えられる2つの離散コサイン変換行列(DCT4)を対角に含む(8×8)行列がさらに乗じられる。   Then, an (8 × 8) matrix diagonally including two discrete cosine transform matrices (DCT4) each given as a (4 × 4) matrix is further multiplied.

これにより、第1フィールドの4つのDCT係数e0,e1,e2,e3と、第2フィールドの4つのDCT係数f0,f1,f2,f3とからなる、8つのDCT係数が得られる。   As a result, eight DCT coefficients including four DCT coefficients e0, e1, e2, e3 in the first field and four DCT coefficients f0, f1, f2, f3 in the second field are obtained.

そして、これらのいずれか一方のフィールド、例えば第1フィールドのDCT係数に対して、前述した解像度変換処理が施される。   Then, the above-described resolution conversion processing is performed on any one of these fields, for example, the DCT coefficient of the first field.

ここで、本発明に係るディジタル信号変換方法においては、解像度変換をDCT領域(周波数領域)で行うようにしたため、その前後の逆DCTおよびDCTが不要になったことに加え、図6の2つの(4×4)逆離散コサイン変換行列(IDCT4)を対角に含む(8×8)行列と、上記の(8×8)の離散コサイン変換行列との積を予め求めておくことにより、計算量を効果的に低減することができる。   Here, in the digital signal conversion method according to the present invention, since the resolution conversion is performed in the DCT domain (frequency domain), the inverse DCT and DCT before and after that become unnecessary, and in addition, By calculating in advance a product of an (8 × 8) matrix diagonally including the (4 × 4) inverse discrete cosine transform matrix (IDCT4) and the above (8 × 8) discrete cosine transform matrix. The amount can be effectively reduced.

以上説明した解像度変換処理は画像を縮小する場合についてであり、以下では画像を拡大する場合の解像度変換処理について、第2の実施の形態として説明する。   The resolution conversion process described above is for the case of reducing an image, and hereinafter, the resolution conversion process for the case of enlarging an image will be described as a second embodiment.

図9A〜Cは、本発明に係るディジタル信号変換方法により、DVビデオ信号がMPEG2ビデオ信号に変換される際の様子を模式的に示している。   9A to 9C schematically show a state in which a DV video signal is converted into an MPEG2 video signal by the digital signal conversion method according to the present invention.

なお、以下の説明においても、1次元のDCT係数を例として説明するが、2次元のDCT係数についても同様に処理することができる。   In the following description, a one-dimensional DCT coefficient will be described as an example, but a two-dimensional DCT coefficient can be similarly processed.

まず、図9Aに示す8つの直交係数(DCT係数g0〜g7)からなるブロック(u)に対して、8ポイントの逆離散コサイン変換(8-point IDCT)を施して、8つの画素データ(h0〜h7)に戻す。   First, an 8-point inverse discrete cosine transform (8-point IDCT) is performed on a block (u) composed of eight orthogonal coefficients (DCT coefficients g0 to g7) shown in FIG. 9A to obtain eight pixel data (h0). Return to ~ h7).

次に、8つの画素データからなるブロックを2分割して、それぞれ4つの画素データからなる2つの部分ブロックを生成する。   Next, a block composed of 8 pixel data is divided into two, and two partial blocks each composed of 4 pixel data are generated.

次に、各々が4つのDCT係数からなる上記2つの部分ブロックに対して、それぞれ4ポイントのDCT(4-point DCT)を施して、各々が4つのDCT係数からなる2つの部分ブロック(i0〜i3及びj0〜j3)を生成する。   Next, a 4-point DCT (4-point DCT) is applied to the two partial blocks each consisting of four DCT coefficients, and two partial blocks (i0 to i0) each consisting of four DCT coefficients. i3 and j0-j3) are generated.

そして、図9Cに示すように、上記4つの画素データからなる2つの部分ブロックの各々に対して、その高域側に4つのDCT係数として0を詰めて、各々が8つのDCT係数からなるブロック(v)およびブロック(v+1)を生成する。   Then, as shown in FIG. 9C, each of the two partial blocks composed of the four pixel data is filled with 0 as four DCT coefficients on the high frequency side, and each of the blocks is composed of eight DCT coefficients. Generate (v) and block (v + 1).

以上のような手順により、フォーマットが互いに異なる圧縮ビデオ信号の間での解像度変換が、直交変換領域で行われる。   With the above procedure, resolution conversion between compressed video signals having different formats is performed in the orthogonal transform region.

図10は、このときの変換処理の手順を表している。   FIG. 10 shows the procedure of the conversion process at this time.

まず、8つのDCT係数g0,g1,g2,g3,・・・,g7からなる入力に8次の逆離散コサイン変換(IDCT)行列が乗じられて、8つの画素データに戻される。   First, an input composed of eight DCT coefficients g0, g1, g2, g3,..., G7 is multiplied by an eighth-order inverse discrete cosine transform (IDCT) matrix, and returned to eight pixel data.

次に、8つの画素データからなるブロックを2分割して、それぞれ4つの画素データからなる2つの部分ブロックを生成する。   Next, a block composed of 8 pixel data is divided into two, and two partial blocks each composed of 4 pixel data are generated.

次に、各々が4つのDCT係数からなる上記2つの部分ブロックそれぞれに対して、(4×4)行列として与えられる4ポイントの離散コサイン変換行列と(4×4)行列として与えられる0行列を上下に含む(4×8)行列を乗じることにより、8つのDCT係数を含んだ2つの部分ブロック(i0〜i7及びj0〜j7)が生成される。   Next, for each of the two partial blocks each consisting of four DCT coefficients, a 4-point discrete cosine transform matrix given as a (4 × 4) matrix and a 0 matrix given as a (4 × 4) matrix are By multiplying the upper and lower (4 × 8) matrices, two partial blocks (i0 to i7 and j0 to j7) including eight DCT coefficients are generated.

このように処理することにより、1つのブロックから2つのブロックのDCT係数が得られるので、解像度を周波数領域で拡大することができる。   By processing in this way, DCT coefficients of two blocks can be obtained from one block, so that the resolution can be expanded in the frequency domain.

なお、NTSCの場合、DVフォーマットをMPEG2フォーマットに変換するには、図5に示すように輝度信号Yの水平・垂直方向には変換を行なう必要はなく、色差信号Cの水平方向には2倍に拡大し、色差信号Cの垂直方向には1/2に縮小する必要がある。従って、上述の拡大処理は、DVフォーマットからMPEG2のフォーマットに変換する際の、色差信号Cの水平方向の解像度変換に用いられることになる。   In the case of NTSC, in order to convert the DV format to the MPEG2 format, it is not necessary to convert the luminance signal Y in the horizontal and vertical directions as shown in FIG. In the vertical direction of the color difference signal C, it is necessary to reduce it to ½. Therefore, the enlargement process described above is used for converting the resolution of the color difference signal C in the horizontal direction when converting from the DV format to the MPEG2 format.

図11は、本発明の第3の実施の形態に係るディジタル信号変換装置の主要部の一構成例を示している。なお、上述の第1の実施の形態と同じ構成には同じリファレンス番号を付けてある。図1と異なるところは、重み付け部18と逆重み付け部14が重み付け処理部21にまとめられているところである。   FIG. 11 shows an example of the configuration of the main part of a digital signal conversion apparatus according to the third embodiment of the present invention. The same reference numbers are assigned to the same components as those in the first embodiment. The difference from FIG. 1 is that the weighting unit 18 and the inverse weighting unit 14 are combined into a weighting processing unit 21.

つまり重み付け処理(IW*W)部21は、入力される第1のフォーマットのディジタル信号であるDVビデオ信号に施されている重み付けの逆操作である逆重み付けと、出力される第2のフォーマットのディジタル信号であるMPEGビデオ信号のための重み付けとを、併せて行う。   In other words, the weighting processing (IW * W) unit 21 performs inverse weighting, which is a reverse operation of weighting applied to the DV video signal, which is an input digital signal of the first format, and the second format of the output second format. Weighting for the MPEG video signal which is a digital signal is also performed.

このような構成によれば、入力される第1のフォーマットのビデオ信号に対する逆重み付け処理と、出力される第2のフォーマットのビデオ信号に対する重み付け処理とを併せて行うことができるため、上記の逆重み付け処理と重み付け処理とを別々に行う場合よりも計算量を低減することができる。   According to such a configuration, the inverse weighting process for the input video signal of the first format and the weighting process for the output video signal of the second format can be performed together. The amount of calculation can be reduced as compared with the case where the weighting process and the weighting process are performed separately.

なお、図11に例示した第3の実施の形態におけるディジタル信号変換装置では、重み付け処理部21が解像度変換部16の後段に配されているが、重み付け処理部を解像度変換部16の前段に配するようにしてもよい。   In the digital signal conversion apparatus according to the third embodiment illustrated in FIG. 11, the weighting processing unit 21 is arranged after the resolution conversion unit 16, but the weighting processing unit is arranged before the resolution conversion unit 16. You may make it do.

図12は、このような、重み付け処理部22が解像度変換部16の前段に配された、本発明の第4の実施の形態におけるディジタル信号変換装置を示している。この図に示すディジタル信号処理装置の各部の構成も、図11に示したディジタル信号変換装置の各部と同様とすることができる。   FIG. 12 shows a digital signal conversion apparatus according to the fourth embodiment of the present invention, in which the weighting processing unit 22 is arranged in front of the resolution conversion unit 16. The configuration of each part of the digital signal processing apparatus shown in this figure can be the same as that of each part of the digital signal conversion apparatus shown in FIG.

ここで、第1のフォーマットのディジタル信号に対する逆重み付けと、第2のディジタル信号に対する重み付けとを併せて行う重み付け処理や、上記の重み付け処理を離散コサイン変換(DCT)などの直交変換の前後いずれでも行うことができるのは、これらの演算操作が線形操作であることに基づいている。   Here, the weighting process in which the inverse weighting for the digital signal of the first format and the weighting for the second digital signal are combined, and the above weighting process is performed before or after the orthogonal transformation such as discrete cosine transform (DCT). What can be done is that these arithmetic operations are linear operations.

以下、本発明に係る第5の実施の形態におけるディジタル信号変換方法及び装置の実施の形態について図13を参照しながら説明する。   Hereinafter, an embodiment of a digital signal conversion method and apparatus according to a fifth embodiment of the present invention will be described with reference to FIG.

このディジタルビデオ信号変換装置は、図13に示すように、上記DVビデオ信号を復号する復号部8と、この復号部8からの復号出力にフォーマット変換のための解像度変換処理を施す解像度変換部16と、この解像度変換部16からの変換出力の所定ブロック単位毎に順方向フレーム間差分符号化を施すか否かを上記動きモード/静止モード情報に応じて判断する判断部7と、この判断部7からの判断結果に基づいて上記解像度変換部16からの変換出力を符号化して上記MPEGビデオ信号を出力する符号化部9とを備えてなる。   As shown in FIG. 13, the digital video signal conversion apparatus includes a decoding unit 8 that decodes the DV video signal, and a resolution conversion unit 16 that performs resolution conversion processing for format conversion on the decoded output from the decoding unit 8. A determination unit 7 that determines whether or not to perform forward interframe differential encoding for each predetermined block unit of the conversion output from the resolution conversion unit 16 according to the motion mode / still mode information, and the determination unit 7 is provided with an encoding unit 9 that encodes the conversion output from the resolution conversion unit 16 based on the determination result from 7 and outputs the MPEG video signal.

なお、以下では、これらの各部により構成されるディジタルビデオ信号変換装置について述べるが、各構成部が本発明に係るディジタル信号変換方法の各工程の処理を実施するのはもちろんである。   In the following, a digital video signal conversion apparatus constituted by each of these units will be described. Of course, each component performs processing of each step of the digital signal conversion method according to the present invention.

このディジタルビデオ信号変換装置に入力されるDVビデオ信号には、上記静止モード/動きモードを示す情報であるモードフラグ(例えば1ビット)が各DCTブロックに予め付加されている。   In the DV video signal input to the digital video signal converter, a mode flag (for example, 1 bit) which is information indicating the still mode / motion mode is added in advance to each DCT block.

このディジタルビデオ信号変換装置では、このモードフラグを基に判断部7が解像度変換部16からの変換出力の所定ブロック単位毎に順方向フレーム間差分符号化を施すか否かを判断する。この動作についての詳細は後述する。   In this digital video signal conversion apparatus, based on the mode flag, the determination unit 7 determines whether or not to perform forward interframe difference encoding for each predetermined block unit of the conversion output from the resolution conversion unit 16. Details of this operation will be described later.

デフレーミング部11は、上記静止モード/動きモードを示すモードフラグを抽出し、判断部7に供給する。   The deframing unit 11 extracts a mode flag indicating the still mode / motion mode and supplies the mode flag to the determination unit 7.

デシャフリング部15は、DV符号化側で固定長化の単位であるビデオセグメント内の情報量を均一化するために行われたシャフリングを解く。   The deshuffling unit 15 solves the shuffling performed in order to equalize the amount of information in the video segment which is a unit of fixed length on the DV encoding side.

判断部7は、加算器27と、I(Iピクチャ)/P(Pピクチャ)判断部&決定部28とからなる。加算器27は、後述するフレームメモリ(FM)部24に格納された参照用のDCT係数を負として上記解像度変換出力に加算する。加算器27からの加算出力が供給されるI/P判断&決定部28には、デフレーミング部11からの上記静止モード/動きモードを示すモードフラグも供給される。   The determination unit 7 includes an adder 27 and an I (I picture) / P (P picture) determination unit & determination unit 28. The adder 27 adds a reference DCT coefficient stored in a later-described frame memory (FM) unit 24 as a negative value to the resolution conversion output. A mode flag indicating the still mode / motion mode from the deframing unit 11 is also supplied to the I / P determination & determination unit 28 to which the addition output from the adder 27 is supplied.

このI/P判断&決定部28の動作の詳細について説明する。解像度変換部16からの変換出力は、8×8個のDCT係数を単位としている。この8×8個のDCT係数ブロックを輝度信号には4つ、色差信号には2つ配分し、計6つのDCT係数ブロックから一つの上記所定ブロックを構成している。この所定ブロックをマクロブロックと呼ぶことにする。   Details of the operation of the I / P determination & determination unit 28 will be described. The conversion output from the resolution conversion unit 16 is in units of 8 × 8 DCT coefficients. The 8 × 8 DCT coefficient blocks are divided into four for the luminance signal and two for the chrominance signal, and a total of six DCT coefficient blocks constitute one predetermined block. This predetermined block is called a macro block.

ところで、Pピクチャは単純に前のフレームとの差分をとることを前提としている。静止画の場合は差分をとると情報量は減るが、逆に動いている画の場合、差分をとると情報量は増えてしまう。このため、上記静止モード/動きモードを示すモードフラグを見て、動いていると判断すれば、情報量が増えるので、上記マクロブロックをIピクチャのままとし、静止していると判断すれば差分を採ってPピクチャとすれば効率の良い符号化ができる。   By the way, it is assumed that the P picture simply takes a difference from the previous frame. In the case of a still image, if the difference is taken, the amount of information decreases. On the other hand, in the case of a moving image, if the difference is taken, the amount of information increases. For this reason, if the mode flag indicating the still mode / motion mode is viewed and it is determined that it is moving, the amount of information increases. Efficient coding can be performed by adopting P as a P picture.

I/P判断&決定部28は、例えば上記6つのDCT係数ブロックについて上記デフレーミングから送られてくるモードフラグが全て上記動きモードを示すときには、上記マクロブロックについてはIピクチャにする。また、例えば上記6つのDCTブロック中で1つだけしか動きモードを示すフラグを検出することができなかったときには、上記マクロブロックについてはPピクチャにする。   For example, when all the mode flags sent from the deframing for the six DCT coefficient blocks indicate the motion mode, the I / P determination & determination unit 28 sets the macro block as an I picture. Further, for example, when only one flag indicating the motion mode can be detected in the six DCT blocks, the macro block is set as a P picture.

また、上記6つのDCTブロック中、4つ以上のDCTブロックに動きフラグが付加されていればマクロブロックとしてはIピクチャにしてもよい。また、6つのDCTブロック中、全てに静止モードを示すフラグが付加されているときにマクロブロックをPピクチャにするようにしてもよい。   Further, if a motion flag is added to four or more DCT blocks among the six DCT blocks, the macro block may be an I picture. Further, the macroblock may be a P picture when flags indicating the still mode are added to all of the six DCT blocks.

このI/P判断&決定部28でI/Pピクチャと決定されたマクロブロック単位の各DCT係数は、符号化部9に供給される。   Each DCT coefficient in units of macroblocks determined as an I / P picture by the I / P determination & determination unit 28 is supplied to the encoding unit 9.

符号化部9は、重み付け(W)部18と、量子化(Q)部19と、逆量子化(IQ)部26と、逆重み付け(IW)部25と、FM部24と、可変長符号化(VLC)部20と、バッファメモリ23と、レート制御部29とを備えてなる。   The encoding unit 9 includes a weighting (W) unit 18, a quantization (Q) unit 19, an inverse quantization (IQ) unit 26, an inverse weighting (IW) unit 25, an FM unit 24, and a variable length code. (VLC) unit 20, buffer memory 23, and rate control unit 29.

重み付け(W)部18は、判断部7を介した上記変換部16からの変換出力であるDCT係数に重み付けを行う。   The weighting (W) unit 18 weights the DCT coefficient that is the conversion output from the conversion unit 16 via the determination unit 7.

量子化(Q)部19は、重み付け(W)部18で重み付けされたDCT係数を量子化する。そして、可変長符号化(VLC)部20で、量子化部19で量子化されたDCT係数を可変長符号化してMPEG符号化データとしてバッファメモリ23に供給する。   The quantization (Q) unit 19 quantizes the DCT coefficients weighted by the weighting (W) unit 18. Then, the variable length coding (VLC) unit 20 performs variable length coding on the DCT coefficient quantized by the quantization unit 19 and supplies it to the buffer memory 23 as MPEG encoded data.

バッファメモリ23は、上記MPEG符号化データの転送速度を一定にし、ビットストリームとして出力する。レート制御部29は、バッファメモリ23におけるバッファ容量の増減の変化情報により量子化(Q)部19における情報発生量の増減、すなわち量子化ステップを制御する。   The buffer memory 23 keeps the transfer rate of the MPEG encoded data constant and outputs it as a bit stream. The rate control unit 29 controls the increase / decrease of the information generation amount in the quantization (Q) unit 19, that is, the quantization step, based on the change information of the increase / decrease of the buffer capacity in the buffer memory 23.

逆量子化(IQ)部26は、量子化(Q)部19からの量子化DCT係数を逆量子化し、逆重み付け(IW)部25に供給する。逆重み付け(IW)部25は、逆量子化(IQ)部26からのDCT係数に重み付けの逆操作である逆重み付けを行う。この逆重み付け(IW)部25で逆重み付けされたDCT係数は、FM部24に参照用のDCT係数として格納される。   The inverse quantization (IQ) unit 26 inversely quantizes the quantized DCT coefficient from the quantization (Q) unit 19 and supplies the quantized DCT coefficient to the inverse weighting (IW) unit 25. The inverse weighting (IW) unit 25 performs inverse weighting, which is an inverse operation of weighting, on the DCT coefficient from the inverse quantization (IQ) unit 26. The DCT coefficient inversely weighted by the inverse weighting (IW) unit 25 is stored in the FM unit 24 as a reference DCT coefficient.

以上説明したように、図13に示したディジタルビデオ信号変換装置は、デフレーミング部11から送られてくる上記動きモード/静止モードを示すモードフラグに応じて判断部7が、I/P判断&決定部28を使って、マクロブロック毎にI又はPピクチャを判断するので、本来、IピクチャのみからなるDV信号を、Iピクチャ又はPピクチャを使ったMPEGピクチャに変換することができ、MPEGビデオ信号の特徴である圧縮率の向上という利点を生かすことができる。   As described above, in the digital video signal conversion apparatus shown in FIG. 13, the determination unit 7 performs the I / P determination & response according to the mode flag indicating the motion mode / still mode sent from the deframing unit 11. Since the determination unit 28 is used to determine the I or P picture for each macroblock, it is possible to convert a DV signal originally consisting only of the I picture into an MPEG picture using the I picture or P picture. It is possible to take advantage of the improvement in compression rate, which is a characteristic of the signal.

次に、本発明の第6の実施の形態に係るディジタル信号変換方法及び装置について説明する。   Next, a digital signal conversion method and apparatus according to a sixth embodiment of the present invention will be described.

この第6の実施の形態に係るディジタルビデオ信号変換装置は、上記図13に示した判断部7を図14に示す判断部30に置き換えた構成のディジタルビデオ信号変換装置である。   The digital video signal conversion apparatus according to the sixth embodiment is a digital video signal conversion apparatus having a configuration in which the determination unit 7 shown in FIG. 13 is replaced with a determination unit 30 shown in FIG.

すなわち、上記DV信号に一部復号処理を施して、直交変換領域の信号、例えばDCT係数を得る復号部8と、この復号部8からのDCT係数にフォーマット変換のための信号変換処理を施す変換部16と、この変換部16からの変換出力の所定ブロック単位毎に順方向フレーム間差分符号化を施す否かを、上記変換出力のフレーム間差分の絶対値の最大値に応じて判断する判断部30と、この判断部30からの判断結果に基づいて上記変換部16からの変換出力に符号化を施して上記MPEGビデオ信号を出力する符号化部9とを備えてなる。   That is, a decoding unit 8 that partially decodes the DV signal to obtain an orthogonal transform domain signal, for example, a DCT coefficient, and a conversion that performs a signal conversion process for format conversion on the DCT coefficient from the decoding unit 8 A determination to determine whether or not to perform forward interframe difference encoding for each predetermined block unit of the conversion output from the conversion unit 16 according to the maximum absolute value of the interframe difference of the conversion output Unit 30 and an encoding unit 9 that encodes the conversion output from the conversion unit 16 based on the determination result from the determination unit 30 and outputs the MPEG video signal.

判断部30は、変換部16からの変換出力である変換DCT係数とFM部24からの参照用DCT係数との差をとったときのAC係数の絶対値の最大値をみて、この最大値と所定のしきい値とを比較し、比較結果に基づいて上記マクロブロック毎にI/Pピクチャを割り当てる。   The determination unit 30 looks at the maximum value of the absolute value of the AC coefficient when the difference between the converted DCT coefficient, which is the conversion output from the conversion unit 16, and the reference DCT coefficient from the FM unit 24 is taken. A predetermined threshold value is compared, and an I / P picture is assigned to each macroblock based on the comparison result.

判断部30は、差分算出部31と、最大値検出部32と、比較部33と、I/P決定部35とを備えてなる。   The determination unit 30 includes a difference calculation unit 31, a maximum value detection unit 32, a comparison unit 33, and an I / P determination unit 35.

差分算出部31は、変換部16からの変換DCT係数とFM部24からの参照用DCT係数との差分をとる。この差分算出部31からの差分出力は最大値検出部32に供給されると共にI/P決定部35にも供給される。   The difference calculating unit 31 calculates a difference between the converted DCT coefficient from the converting unit 16 and the reference DCT coefficient from the FM unit 24. The difference output from the difference calculation unit 31 is supplied to the maximum value detection unit 32 and also to the I / P determination unit 35.

最大値検出部32は、上記差分出力のAC係数の絶対値の最大値を検出する。基本的に、上記DCT係数に変換されている情報量が多いとAC係数も大となるし、一方情報量が少ないとAC係数は小となる。   The maximum value detector 32 detects the maximum absolute value of the AC coefficient of the difference output. Basically, when the amount of information converted to the DCT coefficient is large, the AC coefficient becomes large, while when the amount of information is small, the AC coefficient becomes small.

比較部33は、上記最大値検出部32からの絶対値の最大値を端子34から供給される所定のしきい値と比較する。この所定のしきい値を適切に選んでいれば、上記AC係数の絶対値の最大値の大小により上記DCT係数に変換された情報量の多い/少ないが判断できる。   The comparison unit 33 compares the maximum absolute value from the maximum value detection unit 32 with a predetermined threshold supplied from the terminal 34. If the predetermined threshold is appropriately selected, it can be determined whether the amount of information converted into the DCT coefficient is large or small based on the magnitude of the maximum absolute value of the AC coefficient.

I/P決定部35は、上記比較部33からの比較結果を用い、上記差分算出部31からのDCT係数の差分、すなわち情報量の差分が大であるか、小であるかを判断し、差分が大きいと判断したときには、変換部16からの変換DCT係数ブロックからなるマクロブロックをIピクチャに割り付け、差分が小さいと判断したときには差分算出部31からのマクロブロックをPピクチャを割り付ける。   The I / P determination unit 35 uses the comparison result from the comparison unit 33 to determine whether the difference in DCT coefficients from the difference calculation unit 31, that is, the difference in information amount is large or small, When it is determined that the difference is large, a macro block composed of the converted DCT coefficient block from the conversion unit 16 is allocated to the I picture, and when it is determined that the difference is small, the macro block from the difference calculation unit 31 is allocated to the P picture.

つまり、しきい値より上記最大値の絶対値が大であれば、上記差分の情報量が大であると判断し、上記マクロブロックをIピクチャとする。また、しきい値より上記最大値の絶対値が小であれば、上記差分の情報量が小であると判断し、上記マクロブロックをPピクチャとする。   That is, if the absolute value of the maximum value is larger than the threshold value, it is determined that the information amount of the difference is large, and the macroblock is set as an I picture. If the absolute value of the maximum value is smaller than the threshold value, it is determined that the information amount of the difference is small, and the macroblock is set as a P picture.

これにより、この第6の実施の形態となるディジタルビデオ信号変換装置も、本来、IピクチャのみからなるDV信号を、Iピクチャ又はPピクチャを使ったMPEGピクチャに変換することができ、MPEGビデオ信号の特徴である圧縮率の向上という利点を生かすことができる。   As a result, the digital video signal conversion apparatus according to the sixth embodiment can also convert a DV signal originally composed of only an I picture into an MPEG picture using an I picture or a P picture. It is possible to take advantage of the improvement of the compression ratio, which is a feature of.

なお、上記図13及び図14に示したディジタルビデオ信号変換装置では、NTSC方式のDV信号と、MPEG1ビデオ信号とを入力、出力としたが、PAL方式の各信号に適用してもよい。   In the digital video signal conversion apparatus shown in FIGS. 13 and 14, the NTSC DV signal and the MPEG1 video signal are input and output, but may be applied to each PAL signal.

また、上記の解像度変換処理は、例えば、DVフォーマットからMPEG2フォーマットに変換する際にも同様に適用することができる。   Further, the resolution conversion process described above can be applied in the same manner, for example, when converting from the DV format to the MPEG2 format.

また、上記変換部16による解像度変換処理としては、主として縮小の向きに解像度変換を行う例について述べたが、拡大も可能である。すなわち、一般に、周波数領域の入力ディジタル信号に対して、高周波成分を追加することで、任意の倍率で解像度を拡大することができる。   Further, as the resolution conversion processing by the conversion unit 16, an example in which resolution conversion is performed mainly in the direction of reduction has been described, but enlargement is also possible. That is, generally, by adding a high frequency component to an input digital signal in the frequency domain, the resolution can be enlarged at an arbitrary magnification.

例えば、MPEG2ビデオ信号をディジタル放送サービスに適用するときに、プロファイル(機能)/レベル(解像度)によってその信号を分類しているが、例えば、米国のディジタルHDTVで用いられるメイン・プロファイル/ハイ・レベル(MP@HL)のビデオ信号に、上記DV信号を変換する場合等に解像度の拡大を適用できる。   For example, when an MPEG2 video signal is applied to a digital broadcasting service, the signal is classified by profile (function) / level (resolution). For example, a main profile / high level used in a digital HDTV in the United States. For example, when the DV signal is converted into a video signal of (MP @ HL), enlargement of the resolution can be applied.

また、第6の実施の形態の処理を、ソフトウェアで行なうようにしてもよい。   Further, the processing of the sixth embodiment may be performed by software.

次に、図15を用いて、本発明の第7の実施の形態に係るディジタル信号変換方法及び装置について説明する。なお、上述の実施の形態と同じ構成には同じリファレンス番号を付けてある。
レート制御部40は、デフレーミング部11からの量子化器番号(Q_NO)およびクラス番号(Class)に基づいて、量子化部19におけるデータ量制御を行う。
Next, a digital signal conversion method and apparatus according to the seventh embodiment of the present invention will be described with reference to FIG. The same reference numbers are assigned to the same components as those in the above-described embodiment.
The rate control unit 40 performs data amount control in the quantization unit 19 based on the quantizer number (Q_NO) and the class number (Class) from the deframing unit 11.

図16は、第7の実施の形態においてディジタル信号変換方法により、DVビデオ信号がMPEGビデオ信号に変換される際に、各フレームのマクロブロック(MB)毎に量子化スケールが設定される基本的な手順を示している。   FIG. 16 is a diagram in which a quantization scale is set for each macroblock (MB) of each frame when a DV video signal is converted into an MPEG video signal by the digital signal conversion method in the seventh embodiment. The procedure is shown.

ステップS1では、まず、マクロブロック毎に、量子化番号(Q_NO)およびクラス番号(Class)が取得される。この量子化番号(Q_NO)は、0から15までの値で示されており、マクロブロック内の6個のDCTブロック全てに共通である。また、クラス番号(Class)は、0から3までの値で示されており、6つのDCTブロック毎に与えられている。   In step S1, first, a quantization number (Q_NO) and a class number (Class) are acquired for each macroblock. This quantization number (Q_NO) is indicated by a value from 0 to 15, and is common to all six DCT blocks in the macroblock. The class number (Class) is indicated by a value from 0 to 3, and is given for every six DCT blocks.

次に、ステップS2で、以下の手順でDCTブロック毎に量子化パラメータ(q_param)が計算される。     Next, in step S2, a quantization parameter (q_param) is calculated for each DCT block by the following procedure.

量子化テーブルq_table[4] = {9,6,3,0}
量子化パラメータq_param = Q_NO + q_table[class]
Quantization table q_table [4] = {9, 6, 3, 0}
Quantization parameter q_param = Q_NO + q_table [class]

つまり、量子化テーブルとしては4通りの値(9、6、3、0)を有し、それぞれの値はクラス番号0、1、2、3に対応する。例えば、クラス番号が2で、量子化器番号が8であるときには、クラス番号2に対応する量子化テーブル値3と量子化器番号8が加算され、量子化パラメータは11となる。   That is, the quantization table has four values (9, 6, 3, 0), and each value corresponds to class numbers 0, 1, 2, and 3. For example, when the class number is 2 and the quantizer number is 8, the quantization table value 3 corresponding to the class number 2 and the quantizer number 8 are added, and the quantization parameter becomes 11.

次に、ステップS3で、マクロブロック内の6つのDCTブロックの量子化パラメータ(q_param)の平均が算出される。   Next, in step S3, the average of the quantization parameters (q_param) of the six DCT blocks in the macroblock is calculated.

そして、ステップS4では、以下の手順でMPEGのマクロブロックの量子化スケール(quantizer_scale)が求められ、処理を終了する。   In step S4, the quantization scale (quantizer_scale) of the MPEG macroblock is obtained by the following procedure, and the process ends.

量子化テーブルq_table[25]
= {32,16,16,16,16,8,8,8,8,4,
4,4,2,2,2,2,2,2,2,2,
2,2,2,2}
quantizer_scale = q_table[q_pram]
Quantization table q_table [25]
= {32, 16, 16, 16, 16, 8, 8, 8, 8, 4,
4, 4, 2, 2, 2, 2, 2, 2, 2, 2,
2,2,2,2}
quantizer_scale = q_table [q_pram]

つまり、量子化テーブルとしては25通りの値(32〜2)を有し、それぞれの値は上述のように計算された量子化パラメータに対応する。つまり量子化パラメータ値0に対応する量子化テーブルは32であり、量子化パラメータ値1に対応する量子化テーブルは16であり、量子化パラメータ値5に対応する量子化テーブルは8である。例えば、上述のように求められた量子化パラメータの平均値が10であるときには、量子化パラメータ値10に対応する4という値が量子化スケール値となる。以上の手順により、各フレーム内で、マクロブロック毎の、量子化パラメータ(q_param)に基づいて、ターゲットレートに依存するMPEGの量子化スケール(quantizer_scale)が計算される。なお、上述のクラス番号と量子化テーブルとの対応関係および量子化パラメータと量子化テーブルとの関係は経験的に求められたものである。   That is, the quantization table has 25 values (32 to 2), and each value corresponds to the quantization parameter calculated as described above. That is, the quantization table corresponding to the quantization parameter value 0 is 32, the quantization table corresponding to the quantization parameter value 1 is 16, and the quantization table corresponding to the quantization parameter value 5 is 8. For example, when the average value of the quantization parameters obtained as described above is 10, a value of 4 corresponding to the quantization parameter value 10 is the quantization scale value. Through the above procedure, the MPEG quantization scale (quantizer_scale) depending on the target rate is calculated in each frame based on the quantization parameter (q_param) for each macroblock. The correspondence relationship between the class number and the quantization table and the relationship between the quantization parameter and the quantization table are determined empirically.

上記の処理は、図15に例示した本発明に係るディジタル信号変換装置においては、デフレーミング部11から送られる量子化番号(Q_NO)およびクラス番号(Class)に基づいて、レート制御部40において行われるものである。   In the digital signal conversion apparatus according to the present invention illustrated in FIG. 15, the above processing is performed by the rate control unit 40 based on the quantization number (Q_NO) and class number (Class) sent from the deframing unit 11. It is what is said.

図17は、上述の手順により設定された量子化スケールを用いて、次のフレームに対してフィードバックをかける基本的な手順を示している。   FIG. 17 shows a basic procedure for applying feedback to the next frame using the quantization scale set by the above-described procedure.

ステップS11では、まず、前述の手順により設定されたビットレートにおける、フレームあたりのターゲットビット数が設定される。   In step S11, first, the number of target bits per frame at the bit rate set by the above-described procedure is set.

次に、ステップS12で、フレームあたりの総発生ビット数が積算される。   Next, in step S12, the total number of generated bits per frame is integrated.

次に、ステップS13で、上記のターゲットビット数と総発生ビット数との差分(diff)が計算される。   Next, in step S13, a difference (diff) between the number of target bits and the total number of generated bits is calculated.

そして、ステップS14で、上記の計算結果に基づいて、量子化スケールが調整される。   In step S14, the quantization scale is adjusted based on the calculation result.

上記の各ステップにおける計算は、以下のように表される。   The calculation in each of the above steps is expressed as follows.

diff = cont * diff(cont:定数)
q_param = q_param ± f(diff)
quantizer_scale = q_table[q_param]
diff = cont * diff (cont: constant)
q_param = q_param ± f (diff)
quantizer_scale = q_table [q_param]

つまり、ステップS13で求められた差分値diffに定数contが乗じられることにより正規化が行われる。この正規化された差分値に経験的に求められた関数をかけて、量子化パラメータと加減算されたものを量子化パラメータとされる。この量子化パラメータ値に対応する値を上述の25通りの値をもつ量子化テーブルから選び出して次のフレームの量子化スケールとする。   That is, normalization is performed by multiplying the difference value diff obtained in step S13 by the constant cont. The normalized difference value is multiplied by an empirically determined function, and the result obtained by adding and subtracting the quantization parameter is used as the quantization parameter. A value corresponding to the quantization parameter value is selected from the above-described quantization table having 25 values, and used as the quantization scale of the next frame.

以上の手順により、調整された量子化パラメータ(q_param)に基づいて新しい量子化スケール(quantizer_scale) が計算され、それを次のフレームに用いるフレーム間のフィードバックが行われる。   Through the above procedure, a new quantization scale (quantizer_scale) is calculated based on the adjusted quantization parameter (q_param), and feedback is performed between frames using it for the next frame.

次に、第8の実施の形態として、本発明に係るディジタル信号変換方法およびディジタル信号変換装置について説明する。上述の実施の形態においてはDVフォーマットからMPEGフォーマットに変換する例を示したが、以下の実施の形態ではMPEGフォーマットからDVフォーマットに変換する例について説明する。   Next, as an eighth embodiment, a digital signal conversion method and digital signal conversion apparatus according to the present invention will be described. In the above-described embodiment, an example in which the DV format is converted into the MPEG format has been shown. In the following embodiment, an example in which the MPEG format is converted into the DV format will be described.

まず図18を用いて、従来におけるMPEGフォーマットからDVフォーマットに変換する装置について説明する。   First, a conventional apparatus for converting from MPEG format to DV format will be described with reference to FIG.

図18に示すディジタルビデオ信号変換装置は、MPEG2ビデオデータを復号するMPEGデコーダ70と、DVビデオデータを出力するDVエンコーダ80からなる。   The digital video signal conversion apparatus shown in FIG. 18 includes an MPEG decoder 70 that decodes MPEG2 video data and a DV encoder 80 that outputs DV video data.

MPEGデコーダ70において、上記MPEG2ビデオデータのビットストリームが供給されるパーサ(Parser)71は、上記MPEG2フォーマットにしたがってフレーミングされて来た量子化DCT係数のビットストリームのヘッダを検出し、可変長符号化された量子化DCT係数を可変長復号(VLD)部72に供給すると共に、動きベクトル(mv)を抽出して動き補償(Motion Compensation:MC)部77に供給する。   In the MPEG decoder 70, a parser 71 to which the bit stream of the MPEG2 video data is supplied detects the header of the bit stream of the quantized DCT coefficient that has been framed according to the MPEG2 format, and performs variable length coding. The quantized DCT coefficients are supplied to a variable length decoding (VLD) unit 72, and a motion vector (mv) is extracted and supplied to a motion compensation (MC) unit 77.

可変長復号(VLD)部72は、可変長符号化された上記量子化DCT係数を可変長復号し、逆量子化(IQ)部73に供給する。   The variable length decoding (VLD) unit 72 performs variable length decoding on the quantized DCT coefficient that has been subjected to variable length coding, and supplies the quantized DCT coefficient to the inverse quantization (IQ) unit 73.

逆量子化部73は、可変長復号部72で復号された上記量子化DCT係数に、符号化側で用いた量子化ステップを乗算して逆量子化処理を施し、DCT係数を得て、逆離散コサイン変換(IDCT)部74に供給する。   The inverse quantization unit 73 multiplies the quantized DCT coefficient decoded by the variable length decoding unit 72 by the quantization step used on the encoding side to perform an inverse quantization process to obtain a DCT coefficient, A discrete cosine transform (IDCT) unit 74 is supplied.

この逆離散コサイン変換部74は、逆量子化部73からのDCT係数に逆DCTを施して、DCT係数を空間領域のデータ、すなわち画素データに戻す。具体的には、逆DCTによって、8×8画素ブロック毎にそれぞれの画素値(輝度Y、色差Cr、Cb)が算出される。ただし、ここでの画素値はIピクチャでは実際の画素値そのものの値であるが、PピクチャとBピクチャでは対応する画素値間の差分値となる。   The inverse discrete cosine transform unit 74 performs inverse DCT on the DCT coefficient from the inverse quantization unit 73 to return the DCT coefficient to spatial domain data, that is, pixel data. Specifically, pixel values (luminance Y, color difference Cr, Cb) are calculated for each 8 × 8 pixel block by inverse DCT. However, the pixel value here is a value of the actual pixel value itself in the I picture, but is a difference value between corresponding pixel values in the P picture and the B picture.

動き補償部77は、フレームメモリ(FM)部76の二つのフレームメモリFMに格納されている画像情報とパーサ71で抽出した動きベクトルmvとを用いて動き補償出力を生成し、この動き補償出力を加算器75に供給する。   The motion compensation unit 77 generates a motion compensation output using the image information stored in the two frame memories FM of the frame memory (FM) unit 76 and the motion vector mv extracted by the parser 71, and this motion compensation output Is supplied to the adder 75.

加算器75は逆離散コサイン変換部74からの上記差分値に上記動き補償出力を加算し、復号画像データをDVエンコーダ80の離散コサイン変換(DCT)部81及びフレームメモリ部76に供給する。   The adder 75 adds the motion compensation output to the difference value from the inverse discrete cosine transform unit 74 and supplies the decoded image data to the discrete cosine transform (DCT) unit 81 and the frame memory unit 76 of the DV encoder 80.

DVエンコーダ80において、離散コサイン変換部81は上記復号画像データにDCT処理を施して再び直交変換領域のデータ、すなわちDCT係数に変換し、量子化(Q)部82に供給する。   In the DV encoder 80, the discrete cosine transform unit 81 performs DCT processing on the decoded image data, transforms it again into orthogonal transform domain data, that is, DCT coefficients, and supplies it to the quantization (Q) unit 82.

量子化部82は、上記DCT係数を、視覚特性を考慮したマトリックステーブルを用いて量子化し、上記DVフォーマットのIピクチャとして可変長符号化(VLC)部83に供給する。   The quantization unit 82 quantizes the DCT coefficient using a matrix table that takes visual characteristics into consideration, and supplies it to the variable length coding (VLC) unit 83 as an I picture in the DV format.

可変長符号化部83は、上記DVフォーマットのIピクチャに可変長符号化処理を施して圧縮し、フレーミング部84に供給する。   The variable length encoding unit 83 performs variable length encoding processing on the DV format I picture, compresses the I picture, and supplies the compressed I picture to the framing unit 84.

フレーミング部84は、上記可変長符号化処理が施されたDVフォーマットデータをフレーミングし、DVビデオデータのビットストリームとして出力する。   The framing unit 84 frames the DV format data that has been subjected to the variable-length encoding process, and outputs it as a bit stream of DV video data.

ところで、離散コサイン変換(DCT)等の直交変換及びその逆変換には、多くの計算量を要するのが通常であるため、上述したようなビデオデータのフォーマット変換が効率良く行えないという問題がある。また、計算量の増加に伴って誤差が蓄積されるため、信号が劣化するという問題もある。   By the way, since orthogonal transformation such as discrete cosine transformation (DCT) and its inverse transformation usually require a large amount of calculation, there is a problem that the format conversion of video data as described above cannot be performed efficiently. . There is also a problem that the signal deteriorates because errors are accumulated as the amount of calculation increases.

そこでこの問題を解決するためのディジタルビデオ信号変換装置を第8の実施の形態として図19を用いて説明する。   Therefore, a digital video signal converter for solving this problem will be described as an eighth embodiment with reference to FIG.

図19に示すディジタル信号変換装置は、前述したMPEGのフォーマットに従うMPEGビデオ信号が第1のディジタル信号として入力され、DV信号を第2のディジタル信号として出力するものである。   The digital signal conversion apparatus shown in FIG. 19 receives an MPEG video signal conforming to the above-described MPEG format as a first digital signal and outputs a DV signal as a second digital signal.

パーサ111は、ビットストリームとして入力される、第1のフォーマットのディジタル信号であるMPEGビデオ信号のヘッダを参照して、動きベクトルmvや量子化スケールなどの画像の動き情報を抽出する。   The parser 111 extracts image motion information such as a motion vector mv and a quantization scale with reference to a header of an MPEG video signal which is a digital signal of the first format input as a bit stream.

上記の動きベクトルmvは、動き補償(MC)部115に送られて動き補償が行われる。また、上記の量子化スケール(quantizer_scale) は、後述する評価部123に送られる。   The motion vector mv is sent to the motion compensation (MC) unit 115 for motion compensation. The quantization scale (quantizer_scale) is sent to the evaluation unit 123 described later.

可変長復号(VLD)部112は、パーサ111で必要な情報が取り出されたMPEGビデオ信号のビットストリームを可変長復号する。   A variable length decoding (VLD) unit 112 performs variable length decoding on the bit stream of the MPEG video signal from which necessary information is extracted by the parser 111.

逆量子化(IQ)部113は、可変長復号部112で復号されたMPEGビデオ信号を逆量子化する。   The inverse quantization (IQ) unit 113 performs inverse quantization on the MPEG video signal decoded by the variable length decoding unit 112.

そして、逆量子化部113で逆量子化されたMPEGビデオ信号は、加算部125に入力される。この加算部125には、パーサ111からの動きベクトルmvに対する動き補償の結果も、動き補償部115から入力される。   Then, the MPEG video signal inversely quantized by the inverse quantization unit 113 is input to the addition unit 125. The result of motion compensation for the motion vector mv from the parser 111 is also input to the adder 125 from the motion compensation unit 115.

また、加算部125からの出力は、後述する信号変換部116に送られると共に、フレームメモリ114を介して上記の動き補償部115に入力される。信号変換部116では、加算部125を介して入力される上記のビデオ信号に対して、直交変換領域(周波数領域)で解像度変換などの所要の信号変換処理が施される。   The output from the adder 125 is sent to the signal converter 116 described later, and is also input to the motion compensator 115 via the frame memory 114. In the signal conversion unit 116, the video signal input through the addition unit 125 is subjected to necessary signal conversion processing such as resolution conversion in the orthogonal transform region (frequency region).

そして、信号変換部116で所要の信号変換処理が施されたビデオ信号は、シャフリング部117でシャフリングされ、バッファ118とクラシファイ(Classify)部122とに送られる。   Then, the video signal that has undergone the required signal conversion processing by the signal conversion unit 116 is shuffled by the shuffling unit 117 and sent to the buffer 118 and the classifying unit 122.

バッファ118に送られたビデオ信号は、量子化(Q)部119に送られて量子化され、可変長符号化(VLC)部120で可変長符号化され、さらにフレーミング部121でフレーミングされて、DVビデオ信号のビットストリームとして出力される。   The video signal sent to the buffer 118 is sent to the quantization (Q) unit 119, where it is quantized, subjected to variable length coding by the variable length coding (VLC) unit 120, and further framed by the framing unit 121. It is output as a bit stream of a DV video signal.

一方、クラシファイ部122では、シャフリング部117でシャフリングされたビデオ信号をクラス分けして、その結果をクラス情報として評価部123に送る。   On the other hand, the classification unit 122 classifies the video signals shuffled by the shuffling unit 117 and sends the result to the evaluation unit 123 as class information.

評価部123では、クラシファイ部122からのクラス情報と、パーサ111からの量子化スケール(quantizer_scale) とに基づいて、量子化部119での量子化番号を決める。   The evaluation unit 123 determines the quantization number in the quantization unit 119 based on the class information from the classification unit 122 and the quantization scale (quantizer_scale) from the parser 111.

このような構成によれば、第2のフォーマットのビデオ信号として出力されるDVビデオ信号のデータ量を、第1のフォーマットのビデオ信号として入力されるMPEGビデオ信号に含まれるデータ量情報に基づいて決めることができるため、信号変換を行って生成した第2のフォーマットのビデオ信号に対して、さらにそのデータ量を決定するための処理が簡略化することができる。   According to such a configuration, the data amount of the DV video signal output as the video signal of the second format is based on the data amount information included in the MPEG video signal input as the video signal of the first format. Therefore, the processing for determining the data amount of the video signal of the second format generated by performing the signal conversion can be simplified.

なお、以上説明した第7、8の実施の形態は、たとえば、第1のフォーマットのディジタル信号または第2のフォーマットのディジタル信号の一方が、MPEG1のビデオ信号であり、他方がMPEG2のビデオ信号である場合にも適用することができる。   In the seventh and eighth embodiments described above, for example, one of the first format digital signal and the second format digital signal is an MPEG1 video signal, and the other is an MPEG2 video signal. It can also be applied in some cases.

次に、図20を用いて第9の実施の形態として、本発明に係るディジタル信号変換方法およびディジタル信号変換装置について説明する。   Next, a digital signal conversion method and a digital signal conversion apparatus according to the present invention will be described as a ninth embodiment with reference to FIG.

MPEG2のフォーマットに従うMPEGビデオデータを、上記DVフォーマットにしたがうDVビデオデータに変換するディジタルビデオ信号変換装置であり、共にPAL方式のデータを想定している。   This is a digital video signal converter for converting MPEG video data in accordance with the MPEG2 format into DV video data in accordance with the DV format, both of which assume PAL format data.

ビデオ信号がPAL方式である場合には、MPEG2フォーマット及びDVフォーマットは、解像度が720画素×576画素,輝度信号のサンプリング周波数と2つの色差信号のサンプリング周波数との比が4:2:0の圧縮ビデオ信号であるので、Y信号およびC信号のいずれに対しても特に解像度の変換処理を行う必要がない。   When the video signal is a PAL system, the MPEG2 format and the DV format are compressed with a resolution of 720 pixels × 576 pixels and a ratio of the sampling frequency of the luminance signal and the sampling frequency of the two color difference signals to 4: 2: 0. Since it is a video signal, it is not necessary to perform resolution conversion processing for both the Y signal and the C signal.

図20において、MPEGデコーダ100は、パーサ(Parser)111と、可変長復号(VLD)部112と、逆量子化(IQ)部113と、加算器125と、逆離散コサイン(IDCT)部131と、フレームメモリ(FM)部132と、動き補償(MC)部115と、離散コサイン変換(DCT)部130とを備えてなる。ここで、フレームメモリFM部132は、二つの予測メモリとして用いられるように構成されている。   In FIG. 20, an MPEG decoder 100 includes a parser 111, a variable length decoding (VLD) unit 112, an inverse quantization (IQ) unit 113, an adder 125, an inverse discrete cosine (IDCT) unit 131, A frame memory (FM) unit 132, a motion compensation (MC) unit 115, and a discrete cosine transform (DCT) unit 130. Here, the frame memory FM unit 132 is configured to be used as two prediction memories.

この中で、詳細は後述するが、逆離散コサイン変換部131は、可変長復号部112と逆量子化部113により一部復号されたIピクチャとPピクチャに逆離散コサイン変換処理を施す。動き補償部115は、逆離散コサイン変換出力に基づいて、動き補償出力を生成する。離散コサイン変換部130は、上記動き補償出力を離散コサイン変換する。加算器125は、可変長復号部112と逆量子化部113により一部復号されたPピクチャ及びBピクチャに、離散コサイン変換部130からの動き補償出力を加算する。   Among these, although details will be described later, the inverse discrete cosine transform unit 131 performs inverse discrete cosine transform processing on the I picture and P picture partially decoded by the variable length decoding unit 112 and the inverse quantization unit 113. The motion compensation unit 115 generates a motion compensation output based on the inverse discrete cosine transform output. The discrete cosine transform unit 130 performs discrete cosine transform on the motion compensation output. The adder 125 adds the motion compensation output from the discrete cosine transform unit 130 to the P picture and B picture partially decoded by the variable length decoding unit 112 and the inverse quantization unit 113.

以下、全体的な動作について説明する。先ず、パーサ111は、ビットストリームとして入力される、上記MPEG2ビデオデータのヘッダを参照して、上記MPEG2フォーマットにしたがってフレーミングされて来た量子化DCT係数を可変長符号に戻して可変長復号部112に供給すると共に、動きベクトル(mv)を抽出して動き補償部115に供給する。   The overall operation will be described below. First, the parser 111 refers to the header of the MPEG2 video data input as a bit stream, returns the quantized DCT coefficient that has been framed in accordance with the MPEG2 format to a variable length code, and a variable length decoding unit 112. And a motion vector (mv) is extracted and supplied to the motion compensation unit 115.

可変長復号部112は、可変長符号に戻された上記量子化DCT係数を可変長復号し、逆量子化部113に供給する。   The variable length decoding unit 112 performs variable length decoding on the quantized DCT coefficient returned to the variable length code, and supplies it to the inverse quantization unit 113.

逆量子化部113は、可変長復号化部112で復号された上記量子化DCT係数に、符号化側で用いた量子化ステップを乗算して逆量子化処理を施し、DCT係数を得て、加算器125に供給する。この可変長復号部112及び逆量子化部113により得られるDCT係数は、逆離散コサイン変換されて画素データに戻されることの無い出力、すなわち、一部復号されたデータとして、加算器125に供給される。   The inverse quantization unit 113 multiplies the quantized DCT coefficient decoded by the variable length decoding unit 112 by the quantization step used on the encoding side to perform an inverse quantization process to obtain a DCT coefficient, This is supplied to the adder 125. The DCT coefficients obtained by the variable length decoding unit 112 and the inverse quantization unit 113 are supplied to the adder 125 as an output that is not subjected to inverse discrete cosine transform and returned to the pixel data, that is, partially decoded data. Is done.

加算器125には、離散コサイン変換部130で直交変換された動き補償部115からの動き補償出力も供給されている。そして、加算器125は直交変換領域において上記一部復号されたデータに上記動き補償出力を加算し、この加算出力を、DVエンコーダ110に供給すると共に、逆離散コサイン変換部131に供給する。   The adder 125 is also supplied with a motion compensation output from the motion compensation unit 115 orthogonally transformed by the discrete cosine transform unit 130. The adder 125 adds the motion compensation output to the partially decoded data in the orthogonal transform domain, and supplies the addition output to the DV encoder 110 and also to the inverse discrete cosine transform unit 131.

逆離散コサイン変換部131は、上記加算出力の内のIピクチャ及びPピクチャに逆離散コサイン変換処理を施し、空間領域のデータにする。この空間領域のデータが、動き補償に用いる参照画像データとなる。この動き補償のための参照画像データは、フレームメモリ部132に格納される。   The inverse discrete cosine transform unit 131 performs an inverse discrete cosine transform process on the I picture and the P picture in the addition output to obtain spatial domain data. The data in this spatial region becomes reference image data used for motion compensation. The reference image data for motion compensation is stored in the frame memory unit 132.

そして、動き補償部115はフレームメモリ部132に格納された参照画像データと、パーサ111で抽出された動きベクトルmvを用いて動き補償出力を生成し、この動き補償出力を離散コサイン変換部130に供給する。   Then, the motion compensation unit 115 generates a motion compensation output by using the reference image data stored in the frame memory unit 132 and the motion vector mv extracted by the parser 111, and outputs the motion compensation output to the discrete cosine transform unit 130. Supply.

離散コサイン変換部130では、上記空間領域で処理された動き補償出力を上述したように再度直交変換領域に戻してから加算器125に供給する。   The discrete cosine transform unit 130 returns the motion compensated output processed in the spatial domain to the orthogonal transform domain again as described above and then supplies it to the adder 125.

加算器125は逆量子化部113からの一部復号されたP及びBピクチャの差分信号のDCT係数に、上記離散コサイン変換部130からの動き補償出力のDCT係数を加算する。そして、この加算器125からの加算出力は、直交変換領域での一部復号データとしてDVエンコーダ110及び逆離散コサイン変換部131に供給される。   The adder 125 adds the DCT coefficient of the motion compensation output from the discrete cosine transform unit 130 to the DCT coefficient of the differential signal of P and B pictures partially decoded from the inverse quantization unit 113. The added output from the adder 125 is supplied to the DV encoder 110 and the inverse discrete cosine transform unit 131 as partially decoded data in the orthogonal transform domain.

なお、逆量子化部113からの一部復号されたIピクチャは、フレーム内符号化画像信号であるので、動き補償の加算処理は不要であり、そのまま上記逆離散コサイン変換部131に供給されると共に、DVエンコーダ110にも供給される。   Since the partially decoded I picture from the inverse quantization unit 113 is an intra-frame encoded image signal, no motion compensation addition process is required, and it is supplied to the inverse discrete cosine transform unit 131 as it is. At the same time, it is also supplied to the DV encoder 110.

DVエンコーダ110は、量子化(Q)部141と、可変長符号化(VLC)部142と、フレーミング部143とからなる。   The DV encoder 110 includes a quantization (Q) unit 141, a variable length coding (VLC) unit 142, and a framing unit 143.

量子化部141は、MPEGデコーダ100からのIピクチャ、Pピクチャ及びBピクチャの直交変換領域のままのデコード出力、すなわちDCT係数を量子化し、可変長符号化部142に供給する。   The quantization unit 141 quantizes the decoded output of the I-picture, P-picture, and B-picture as they are from the MPEG decoder 100, that is, the DCT coefficient, and supplies it to the variable-length encoding unit 142.

可変長符号化部142は上記量子化DCT係数に可変長符号化処理を施し、フレーミング部143に供給する。フレーミング部143は可変長符号化部142からの圧縮符号化データをフレーミングし、DVビデオデータのビットストリームとして出力する。   The variable length coding unit 142 performs variable length coding processing on the quantized DCT coefficient and supplies the result to the framing unit 143. The framing unit 143 frames the compressed encoded data from the variable length encoding unit 142 and outputs it as a bit stream of DV video data.

このように、変換するMPEG2ビデオデータがIピクチャであるとき、MPEGデコーダ100は、MPEG2ビデオデータを可変長復号部112及び逆量子化部113により直交変換領域まで一部復号し、DVエンコーダ110で量子化部141及び可変長符号化部142により一部符号化する。同時に、P/Bピクチャの参照画像とするため、Iピクチャに逆離散コサイン変換部131で逆離散コサイン変換を施してフレームメモリ部132に格納する。   As described above, when the MPEG2 video data to be converted is an I picture, the MPEG decoder 100 partially decodes the MPEG2 video data to the orthogonal transform region by the variable length decoding unit 112 and the inverse quantization unit 113, and the DV encoder 110 The quantization unit 141 and the variable length coding unit 142 partially code. At the same time, an inverse discrete cosine transform unit 131 performs inverse discrete cosine transform on the I picture and stores it in the frame memory unit 132 in order to obtain a P / B picture reference image.

また、変換するPピクチャ及びBピクチャであるときには、上述したように、動き補償出力を生成する処理のみ逆離散コサイン変換部131を用いて空間領域で行い、可変長復号部112及び逆量子化部113で一部復号されたPピクチャ及びBピクチャである差分信号に加えてフレームを構成する部分は離散コサイン変換部130による離散コサイン変換領域で行う。そして、その後DVエンコーダ110で部分エンコードする。   When the P picture and the B picture are to be transformed, as described above, only the process for generating the motion compensation output is performed in the spatial domain using the inverse discrete cosine transform unit 131, and the variable length decoding unit 112 and the inverse quantization unit are performed. In addition to the differential signals that are partly decoded P pictures and B pictures in step 113, the parts constituting the frame are performed in the discrete cosine transform region by the discrete cosine transform unit 130. Then, partial encoding is performed by the DV encoder 110.

特に、Pピクチャの場合、動きベクトルmvで示された位置のマクロブロックを逆離散コサイン変換部131で逆離散コサイン変換されたIピクチャから動き補償部115での動き補償処理により持ってくる。そのマクロブロックに離散コサイン変換部130で離散コサイン変換処理を施し、離散コサイン変換領域にて、差分信号である上記PピクチャのDCT係数に加算器125を使って加算する。これは、空間領域での足し算結果に離散コサイン変換を施したものは、離散コサイン変換したもの同士の足し算した結果と等価であることに基づいている。そして、その結果をDVエンコーダ110で部分エンコードする。同時に、次のBピクチャの参照のために、加算器125からの加算出力に逆離散コサイン変換部131で逆離散コサイン変換を施し、フレームメモリ部132に格納しておく。   In particular, in the case of a P picture, the macro block at the position indicated by the motion vector mv is brought from the I picture subjected to inverse discrete cosine transform by the inverse discrete cosine transform unit 131 by motion compensation processing by the motion compensation unit 115. Discrete cosine transform processing is performed on the macroblock by the discrete cosine transform unit 130, and the DCT coefficient of the P picture, which is a differential signal, is added using the adder 125 in the discrete cosine transform region. This is based on the fact that the result obtained by performing discrete cosine transform on the addition result in the spatial domain is equivalent to the result obtained by adding the discrete cosine transform. Then, the result is partially encoded by the DV encoder 110. At the same time, the inverse discrete cosine transform unit 131 performs inverse discrete cosine transform on the addition output from the adder 125 and stores it in the frame memory unit 132 for reference to the next B picture.

Bピクチャの場合には、動きベクトルmvで示された位置のマクロブロックを逆離散コサイン変換部131で逆離散コサイン変換されたPピクチャから持ってくる。そして、そのマクロブロックに離散コサイン変換部130で離散コサイン変換を施し、離散コサイン変換領域にて、差分信号であるBピクチャDCT係数を足し算する。ここで、双方向の場合は、二つの参照フレームより持ってきて平均をとる。   In the case of a B picture, the macroblock at the position indicated by the motion vector mv is brought from the P picture that has been subjected to inverse discrete cosine transform by the inverse discrete cosine transform unit 131. Then, the discrete cosine transform unit 130 performs a discrete cosine transform on the macroblock, and adds a B picture DCT coefficient that is a difference signal in the discrete cosine transform region. Here, in the case of bidirectional communication, the average is obtained from two reference frames.

その結果をDVエンコーダ110で部分エンコードする。なお、Bピクチャは、参照フレームにはならないので、逆離散コサイン変換部131で逆離散コサイン変換を施すことはない。   The result is partially encoded by the DV encoder 110. Since the B picture does not become a reference frame, the inverse discrete cosine transform unit 131 does not perform the inverse discrete cosine transform.

上述のような第9の実施の形態によると、Iピクチャをデコードするには、従来、逆離散コサイン変換(IDCT)と離散コサイン変換(DCT)処理が共に必要であったのが、本実施の形態のディジタルビデオ信号変換装置では、参照用にIDCTを必要とするのみとなる。   According to the ninth embodiment as described above, in order to decode an I picture, both inverse discrete cosine transform (IDCT) and discrete cosine transform (DCT) processing are conventionally required. In the digital video signal conversion apparatus of the form, the IDCT is only required for reference.

また、Pピクチャをデコードするには、DCTと参照用のIDCT処理を必要とするが、Bピクチャをデコードするには従来、DCT及びIDCTを共に必要としたのに比較し、DCTのみで参照用のIDCTを不要とする。   In addition, to decode a P picture, DCT and reference IDCT processing are required. However, in order to decode a B picture, both DCT and IDCT are conventionally required, and only DCT is used for reference. IDCT is not required.

一般的なMPEG2データ、例えばGOPの数N=15、順方向予測のピクチャ間隔M=3の場合を例にとると、Iピクチャは1個、Pピクチャは4個、Bピクチャは10個である。DCTとIDCTの計算量をほぼ同じとみなすと、上記15フレーム当たりのMPEG2データは、重み付けを省略したとき、従来では、
2×DCT×(1/15)+2×DCT×(4/15)
+2×DCT×(10/15)=2×DCT
となるのに対し、上記図20に示したディジタルビデオ信号変換装置では、
1×DCT×(1/15)+2×DCT×(4/15)
+1×DCT×(10/15)=1.2666×DCT
となり、大幅に計算量を削減できる。この式におけるDCTは計算量を示す。
For example, in the case of general MPEG2 data, for example, the number of GOPs N = 15 and the picture interval M = 3 for forward prediction, there are 1 I picture, 4 P pictures, and 10 B pictures. . Assuming that the calculation amount of DCT and IDCT is almost the same, the MPEG2 data per 15 frames is conventionally weighted,
2 × DCT × (1/15) + 2 × DCT × (4/15)
+ 2 × DCT × (10/15) = 2 × DCT
On the other hand, in the digital video signal converter shown in FIG.
1 × DCT × (1/15) + 2 × DCT × (4/15)
+ 1 * DCT * (10/15) = 1.2666 * DCT
Thus, the amount of calculation can be greatly reduced. DCT in this equation indicates a calculation amount.

すなわち、上記図20に示したディジタルビデオ信号変換装置は、MPEG2ビデオデータからDVビデオデータにフォーマット変換するためのデータ算出処理量を大幅に削減することができる。   That is, the digital video signal conversion apparatus shown in FIG. 20 can greatly reduce the amount of data calculation processing for converting the format from MPEG2 video data to DV video data.

次に、第10の実施の形態におけるディジタルビデオ信号変換装置の他の実施の形態について図21を参照しながら説明する。   Next, another embodiment of the digital video signal converter according to the tenth embodiment will be described with reference to FIG.

この第10の実施の形態も、MPEG2のフォーマットに従うMPEGビデオデータを、上記DVフォーマットにしたがうDVビデオデータに変換するディジタルビデオ信号変換装置であるが、MPEG2のビデオデータは高解像度、例えば1440画素×1080画素の圧縮ビデオ信号を想定している。   The tenth embodiment is also a digital video signal converter for converting MPEG video data according to the MPEG2 format into DV video data according to the DV format. The MPEG2 video data has a high resolution, for example, 1440 pixels × A compressed video signal of 1080 pixels is assumed.

例えば、MPEG2ビデオ信号をディジタル放送サービスに適用するときに、プロファイル(機能)/レベル(解像度)によってその信号を分類しているが、例えば、米国のディジタルHDTVで用いられるメイン・プロファイル/ハイ・レベル(MP@HL)のビデオ信号は上述したように高解像度であり、これを上記DVビデオデータに変換する場合である。   For example, when an MPEG2 video signal is applied to a digital broadcasting service, the signal is classified by profile (function) / level (resolution). For example, a main profile / high level used in a digital HDTV in the United States. The video signal of (MP @ HL) has a high resolution as described above, and this is a case where it is converted into the DV video data.

このため、図21に示すディジタルビデオ信号変換装置では、図20に示したMPEGデコーダ100とDVエンコーダ110との間に、上記変換処理を行うための信号変換部140を備えている。   Therefore, the digital video signal conversion apparatus shown in FIG. 21 includes a signal conversion unit 140 for performing the conversion process between the MPEG decoder 100 and the DV encoder 110 shown in FIG.

この信号変換部140は、上記MPEG符号化データに施されているDCT符号化で用いられた直交変換行列に対応する逆直交変換行列と、時間領域での信号変換出力信号を得るためのIDCT符号化に用いる逆直交変換行列に対応する直交変換行列とに基づいて生成された変換行列によりMPEGデコーダ100からのDCT変換領域のDCT係数に解像度変換処理を施す。   The signal conversion unit 140 includes an inverse orthogonal transformation matrix corresponding to the orthogonal transformation matrix used in the DCT encoding applied to the MPEG encoded data, and an IDCT code for obtaining a signal conversion output signal in the time domain. Resolution conversion processing is performed on the DCT coefficients in the DCT conversion region from the MPEG decoder 100 using a transformation matrix generated based on the orthogonal transformation matrix corresponding to the inverse orthogonal transformation matrix used for conversion.

この信号変換部140からの解像度変換出力であるDCT係数は、上記DVエンコーダ110に供給される。   The DCT coefficient that is the resolution conversion output from the signal conversion unit 140 is supplied to the DV encoder 110.

DVエンコーダ110は、解像度変換出力のDCT係数に量子化と可変長符号化を施し、フレーミングした後、上記DVビデオデータのビットストリームとして出力する。   The DV encoder 110 performs quantization and variable length coding on the DCT coefficient of the resolution conversion output, and after framing, outputs the bit stream of the DV video data.

このように、このディジタルビデオ信号変換装置は、MPEG2ビデオ信号内のメイン・プロファイル/ハイ・レベル(MP@HL)のビデオ信号を、信号変換部140で解像度変換してから、DVエンコーダで符号化してDVビデオデータとしている。   As described above, this digital video signal conversion apparatus converts the resolution of the video signal of the main profile / high level (MP @ HL) in the MPEG2 video signal by the signal conversion unit 140 and then encodes it by the DV encoder. DV video data.

このとき、上記図20に示したディジタルビデオ信号変換装置と同様に、Iピクチャについては、従来、IDCTとDCTの処理が共に必要であったのが、この第10の実施の形態のディジタルビデオ信号変換装置では、参照用にIDCTするのみである。   At this time, as in the digital video signal conversion apparatus shown in FIG. 20, the I picture conventionally requires both IDCT and DCT processing, but the digital video signal of the tenth embodiment is used. The conversion device only performs IDCT for reference.

PピクチャについてはDCTと参照用にIDCTを施すことになり従来と変わりが無いが、Bピクチャについては従来、DCT及びIDCTを共に必要としたのに比較し、DCTのみで参照用のIDCTを不要である。   For P picture, IDCT is applied for DCT and reference, which is the same as before, but for B picture, IDCT for reference is unnecessary only for DCT, compared to DCT and IDCT. It is.

すなわち、上記図21に示したディジタルビデオ信号変換装置も、高解像度のMPEG2ビデオデータからDVビデオデータにフォーマット変換するためのデータ算出処理量を大幅に削減することができる。   That is, the digital video signal conversion apparatus shown in FIG. 21 can also greatly reduce the amount of data calculation processing for converting the format from high-resolution MPEG2 video data to DV video data.

なお、上記信号変換部140による解像度変換処理としては、主として縮小の向きに解像度変換を行う例について述べたが、拡大も可能である。すなわち、一般に、周波数領域の入力ディジタル信号に対して、高周波成分を追加することで、任意の倍率で解像度を拡大することができる。例えば、MPEG1ビデオデータを上記DVビデオデータにフォーマット変換する場合等である。   Note that, as the resolution conversion processing by the signal conversion unit 140, an example of performing resolution conversion mainly in the direction of reduction has been described, but enlargement is also possible. That is, generally, by adding a high frequency component to an input digital signal in the frequency domain, the resolution can be enlarged at an arbitrary magnification. For example, the MPEG1 video data is converted into the DV video data.

また、上記処理ををソフトウェアで行なうようにしてもよい。   Further, the above processing may be performed by software.

ところで上述のMPEGフォーマットやDVフォーマットの圧縮方式では、静止画データや動画データ等を効率よく圧縮符号化するためには、直交変換符号化と、予測符号化とを組み合わせたハイブリッド圧縮符号化方法が用いられている。   By the way, in the above-mentioned MPEG format and DV format compression methods, in order to efficiently compress and encode still image data and moving image data, a hybrid compression encoding method combining orthogonal transform encoding and predictive encoding is used. It is used.

ところで、ハイブリッド圧縮符号化方法により圧縮符号化された入力情報信号に解像度の変換処理を施した後、再び直交変換を施すと共に再び動き補償を伴った予測符号化を施すときには、再予測符号化処理を行うための工程においても動きベクトルを推定しなければならない。   By the way, when the input information signal compression-encoded by the hybrid compression encoding method is subjected to resolution conversion processing, when performing orthogonal transformation again and predictive encoding with motion compensation again, re-predictive encoding processing The motion vector must also be estimated in the process for performing.

解像度の変換処理を施すことなく全く同じ解像度で再予測符号化するのであれば、予測符号化時の動きベクトルを用いれば良いが、解像度を変換すると、変換歪みが変わってくるので、その分上記再予測符号化工程で用いる動きベクトルも変化してしまうためである。   If re-predictive coding is performed at exactly the same resolution without performing resolution conversion processing, the motion vector at the time of predictive coding may be used. However, since conversion distortion changes when the resolution is converted, the corresponding amount This is because the motion vector used in the re-predictive encoding process also changes.

そこで、上記再予測符号化工程においては、動きベクトルを推定する必要があるが、この動きベクトルの推定の演算量は非常に多くなってしまっていた。   Thus, in the re-predictive encoding step, it is necessary to estimate a motion vector, but the amount of calculation for estimating the motion vector has become very large.

この問題を解決するのが、第11の実施の形態によるディジタル信号変換装置である。第11の実施の形態に係るディジタル信号変換方法及び装置は、直交変換符号化と予測符号化とを組み合わせたハイブリッド圧縮符号化により圧縮符号化された入力情報信号に、時間領域又は直交変換領域で例えば解像度変換のような信号変換処理を施し、再び直交変換領域に戻し又は直交変換領域のまま再圧縮符号化を施すものである。   The digital signal conversion apparatus according to the eleventh embodiment solves this problem. The digital signal conversion method and apparatus according to the eleventh embodiment can be applied to an input information signal compression-coded by hybrid compression coding that combines orthogonal transform coding and predictive coding in the time domain or orthogonal transform domain. For example, signal conversion processing such as resolution conversion is performed, and the signal is returned to the orthogonal transform region again or recompressed and encoded in the orthogonal transform region.

上記ハイブリッド圧縮符号化の具体例としては、ITU−T(国際電気通信連合−電気通信標準化部門)にて勧告されたH.261やH.263、またMPEG、DV等の符号化規格が挙げられる。   As a specific example of the hybrid compression coding, H.264 recommended by ITU-T (International Telecommunication Union-Telecommunication Standardization Sector). 261 and H.264. H.263, and encoding standards such as MPEG and DV.

H.261は、低ビットレートを対象とした映像符号化規格であり、ISDNによるテレビ会議・テレビ電話を主たる用途に開発された。また、H.263は、GSTNテレビ電話システムのためにH.261を改良した符号化方式である。   H. 261 is a video coding standard for low bit rates, and was developed mainly for video conferences and videophones using ISDN. H. H.263 for the GSTN videophone system. This is an encoding method improved from H.261.

以下、第11の実施の形態について図22を参照しながら説明する。この実施の形態は、MPEGのフォーマットにしたがうMPEG符号化データが入力され、このMPEG符号化データに信号変換処理として解像度変換処理を施してから解像度変換されたMPEG符号化データとして出力するディジタルビデオ信号変換装置である。   The eleventh embodiment will be described below with reference to FIG. In this embodiment, MPEG encoded data in accordance with the MPEG format is input, a digital video signal is output as resolution-converted MPEG encoded data after performing resolution conversion processing on the MPEG encoded data as signal conversion processing. It is a conversion device.

このディジタルビデオ信号変換装置は、図22に示すように、動きベクトル(mv)検出を伴って圧縮符号化されているMPEG符号化データのビットストリームに対して動き補償MCを用いた復号を施す復号部210と、この復号部210からの復号出力に解像度変換処理を施す解像度変換部160と、この解像度変換部160からの変換出力画像に、上記MPEG符号化データに付加されている動きベクトルmvに基づいた動き検出を伴って圧縮符号化処理を施し、解像度を変換したビデオ符号化データのビットストリームを出力する符号化部220とを備えてなる。   As shown in FIG. 22, this digital video signal conversion apparatus performs decoding using a motion compensation MC on a bit stream of MPEG encoded data that has been compression encoded with motion vector (mv) detection. 210, a resolution conversion unit 160 that performs resolution conversion processing on the decoded output from the decoding unit 210, and a motion vector mv added to the MPEG encoded data in the converted output image from the resolution conversion unit 160 And an encoding unit 220 that performs a compression encoding process with motion detection based thereon and outputs a bit stream of video encoded data whose resolution has been converted.

なお、以下では、これらの各部により構成されるディジタルビデオ信号変換装置について述べるが、各構成部が本発明に係るディジタル信号変換方法の各工程の処理を実施するのはもちろんである。   In the following, a digital video signal conversion apparatus constituted by each of these units will be described. Of course, each component performs processing of each step of the digital signal conversion method according to the present invention.

復号部210は、可変長復号(VLD)部112と、逆量子化(IQ)部113と、逆離散コサイン変換(IDCT)部150と、加算器151と、動き補償(MC)部152と、フレームメモリ(FM)部153とを備えてなる。ここで、FM部153は、二つの予測メモリとして用いるフレームメモリFMにより構成されている。   The decoding unit 210 includes a variable length decoding (VLD) unit 112, an inverse quantization (IQ) unit 113, an inverse discrete cosine transform (IDCT) unit 150, an adder 151, a motion compensation (MC) unit 152, And a frame memory (FM) unit 153. Here, the FM unit 153 includes a frame memory FM used as two prediction memories.

VLD部112は、上記MPEG符号化データ、すなわち付加情報である動きベクトルと量子化DCT係数が可変長符号化された符号化データを、可変長符号化に応じて復号すると共に、動きベクトルmvを抽出する。IQ部113は、VLD部112で復号された量子化DCT係数に、符号化側で用いた量子化ステップを乗算して逆量子化処理を施し、DCT係数を得る。   The VLD unit 112 decodes the MPEG encoded data, that is, the encoded data in which the motion vector as the additional information and the quantized DCT coefficient are variable-length encoded according to the variable-length encoding, and the motion vector mv Extract. The IQ unit 113 multiplies the quantized DCT coefficient decoded by the VLD unit 112 by the quantization step used on the encoding side, and performs an inverse quantization process to obtain a DCT coefficient.

IDCT部150は、IQ部113からのDCT係数に逆DCTを施して、DCT係数を空間領域のデータ、すなわち画素データに戻す。具体的には、逆DCTによって、8×8画素ブロック毎にそれぞれの画素値(輝度Y、色差Cr、Cb)が算出される。ただし、ここでの画素値はIピクチャでは実際の画素値そのものの値であるが、PピクチャとBピクチャでは対応する画素値間の差分値となる。   The IDCT unit 150 performs inverse DCT on the DCT coefficient from the IQ unit 113 to return the DCT coefficient to data in the spatial domain, that is, pixel data. Specifically, pixel values (luminance Y, color difference Cr, Cb) are calculated for each 8 × 8 pixel block by inverse DCT. However, the pixel value here is a value of the actual pixel value itself in the I picture, but is a difference value between corresponding pixel values in the P picture and the B picture.

MC部152は、FM部153の二つのFMに格納されている画像情報に、VLD部112で抽出した動きベクトルmvを用いて動き補償処理を施し、この動き補償出力を加算器151に供給する。   The MC unit 152 performs a motion compensation process on the image information stored in the two FMs of the FM unit 153 using the motion vector mv extracted by the VLD unit 112, and supplies the motion compensation output to the adder 151. .

加算器151は、IDCT部150からの差分値にMC部152からの動き補償出力を加算し、復号画像信号を出力する。解像度変換部160は、上記復号画像信号に対して所要の解像度変換処理を施す。この解像度変換部160からの変換出力は、符号化部220に供給される。   The adder 151 adds the motion compensation output from the MC unit 152 to the difference value from the IDCT unit 150, and outputs a decoded image signal. The resolution conversion unit 160 performs a required resolution conversion process on the decoded image signal. The conversion output from the resolution conversion unit 160 is supplied to the encoding unit 220.

符号化部220は、スケール変換部171と、動き推定ME部172と、加算器173と、DCT部175と、レート制御部183と、量子化(Q)部176と、可変長符号化(VLC)部177と、バッファメモリ178と、IQ部179と、IDCT部180と、加算器181と、FM部182と、MC部174とを備えてなる。   The encoding unit 220 includes a scale conversion unit 171, a motion estimation ME unit 172, an adder 173, a DCT unit 175, a rate control unit 183, a quantization (Q) unit 176, and a variable length encoding (VLC). ) Section 177, buffer memory 178, IQ section 179, IDCT section 180, adder 181, FM section 182 and MC section 174.

スケール変換部171は、解像度変換部160で用いた解像度変換率に応じてVLD部112が抽出した動きベクトルmvをスケール変換する。例えば、解像度変換部160での解像度変換率が1/2であった場合には、動きベクトルmvの1/2にスケール変換する。   The scale conversion unit 171 performs scale conversion on the motion vector mv extracted by the VLD unit 112 according to the resolution conversion rate used by the resolution conversion unit 160. For example, when the resolution conversion rate in the resolution conversion unit 160 is ½, the scale conversion is performed to ½ of the motion vector mv.

ME部172は、スケール変換部171からのスケール変換情報を用い、解像度変換部160からの変換出力の狭い範囲を探すことにより、変換された解像度での最適な動きベクトルを推定する。   The ME unit 172 uses the scale conversion information from the scale conversion unit 171 to search for a narrow range of the conversion output from the resolution conversion unit 160, thereby estimating an optimal motion vector at the converted resolution.

ME部172で推定された動きベクトルは、MC部174による動き補償時に用いられる。また、ME部172で動きベクトルを推定するときに用いた上記解像度変換部160からの変換出力画像は加算器173に供給される。   The motion vector estimated by the ME unit 172 is used at the time of motion compensation by the MC unit 174. The converted output image from the resolution converting unit 160 used when the ME unit 172 estimates the motion vector is supplied to the adder 173.

加算器173は、後述する参照画像と解像度変換部160からの変換出力との差分を採り、DCT部175に供給する。   The adder 173 takes a difference between a reference image (to be described later) and a conversion output from the resolution conversion unit 160 and supplies the difference to the DCT unit 175.

DCT部175は、MC部174で動き補償することによって得た参照画像と上記変換出力画像との差分を、8×8のブロックサイズで離散コサイン変換する。なお、Iピクチャについては画面(フレーム)内符号化であるのでフレーム間の差分を採らずに、そのままDCT演算を行う。   The DCT unit 175 performs a discrete cosine transform on the difference between the reference image obtained by motion compensation in the MC unit 174 and the converted output image with an 8 × 8 block size. Since the I picture is intra-frame (frame) coding, the DCT calculation is performed as it is without taking the difference between the frames.

量子化(Q)部176は、DCT部175からのDCT係数を、視覚特性を考慮したマトリックステーブルを用いて量子化する。VLC部177は、Q部176からの量子化DCT係数を可変長符号化により圧縮する。   The quantization (Q) unit 176 quantizes the DCT coefficient from the DCT unit 175 using a matrix table in consideration of visual characteristics. The VLC unit 177 compresses the quantized DCT coefficient from the Q unit 176 by variable length coding.

バッファメモリ178は、VLC部177で可変長符号化により圧縮された符号化データの転送速度を一定にするためのメモリである。このバッファメモリ178から解像度変換されたビデオ符号化データが一定の転送レートでビットストリームとして出力される。   The buffer memory 178 is a memory for making the transfer rate of the encoded data compressed by the variable length encoding by the VLC unit 177 constant. Video encoded data whose resolution has been converted is output from the buffer memory 178 as a bit stream at a constant transfer rate.

レート制御部183は、バッファメモリ178におけるバッファ容量の増減の変化情報によりQ部176における情報発生量の増減、すなわち量子化ステップを制御する。   The rate control unit 183 controls the increase / decrease of the information generation amount in the Q unit 176, that is, the quantization step, according to the change information of the increase / decrease of the buffer capacity in the buffer memory 178.

IQ部179は、IDCT部180と共に局部復号部を構成し、Q部176からの量子化DCT係数を逆量子化し、DCT係数をIDCT部180に供給する。IDCT部180は、IQ部179からのDCT係数を逆DCT変換し、画素データに戻して加算器181に供給する。   IQ section 179 constitutes a local decoding section together with IDCT section 180, dequantizes the quantized DCT coefficients from Q section 176, and supplies the DCT coefficients to IDCT section 180. The IDCT unit 180 performs inverse DCT conversion on the DCT coefficient from the IQ unit 179, returns it to pixel data, and supplies it to the adder 181.

加算器181は、IDCT部180からの逆DCT出力である画素データにMC部174からの動き補償出力を加算する。加算器181からの加算出力となる画像情報はFM部182に供給される。このFM部182に格納された画像情報にはMC部174で動き補償処理が施される。   The adder 181 adds the motion compensation output from the MC unit 174 to the pixel data that is the inverse DCT output from the IDCT unit 180. Image information that is an addition output from the adder 181 is supplied to the FM unit 182. The MC section 174 performs motion compensation processing on the image information stored in the FM section 182.

MC部174は、FM部182に格納されている画像情報に対してME部172で推定された最適な動きベクトルを用いて、動き補償処理を施し、参照画像となる動き補償出力を加算器173に供給する。   The MC unit 174 performs motion compensation processing on the image information stored in the FM unit 182 using the optimal motion vector estimated by the ME unit 172, and adds a motion compensation output serving as a reference image to the adder 173. To supply.

加算器173は、上述したように、解像度変換部160からの変換出力画像と上記参照画像との差分を採ってDCT部175に供給する。   As described above, the adder 173 takes the difference between the conversion output image from the resolution conversion unit 160 and the reference image and supplies the difference to the DCT unit 175.

DCT部175、Q部176、VLC部177及びバッファメモリ178は、上述したように動作し、最終的にこのディジタルビデオ信号変換装置から解像度変換されたビデオ符号化データが一定の転送レートでビットストリームとして出力される。   The DCT unit 175, the Q unit 176, the VLC unit 177, and the buffer memory 178 operate as described above, and finally, the video encoded data whose resolution is converted from the digital video signal conversion device is bit-streamed at a constant transfer rate. Is output as

このディジタルビデオ信号変換装置では、符号化部220のME部172で動きベクトルを推定するときに、全く情報が無い状態から推定するのではなく、基の圧縮されたビデオ信号のマクロブロックについている動きベクトルを、解像度変換部160での解像度変換率に応じてスケール変換部171でスケール変換し、このスケール変換部171からのスケール変換情報を基に解像度変換部160からの変換出力画像の狭い範囲をサーチして動き補償用の動きベクトルを推定している。このため、ME部172での計算量を大幅に削減することができるので、装置の小型化及び変換処理時間の短縮化を達成できる。   In this digital video signal conversion apparatus, when the motion vector is estimated by the ME unit 172 of the encoding unit 220, the motion associated with the macroblock of the original compressed video signal is not estimated from a state where there is no information. The vector is scale-converted by the scale conversion unit 171 in accordance with the resolution conversion rate in the resolution conversion unit 160, and a narrow range of the converted output image from the resolution conversion unit 160 is obtained based on the scale conversion information from the scale conversion unit 171. A motion vector for motion compensation is estimated by searching. For this reason, since the amount of calculation in the ME unit 172 can be significantly reduced, it is possible to reduce the size of the apparatus and shorten the conversion processing time.

次に、第12の実施の形態について説明する。この実施の形態も、MPEGビデオ信号に解像度変換処理を施して出力するディジタルビデオ信号変換装置である。   Next, a twelfth embodiment will be described. This embodiment is also a digital video signal conversion apparatus that performs resolution conversion processing on an MPEG video signal and outputs the result.

このディジタルビデオ信号変換装置は、図23に示すように、上記ハイブリッド符号化が施されているMPEG符号化データに対して、MCを用いた予測復号処理のみを施すことにより直交変換符号化が施されたままの直交変換領域の復号データを得る復号部211と、この復号部211からの直交変換領域の復号データに解像度変換処理を施す解像度変換部260と、この解像度変換部260からの変換出力に、上記MPEG符号化データの動きベクトル情報に基づいた動き検出を用いて動き補償予測を伴った圧縮符号化処理を施す符号化部221とを備えてなる。   As shown in FIG. 23, this digital video signal conversion apparatus performs orthogonal transform coding by performing only predictive decoding processing using MC on MPEG coded data subjected to the above hybrid coding. A decoding unit 211 that obtains decoded data in the orthogonal transformation region as it is, a resolution conversion unit 260 that performs resolution conversion processing on the decoded data in the orthogonal transformation region from the decoding unit 211, and a conversion output from the resolution conversion unit 260 And an encoding unit 221 that performs compression encoding processing with motion compensation prediction using motion detection based on motion vector information of the MPEG encoded data.

なお、以下でも、これらの各部により構成されるディジタルビデオ信号変換装置について述べるが、各構成部が本発明に係るディジタル信号変換方法の各工程の処理を実施するのはもちろんである。   In the following, a digital video signal conversion apparatus constituted by each of these units will be described, but it goes without saying that each of the components implements the process of each step of the digital signal conversion method according to the present invention.

このディジタルビデオ信号変換装置は、上記図22に示した装置と比較すると、復号部210でIDCT部150を、また符号化部220でDCT部175とIDCT部180を不要とする。すなわち、このディジタルビデオ信号変換装置は、DCT領域のままの復号データに解像度変換処理を施し、この変換出力を符号化する。   Compared with the apparatus shown in FIG. 22, this digital video signal conversion apparatus eliminates the need for the IDCT section 150 in the decoding section 210 and the DCT section 175 and the IDCT section 180 in the encoding section 220. That is, the digital video signal conversion apparatus performs resolution conversion processing on the decoded data in the DCT region and encodes the converted output.

DCT等の直交変換及びその逆変換には一般的に多くの計算量を要する。このため、上述したような解像度の変換が効率良く行えない可能性がある。また、計算量の増加に伴って誤差が蓄積されるため、信号が劣化する可能性もある。   An orthogonal transformation such as DCT and its inverse transformation generally require a large amount of calculation. For this reason, there is a possibility that the resolution conversion as described above cannot be performed efficiently. Further, since errors are accumulated as the amount of calculation increases, the signal may be deteriorated.

そこで、図23に示したディジタルビデオ信号変換装置は、図22におけるIDCT部150と、DCT部175と、IDCT部150を省略し、さらに解像度変換部160の機能を変更している。   Therefore, the digital video signal conversion apparatus shown in FIG. 23 omits the IDCT unit 150, the DCT unit 175, and the IDCT unit 150 in FIG. 22, and further changes the function of the resolution conversion unit 160.

また、DCT領域において解像度変換部160からの変換DCT係数から後述する精細度を算出し、この精細度を用いて動きベクトルを推定するために、図22に示したスケール変換部171の代わりに精細度算出部200を用いている。   Further, in the DCT region, in order to calculate the later-described definition from the converted DCT coefficient from the resolution conversion unit 160 and to estimate the motion vector using this definition, a definition is used instead of the scale conversion unit 171 shown in FIG. The degree calculation unit 200 is used.

図23に示す解像度変換部260には、VLD部212で復号された量子化DCT係数をIQ部213で逆量子化して得たDCT係数にMC部252からの動き補償出力を加算器251で加算した加算出力(DCT係数)が供給される。   23 adds the motion compensation output from the MC unit 252 to the DCT coefficient obtained by dequantizing the quantized DCT coefficient decoded by the VLD unit 212 by the IQ unit 213 by the adder 251. The added output (DCT coefficient) is supplied.

この解像度変換部260は、上記MPEG符号化データに施されているDCT符号化で用いられた直交変換行列に対応する逆直交変換行列と、時間領域での信号変換出力信号を得るためのIDCT符号化に用いる逆直交変換行列に対応する直交変換行列とに基づいて生成された変換行列により復号部211からのDCT変換領域のDCT係数に解像度変換処理を施す。   The resolution converter 260 includes an inverse orthogonal transform matrix corresponding to the orthogonal transform matrix used in the DCT encoding applied to the MPEG encoded data, and an IDCT code for obtaining a signal conversion output signal in the time domain. Resolution conversion processing is performed on the DCT coefficients in the DCT conversion region from the decoding unit 211 using a transformation matrix generated based on the orthogonal transformation matrix corresponding to the inverse orthogonal transformation matrix used for conversion.

この解像度変換部260からの解像度変換出力であるDCT係数は、精細度算出部200に供給される。精細度算出部200は、解像度変換部260からのDCT係数の輝度成分からマクロブロック単位での空間の精細度(Activity)を算出する。具体的には、DCT係数のAC値の最大値を用いて、画像の特徴を算出する。例えば、高周波成分が少なければ、平坦な画であることを示す。   The DCT coefficient that is the resolution conversion output from the resolution conversion unit 260 is supplied to the definition calculation unit 200. The definition calculation unit 200 calculates the definition (activity) of the space in units of macroblocks from the luminance component of the DCT coefficient from the resolution conversion unit 260. Specifically, the feature of the image is calculated using the maximum AC value of the DCT coefficient. For example, if there are few high frequency components, it will show that it is a flat image.

ME部272は、精細度算出部200が算出した精細度に基づいて、変換された解像度での最適な動きベクトルを推定する。すなわち、ME部272は、VLD212で抽出した動きベクトルmvを、精細度算出部200で算出した精細度に基づいて変換し、動きベクトルmvを推定し、この推定した動きベクトルmvをME部272に供給する。ここで、ME部272は、直交変換領域のままで動きベクトルを推定する。この直交変換領域でのMEについては後述する。   The ME unit 272 estimates an optimal motion vector at the converted resolution based on the definition calculated by the definition calculation unit 200. That is, the ME unit 272 converts the motion vector mv extracted by the VLD 212 based on the definition calculated by the definition calculation unit 200, estimates the motion vector mv, and sends the estimated motion vector mv to the ME unit 272. Supply. Here, the ME unit 272 estimates the motion vector while remaining in the orthogonal transformation region. The ME in this orthogonal transformation region will be described later.

解像度変換部260からの解像度変換DCT係数は、精細度算出部200及びME部272を介して加算器273に供給される。   The resolution conversion DCT coefficient from the resolution conversion unit 260 is supplied to the adder 273 via the definition calculation unit 200 and the ME unit 272.

加算器273は、後述する参照DCT係数と解像度変換部260からの変換DCT係数との差分を採り、量子化(Q)部276に供給する。   The adder 273 takes a difference between a reference DCT coefficient (to be described later) and a converted DCT coefficient from the resolution conversion unit 260 and supplies the difference to a quantization (Q) unit 276.

Q部276は、上記差分値(DCT係数)を量子化し、量子化DCT係数をVLC部277及びIQ部279に供給する。   The Q unit 276 quantizes the difference value (DCT coefficient) and supplies the quantized DCT coefficient to the VLC unit 277 and the IQ unit 279.

また、レート制御部283は、精細度算出部200からの精細度情報と、バッファメモリ278でのバッファ容量の増減の変化情報によりQ部276における情報発生量の増減、すなわち量子化ステップを制御する。   Further, the rate control unit 283 controls the increase / decrease of the information generation amount in the Q unit 276, that is, the quantization step, based on the definition information from the definition calculation unit 200 and the change information of the increase / decrease of the buffer capacity in the buffer memory 278. .

VLC部277は、Q部276からの量子化DCT係数を可変長符号化により圧縮符号化し、バッファメモリ278に供給する。バッファメモリ278は、VLC部277で可変長符号化により圧縮された符号化データの転送速度を一定にし、解像度変換されたビデオ符号化データを一定の転送レートでビットストリームとして出力する。   The VLC unit 277 compresses and encodes the quantized DCT coefficient from the Q unit 276 by variable length coding, and supplies it to the buffer memory 278. The buffer memory 278 makes the transfer rate of the encoded data compressed by the variable length encoding by the VLC unit 277 constant, and outputs the video encoded data subjected to resolution conversion as a bit stream at a constant transfer rate.

IQ部279は、Q部276からの量子化DCT係数を逆量子化し、DCT係数を加算器281に供給する。加算器281は、IQ部279からの逆Q出力であるDCT係数にMC部274からの動き補償出力を加算する。加算器281からの加算出力となるDCT係数情報はFM部282に供給される。このFM部282に格納されたDCT係数情報にはMC部274で動き補償処理が施される。   The IQ unit 279 inversely quantizes the quantized DCT coefficient from the Q unit 276 and supplies the DCT coefficient to the adder 281. The adder 281 adds the motion compensation output from the MC unit 274 to the DCT coefficient that is the inverse Q output from the IQ unit 279. The DCT coefficient information that is the addition output from the adder 281 is supplied to the FM unit 282. The MC unit 274 performs motion compensation processing on the DCT coefficient information stored in the FM unit 282.

MC部274は、FM部282に格納されているDCT係数情報に対してME部272で推定された最適な動きベクトルを用いて、動き補償処理を施し、参照DCT係数となる動き補償出力を加算器281に供給する。   The MC unit 274 performs motion compensation processing on the DCT coefficient information stored in the FM unit 282 using the optimal motion vector estimated by the ME unit 272, and adds the motion compensation output that becomes the reference DCT coefficient. To the container 281.

加算器273は、上述したように、解像度変換部260からの変換DCT係数と上記参照DCT係数との差分を採ってQ部276に供給する。   As described above, the adder 273 takes the difference between the converted DCT coefficient from the resolution converter 260 and the reference DCT coefficient and supplies the difference to the Q unit 276.

そして、Q部276、VLC部277及びバッファメモリ278は、上述したように動作し、最終的にこのディジタルビデオ信号変換装置から解像度変換されたビデオ符号化データが一定の転送レートで出力される。   The Q unit 276, the VLC unit 277, and the buffer memory 278 operate as described above, and finally, video encoded data whose resolution is converted from the digital video signal conversion device is output at a constant transfer rate.

ここで、MC部274は、ME部272で推定された最適な動きベクトルと、FM282に格納されている参照DCT係数とを用い、ME部272と同様に直交変換領域のままで動き補償を行う。   Here, the MC unit 274 uses the optimal motion vector estimated by the ME unit 272 and the reference DCT coefficient stored in the FM 282, and performs motion compensation in the orthogonal transform region as in the ME unit 272. .

直交変換領域でのME及びMCについて図24〜図26を参照しながら説明する。図24において、実線は圧縮しようとしている画像Aのマクロブロックを表し、点線は参照用の画像Bのマクロブロックを表す。動きベクトルを用いて圧縮しようとしている画像Aと参照用画像Bとを図24のように重ねあわせると、マクロブロックの境界線が一致しない場合が起こる。図24の場合では、現在圧縮しようとしているマクロブロックB'は、参照用の画像Bの4つのマクロブロックB、B、B、Bに跨っている。従って、マクロブロックB'に一体一で対応する参照用画像Bのマクロブロックは存在しないことになってしまい、マクロブロックB'が位置しているところの参照用画像BのDCT係数を得ることがきない。そこでマクロブロックB'が跨っている参照用画像Bの4つのマクロブロックのDCT係数を変換処理することによって、マクロブロックB'が位置している部分の参照用画像BのDCT係数を得る必要がある。 ME and MC in the orthogonal transformation region will be described with reference to FIGS. In FIG. 24, a solid line represents a macroblock of image A to be compressed, and a dotted line represents a macroblock of image B for reference. When the image A to be compressed using the motion vector and the reference image B are overlapped as shown in FIG. 24, the boundary line of the macroblock may not match. In the case of FIG. 24, the macroblock B ′ that is currently compressed straddles the four macroblocks B 1 , B 2 , B 3 , and B 4 of the reference image B. Therefore, there is no macroblock of the reference image B that corresponds to the macroblock B ′, and the DCT coefficient of the reference image B where the macroblock B ′ is located can be obtained. Absent. Therefore, it is necessary to obtain the DCT coefficients of the reference image B in the portion where the macroblock B ′ is located by converting the DCT coefficients of the four macroblocks of the reference image B over which the macroblock B ′ straddles. is there.

図25は、この変換処理の手順を模式的に示したものである。参照用画像BのマクロブロックBの左下部分がマクロブロックB'と重なっている部分であるが、マクロブロックB’から見れば右上部分が重なった部分であるので、マクロブロックBのDCT係数を、後述する変換によって、マクロブロックB13を生成する。同様に参照用画像BのマクロブロックBの右下部分がマクロブロックB'と重なっている部分であるが、マクロブロックB’から見れば左上部分が重なった部分であるので、マクロブロックBのDCT係数を後述する変換によって、マクロブロックB24を生成する。同様の処理をマクロブロックBとBに施すことによってマクロブロックB31とB42を生成する。こうして生成された4つのマクロブロックB13、B24、B31、B42を組み合わせることにより、マクロブロックB'が位置している部分の参照用画像BのDCT係数を得ることができる。 FIG. 25 schematically shows the procedure of this conversion process. Although the lower left part of the macro block B 1 of the reference image B overlaps with the macro block B ′, since the upper right part overlaps with the macro block B ′, the DCT coefficient of the macro block B 1 The macro block B 13 is generated by conversion described later. 'Is a portion that overlaps the macroblock B' lower right portion of the macroblock B 2 similarly reference image B macroblock B since the portion where the upper left portion overlaps when viewed from the macroblock B 2 The macroblock B 24 is generated by transforming the DCT coefficients of the later-described DCT coefficients. Generating macro blocks B 31 and B 42 by performing similar processing to the macroblock B 3 and B 4. By combining the four macro blocks B 13 , B 24 , B 31 , and B 42 generated in this way, the DCT coefficient of the reference image B in the portion where the macro block B ′ is located can be obtained.

つまり、次の式(6)、(7)のように表すことができる。   That is, it can be expressed as the following equations (6) and (7).

B’= B13+B24+B31+B42 ・・・ (6)
DCT(B') = DCT(B13)+DCT(B24)
+DCT(B31)+DCT(B42) ・・・(7)
B ′ = B 13 + B 24 + B 31 + B 42 (6)
DCT (B ′) = DCT (B 13 ) + DCT (B 24 )
+ DCT (B 31 ) + DCT (B 42 ) (7)

次にマクロブロックのDCT係数の変換について図26を用いて説明する。図26は、空間領域における例えばBのような、オリジナルブロックから計算によって部分的なB42を求めるときの数学的なモデルを示している。具体的には、上部左側のBを抽出し、0で補間し、下部右側に動かしている。ブロックBから以下の式(8)の計算により得られたB42を示しているのである。 Next, conversion of the DCT coefficient of the macroblock will be described with reference to FIG. FIG. 26 shows a mathematical model for obtaining a partial B 42 by calculation from an original block, such as B 4 in the spatial domain. Specifically, extracts the top left of B 4, interpolated by 0, are moved to the lower right. B 42 obtained from the calculation of the following equation (8) from the block B 4 is shown.

Figure 2008118693
Figure 2008118693

ここで、IとIは、ブロックBから抽出したh及びwの列及び行からなるサイズh×h及びw×wのそれぞれの行列の識別符号である。図26に示すように、Bに先ず合成されるプリマトリクスHは、最初のh列を取り出すと共に、底部に変換し、Bに後で合成されるHは始めのw行を取り出すと共に、右側に変換する。 Here, I h and I w are identification codes of respective matrices of size h × h and w × w composed of columns and rows of h and w extracted from the block B 4 . As shown in FIG. 26, the pre-matrix H 1 synthesized first with B 4 takes out the first h columns and converts it to the bottom, and H 2 synthesized later with B 4 takes out the first w rows. And convert to the right.

上記式(8)を基に、B42のDCTを直接、BのDCTから次の式(9)により計算できる。 Based the above formula (8), the DCT of B 42 can be directly calculated from the DCT of B 4 by the following equation (9).

DCT(B42)=DCT(H)×DCT(B)×DCT(H) ・・・(9) DCT (B 42 ) = DCT (H 1 ) × DCT (B 4 ) × DCT (H 2 ) (9)

これを、全てのサブブロックに当てはめ、合計すると、次の式(10)に示すように、オリジナルのブロックB〜BのDCTから直接に新しいブロックB’のDCT係数を得ることができる。 When this is applied to all the sub-blocks and summed up, the DCT coefficients of the new block B ′ can be obtained directly from the DCTs of the original blocks B 1 to B 4 as shown in the following equation (10).

Figure 2008118693
Figure 2008118693

ここで、Hi1とHi2のDCTを予め計算し、メモリに格納してテーブルメモリを構成しておいてもよい。このようにして、直交変換領域でもME及びMCが可能である。 Here, the DCT of H i1 and H i2 may be calculated in advance and stored in the memory to configure the table memory. In this way, ME and MC are possible even in the orthogonal transform region.

そして、符号化部221では、ME部272で動きベクトルを推定するときに、全く情報が無い状態から推定するのではなく、元の圧縮されたビデオ信号のマクロブロックについている動きベクトルを、解像度変換部260の変換出力から精細度算出部200が算出した精細度に応じて狭い範囲でサーチして推定している。   In the encoding unit 221, when the motion vector is estimated by the ME unit 272, the motion vector attached to the macro block of the original compressed video signal is not estimated from a state where there is no information at all. A narrow range is searched for and estimated according to the definition calculated by the definition calculation unit 200 from the converted output of the unit 260.

以上説明したように、この他の実施の形態となるディジタルビデオ信号変換装置の復号部211では、動き検出を伴う予測符号化と直交変換符号化とを含むハイブリッド符号化が施されたMPEG符号化データに動き補償を伴う予測復号処理、すなわちVLD後にIQし、そこで動き補償をし、DCT領域のままの復号データを得、このDCT領域の復号データに解像度変換を施しているので、直交変換された領域で解像度変換が直接に行え、時間領域や空間領域への復号(逆直交変換)が不要となり、計算が簡略化され、計算誤差の小さい高品質の変換が行える。さらに、符号化部221では、ME部272で動きベクトルを推定するときに、全く情報が無い状態から推定するのではなく、基の圧縮されたビデオ信号のマクロブロックについている動きベクトルを、解像度変換出力から算出した精細度に応じて狭い範囲でサーチして動きベクトルを推定している。このため、ME部272での計算量を大幅に削減することができるので、装置の小型化及び変換処理の短縮化を達成できる。   As described above, in the decoding unit 211 of the digital video signal conversion device according to another embodiment, MPEG coding subjected to hybrid coding including predictive coding with motion detection and orthogonal transform coding is performed. Predictive decoding processing with motion compensation for data, that is, IQ after VLD, motion compensation is performed there to obtain decoded data as it is in the DCT region, and resolution conversion is performed on the decoded data in the DCT region, so that orthogonal transformation is performed. Therefore, resolution conversion can be performed directly in the area, decoding into time domain or space domain (inverse orthogonal transformation) is not required, calculation is simplified, and high quality conversion with small calculation error can be performed. Further, in the encoding unit 221, when the ME unit 272 estimates a motion vector, it is not estimated from a state where there is no information at all. Instead, the motion vector attached to the macroblock of the original compressed video signal is subjected to resolution conversion. A motion vector is estimated by searching in a narrow range according to the definition calculated from the output. For this reason, since the amount of calculation in the ME unit 272 can be significantly reduced, the apparatus can be downsized and the conversion process can be shortened.

次に、第13の実施の形態について説明する。この例も、MPEG符号化データに解像度変換処理のような信号変換処理を施してビデオ符号化データを出力するディジタルビデオ信号変換装置である。   Next, a thirteenth embodiment will be described. This example is also a digital video signal conversion device that performs signal conversion processing such as resolution conversion processing on MPEG encoded data and outputs video encoded data.

このディジタルビデオ信号変換装置は、図27に示すように、上記ハイブリッド符号化が施されているMPEG符号化データに対して、一部復号処理を施して直交変換領域のデータを得る復号部340と、この復号部340からの直交変換領域のデータに解像度変換処理を施す変換部343と、この変換部343からの変換出力に、上記MPEG符号化データの動きベクトル情報に基づいた動きベクトルを付加して圧縮符号化処理を施す符号化部350とを備えてなる。   As shown in FIG. 27, the digital video signal conversion apparatus includes a decoding unit 340 that performs partial decoding processing on the MPEG encoded data that has been subjected to the hybrid encoding to obtain data in the orthogonal transform region. A conversion unit 343 that performs resolution conversion processing on the orthogonal transform region data from the decoding unit 340, and a motion vector based on the motion vector information of the MPEG encoded data is added to the conversion output from the conversion unit 343. And an encoding unit 350 that performs compression encoding processing.

復号部340は、VLD部341と、IQ部342とを備えてなる。このVLD部341とIQ部342は、上記図21に示したVLD部112とIQ部113と同様の構成であり、同様に動作する。この復号部340で特徴的なのは、MCを行っていない点である。   The decoding unit 340 includes a VLD unit 341 and an IQ unit 342. The VLD unit 341 and IQ unit 342 have the same configuration as the VLD unit 112 and IQ unit 113 shown in FIG. 21 and operate in the same manner. The decoding unit 340 is characterized in that MC is not performed.

すなわち、PピクチャとBピクチャはMCをしないで、差分情報となるDCT係数に対して、変換部343で解像度の変換を行う。解像度変換により得られた変換DCT係数は、レート制御部348でレートが制御されるQ部345により量子化され、VLC部346で可変長復号された後、バッファメモリ347で一定レートとされて出力される。   That is, the P picture and the B picture are not subjected to MC, and the conversion unit 343 performs resolution conversion on the DCT coefficient serving as difference information. The converted DCT coefficient obtained by the resolution conversion is quantized by the Q unit 345 whose rate is controlled by the rate control unit 348, variable-length decoded by the VLC unit 346, and then output at a constant rate by the buffer memory 347. Is done.

このとき、符号化部350の動きベクトル変換部344では、VLD部341で抽出された動きベクトルmvを解像度変換率に応じて再スケーリングし、VLC部346に供給する。   At this time, the motion vector conversion unit 344 of the encoding unit 350 rescals the motion vector mv extracted by the VLD unit 341 according to the resolution conversion rate and supplies the rescaled motion vector mv to the VLC unit 346.

VLC部346は、Q部345からの量子化DCT係数に再スケーリングされた動きベクトルmvを付加して可変長符号化処理を施し、符号化データをバッファメモリ347に供給する。   The VLC unit 346 adds the rescaled motion vector mv to the quantized DCT coefficient from the Q unit 345, performs variable length encoding processing, and supplies the encoded data to the buffer memory 347.

このように、図27に示したディジタルビデオ信号変換装置は、復号部340及び符号化部350でMCを行わないので、計算が簡略化でき、ハードウェア負担を軽減できる。   In this way, the digital video signal conversion apparatus shown in FIG. 27 does not perform MC in the decoding unit 340 and the encoding unit 350, so that the calculation can be simplified and the hardware burden can be reduced.

上述の各ディジタルビデオ信号変換装置でレート変換を行ってもよい。つまり解像度をそのままで、転送レートを4Mbpsから2Mbpsに変換するときに適用してもよい。   Rate conversion may be performed by each of the digital video signal conversion devices described above. In other words, it may be applied when converting the transfer rate from 4 Mbps to 2 Mbps with the resolution unchanged.

なお、上記各実施の形態としては、いずれも装置構成を挙げたが、本発明に係るディジタル信号変換方法をソフトウェアとして用いることにより、上記各装置を構成するようにしてもよい。   In each of the above embodiments, the device configuration has been described. However, each of the above devices may be configured by using the digital signal conversion method according to the present invention as software.

以上説明した本発明の実施の形態によれば、動き検出を伴って圧縮符号化されている入力情報信号に対して動き補償を伴った復号を施し、この復号信号に信号変換処理を施し、この変換信号に、上記入力情報信号の動きベクトル情報に基づいた動き検出を伴って圧縮符号化処理を施す。この信号変換処理として解像度変換処理を適用するときには、この解像度変換処理に応じて上記動きベクトル情報をスケール変換して得られる情報に基づいた動き補償を伴った圧縮符号化処理を上記変換信号に施す。特に、圧縮符号化時に必要とする動きベクトル情報を、解像度変換率に応じてスケール変換し、狭い範囲でサーチして推定しているので、動きベクトル推定時の計算量を大幅に削減でき、装置の小型化及び変換処理時間の短縮化を達成できる。   According to the embodiment of the present invention described above, decoding with motion compensation is performed on an input information signal that has been compression-encoded with motion detection, signal conversion processing is performed on the decoded signal, and The converted signal is subjected to compression coding processing with motion detection based on the motion vector information of the input information signal. When applying the resolution conversion process as the signal conversion process, the conversion signal is subjected to a compression encoding process with motion compensation based on information obtained by scaling the motion vector information according to the resolution conversion process. . In particular, since motion vector information necessary for compression encoding is scaled according to the resolution conversion rate and searched and estimated in a narrow range, the amount of calculation at the time of motion vector estimation can be greatly reduced, and the device Downsizing and conversion processing time can be shortened.

また、本発明の実施の形態は、動き検出を伴う予測符号化と直交変換符号化とを含む圧縮符号化が施されている入力情報信号に対して、一部復号処理を施して直交変換領域の復号信号を得、この直交変換領域の復号信号に信号変換処理を施し、この変換信号に、上記入力情報信号の動きベクトル情報に基づいた動き検出を用いて動き補償予測を伴った圧縮符号化処理を施す。このとき、信号変換処理として、解像度変換処理を適用するときには、この解像度変換処理から得られる精細度に応じて上記動きベクトル情報を変換して得られる情報に基づいた動き補償を伴って、圧縮符号化処理を上記変換信号に施すので、圧縮符号化時に必要とする動きベクトル情報を狭い範囲でサーチして推定でき、計算量を大幅に削減できるので、装置の小型化及び変換処理時間の短縮化を達成できる。また、直交変換領域で信号変換処理を行えるので、逆直交変換処理を不要とし、時間領域や空間領域への復号(逆直交変換)が不要となり、計算が簡略化され、計算誤差の小さい高品質の変換が行える。   In the embodiment of the present invention, a partial decoding process is performed on an input information signal that has been subjected to compression coding including predictive coding with motion detection and orthogonal transform coding, thereby performing orthogonal transform regions. The decoded signal of the orthogonal transform domain is subjected to signal conversion processing, and the converted signal is subjected to compression coding with motion compensation prediction using motion detection based on the motion vector information of the input information signal. Apply processing. At this time, when applying the resolution conversion process as the signal conversion process, the compression code is accompanied by motion compensation based on the information obtained by converting the motion vector information according to the definition obtained from the resolution conversion process. Since the conversion process is performed on the converted signal, motion vector information required for compression encoding can be searched and estimated in a narrow range, and the amount of calculation can be greatly reduced, so that the apparatus can be downsized and the conversion processing time can be shortened. Can be achieved. In addition, since signal transformation processing can be performed in the orthogonal transformation domain, inverse orthogonal transformation processing is unnecessary, decoding into the time domain and space domain (inverse orthogonal transformation) is unnecessary, calculation is simplified, and high quality with small calculation errors Can be converted.

また、本発明の実施の形態は、動き検出を伴う予測符号化と直交変換符号化とを含む圧縮符号化が施されている入力情報信号に対して、一部復号処理を施して直交変換領域の復号信号を得、この直交変換領域の復号信号に信号変換処理を施し、この変換信号に、上記入力情報信号の動きベクトル情報に基づいて変換した動きベクトル情報を付加して圧縮符号化処理を施す。このため、信号変換処理として解像度変換処理を適用するときには、この解像度変換処理に応じて上記動きベクトル情報をスケール変換して得られる情報を付加した圧縮符号化処理を上記変換信号に施すことになる。   In the embodiment of the present invention, a partial decoding process is performed on an input information signal that has been subjected to compression coding including predictive coding with motion detection and orthogonal transform coding, thereby performing orthogonal transform regions. The decoded signal of the orthogonal transform domain is subjected to signal conversion processing, and motion vector information converted based on the motion vector information of the input information signal is added to the converted signal to perform compression encoding processing. Apply. For this reason, when the resolution conversion process is applied as the signal conversion process, a compression encoding process to which information obtained by scaling the motion vector information is added to the converted signal according to the resolution conversion process. .

すなわち、圧縮符号化時に付加する動きベクトル情報を狭い範囲でサーチして推定できるので、動きベクトル推定時の計算量を大幅に削減できる。また、直交変換領域で信号変換処理を行えるので、逆直交変換処理を不要とできる。また、復号時及び符号化時に動き補償処理を用いていないので、計算量のさらなる削減を可能とする。   That is, since motion vector information added at the time of compression encoding can be searched and estimated within a narrow range, the amount of calculation at the time of motion vector estimation can be greatly reduced. In addition, since the signal conversion process can be performed in the orthogonal transform region, the inverse orthogonal transform process can be omitted. In addition, since no motion compensation processing is used at the time of decoding and encoding, the amount of calculation can be further reduced.

なお、本発明は、上述した実施の形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。   It should be noted that the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.

本発明の第1の実施の形態に係るディジタル信号変換装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the digital signal converter which concerns on the 1st Embodiment of this invention. 直交変換領域における解像度変換の原理について説明するための図である。It is a figure for demonstrating the principle of the resolution conversion in an orthogonal transformation area | region. 直交変換領域における解像度変換の原理について説明するための図である。It is a figure for demonstrating the principle of the resolution conversion in an orthogonal transformation area | region. 図4A〜図4Cは、本発明の第1の実施の形態に係るディジタル信号変換により、DVビデオ信号がMPEGビデオ信号に変換される際の様子を模式的に示す図である。4A to 4C are diagrams schematically showing a state in which a DV video signal is converted into an MPEG video signal by digital signal conversion according to the first embodiment of the present invention. DVフォーマットとMPEGフォーマットの関係を説明するための図である。It is a figure for demonstrating the relationship between DV format and MPEG format. 解像度変換処理のための基本的な計算手順を説明するための図である。It is a figure for demonstrating the basic calculation procedure for the resolution conversion process. 図7A,図7Bは、DVフォーマットの「静止モード」と「動きモード」とについて説明するための図である。7A and 7B are diagrams for explaining the “still mode” and “motion mode” of the DV format. 「静止モード」における変換処理の手順を説明するための図である。It is a figure for demonstrating the procedure of the conversion process in "still mode." 図9A〜図9Cは、本発明の第2の実施の形態に係るディジタル信号変換装置の構成例を示すブロック図である。FIG. 9A to FIG. 9C are block diagrams showing configuration examples of the digital signal conversion apparatus according to the second embodiment of the present invention. 画像を拡大する場合の変換処理の手順を説明するための図である。It is a figure for demonstrating the procedure of the conversion process in the case of enlarging an image. 本発明の第3の実施の形態に係るディジタル信号変換装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the digital signal converter which concerns on the 3rd Embodiment of this invention. 本発明の第4の実施の形態に係るディジタル信号変換装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the digital signal converter which concerns on the 4th Embodiment of this invention. 本発明の第5の実施の形態に係るディジタル信号変換装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the digital signal converter which concerns on the 5th Embodiment of this invention. 本発明の第6の実施の形態に係るディジタル信号変換装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the digital signal converter which concerns on the 6th Embodiment of this invention. 本発明の第7の実施の形態に係るディジタル信号変換装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the digital signal converter which concerns on the 7th Embodiment of this invention. 本発明の第7の実施の形態において、DVビデオ信号がMPEGビデオ信号に変換される際に、各フレームのマクロブロック(MB)毎に量子化スケールが設定される基本的な手順を示すフローチャートである。In the 7th Embodiment of this invention, when a DV video signal is converted into an MPEG video signal, it is a flowchart which shows the basic procedure by which a quantization scale is set for every macroblock (MB) of each frame. is there. 本発明の第7の実施の形態において、設定された量子化スケールを用いて、次のフレームに対してフィードバックをかける基本的な手順を示すフローチャートである。In the 7th Embodiment of this invention, it is a flowchart which shows the basic procedure which applies a feedback with respect to the following flame | frame using the set quantization scale. 従来において、MPEGビデオ信号をDVビデオ信号に変換するディジタル信号変換装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the digital signal converter in the past which converts an MPEG video signal into a DV video signal. 本発明の第8の実施の形態に係るディジタル信号変換装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the digital signal converter which concerns on the 8th Embodiment of this invention. 本発明の第9の実施の形態に係るディジタル信号変換装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the digital signal converter which concerns on the 9th Embodiment of this invention. 本発明の第10の実施の形態に係るディジタル信号変換装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the digital signal converter which concerns on the 10th Embodiment of this invention. 本発明の第11の実施の形態に係るディジタル信号変換装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the digital signal converter which concerns on the 11th Embodiment of this invention. 本発明の第12の実施の形態に係るディジタル信号変換装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the digital signal converter which concerns on the 12th Embodiment of this invention. 本発明の第12の実施の形態おいて、直交変換領域での動き補償、動き推定処理を説明するための図であり、マクロブロックBが参照用画像の複数のマクロブロックに跨った様子を示す図である。In the 12th Embodiment of this invention, it is a figure for demonstrating the motion compensation and motion estimation process in an orthogonal transformation area | region, and shows a mode that the macroblock B straddled the several macroblock of the image for a reference | standard FIG. 本発明の第12の実施の形態おいて、直交変換領域での動き補償、動き推定処理を説明するための図であり、参照用マクロブロックの変換処理を示す図である。In the twelfth embodiment of the present invention, it is a diagram for describing motion compensation and motion estimation processing in an orthogonal transform region, and is a diagram illustrating conversion processing of a reference macroblock. 本発明の第12の実施の形態おいて、直交変換領域での動き補償、動き推定処理を説明するための図であり、参照用マクロブロックの変換手順を示す図である。In the twelfth embodiment of the present invention, it is a diagram for explaining motion compensation and motion estimation processing in an orthogonal transform region, and is a diagram showing a conversion procedure of a reference macroblock. 本発明の第13の実施の形態に係るディジタル信号変換装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the digital signal converter which concerns on the 13th Embodiment of this invention. 従来のディジタル信号変換装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the conventional digital signal converter.

符号の説明Explanation of symbols

8,210 復号部、 9,220 符号化部、 11 デフレーミング部、 12,112 可変長復号部、 13,26,113 逆量子化部、 14,25 逆重み付け部、 16 解像度変換部、 18 重み付け部、 19,141 量子化部、 20,142 可変長符号化部、 21 レート変換部、 24 フレームメモリ部、 29 レート制御部、 100 MPEGデコーダ、 110 DVDエンコーダ、 115,152,174 動き補償部、 130 離散コサイン変換部、 131 逆離散コサイン変換部、 143 フレーミング部、 160 解像度変換部、 171 動きベクトル変換部、 172 動き推定部   8,210 decoding unit, 9,220 encoding unit, 11 deframing unit, 12,112 variable length decoding unit, 13, 26,113 inverse quantization unit, 14,25 inverse weighting unit, 16 resolution conversion unit, 18 weighting Unit, 19, 141 quantization unit, 20, 142 variable length coding unit, 21 rate conversion unit, 24 frame memory unit, 29 rate control unit, 100 MPEG decoder, 110 DVD encoder, 115, 152, 174 motion compensation unit, 130 discrete cosine transform unit, 131 inverse discrete cosine transform unit, 143 framing unit, 160 resolution transform unit, 171 motion vector transform unit, 172 motion estimation unit

Claims (14)

第1のフォーマットのディジタル信号を、第2のフォーマットのディジタル信号に変換するディジタル信号変換方法において、
上記第1のフォーマットのディジタル信号を復号する復号工程と、
上記復号された第1のフォーマットのディジタル信号を上記第2のフォーマットのディジタル信号に変換する信号変換工程と、
上記第2のフォーマットのディジタル信号を符号化する符号化工程と、
上記復号された第1のフォーマットのディジタル信号に対する逆重み付けと上記第2のフォーマットのディジタル信号に対する重み付けとをまとめて行う重み付け処理工程と
を有することを特徴とするディジタル信号変換方法。
In a digital signal conversion method for converting a digital signal in a first format into a digital signal in a second format,
A decoding step of decoding the digital signal of the first format;
A signal converting step of converting the decoded digital signal of the first format into a digital signal of the second format;
An encoding step of encoding the digital signal of the second format;
A digital signal conversion method comprising: a weighting process step for collectively performing inverse weighting on the decoded digital signal in the first format and weighting on the digital signal in the second format.
上記第1のフォーマットのディジタル信号は直交変換されたディジタル信号であり、上記重み付け処理工程が直交変換領域で行われること
を特徴とする請求項1記載のディジタル信号変換方法。
The digital signal conversion method according to claim 1, wherein the digital signal of the first format is a digital signal subjected to orthogonal transformation, and the weighting processing step is performed in an orthogonal transformation region.
上記第1のフォーマットのディジタル信号は直交変換されたディジタル信号であり、上記重み付け処理工程が上記直交変換されたディジタル信号を逆直交変換した後に空間領域で行われること
を特徴とする請求項1記載のディジタル信号変換方法。
The digital signal of the first format is a digital signal subjected to orthogonal transformation, and the weighting processing step is performed in a spatial domain after the orthogonal transformation of the digital signal subjected to the orthogonal transformation. Digital signal conversion method.
上記第1のフォーマットのディジタル信号は離散コサイン変換により所定の固定レートで圧縮符号化されたビデオ信号であり、上記第2のフォーマットのディジタル信号は離散コサイン変換により可変レートで圧縮符号化されたビデオ信号であること
を特徴とする請求項1記載のディジタル信号変換方法。
The digital signal of the first format is a video signal compressed and encoded at a predetermined fixed rate by discrete cosine transform, and the digital signal of the second format is a video signal compressed and encoded at a variable rate by discrete cosine transform. The digital signal conversion method according to claim 1, wherein the signal is a signal.
上記重み付け処理工程が、上記第1のフォーマットのディジタル信号の逆量子化後であって上記信号変換工程よりも前に行われること
を特徴とする請求項1記載のディジタル信号変換方法。
The digital signal conversion method according to claim 1, wherein the weighting step is performed after the inverse quantization of the digital signal of the first format and before the signal conversion step.
上記重み付け処理工程が、上記信号変換工程よりも後であって上記第2のフォーマットの量子化よりも前に行われること
を特徴とする請求項1記載のディジタル信号変換方法。
2. The digital signal conversion method according to claim 1, wherein the weighting processing step is performed after the signal conversion step and before the quantization of the second format.
上記信号変換工程は、上記第1のフォーマットのディジタル信号に含まれるデータ量情報を利用して、上記第2のフォーマットのディジタル信号のデータ量を直交変換領域で制御すること
を特徴とする請求項1記載のディジタル信号変換方法。
The signal conversion step uses the data amount information included in the digital signal of the first format to control the data amount of the digital signal of the second format in an orthogonal transform region. The digital signal conversion method according to 1.
第1のフォーマットのディジタル信号を、第2のフォーマットのディジタル信号に変換するディジタル信号変換装置において、
上記第1のフォーマットのディジタル信号を復号する復号手段と、
上記復号された第1のフォーマットのディジタル信号を上記第2のフォーマットのディジタル信号に変換する信号変換手段と、
上記第2のディジタル信号を符号化する符号化手段と、
上記第1のフォーマットのディジタル信号に対する逆重み付けと上記第2のフォーマットのディジタル信号に対する重み付けとをまとめて行う重み付け処理手段と
を備えることを特徴とするディジタル信号変換装置。
In a digital signal converter for converting a digital signal of a first format into a digital signal of a second format,
Decoding means for decoding the digital signal of the first format;
Signal converting means for converting the decoded digital signal of the first format into the digital signal of the second format;
Encoding means for encoding the second digital signal;
A digital signal conversion apparatus comprising: weighting processing means for collectively performing inverse weighting on the digital signal in the first format and weighting on the digital signal in the second format.
上記第1のフォーマットのディジタル信号は直交変換されたディジタル信号であり、上記重み付け処理手段は第1のフォーマットのディジタル信号に対する逆重み付けと上記第2のフォーマットのディジタル信号に対する重み付けとを直交変換領域で行うこと
を特徴とする請求項8記載のディジタル信号変換装置。
The digital signal of the first format is a digital signal subjected to orthogonal transformation, and the weighting processing means performs inverse weighting for the digital signal of the first format and weighting for the digital signal of the second format in the orthogonal transformation region. 9. The digital signal converter according to claim 8, wherein the digital signal converter is performed.
上記第1のフォーマットのディジタル信号は直交変換されたディジタル信号であり、上記重み付け処理手段は第1のフォーマットのディジタル信号に対する逆重み付けと上記第2のフォーマットのディジタル信号に対する重み付けとを空間領域で行うこと
を特徴とする請求項8記載のディジタル信号変換装置。
The digital signal of the first format is a digital signal subjected to orthogonal transformation, and the weighting processing means performs inverse weighting for the digital signal of the first format and weighting for the digital signal of the second format in the spatial domain. 9. The digital signal converter according to claim 8.
上記第1のフォーマットのディジタル信号は離散コサイン変換により所定の固定レートで圧縮符号化されたビデオ信号であり、上記第2のフォーマットのディジタル信号は離散コサイン変換により可変レートで圧縮符号化されたビデオ信号であること
を特徴とする請求項8記載のディジタル信号変換装置。
The digital signal of the first format is a video signal compressed and encoded at a predetermined fixed rate by discrete cosine transform, and the digital signal of the second format is a video signal compressed and encoded at a variable rate by discrete cosine transform. 9. The digital signal converter according to claim 8, wherein the digital signal converter is a signal.
上記重み付け処理手段は、上記信号変換手段よりも前段に配され、上記第1のフォーマットのディジタル信号に対する逆重み付けと上記第2のフォーマットのディジタル信号に対する重み付けとを、上記第1のフォーマットのディジタル信号の逆量子化よりも後に行うこと
を特徴とする請求項8記載のディジタル信号変換装置。
The weighting processing means is arranged upstream of the signal converting means, and performs inverse weighting on the digital signal in the first format and weighting on the digital signal in the second format. 9. The digital signal converter according to claim 8, wherein the digital signal converter is performed after the inverse quantization of.
上記重み付け処理手段は、上記信号変換手段よりも後段に配され、上記第1のフォーマットのディジタル信号に対する逆重み付けと上記第2のフォーマットのディジタル信号に対する重み付けとを、上記第2のフォーマットのディジタル信号の量子化よりも前に行うこと
を特徴とする請求項8記載のディジタル信号変換装置。
The weighting processing means is disposed downstream of the signal converting means, and performs inverse weighting on the digital signal in the first format and weighting on the digital signal in the second format. The digital signal conversion apparatus according to claim 8, wherein the digital signal conversion is performed prior to quantization.
上記信号変換手段は、上記第1のフォーマットのディジタル信号に含まれるデータ量情報を利用して、上記第2のフォーマットのディジタル信号のデータ量を直交変換領域で制御すること
を特徴とする請求項8記載のディジタル信号変換装置。
The signal conversion means controls the data amount of the digital signal of the second format in an orthogonal transform region by using data amount information included in the digital signal of the first format. 9. The digital signal converter according to 8.
JP2007323441A 1997-11-05 2007-12-14 Digital signal conversion method and digital signal conversion device Pending JP2008118693A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007323441A JP2008118693A (en) 1997-11-05 2007-12-14 Digital signal conversion method and digital signal conversion device

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
JP30313297 1997-11-05
JP30313397 1997-11-05
JP30462397 1997-11-06
JP30595997 1997-11-07
JP31072197 1997-11-12
JP31407897 1997-11-14
JP2007323441A JP2008118693A (en) 1997-11-05 2007-12-14 Digital signal conversion method and digital signal conversion device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP52594399A Division JP4092734B2 (en) 1997-11-05 1998-11-05 Digital signal conversion method and digital signal conversion apparatus

Publications (1)

Publication Number Publication Date
JP2008118693A true JP2008118693A (en) 2008-05-22

Family

ID=39504187

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007323441A Pending JP2008118693A (en) 1997-11-05 2007-12-14 Digital signal conversion method and digital signal conversion device

Country Status (1)

Country Link
JP (1) JP2008118693A (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06334986A (en) * 1993-05-19 1994-12-02 Sony Corp Weighted cosine transform method
JPH0879741A (en) * 1994-08-31 1996-03-22 Canon Inc Device and method for processing image
JPH0898173A (en) * 1994-09-21 1996-04-12 Hitachi Ltd Resolution conversion device and resolution conversion system using the device
JPH08251587A (en) * 1995-03-09 1996-09-27 Kokusai Denshin Denwa Co Ltd <Kdd> Method and device for rate conversion of image encoded data
JPH09160753A (en) * 1995-12-06 1997-06-20 Matsushita Electric Ind Co Ltd Recording and reproducing device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06334986A (en) * 1993-05-19 1994-12-02 Sony Corp Weighted cosine transform method
JPH0879741A (en) * 1994-08-31 1996-03-22 Canon Inc Device and method for processing image
JPH0898173A (en) * 1994-09-21 1996-04-12 Hitachi Ltd Resolution conversion device and resolution conversion system using the device
JPH08251587A (en) * 1995-03-09 1996-09-27 Kokusai Denshin Denwa Co Ltd <Kdd> Method and device for rate conversion of image encoded data
JPH09160753A (en) * 1995-12-06 1997-06-20 Matsushita Electric Ind Co Ltd Recording and reproducing device

Similar Documents

Publication Publication Date Title
JP4092734B2 (en) Digital signal conversion method and digital signal conversion apparatus
JP2011045128A (en) Video encoding/decoding motion compensation apparatus and method thereof
US7903731B2 (en) Methods and transcoders that estimate an output macroblock and motion vector for video transcoding
JP4245576B2 (en) Image compression / decompression method, image compression apparatus, and image expansion apparatus
KR101090586B1 (en) Encoding/decoding device, encoding/decoding method and recording medium
JP2001285863A (en) Device and method for converting image information
JP4360093B2 (en) Image processing apparatus and encoding apparatus and methods thereof
JP2008109700A (en) Method and device for converting digital signal
JP4605212B2 (en) Digital signal conversion method and digital signal conversion apparatus
JP4513856B2 (en) Digital signal conversion method and digital signal conversion apparatus
CN1722847B (en) Digital signal conversion method and digital signal conversion device
JP2008118693A (en) Digital signal conversion method and digital signal conversion device
JP2008109701A (en) Method and device for converting digital signal
AU2003200521B2 (en) Method for Converting Digital Signal and Apparatus for Converting Digital Signal
KR100312411B1 (en) A conversion method of the compressed moving video on the video communication system

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100420

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100706

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100830

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100921