JP2000115581A - Video signal processor - Google Patents
Video signal processorInfo
- Publication number
- JP2000115581A JP2000115581A JP29282298A JP29282298A JP2000115581A JP 2000115581 A JP2000115581 A JP 2000115581A JP 29282298 A JP29282298 A JP 29282298A JP 29282298 A JP29282298 A JP 29282298A JP 2000115581 A JP2000115581 A JP 2000115581A
- Authority
- JP
- Japan
- Prior art keywords
- video signal
- signal
- sub
- video
- main
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Picture Signal Circuits (AREA)
- Television Signal Processing For Recording (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、アナログ伝送路を
含む未知の伝送特性を有する伝送路を介して送られてき
たディジタル映像信号をディジタル処理する映像信号処
理装置に係り、特にMPEG2等の符号化に対応してス
クランブルされた映像信号のための映像信号処理装置に
関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a video signal processing apparatus for digitally processing a digital video signal transmitted through a transmission line having unknown transmission characteristics including an analog transmission line, and more particularly to a code signal such as MPEG2. The present invention relates to a video signal processing device for a video signal scrambled in accordance with the conversion.
【0002】[0002]
【従来の技術】音声あるいは映像を含む著作物の権利保
護を目的として、不正コピーや不正アクセスを防ぐため
に、様々な暗号化技術の研究・開発が進められ、あるい
は実用化されている。2. Description of the Related Art For the purpose of protecting the rights of copyrighted works including audio and video, various encryption techniques have been researched and developed or put into practical use in order to prevent unauthorized copying and unauthorized access.
【0003】例えば、MPEG2ビデオ符号化を用いる
DVD(Digital Versatile Disc)では、リージョンコ
ード(地域コード)による再生地域の限定、CSS(Co
ntents Scrambling System)による符号化データの暗号
化が用いられている。For example, in a DVD (Digital Versatile Disc) using MPEG2 video coding, a reproduction area is limited by a region code (region code), and a CSS (Co
ntents Scrambling System).
【0004】また、ベースバンド映像信号に対するスク
ランブル手段として、各ライン毎にランダムなカット点
を1点設定してカット点の左右を入れ替えるラインロー
テーションや、走査線のランダムな入れ替えを行うライ
ンパーミュテーションと呼ばれる手法がある。ラインロ
ーテーションは、衛星放送やCATVの有料番組のスク
ランブルとして、課金システムと連動したアクセス制限
に利用されている。As scrambling means for a baseband video signal, a line rotation for setting one random cut point for each line and exchanging left and right of the cut point or a line permutation for randomly exchanging scan lines is provided. There is a technique called. The line rotation is used as scrambling of pay programs of satellite broadcasting and CATV for access restriction in conjunction with a billing system.
【0005】また、民生用のアナログVTRでの不正コ
ピー防止を目的として、垂直ブランキング期間のAGC
信号やカラーストライブ信号を操作し、TVで表示する
際の障害は発生しないが、VTRでの正常な記録を不可
能としたマクロビジョン社のコピーガード技術が広く用
いられている。In order to prevent illegal copying in a consumer analog VTR, AGC in a vertical blanking period is performed.
Although no trouble occurs when a signal or a color stripe signal is manipulated and displayed on a TV, a copy guard technique of Macrovision, which makes normal recording on a VTR impossible, is widely used.
【0006】さらに、音声あるいは映像を含むディジタ
ルコンテンツに対応した「電子透かし(ディジタルウォ
ーターマーク)」と呼ばれる技術が知られている。電子
透かしは、音声あるいは画像等のベースバンド信号また
は符号化データ中に、目や耳で知覚されないようにデー
タを埋め込む技術である。電子透かしで埋め込む情報と
しては、例えば、著作権情報、コピー世代管理情報、再
生制御情報、スクランブルキー情報等が挙げられる。Further, a technique called “digital watermark” (digital watermark) corresponding to digital contents including audio or video is known. Digital watermarking is a technique for embedding data in a baseband signal such as voice or image or encoded data so that the data is not perceived by eyes or ears. Examples of information to be embedded in the digital watermark include copyright information, copy generation management information, reproduction control information, and scramble key information.
【0007】上述した各種の手法は、いずれも一長一短
がある。例えば、リージョンコードによる管理は、指定
された地域での再生は無条件に可能であり、またCSS
等によるデータの暗号化は、正規のプレーヤでの再生を
禁止するものではない。従って、リージョンコードやC
SSでは、符号化データそのもののコピーを防止するこ
とは可能となるが、復号された映像信号の不正コピーを
防ぐことはできない。また、アナログVTRでのコピー
ガードシステムは、VTRの種類に依存して、必ずしも
コピーガードの効果が保証されず、しかも同期信号部分
のみの操作であるため、不正アタックに対する耐性が高
いとは言い難い。さらに、電子透かし等による著作権情
報の埋め込みは、必ずしも映像信号の不正コピーを防止
することを技術的に制限するものではない。[0007] Each of the various methods described above has advantages and disadvantages. For example, management using a region code allows unconditional playback in a specified area, and CSS
The encryption of data by the method described above does not prohibit reproduction by a legitimate player. Therefore, the region code or C
In SS, it is possible to prevent the encoded data itself from being copied, but it is not possible to prevent illegal copying of the decoded video signal. Further, in a copy guard system using an analog VTR, the effect of the copy guard is not necessarily guaranteed depending on the type of the VTR, and since the operation is performed only on the synchronization signal portion, it is hard to say that the resistance to an unauthorized attack is high. . Furthermore, embedding of copyright information by a digital watermark or the like does not necessarily limit technically preventing illegal copying of a video signal.
【0008】すなわち、映像信号の不正コピーを防止す
るためには、映像信号そのものに対する、より強固な著
作権保護手段を用いることが必要となる。しかし、ライ
ンローテーション等の従来の動画像スクランブル方式を
用いた場合、スクランブルされた映像信号に対して、D
VDやディジタル放送で採用されているMPEG2によ
る符号化を行うと、非スクランブル画像の符号化と比べ
て符号化効率の低下を招き、再生画像の画質を劣化させ
てしまう結果となる。なぜならば、従来の動画像スクラ
ンブルは、画像に対するランダム操作により画像の時空
間相関を低下させることで元の映像を見えにくくする手
法であり、画像の時空間相関を利用して符号化効率を上
げているMPEG2等の動き補償予測・直交変換符号化
とは相反する操作となるためである。That is, in order to prevent unauthorized copying of a video signal, it is necessary to use a stronger copyright protection means for the video signal itself. However, when a conventional moving image scrambling method such as a line rotation is used, the D.C.
When encoding is performed by MPEG2 used in VD or digital broadcasting, the encoding efficiency is reduced as compared with the encoding of non-scrambled images, and the image quality of reproduced images is deteriorated. This is because conventional video scrambling is a technique that makes the original video less visible by reducing the spatio-temporal correlation of the image by random operation on the image, and increases the coding efficiency by using the spatio-temporal correlation of the image. This is because the operation is inconsistent with the motion compensation prediction / orthogonal transform coding such as MPEG2.
【0009】このような問題を解決する手法として、フ
レーム間予測符号化において参照画像として用いられな
いフレームを選択し、そのフレーム内でのマクロブロッ
クまたはスライスを単位とする画素値の入れ替え、ある
いはその両方によりスクランブルを行い、このスクラン
ブルの後にフレーム間予測符号化を行う方式が考えられ
る。また、全ての画素値の極性反転、つまりビット反転
操作に対しては、上記の符号化効率の低下を防ぐことが
可能となる。さらに、色空間軸の回転や入れ替えによる
スクランブルも、符号化効率の低下を防ぐという意味に
おいては有効である。これらの極性反転や、色空間軸の
回転・入れ替えを組み合わせることで、MPEG2にお
ける符号化効率の低下を抑えた映像スクランブルを行う
ことが可能である。As a method for solving such a problem, a frame which is not used as a reference image in inter-frame predictive coding is selected, and a pixel value is replaced in units of a macroblock or slice in the frame, or the frame value is replaced. A scheme is conceivable in which scrambling is performed by both, and after this scrambling, inter-frame prediction coding is performed. In addition, it is possible to prevent the above-described decrease in coding efficiency for the polarity inversion of all pixel values, that is, for the bit inversion operation. Furthermore, scrambling due to rotation or replacement of the color space axis is also effective in preventing a decrease in coding efficiency. By combining these polarity inversions and rotation / swapping of the color space axis, it is possible to perform video scrambling while suppressing a decrease in encoding efficiency in MPEG2.
【0010】しかし、このようにしてスクランブルされ
た映像信号をMPEG2等の符号化方式で符号化して、
伝送特性が未知であるアナログ伝送路を介して伝送し、
受信側で受信したアナログ映像信号をA/D変換器によ
り再サンプリングしてディジタル化した後に、ディジタ
ル信号処理によりデスクランブルを行う場合、アナログ
伝送路における周波数および位相特性、エコー、ダイナ
ミックレンジの歪み、零レベルのオフセット、再サンプ
リングクロックの位相ずれ等々の影響により、デスクラ
ンブル後の映像に視覚的なアーチファクトを伴う場合が
ある。[0010] However, the video signal scrambled in this way is encoded by an encoding method such as MPEG2.
Transmission via an analog transmission path whose transmission characteristics are unknown,
When the analog video signal received on the receiving side is resampled and digitized by an A / D converter and then descrambled by digital signal processing, the frequency and phase characteristics, echo, dynamic range distortion, Due to the influence of a zero-level offset, a phase shift of a resampling clock, and the like, a visual artifact may be accompanied by a descrambled image.
【0011】一般に、未知の伝送特性を補正する手段と
しては、波形等化技術が知られている。波形等化には通
常、適応フィルタが用いられ、既知の基準信号を埋め込
んだ信号を受信し、学習により適応フィルタのタップ利
得を決定する。例えば、HDTV信号のサンプル値伝送
であるMUSE方式では、伝送路のエコーや再サンプリ
ングによるリンギングを取り除くため、デコーダにおい
てトランスバーサル型の適応フィルタによる波形等化器
が一般的に用いられている。適応フィルタの学習を行う
ため、MUSE方式の映像信号では、基準信号としてブ
ランキング期間にインパルス信号を伝送している。これ
に対し、MPEG2の映像符号化では、通常は有効画像
領域の信号のみを符号化して伝送するので、ブランキン
グ期間に基準信号を送るためには、特別なデータフォー
マットおよびデコーディングプロセスを規定する必要が
生じ、これはMPEG2符号化の枠内では困難である。Generally, a waveform equalization technique is known as a means for correcting unknown transmission characteristics. An adaptive filter is usually used for waveform equalization, receives a signal in which a known reference signal is embedded, and determines the tap gain of the adaptive filter by learning. For example, in the MUSE system, which is a sample value transmission of an HDTV signal, a waveform equalizer using a transversal type adaptive filter is generally used in a decoder in order to remove ringing due to transmission path echo and resampling. In order to perform learning of the adaptive filter, an impulse signal is transmitted as a reference signal in a blanking period in a MUSE video signal. On the other hand, in the video coding of MPEG2, usually, only the signal in the effective image area is coded and transmitted, so that a special data format and a decoding process are defined in order to send the reference signal during the blanking period. A need arises, which is difficult within the framework of MPEG2 coding.
【0012】[0012]
【発明が解決しようとする課題】上記の課題を解決する
ため、本発明はマクロブロックあるいはブロック単位と
いった所定の領域単位毎に画素値を一定とした基準映像
信号を用いて、処理衣装映像信号の位置補正(有効画像
領域の位置決め)、ゲインおよび直流オフセットの補
正、波形等化フィルタの学習、あるいは映像フォーマッ
ト変換パラメータの推定などの処理を行うようにしたも
のである。SUMMARY OF THE INVENTION In order to solve the above-mentioned problems, the present invention uses a reference video signal having a fixed pixel value for each predetermined area unit such as a macroblock or a block unit to generate a processing costume video signal. Processing such as position correction (positioning of an effective image area), correction of a gain and a DC offset, learning of a waveform equalization filter, or estimation of a video format conversion parameter is performed.
【0013】すなわち、本発明に係る第1の映像信号処
理装置は、処理対象映像信号と共に与えられる所定の領
域単位毎に画素値を一定とした基準映像信号を用いて処
理対象映像信号の位置補正を行う補正手段を有すること
を特徴とする。この場合、位置補正は映像信号の信号成
分毎に独立に行ってもよいし、あるいは全ての信号成分
について一律に行ってもよい。That is, the first video signal processing apparatus according to the present invention corrects the position of the video signal to be processed using the reference video signal provided with the video signal to be processed and having a fixed pixel value for each predetermined area unit. And a correction means for performing the following. In this case, the position correction may be performed independently for each signal component of the video signal, or may be uniformly performed for all the signal components.
【0014】MPEG2方式等により符号化した映像信
号を蓄積媒体あるいはディジタル伝送路を介して受信側
へ送り、受信側で受信した映像信号の符号化データを復
号化し、得られたベースバンドの映像信号をアナログ伝
送路を介して伝送して表示装置により表示するシステム
を想定する。ここで、アナログ伝送路で伝送されたベー
スバンド映像信号に対して、A/D変換器で再サンプリ
ングしディジタル化した後、何らかのディジタル処理を
施し、再度D/A変換器でアナログ信号に戻して表示す
る場合を考えると、アナログ伝送路の伝送特性の影響を
様々に受け、再サンプリング後の処理により映像のアー
チファクトが発生する場合がある。A video signal encoded by the MPEG2 system or the like is transmitted to a receiving side via a storage medium or a digital transmission path, and the encoded data of the video signal received by the receiving side is decoded. Is assumed to be transmitted via an analog transmission path and displayed on a display device. Here, the baseband video signal transmitted through the analog transmission path is resampled and digitized by an A / D converter, subjected to some digital processing, and returned to an analog signal again by a D / A converter. Considering the case of displaying, there are various influences of the transmission characteristics of the analog transmission path, and image artifacts may occur due to processing after resampling.
【0015】このようなアーチファクトとして、例えば
各機器固有の特性あるいは設定により、有効ラインの先
頭やライン内の有効画素の先頭位置にずれが生じる場合
がある。再サンプリング後のディジタル処理において、
映像の有効領域のラインおよび画素位置に厳密性が要求
される場合、伝送系での有効領域のずれは致命的なアー
チファクトにつながる場合がある。例えば、ラインある
いは水平画素位置のシャッフリングによるスクランブル
映像をデスクランブルする場合、画像内の画素位置を厳
密に特定する位置決めが必須となる。As such an artifact, for example, there is a case where a shift occurs at the head of an effective line or the head position of an effective pixel in the line due to a characteristic or setting unique to each device. In digital processing after resampling,
When strictness is required for the lines and pixel positions of the effective area of the video, the shift of the effective area in the transmission system may lead to a fatal artifact. For example, when descrambling a scrambled video by shuffling a line or a horizontal pixel position, it is necessary to position the pixel position in the image exactly.
【0016】ここで、本発明に係る第1の映像信号処理
装置では、所定の領域単位、具体的には例えばマクロブ
ロックあるいはブロック等のDCTブロックの倍数に相
当する単位で画素値が一定となる既知の基準映像信号を
規定し、その基準映像信号をMPEG2方式に従ってフ
レーム内符号化し、基準映像信号を復号化した信号をア
ナログ伝送および再サンプリングして、既知の基準映像
信号とのマッチングをとることにより、有効画像領域の
位置ずれを検出することが可能となる。Here, in the first video signal processing apparatus according to the present invention, the pixel value is constant in a predetermined area unit, specifically, for example, a unit corresponding to a multiple of a DCT block such as a macro block or a block. To define a known reference video signal, intra-frame encode the reference video signal according to the MPEG2 system, perform analog transmission and re-sampling of the decoded signal of the reference video signal, and perform matching with the known reference video signal. Accordingly, it is possible to detect the displacement of the effective image area.
【0017】MPEG2符号化では、任意の映像信号は
DCT/IDCTの演算精度およびDCT係数の量子化
の影響で可逆とはならない。しかし、動き補償予測を行
わないイントラマクロブロックの各DCTブロックの直
流成分については、基底関数の値が整数となるため、D
CT/IDCTの演算精度の影響は受け難く、またMP
EG2方式ではイントラマクロブロックの直流成分は、
通常レート制御のための量子化制御の影響を受けないた
め、符号化歪みの影響を受けずに符号化/復号化を通し
て可逆となる。この特徴を利用して基準映像信号を作成
しておけば、基準映像信号は純粋な伝送特性の影響のみ
を受けた波形として受信されるため、精度よく位置決め
を行うことが可能となる。In MPEG2 encoding, an arbitrary video signal is not reversible due to the effects of DCT / IDCT operation accuracy and DCT coefficient quantization. However, as for the DC component of each DCT block of the intra macroblock for which no motion compensation prediction is performed, the value of the basis function is an integer.
It is hardly affected by the calculation accuracy of CT / IDCT.
In the EG2 system, the DC component of the intra macroblock is
Since it is not affected by the quantization control for normal rate control, it is reversible through encoding / decoding without being affected by coding distortion. If a reference video signal is created using this feature, the reference video signal is received as a waveform affected only by a pure transmission characteristic, so that accurate positioning can be performed.
【0018】本発明に係る第2の映像信号処理装置は、
同様の基準映像信号を用いて処理対象映像信号のゲイン
および直流オフセットの補正を行う補正手段を有するこ
とを特徴とする。この場合においても、ゲインおよび直
流オフセットの補正は映像信号の信号成分毎に独立に行
ってもよいし、あるいは全ての信号成分について一律に
行ってもよい。A second video signal processing device according to the present invention comprises:
The image processing apparatus further includes a correction unit that corrects a gain and a DC offset of the processing target video signal using the same reference video signal. Also in this case, the correction of the gain and the DC offset may be performed independently for each signal component of the video signal, or may be uniformly performed for all the signal components.
【0019】映像信号の伝送系では、ゲインは1、付加
的な直流オフセットは0であることが望ましい。しか
し、実際は各機器固有の性質や設定により、ゲインが1
を下回ったり、0でない直流オフセットが付加された
り、あるいはゲインがリニアでなく非線型になってしま
う場合もある。従って、アナログ伝送により映像の再現
性にずれが生じたり、特に再サンプリング後に画素値に
依存した処理、例えば極性反転等のデスクランブル処理
等々を行う場合、非常に不自然は映像になる場合があ
る。In a video signal transmission system, it is desirable that the gain is 1 and the additional DC offset is 0. However, the gain is actually 1 due to the characteristics and settings unique to each device.
, A non-zero DC offset is added, or the gain is not linear but non-linear. Therefore, the reproducibility of the video may be deviated due to the analog transmission, or the image may be very unnatural, particularly when performing processing depending on pixel values after resampling, such as descrambling processing such as polarity inversion. .
【0020】第2の映像信号処理装置によれば、前述の
基準映像信号を用いてゲインおよび直流オフセットの補
正量を決定し、それにより映像信号の補正を行うことに
よって、伝送系でのこれらの付加的な要因を除去するこ
とが可能となる。According to the second video signal processing device, the correction amounts of the gain and the DC offset are determined by using the above-mentioned reference video signal, and the video signal is corrected accordingly, whereby these signals are transmitted in the transmission system. It is possible to eliminate additional factors.
【0021】本発明に係る第3の映像信号処理装置は、
同様の基準映像信号を用いて処理対象映像信号の波形を
等化する波形等化フィルタのタップ利得を決定するタッ
プ利得決定手段とを有することを特徴とする。このタッ
プ利得の決定も、ゲインおよび直流オフセットの補正は
映像信号の信号成分毎に独立に行ってもよいし、あるい
は全ての信号成分について一律に行ってもよい。A third video signal processing device according to the present invention comprises:
Tap gain determining means for determining a tap gain of a waveform equalizing filter for equalizing the waveform of the processing target video signal using the same reference video signal. In the determination of the tap gain, the correction of the gain and the DC offset may be performed independently for each signal component of the video signal, or may be uniformly performed for all the signal components.
【0022】アナログ伝送路で映像信号を伝送して再サ
ンプリングした場合、伝送路でのエコーや、再サンプリ
ングにおけるサンプリング位相のずれやカットオフ周波
数のずれによるリンギング等のアーチファクトが発生す
る。これらのアーチファクトの除去には、一般にトラン
スバーサル型の適応フィルタが波形等化フィルタとして
用いられる。適応フィルタの学習には、フラットな周波
数特性を持つインパルス波形やステップ波形が好まし
い。When a video signal is transmitted through an analog transmission path and resampled, artifacts such as echoes in the transmission path and ringing due to a shift in sampling phase and a cutoff frequency in resampling occur. To remove these artifacts, a transversal type adaptive filter is generally used as a waveform equalization filter. For learning of the adaptive filter, an impulse waveform or a step waveform having a flat frequency characteristic is preferable.
【0023】この点、第3の映像信号処理装置では、前
述の基準映像信号を用いることで任意の既知のステップ
波形を生成することが可能となり、これにより適応フィ
ルタの学習、すなわち波形等化フィルタのタップ利得の
設定を効率的に行うことが可能となる。In this regard, in the third video signal processing device, it is possible to generate an arbitrary known step waveform by using the above-mentioned reference video signal, thereby learning the adaptive filter, that is, the waveform equalizing filter. Can be set efficiently.
【0024】本発明に係る第4の映像信号処理装置は、
信号成分が変換された処理対象映像信号と共に与えられ
る前記と同様の基準映像信号を用いて、処理対象映像信
号の前記信号成分を変換した際の変換パラメータを推定
する変換パラメータ推定手段と、この変換パラメータ推
定手段により推定された変換パラメータから各信号成分
に対する逆変換パラメータを算出する逆変換パラメータ
算出手段と、この逆変換パラメータ算出手段により算出
された逆変換パラメータにより処理対象映像信号の信号
成分の逆変換を行う逆変換手段とを有することを特徴と
する。A fourth video signal processing device according to the present invention comprises:
A conversion parameter estimating means for estimating a conversion parameter when the signal component of the processing target video signal is converted by using the same reference video signal provided together with the converted processing target video signal, An inverse transform parameter calculating means for calculating an inverse transform parameter for each signal component from the transform parameter estimated by the parameter estimating means; and an inverse of the signal component of the video signal to be processed by the inverse transform parameter calculated by the inverse transform parameter calculating means. And inverse conversion means for performing conversion.
【0025】ここで、映像信号の信号成分の変換とは、
4:2:0コンポーネント信号から4:2:2ンポーネ
ント信号への変換、4:2:0コンポーネント信号から
YIQコンポジットまたはコンポーネント信号への変
換、YCbCr信号からRGB信号への変換のいずれか
であり、このような変換がなされている場合、前記と同
様の基準映像信号を用いて変換パラメータを推定し、推
定された変換パラメータから映像信号成分の逆変換パラ
メータを算出し、その逆変換パラメータにより映像信号
の信号成分の逆変換を行い、変換前の映像信号を再生す
る。Here, the conversion of the signal component of the video signal means
Conversion of a 4: 2: 0 component signal to a 4: 2: 2 component signal, conversion of a 4: 2: 0 component signal to a YIQ composite or component signal, and conversion of a YCbCr signal to an RGB signal; When such conversion is performed, a conversion parameter is estimated using the same reference video signal as described above, an inverse conversion parameter of a video signal component is calculated from the estimated conversion parameter, and the video signal is calculated based on the inverse conversion parameter. Is inversely converted, and the video signal before conversion is reproduced.
【0026】MPEG2の規格では、メインプロファイ
ルとして4:2:0信号が規定されている。これは、映
像信号が輝度信号(Y)と輝度信号に対して水平垂直と
もに1/2の画素数で構成される2種類色差信号(C
b,Cr)から構成される映像信号フォーマットであ
る。DVDや衛星ディジタル放送等の一般的なMPEG
2映像アプリケーションでは、MPEG2のメインプロ
ファイルが採用されており、メインプロファイルでは
4:2:0フォーマットの映像信号の符号化となってい
る。一方、デコーダからの出力映像信号は、通常4:
2:2コンポーネントディジタルまたはアナログ信号、
RGBアナログコンポーネント信号、Sビデオ信号ある
いはコンポジット信号等に変換して出力される。そのた
め、デコーダ内部ではMPEG2デコーダの出力段で信
号フォーマットの変換が行われる。In the MPEG2 standard, a 4: 2: 0 signal is defined as a main profile. This is because the video signal is composed of two types of color difference signals (C) composed of a luminance signal (Y) and half the number of pixels both horizontally and vertically with respect to the luminance signal.
b, Cr). General MPEG such as DVD and satellite digital broadcasting
In the two video application, the main profile of MPEG2 is adopted, and the main profile encodes a video signal of 4: 2: 0 format. On the other hand, the output video signal from the decoder is usually 4:
2: 2 component digital or analog signal,
The signal is converted into an RGB analog component signal, an S-video signal, a composite signal, or the like, and output. Therefore, the signal format is converted at the output stage of the MPEG2 decoder inside the decoder.
【0027】特に、色差信号の垂直ライン数について
は、上記のいずれの出力信号フォーマットにおいても、
輝度信号のライン数と同一であり、4:2:0信号から
色差信号の垂直方向の2倍のオーバーサンプリングがな
される。これらのフォーマット変換がなされた映像信号
に対して、再サンプリング後のディジタル処理で、符号
化された4:2:0映像信号レベルでの画素処理を行い
たい場合、これらの変換に対する逆変換を行う必要があ
る。In particular, regarding the number of vertical lines of the color difference signal, in any of the above output signal formats,
The number of lines of the luminance signal is the same as that of the luminance signal, and the oversampling of the color difference signal in the vertical direction is performed twice from the 4: 2: 0 signal. When it is desired to perform pixel processing at an encoded 4: 2: 0 video signal level by digital processing after resampling on a video signal that has undergone these format conversions, inverse conversion for these conversions is performed. There is a need.
【0028】第4の映像信号処理装置によれば、例えば
4:2:0信号レベルでの既知の基準映像信号を伝送す
ることにより、これらのフォーマット変換処理の変換係
数を推定することが可能となり、こうして推定された変
換係数から逆フィルタのパラメータを算出し、符号化さ
れた4:2:0信号への逆変換を行うことが可能とな
る。According to the fourth video signal processing apparatus, for example, by transmitting a known reference video signal at a 4: 2: 0 signal level, it is possible to estimate the conversion coefficients of these format conversion processes. The parameters of the inverse filter are calculated from the thus estimated transform coefficients, and the inverse transform to the encoded 4: 2: 0 signal can be performed.
【0029】本発明に係る第5の映像信号処理装置は、
連続する複数のマクロブロックなどの部分領域毎に、画
素値のオーバーラップ領域あるいは補間領域を設けた処
理対象映像信号に対し、オーバーラップ領域あるいは補
間領域において画素値の空間的な変化量が最小となるよ
うに処理対象画像信号の画素値の選択あるいは生成を行
う手段を有することを特徴とする。A fifth video signal processing device according to the present invention comprises:
For each partial area such as a plurality of continuous macroblocks, the spatial change amount of the pixel value in the overlap area or the interpolation area is minimized for the processing target video signal in which the overlap area or the interpolation area of the pixel value is provided. It is characterized by having means for selecting or generating the pixel value of the processing target image signal.
【0030】また、本発明に係る第6の映像信号処理装
置は、第5の映像信号処理装置を拡張したものであり、
画素値のオーバーラップ領域あるいは補間領域を設ける
か否かを所定の映像信号単位に設定し、オーバーラップ
領域あるいは補間領域を設けない所定の映像信号単位部
分については、有効画像領域の画素値の選択あるいは生
成に伴い削減される画素数に相当する所定の付加データ
が処理対象映像信号の有効画像領域に埋め込まれてい
る。ここで、所定の付加データは基本的に、前述した基
準映像信号、フレーム単位の属性に関する情報、あるい
は映像信号のスクランブルキーに関連する情報のいずれ
かが含まれるが、これらの情報に限定されるものではな
い。The sixth video signal processing device according to the present invention is an extension of the fifth video signal processing device,
Whether to provide an overlap area or an interpolation area of pixel values is set in a predetermined video signal unit, and for a predetermined video signal unit portion in which no overlap area or an interpolation area is provided, selection of a pixel value of an effective image area Alternatively, predetermined additional data corresponding to the number of pixels to be reduced due to generation is embedded in the effective image area of the processing target video signal. Here, the predetermined additional data basically includes any of the above-described reference video signal, information relating to attributes in frame units, or information relating to the scramble key of the video signal, but is limited to such information. Not something.
【0031】そして、第6の映像信号処理装置は、第5
の映像信号処理装置の構成に加えて上述した所定の付加
データを抽出する付加データ検出手段と、この付加デー
タ検出手段により検出された付加データを所定の映像信
号に置き換えて出力する手段とをさらに有する。Then, the sixth video signal processing device is provided with the fifth video signal processing device.
In addition to the configuration of the video signal processing device of the above, additional data detection means for extracting the above-mentioned predetermined additional data, and means for replacing the additional data detected by the additional data detection means with a predetermined video signal and outputting Have.
【0032】MPEG2デコーダから出力される映像信
号はディジタルのサンプル値系列であり、これをD/A
変換してアナログ伝送路を介して伝送した場合、伝送特
性に依存したサンプル間の相互作用の影響が発生する。The video signal output from the MPEG2 decoder is a digital sample value sequence, which is referred to as D / A
When the data is converted and transmitted via the analog transmission path, the influence of the interaction between samples depending on the transmission characteristics occurs.
【0033】第5の映像信号処理装置によれば、例えば
アナログ伝送路を介した伝送に伴うサンプル間の作用の
影響を小さくしたい部分について、画素値のオーバーラ
ップ領域あるいは補間領域を設け、オーバーラップ領域
あるいは補間領域において画素値の空間的な変化量が最
小となるように、画素値の選択あるいは生成を行うこと
で、隣接する画素サンプル間の相互作用を小さくするこ
とが可能となる。According to the fifth video signal processing apparatus, for example, an overlapping area or an interpolating area of pixel values is provided for a portion where it is desired to reduce the influence of an effect between samples accompanying transmission via an analog transmission path. By selecting or generating pixel values so as to minimize the amount of spatial change in pixel values in the region or the interpolation region, it is possible to reduce the interaction between adjacent pixel samples.
【0034】このようなオーバーラップ領域あるいは補
間領域の挿入を行うと、実効的な有効画像領域が縮小さ
れることになる。逆に、伝送する画素数が一定である場
合で、これらの領域の挿入を行わない場合は、有効画像
領域が広がることになる。When such an overlap area or interpolation area is inserted, the effective effective image area is reduced. Conversely, when the number of pixels to be transmitted is constant and these areas are not inserted, the effective image area is expanded.
【0035】この点、第6の映像信号処理装置によれ
ば、最終的な有効領域の画素数を一定とした場合、オー
バーラップ領域あるいは補間領域の挿入を行わない映像
における有効領域の拡張部分を利用して、映像データと
は異なる別の付加データを伝送することが可能となる。
この領域を利用して、前述した基準映像信号を伝送する
ことが可能であり、また各フレームの属性情報や各フレ
ームのスクランブルを解くためのキー情報などを送るこ
とが出来る。ここで、各フレームの属性情報とは、MP
EG2符号化における符号化パラメータ、コンテンツの
内容に付随するデータ、著作権情報、コピー禁止等を示
す再生制御情報等々である。In this regard, according to the sixth video signal processing apparatus, when the number of pixels in the final effective area is fixed, the extended portion of the effective area in the video in which the overlap area or the interpolation area is not inserted is set. It is possible to transmit other additional data different from the video data by utilizing the additional data.
Using this area, the above-described reference video signal can be transmitted, and attribute information of each frame, key information for descrambling each frame, and the like can be transmitted. Here, the attribute information of each frame is MP
These include encoding parameters in EG2 encoding, data accompanying the contents of the content, copyright information, reproduction control information indicating copy prohibition, and the like.
【0036】上記の付加データは、映像信号の有効領域
にマッピングされているため、映像信号としてそのまま
出力されると、表示装置に表示されてしまうことにな
る。そこで、本発明に係る第6の映像処理装置では、付
加データの抽出後にその領域を所定の映像データ(例え
ば黒やグレー)に置き換えて出力することで、目障りな
映像が画面の一部に表示されることを防ぐことが可能と
なる。Since the additional data is mapped to the effective area of the video signal, if it is output as it is as a video signal, it will be displayed on the display device. Therefore, in the sixth video processing device according to the present invention, after extracting the additional data, the area is replaced with predetermined video data (for example, black or gray) and output, so that an unsightly video is displayed on a part of the screen. Can be prevented.
【0037】本発明に係る第7の映像信号処理装置は、
第1〜第6の映像信号処理装置において処理対象映像信
号としてスクランブルされた映像信号を入力し、この映
像信号をデスクランブルするデスクランブル手段をさら
に有することを特徴とする。このデスクランブル手段
は、第1、第2の映像信号処理装置に適用する場合は補
正手段の後段に、第3の映像信号処理装置に適用する場
合は波形等化フィルタの後段に、第4の映像信号処理装
置に適用する場合は逆変換手段の後段に、第5、第6の
映像信号装置に適用する場合は処理対象映像信号の有効
画像領域の画素値の選択あるいは生成を行う手段、ある
いは検出された付加データを所定の映像信号に置き換え
て出力する手段の後段にそれぞれ配置される。このよう
な構成により、デスクランブルに伴うアーチファクトを
低減することが可能となる。A seventh video signal processing apparatus according to the present invention comprises:
The video signal processing apparatus according to the present invention further comprises a descrambling means for inputting a scrambled video signal as a video signal to be processed in the first to sixth video signal processing devices and descrambling the video signal. This descrambling means is provided downstream of the correction means when applied to the first and second video signal processing devices, and is provided downstream of the waveform equalization filter when applied to the third video signal processing device. A means for selecting or generating a pixel value of an effective image area of a processing target video signal when applying to the fifth and sixth video signal apparatuses; The detected additional data is arranged at a stage subsequent to the means for replacing the output with a predetermined video signal and outputting the video signal. With such a configuration, it is possible to reduce artifacts caused by descrambling.
【0038】ここで、スクランブルは例えば(1) 符号化
のマクロブロックに相当する画素データについてフレー
ム内の連続する複数のマクロブロックを単位とした水平
方向の画素値入れ替え、(2) 符号化のスライスに相当す
る画素データについてフレーム内のスライスなどの部分
領域を単位とした垂直方向の画素値入れ替え、(3) 映像
信号の色度/色差などの少なくとも一つの信号成分の極
性反転、または(4) 映像信号の信号成分の入れ替えある
いは回転のいずれかを含む。この場合、特に複数のマク
ロブロックあるいはスライスなどの部分領域を単位とす
る画素値入れ替えによるスクランブルは、画面内の外周
部分の部分領域については画素値の入れ替えを行わない
ようにしてもよい。Here, scrambling is performed, for example, by (1) replacing pixel data in the horizontal direction in units of a plurality of continuous macroblocks in a frame with respect to pixel data corresponding to an encoded macroblock, and (2) encoding slices. (3) Invert the pixel value in the vertical direction in units of partial areas such as slices in a frame for pixel data equivalent to (3) Invert the polarity of at least one signal component such as chromaticity / color difference of a video signal, or (4) It includes either the replacement or rotation of the signal components of the video signal. In this case, in particular, in scrambling by replacing pixel values in units of partial regions such as a plurality of macroblocks or slices, pixel values may not be replaced in a partial region of an outer peripheral portion in a screen.
【0039】これらのスクランブル方法のうち、(1) お
よび(2) の方法では、有効画面の原点位置のずれは致命
的になるため、前述した第1の映像信号処理装置によっ
て有効画面の位置決めを行うことが有効となる。但し、
再サンプリング後の映像信号の有効領域の原点位置の補
正量が0でない場合、有効画像の一部分が欠けてしまう
可能性がある。この場合、欠落した画素がデスクランブ
ル後の映像では、有効画面の内部に位置する場合、再生
画像が乱れた映像となってしまう。これに対し、予め
(1) または(2) のスクランブルを施す場合に、本来の有
効画像領域の外周部分のマクロブロックあるいはブロッ
クについては、画素値の入れ替えを行わないようにして
おくことで、再サンプリング後に有効画像の一部分が欠
けてしまった場合でも、デスクランブル後の映像に大き
な影響を生じないようにすることが可能となる。Of these scramble methods, in the methods (1) and (2), since the deviation of the origin position of the effective screen is fatal, the positioning of the effective screen is performed by the first video signal processing apparatus described above. It is effective to do. However,
If the correction amount of the origin position of the effective area of the video signal after resampling is not 0, a part of the effective image may be missing. In this case, if the missing pixel is located inside the effective screen in the image after descrambling, the reproduced image will be a distorted image. On the other hand,
When performing scrambling in (1) or (2), pixel values of macroblocks or blocks in the outer peripheral portion of the original effective image area are not replaced, so that the effective image is not re-sampled. Even if a part is missing, it is possible to prevent a significant effect on the descrambled image.
【0040】また、(3) および(4) のスクランブル方法
では、各映像信号成分に対する伝送路でのゲインおよび
直流オフセットの影響が大きい場合、極性反転の有無や
信号成分入れ替えの有無によって、映像信号が大きく変
化することになり、デスクランブル後の映像が視覚的に
不自然な映像となる。前述した第2の映像信号処理装置
特徴によれば、デスクランブルに先立ってゲインおよび
直流オフセットの補正を行うことが可能となり、デスク
ランブル後の映像の不自然さを取り除くことが可能とな
る。In the scrambling methods (3) and (4), when the gain of the transmission path and the DC offset for each video signal component are large, the video signal is determined by the presence / absence of polarity reversal and the presence / absence of signal component replacement. Greatly changes, and the image after descrambling becomes a visually unnatural image. According to the above-described second video signal processing device feature, it is possible to correct the gain and the DC offset prior to descrambling, and it is possible to remove unnaturalness of the video after descrambling.
【0041】また、いずれのスクランブル方法において
も、アナログ伝送路を介した後に、再サンプリングして
デスクランブルする場合、再サンプリングにおける再生
クロックの位相ずれやカットオフ周波数のずれのための
リンギングや、伝送路でのエコー等の影響を受け、デス
クランブル後の映像にアーチファクトを伴う場合があ
る。この点については、前述した第3の映像信号処理装
置により、デスクランブル処理に先立ち、再サンプリン
グ後の映像信号に対して、適応フィルタによる波形等化
処理を行うことによって、これらの大部分の影響を取り
除くことが可能となる。In any scrambling method, when resampling is performed by resampling after passing through an analog transmission path, ringing due to a phase shift of a reproduced clock or a shift of a cutoff frequency in resampling or transmission is performed. The image after descrambling may be accompanied by artifacts due to the influence of the echo on the road and the like. Regarding this point, the above-mentioned third video signal processing apparatus performs waveform equalization processing by an adaptive filter on the video signal after resampling prior to descrambling processing, so that most of these effects are obtained. Can be removed.
【0042】また、MPEG2で符号化される映像信号
フォーマットの下で上記の各スクランブル処理が施さ
れ、復号後の出力映像信号フォーマットが他の映像信号
フォーマットに変換されて出力されており、その出力映
像信号を再サンプリングしてデスクランブル処理を行う
場合を考える。この場合、正確なデスクランブルを行う
ためには、再サンプリングした映像信号を符号化時の映
像信号フォーマットに一旦戻した上で、デスクランブル
処理を行う必要がある。前述した第4の映像信号処理装
置によれば、出力映像信号のフォーマット変換パラメー
タを自動推定することが可能となり、推定された変換パ
ラメータから逆変換のためのパラメータを算出すること
により、符号化時の映像信号フォーマットに精度よく戻
すことが可能となる。Each of the above scrambling processes is performed under the video signal format encoded by MPEG2, and the output video signal format after decoding is converted into another video signal format and output. Consider a case where a video signal is resampled and a descrambling process is performed. In this case, in order to perform accurate descrambling, it is necessary to return the resampled video signal to the video signal format at the time of encoding and then perform the descrambling process. According to the above-described fourth video signal processing apparatus, it is possible to automatically estimate the format conversion parameter of the output video signal, and to calculate a parameter for inverse conversion from the estimated conversion parameter, so that the It is possible to accurately return to the video signal format.
【0043】本発明に係る第8の映像信号処理装置は、
マクロブロックあるいはブロック単位といった所定の領
域単位毎に画素値を一定とした基準映像信号を記録した
記録媒体から該基準映像信号を再生する基準映像信号再
生手段と、この基準映像信号再生手段により再生された
基準映像信号を用いて、(a) 映像信号の位置補正量、
(b) 映像信号のゲインおよび直流オフセットの補正量、
(c) 映像信号のための波形等化フィルタのタップ利得、
(d) 映像信号の変換された信号成分に対する逆変換パラ
メータの少なくとも一つのパラメータを決定するパラメ
ータ決定手段と、このパラメータ決定手段により決定さ
れたパラメータを記憶するパラメータ記憶手段と、基準
映像信号を記録した記録媒体と同一または異なる記録媒
体に記録された処理対象映像信号を再生する処理対象映
像信号再生手段と、この処理対象映像信号再生手段によ
り再生された処理対象映像信号をパラメータ記憶手段に
記憶されたパラメータに従って補正する補正手段とを有
することを特徴とする。An eighth video signal processing apparatus according to the present invention comprises:
A reference video signal reproducing unit that reproduces the reference video signal from a recording medium that records a reference video signal having a fixed pixel value for each predetermined area unit such as a macroblock or a block unit; (A) the position correction amount of the video signal,
(b) video signal gain and DC offset correction amount,
(c) tap gain of a waveform equalization filter for a video signal,
(d) parameter determining means for determining at least one parameter of an inverse conversion parameter for the converted signal component of the video signal, parameter storing means for storing the parameter determined by the parameter determining means, and recording the reference video signal Processing target video signal reproducing means for reproducing the processing target video signal recorded on the same or different recording medium as the recording medium, and the processing target video signal reproduced by the processing target video signal reproducing means are stored in the parameter storage means. Correction means for correcting according to the set parameters.
【0044】基準映像信号は、本編の映像コンテンツと
は別の記録媒体に記録されるか、本編の映像コンテンツ
と同一の記録媒体上に各映像コンテンツの再生に先立っ
て再生されるように記録されるか、あるいは本編の映像
コンテンツと同一の記録媒体上に各映像コンテンツの有
効画面内の所定領域部分に記録される。The reference video signal is recorded on a recording medium different from the video content of the main part, or is recorded on the same recording medium as the video content of the main part so as to be reproduced prior to reproduction of each video content. Alternatively, the video content is recorded in a predetermined area in the effective screen of each video content on the same recording medium as the video content of the main part.
【0045】すなわち、映像データが符号化されて光デ
ィスクなどの蓄積メディアに記録されており、映像デー
タを復号化して再生した後に、デスクランブル処理を施
す場合を考える。この場合、本発明における基準映像信
号を(a) 独立したディスクに記録する、(b) 映像コンテ
ンツが含まれるディスクと同一媒体上に映像コンテンツ
に先立って再生されるように記録する、(c) 映像コンテ
ンツの有効フレームの一部分に記録する、という方法が
考えられる。That is, consider a case where video data is encoded and recorded on a storage medium such as an optical disk, and after the video data is decoded and reproduced, a descrambling process is performed. In this case, the reference video signal in the present invention is (a) recorded on a separate disk, (b) recorded so as to be reproduced prior to the video content on the same medium as the disk containing the video content, (c) A method of recording a part of the effective frame of the video content is conceivable.
【0046】(a) の方法では、まず基準映像信号が記録
された基準ディスクを再生して、補正パラメータを算出
してそれを記憶しておき、映像コンテンツが含まれる他
のディスクの再生時に、記憶した補正パラメータに従っ
た補正処理を行う構成とすることが出来る。(b) の方法
では、各ディスク毎に再生に先立って必ず基準映像信号
が再生され、自動的に補正パラメータの算出が行われ、
同一ディスクに含まれる映像コンテンツは、算出された
補正パラメータに基づく補正処理を行う構成とすること
が出来る。(c) の方法では、定期的に有効画像フレーム
の一部分を利用して基準映像信号が送られ、基準映像信
号が来るたびに、補正パラメータを修正する構成とする
ことが可能となる。In the method (a), first, a reference disk on which a reference video signal is recorded is reproduced, a correction parameter is calculated and stored, and when reproducing another disk containing video contents, It is possible to adopt a configuration in which a correction process is performed according to the stored correction parameters. In the method (b), the reference video signal is always reproduced for each disc prior to reproduction, and the correction parameters are automatically calculated.
The video contents included in the same disk may be configured to perform a correction process based on the calculated correction parameters. In the method (c), the reference video signal is transmitted periodically using a part of the effective image frame, and the correction parameter can be corrected every time the reference video signal comes.
【0047】本発明に係る第9の映像信号処理装置は、
主映像信号の符号化データと、(a)映像信号の位置補正
量、(b) 映像信号のゲインおよび直流オフセットの補正
量、(c) 映像信号のための波形等化フィルタのタップ利
得、(d) 映像信号の変換された信号成分に対する逆変換
パラメータの少なくとも一つのパラメータを決定するた
めの基準映像信号を含む、前記主映像信号に付随する副
映像信号の符号化データを伝送または記録媒体を介して
受信する符号化データ受信手段と、この符号化データ受
信手段により受信された主映像信号の符号化データを復
号化する主映像信号復号化手段と、符号化データ受信手
段により受信された副映像信号の符号化データを復号化
する副映像信号復号化手段と、主映像信号復号化手段に
より得られた主映像信号上に副映像信号復号化手段によ
り得られた副映像信号をマッピングするマッピング手段
と、このマッピング手段により主映像信号に副映像信号
がマッピングされた映像信号を受信する映像信号受信手
段と、この映像信号受信手段により受信された映像信号
からマッピングされた副映像信号を抽出する副映像信号
抽出手段と、前記基準映像信号を用いて前記(a) 〜(d)
の少なくとも一つのパラメータを決定するパラメータ決
定手段と、このパラメータ決定手段により決定されたパ
ラメータにより映像信号受信手段により受信された映像
信号の補正を行う補正手段とを有することを特徴とす
る。A ninth video signal processing device according to the present invention comprises:
Encoded data of the main video signal, (a) position correction amount of video signal, (b) correction amount of gain and DC offset of video signal, (c) tap gain of waveform equalization filter for video signal, ( d) including a reference video signal for determining at least one parameter of an inverse conversion parameter with respect to the converted signal component of the video signal, transmitting or recording the encoded data of the sub video signal accompanying the main video signal. Coded data receiving means, a main video signal decoding means for decoding coded data of the main video signal received by the coded data receiving means, and a sub video signal received by the coded data receiving means. A sub-video signal decoding means for decoding encoded data of the video signal; and a sub-video signal obtained by the sub-video signal decoding means on the main video signal obtained by the main video signal decoding means. Mapping means for mapping, a video signal receiving means for receiving a video signal obtained by mapping a sub-video signal to a main video signal by the mapping means, and a sub-video signal mapped from the video signal received by the video signal receiving means And (a) to (d) using the reference video signal.
And a correction means for correcting the video signal received by the video signal receiving means using the parameters determined by the parameter determination means.
【0048】前述した基準映像信号は、映像信号の有効
画像領域を利用して伝送することもできるが、第9の映
像信号処理装置のように基準映像信号を主映像信号に付
随する副映像信号を用いてい伝送することが可能とな
る。例えばDVD−Video規格では、サブピクチャ
と呼ばれる副映像信号が規定されている。サブピクチャ
映像データは、ビットマップ映像を符号化したものであ
る。通常は、メニュー画面や、字幕スーパーなどの映像
を伝送するためのものである。The above-mentioned reference video signal can be transmitted using the effective image area of the video signal. However, as in the ninth video signal processing device, the reference video signal is Can be transmitted. For example, the DVD-Video standard defines a sub-picture signal called a sub-picture. The sub-picture video data is obtained by encoding a bitmap video. Usually, it is for transmitting an image such as a menu screen or a subtitle supermarket.
【0049】第9の映像信号処理装置では、このサブピ
クチャ映像を利用して、映像補正処理の基準映像信号を
送るという構成になる。サブピクチャは、主映像信号に
は影響を与えずに表示・非表示の制御が可能であり、補
正パラメータの算出中は表示を行い、補正中はサブピク
チャの表示を行わないなどの制御も容易に行うことが可
能となる。また、サブピクチャの主映像へのマッピング
位置は、画素精度で規定されるため、サブピクチャが乗
った映像信号を、アナログ伝送路などで伝送した場合に
も、有効画像領域の位置補正やゲインや周波数特性等の
伝送特性の補正を正確に行うことも可能となる。In the ninth video signal processing apparatus, a reference video signal for video correction processing is transmitted using this sub-picture video. The sub-picture can be controlled to be displayed or hidden without affecting the main video signal. It is easy to control such that the sub-picture is displayed during correction parameter calculation and the sub-picture is not displayed during correction. Can be performed. Further, since the mapping position of the sub-picture to the main video is defined by the pixel precision, even when the video signal carrying the sub-picture is transmitted via an analog transmission path or the like, the position correction of the effective image area, the gain and the like are performed. It is also possible to accurately correct transmission characteristics such as frequency characteristics.
【0050】本発明に係る第10の映像信号処理装置
は、主映像信号の符号化データと前記主映像信号に付随
する副映像信号の符号化データを伝送または記録媒体を
介して受信する符号化データ受信手段と、この符号化デ
ータ受信手段により受信された主映像信号の符号化デー
タを復号化する主映像信号復号化手段と、符号化データ
受信手段により受信された副映像信号の符号化データを
復号化する副映像信号復号化手段と、主映像信号復号化
手段により得られた主映像信号上に副映像信号復号化手
段により得られた副映像信号をマッピングするマッピン
グ手段と、このマッピング手段により主映像信号に副映
像信号がマッピングされた映像信号を受信する映像信号
受信手段と、この映像信号受信手段により受信された映
像信号に対してデスクランブル処理を行うデスクランブ
ル処理手段とを有する。[0050] A tenth video signal processing apparatus according to the present invention is characterized in that the coded data of the main video signal and the coded data of the sub-video signal accompanying the main video signal are transmitted or received via a recording medium. Data receiving means, main video signal decoding means for decoding the encoded data of the main video signal received by the encoded data receiving means, and encoded data of the sub-video signal received by the encoded data receiving means Sub-picture signal decoding means for decoding the sub-picture signal, mapping means for mapping the sub-picture signal obtained by the sub-picture signal decoding means onto the main picture signal obtained by the main picture signal decoding means, and this mapping means A video signal receiving means for receiving a video signal in which a sub video signal is mapped to a main video signal, and a video signal receiving means for decoding the video signal received by the video signal receiving means. And a descrambling processing unit that performs the rumble processing.
【0051】そして、主映像信号あるいは主映像信号の
符号化データにスクランブル処理がなされ、かつ副映像
信号あるいは副映像信号の符号化データに主映像信号あ
るいは主映像信号の符号化データに対するスクランブル
処理と同期して該スクランブル処理と等価なスクランブ
ル処理がなされていることを特徴とする。この場合、副
映像信号のうち基準映像信号が含まれる副映像信号につ
いては、主映像信号と同期した等価なスクランブル処理
は施さないようにすることが望ましい。The scrambling process is performed on the main video signal or the encoded data of the main video signal, and the scrambling process on the main video signal or the encoded data of the main video signal is performed on the sub video signal or the encoded data of the sub video signal. A scramble process equivalent to the scramble process is performed in synchronization. In this case, it is preferable that the equivalent scrambling process synchronized with the main video signal is not performed on the sub video signal including the reference video signal among the sub video signals.
【0052】ここで、主映像信号がスクランブル処理を
施されており、またサブピクチャの映像が、非スクラン
ブルであるか、あるいは主映像信号とは独立にスクラン
ブルされている場合、受信側でのデスクランブルは、主
映像およびサブピクチャのそれぞれ独立にデスクランブ
ル処理を施してから、サブピクチャを主映像上にマッピ
ングする必要がある。Here, if the main video signal has been scrambled and the sub-picture video is non-scrambled or scrambled independently of the main video signal, the data on the receiving side is In the scrambling, it is necessary to perform descrambling processing on the main video and the sub-picture independently, and then map the sub-picture on the main video.
【0053】第9の映像信号処理装置では、サブピクチ
ャ映像を予め主映像信号のスクランブル処理と同期して
等価なスクランブル処理を行って符号化しておくことに
より、受信側ではサブピクチャがマッピングされた映像
信号に対してデスクランブル処理を施すことで、映像の
再生を行うことが可能となる。In the ninth video signal processing apparatus, the sub-pictures are mapped on the receiving side by performing equivalent scrambling in advance in synchronization with the scrambling of the main video signal. By performing the descrambling process on the video signal, it becomes possible to reproduce the video.
【0054】また、サブピクチャ映像に、基準映像信号
が乗っている場合、第9の映像信号処理装置により、サ
ブピクチャ自体がスクランブルされている場合は、デス
クランブル前の映像信号から基準映像信号を抽出して、
デスクランブル前の映像信号に対する補正処理を行うこ
とが困難となる。これに対し、第10の映像信号処理装
置によれば、基準映像信号が含まれるサブピクチャにつ
いては、スクランブル処理をせず、また基準映像信号で
ない本来のサブピクチャ映像であれば、主映像と等価な
スクランブルを施すという構成にすることで、デスクラ
ンブル前の映像信号から、サブピクチャとしてマッピン
グされた基準映像信号を抽出し、抽出した基準映像信号
を用いて、デスクランブル前の映像信号に対する補正処
理を行うことが可能となる。If the ninth video signal processing device has scrambled the sub-picture itself, the ninth video signal processing device converts the reference video signal from the video signal before descrambling. Extract
It becomes difficult to perform correction processing on the video signal before descrambling. On the other hand, according to the tenth video signal processing device, the sub-picture including the reference video signal is not subjected to the scrambling process, and if the original sub-picture video is not the reference video signal, the sub-picture is equivalent to the main video. By extracting the reference video signal mapped as a sub-picture from the video signal before descrambling by applying a configuration that performs a scramble, a correction process for the video signal before descrambling is performed using the extracted reference video signal. Can be performed.
【0055】[0055]
【発明の実施の形態】以下、図面を参照して本発明の実
施の形態を説明する。 (第1の実施形態)図1に、本発明の第1の実施形態に
係るシステム構成を示す。図1において、送信側では入
力信号20として例えばMPEG2方式により符号化さ
れた映像データが入力され、ビデオデコーダ10により
復号化される。ビデオデコーダ10から出力されるディ
ジタル映像信号21は、D/A変換器11によりアナロ
グ映像信号22に変換された後にアナログ伝送路を介し
て伝送され、映像信号受信装置1で受信される。映像信
号受信装置1は、A/D変換器12、映像信号補正部1
3、ディジタル信号処理部14およびD/A変換器15
から構成される。Embodiments of the present invention will be described below with reference to the drawings. (First Embodiment) FIG. 1 shows a system configuration according to a first embodiment of the present invention. In FIG. 1, video data encoded by, for example, the MPEG2 method is input as an input signal 20 on the transmission side, and is decoded by a video decoder 10. The digital video signal 21 output from the video decoder 10 is converted into an analog video signal 22 by the D / A converter 11, transmitted through an analog transmission path, and received by the video signal receiving device 1. The video signal receiving device 1 includes an A / D converter 12, a video signal correction unit 1,
3. Digital signal processing unit 14 and D / A converter 15
Consists of
【0056】すなわち、アナログ映像信号22はA/D
変換器12により再サンプリングされ、ディジタル化さ
れた後、映像信号補正部13に入力され、補正される。
この映像信号補正部13については、後に詳しく説明す
る。映像信号補正部13から出力される補正後のディジ
タル映像信号24は、ディジタル信号処理部14によ
り、各種の処理が施される。ディジタル信号処理部14
で行われる処理は、例えばスクランブルされた映像信号
のデスクランブル処理などである。このディジタル信号
処理部14から出力されるディジタル映像信号27は、
そのまま出力されるか、あるいはD/A変換器15によ
り再度D/A変換されてアナログ映像信号26として出
力される。That is, the analog video signal 22 is A / D
After being re-sampled and digitized by the converter 12, it is input to the video signal correction unit 13 and corrected.
The video signal correction unit 13 will be described later in detail. The corrected digital video signal 24 output from the video signal correction unit 13 is subjected to various processes by the digital signal processing unit 14. Digital signal processing unit 14
Is a descrambling process of a scrambled video signal, for example. The digital video signal 27 output from the digital signal processing unit 14 is
It is output as it is, or is D / A converted again by the D / A converter 15 and output as an analog video signal 26.
【0057】以下、図2〜図11を用いて、本実施形態
においてA/D変換器12により再サンプリングされデ
ィジタル化された映像信号に対する映像信号補正部13
による補正処理の内容について、詳しく説明する。この
映像信号補正部13による補正処理は、本実施形態では
(a)位置補正、(b)ゲインおよび直流オフセット補
正、(c)波形等化の3つである。Hereinafter, referring to FIGS. 2 to 11, the video signal correction unit 13 for the video signal resampled and digitized by the A / D converter 12 in this embodiment will be described.
The details of the correction processing according to will be described in detail. In this embodiment, the video signal correction unit 13 performs three types of correction processing: (a) position correction, (b) gain and DC offset correction, and (c) waveform equalization.
【0058】(位置補正について)ビデオデコーダ10
で復号化された映像信号21は、D/A変換やA/D変
換等の処理を通じて、有効画像領域の位置が若干ずれる
場合がある。図2は、有効画像領域の位置ずれの例を示
す図であり、オリジナルの映像信号の有効領域30に対
して、A/D変換器12により再サンプリングされディ
ジタル化された映像信号の有効領域31は、図のように
ずれている。すなわち、オリジナルの映像信号の有効領
域30の原点位置30aに対して、再サンプリング後の
映像信号の有効領域31の原点位置31aは水平方向お
よび垂直方向にずれている。(Regarding Position Correction) Video Decoder 10
In the video signal 21 decoded in the above, the position of the effective image area may be slightly shifted through processing such as D / A conversion and A / D conversion. FIG. 2 is a diagram showing an example of a positional shift of an effective image area. An effective area 31 of a video signal resampled and digitized by the A / D converter 12 with respect to an effective area 30 of an original video signal. Are shifted as shown in the figure. That is, the origin position 31a of the effective region 31 of the resampled video signal is shifted in the horizontal and vertical directions with respect to the origin position 30a of the effective region 30 of the original video signal.
【0059】このように映像信号の有効画像領域の位置
が若干ずれた場合、例えばディジタル信号処理部14で
画素レベルのディジタル映像信号処理を行うと、本来意
図した画素位置と異なる画素位置のデータを操作してし
まうことによるアーチファクトが発生する場合がある。
この場合、有効画像領域のずれを自動的に検出して、位
置補正を行う処理が必要となり、この位置補正処理を映
像信号補正部13によって行う。When the position of the effective image area of the video signal is slightly shifted in this way, for example, when the digital signal processing section 14 performs pixel-level digital video signal processing, data at a pixel position different from the originally intended pixel position is obtained. Artifacts may occur due to operation.
In this case, it is necessary to perform a process of automatically detecting a shift of the effective image area and performing position correction, and the position correction process is performed by the video signal correction unit 13.
【0060】図3は、この位置補正に際して図2に示し
たような有効画像領域の位置ずれを検出するための基準
映像信号フレーム32の一例を示したものであり、例え
ば画面内の上部Nラインおよび左からM画素のデータの
画素値が“240”固定、それ以外のデータの画素値が
“16”固定となっている。ここで、各画素値は例えば
8ビットで表現され、その値は“0”〜“255”であ
る。また、A/D変換器12による再サンプリング後の
各々の画素値をY(v,h)とする。hは水平画素位置
(0〜H)、vは垂直ライン位置(0〜V)をそれぞれ
表す。図3に示した基準映像信号を用いて、式(1)に
示すように原点位置のずれ量(dv,dh)を推定し、
これを位置補正量として有効画像領域の位置補正を行う
ことが可能となる。Y′(v,h)は、位置補正がなさ
れた後の映像信号を表す。FIG. 3 shows an example of the reference video signal frame 32 for detecting the positional deviation of the effective image area as shown in FIG. 2 at the time of this position correction. From the left, the pixel values of the data of the M pixels are fixed at “240”, and the pixel values of the other data are fixed at “16”. Here, each pixel value is represented by, for example, 8 bits, and the value is “0” to “255”. Each pixel value after resampling by the A / D converter 12 is defined as Y (v, h). h represents a horizontal pixel position (0 to H), and v represents a vertical line position (0 to V). Using the reference video signal shown in FIG. 3, the amount of deviation (dv, dh) of the origin position is estimated as shown in Expression (1),
Using this as the position correction amount, the position of the effective image area can be corrected. Y '(v, h) represents the video signal after the position correction.
【0061】[0061]
【数1】 これらの位置補正は、映像信号の特定の信号成分(例え
ば輝度信号)のみについて行い、映像信号の他の信号成
分(例えば色差信号)に対しては、位置補正量(dv,
dh)をサンプリング比に応じてスケーリングして用い
てもよいし、また図4に示すように各信号成分毎に独立
して基準映像信号フレームを規定し、それぞれ独立に位
置補正量を検出する構成としてもよい。図4では、4:
2:0コンポーネント信号と呼ばれる(Y,Cb,C
r)から構成される映像信号のうちの輝度信号(Y)に
対する基準映像信号フレーム40と色差信号(Cb,C
r)に対する基準映像信号フレーム41,42を示して
いる。(Equation 1) These position corrections are performed only on a specific signal component (for example, a luminance signal) of the video signal, and for other signal components (for example, a color difference signal) of the video signal, the position correction amounts (dv,
dh) may be used after being scaled according to the sampling ratio. Alternatively, as shown in FIG. 4, a reference video signal frame is independently defined for each signal component, and the position correction amount is detected independently. It may be. In FIG. 4, 4:
2: 0 component signal (Y, Cb, C
r) and the reference video signal frame 40 for the luminance signal (Y) of the video signal composed of the color difference signals (Cb, C).
3 shows reference video signal frames 41 and 42 for r).
【0062】また、図3または図4の基準映像信号はフ
レーム(画面)全体の信号が伝送されるが、例えば図5
に示すようにフレームの上部のNラインにのみ基準映像
信号50を入れ、N+1ライン目から下は有効画像領域
とする構成として、基準映像信号専用のフレームではな
く、通常の映像フレームの一部を利用して基準映像信号
を送る構成としてもよい。As the reference video signal shown in FIG. 3 or FIG. 4, the signal of the entire frame (screen) is transmitted.
As shown in the figure, the reference video signal 50 is inserted only into the upper N lines of the frame, and the lower part from the (N + 1) th line is set as an effective image area. The configuration may be such that the reference video signal is transmitted by using it.
【0063】ここで、基準映像信号フレームの形状は図
3〜図5に示したものに限定されないが、いずれの場合
も画面内の所定の領域単位、例えばDCTブロックの整
数倍の単位で一定の画素値を有する構成とする。つま
り、基準映像信号の部分は、どのDCTブロックでもブ
ロック内の画素値が一定となる。また、基準映像信号の
部分は、常に動き補償予測を行わないイントラマクロブ
ロックとして符号化を行う。これにより以下に説明する
ように、符号化および復号化に伴う歪みを最小限に抑え
ることをが可能となる。Here, the shape of the reference video signal frame is not limited to those shown in FIGS. 3 to 5, but in any case, it is constant in a predetermined area unit within the screen, for example, a unit of an integral multiple of the DCT block. It is configured to have a pixel value. That is, in the reference video signal portion, the pixel value in each DCT block is constant. In addition, the reference video signal is encoded as an intra macroblock for which motion compensation prediction is not always performed. As a result, as described below, it is possible to minimize distortion caused by encoding and decoding.
【0064】MPEG2方式では、原映像信号あるいは
動き補償予測により得られた予測誤差信号のいずれかが
ブロック(DCTブロック)毎にDCT変換され、これ
により得られた各DCT係数が量子化された後に可変長
符号化される。ブロック内で画素値が一定の場合、DC
T変換により直流成分のみが符号化されることになる
が、直流成分に対するDCTあるいは逆DCTの基底関
数は全て整数となり、小数点以下の演算誤差が発生しな
い。In the MPEG2 system, either an original video signal or a prediction error signal obtained by motion compensation prediction is DCT-transformed for each block (DCT block), and after each DCT coefficient obtained by this is quantized, Variable-length coded. If the pixel value is constant in the block, DC
Although only the DC component is encoded by the T-transformation, the DCT or inverse DCT basis functions for the DC component are all integers, and no decimal error occurs.
【0065】また、MPEG2方式における量子化で
は、イントラマクロブロックのDCT係数のうち、直流
成分だけは量子化の影響を受けずに符号化される。つま
り、DCTブロック内で画素値が一定となる画像データ
については、イントラマクロブロックで符号化すること
で、ロスレスで符号化することが可能となり、符号化/
復号化系を通しても、画素値が保存されることになる。
従って、信号値が既知である基準映像信号を容易に伝送
することが可能となる。MPEG2方式におけるDCT
ブロックサイズは8×8画素であり、NおよびMは図3
の例ではそれぞれ8の倍数、図4の例ではそれぞれ16
の倍数とすればよい。In the quantization in the MPEG2 system, only the DC component of the DCT coefficients of the intra macroblock is encoded without being affected by the quantization. In other words, image data having a fixed pixel value in a DCT block can be encoded losslessly by encoding it in an intra macroblock.
Even through the decoding system, the pixel values are preserved.
Therefore, it is possible to easily transmit the reference video signal whose signal value is known. DCT in MPEG2 system
The block size is 8 × 8 pixels, and N and M are shown in FIG.
In the example shown in FIG. 4, a multiple of 8, and in the example shown in FIG.
May be a multiple of.
【0066】(ゲインおよび直流オフセット補正につい
て)D/A変換器11の入力のディジタル映像信号21
において画素値が“0”〜“255”の画素データは、
A/D変換器12による再サンプリング後のディジタル
映像信号23においても“0”〜“255”の画素値と
して受信されることが望ましい。しかし、実際はD/A
変換器11と、その出力のアナログ映像信号22を伝送
するアナログ伝送路およびA/D変換器12の特性の影
響を受けて、D/A変換器11の入力からA/D変換器
12の出力までの伝送路のゲインは1とはならず、また
伝送路で直流オフセットが付加されてしまう場合もあ
る。(Regarding Gain and DC Offset Correction) Digital video signal 21 input to D / A converter 11
The pixel data having pixel values “0” to “255” in
It is desirable that the digital video signal 23 after resampling by the A / D converter 12 is also received as a pixel value of “0” to “255”. However, actually D / A
The input of the D / A converter 11 and the output of the A / D converter 12 are affected by the characteristics of the A / D converter 12 and the analog transmission path for transmitting the analog video signal 22 output from the converter 11. In some cases, the gain of the transmission path up to this point does not become 1, and a DC offset may be added in the transmission path.
【0067】図6は理想的な伝送特性を示したもので、
横軸が伝送画素値、縦軸が受信画素値を示している。一
方、図7〜図10はゲインや直流オフセットのずれが伝
送路で生じた場合の伝送特性の例を示している。ここ
で、破線が図6の理想的な伝送特性、実線が本来の伝送
画素値と再サンプリング後に実測された受信画素値の関
係を示している。FIG. 6 shows ideal transmission characteristics.
The horizontal axis indicates the transmission pixel value, and the vertical axis indicates the reception pixel value. On the other hand, FIGS. 7 to 10 show examples of transmission characteristics in the case where a shift in gain or DC offset occurs in a transmission path. Here, the broken line shows the ideal transmission characteristics in FIG. 6, and the solid line shows the relationship between the original transmission pixel value and the received pixel value actually measured after resampling.
【0068】このようなゲインおよび直流オフセットの
ずれは、前述した既知の基準映像信号を送ることで、容
易に測定することが可能となる。すなわち、この基準映
像信号を用いれば、符号化および復号化の影響を容易に
排除し、純粋にD/A変換器11の入力側からA/D変
換器12の出力までの間の伝送路の伝送特性を測定する
ことが可能である。以下、既知の基準映像信号を伝送し
て測定された伝送特性から、その伝送特性の補正を行う
例を図7〜図10の場合について説明する。Such a shift between the gain and the DC offset can be easily measured by transmitting the above-mentioned known reference video signal. That is, if this reference video signal is used, the influence of encoding and decoding can be easily eliminated, and the transmission path from the input side of the D / A converter 11 to the output of the A / D converter 12 can be purely removed. It is possible to measure transmission characteristics. Hereinafter, an example in which the transmission characteristics are corrected from the transmission characteristics measured by transmitting a known reference video signal will be described with reference to the cases of FIGS.
【0069】図7および図8は、伝送路のゲイン特性を
1次関数で近似して補正するものである。伝送画素値を
Y、受信画素値をY′とし、Y′=aY+bと近似す
る。この式をYについて解くと、式(2)のように置き
換えられる。 Y=(Y′−b)/a …(2) 図7の例では、2つの異なる画素値の基準映像信号を用
いて、その基準映像信号の実測値の画素値から式(2)
中のa,bを求め、それ以降に受信される映像信号のゲ
イン補正を行う。図8の例では、さらに多くの画素値の
基準映像信号を用いて、その基準映像信号の実測値の画
素値からa,bの値を最小2乗法を用いて決定し、それ
以降に受信される映像信号のゲイン補正を行う。FIGS. 7 and 8 show a case where the gain characteristic of the transmission path is corrected by approximating it with a linear function. Let the transmission pixel value be Y and the reception pixel value be Y ', and approximate to Y' = aY + b. When this equation is solved for Y, it is replaced as in equation (2). Y = (Y′−b) / a (2) In the example of FIG. 7, using a reference video signal having two different pixel values, the equation (2) is obtained from the pixel value of the actually measured value of the reference video signal.
Then, a and b are obtained, and the gain of the video signal received thereafter is corrected. In the example of FIG. 8, the values of a and b are determined by using the least square method from the pixel values of the actually measured values of the reference video signal using the reference video signal of more pixel values, and received after that. Video signal gain correction.
【0070】また、図9のように伝送路が非線形なゲイ
ン特性をもつ場合は、複数の画素値をもつ基準映像信号
を用いて、その基準映像信号の実測値の画素値から画素
値“0”〜“255”に対する変換テーブルG(k) を作
成する。基準映像信号に含まれていない画素値に対する
変換値は、その近傍の変換値から内挿した値とする。そ
れ以降に受信される映像信号は、作成された変換テーブ
ルG(k) により、各画素の画素値変換を行う。式(3)
に、変換テーブルG(k) を用いた画素値変換の例を示
す。When the transmission path has a non-linear gain characteristic as shown in FIG. 9, a reference video signal having a plurality of pixel values is used, and the pixel value “0” is calculated from the pixel value of the measured value of the reference video signal. A conversion table G (k) for "-" to "255" is created. The conversion value for a pixel value not included in the reference video signal is a value interpolated from the conversion value in the vicinity. The video signals received thereafter are subjected to pixel value conversion of each pixel according to the created conversion table G (k). Equation (3)
FIG. 7 shows an example of pixel value conversion using the conversion table G (k).
【0071】 G(k) :k=0,1,…,255, 0≦G(k) ≦255 kが基準映像信号に含まれる場合 :G(k) =R(k) R(k) は基準映像信号値kに対する実測値 kが基準映像信号に含まれない場合:G(k) =Ak+B A={R(k′)-R(k″)}/(k′-k″) B=R(k′)-Ak′ k′,k″はk近傍の基準映像信号値 Y=G(Y′) :Y′は受信した画素値、Yは変換後の画素値 …(3) 図10に、色差信号に対する1次近似による画素値補正
の例を示す。サンプリングされたYCbCr信号の色差
信号は、通常ゼロレベルが“128”、つまり2の補数
表現された符号付き整数で表現される。ゼロレベルのず
れは、映像に大きく影響するため、色差信号については
基準映像の画素値に“128”を加えておき、式(4)
に示すように変換式を決定する。G (k): k = 0, 1,..., 255, 0 ≦ G (k) ≦ 255 When k is included in the reference video signal: G (k) = R (k) R (k) is When the measured value k for the reference video signal value k is not included in the reference video signal: G (k) = Ak + B A = {R (k ′) − R (k ″)} / (k′−k ″) B = R (k ')-Ak' k 'and k "are reference video signal values near k Y = G (Y'): Y 'is a received pixel value, Y is a converted pixel value (3) FIG. An example of a pixel value correction by a first-order approximation to a color difference signal is shown in Fig. 10. A color difference signal of a sampled YCbCr signal is normally represented by a signed integer represented by a zero level of "128", that is, a two's complement. Since the shift of the zero level greatly affects the image, “128” is added to the pixel value of the reference image for the color difference signal, and the equation (4) is obtained.
The conversion formula is determined as shown in FIG.
【0072】 C=Ac(C′−R(128))+128 C′は受信した色差信号の画素値 R(128) は基準映像信号値“128 ”に対する実測値 Acは基準映像信号およびその実測値から決定される …(4) 次に、伝送路で発生したエコーや、再サンプリング位相
のずれ等によって生じるリンギングなどの影響の除去を
目的とした、本発明の実施形態に係る波形等化フィルタ
について説明する。C = Ac (C′−R (128)) + 128 C ′ is the pixel value of the received color difference signal R (128) is the actual measurement value for the reference video signal value “128” Ac is the reference video signal and its actual measurement value (4) Next, a waveform equalizing filter according to an embodiment of the present invention, which aims to remove the effects of ringing or the like generated by a shift in the resampling phase or an echo generated in the transmission path. explain.
【0073】図11に、波形等化フィルタの構成例を示
す。図11の波形等化フィルタは、トランスバーサル型
の適応フィルタであり、一般的に波形等化器として用い
られるものである。このフィルタは、アナログ伝送され
た映像信号63をA/D変換器61で再サンプリング
し、再サンプリングされたディジタル映像信号64に対
して、トランスバーサルフィルタ60によりディジタル
処理でのフィルタリングを施す。図11の構成は、LM
S(Least Mean Square)アルゴリズムと呼ばれる学習ア
ルゴリズムを実装したものであり、既知の基準信号に対
してN−1タップのトランスバーサルフィルタ60の出
力信号66の値とその期待値65との比較を行い、その
誤差量をスイッチ62を介してフィードバックし、各タ
ップ係数の値C0 〜CN-1 の値を順次修正していくこと
で学習を行う。フィードバック量はパラメータμで決定
され、μの値で収束の速さが制御される。タップ係数の
学習が収束すると、スイッチ62により誤差量のフィー
ドバックをオフにして、決定したタップ係数を用いて入
力のディジタル画像信号64をフィルタリングすること
で、波形等化を行う。FIG. 11 shows a configuration example of the waveform equalization filter. The waveform equalization filter of FIG. 11 is a transversal type adaptive filter, and is generally used as a waveform equalizer. This filter resamples the analog transmitted video signal 63 by the A / D converter 61, and performs digital filtering on the resampled digital video signal 64 by the transversal filter 60. The configuration of FIG.
It implements a learning algorithm called an S (Least Mean Square) algorithm, and compares a value of an output signal 66 of an N-1 tap transversal filter 60 with an expected value 65 with respect to a known reference signal. , the amount of error is fed back through the switch 62 performs learning by successively modifying the values of C 0 ~C N-1 of the respective tap coefficients. The feedback amount is determined by the parameter μ, and the speed of convergence is controlled by the value of μ. When the learning of the tap coefficients converges, the switch 62 turns off the feedback of the error amount, and filters the input digital image signal 64 using the determined tap coefficients, thereby performing waveform equalization.
【0074】適応フィルタの学習のため基準信号として
は、周波数帯域の広い信号を用いることが効果的であ
る。例えば、HDTVのサンプル値アナログ伝送方式を
用いるMUSE方式では、映像のブランキング期間にイ
ンパルス波形(インパルス状の画素サンプル)を基準信
号として伝送し、受信側での波形等化用適応フィルタの
学習を行う方法がとられている。しかし、インパルス波
形はMPEG2等の符号化を行うと符号化自体の影響を
大きく受けるため、本実施形態における伝送路の波形等
化には不向きである。It is effective to use a signal having a wide frequency band as a reference signal for learning the adaptive filter. For example, in the MUSE method using the sample value analog transmission method of HDTV, an impulse waveform (impulse-shaped pixel sample) is transmitted as a reference signal during a video blanking period, and learning of an adaptive filter for waveform equalization on the receiving side is performed. How to do is taken. However, since the impulse waveform is greatly affected by the encoding itself when encoding such as MPEG2, it is not suitable for the waveform equalization of the transmission path in the present embodiment.
【0075】これに対し、本実施形態では前述したDC
Tブロックまたはその倍数のブロックからなる基準映像
信号を用いることにより、MPEG2方式による符号化
/復号化の影響を受けずに、任意のステップ波形を生成
することが可能となる。ステップ波形はインパルス波形
と同様に広い周波数帯域を持つため、伝送路の波形等化
用の基準信号としては、インパルス波形と同様に効果的
である。On the other hand, in the present embodiment, the DC
By using a reference video signal composed of a T block or a multiple block thereof, an arbitrary step waveform can be generated without being affected by encoding / decoding by the MPEG2 system. Since the step waveform has a wide frequency band similarly to the impulse waveform, it is as effective as the impulse waveform as a reference signal for waveform equalization of the transmission path.
【0076】以上の波形等化用適応フィルタとステップ
波形を利用した適応フィルタの学習を用いることで、ア
ナログ伝送や再サンプリングの影響による映像信号の歪
みを低減することが可能となる。なお、波形等化用適応
フィルタは、輝度/色差などの映像信号成分毎に独立に
実装および制御することが可能である。また、映像信号
成分毎に独立に適応フィルタの学習および等化処理を行
うことにより、映像信号毎の伝送特性の違いを効果的に
補正することが可能となる。By using the above-described adaptive filter for waveform equalization and learning of the adaptive filter using the step waveform, it is possible to reduce the distortion of the video signal due to the effects of analog transmission and resampling. The adaptive filter for waveform equalization can be independently implemented and controlled for each video signal component such as luminance / color difference. Further, by performing adaptive filter learning and equalization processing independently for each video signal component, it becomes possible to effectively correct differences in transmission characteristics for each video signal.
【0077】(第2の実施形態)図12は、本発明の第
2の実施形態に係るシステム構成例を示すブロック図で
ある。本実施形態は、第1の実施形態を拡張したもので
ある。図12において、図1と同一の構成要素について
は同一の参照符号を付して詳細な説明を省略し、第1の
実施形態との相違点を中心に説明する。(Second Embodiment) FIG. 12 is a block diagram showing a system configuration example according to a second embodiment of the present invention. This embodiment is an extension of the first embodiment. 12, the same components as those in FIG. 1 are denoted by the same reference numerals, detailed description thereof will be omitted, and differences from the first embodiment will be mainly described.
【0078】本実施形態が第1の実施形態と異なる点
は、送信側に映像信号フォーマット変換部70が追加さ
れ、さらに、映像信号受信装置2に映像信号フォーマッ
ト逆変換部71、第2の映像信号補正部72および映像
信号フォーマット変換部73が追加されていることにあ
る。MPEG2ビデオ規格の中で、特に広範に利用され
ているメインプロファイルでは、符号化対象の映像信号
のフォーマットは4:2:0コンポーネント信号と規定
されている。一方、従来の映像機器の映像信号フォーマ
ットでは、4:2:0信号を直接接続することは困難で
あり、通常、復号後に映像信号フォーマットの変換が行
われる。This embodiment is different from the first embodiment in that a video signal format converter 70 is added to the transmitting side, and a video signal format inverse converter 71 and a second video That is, a signal correction unit 72 and a video signal format conversion unit 73 are added. In the MPEG-2 video standard, the format of a video signal to be encoded is defined as a 4: 2: 0 component signal in a main profile widely used in particular. On the other hand, it is difficult to directly connect 4: 2: 0 signals in a video signal format of a conventional video device, and usually, the video signal format is converted after decoding.
【0079】映像信号フォーマット変換部70およびD
/A変換器11を用いて行われるフォーマット変換は、
4:2:0信号から4:2:2信号(YCbCrコンポ
ーネント信号)、Sビデオ信号、コンポジットビデオ信
号等への変換である。4:2:2信号、Sビデオ信号、
コンポジットビデオ信号は、いずれも輝度および2つの
色差信号から構成されている。Video signal format converter 70 and D
The format conversion performed using the / A converter 11 is as follows.
The conversion is from 4: 2: 0 signals to 4: 2: 2 signals (YCbCr component signals), S-video signals, composite video signals, and the like. 4: 2: 2 signal, S-video signal,
Each of the composite video signals is composed of luminance and two color difference signals.
【0080】ただし、これらの信号は輝度と色差とで1
フレーム当たりのライン数が同一であり、色差信号のラ
イン数が輝度信号のライン数の半分である4:2:0に
対して、色差信号のライン数が2倍となっている。ま
た、Sビデオ信号およびコンポジットビデオ信号は、色
差信号Cb,Crが直交変換および帯域制限されて、I
およびQという二つの軸へ変換されている。Sビデオ信
号は、輝度信号Yと、IおよびQを多重した色信号Cの
2本の独立したアナログ信号として伝送される。さら
に、コンポジットビデオ信号は、色信号Cが輝度信号Y
に多重された1本のアナログ信号として伝送される。However, these signals are 1 in luminance and color difference.
The number of lines of the color difference signal is twice that of 4: 2: 0, in which the number of lines per frame is the same and the number of lines of the color difference signal is half the number of lines of the luminance signal. Further, the S video signal and the composite video signal are subjected to orthogonal transformation and band limitation of the color difference signals Cb and Cr, and
And Q are converted to two axes. The S video signal is transmitted as two independent analog signals of a luminance signal Y and a chrominance signal C obtained by multiplexing I and Q. Further, in the composite video signal, the color signal C is changed to the luminance signal Y.
Are transmitted as a single analog signal multiplexed on the same line.
【0081】ここで、MPEG2で符号化される4:
2:0信号の画素サンプルを単位としたディジタル映像
信号処理を行う必要がある場合、受信したアナログ映像
信号22に対して、A/D変換器12による再サンプリ
ングとともに映像信号フォーマットの逆変換を施す必要
がある。本実施形態では、映像信号フォーマット逆変換
部71において、A/D変換器12で再サンプリングさ
れた映像信号に対して、伝送路の影響を打ち消すための
第1の映像信号補正部13による補正がなされた後に、
この映像信号フォーマットの逆変換が行われる。また、
この映像信号逆変換部71による映像信号フォーマット
の逆変換後の映像信号75に対しても、第2の映像信号
補正部72による画素値の補正処理を加えることが可能
である。Here, 4: encoded by MPEG2:
When it is necessary to perform digital video signal processing in units of pixel samples of the 2: 0 signal, the received analog video signal 22 is subjected to resampling by the A / D converter 12 and inverse conversion of the video signal format. There is a need. In the present embodiment, the video signal format inverse converter 71 corrects the video signal resampled by the A / D converter 12 by the first video signal corrector 13 for canceling the influence of the transmission path. After being done,
The inverse conversion of the video signal format is performed. Also,
The video signal 75 after the inverse conversion of the video signal format by the video signal inverse conversion unit 71 can be subjected to the pixel value correction processing by the second video signal correction unit 72.
【0082】本実施形態では、第1の映像信号補正部1
3による映像信号補正処理、映像信号フォーマット逆変
換部71による映像信号フォーマットの逆変換、および
第2の映像信号補正部72による、フォーマット逆変換
後の画素値の補正処理を行った映像信号76に対して、
MPEG2で本来符号化された4:2:0信号レベルで
のディジタル映像信号処理部14による補正を施した
後、再度、映像信号フォーマット変換部73により所望
の映像フォーマットに変換して出力する構成となってい
る。映像信号フォーマット変換部73から出力される映
像信号77は、そのままディジタル映像信号27として
出力されるか、あるいはD/A変換器15により再度D
/A変換されてアナログ映像信号26として出力され
る。以下、映像信号フォーカス逆変換部71による映像
信号フォーマットの逆変換について具体的に説明する。In this embodiment, the first video signal correction unit 1
3, a video signal format inversely converted by the video signal format inverse conversion unit 71, and a video signal 76 that has been subjected to the pixel value correction process after the format inverse conversion by the second video signal correction unit 72. for,
After the digital video signal processing unit 14 corrects the signal at the 4: 2: 0 signal level originally encoded by MPEG2, the video signal format conversion unit 73 converts it to a desired video format and outputs it again. Has become. The video signal 77 output from the video signal format converter 73 is output as it is as the digital video signal 27, or the D / A converter 15
/ A conversion and output as an analog video signal 26. Hereinafter, the inverse conversion of the video signal format by the video signal focus inverse conversion unit 71 will be specifically described.
【0083】前述のように、一般的な映像信号からMP
EG2の4:2:0信号に戻すためには、色差信号の垂
直方向のラインサブサンプリングが必要となる。図13
は、4:2:2信号から4:2:0信号への映像信号フ
ォーマットの逆変換を行う逆変換部80を示している。
4:2:2信号として輝度信号(Y信号)83と二つの
色差信号(Cb,Cr信号)84,85が入力され、逆
変換後の4:2:0信号として輝度信号(Y信号)86
と二つの色差信号(Cb,Cr信号)87,88が出力
される。4:2:2信号から4:2:0信号への変換
は、Cb信号およびCr信号について独立に垂直方向の
適応ラインサブサンプラ81,82で垂直方向のライン
サブサンプリングを行えばよい。Y信号83は、ライン
サブサンプラ81および82での処理遅延量分だけ遅延
回路89で遅延され、Y信号86として取り出される。As described above, a general video signal is converted to MP
In order to return to the 4: 2: 0 signal of EG2, vertical line subsampling of the color difference signal is required. FIG.
Shows an inverse converter 80 that performs an inverse conversion of the video signal format from the 4: 2: 2 signal to the 4: 2: 0 signal.
A luminance signal (Y signal) 83 and two color difference signals (Cb and Cr signals) 84 and 85 are input as 4: 2: 2 signals, and a luminance signal (Y signal) 86 is obtained as a 4: 2: 0 signal after inverse conversion.
And two color difference signals (Cb and Cr signals) 87 and 88 are output. The conversion from the 4: 2: 2 signal to the 4: 2: 0 signal may be performed by performing vertical line subsampling on the Cb signal and the Cr signal independently by the vertical adaptive line subsamplers 81 and 82. The Y signal 83 is delayed by the delay circuit 89 by the processing delay amount in the line subsamplers 81 and 82, and is extracted as a Y signal 86.
【0084】ここで、適応ラインサブサンプラ81,8
2の実施例を説明するに先立ち、まずMPEG2で規定
される4:2:0信号および4:2:2信号の画素の空
間および時間的な位相関係の説明を行う。図14および
図15は、フレーム内での輝度信号サンプル“×”、色
差信号サンプル“○”の位相関係を4:2:0信号およ
び4:2:2信号のそれぞれについて示したものであ
る。横軸はフレーム内水平方向、縦軸はフレーム内垂直
方向をそれぞれ表す。Here, the adaptive line subsamplers 81, 8
Prior to the description of the second embodiment, the spatial and temporal phase relationship between the pixels of the 4: 2: 0 signal and the 4: 2: 2 signal specified by MPEG2 will be described first. FIGS. 14 and 15 show the phase relationship between the luminance signal sample “x” and the color difference signal sample “サ ン プ ル” in the frame for the 4: 2: 0 signal and the 4: 2: 2 signal, respectively. The horizontal axis represents the horizontal direction in the frame, and the vertical axis represents the vertical direction in the frame.
【0085】図16および図17は、同様に4:2:0
信号および4:2:2信号の輝度信号サンプル“×”と
色差信号サンプル“○”の時間方向およびフレームある
いはフィールド内の垂直方向の位相関係をそれぞれ示し
ている。図16および図17において、それぞれ(a)
はインタレース画像のフィールド、(b)はノンインタ
レース画像のフレームにおける輝度信号および色差信号
の位相関係を示している。FIGS. 16 and 17 also show 4: 2: 0
The phase relations of the luminance signal sample “x” and the color difference signal sample “の” of the signal and the 4: 2: 2 signal in the time direction and the vertical direction in the frame or field are shown. In FIGS. 16 and 17, (a)
Indicates the field of the interlaced image, and (b) indicates the phase relationship between the luminance signal and the color difference signal in the frame of the non-interlaced image.
【0086】図12において、MPEG2デコーダ10
により4:2:0信号21として復号化された映像信号
は、映像信号フォーマット変換部70により4:2:2
信号74に変換される。ここで、映像信号フォーマット
変換部70では、図14〜図17に示した位相関係に応
じて、色差信号に対して垂直方向に2倍オーバーサンプ
リングが行われる。このオーバーサンプリングフィルタ
の構成を推定することで、MPEG2デコーダ10によ
り復号化された4:2:0信号21を再構成することが
可能となる。この場合、基準映像信号を用いてオーバサ
ンプリングフィルタのタップ係数の推定を行い、推定さ
れたタップ係数に基づいて逆フィルタのタップ係数を算
出することで、他のフィルタを用いて4:2:2信号か
ら4:2:0信号へのダウンサンプリングを行う場合に
比べて、4:2:0信号21への逆変換を精度よく行う
ことができるようになる。In FIG. 12, the MPEG2 decoder 10
The video signal decoded as a 4: 2: 0 signal 21 by the video signal format conversion section 70 is 4: 2: 2.
It is converted to a signal 74. Here, in the video signal format converter 70, the color difference signal is twice over-sampled in the vertical direction according to the phase relationships shown in FIGS. By estimating the configuration of this oversampling filter, the 4: 2: 0 signal 21 decoded by the MPEG2 decoder 10 can be reconstructed. In this case, the tap coefficients of the oversampling filter are estimated using the reference video signal, and the tap coefficients of the inverse filter are calculated based on the estimated tap coefficients, so that 4: 2: 2 is used using another filter. Inverse conversion to the 4: 2: 0 signal 21 can be performed more accurately than when downsampling the signal to a 4: 2: 0 signal is performed.
【0087】例えば、図12の映像フォーマット変換部
70がNタップのFIRフィルタを用いて4:2:0か
ら4:2:2への色差信号変換をフィールド単位で行っ
ていると仮定する。これは、例えば図16(a)におけ
る色差信号サンプル“○”を図17(a)における色差
信号サンプル“○”にフィールド単位で変換するもので
ある。例えば、N=2である場合、トップフィールドに
ついて隣接する2ラインの色差信号サンプルから1:7
および5:3の比で線形内挿が行われ、ボトムフィール
ドについては同様に3:5および7:1の比で線形内挿
が行われる。この線形内挿の様子を式(5)に示す。For example, it is assumed that the video format converter 70 shown in FIG. 12 performs color difference signal conversion from 4: 2: 0 to 4: 2: 2 on a field basis using an N-tap FIR filter. This is, for example, to convert the color difference signal sample “○” in FIG. 16A into the color difference signal sample “○” in FIG. 17A on a field basis. For example, when N = 2, 1: 7 from the color difference signal samples of two lines adjacent to each other in the top field.
And 5: 3 for linear interpolation, and for the bottom field, similarly for 3: 5 and 7: 1. Equation (5) shows the state of this linear interpolation.
【0088】 C422(2v,h) ={a×C420(v,h)+b×C420(v-1,h)}/(a+b) C422(2v+1,h) ={c×C420(v,h)+d×C420(v-1,h)}/(c+d) …(5) ここで、C420(v,h)は垂直ライン位置v、水平画素位置
hの座標の4:2:0信号の色差信号サンプルであり、
C422(v,h)は変換後の4:2:2信号の色差信号サンプ
ルである。a,b,c,dは変換パラメータであり、具
体的には線形内挿の内挿比率である。C422 (2v, h) = {a × C420 (v, h) + b × C420 (v-1, h)} / (a + b) C422 (2v + 1, h) = {c × C420 (v, h) h) + d × C420 (v-1, h)} / (c + d) (5) Here, C420 (v, h) is the 4: 2: 0 signal of the coordinates of the vertical line position v and the horizontal pixel position h. Color difference signal samples,
C422 (v, h) is a color difference signal sample of the 4: 2: 2 signal after conversion. “a”, “b”, “c”, and “d” are conversion parameters, specifically, interpolation ratios of linear interpolation.
【0089】この式(5)をC420(v,h),C420(v-1,h)
について解けば、4:2:2信号から4:2:0信号へ
の逆変換が求まることになる。通常、変換パラメータ
a,b,c,dは未知数であるが、既知の4:2:0基
準映像信号C420 とその4:2:2基準映像信号の実測
値C422 の組を少なくともタップ係数の個数数分独立し
て測定すれば、式(5)における変換パラメータa,
b,c,dを未知数として1次連立方程式解くことで、
a,b,c,dを推定することが可能となる。This equation (5) is converted to C420 (v, h) and C420 (v-1, h).
Is solved, the inverse conversion from the 4: 2: 2 signal to the 4: 2: 0 signal is obtained. Normally, the conversion parameters a, b, c, and d are unknown, but a set of a known 4: 2: 0 reference video signal C420 and its actual measured value C422 of the 4: 2: 2 reference video signal is represented by at least the number of tap coefficients. If measured independently for several minutes, the conversion parameters a,
By solving a system of linear equations with b, c, and d as unknowns,
a, b, c, and d can be estimated.
【0090】また、タップ数が不明の場合でも、真のタ
ップ数Nより大きなタップ数M(M≧N)である変換フ
ィルタを仮定し、必要な数の基準映像信号およびその実
測データをもとに連立方程式を解くことで、タップ係数
の推定を行うことが可能である。Further, even when the number of taps is unknown, a conversion filter having a number of taps M (M ≧ N) larger than the true number of taps N is assumed, and a necessary number of reference video signals and their actual measurement data are used. By solving the simultaneous equations, it is possible to estimate the tap coefficients.
【0091】こうして4:2:0信号から4:2:2信
号への変換パラメータa,b,c,dが得られれば、こ
れの変換パラメータa,b,c,dにより、4:2:2
信号から4:2:0信号への適切な逆変換パラメータを
求めることが可能となる。ここで、変換パラメータを推
定するための基準映像信号は、色差信号におけるDCT
ブロックあるいはその倍数のブロック波形とすること
で、符号化/復号化の影響を受けずに、ブロック毎に任
意の画素値を設定した波形を伝送することが可能とな
る。When the conversion parameters a, b, c, and d from the 4: 2: 0 signal to the 4: 2: 2 signal are obtained in this manner, the conversion parameters a, b, c, and d allow the 4: 2: 2
It is possible to obtain an appropriate reverse conversion parameter from the signal to the 4: 2: 0 signal. Here, the reference video signal for estimating the conversion parameter is a DCT in the color difference signal.
By using a block waveform of a block or a multiple thereof, a waveform in which an arbitrary pixel value is set for each block can be transmitted without being affected by encoding / decoding.
【0092】図18は、図12における映像信号フォー
マット逆変換部71の一例として、映像信号フォーマッ
ト変換部70で4:2:0信号からSビデオ信号に変換
された信号を再度4:2:0信号に逆変換するための映
像信号フォーマット逆変換回路90の構成を示した図で
ある。FIG. 18 shows, as an example of the video signal format inverse converter 71 in FIG. 12, the video signal format converter 70 converts the signal converted from the 4: 2: 0 signal into the S video signal again to 4: 2: 0. FIG. 3 is a diagram illustrating a configuration of a video signal format reverse conversion circuit 90 for performing reverse conversion into a signal.
【0093】Sビデオ信号は、前述した通り輝度信号
(Y)と、直交変換および帯域制限された色差信号I,
Qが多重化された色信号(C)が並列に伝送される。図
18において、輝度信号93は遅延回路99を通して出
力され、色信号94はI/Q分離回路91でI信号とQ
信号に分離された後に、マトリックス回路92により色
差信号Cb,Crに変換される。この時点でSビデオ信
号は4:2:2信号となっており、さらに色差信号C
b,Crのダウンサンプラ98a,98bで垂直方向の
1/2ダウンサンプリングが行われることによって、
4:2:2信号を構成する輝度信号(Y)95および二
つの色差信号(Cb,Cr)96,97が出力される。
図18におけるマトリックス回路92およびダウンサン
プラ98a,98bの逆変換パラメータは、図13の例
と同様に、既知の基準映像信号を用いて推定される変換
パラメータから逆算して求めることが出来る。As described above, the S video signal is composed of the luminance signal (Y) and the color difference signals I,
Color signals (C) in which Q is multiplexed are transmitted in parallel. In FIG. 18, a luminance signal 93 is output through a delay circuit 99, and a chrominance signal 94 is converted into an I signal
After being separated into signals, they are converted into color difference signals Cb and Cr by the matrix circuit 92. At this point, the S-video signal is a 4: 2: 2 signal, and the color difference signal C
The b and Cr downsamplers 98a and 98b perform 1 / downsampling in the vertical direction.
A luminance signal (Y) 95 and two color difference signals (Cb, Cr) 96 and 97 constituting the 4: 2: 2 signal are output.
The inverse conversion parameters of the matrix circuit 92 and the downsamplers 98a and 98b in FIG. 18 can be obtained by inverse calculation from the conversion parameters estimated using a known reference video signal, as in the example of FIG.
【0094】図19は、図12における映像信号フォー
マット逆変換部71の他の例として、映像信号フォーマ
ット変換部70で4:2:0信号からコンポジットビデ
オ信号に変換された信号を再度4:2:0信号に逆変換
するための映像信号フォーマット逆変換回路100の構
成を示した図である。FIG. 19 shows another example of the video signal format inverse converter 71 shown in FIG. 12, in which the video signal format converter 70 converts a signal converted from a 4: 2: 0 signal into a composite video signal again into a 4: 2 signal. FIG. 2 is a diagram illustrating a configuration of a video signal format inverse conversion circuit 100 for performing inverse conversion to a: 0 signal.
【0095】コンポジットビデオ信号104は、Y/C
分離回路102により輝度信号Yと色信号Cに分離され
た後、遅延回路109、分離回路101、マトリクス回
路102およびダウンサンプラ108a,108bによ
って図18に示したSビデオ信号に対する処理と同様の
処理が行われることにより、4:2:0信号へ変換され
る。また、図19においても、基準映像信号による変換
パラメータの推定と逆変換パラメータの算出が行われ
る。The composite video signal 104 has a Y / C
After being separated into a luminance signal Y and a chrominance signal C by the separation circuit 102, the delay circuit 109, the separation circuit 101, the matrix circuit 102, and the downsamplers 108a and 108b perform the same processing as the processing on the S video signal shown in FIG. As a result, the signal is converted into a 4: 2: 0 signal. Also in FIG. 19, the estimation of the conversion parameters based on the reference video signal and the calculation of the inverse conversion parameters are performed.
【0096】図20は、図12における映像信号フォー
マット逆変換部71のさらに別の例として、映像信号フ
ォーマット変換部70で4:2:0信号からRGB信号
に変換された信号を再度4:2:0信号に逆変換するた
めの映像信号フォーマット変換回路110の構成を示し
た図である。FIG. 20 shows another example of the video signal format inverse converter 71 shown in FIG. 12, in which the video signal format converter 70 converts the signal converted from the 4: 2: 0 signal into the RGB signal again into the 4: 2 signal. FIG. 2 is a diagram showing a configuration of a video signal format conversion circuit 110 for performing reverse conversion to a: 0 signal.
【0097】RGB信号114,115,116はマト
リックス回路111によりYCbCrの4:2:2信号
に変換され、さらにダウンサンプラ112,113によ
って色差信号の垂直方向のダウンサンプリングが行われ
ることにより、4:2:0信号117,118,119
に変換される。図20においても、図18および図19
と同様に、基準映像信号による変換パラメータの推定と
逆変換パラメータの算出が行われる。The RGB signals 114, 115, and 116 are converted into 4: 2: 2 YCbCr signals by the matrix circuit 111, and down-samplers 112 and 113 down-sample the color difference signals in the vertical direction. 2: 0 signals 117, 118, 119
Is converted to 20 and FIG. 18 and FIG.
Similarly to the above, the estimation of the conversion parameter based on the reference video signal and the calculation of the inverse conversion parameter are performed.
【0098】次に、本発明のオーバーラップ処理あるい
は補間処理に係る実施形態について説明する。図21
は、本発明のオーバーラップ処理あるいは補間処理を施
したフレームを示している。図21中のa,bおよびc
は、連続する複数のマクロブロック位置を示したもので
あり、その水平方向の境界においてオーバーラップ領域
あるいは補間領域132および133を設けている。図
21では、連続する複数のマクロブロックaと連続する
複数のマクロブロックbとの境界付近でオーバーラップ
領域あるいは補間領域132および133となってい
る。これらのオーバーラップ領域あるいは補間領域13
2および133は、伝送特性に依存した映像信号の歪み
抑えたい部分に設定し、再サンプリング後の映像データ
から伝送特性に依存した歪みを除去して、映像信号の再
構成を行うことを目的としている。Next, an embodiment relating to the overlap processing or the interpolation processing of the present invention will be described. FIG.
Indicates a frame subjected to the overlap processing or the interpolation processing of the present invention. A, b and c in FIG.
Indicates the positions of a plurality of continuous macroblocks, and overlap regions or interpolation regions 132 and 133 are provided at the horizontal boundaries. In FIG. 21, an overlap area or interpolation areas 132 and 133 are formed near the boundary between a plurality of continuous macroblocks a and a plurality of continuous macroblocks b. These overlap areas or interpolation areas 13
Nos. 2 and 133 are set at portions where the distortion of the video signal depending on the transmission characteristic is to be suppressed, and the distortion depending on the transmission characteristic is removed from the resampled video data to reconstruct the video signal. I have.
【0099】次に、図22を用いてオーバーラップ処理
とその映像信号再構成処理の説明を行う。図22の14
0は、フレーム内の映像信号を水平方向に見た図であ
る。ここで、この映像信号の符号化すべき連続する複数
のマクロブロック領域(マクロブロックの集合)a,b
およびcを図22の141、142、143の位置にマ
ッピングして符号化する。このように符号化すべきマク
ロブロックのマッピングを行うことにより、図21中の
網掛けを施した信号部分は、二重に符号化されることに
なる。Next, the overlap processing and its video signal reconstruction processing will be described with reference to FIG. 14 in FIG.
0 is a view of the video signal in the frame as viewed in the horizontal direction. Here, a plurality of continuous macroblock areas (sets of macroblocks) a and b to be encoded of this video signal
And c are mapped and encoded at positions 141, 142 and 143 in FIG. By mapping the macroblock to be coded in this manner, the shaded signal portion in FIG. 21 is double coded.
【0100】符号化された映像信号は、通常の符号化デ
ータと同様に復号化され、復号化された映像信号はa,
b,cの順序で連続波形として伝送される。伝送された
映像信号を受信して再サンプリングを行い、マクロブロ
ック領域a,b,cの端部において、真の境界線144
および145より外側部分の映像信号を廃棄して、元の
映像信号140の波形を再構成する。The coded video signal is decoded in the same manner as ordinary coded data, and the decoded video signal is a,
It is transmitted as a continuous waveform in the order of b and c. Upon receiving the transmitted video signal, resampling is performed, and at the end of the macroblock areas a, b, and c, the true boundary line 144 is detected.
And 145, the video signal in the portion outside is discarded, and the waveform of the original video signal 140 is reconstructed.
【0101】すなわち、マクロブロック領域aについて
は境界144より右側、マクロブロック領域bについて
は境界144より左側と境界145より右側、マクロブ
ロック領域cについては境界145より左側の映像デー
タをそれぞれ廃棄し、廃棄した部分を取り除いた後にマ
クロブロック領域a,b,cを結合することにより、元
の映像データ140を再構成する。このような処理を行
うことで、マクロブロック領域a,b,cがそれぞれ伝
送路の特性により、他の領域の画像信号との相互作用を
受けること無く、映像信号を伝送することが可能とな
る。例えば、マクロブロック領域aに着目すると、マク
ロブロック領域aがマクロブロック領域bと接する付近
の映像データは、伝送路の特性によりマクロブロック領
域bの左端付近の映像データからの相互作用を受ける。
しかし、マクロブロック領域aとマクロブロック領域b
とのオーバーラップ領域の外側半分をそれぞれ除去する
ことで、伝送路の特性に依存した領域間の相互作用を受
けた分部を取り除き、なお且つ元の映像信号140を再
構成することが可能となる。That is, the video data on the right side of the boundary 144 for the macro block area a, the video data on the left side and the right side of the boundary 145 for the macro block area b, and the left side of the boundary 145 for the macro block area c are discarded, respectively. After removing the discarded portion, the macroblock areas a, b, and c are combined to reconstruct the original video data 140. By performing such processing, the video signals can be transmitted without the macroblock regions a, b, and c being affected by the characteristics of the transmission path, and without being affected by the image signals in other regions. . For example, when focusing on the macroblock area a, the video data near the macroblock area a in contact with the macroblock area b receives an interaction from the video data near the left end of the macroblock area b due to the characteristics of the transmission path.
However, the macro block area a and the macro block area b
By removing the outer halves of the overlapped region with each other, it is possible to remove the part that has undergone the interaction between the regions depending on the characteristics of the transmission line and still reconstruct the original video signal 140. Become.
【0102】図23は、補間領域を用いて領域間の伝送
特性に伴う相互作用を低減させる例を示したものであ
る。図23において、150は映像信号を水平方向に見
たものであり、この映像信号150を領域a′,b′,
c′の映像信号151,152,153に分割し、さら
に各領域a′,b′,c′間に補間信号157,158
を挿入する。補間信号157,158は、境界に0内挿
によるオーバーサンプリングと低域通過ディジタルフィ
ルタにより生成する。そして、補間信号157,158
を挿入した後の領域a,b,cの映像信号154,15
5,156を複数のマクロブロックとして符号化する。FIG. 23 shows an example of reducing the interaction caused by the transmission characteristics between the regions by using the interpolation regions. In FIG. 23, reference numeral 150 denotes a video signal viewed in the horizontal direction, and the video signal 150 is divided into regions a ', b',
c ′ are divided into video signals 151, 152 and 153, and further interpolated signals 157 and 158 between the respective areas a ′, b ′ and c ′.
Insert The interpolation signals 157 and 158 are generated by oversampling by zero interpolation at the boundaries and by a low-pass digital filter. Then, the interpolation signals 157, 158
Video signals 154, 15 of areas a, b, c after inserting
5,156 is encoded as a plurality of macroblocks.
【0103】受信側では、こうして符号化された映像デ
ータを復号化し、復号化された映像信号を伝送した後
に、再サンプリングして補間領域157,158に相当
する補間信号の除去を行い、元の映像信号150を再構
成する。On the receiving side, the encoded video data is decoded, and after transmitting the decoded video signal, re-sampling is performed to remove the interpolation signals corresponding to the interpolation areas 157 and 158, and the original signal is removed. The video signal 150 is reconstructed.
【0104】このように映像信号に補間信号を挿入して
符号化して伝送し、受信側で補間領域を除去することに
より、図22の例と同様に領域間、つまり領域a′と
b′との間、あるいは領域b′とc′との間での伝送特
性に依存した相互作用の影響を除去することが可能とな
る。As described above, the interpolated signal is inserted into the video signal, encoded and transmitted, and the interpolated area is removed on the receiving side. , Or the effect of the interaction depending on the transmission characteristics between the regions b ′ and c ′ can be eliminated.
【0105】以上説明したように、図22あるいは図2
3の構成を用いると、伝送特性に依存した領域間の相互
作用を抑えることが可能となる。この特徴を用いると、
例えば、複数の異なる映像を同一フレーム上にマッピン
グした場合や、スクランブルによりブロックの入れ替え
が行われた場合などに、その境界線付近での伝送歪みの
影響を十分抑えることが可能となる。As described above, FIG.
The use of the configuration 3 makes it possible to suppress the interaction between the regions depending on the transmission characteristics. With this feature,
For example, when a plurality of different videos are mapped on the same frame, or when blocks are exchanged by scrambling, it is possible to sufficiently suppress the influence of transmission distortion near the boundary.
【0106】図22あるいは図23のように、符号化す
べき映像信号として画面内のオーバラップ領域あるいは
補間領域を設けて符号化するフレームと、それらの領域
を設けずに符号化するフレームとが混在する場合、入力
される映像信号のフレームサイズが一定であれば、符号
化対象フレームの水平サイズはそれぞれ異なるものにな
る。As shown in FIG. 22 or FIG. 23, a frame to be coded by providing an overlap area or an interpolation area in a screen as a video signal to be coded and a frame to be coded without providing such areas are mixed. In this case, if the frame size of the input video signal is constant, the horizontal sizes of the encoding target frames are different.
【0107】図24では、入力される映像フレーム17
0に対して、水平方向のオーバラップ領域あるいは補間
領域を設けることで、符号化フレーム171は図のよう
にサイズが水平方向に広がる。一方、オーバラップ領域
あるいは補間領域なしの映像フレームを符号化フレーム
171と同サイズのフレームにマッピングして符号化を
することを考えると、例えば図24の172に示すよう
に、映像フレーム領域174と無データ領域173が生
成される。この場合、無データ領域173を利用して、
入力される映像信号に関連した付加データを符号化され
た映像信号上にマッピングして伝送することが可能であ
る。つまり、オーバラップ領域あるいは補間領域が存在
するフレームと、オーバラップ領域あるいは補間領域が
存在しないフレームとが混在して符号化される場合、前
者のフレームでは付加データのマッピングは行わず、ま
た後者のフレームのみ付加データを映像信号上にマッピ
ングする構成とする。In FIG. 24, the input video frame 17
By providing a horizontal overlap area or an interpolation area with respect to 0, the size of the encoded frame 171 is expanded in the horizontal direction as shown in the figure. On the other hand, considering that a video frame without an overlap area or an interpolation area is mapped to a frame having the same size as the encoded frame 171 and is coded, for example, as shown at 172 in FIG. A non-data area 173 is generated. In this case, using the non-data area 173,
Additional data related to an input video signal can be mapped onto an encoded video signal and transmitted. In other words, when a frame in which an overlap area or an interpolation area exists and a frame in which an overlap area or an interpolation area does not exist are mixed and encoded, additional data is not mapped in the former frame, and It is configured to map the additional data only on the video signal on the frame.
【0108】ここで、付加データとしては、前述したブ
ロック波形で構成される基準映像信号を伝送することが
可能である。図25に、図24における無データ領域1
73上にブロック波形の基準映像信号をマッピングした
例を示す。図25において、182の部分は本来の映像
信号であり、181の部分が無データ領域にマッピング
された基準映像信号である。Here, as the additional data, a reference video signal composed of the above-described block waveform can be transmitted. FIG. 25 shows the non-data area 1 in FIG.
73 shows an example in which a reference video signal having a block waveform is mapped. In FIG. 25, a portion 182 is an original video signal, and a portion 181 is a reference video signal mapped to a non-data area.
【0109】また、付加データとしてフレーム属性を示
すデータをマッピングすることも可能である。フレーム
属性としては、符号化ピクチャタイプ(Iフレーム、P
フレーム、Bフレーム)、ビットレート、平均量子化ス
テップサイズ、フレーム符号量などのMPEG2符号化
における符号化パラメータ、コンテンツの著作権者情
報、複製不可/複製無制限可/複製回数制限などのコピ
ー制限情報、現在の複製回数を示すコピー世代管理情
報、コンテンツの分類コードや登場人物等のデータ、さ
らに、映像信号がスクランブルされている場合は、スク
ランブルキーに関連する情報などが挙げられる。It is also possible to map data indicating a frame attribute as additional data. As the frame attribute, the coded picture type (I frame, P frame
(Frame, B frame), bit rate, average quantization step size, encoding parameters in MPEG2 encoding such as frame code amount, copyright holder information of contents, copy restriction information such as copy prohibition / copy unrestriction possible / copy number limit And copy generation management information indicating the current number of copies, data such as a content classification code and characters, and, if the video signal is scrambled, information related to a scramble key.
【0110】図26は、このような付加データがマッピ
ングされた映像信号に対して付加データ検出及びマスク
処理を行う映像信号処理装置190の構成を示したブロ
ック図である。映像信号処理装置190には、付加デー
タがマッピングされた映像信号の符号化データを復号化
して得られた映像信号197が入力される。映像信号1
97は、セレクタ191により前記のオーバラップ領域
あるいは補間領域が設けられ付加データのないフレーム
の映像信号200と、付加データがマッピングされたフ
レームの映像信号202に分離され、前者の映像信号2
00はフレーム再構成部192へ送られ、また後者の映
像信号202はさらにセレクタ194に送られる。FIG. 26 is a block diagram showing a configuration of a video signal processing device 190 which performs additional data detection and mask processing on a video signal on which such additional data is mapped. The video signal processing device 190 receives as input a video signal 197 obtained by decoding encoded data of a video signal to which additional data has been mapped. Video signal 1
Reference numeral 97 denotes a video signal 200 of a frame provided with the overlap area or the interpolation area and having no additional data by the selector 191 and a video signal 202 of a frame to which the additional data is mapped.
00 is sent to the frame reconstruction unit 192, and the latter video signal 202 is further sent to the selector 194.
【0111】フレーム再構成部192では、図22ある
いは図23で説明したようにオーバラップ領域あるいは
補間領域の除去が行われ、再構成されたフレームの映像
信号201を映像多重部193へ出力する。一方、セレ
クタ194は入力の映像信号202が付加データ領域で
あれば付加データ検出器195へ映像信号204を送
る。付加データ検出器195では、映像信号204から
付加データが検出されて付加データ198が出力され
る。また、セレクタ194は入力の映像信号202が映
像領域であれば、映像信号203を映像多重部196に
送る。The frame reconstructing section 192 removes the overlap area or the interpolation area as described with reference to FIG. 22 or FIG. 23, and outputs the reconstructed frame video signal 201 to the video multiplexing section 193. On the other hand, if the input video signal 202 is the additional data area, the selector 194 sends the video signal 204 to the additional data detector 195. The additional data detector 195 detects additional data from the video signal 204 and outputs additional data 198. If the input video signal 202 is a video area, the selector 194 sends the video signal 203 to the video multiplexing unit 196.
【0112】映像多重部196からは、付加データ領域
に対して、黒映像信号205でマスク処理を施した映像
信号206が出力される。映像多重部193からは、再
構成された映像フレームの映像信号201と、付加デー
タがマスクされたフレームの映像信号206が適宜切り
替えられて出力映像信号199として出力される。The video multiplexing section 196 outputs a video signal 206 obtained by subjecting the additional data area to masking with the black video signal 205. From the video multiplexing unit 193, the video signal 201 of the reconstructed video frame and the video signal 206 of the frame with the additional data masked are appropriately switched and output as the output video signal 199.
【0113】図27は、図25の付加データがマッピン
グされた映像フレームに対して付加データ領域に黒映像
のマスク処理を行ったフレーム210と、マスク処理を
行ったフレーム210に対して付加データ領域211の
幅に相当する原点位置の補正を行ったフレーム213を
示している。図26における映像多重部196からは、
図27における213の信号が出力される。FIG. 27 shows a frame 210 in which the black data is masked in the additional data area for the video frame to which the additional data in FIG. 25 is mapped, and an additional data area for the masked frame 210. A frame 213 in which the origin position corresponding to the width of 211 has been corrected is shown. From the video multiplexing unit 196 in FIG.
The signal 213 in FIG. 27 is output.
【0114】(第3の実施形態)図28は、本発明の第
3の実施形態に係るシステム構成例を示すブロック図で
ある。本実施形態は、第2の実施形態の特別な場合であ
る。図28において、図12と同一の構成要素について
は同一の参照符号を付して詳細な説明を省略し、第1の
実施形態との相違点を中心に説明する。(Third Embodiment) FIG. 28 is a block diagram showing an example of a system configuration according to a third embodiment of the present invention. This embodiment is a special case of the second embodiment. 28, the same components as those in FIG. 12 are denoted by the same reference numerals, detailed description thereof will be omitted, and differences from the first embodiment will be mainly described.
【0115】本実施形態が第2の実施形態と異なる点
は、映像信号受信装置3において図12におけるディジ
タル映像処理部14に相当するものが映像信号のデスク
ランブル処理部220となっており、さらに外部よりデ
スクランブルキー221を入力する手段が付加されてい
ることにある。This embodiment is different from the second embodiment in that the video signal receiving apparatus 3 corresponds to the digital video processing section 14 in FIG. 12 and is a video signal descrambling processing section 220. That is, a means for inputting the descramble key 221 from outside is added.
【0116】本実施形態では、送信側において入力され
る映像データ20はスクランブル処理されている。この
映像データ20をビデオデコーダ10で復号化して得ら
れたディジタル映像信号21がD/A変換器11により
再サンプリングされアナログ映像信号22に変換された
後、アナログ伝送路を介して伝送される。そして、映像
信号受信装置3では受信された映像信号22をA/D変
換器12、映像信号補正部13を経て映像信号フォーマ
ット逆変換部71でMPEG2符号化の4:2:0信号
に逆変換した映像信号76に対して、デスクランブル処
理部220でデスクランブル処理を施し、デスクランブ
ル処理後に再度映像信号フォーマット変換部73を通し
て映像信号77を出力する構成となっている。映像信号
フォーマット変換部73から出力される映像信号77
は、第2の実施形態と同様、そのままディジタル映像信
号27として出力されるか、あるいはD/A変換器15
により再度D/A変換されてアナログ映像信号26とし
て出力される。以下、本実施形態において映像信号に施
されるスクランブル処理の具体的な方法について説明す
る。In the present embodiment, the video data 20 input on the transmission side has been scrambled. A digital video signal 21 obtained by decoding the video data 20 by the video decoder 10 is resampled by the D / A converter 11 and converted into an analog video signal 22, and then transmitted via an analog transmission path. Then, in the video signal receiving device 3, the received video signal 22 passes through the A / D converter 12 and the video signal correction unit 13, and is inversely converted into the MPEG2 encoded 4: 2: 0 signal by the video signal format inverse conversion unit 71. The descramble processing section 220 performs descrambling processing on the decoded video signal 76, and outputs the video signal 77 again through the video signal format conversion section 73 after the descrambling processing. Video signal 77 output from video signal format converter 73
Is output as it is as the digital video signal 27 or the D / A converter 15
, D / A-converted again and output as an analog video signal 26. Hereinafter, a specific method of the scrambling process performed on the video signal in the present embodiment will be described.
【0117】図29は、マクロブロック単位の画素値の
フレーム内での水平方向の入れ替えによるスクランブル
の例を示している。図29の1,2,3,…はフレーム
内のマクロブロック番号を示しており、図29(a)が
スクランブル前のマクロブロック位置を示している。こ
こで、連続する4つのマクロブロックを単位として、水
平方向で画素値の入れ替えを行ったスクランブル映像が
図29(b)である。図29(b)では、連続する4つ
のマクロブロック領域をスクランブル単位とすると、連
続する3つのスクランブル単位毎にランダムに配置を入
れ替えることにより、スクランブル処理が施されてい
る。ここで、ランダムな入れ替えパターンの発生方法を
決定するパラメータがスクランブルキーとなる。FIG. 29 shows an example of scrambling by exchanging pixel values in units of macroblocks in the horizontal direction in a frame. .. In FIG. 29 indicate the macroblock numbers in the frame, and FIG. 29A shows the macroblock positions before scrambling. Here, FIG. 29B shows a scrambled video in which pixel values are exchanged in the horizontal direction in units of four continuous macroblocks. In FIG. 29 (b), assuming that four consecutive macroblock areas are scrambled units, scrambling is performed by randomly rearranging the arrangement for every three consecutive scrambled units. Here, a parameter that determines a method of generating a random replacement pattern is a scramble key.
【0118】図29(b)に示したスクランブル処理後
の映像信号がデコーダ10による復号化後にD/A変換
器11によりアナログ映像信号に変換されてアナログ伝
送路を介して伝送され、その後にA/D変換器12によ
り再サンプリングされ、さらに映像信号補正部13、映
像信号フォーマット逆変換部71を介してデスクランブ
ル処理部220でデスクランブル処理される場合を考え
ると、伝送特性に依存した特性により、デスクランブル
処理後の映像信号25に致命的なアーチファクトが発生
する場合がある。このアーチファクトとしては、例えば
(a)フレームの原点位置のずれ、(b)スクランブル
処理単位の境界で発生するリンギング、(c)垂直方向
のマクロブロック境界で発生する歪みなどが考えられ
る。(b)については、A/D変換器12で用いられる
再サンプリングクロックの位相ずれやジッタの影響、ま
た色差信号の軸変換や帯域制限フィルタなどが要因とな
る。また、(c)についても、マクロブロック位置の入
れ替えを行った映像データのデコーダ出力信号に対し
て、相関の無いライン間に跨って色差信号フィルタ
(4:2:0から他のビデオ信号への変換)が施される
ため、デスクランブル処理後の映像信号25に大きな歪
みが発生することになる。The video signal after the scramble processing shown in FIG. 29 (b) is converted into an analog video signal by the D / A converter 11 after being decoded by the decoder 10, and transmitted via an analog transmission path. Considering the case where the signal is re-sampled by the / D converter 12 and further descrambled by the descrambling processing unit 220 via the video signal correction unit 13 and the video signal format inverse conversion unit 71, the characteristic depends on the transmission characteristics. In some cases, fatal artifacts may occur in the video signal 25 after the descrambling process. As the artifacts, for example, (a) deviation of the origin position of the frame, (b) ringing generated at the boundary of the scramble processing unit, and (c) distortion generated at the vertical macroblock boundary are considered. Regarding (b), the influence of the phase shift and jitter of the resampling clock used in the A / D converter 12, the axis conversion of the color difference signal, the band limiting filter, and the like are factors. Also, as for (c), the color difference signal filter (4: 2: 0 to another video signal) is applied to the decoder output signal of the video data whose macroblock positions have been exchanged over uncorrelated lines. Conversion), a large distortion occurs in the video signal 25 after the descrambling process.
【0119】しかし、本実施形態によれば図28に示す
ような構成で、映像信号補正部13および72におい
て、前述したように基準映像信号を用いた(1) 位置補
正、(2)ゲインおよび直流オフセットの補正、(3) 適応
フィルタによる波形等化処理によるリンギングの低減、
(4) フォーマット変換パラメータの推定によるフォーマ
ット逆変換、(5) スクランブル単位の境界付近でのオー
バラップあるいは補間処理といった各処理を必要に応じ
てデスクランブル処理部220によるデスクランブル処
理の前に行うことにより、デスクランブル処理後の映像
信号25における上記のようなアーチファクトを十分抑
制することが可能となる。However, according to the present embodiment, in the configuration shown in FIG. 28, in the video signal correction units 13 and 72, (1) position correction, (2) gain and Correction of DC offset, (3) Reduction of ringing by waveform equalization by adaptive filter,
(4) Perform each process such as format inverse conversion by estimating format conversion parameters and (5) overlap or interpolation near the boundary of the scramble unit before descrambling by the descramble processing unit 220 as necessary. Accordingly, it is possible to sufficiently suppress the above-described artifact in the video signal 25 after the descrambling process.
【0120】図30および図31は、他のスクランブル
方式の例を示す図である。図30は水平方向のマクロブ
ロックの集合であるスライスを単位として、フレーム内
で垂直方向に画素値の入れ替えを行う例であり、1,
2,3,…はスライス番号を示し、(a)がスクランブ
ル前の映像フレーム、(b)がスクランブル後の映像フ
レーム内のスライス位置を示している。図30の例で
は、連続する3つのスライス毎に、ランダムな入れ替え
を行っている。FIGS. 30 and 31 are diagrams showing examples of another scrambling method. FIG. 30 shows an example in which pixel values are exchanged in the frame in the vertical direction in units of slices, which are sets of macroblocks in the horizontal direction.
.. Indicate slice numbers, (a) shows a video frame before scrambling, and (b) shows a slice position in a video frame after scrambling. In the example of FIG. 30, random replacement is performed for every three consecutive slices.
【0121】また、図31は図29の水平方向のマクロ
ブロックの入れ替えと、図30の垂直方向のスライスの
入れ替えを組み合わせたものであり、同様に(a)がス
クランブル前の映像フレーム、(b)がスクランブル後
の映像フレーム内のスライス位置を示している。図31
では、水平方向のスクランブル単位となるマクロブロッ
ク数自体も、ランダムに変化する構成となっている。FIG. 31 shows a combination of the replacement of macroblocks in the horizontal direction shown in FIG. 29 and the replacement of slices in the vertical direction shown in FIG. 30. Similarly, FIG. 31A shows a video frame before scrambling, and FIG. ) Indicates the slice position in the video frame after scrambling. FIG.
In this configuration, the number of macroblocks serving as a scrambling unit in the horizontal direction itself changes randomly.
【0122】図30あるいは図31のようなマクロブロ
ックあるいはスライスを単位と画素値の入れ替えによる
スクランブルでは、図29の例と同様に復号化、伝送、
再サンプリング、デスクランブルの順序で処理を行う
と、伝送特性に依存したアーチファクトがデスクランブ
ル後の映像信号に大きく発生することになる。しかし、
この場合も図28のような構成でA/D変換器12によ
る再サンプリング後の映像信号に対して、デスクランブ
ル処理部220でのデスクランブル処理の前に上記(1)
〜(5) の処理を施すことにより、これらのアーチファク
トは十分除去することが可能となる。In scrambling by exchanging pixel values with a macroblock or slice as a unit as shown in FIG. 30 or FIG. 31, decoding, transmission,
If the processing is performed in the order of resampling and descrambling, artifacts depending on the transmission characteristics will largely occur in the video signal after descrambling. But,
Also in this case, the video signal after resampling by the A / D converter 12 in the configuration shown in FIG.
By performing the processes (1) to (5), these artifacts can be sufficiently removed.
【0123】図32は、さらに他のスクランブル方式の
例を説明するための図であり、輝度信号Yおよび色差信
号Cb,Crに対して、それぞれ独立に極性反転処理が
施されたスクランブルに対するデスクランブル部260
の構成を示している。このスクランブル処理の例では、
輝度信号Yおよび色差信号Cb,Crが極性反転するか
あるいはしないかを信号成分毎に独立に動的に変化させ
ることでスクランブルさせる。従って、極性反転の時間
変化パターンを生成するパラメータがスクランブルキー
となる。FIG. 32 is a diagram for explaining still another example of the scrambling method. In FIG. 32, descrambling is performed for scramble in which the polarity inversion processing is independently performed on the luminance signal Y and the color difference signals Cb and Cr. Part 260
Is shown. In this example of scrambling,
The scrambling is performed by dynamically and independently changing whether or not the polarity of the luminance signal Y and the color difference signals Cb and Cr is inverted for each signal component. Therefore, the parameter for generating the time change pattern of the polarity inversion is a scramble key.
【0124】図32において、入力信号267,26
8,269はそれぞれY信号、Cb信号、Cr信号であ
り、それぞれ極性反転器261,262,263で極性
反転される。セレクタ264,265,266は、外部
からの制御信号270,271,272により、極性反
転器261,262,263で極性反転された信号と極
性反転されない信号267,268,269を信号成分
毎に独立に切り替えて、出力信号273,274,27
5として出力する。In FIG. 32, input signals 267, 26
8, 269 are a Y signal, a Cb signal, and a Cr signal, respectively, and their polarities are inverted by polarity inverters 261, 262, 263, respectively. The selectors 264, 265, and 266 independently control the signals whose polarity is inverted by the polarity inverters 261, 262, and 263 and the signals 267, 268, and 269 that are not inverted by the control signals 270, 271, and 272 for each signal component. And output signals 273, 274, 27
Output as 5.
【0125】このような極性反転の有無によるスクラン
ブル処理が施された映像データに対して、図29の例と
同様に復号化、伝送、再サンプリング、デスクランブル
処理の順序で処理を行うと、伝送特性に依存したアーチ
ファクトがデスクランブル後の映像信号に大きく発生す
ることになる。特に、ゲインおよび直流オフセットのず
れは、深刻なアーチファクトを生じさせることになる。
この場合、式(6)に示すように、信号Yが極性反転さ
れた信号Inv(Y)は、さらに極性反転することによ
り、信号Yへ戻すことができる。しかし、伝送路のゲイ
ンがaであり、また直流オフセットbが加算された場
合、極性反転して伝送した信号を再度極性反転したもの
Y′と、極性反転せずに伝送したものY″とが一致しな
くなり、極性反転の有無が切り替わる度に、デスクラン
ブルされた映像信号の特性が変化して、視覚的に非常に
見苦しい映像となってしまう。If the video data subjected to the scramble processing based on the presence / absence of the polarity inversion is processed in the order of decoding, transmission, resampling, and descrambling as in the example of FIG. Artifacts depending on the characteristics will largely occur in the video signal after descrambling. In particular, deviations in gain and DC offset will cause severe artifacts.
In this case, as shown in Expression (6), the signal Inv (Y) obtained by inverting the polarity of the signal Y can be returned to the signal Y by further inverting the polarity. However, when the gain of the transmission path is a and the DC offset b is added, a signal Y ′ obtained by reversing the polarity of the signal transmitted with the polarity inverted and a signal Y ″ transmitted without the polarity reversal are obtained. Each time the polarity is inverted, the characteristics of the descrambled video signal change, resulting in a very visually unsightly video.
【0126】 Y=Inv(Inv(Y)) Y′=Inv(a×Inv(Y)+b) Y″=aY+b Y′≠Y″ …(6) しかし、本発明に基づいて基準映像信号を用いたゲイン
および直流オフセットの補正を再サンプリング後の信号
に対して施した後にデスクランブル処理を行うことで、
上記のアーチファクトは取り除くことが可能となる。Y = Inv (Inv (Y)) Y ′ = Inv (a × Inv (Y) + b) Y ″ = aY + b Y ′ ≠ Y ″ (6) However, according to the present invention, the reference video signal is used. By performing the descrambling process after performing the correction of the gain and DC offset that were applied to the signal after resampling,
The above artifacts can be removed.
【0127】図33に、さらに別のスクランブル方式の
例を示す。図33に示すスクランブルは、2次元の色差
信号に着目し、色差信号の直交変換によるスクランブル
を施すものである。式(7)にその変換式を示す。FIG. 33 shows another example of the scrambling method. The scrambling shown in FIG. 33 focuses on a two-dimensional color difference signal and performs scrambling by orthogonal transformation of the color difference signal. Equation (7) shows the conversion equation.
【0128】[0128]
【数2】 図33は、色差信号軸の入れ替えあるいは回転を示して
いる。図33(a)はCb信号とCr信号の入れ替えに
よるスクランブルであり、式(7)における変換係数が
a=0,b=1,c=1,d=0となる場合である。図
33(b)はCbおよびCrの軸を+θだけ回転した場
合であり、式(7)の変換係数を時間的に変動させるこ
とにより、スクランブルを行う。ここで、変換係数の変
化パターンを発生させるためのパラメータがスクランブ
ルキーとなる。スクランブルおよびデスクランブルとも
に、式(7)の演算を行うことになるが、変換係数はそ
れぞれ逆行列の関係になる。(Equation 2) FIG. 33 shows the replacement or rotation of the color difference signal axes. FIG. 33A shows scrambling by exchanging the Cb signal and the Cr signal, and is a case where the conversion coefficients in equation (7) are a = 0, b = 1, c = 1, and d = 0. FIG. 33B shows a case where the axes of Cb and Cr are rotated by + θ, and scramble is performed by changing the conversion coefficient of Expression (7) with time. Here, a parameter for generating a change pattern of the conversion coefficient is a scramble key. In both scramble and descramble, the operation of equation (7) is performed, but the transform coefficients have inverse matrix relationships.
【0129】図34は、式(7)に示されるスクランブ
ルを行うスクランブル処理部あるいはデスクランブル処
理部をブロック図で示したものである。このスクランブ
ル処理部あるいはデスクランブル処理部280は変換係
数a,b,c,dを用いて演算を行うマトリクス回路2
81を有し、入力信号282,283,284としてY
信号、Cb信号、Cr信号が入力され、出力信号28
5,286,287としてスクランブル処理された、あ
るいはデスクランブル処理されたY信号、Cb信号、C
r信号を出力する。FIG. 34 is a block diagram showing a scramble processing section or descrambling processing section for performing scrambling shown in equation (7). This scramble processing unit or descrambling processing unit 280 is a matrix circuit 2 that performs an operation using transform coefficients a, b, c, and d.
81, and Y as input signals 282, 283, and 284.
Signal, Cb signal and Cr signal are input, and output signal 28
5, 286, 287, scrambled or descrambled Y signal, Cb signal, C signal
Outputs r signal.
【0130】ここで、図29の例と同様に、復号化、伝
送、再サンプリング、デスクランブルの順序で処理を行
うと、伝送特性に依存したアーチファクトがデスクラン
ブル後の映像信号に大きく発生することになる。特に、
式(7)の演算により、デスクランブル処理部では信号
成分間の相互作用を受けるため、信号成分間の伝送特性
の違いは、致命的なアーチファクトをデスクランブル後
の映像データに発生させる。しかし、本発明に基づいて
再サンプリング後にデスクランブル前のデータに対し
て、上述の(1) 〜(5) の処理を信号成分毎に施すことに
より、こららのアーチファクトは十分除去することが可
能となる。Here, if processing is performed in the order of decoding, transmission, resampling, and descrambling, as in the example of FIG. 29, artifacts depending on the transmission characteristics may occur greatly in the descrambled video signal. become. In particular,
Since the descrambling processing unit receives an interaction between signal components by the calculation of Expression (7), a difference in transmission characteristics between signal components causes a fatal artifact to occur in the descrambled video data. However, by performing the above-described processes (1) to (5) for each signal component on the data before descrambling after resampling according to the present invention, these artifacts can be sufficiently removed. Becomes
【0131】図35は、図29〜図31に示したスクラ
ンブル方式において、画面内の最外周部分でブロックあ
るいはマクロブロックを単位とした所定の幅の領域で
は、マクロブロックの入れ替えによるスクランブルを行
わないように制限する例を示している。図35に示すマ
クロブロックの入れ替えによるスクランブルが行われる
フレーム290のうち、外周の1マクロブロック291
はマクロブロック入れ替えのスクランブルが行われず、
図中の網掛けで示した領域292のみについてマクロブ
ロックの入れ替えによるスクランブルが行われる。FIG. 35 shows that, in the scrambling method shown in FIGS. 29 to 31, scrambling by exchanging macroblocks is not performed in a region of a predetermined width in units of blocks or macroblocks at the outermost peripheral portion of the screen. Is shown. Out of the frames 290 subjected to scrambling by exchanging macroblocks shown in FIG.
Is not scrambled for replacing macroblocks,
Only the shaded area 292 in the drawing is scrambled by replacing macroblocks.
【0132】図2に示したように、伝送特性に依存して
映像フレームの原点位置がずれてしまった場合、外周部
分の一部の有効画素データが欠落してしまう場合があ
る。この場合、有効画像領域内の全てのマクロブロック
位置で、マクロブロックの画素データの入れ替えを行う
と、上記の有効画素データの欠落に伴い、映像フレーム
内部にデスクランブルにおいても再構成されない画素領
域が発生する。As shown in FIG. 2, when the origin position of the video frame is shifted depending on the transmission characteristics, some effective pixel data in the outer peripheral portion may be lost. In this case, when the pixel data of the macroblock is replaced at all macroblock positions in the effective image area, a pixel area which is not reconstructed even in the descrambling inside the video frame due to the lack of the effective pixel data described above. appear.
【0133】しかし、図35のようにスクランブル領域
291と非スクランブル領域292とを切り分けること
で、有効画素データの欠落を非スクランブル領域に限定
することが可能となり、デスクランブル後の映像の内部
に画素データの欠落個所が発生することを防ぐことが可
能となる。However, by separating the scrambled area 291 from the non-scrambled area 292 as shown in FIG. 35, it is possible to limit the loss of the effective pixel data to the non-scrambled area, and the pixel within the descrambled image is It is possible to prevent data from being lost.
【0134】(第4の実施形態)図36は、本発明の第
4の実施形態に係るシステム構成例を示すブロック図で
ある。本実施形態は、第3の実施形態を拡張したもので
ある。図36において、と図28と同一の構成要素につ
いては同一の参照符号を付して詳細な説明を省略し、第
3の実施形態との相違点を中心に説明する。(Fourth Embodiment) FIG. 36 is a block diagram showing a system configuration example according to a fourth embodiment of the present invention. This embodiment is an extension of the third embodiment. 36, the same components as those of FIG. 28 are denoted by the same reference numerals, detailed description thereof will be omitted, and description will be made focusing on differences from the third embodiment.
【0135】本実施形態の第3の実施形態との違いは、
映像信号受信装置4にスクランブルキー情報検出部23
0とスクランブルキー生成部233が追加されているこ
とにある。本実施形態では、映像信号受信装置4に入力
される映像信号22がスクランブルされており、また映
像信号上の有効画像信号領域の一部を用いてスクランブ
ルキーに関連する第1の情報がマッピングされている。
そして、スクランブルキー情報検出部230によりスク
ランブルキーに関連する第1の情報231の抽出を行
う。The difference between this embodiment and the third embodiment is that
A scramble key information detector 23 is provided in the video signal receiver 4.
0 and a scramble key generation unit 233 are added. In the present embodiment, the video signal 22 input to the video signal receiving device 4 is scrambled, and the first information related to the scramble key is mapped using a part of the effective image signal area on the video signal. ing.
Then, the first information 231 related to the scramble key is extracted by the scramble key information detection unit 230.
【0136】また、外部より入力されるスクランブルキ
ーに関連する第2の情報232と、映像信号から抽出し
たスクランブルキーに関連する第1の情報231とか
ら、スクランブルキー生成部233によりスクランブル
キー234を生成し、デスクランブラ220で映像信号
のデスクランブル処理を行う。Further, the scramble key 234 is generated by the scramble key generation unit 233 from the second information 232 related to the scramble key input from the outside and the first information 231 related to the scramble key extracted from the video signal. Then, the video signal is descrambled by the descrambler 220.
【0137】スクランブルキーに関連する第2の情報2
32は、例えば映像タイトル毎に固定の情報であり、I
Cカードやインターネットを経由して入力される。ま
た、スクランブルキーに関連する第1の情報231は、
動的に変化するスクランブルキーの差分情報である。こ
れら二つの情報231,232を組み合わせることで、
動的に変化するスクランブルキーを再構成することが可
能となる。ここで、スクランブルキーに関連する第2の
情報232を有料で提供することにより、映像信号の個
別課金システムを構成することも可能である。Second information 2 related to the scramble key
32 is, for example, fixed information for each video title.
It is input via a C card or the Internet. Also, the first information 231 related to the scramble key is:
It is dynamically changing scramble key difference information. By combining these two information 231, 232,
A dynamically changing scramble key can be reconstructed. Here, by providing the second information 232 related to the scramble key for a fee, it is possible to configure an individual charging system for video signals.
【0138】(第5の実施形態)図37は、本発明の第
5の実施形態に係るシステム構成例を示すブロック図で
ある。本実施形態は、第1の実施形態を応用したシステ
ムである。デコーダ10へ入力される映像データは、光
ディスク302に記録されており、光ディスクドライブ
装置301により再生される。復号化された映像信号2
1は、D/A変換器11によりアナログ映像信号22に
変換され、アナログ伝送路を経由して伝送される。(Fifth Embodiment) FIG. 37 is a block diagram showing an example of a system configuration according to a fifth embodiment of the present invention. This embodiment is a system to which the first embodiment is applied. The video data input to the decoder 10 is recorded on the optical disk 302 and is reproduced by the optical disk drive device 301. Decoded video signal 2
1 is converted into an analog video signal 22 by the D / A converter 11 and transmitted via an analog transmission path.
【0139】映像信号受信装置5においては、受信され
たアナログ映像信号22がA/D変換器12により再サ
ンプリングされてディジタル化され、このディジタル映
像信号23に対して映像信号補正部13による補正処理
とディジタル信号処理部14によるディジタル映像信号
処理された後に、D/A変換器15でアナログ信号に戻
されて出力される。出力されたアナログ映像信号26は
表示装置305に供給され、映像として表示される。In the video signal receiving device 5, the received analog video signal 22 is resampled and digitized by the A / D converter 12, and the digital video signal 23 is corrected by the video signal correction unit 13. After the digital video signal processing by the digital signal processing unit 14, the analog signal is returned to the D / A converter 15 and output. The output analog video signal 26 is supplied to the display device 305 and displayed as a video.
【0140】ここで、光ディスク302はDVD−Vi
deoディスクであり、光ディスクドライブ装置301
とデコーダ300およびD/A変換器11の部分300
は、従来のDVDビデオプレーヤであると想定すること
が出来る。また、A/D変換器12、映像信号補正部1
3、ディジタル信号処理部14、D/A変換器15およ
び後述するデータメモリ303からなる映像信号受信装
置5は、外付けのアダプタであり、DVDプレーヤ30
0から出力される映像信号22を入力して、映像信号2
6を出力する。Here, the optical disk 302 is a DVD-Vi
optical disk drive 301
And a part 300 of the decoder 300 and the D / A converter 11
Can be assumed to be a conventional DVD video player. Further, the A / D converter 12, the video signal correction unit 1
3. The video signal receiving device 5 including the digital signal processing unit 14, the D / A converter 15, and the data memory 303 to be described later is an external adapter.
0, the video signal 22 output from the
6 is output.
【0141】図37のシステムにおいて、DVD−Vi
deoディスク(DVDビデオディスク)である光ディ
スク303に記録されている映像信号は、図29〜図3
5で説明したスクランブル処理が施されており、アダプ
タ5のディジタル映像信号処理部14でデスクランブル
される。外部からのデスクランブルキーは、線304を
介してアダプタ5に設定される。線304はICカード
やインターネットと接続されており、デスクランブルキ
ーを有料とすることで、課金制御を行うことが可能とな
る。すなわち、映像信号のスクランブルを利用すること
により、従来のDVDビデオ規格の枠組みの中で、従来
のDVDプレーヤ300と外付けアダプタ5の組み合わ
せによって課金制御可能なDVDビデオシステム(より
一般的には、ディジタル映像システム)を構築すること
が可能となる。In the system shown in FIG. 37, DVD-Vi
Video signals recorded on an optical disk 303 which is a video disk (DVD video disk) are shown in FIGS.
The digital video signal processing unit 14 of the adapter 5 has performed the scramble processing described in FIG. An external descramble key is set to the adapter 5 via the line 304. The line 304 is connected to an IC card or the Internet, and charging can be performed by charging the descramble key for a fee. That is, by using the scrambling of the video signal, a DVD video system (more generally, a chargeable DVD control system can be controlled by a combination of the conventional DVD player 300 and the external adapter 5 in the framework of the conventional DVD video standard. Digital video system).
【0142】ただし、図37ではDVDプレーヤ300
から出力されるアナログ映像信号22をアナログ伝送路
を介してアダプタ5に伝送した後に、再サンプリング処
理を施してデスクランブル処理を行う構成となるため、
アナログ伝送路の特性に応じて、デスクランブル後の映
像信号にアーチファクトが発生する場合がある。しか
し、既に説明したように本発明に基づき、基準信号を用
いて補正パラメータを算出し、映像信号補正部13によ
る補正処理を行うことで、アナログ伝送路の特性に依存
したアーチファクトを十分に低下させることが可能とな
る。However, in FIG. 37, the DVD player 300
Is transmitted to the adapter 5 via the analog transmission path and then re-sampled to perform the descrambling process.
Depending on the characteristics of the analog transmission path, artifacts may occur in the descrambled video signal. However, as described above, based on the present invention, the correction parameter is calculated using the reference signal, and the correction processing is performed by the video signal correction unit 13, so that the artifact depending on the characteristics of the analog transmission path is sufficiently reduced. It becomes possible.
【0143】図37のシステムでは、一旦各機器が設置
されれば、そこでのアナログ伝送特性は、ほぼ一意に決
定される。従って、アダプタ5の内部にデータメモリ3
03を用意しておき、基準映像信号を用いた補正パラメ
ータの算出を一度だけ行い、得られた補正パラメータは
データメモリ303に記憶しておく構成とすることが可
能である。In the system shown in FIG. 37, once each device is installed, the analog transmission characteristics there are almost uniquely determined. Therefore, the data memory 3 is stored inside the adapter 5.
03 is prepared, the correction parameter using the reference video signal is calculated only once, and the obtained correction parameter is stored in the data memory 303.
【0144】また、このようにして補正パラメータの設
定が済めば、同一システム環境においては、基準映像信
号による補正パラメータの算出を毎回行う必要はなく、
DVDビデオの再生を行う度に、データメモリ303に
記録された補正パラメータを読み出して、映像信号に対
する補正処理を行う構成とすることも出来る。If the correction parameters are set in this way, it is not necessary to calculate the correction parameters based on the reference video signal every time in the same system environment.
It is also possible to adopt a configuration in which the correction parameters recorded in the data memory 303 are read out every time the DVD video is reproduced, and the correction processing for the video signal is performed.
【0145】次に、図38〜図40に示すフローチャー
トを用いて、本実施形態に係るディジタル映像システム
の動作例を説明する。図38は、上述した補正パラメー
タ算出のための基準映像信号が独立した光ディスク(基
準ディスクという)として供給される場合の動作フロー
である。この動作例では、DVDプレーヤ300にアダ
プタ5を接続して、DVDビデオディスク302からの
再生を開始するに当たり、まずアダプタ5内のデータメ
モリ303に記録される補正パラメータが初期化されて
いるか否かを判断し(ステップS10)、初期化されて
いない場合、基準映像信号が記録された基準ディスクの
再生がユーザに対して要求される(ステップS11)。
そこで、ユーザが基準ディスクから基準映像信号の再生
を行うと(ステップS12)、映像信号補正部13で必
要な補正パラメータが算出され(ステップS13)、算
出された補正パラメータがデータメモリ303に記録さ
れる(ステップS14)。この後、ステップS10に戻
る。Next, an example of the operation of the digital video system according to this embodiment will be described with reference to the flowcharts shown in FIGS. FIG. 38 is an operation flow in the case where the reference video signal for calculating the correction parameter described above is supplied as an independent optical disk (referred to as a reference disk). In this operation example, when the adapter 5 is connected to the DVD player 300 and the reproduction from the DVD video disc 302 is started, first, whether or not the correction parameters recorded in the data memory 303 in the adapter 5 are initialized Is determined (step S10), and if not initialized, the user is requested to reproduce the reference disk on which the reference video signal is recorded (step S11).
Then, when the user reproduces the reference video signal from the reference disk (Step S12), the necessary correction parameters are calculated by the video signal correction unit 13 (Step S13), and the calculated correction parameters are recorded in the data memory 303. (Step S14). Thereafter, the process returns to step S10.
【0146】一方、ステップS10で補正パラメータが
初期化されている場合は、スクランブルされた映像信号
の符号化データが含まれるDVD−Videoディスク
302から再生を行うと、データメモリ303に記録さ
れた補正パラメータが読み出され(ステップS15)、
これに基づいて入力される映像信号に対して順次補正処
理が施され(ステップS16)、さらに補正処理された
映像信号に対しディジタル信号処理(デスクランブル処
理)が施される(ステップS18)。そして、ステップ
S19でDVDビデオディスク302からの再生が終了
したと判断されるまで、ステップS16〜S18の処理
が繰り返される。On the other hand, if the correction parameters have been initialized in step S10, when the data is reproduced from the DVD-Video disc 302 containing the coded data of the scrambled video signal, the correction recorded in the data memory 303 is performed. The parameters are read (step S15),
Based on this, a correction process is sequentially performed on the input video signal (step S16), and a digital signal process (descrambling process) is performed on the corrected video signal (step S18). Then, the processing of steps S16 to S18 is repeated until it is determined in step S19 that the reproduction from the DVD video disk 302 has been completed.
【0147】図39は、補正パラメータ算出のための基
準映像信号がスクランブルされた映像信号の符号化デー
タが記録されたディスクと同一の媒体上に記録されてお
り、映像信号の再生に先立って、基準映像信号が再生さ
れる場合の動作フローを示したものである。この動作例
では、ディスクを入れ替えて再生する毎に自動的に基準
映像信号が再生され(ステップS20)、アダプタ5の
補正パラメータの算出が行われ(ステップS21)、補
正パラメータが設定される(ステップS22)。次に、
同一ディスク上の映像信号(映像コンテンツ)の再生が
開始され(ステップS23)、この映像信号に対して順
次補正処理が施され(ステップS24)、さらに補正処
理された映像信号に対してディジタル信号処理(デスク
ランブル処理)が施される(ステップS25)。そし
て、ステップS26でDVD−Videoディスク30
2からの再生が終了したと判断されるまで、ステップS
23〜S25の処理が繰り返される。FIG. 39 shows that the reference video signal for calculating the correction parameter is recorded on the same medium as the disk on which the coded data of the scrambled video signal is recorded. 9 shows an operation flow when a reference video signal is reproduced. In this operation example, the reference video signal is automatically reproduced each time the disc is replaced and reproduced (step S20), the correction parameter of the adapter 5 is calculated (step S21), and the correction parameter is set (step S21). S22). next,
The reproduction of the video signal (video content) on the same disk is started (step S23), the video signal is sequentially corrected (step S24), and the corrected video signal is subjected to digital signal processing. (Descramble processing) is performed (step S25). Then, in step S26, the DVD-Video disc 30
Until it is determined that the reproduction from step 2 has been completed, step S
The processing of 23 to S25 is repeated.
【0148】図40は、補正パラメータ算出のための基
準映像信号が映像信号フレーム内の有効画像領域の一部
を使って伝送されるシステムにおける動作フローを示し
たものである。この動作例では、ディスクから映像が再
生され(ステップS30)、ステップS31で再生映像
信号の有効画像領域の一部に基準映像信号がマッピング
された映像フレームが検出されると、基準映像信号が検
出され(ステップS32)、さらに補正パラメータの算
出が行われ(ステップS33)、これに基づき前回まで
の補正パラメータの更新が行われる(ステップS3
4)。その後、更新された補正パラメータを用いて、再
生された映像信号に対して順次補正処理が施され(ステ
ップS35)、さらに補正処理された映像信号のディジ
タル信号処理(デスクランブル処理)が施される(ステ
ップS36)。そして、ステップS37でディスクから
の再生が終了したと判断されるまで、ステップS30〜
S36の処理が繰り返される。FIG. 40 shows an operation flow in a system in which a reference video signal for calculating a correction parameter is transmitted using a part of an effective image area in a video signal frame. In this operation example, when the video is reproduced from the disc (step S30), and the video frame in which the reference video signal is mapped to a part of the effective image area of the reproduced video signal is detected in step S31, the reference video signal is detected. (Step S32), and the correction parameter is calculated (Step S33). Based on this, the correction parameter up to the previous time is updated (Step S3).
4). Thereafter, the reproduced video signal is sequentially subjected to correction processing using the updated correction parameters (step S35), and further, digital signal processing (descrambling processing) of the corrected video signal is performed. (Step S36). Steps S30 to S30 are performed until it is determined in step S37 that the reproduction from the disc has been completed.
The process of S36 is repeated.
【0149】この図40の動作フローに基づくシステム
では、基準映像信号がマッピングされた映像フレームを
検出する度に、基準映像信号の検出と補正パラメータの
更新を順次行う構成となるため、動的に変動する伝送特
性の変化に対しても追随することが可能となる。In the system based on the operation flow of FIG. 40, each time a video frame to which the reference video signal is mapped is detected, the detection of the reference video signal and the update of the correction parameter are sequentially performed. It is possible to follow a change in the transmission characteristic that fluctuates.
【0150】(第6の実施形態)次に、本発明の第6の
実施形態として、図41〜図44を用いて補正パラメー
タを算出ための基準映像信号を主映像信号ではなく、副
映像信号を利用して伝送するシステムについて説明す
る。(Sixth Embodiment) Next, as a sixth embodiment of the present invention, a reference video signal for calculating a correction parameter using a sub-video signal instead of a main video signal using FIGS. A description will be given of a system for transmitting data by using.
【0151】DVDビデオ規格では、MPEG2で符号
化される主映像データ以外に、サブピクチャと呼ばれる
副映像データが規定されている。サブピクチャは、ビッ
トマップデータを符号化したものであり、主映像の符号
化データとサブピクチャの符号化データとは、パケット
多重されて光ディスクに記録される。サブピクチャの映
像は、DVDプレーヤ内部で復号化された主映像信号の
有効画像領域上の定められた位置にオーバレイされ、こ
のサブピクチャがオーバレイされた映像信号がDVDプ
レーヤより出力される。In the DVD video standard, sub-picture data called sub-pictures is defined in addition to main picture data encoded by MPEG2. The sub-picture is obtained by encoding bitmap data, and the encoded data of the main video and the encoded data of the sub-picture are packet-multiplexed and recorded on the optical disc. The video of the sub-picture is overlaid at a predetermined position on the effective image area of the main video signal decoded inside the DVD player, and the video signal on which the sub-picture is overlaid is output from the DVD player.
【0152】図41は、サブピクチャと主映像フレーム
とのマッピング例を示したものである。主映像フレーム
311と基準映像信号であるサブピクチャデータ310
は、それぞれ独立に符号化されパケット多重化される。
デコーダでそれぞれの符号化データは復号化され、図4
1の312に示すように、主映像フレーム上の定められ
た位置にサブピクチャ映像がマッピングされて出力され
る。FIG. 41 shows an example of mapping between sub-pictures and main video frames. Main video frame 311 and sub-picture data 310 as a reference video signal
Are independently encoded and packet-multiplexed.
Each of the encoded data is decoded by the decoder, and FIG.
As shown at 312, the sub-picture video is mapped to a predetermined position on the main video frame and output.
【0153】図42は、本発明の第6の実施形態に係る
システム構成例を示すブロック図であり、DVD規格の
サブピクチャのような副映像信号に対して、映像信号の
補正パラメータを決定するための基準映像信号をマッピ
ングして伝送する構成となっている。図42において、
サブピクチャ符号化データと主映像信号符号化データが
パケット多重されたデータ320は、デマルチプレクサ
321により主映像信号符号化データ322とサブピク
チャ符号化データ323とに分離される。分離された各
データ322,323は、ビデオデコーダ324および
サブピクチャデコーダ325でそれぞれ復号化され、オ
ーバーレイ部328により、復号化された主映像信号3
26上に復号化されたサブピクチャ327がマッピング
される。オーバーレイ部328によりマッピングされた
映像信号は、A/D変換器11によりアナログ映像信号
22に変換された後、アナログ伝送路を介して映像信号
受信装置6に伝送される。FIG. 42 is a block diagram showing an example of a system configuration according to the sixth embodiment of the present invention, in which a video signal correction parameter is determined for a sub-picture signal such as a DVD-standard sub-picture. For mapping and transmitting the reference video signal. In FIG.
The data 320 obtained by packet-multiplexing the encoded sub-picture data and the encoded main video signal data is separated into encoded main video signal data 322 and encoded sub-picture data 323 by the demultiplexer 321. The separated data 322 and 323 are decoded by the video decoder 324 and the sub-picture decoder 325, respectively, and the decoded main video signal 3 is decoded by the overlay unit 328.
26, the decoded sub-picture 327 is mapped. The video signal mapped by the overlay unit 328 is converted into an analog video signal 22 by the A / D converter 11, and then transmitted to the video signal receiving device 6 via an analog transmission path.
【0154】なお、図42におけるデマルチプレクサ3
21からD/A変換器11までの処理部は、従来のDV
Dプレーヤにも含まれているものである。出力された映
像信号22は、映像信号受信装置6においてA/D変換
器12により再サンプリングされディジタル化されて、
サブピクチャとしてマッピングされた基準映像信号が基
準映像信号検出部330により抽出され、映像信号補正
部13の補正パラメータの更新に用いられる。映像信号
補正部13により補正された映像信号24は、ディジタ
ル信号処理部14によりデスクランブル処理されて出力
される。The demultiplexer 3 shown in FIG.
21 to the D / A converter 11 are a conventional DV
This is also included in the D player. The output video signal 22 is resampled and digitized by the A / D converter 12 in the video signal receiving device 6, and
The reference video signal mapped as a sub-picture is extracted by the reference video signal detection unit 330 and used for updating the correction parameter of the video signal correction unit 13. The video signal 24 corrected by the video signal correction unit 13 is descrambled by the digital signal processing unit 14 and output.
【0155】本実施形態においては、主映像信号が図2
9〜図35で説明した各種のスクランブル処理が施され
ている場合、サブピクチャの映像が本来表示されるべき
映像データであれば、サブピクチャについても関連する
主映像フレームのスクランブルと同期したスクランブル
処理を施すものとする。In the present embodiment, the main video signal is
When the various scrambling processes described in FIGS. 9 to 35 are performed, if the video of the sub-picture is video data to be originally displayed, the scrambling process synchronized with the scrambling of the related main video frame is also performed on the sub-picture. Shall be applied.
【0156】例えば、図30で示したスライスの入れ替
えによるスクランブルが主映像信号に施されている場合
について、図43を用いて説明する。図43(a)は、
本来表示されるべき映像フレームを示しており、主映像
フレーム340とサブピクチャ341からなる。サブピ
クチャ341のみを抜き出したのが342である。For example, a case where scrambling is performed on a main video signal by exchanging slices shown in FIG. 30 will be described with reference to FIG. FIG. 43 (a)
It shows a video frame that should be displayed originally and consists of a main video frame 340 and a sub-picture 341. 342 extracts only the sub-picture 341.
【0157】ここで、主映像フレームが図43(b)の
ようにスライスの入れ替えによるスクランブル処理が施
されている場合、サブピクチャについても344,34
5,346のように主映像フレームと連動したスクラン
ブルを施しておけば、復号化されサブピクチャが主映像
信号にマッピングされた後の信号に対して、デスクラン
ブル処理を施すことにより、主映像とサブピクチャの両
方の信号を同時にデスクランブルすることが可能とな
る。そのためには、図43(a)のサブピクチャ342
を図43(b)の347のように置き換えて符号化して
おけばよい。ここで、図43(b)の348,349の
部分については、主映像信号が表示される領域であるの
で、サブピクチャのピクセルデータの属性を透過(Trans
parent) とする。Here, if the main video frame has been subjected to scramble processing by exchanging slices as shown in FIG.
If scrambling linked to the main video frame is performed as in 5, 346, the signal after the decoded and sub-picture is mapped to the main video signal is subjected to a descrambling process, whereby Both signals of the sub-picture can be descrambled at the same time. For this purpose, the sub-picture 342 shown in FIG.
May be replaced as in 347 in FIG. 43 (b) and encoded. Here, since the portions 348 and 349 in FIG. 43B are regions where the main video signal is displayed, the attribute of the pixel data of the sub-picture is transmitted (Trans).
parent).
【0158】一方、図41のように、補正パラメータ算
出のための基準映像信号をサブピクチャを利用して伝送
する場合、基準映像信号をデスクランブル処理よりも前
段で検出する必要があり、図43で示したように主映像
信号と同期したスクランブルをサブピクチャに施すと、
基準映像信号の検出が困難となる。そこで、サブピクチ
ャが映像信号である場合は、図43のように主映像信号
と同期したスクランブルをサブピクチャにも施し、ま
た、サブピクチャが補正パラメータ算出のための基準映
像信号である場合は、主映像信号と同期したスクランブ
ル処理を施さないように、切り替えて符号化する。この
ようにすることで、デスクランブル前の映像信号から、
主映像信号のスクランブル方式に関わらず、サブピクチ
ャにマッピングされた基準映像信号を検出することが可
能となる。On the other hand, as shown in FIG. 41, when transmitting a reference video signal for calculating a correction parameter using a sub-picture, it is necessary to detect the reference video signal before the descrambling process. When scrambling synchronized with the main video signal is applied to the sub-picture as shown in,
It becomes difficult to detect the reference video signal. Therefore, when the sub-picture is a video signal, scrambling synchronized with the main video signal is also performed on the sub-picture as shown in FIG. 43. When the sub-picture is a reference video signal for calculating a correction parameter, Switching and encoding are performed so as not to perform scrambling in synchronization with the main video signal. By doing so, from the video signal before descrambling,
Regardless of the scrambling method of the main video signal, it is possible to detect the reference video signal mapped to the sub-picture.
【0159】図44は、サブピクチャにマッピングされ
た基準映像信号の主映像信号に対するオーバーレイの例
を示している。図44(a)は、主映像信号360がス
クランブルされていない場合であり、サブピクチャに基
準映像信号361がマッピングされている。図44
(b)は主映像信号362がスクランブルされている場
合であり、同様にサブピクチャに基準映像信号363が
マッピングされている。図44に示したように、主映像
信号のスクランブルの有無に関わらず基準映像信号が常
に所定の位置にマッピングされているので、デスクラン
ブル処理の前段で基準映像信号の検出を正常に行うこと
が可能となる。FIG. 44 shows an example of overlay of a reference video signal mapped to a sub-picture on a main video signal. FIG. 44A shows a case where the main video signal 360 is not scrambled, and the reference video signal 361 is mapped to a sub-picture. FIG.
(B) shows a case where the main video signal 362 is scrambled, and the reference video signal 363 is similarly mapped to the sub-picture. As shown in FIG. 44, since the reference video signal is always mapped to a predetermined position regardless of whether or not the main video signal is scrambled, it is possible to normally detect the reference video signal before the descrambling process. It becomes possible.
【0160】[0160]
【発明の効果】以上説明したように、MPEG2等の動
画像符号化が行われた映像データを復号化し、復号化さ
れた映像信号をアナログ伝送路を介して伝送した後に、
再サンプリングを行い、ベースバンド映像信号のデスク
ランブル処理等のディジタル映像信号処理を行うシステ
ムにおいては、有効画像領域の原点位置のずれ、各映像
信号成分のゲイン及びDCオフセットのずれ、伝送特性
に依存したリンギングやエコーなどの影響、ポストフィ
ルタあるいは映像信号フォーマット変換の影響等によ
り、再生される映像信号にアーチファクトが発生する場
合があるが、本発明によれば、映像信号の有効領域を利
用してマクロブロックあるいはブロックといった所定の
領域単位毎に画素値を一定とした基準映像信号を伝送す
るか、あるいは副映像信号を利用して基準映像信号を伝
送し、この基準信号を用いて映像信号の補正を行うこと
により、このようなアーチファクトの発生を防ぐことが
可能となる。As described above, after decoding video data on which moving image encoding such as MPEG2 has been performed and transmitting the decoded video signal via an analog transmission path,
In a system that performs re-sampling and performs digital video signal processing such as descrambling of a baseband video signal, it depends on the deviation of the origin position of the effective image area, the deviation of the gain and DC offset of each video signal component, and the transmission characteristics Due to the influence of ringing or echo, the effect of post-filter or video signal format conversion, etc., artifacts may be generated in the reproduced video signal, but according to the present invention, the effective area of the video signal is utilized. Either transmit a reference video signal with a fixed pixel value for each predetermined area unit such as a macroblock or a block, or transmit a reference video signal using a sub-video signal and correct the video signal using this reference signal , It is possible to prevent such artifacts from occurring.
【図1】本発明の第1の実施形態に係るシステム構成を
示すブロック図FIG. 1 is a block diagram showing a system configuration according to a first embodiment of the present invention.
【図2】有効画像領域のずれの例を示す図FIG. 2 is a diagram illustrating an example of a shift of an effective image area.
【図3】同実施形態における基準映像信号の一例を示す
図FIG. 3 is an exemplary view showing an example of a reference video signal in the embodiment.
【図4】同実施形態における基準映像信号の他の例を示
す図FIG. 4 is an exemplary view showing another example of the reference video signal in the embodiment.
【図5】同実施形態における基準映像信号の更に別の例
を示す図FIG. 5 is an exemplary view showing still another example of the reference video signal in the embodiment.
【図6】伝送路の理想ゲイン特性を示す図FIG. 6 is a diagram showing an ideal gain characteristic of a transmission line.
【図7】同実施形態における伝送路のゲイン補正の一例
を示す図FIG. 7 is a view showing an example of gain correction of a transmission line in the embodiment.
【図8】同実施形態における伝送路のゲイン補正の他の
例を示す図FIG. 8 is a view showing another example of the gain correction of the transmission line in the embodiment.
【図9】同実施形態における伝送路のゲイン補正の別の
例を示す図FIG. 9 is a diagram showing another example of the gain correction of the transmission line in the embodiment.
【図10】同実施形態における伝送路のゲイン補正の更
に別の例を示す図FIG. 10 is a diagram showing still another example of the transmission line gain correction in the embodiment.
【図11】同実施形態における波形等化フィルタの構成
例を示す図FIG. 11 is a diagram showing a configuration example of a waveform equalization filter in the embodiment.
【図12】本発明の第2の実施形態に係るシステム構成
を示すブロック図FIG. 12 is a block diagram showing a system configuration according to a second embodiment of the present invention;
【図13】同実施形態における映像信号フォーマット逆
変換部の構成例を示すブロック図FIG. 13 is a block diagram showing a configuration example of a video signal format inverse conversion unit according to the embodiment;
【図14】MPEG2ビデオ符号化における画素サンプ
ルの位相関係の一例を説明する図FIG. 14 is a view for explaining an example of the phase relationship between pixel samples in MPEG2 video encoding.
【図15】MPEG2ビデオ符号化における画素サンプ
ルの位相関係の他の例を説明する図FIG. 15 is a view for explaining another example of the phase relationship between pixel samples in MPEG2 video encoding.
【図16】MPEG2ビデオ符号化における画素サンプ
ルの位相関係の別の例を説明する図FIG. 16 is a view for explaining another example of the phase relationship between pixel samples in MPEG2 video encoding.
【図17】MPEG2ビデオ符号化における画素サンプ
ルの位相関係のさらに別の例を説明する図FIG. 17 is a view for explaining still another example of the phase relationship between pixel samples in MPEG2 video encoding.
【図18】同実施形態に係る映像信号フォーマット逆変
換部の構成例を示すブロック図FIG. 18 is a block diagram showing a configuration example of a video signal format inverse conversion unit according to the embodiment;
【図19】同実施形態に係る映像信号フォーマット逆変
換部の他の構成例を示すブロック図FIG. 19 is a block diagram showing another configuration example of the video signal format inverse conversion unit according to the embodiment;
【図20】同実施形態に係る映像信号フォーマット逆変
換部の別の構成例を示すブロック図FIG. 20 is an exemplary block diagram showing another configuration example of the video signal format inverse conversion unit according to the embodiment;
【図21】本発明の第3の実施形態における映像信号に
対するオーバーラップ領域或いは補間領域の設定例を示
す図FIG. 21 is a diagram illustrating an example of setting an overlap area or an interpolation area for a video signal according to the third embodiment of the present invention.
【図22】同実施形態における映像信号に対するオーバ
ーラップ処理を説明する図FIG. 22 is an exemplary view for explaining overlap processing for a video signal in the embodiment.
【図23】同実施形態における映像信号に対する補間処
理を説明する図FIG. 23 is an exemplary view for explaining interpolation processing on a video signal in the embodiment.
【図24】同実施形態における映像信号に対するオーバ
ーラップ領域或いは補間領域の設定例を示す図FIG. 24 is a view showing an example of setting an overlap area or an interpolation area for a video signal in the embodiment.
【図25】同実施形態における映像信号に対する基準映
像信号のマッピング例を示す図FIG. 25 is a view showing an example of mapping of a reference video signal to a video signal in the embodiment.
【図26】同実施形態における映像信号付加データ検出
及びマスク処理回路の構成例を示すブロック図FIG. 26 is a block diagram showing a configuration example of a video signal additional data detection and mask processing circuit according to the embodiment;
【図27】同実施形態における映像信号付加データのマ
スク処理の例を示す図FIG. 27 is an exemplary view showing an example of mask processing of video signal additional data in the embodiment.
【図28】本発明の第4の実施形態に係るシステム構成
を示すブロック図FIG. 28 is a block diagram showing a system configuration according to a fourth embodiment of the present invention.
【図29】同実施形態における映像信号スクランブルの
一例を示す図FIG. 29 is a diagram showing an example of a video signal scramble in the embodiment.
【図30】同実施形態における映像信号スクランブルの
他の例を示す図FIG. 30 is a view showing another example of the video signal scrambling in the embodiment.
【図31】同実施形態における映像信号スクランブルの
別の例を示す図FIG. 31 is an exemplary view showing another example of video signal scrambling in the embodiment.
【図32】同実施形態における映像信号のデスクランブ
ル処理部の構成例を示すブロック図FIG. 32 is a block diagram showing a configuration example of a video signal descrambling processing unit in the embodiment.
【図33】同実施形態における映像信号スクランブルの
例を示す図FIG. 33 is a view showing an example of video signal scrambling in the embodiment.
【図34】同実施形態における映像信号のデスクランブ
ル処理部の他の構成例を示すブロック図FIG. 34 is a block diagram showing another configuration example of the video signal descrambling unit in the embodiment.
【図35】同実施形態における映像信号スクランブル領
域設定例を示す図FIG. 35 is a view showing an example of setting a video signal scramble area in the embodiment.
【図36】本発明の第5の実施形態に係るシステム構成
を示すブロック図FIG. 36 is a block diagram showing a system configuration according to a fifth embodiment of the present invention.
【図37】本発明の実施形態に係るシステム構成例を示
すブロック図FIG. 37 is a block diagram illustrating a system configuration example according to an embodiment of the present invention.
【図38】同実施形態に係る処理の一例を示すフローチ
ャートFIG. 38 is a flowchart showing an example of a process according to the embodiment;
【図39】同実施形態に係る処理の他の例を示すフロー
チャートFIG. 39 is a flowchart showing another example of the process according to the embodiment;
【図40】同実施形態に係る処理の別の例を示すフロー
チャートFIG. 40 is a flowchart showing another example of the process according to the embodiment;
【図41】本発明の第6の実施形態に係る副映像信号を
用いた基準映像信号の例を示す図FIG. 41 is a diagram showing an example of a reference video signal using a sub video signal according to the sixth embodiment of the present invention.
【図42】同実施形態に係るシステム構成を示すブロッ
ク図FIG. 42 is a block diagram showing a system configuration according to the embodiment;
【図43】同実施形態における主映像信号及び副映像信
号のスクランブル例を示す図FIG. 43 is a view showing an example of scrambling of a main video signal and a sub video signal in the embodiment.
【図44】同実施形態における主映像信号のスクランブ
ル及び副映像信号を用いた基準映像信号の例を示す図FIG. 44 is a diagram showing an example of a reference video signal using scrambling of a main video signal and a sub video signal in the embodiment.
10…ビデオデコーダ 11…D/A変換器 12…A/D変換器 13,72…映像信号補正部 14…ディジタル信号処理部 15…D/A変換器 20…映像信号符号化データ 22,26…アナログ映像信号 27…ディジタル映像信号 70、73…映像信号フォーマット変換部 71…映像信号フォーマット逆変換部 192…映像再構成部 195…付加データ検出部 220…デスクランブラ 221…スクランブルキー情報 261、262、263…ビット反転器 230…スクランブルキー情報検出部 301…光ディスク再生装置 302…光ディスク 303…データメモリ 305…ディスプレイ装置 321…デマルチプレクサ 324…ビデオデコーダ 325…サブピクチャデコーダ 328…サブピクチャオーバーレイ部 330…基準映像信号検出部 DESCRIPTION OF SYMBOLS 10 ... Video decoder 11 ... D / A converter 12 ... A / D converter 13, 72 ... Video signal correction part 14 ... Digital signal processing part 15 ... D / A converter 20 ... Video signal coded data 22, 26 ... Analog video signal 27 Digital video signal 70, 73 Video signal format converter 71 Video signal format inverse converter 192 Video reconstructor 195 Additional data detector 220 Descrambler 221 Scramble key information 261 262 263: bit inverter 230: scramble key information detection unit 301: optical disk reproducing device 302: optical disk 303: data memory 305: display device 321: demultiplexer 324: video decoder 325: sub-picture decoder 328: sub-picture overlay unit 330: reference Movie Image signal detector
フロントページの続き Fターム(参考) 5C021 PA17 PA36 PA42 PA56 PA58 PA62 PA66 PA67 PA74 PA79 RB00 RB08 SA11 SA22 SA25 XB12 XC00 YC08 ZA00 ZA02 ZA12 5C053 FA24 FA30 GB23 GB38 JA21 JA30 KA09 KA11 KA16 KA30 LA15 5C059 KK01 KK43 LA00 MA00 PP04 RB12 RC00 RC35 SS06 SS13 UA11 5C064 CB01 CC06 Continued on the front page F-term (reference) 5C021 PA17 PA36 PA42 PA56 PA58 PA62 PA66 PA67 PA74 PA79 RB00 RB08 SA11 SA22 SA25 XB12 XC00 YC08 ZA00 ZA02 ZA12 5C053 FA24 FA30 GB23 GB38 JA21 JA30 KA09 KA11 KA16 KA30 LA15 5K RC00 RC35 SS06 SS13 UA11 5C064 CB01 CC06
Claims (10)
領域単位毎に画素値を一定とした基準映像信号を用いて
前記処理対象映像信号の位置補正を行う補正手段を有す
ることを特徴とする映像信号処理装置。1. An image comprising a correction means for correcting the position of the processing target video signal using a reference video signal having a fixed pixel value for each predetermined area unit provided together with the processing target video signal. Signal processing device.
領域単位毎に画素値を一定とした基準映像信号を用いて
前記処理対象映像信号のゲインおよび直流オフセットの
補正を行う補正手段を有することを特徴とする映像信号
処理装置。And a correction means for correcting a gain and a DC offset of the video signal to be processed by using a reference video signal having a fixed pixel value for each predetermined area unit provided together with the video signal to be processed. Characteristic video signal processing device.
化フィルタと、 前記処理対象映像信号と共に与えられる所定の領域単位
毎に画素値を一定とした基準映像信号を用いて前記波形
等化フィルタのタップ利得を決定するタップ利得決定手
段とを有することを特徴とする映像信号処理装置。3. A waveform equalization filter for equalizing a waveform of a video signal to be processed, and a waveform equalization filter using a reference video signal having a fixed pixel value for each predetermined area unit provided together with the video signal to be processed. And a tap gain determining means for determining a tap gain of the quantization filter.
共に与えられる所定の領域単位毎に画素値を一定とした
基準映像信号を用いて、前記処理対象映像信号の前記信
号成分を変換した際の変換パラメータを推定する変換パ
ラメータ推定手段と、 前記変換パラメータ推定手段により推定された変換パラ
メータから前記信号成分に対する逆変換パラメータを算
出する逆変換パラメータ算出手段と、 前記逆変換パラメータ算出手段により算出された逆変換
パラメータにより前記処理対象映像信号の信号成分の逆
変換を行う逆変換手段とを有することを特徴とする映像
信号処理装置。4. When the signal component of the processing target video signal is converted using a reference video signal having a fixed pixel value for each predetermined area unit provided together with the processing target video signal whose signal component has been converted. A conversion parameter estimating unit for estimating the conversion parameter of: a conversion parameter estimating unit for calculating an inverse conversion parameter for the signal component from the conversion parameter estimated by the conversion parameter estimating unit; A video signal processing apparatus, comprising: an inverse conversion means for performing an inverse conversion of the signal component of the processing target video signal using the inverse conversion parameter.
のオーバーラップ領域あるいは補間領域を設けた処理対
象映像信号に対し、前記オーバーラップ領域あるいは補
間領域において画素値の空間的な変化量が最小となるよ
うに該処理対象映像信号の有効画像領域の画素値の選択
あるいは生成を行う手段を有することを特徴とする映像
信号処理装置。5. A spatial change amount of a pixel value in an overlap area or an interpolation area for a processing target video signal having an overlap area or an interpolation area of a pixel value for each of a plurality of continuous predetermined area units. A video signal processing device comprising means for selecting or generating a pixel value of an effective image area of the video signal to be processed so that is minimized.
補間領域を設けるか否かが所定の映像信号単位に設定さ
れ、オーバーラップ領域あるいは補間領域を設けない所
定の映像信号単位部分については、有効画像領域の画素
値の選択あるいは生成に伴い削減される画素数に相当す
る所定の付加データが処理対象映像信号の有効画像領域
に埋め込まれており、 所定の付加データを抽出する付加データ検出手段と、 前記付加データ検出手段により検出された付加データを
所定の映像信号に置き換えて出力する手段とをさらに有
することを特徴とする請求項5記載の映像信号処理装
置。6. Whether or not to provide an overlap area or an interpolation area of the pixel values is set in a predetermined video signal unit, and for a predetermined video signal unit portion in which no overlap area or the interpolation area is provided, an effective image is set. Additional data detecting means for extracting predetermined additional data, wherein predetermined additional data corresponding to the number of pixels to be reduced according to selection or generation of a pixel value of the area is embedded in the effective image area of the video signal to be processed; 6. The video signal processing apparatus according to claim 5, further comprising: a unit that replaces the additional data detected by the additional data detection unit with a predetermined video signal and outputs the video signal.
た映像信号であり、この映像信号をデスクランブルする
デスクランブル手段をさらに有することを特徴とする請
求項1乃至6のいずれか1項記載の映像信号処理装置。7. The video according to claim 1, wherein said video signal to be processed is a scrambled video signal, and further comprising a descrambling means for descrambling said video signal. Signal processing device.
準映像信号を記録した記録媒体から該基準映像信号を再
生する基準映像信号再生手段と、 前記基準映像信号再生手段により再生された基準映像信
号を用いて、(a) 映像信号の位置補正量、(b) 映像信号
のゲインおよび直流オフセットの補正量、(c)映像信号
のための波形等化フィルタのタップ利得、(d) 映像信号
の変換された信号成分に対する逆変換パラメータの少な
くとも一つのパラメータを決定するパラメータ決定手段
と、 前記パラメータ決定手段により決定されたパラメータを
記憶するパラメータ記憶手段と、 前記基準映像信号を記録した記録媒体と同一または異な
る記録媒体に記録された処理対象映像信号を再生する処
理対象映像信号再生手段と、 前記処理対象映像信号再生手段により再生された処理対
象映像信号を前記パラメータ記憶手段に記憶されたパラ
メータに従って補正する補正手段とを有することを特徴
とする映像信号処理装置。8. A reference video signal reproducing means for reproducing a reference video signal from a recording medium on which a reference video signal having a fixed pixel value for each predetermined area unit is recorded, and a reference video signal reproduced by the reference video signal reproducing means. Using the reference video signal, (a) the position correction amount of the video signal, (b) the correction amount of the gain and DC offset of the video signal, (c) the tap gain of the waveform equalization filter for the video signal, (d) Parameter determining means for determining at least one of the inverse conversion parameters for the converted signal component of the video signal; parameter storing means for storing the parameter determined by the parameter determining means; and recording for recording the reference video signal A processing target video signal reproducing means for reproducing the processing target video signal recorded on the same or different recording medium as the medium, and the processing target video signal reproducing means A correction means for correcting the reproduced video signal to be processed in accordance with the parameters stored in the parameter storage means.
号の位置補正量、(b) 映像信号のゲインおよび直流オフ
セットの補正量、(c) 映像信号のための波形等化フィル
タのタップ利得、(d) 映像信号の変換された信号成分に
対する逆変換パラメータの少なくとも一つのパラメータ
を決定するための基準映像信号を含む、前記主映像信号
に付随する副映像信号の符号化データを伝送または記録
媒体を介して受信する符号化データ受信手段と、 前記符号化データ受信手段により受信された主映像信号
の符号化データを復号化する主映像信号復号化手段と、 前記符号化データ受信手段により受信された副映像信号
の符号化データを復号化する副映像信号復号化手段と、 前記主映像信号復号化手段により得られた主映像信号上
に前記副映像信号復号化手段により得られた副映像信号
をマッピングするマッピング手段と、 前記マッピング手段により主映像信号に副映像信号がマ
ッピングされた映像信号を受信する映像信号受信手段
と、 前記映像信号受信手段により受信された映像信号から前
記マッピングされた副映像信号を抽出する副映像信号抽
出手段と、 前記基準映像信号を用いて前記(a) 〜(d) の少なくとも
一つのパラメータを決定するパラメータ決定手段と、 前記パラメータ決定手段により決定されたパラメータに
より前記映像信号受信手段により受信された映像信号の
補正を行う補正手段とを有することを特徴とする映像信
号処理装置。9. An encoded data of a main video signal, (a) a position correction amount of the video signal, (b) a correction amount of a gain and a DC offset of the video signal, and (c) a waveform equalizing filter for the video signal. Tap gain of (d) including a reference video signal for determining at least one parameter of the inverse conversion parameter for the converted signal component of the video signal, the encoded data of the sub-video signal accompanying the main video signal, Coded data receiving means for receiving via a transmission or recording medium; main video signal decoding means for decoding coded data of the main video signal received by the coded data receiving means; Means for decoding the encoded data of the sub-video signal received by the means; and means for decoding the sub-video signal on the main video signal obtained by the main video signal decoding means. Mapping means for mapping the sub-video signal obtained by the above, video signal receiving means for receiving a video signal in which a main video signal is mapped to a sub-video signal by the mapping means, and video received by the video signal receiving means Sub-video signal extracting means for extracting the mapped sub-video signal from the signal; parameter determining means for determining at least one of the parameters (a) to (d) using the reference video signal; and A video signal processing device for correcting the video signal received by the video signal receiving device according to the parameters determined by the video signal receiving device.
信号に付随する副映像信号の符号化データを伝送または
記録媒体を介して受信する符号化データ受信手段と、 前記符号化データ受信手段により受信された主映像信号
の符号化データを復号化する主映像信号復号化手段と、 前記符号化データ受信手段により受信された副映像信号
の符号化データを復号化する副映像信号復号化手段と、 前記主映像信号復号化手段により得られた主映像信号上
に前記副映像信号復号化手段により得られた副映像信号
をマッピングするマッピング手段と、 前記マッピング手段により主映像信号に副映像信号がマ
ッピングされた映像信号を受信する映像信号受信手段
と、 前記映像信号受信手段により受信された映像信号に対し
てデスクランブル処理を行うデスクランブル処理手段と
を有し、 前記主映像信号あるいは前記主映像信号の符号化データ
にスクランブル処理がなされ、かつ前記副映像信号ある
いは前記副映像信号の符号化データに前記主映像信号あ
るいは前記主映像信号の符号化データに対するスクラン
ブル処理と同期して該スクランブル処理と等価なスクラ
ンブル処理がなされていることを特徴とする映像信号処
理装置。10. A coded data receiving means for transmitting coded data of a main video signal and coded data of a sub video signal accompanying the main video signal via a transmission or recording medium, and said coded data receiving means. Main video signal decoding means for decoding the coded data of the main video signal received by the sub-picture signal, and sub-video signal decoding means for decoding the coded data of the sub-video signal received by the coded data receiving means Mapping means for mapping the sub video signal obtained by the sub video signal decoding means onto the main video signal obtained by the main video signal decoding means; and a sub video signal to the main video signal by the mapping means. A video signal receiving means for receiving a video signal to which the video signal is mapped; A scrambling process is performed on the main video signal or encoded data of the main video signal, and the main video signal or the main video is encoded on the sub video signal or the encoded data of the sub video signal. A video signal processing device, wherein a scrambling process equivalent to the scrambling process is performed in synchronization with the scrambling process on the encoded data of the signal.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP29282298A JP2000115581A (en) | 1998-09-30 | 1998-09-30 | Video signal processor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP29282298A JP2000115581A (en) | 1998-09-30 | 1998-09-30 | Video signal processor |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2000115581A true JP2000115581A (en) | 2000-04-21 |
Family
ID=17786803
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP29282298A Pending JP2000115581A (en) | 1998-09-30 | 1998-09-30 | Video signal processor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2000115581A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7293172B2 (en) | 2003-01-22 | 2007-11-06 | Ricoh Copmany, Ltd. | Scrambling of image by randomizing pixel values |
JP2008519558A (en) * | 2004-11-05 | 2008-06-05 | インターデイジタル テクノロジー コーポレーション | Method and apparatus for generating tap coefficients of an equalizer filter |
JP2008209618A (en) * | 2007-02-26 | 2008-09-11 | Necディスプレイソリューションズ株式会社 | Video display system, video signal sending out machine, and video display device |
JP2011055486A (en) * | 2009-08-06 | 2011-03-17 | Panasonic Corp | Video processing apparatus |
JP2016507991A (en) * | 2013-01-22 | 2016-03-10 | マイクロソフト テクノロジー ライセンシング,エルエルシー | Side information-based vertical saturation filtering after deinterlacing |
WO2016092835A1 (en) * | 2014-12-10 | 2016-06-16 | 日本電気株式会社 | Video generating device, video output device, video output system, video generating method, video output method, video output system control method, and recording medium |
-
1998
- 1998-09-30 JP JP29282298A patent/JP2000115581A/en active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7293172B2 (en) | 2003-01-22 | 2007-11-06 | Ricoh Copmany, Ltd. | Scrambling of image by randomizing pixel values |
JP2008519558A (en) * | 2004-11-05 | 2008-06-05 | インターデイジタル テクノロジー コーポレーション | Method and apparatus for generating tap coefficients of an equalizer filter |
JP2008209618A (en) * | 2007-02-26 | 2008-09-11 | Necディスプレイソリューションズ株式会社 | Video display system, video signal sending out machine, and video display device |
JP2011055486A (en) * | 2009-08-06 | 2011-03-17 | Panasonic Corp | Video processing apparatus |
CN101998083A (en) * | 2009-08-06 | 2011-03-30 | 松下电器产业株式会社 | Video processing device |
CN101998083B (en) * | 2009-08-06 | 2013-03-27 | 松下电器产业株式会社 | Video processing device |
JP2016507991A (en) * | 2013-01-22 | 2016-03-10 | マイクロソフト テクノロジー ライセンシング,エルエルシー | Side information-based vertical saturation filtering after deinterlacing |
WO2016092835A1 (en) * | 2014-12-10 | 2016-06-16 | 日本電気株式会社 | Video generating device, video output device, video output system, video generating method, video output method, video output system control method, and recording medium |
JPWO2016092835A1 (en) * | 2014-12-10 | 2017-09-21 | 日本電気株式会社 | Video generation apparatus, video output apparatus, video output system, video generation method, video output method, video output system control method, and recording medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7945102B2 (en) | Data encoding apparatus, data encoding method, data output apparatus, data output method, signal processing system, signal processing apparatus, signal processing method, data decoding apparatus, and data decoding method | |
GB2277655A (en) | Drop-out correction using motion vectors | |
EP0808067B1 (en) | Noise reduction apparatus for encoded video signal | |
JP3772846B2 (en) | Data encoding device, data encoding method, data output device, and data output method | |
KR960010492B1 (en) | Apparatus for demodulating sub-nyquist sampled video signal and demodulating method therefor | |
JP2009033581A (en) | Image signal recording and reproducing device | |
KR100367831B1 (en) | Filtering method and apparatus of chrominance signal of an image | |
JP3540447B2 (en) | Video encoding apparatus and decoding apparatus | |
US20040207755A1 (en) | Apparatus and method for signal prcoessing of format conversion and combination of video signals | |
JP2000115581A (en) | Video signal processor | |
JPH09172621A (en) | Interpolation device and interpolation method for compressed high resolution video signal | |
US5450506A (en) | Image data processing apparatus and method | |
JPS603266B2 (en) | Carrier color signal phase adjustment method | |
AU645200B2 (en) | Method and apparatus for video signal bandwidth reduction with high quality compatible signal | |
CA2073736C (en) | Apparatus and method for recording digital video signals | |
JP2009033582A (en) | Image signal recording and reproducing device | |
JP4035890B2 (en) | Image processing apparatus and method, and recording medium | |
JP3946177B2 (en) | Video encoding apparatus and decoding apparatus | |
JPH07107445A (en) | Picture signal processing method | |
JP2591437B2 (en) | High-definition video signal encoding / decoding device | |
JP3831960B2 (en) | Interpolation apparatus and interpolation method for compressed high resolution video signal | |
JP4120900B2 (en) | Image processing apparatus and method, and recording medium | |
JPS62250708A (en) | Adaptable subsampling filter device | |
JPH06181563A (en) | Digital video recorder for edtv television signal | |
JPH06315135A (en) | Recorder for edtv signal |