JPH0746547A - Muse decoder motion detection circuit - Google Patents

Muse decoder motion detection circuit

Info

Publication number
JPH0746547A
JPH0746547A JP19385893A JP19385893A JPH0746547A JP H0746547 A JPH0746547 A JP H0746547A JP 19385893 A JP19385893 A JP 19385893A JP 19385893 A JP19385893 A JP 19385893A JP H0746547 A JPH0746547 A JP H0746547A
Authority
JP
Japan
Prior art keywords
signal
edge
field
motion detection
circuit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP19385893A
Other languages
Japanese (ja)
Other versions
JP2646965B2 (en
Inventor
Hideki Maeno
秀樹 前納
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP19385893A priority Critical patent/JP2646965B2/en
Publication of JPH0746547A publication Critical patent/JPH0746547A/en
Application granted granted Critical
Publication of JP2646965B2 publication Critical patent/JP2646965B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Television Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Color Television Systems (AREA)

Abstract

PURPOSE:To reduce circuit scale and to improve the accuracy of edge detection by sharing the same function circuit of an edge detection processing part as one part of motion detection processing and an inter-field interpolation processing part as one part of the reproducing processing circuit of a video moving image signal. CONSTITUTION:Concerning the MUSE decoder motion detection circuit provided with the edge detecting means for performing motion detection processing (12) and an in-field interpolating means 13 for interpolating image data inside a field and equipped with a circuit block to form the plural pieces of the same function respectively in the edge detecting means and the in-field interpolating means 13, one or plural circuit blocks are mutually shared by the edge detecting means and the in-field interpolating means 13.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は帯域圧縮されたMUSE
信号を元の広帯域の高品位テレビジョン信号に復調して
再生するMUSEデコーダに関し、特に動き検出処理の
一部であるエッジ検出処理と、映像動画信号再生処理の
回路を共有するようにしたMUSEデコーダ動き検出回
路に関する。
FIELD OF THE INVENTION The present invention relates to band-compressed MUSE.
The present invention relates to a MUSE decoder that demodulates a signal into an original wideband high-definition television signal and reproduces the signal, and in particular, an MUSE decoder that shares a circuit for edge detection processing that is a part of motion detection processing and a video / video signal reproduction processing It relates to a motion detection circuit.

【0002】[0002]

【従来の技術】広帯域な高品位テレビ信号を、伝送上実
用的なレベルに帯域圧縮する方式として、元の高品位テ
レビ信号に4フィールドで一巡するサブナイキストサン
プルを施すMUSE(Muitiple Sub-Nyquist Sampling
Encoding)方式がある。
2. Description of the Related Art MUSE (Muitiple Sub-Nyquist Sampling) is applied to an original high-definition television signal to perform a sub-Nyquist sample that makes a round in four fields as a method of band-compressing a wide-band high-definition television signal to a practical level for transmission.
Encoding) method.

【0003】MUSE方式はNHK(日本放送協会)が
開発した方式で、各種文献(例:平成2年12月1日
電子情報通信学会発行 「MUSE−ハイビション伝送
方式」二宮佑一著等)に記載されているため、詳細な説
明は省略する。
The MUSE method is a method developed by NHK (Japan Broadcasting Corporation) and used in various documents (eg, December 1, 1990).
The detailed description is omitted because it is described in "MUSE-Hibbit Transmission System" by Yuichi Ninomiya et al.

【0004】MUSE方式では、輝度信号(以下「Y信
号」という)で22MHz、色信号(以下C信号」とい
う)で7MHz程度までの帯域を持つ高品位テレビ信号
(以下「ベースバンド信号」という)を、帯域幅27MH
zの衛星放送1チャンネルで伝送するために、約8MHz
の帯域圧縮処理をしている。MUSEデコーダはこの帯
域圧縮された信号(以下「MUSE信号」という)を元
のベースバンド信号に復調するものである。
In the MUSE system, a high-definition television signal (hereinafter referred to as "baseband signal") having a band of up to about 22 MHz for a luminance signal (hereinafter referred to as "Y signal") and about 7 MHz for a color signal (hereinafter referred to as C signal). With a bandwidth of 27 MH
Approximately 8 MHz to transmit on 1 channel of satellite broadcasting of z
Is performing band compression processing. The MUSE decoder demodulates the band-compressed signal (hereinafter referred to as "MUSE signal") into the original baseband signal.

【0005】図6は、従来のMUSEデコーダの構成を
示すブロック図である。
FIG. 6 is a block diagram showing the structure of a conventional MUSE decoder.

【0006】入力端子1にはMUSE信号が供給され、
カットオフ周波数8.1MHzのLPF2で帯域を制限した
後、A/D変換器3で16.2MHzのクロック信号でサン
プリングしたデジタル信号となる。A/D変換器3の出
力信号は、音声デコード部4、同期処理部5、そしてデ
ィエンファシス処理部6に入力される。
The MUSE signal is supplied to the input terminal 1,
After the band is limited by the LPF 2 having the cutoff frequency of 8.1 MHz, the digital signal is sampled by the A / D converter 3 with the clock signal of 16.2 MHz. The output signal of the A / D converter 3 is input to the audio decoding unit 4, the synchronization processing unit 5, and the de-emphasis processing unit 6.

【0007】音声デコード部4では入力信号から音声信
号が分離及びデコードされ、音声4チャンネル・独立デ
ータ信号7が出力される。
The audio decoding unit 4 separates and decodes the audio signal from the input signal, and outputs an audio 4 channel / independent data signal 7.

【0008】同期処理部5では入力信号から同期信号
8、コントロール信号9が分離され各信号処理部へ供給
される。
In the synchronization processing unit 5, the synchronization signal 8 and the control signal 9 are separated from the input signal and supplied to each signal processing unit.

【0009】ディエンファシス処理部6ではMUSEエ
ンコーダ(送信側処理)におけるエンファシスと逆の処
理を行う。ディエンファシス処理を施された信号は逆ガ
ンマ補正処理部10でエンコーダ側の伝送ガンマの逆処理
を施され線形信号11となる。
The de-emphasis processing unit 6 performs a process opposite to the emphasis in the MUSE encoder (transmission side process). The signal subjected to the de-emphasis process is subjected to the inverse process of the transmission gamma on the encoder side in the inverse gamma correction processing unit 10 to become the linear signal 11.

【0010】逆ガンマ補正処理後の信号11は動き検出処
理部12、フィールド内内挿処理部13、及びフレーム間内
挿処理部14に入力される。
The signal 11 after the inverse gamma correction processing is input to the motion detection processing unit 12, the field interpolation processing unit 13, and the interframe interpolation processing unit 14.

【0011】動き検出処理部12ではフレーム差分の信号
を用いて動画領域の検出を行い、MIX処理部18での静
止画領域と動画領域の混合比の基となる動き信号15を発
生する。動き検出処理の詳細な動作については後述す
る。
The motion detection processing section 12 detects a moving image area using the signal of the frame difference, and the MIX processing section 18 generates a motion signal 15 which is the basis of the mixture ratio of the still image area and the moving image area. The detailed operation of the motion detection process will be described later.

【0012】フィールド内内挿部13では、動画領域につ
いて各フィールド内で内挿され、16MHzレートのデー
タが32MHzレートのデータに復調される。動画領域の
フィールド内内挿処理についても後述する。フィールド
内に内挿された信号はサンプリング周波数変換部17で32
MHzレートから48MHzレートのサンプリング信号に変
換され、MIX処理部18へ入力される。
The field interpolation unit 13 interpolates the moving image area in each field and demodulates the 16 MHz data into the 32 MHz data. The field interpolation processing of the moving image area will also be described later. The signal interpolated in the field is 32
The MHz rate is converted into a sampling signal of 48 MHz rate, and is input to the MIX processing unit 18.

【0013】フレーム間内挿処理部14では、静止画領域
について欠落サンプルを前フレームのサンプルで補間す
ることで内挿を行う。フレーム間内挿処理によって16M
Hzレートのデータは32MHzレートのデータとなる。フ
レーム間内挿処理後のY信号については、次処理のサン
プリング周波数変換時に発生する折り返し妨害を防ぐた
めにカットオフ周波数12MHzのLPF19を通す。
The inter-frame interpolation processing unit 14 performs interpolation by interpolating the missing sample with the sample of the previous frame in the still image area. 16M by inter-frame interpolation processing
The data of the Hz rate becomes the data of the 32 MHz rate. The Y signal after the inter-frame interpolation processing is passed through the LPF 19 having a cut-off frequency of 12 MHz in order to prevent aliasing that occurs when the sampling frequency is converted in the next processing.

【0014】LPF通過後はフィールド間内挿を行うた
め、32MHzレートから24MHzレートにサンプリング周
波数を変換する。サンプリング周波数変換部20で24MH
zレートに変換されたデータはフィールド間内挿処理部2
1において欠落サンプルを前フィールドのサンプルで補
間され48MHzレートのサンプリング信号となりMIX
処理部18へ入力される。
After passing through the LPF, interpolating between fields is performed, so that the sampling frequency is converted from the 32 MHz rate to the 24 MHz rate. 24 MH in sampling frequency converter 20
Data converted to z-rate is inter-field interpolation processing unit 2
In 1, the missing sample is interpolated with the sample of the previous field to become a sampling signal of 48 MHz rate and MIX
It is input to the processing unit 18.

【0015】MIX処理部18ではサンプリング周波数変
換部17からの動画信号と、フィールド間内挿処理部21か
らの静止画信号とを動き検出処理部12からの動き信号15
に応じて混合する。
In the MIX processing section 18, the motion picture signal from the sampling frequency conversion section 17 and the still picture signal from the inter-field interpolation processing section 21 are combined with the motion signal 15 from the motion detection processing section 12.
Mix accordingly.

【0016】MIX処理部18の出力信号はTCIデコー
ド部22で線順次走査の色信号をR−Y信号23、B−Y信
号24に分離され、逆マトリクス部26でY信号25と演算さ
れてR信号、G信号、B信号の3つの信号へと変換され
る。これら3つの信号をD/A変換器27でアナログ信号
へと変換し、カットオフ周波数約21MHzのLPF28を
通して、R信号29、G信号30、B信号31のハイビジョン
信号として出力する。
The output signal of the MIX processing section 18 is separated into a line-sequential scanning color signal into an RY signal 23 and a BY signal 24 in a TCI decoding section 22, and an inverse matrix section 26 calculates a Y signal 25. It is converted into three signals of R signal, G signal, and B signal. These three signals are converted into analog signals by the D / A converter 27, and output as high-definition signals of R signal 29, G signal 30, and B signal 31 through the LPF 28 having a cutoff frequency of about 21 MHz.

【0017】次に動き検出処理とフィールド内内挿処理
について説明する。従来のMUSE方式の動き検出、及
びフィールド内内挿の方法については各種文献(例え
ば、日本放送出版協会発行 エレクトロニクスライフ19
90年1月号p38〜48“ハイビジョン受像機の仕組み”)
で紹介されている。
Next, the motion detection processing and the field interpolation processing will be described. For the conventional MUSE-based motion detection and field interpolation methods, refer to various documents (for example, Electronics Life 19 published by the Japan Broadcasting Corporation).
January 1990 issue, p38-48 "Mechanism of HDTV receiver")
Have been introduced in.

【0018】図7は従来の動き検出処理の構成を示すブ
ロック図である。逆ガンマ補正処理された信号11は動き
検出処理部12内のエッジ検出処理部37、2フレーム差検
出処理部32、1フレーム差検出処理部33の3ブロックに
入力される。
FIG. 7 is a block diagram showing the structure of a conventional motion detection process. The signal 11 subjected to the inverse gamma correction processing is input to three blocks of the edge detection processing unit 37, the two-frame difference detection processing unit 32, and the one-frame difference detection processing unit 33 in the motion detection processing unit 12.

【0019】エッジ検出処理部37では物体の輪郭部にあ
たるエッジ部分の信号を検出する。エッジ検出の模式図
を図8に示す。入力された信号は16MHzレートである
から、同一ライン上には32MHzごとにデータのある点
(以下「サンプル点」という)とデータのない点(以下
「非サンプル点」という)があり、エッジ検出は2つの
点でそれぞれ別の方法で行なっている。
The edge detection processing unit 37 detects the signal of the edge portion corresponding to the contour portion of the object. A schematic diagram of edge detection is shown in FIG. Since the input signal has a 16 MHz rate, there are points with data (hereinafter referred to as "sample points") and points without data (hereinafter referred to as "non-sample points") on the same line every 32 MHz, and edge detection is performed. Is done in two different ways.

【0018】図8では横エッジ検出のサンプル点及び非
サンプル点での検出をそれぞれ(A)、(B)に示し、図9に
は縦エッジ検出のサンプル点及び非サンプル点での検出
をそれぞれ(A)、(B)に示す。4つの方法とも類似してい
るので、図8(A)に示すサンプル点での横エッジ検出で
代表して説明する。図8(A)の6つの画像データをA1〜
A6としたときに、|A1−A2|,|A3−A4|,|A5
−A6|を求めて、3つの値の最大値をA4の横エッジの
値とする。
FIG. 8 shows the detection at the sample point and the non-sample point of the horizontal edge detection in (A) and (B), respectively, and FIG. 9 shows the detection at the sample point and the non-sample point of the vertical edge detection, respectively. Shown in (A) and (B). Since the four methods are similar, the description will be made on behalf of the horizontal edge detection at the sample points shown in FIG. The six image data shown in FIG.
If A6, then | A1-A2 |, | A3-A4 |, | A5
-A6 | is found and the maximum value of the three values is taken as the value of the lateral edge of A4.

【0020】すなわち、 A4の横エッジ値=MAX{|A1−A2|,|A3−
A4|,|A5−A6|} となる。
That is, the lateral edge value of A 4 = MAX {| A1-A2 |, | A3-
A4 |, | A5-A6 |}.

【0021】図8(B)及び図9(A),(B)についても同様
に、画素ごとの縦エッジと、横エッジの値が求められ
る。
Similarly in FIGS. 8B and 9A and 9B, the values of the vertical edge and the horizontal edge of each pixel are obtained.

【0022】 B7の横エッジ値=MAX{|B1−B2|,|B3−B4
|,|B5−B6|} C4の縦エッジ値=MAX{|C1−C2|,|C3−C4
|,|C4−C5|} D6の縦エッジ値=MAX{|D1−D2|,|D2−D3
|,|D4−D5|}
Horizontal edge value of B7 = MAX {| B1-B2 |, | B3-B4
||| B5-B6 |} Vertical edge value of C4 = MAX {| C1-C2 |, | C3-C4
||| C4-C5 |} Vertical edge value of D6 = MAX {| D1-D2 |, | D2-D3
|, | D4-D5 |}

【0023】2フレーム差検出処理部32では2フレーム
間の差分信号を求め、ゆっくりとした動き(2フレーム
=1/15秒)に対応した動き検出を行なう。
The two-frame difference detection processing unit 32 obtains a difference signal between the two frames and detects a motion corresponding to a slow motion (2 frames = 1/15 seconds).

【0024】1フレーム差検出処理部33では1フレーム
間の差分信号を求め、2フレーム差よりも速い動き(1
フレーム=1/30秒)に対応した動き検出を行なう。
The 1-frame difference detection processing unit 33 obtains a difference signal between 1-frames, and a motion (1
Motion detection corresponding to frame = 1/30 seconds) is performed.

【0025】検出された3種類の信号、エッジ信号16と
2フレーム検出信号34と1フレーム検出信号35は動画領
域検出処理部36に入力される。動画領域検出処理部36で
は、エッジ信号16を基に1フレーム差検出信号35と2フ
レーム差検出信号の感度を調整し、2つの信号の画素ご
との最大値をとって、動き信号15として出力する。
The detected three types of signals, the edge signal 16, the two-frame detection signal 34 and the one-frame detection signal 35, are input to the moving image area detection processing section 36. The moving image area detection processing unit 36 adjusts the sensitivities of the 1-frame difference detection signal 35 and the 2-frame difference detection signal based on the edge signal 16, takes the maximum value of each of the two signals for each pixel, and outputs it as the motion signal 15. To do.

【0026】図10(A),(B)は従来のフィールド内内挿
処理の一例を示す模式図である。図10(A)はサンプル
点(内挿する点E7)、図10(B)は非サンプル点(内挿
する点F7)を周辺のサンプル点から内挿する処理を示
す図である。2つの方法とも類似しているので図10
(A)に示すサンプル点でのフィールド内内挿処理で代表
して説明する。図10(A)の13個の画像データをE1〜
E13としたときに、全データに対して関数f1の処理を
施してE7のデータを生成し、サンプル点の内挿を行
う。図10(B)についても同様にして、非サンプル点の
内挿を行なう。
FIGS. 10A and 10B are schematic views showing an example of conventional field interpolation processing. FIG. 10 (A) is a diagram showing a process of interpolating a sample point (interpolating point E7) and FIG. 10 (B) from a non-sample point (interpolating point F7) from peripheral sample points. Since both methods are similar, FIG.
The field interpolation processing at the sample points shown in FIG. The 13 image data shown in FIG.
When E13 is set, the processing of function f1 is performed on all the data to generate E7 data, and the sampling points are interpolated. Similarly for FIG. 10B, interpolation of non-sample points is performed.

【0027】このように、動き検出処理部12は特にエッ
ジ検出処理部37と、フィールド内内挿部13では同じデー
タを使って処理を行っている。図8(A)と図10(A)の画
像データを比較すると、A1とE4,A2とE9,A3とE
2,A4とE7,A5とE5,A6とE10は同一データであ
る。図8(B)と図10(B)、図9(A)と図10(A)、図9
(B)と図10(B)についても同様である。
As described above, the motion detection processing unit 12 and the edge detection processing unit 37 and the field interpolation unit 13 perform processing using the same data. Comparing the image data of FIG. 8 (A) and FIG. 10 (A), A1 and E4, A2 and E9, A3 and E
2, A4 and E7, A5 and E5, A6 and E10 are the same data. 8 (B) and FIG. 10 (B), FIG. 9 (A) and FIG. 10 (A), FIG.
The same applies to (B) and FIG. 10 (B).

【0028】[0028]

【発明が解決しようとする課題】このように従来のMU
SEデコーダでは、動き検出処理部とフィールド内内挿
処理部で類似した処理を行っているにもかかわらず、独
立した処理系統を持っている。このため、回路規模が大
きくなってしまい小さくすることが困難であった。
As described above, the conventional MU
The SE decoder has an independent processing system although the motion detection processing unit and the field interpolation processing unit perform similar processing. Therefore, the circuit scale becomes large and it is difficult to reduce the circuit scale.

【0029】したがって、本発明は、動き検出処理の一
部であるエッジ検出処理部と、映像動画信号の再生処理
回路の一部であるフィールド内内挿処理部との同一機能
回路を共有させるように構成し、回路規模を縮小させる
と共に、エッジ検出の精度を高めることを目的とする。
Therefore, according to the present invention, the edge detection processing section which is a part of the motion detection processing and the field interpolation processing section which is a part of the reproduction processing circuit of the video and moving image signal share the same functional circuit. The purpose is to reduce the circuit scale and improve the accuracy of edge detection.

【0030】[0030]

【課題を解決するための手段】上記目的を達成するため
に本発明は、4フィールドの周期で一巡するサブサンプ
ルによって帯域圧縮されたMUSE信号を元の広帯域の
高品位テレビジョン信号に復調し再生するMUSUデコ
ーダであって、動き検出処理を行なうためにフィールド
内の所定の範囲における画像データの差分値からエッジ
信号を求めるエッジ検出手段と、フィールド内の画像デ
ータの補間を行なうためのフィールド内内挿手段とを含
み、前記エッジ検出手段及び前記フィールド内内挿手段
のそれぞれの中には一又は複数の同一の機能を為す回路
ブロックを有するMUSEデコーダ動き検出回路におい
て、一又は複数の前記回路ブロックを、前記エッジ検出
手段及び前記フィールド内内挿手段が互いに共有する構
成であることを特徴とするMUSEデコーダ動き検出回
路を提供する。
To achieve the above object, the present invention demodulates a MUSE signal band-compressed by sub-samples that make a cycle of four fields into an original broadband high-definition television signal and reproduces it. A MUSU decoder for performing motion detection, an edge detecting means for obtaining an edge signal from a difference value of image data in a predetermined range in a field, and an in-field for interpolating image data in the field. One or a plurality of the circuit blocks in the MUSE decoder motion detection circuit, each of which includes one or a plurality of circuit blocks having the same function in each of the edge detection means and the field interpolation means. Is characterized in that the edge detection means and the field interpolation means share each other. Providing MUSE decoder motion detection circuit according to.

【0031】また、本発明は、前記一又は複数の回路ブ
ロックが、少なくとも画像データのラインメモリーであ
ることを特徴とするMUSEデコーダ動き検出回路を提
供する。
The present invention also provides a MUSE decoder motion detection circuit, wherein the one or more circuit blocks are at least a line memory for image data.

【0032】[0032]

【作用】本発明のMUSEデコーダ動き検出回路におい
ては、動き検出処理手段の中に含まれるエッジ検出手段
と、動画信号を再生処理するためのフィールド補間を行
うフィールド内内挿手段との同一機能部分を共有するこ
とによって、回路規模を減少させることができる。
In the MUSE decoder motion detecting circuit of the present invention, the same function part as the edge detecting means included in the motion detecting processing means and the field interpolating means for performing the field interpolation for reproducing the moving picture signal. , The circuit scale can be reduced.

【0033】また、回路規模を増やすことなく、フィー
ルド内の広い範囲の画像データ及び周囲の均等な距離に
ある画像データからエッジ信号を求めることができる。
これによって、画素ごとに求められるエッジ信号の検出
精度を向上させることが可能となる。
Further, the edge signal can be obtained from the image data in a wide range within the field and the image data at a uniform distance around the field without increasing the circuit scale.
This makes it possible to improve the detection accuracy of the edge signal required for each pixel.

【0034】さらに、共有部分を画像データのラインメ
モリにすることによって、エッジ検出用に必要であった
回路を約3割程度に縮小できる。
Furthermore, by using the shared portion as a line memory for image data, the circuit required for edge detection can be reduced to about 30%.

【0035】[0035]

【実施例】次に、本発明の第1、第2実施例を図面を参
照して順次説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Next, first and second embodiments of the present invention will be sequentially described with reference to the drawings.

【0036】まず、図1、図2、図3に基づいて第1実
施例について説明する。
First, the first embodiment will be described with reference to FIGS. 1, 2 and 3.

【0037】図1は本発明のMUSEデコーダのブロッ
ク図、図2は本発明のMUSEデコーダの動き検出処理
部のブロック図である。どちらのブロック図も動き検出
処理部12にフィールド内内挿部13からのエッジ信号16が
入力されている以外は図6、図7の従来例を示したブロ
ック図と同様である。従って、従来と同様な部分につい
ては説明を省略し、異なる部分を中心に説明する。
FIG. 1 is a block diagram of a MUSE decoder of the present invention, and FIG. 2 is a block diagram of a motion detection processing section of the MUSE decoder of the present invention. Both block diagrams are the same as the block diagrams shown in the conventional examples of FIGS. 6 and 7, except that the edge signal 16 from the field interpolation unit 13 is input to the motion detection processing unit 12. Therefore, description of the same parts as the conventional one will be omitted, and different parts will be mainly described.

【0038】従来例で説明したように、動き検出処理部
12の中のエッジ検出処理部37とフィールド内内挿部13で
は同じデータを用いて処理を行なっている。従って本発
明では、図2に示すように、従来例の図7に示すエッジ
検出処理部37を削除し、フィールド内内挿部13で処理
に使っている画像データを用いて、エッジ信号16を求め
るための演算処理を行っている。
As described in the conventional example, the motion detection processing section
The edge detection processing unit 37 and the field interpolation unit 13 in 12 perform processing using the same data. Therefore, in the present invention, as shown in FIG. 2, the edge detection processing unit 37 shown in FIG. 7 of the conventional example is deleted, and the edge signal 16 is generated by using the image data used in the processing by the field interpolation unit 13. The calculation process for obtaining is performed.

【0039】図3は本発明の第1実施例のフィールド内
内挿部13でのエッジ検出を示した模式図であり、サンプ
ル点について図3(A)に、非サンプル点について図3(B)
に示す。2つの方法とも類似しているので、図3(A)に
示すサンプル点でのエッジ検出処理で代表して説明す
る。図3(A)の13個の画像データをE1〜E13としたとき
に、|E4−E9|,|E2−E7|,|E5−E10|を求
めて、3つの値の最大値をE7の横エッジの値、|E4−
E5|,|E6−E7|,|E7−E8|を求めて、3つの
値の最大値をE7の縦エッジの値とする。
FIG. 3 is a schematic diagram showing edge detection in the field interpolating unit 13 according to the first embodiment of the present invention. FIG. 3A shows sample points and FIG. 3B shows non-sample points. )
Shown in. Since the two methods are similar, the edge detection processing at the sample points shown in FIG. When the 13 pieces of image data in FIG. 3 (A) are designated as E1 to E13, | E4-E9 |, | E2-E7 |, | E5-E10 | are obtained, and the maximum value of the three values is set to E7. Horizontal edge value, | E4−
E5 |, | E6-E7 |, | E7-E8 | are obtained, and the maximum value of the three values is taken as the value of the vertical edge of E7.

【0040】すなわち、 E7の横エッジ値=MAX{|E4−E9|,|E2−E7
|,|E5−E10|} E7の縦エッジ値=MAX{|E4−E5|,|E6−E7
|,|E7−E8|} である。
That is, the lateral edge value of E7 = MAX {| E4-E9 |, | E2-E7
||| E5-E10 |} Vertical edge value of E7 = MAX {| E4-E5 |, | E6-E7
|, | E7-E8 |}.

【0041】図3(B)についても同様にして、画素ごと
の横エッジと、縦エッジの値が求められる。
Similarly in FIG. 3B, the values of the horizontal edge and the vertical edge of each pixel are obtained.

【0042】 F7の横エッジ値=MAX{|F1−F6|,|F4−F10
|,|F2−F8|} F7の縦エッジ値=MAX{|F3−F4|,|F4−F5
|,|F6−F8|}
Horizontal edge value of F7 = MAX {| F1-F6 |, | F4-F10
||| F2-F8 |} Vertical edge value of F7 = MAX {| F3-F4 |, | F4-F5
|, | F6-F8 |}

【0043】このように、フィールド内内挿部13の画像
データを用いて検出したエッジ信号16を動き検出処理部
12内の動画領域検出処理部36に入力して、2フレーム差
検出処理部32からの信号34及び1フレーム差検出処理部
33からの信号35と組み合わせて動き信号15を発生するよ
うに構成する。
In this way, the edge signal 16 detected using the image data of the field interpolation unit 13 is used as the motion detection processing unit.
The signal 34 from the 2-frame difference detection processing unit 32 and the 1-frame difference detection processing unit are input to the moving image area detection processing unit 36 in the 12
It is configured to generate the motion signal 15 in combination with the signal 35 from 33.

【0044】従って、上述の第1実施例によれば、エッ
ジ検出処理部37の回路をフィールド内内挿部13と共有す
ることができるため、回路規模を減少させることができ
る。実施例において共有している部分は、例えば、画像
データのラインメモリにあたる。
Therefore, according to the first embodiment described above, the circuit of the edge detection processing unit 37 can be shared with the field interpolation unit 13, so that the circuit scale can be reduced. The shared portion in the embodiment corresponds to, for example, a line memory for image data.

【0045】次に、図4及び図5を用いて第2実施例に
ついて説明する。
Next, a second embodiment will be described with reference to FIGS.

【0046】従来例のフィールド内内挿(図10)とエ
ッジ検出処理(図8、図9)の一例を示す模式図を見て
も分かるように、フィールド内内挿ではエッジ検出処理
よりも多くのデータを使用している。エッジ検出処理部
の回路をフィールド内内挿部と共有することで、第1実
施例では、フィールド内内挿部13のデータを用いて従来
通りのエッジ検出処理を行なったが(図3)、第2実施
例では従来よりも多くのデータを使用してエッジ検出処
理を行なう。
As can be seen from the schematic diagrams showing an example of the field interpolation (FIG. 10) and the edge detection processing (FIGS. 8 and 9) of the conventional example, the field interpolation has more than the edge detection processing. Using the data of. By sharing the circuit of the edge detection processing section with the field interpolation section, the conventional edge detection processing is performed using the data of the field interpolation section 13 in the first embodiment (FIG. 3). In the second embodiment, the edge detection processing is performed using more data than in the conventional case.

【0047】図4及び図5は第2実施例のエッジ検出処
理を示す模式図であり、横エッジの検出を図4(A),(B)
に、縦エッジの検出を図5(A),(B)に示す。4つの方法
とも類似しているので、図4(A)に示すサンプル点での
横エッジ検出で代表して説明する。図4(A)の7つの画
像データをA1〜A7としたときに、|A1−A2|,|A
3−A4|,|A5−A6|,|A4−A7|を求めて、4つ
の値の最大値をA4の横エッジの値とする。
FIGS. 4 and 5 are schematic diagrams showing the edge detection processing of the second embodiment, and the detection of the lateral edge is shown in FIGS. 4 (A) and 4 (B).
The vertical edge detection is shown in FIGS. 5 (A) and 5 (B). Since the four methods are similar, the horizontal edge detection at the sample points shown in FIG. 4A will be representatively described. Assuming that the seven image data in FIG. 4 (A) are A1 to A7, | A1-A2 |, | A
3-A4 |, | A5-A6 |, | A4-A7 |

【0048】すなわち、 A4の横エッジ値=MAX{|A1−A2|,|A3−A4
|,|A5−A6|,|A4−A7|} である。
That is, the lateral edge value of A4 = MAX {| A1-A2 |, | A3-A4
|, | A5-A6 |, | A4-A7 |}.

【0049】図4(B)及び図5(A),(B)についても同様
にして、画素ごとの横エッジと、縦エッジの値が求めら
れる。
The values of the horizontal edge and the vertical edge of each pixel are similarly obtained in FIGS. 4B, 5A, and 5B.

【0050】 B7の横エッジ値=MAX{|B1−B2|,|B3−B4
|,|B5−B6|,|B2−B8|,|B6−B9|} C4の縦エッジ値=MAX{|C1−C2|,|C3−C4
|,|C4−C5|,|C6−C7|} D6の縦エッジ値=MAX{|D1−D2|,|D2−D3
|,|D4−D5|,|D7−D8|,|D8−D9|}
Horizontal edge value of B7 = MAX {| B1-B2 |, | B3-B4
|, | B5-B6 |, | B2-B8 |, | B6-B9 |} Vertical edge value of C4 = MAX {| C1-C2 |, | C3-C4
||| C4-C5 |, | C6-C7 |} Vertical edge value of D6 = MAX {| D1-D2 |, | D2-D3
|, | D4-D5 |, | D7-D8 |, | D8-D9 |}

【0051】このようなエッジ検出処理を行なうと、従
来例では前のラインのデータに片寄っていたエッジ検出
処理(図8、図9参照)を、本発明によれば、周囲の均
等な距離にあるデータを使って検出することができる。
このため、画素ごとのエッジ信号の精度を向上させるこ
とができる。
According to the present invention, when such edge detection processing is performed, the edge detection processing (see FIGS. 8 and 9), which is deviated from the data of the previous line in the conventional example, is reduced to a uniform distance in the periphery. It can be detected using some data.
Therefore, the accuracy of the edge signal for each pixel can be improved.

【0052】従って、上述の第2実施例によれば、エッ
ジ検出処理部37の回路をフィールド内内挿部13と共有
し、更に従来よりも多くのデータを使ったエッジ検出処
理を行なうことでエッジ信号の精度を向上することがで
きる。実施例において共有している部分は、例えば、画
像データのラインメモリである。
Therefore, according to the second embodiment described above, the circuit of the edge detection processing unit 37 is shared with the field interpolation unit 13, and the edge detection processing using more data than before is performed. The accuracy of the edge signal can be improved. The shared part in the embodiments is, for example, a line memory for image data.

【0053】なお、本発明はMUSEデコーダのみでな
く、フィールド内データ補間とエッジ検出を同一のフィ
ールド内のデータを用いて行う方式のものであれば、そ
の他の画像処理装置にも利用可能である。
The present invention can be applied not only to the MUSE decoder, but also to other image processing devices as long as it is a system of performing the data interpolation in the field and the edge detection by using the data in the same field. .

【0054】[0054]

【発明の効果】以上説明したように本発明は、動き検出
処理の一部であるエッジ検出処理部と、フィールド内内
挿処理部の回路を共有させるように構成したので、エッ
ジ検出処理用の回路規模の削減ができ、エッジ検出処理
用に必要であった回路を約3割程度に縮小できる。
As described above, according to the present invention, the circuit for the edge detection processing section, which is a part of the motion detection processing, and the circuit for the field interpolation processing section are shared. The circuit scale can be reduced, and the circuit required for edge detection processing can be reduced to about 30%.

【0055】さらに、エッジ検出処理を行う際に、垂直
ライン方向のデータ数を多くすることができるため、周
囲の均等な距離にあるデータを用いた検出が可能とな
り、画素ごとのエッジ信号の検出精度を向上させること
ができる。この結果、動き検出処理部から出力される動
き信号の精度が向上する。
Further, when the edge detection processing is performed, the number of data in the vertical line direction can be increased, so that the detection can be performed using the data at the equal distances around, and the detection of the edge signal for each pixel can be performed. The accuracy can be improved. As a result, the accuracy of the motion signal output from the motion detection processing unit is improved.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例の構成を示すブロック図であ
る。
FIG. 1 is a block diagram showing the configuration of an embodiment of the present invention.

【図2】本発明の一実施例の構成を示すブロック図であ
る。
FIG. 2 is a block diagram showing a configuration of an exemplary embodiment of the present invention.

【図3】(A),(B)はそれぞれ本発明におけるサンプル
点、非サンプル点でのフィールド内内挿を利用したエッ
ジ検出を示す模式図である。
3A and 3B are schematic diagrams showing edge detection using field interpolation at sampled points and non-sampled points in the present invention, respectively.

【図4】(A),(B),はそれぞれ本発明におけるサンプル
点、非サンプル点での横エッジ検出を示す模式図であ
る。
4A and 4B are schematic diagrams showing lateral edge detection at a sampling point and a non-sampling point in the present invention, respectively.

【図5】(A),(B),はそれぞれ本発明におけるサンプル
点、非サンプル点での縦エッジ検出を示す模式図であ
る。
5A and 5B are schematic diagrams showing vertical edge detection at a sampling point and a non-sampling point in the present invention, respectively.

【図6】従来のMUSEデコーダの構成を示すブロック
図である。
FIG. 6 is a block diagram showing a configuration of a conventional MUSE decoder.

【図7】従来のMUSEデコーダにおける動き検出処理
部を示すブロック図である。
FIG. 7 is a block diagram showing a motion detection processing unit in a conventional MUSE decoder.

【図8】(A),(B)はそれぞれ従来のMUSEデコーダに
おけるサンプル点、非サンプル点での横エッジ検出を示
す模式図である。
8A and 8B are schematic diagrams showing horizontal edge detection at sample points and non-sample points in a conventional MUSE decoder, respectively.

【図9】(A),(B)はそれぞれ従来のMUSEデコーダに
おけるサンプル点、非サンプル点での縦エッジ検出を示
す模式図である。
9A and 9B are schematic diagrams showing vertical edge detection at sample points and non-sample points in a conventional MUSE decoder, respectively.

【図10】(A),(B)はそれぞれ従来のMUSEデコーダ
におけるサンプル点、非サンプル点でのフィールド内内
挿処理を示す模式図である。
10A and 10B are schematic diagrams showing field interpolation processing at sample points and non-sample points in a conventional MUSE decoder, respectively.

【符号の説明】[Explanation of symbols]

1 MUSE信号入力端子 3 A/D変換器 6 ディエンファシス処理部 12 動き検出処理部 13 フィールド内内挿部 15 動き信号 16 エッジ信号 17 サンプリング周波数変換部 18 MIX処理部 27 D/A変換器 32 2フレーム差検出処理部 33 1フレーム差検出処理部 36 動画領域検出処理部 37 エッジ検出処理部 1 MUSE signal input terminal 3 A / D converter 6 De-emphasis processing unit 12 Motion detection processing unit 13 Field interpolation unit 15 Motion signal 16 Edge signal 17 Sampling frequency conversion unit 18 MIX processing unit 27 D / A converter 32 2 Frame difference detection processing unit 33 1 Frame difference detection processing unit 36 Video region detection processing unit 37 Edge detection processing unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 H04N 11/08 11/24 7337−5C H04N 11/08 ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification number Office reference number FI technical display location H04N 11/08 11/24 7337-5C H04N 11/08

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】4フィールドの周期で一巡するサブサンプ
ルによって帯域圧縮されたMUSE信号を元の広帯域の
高品位テレビジョン信号に復調し再生するMUSUデコ
ーダであって、動き検出処理を行なうためにフィールド
内の所定の範囲における画像データの差分値からエッジ
信号を求めるエッジ検出手段と、フィールド内の画像デ
ータの補間を行なうためのフィールド内内挿手段とを含
み、前記エッジ検出手段及び前記フィールド内内挿手段
のそれぞれの中には一又は複数の同一の機能を為す回路
ブロックを有するMUSEデコーダ動き検出回路におい
て、 一又は複数の前記回路ブロックを、前記エッジ検出手段
及び前記フィールド内内挿手段が互いに共有する構成で
あることを特徴とするMUSEデコーダ動き検出回路。
1. A MUSU decoder for demodulating and reproducing an original wideband high-definition television signal from a MUSE signal band-compressed by sub-samples that make a cycle of four field cycles, and a field for performing motion detection processing. An edge detection means for obtaining an edge signal from a difference value of image data in a predetermined range within the field, and a field interpolation means for interpolating the image data within the field. In a MUSE decoder motion detection circuit having one or a plurality of circuit blocks performing the same function in each of the insertion means, one or a plurality of the circuit blocks are connected to each other by the edge detection means and the field interpolation means. A MUSE decoder motion detection circuit having a shared configuration.
【請求項2】前記一又は複数の回路ブロックが、少なく
とも画像データのラインメモリーであることを特徴とす
る請求項1に記載のMUSEデコーダ動き検出回路。
2. The MUSE decoder motion detection circuit according to claim 1, wherein the one or more circuit blocks are at least a line memory for image data.
JP19385893A 1993-07-12 1993-07-12 MUSE decoder motion detection circuit Expired - Lifetime JP2646965B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP19385893A JP2646965B2 (en) 1993-07-12 1993-07-12 MUSE decoder motion detection circuit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP19385893A JP2646965B2 (en) 1993-07-12 1993-07-12 MUSE decoder motion detection circuit

Publications (2)

Publication Number Publication Date
JPH0746547A true JPH0746547A (en) 1995-02-14
JP2646965B2 JP2646965B2 (en) 1997-08-27

Family

ID=16314928

Family Applications (1)

Application Number Title Priority Date Filing Date
JP19385893A Expired - Lifetime JP2646965B2 (en) 1993-07-12 1993-07-12 MUSE decoder motion detection circuit

Country Status (1)

Country Link
JP (1) JP2646965B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1443776B1 (en) * 2003-01-29 2012-08-15 Sony Deutschland GmbH Video signal processing system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0344186A (en) * 1989-07-11 1991-02-26 Victor Co Of Japan Ltd Signal converter

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0344186A (en) * 1989-07-11 1991-02-26 Victor Co Of Japan Ltd Signal converter

Also Published As

Publication number Publication date
JP2646965B2 (en) 1997-08-27

Similar Documents

Publication Publication Date Title
CA1189962A (en) Television display system with reduced line-scan artifacts
US4733299A (en) Method and apparatus for generating progressively scanned television information
US5247353A (en) Motion detection system for high definition television receiver
JPH0746547A (en) Muse decoder motion detection circuit
US6542197B1 (en) Three-dimensional signal processor using motion information upon decoding image signal
JPS62172875A (en) Reproducing system for multiplex sample transmission signal
JPS6326089A (en) Television receiver
JP3047636B2 (en) MUSE decoder
JP2872269B2 (en) Standard / high-definition television receiver
JP2557484B2 (en) MUSE decoder
JP2595119B2 (en) Luminance signal reproduction processor
JPH06141335A (en) Motion detection circuit
JPS61264889A (en) Transmission system for multiple subsample
JP3285892B2 (en) Offset subsampling decoding device
JP2893744B2 (en) Motion detection circuit
JP2580554B2 (en) Motion adaptive interpolation circuit
JPS6251390A (en) Signal processing circuit for high-definition television receiver
JPS62155685A (en) Reproducing signal processing circuit
JPH06165130A (en) Signal processing circuit
JPH048083A (en) Band compression television signal converter
JPH0646390A (en) Signal conversion device
JPH07123373A (en) Decoder of television signal
JPH05347750A (en) Muse decoder
JPH07115626A (en) Decoder for television signal
JPH04196787A (en) System converter

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19970408