JP2646965B2 - MUSE decoder motion detection circuit - Google Patents

MUSE decoder motion detection circuit

Info

Publication number
JP2646965B2
JP2646965B2 JP19385893A JP19385893A JP2646965B2 JP 2646965 B2 JP2646965 B2 JP 2646965B2 JP 19385893 A JP19385893 A JP 19385893A JP 19385893 A JP19385893 A JP 19385893A JP 2646965 B2 JP2646965 B2 JP 2646965B2
Authority
JP
Japan
Prior art keywords
signal
field
edge
motion detection
muse
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP19385893A
Other languages
Japanese (ja)
Other versions
JPH0746547A (en
Inventor
秀樹 前納
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
Nippon Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Electric Co Ltd filed Critical Nippon Electric Co Ltd
Priority to JP19385893A priority Critical patent/JP2646965B2/en
Publication of JPH0746547A publication Critical patent/JPH0746547A/en
Application granted granted Critical
Publication of JP2646965B2 publication Critical patent/JP2646965B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Television Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Color Television Systems (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は帯域圧縮されたMUSE
信号を元の広帯域の高品位テレビジョン信号に復調して
再生するMUSEデコーダに関し、特に動き検出処理の
一部であるエッジ検出処理と、映像動画信号再生処理の
回路を共有するようにしたMUSEデコーダ動き検出回
路に関する。
BACKGROUND OF THE INVENTION The present invention relates to a band-compressed MUSE.
More specifically, the present invention relates to a MUSE decoder for demodulating a signal into an original wideband high-definition television signal and reproducing the signal, and more particularly, to a MUSE decoder which shares a circuit of an edge detection process which is a part of a motion detection process and a video / video signal reproduction process. The present invention relates to a motion detection circuit.

【0002】[0002]

【従来の技術】広帯域な高品位テレビ信号を、伝送上実
用的なレベルに帯域圧縮する方式として、元の高品位テ
レビ信号に4フィールドで一巡するサブナイキストサン
プルを施すMUSE(Muitiple Sub-Nyquist Sampling
Encoding)方式がある。
2. Description of the Related Art MUSE (Muitiple Sub-Nyquist Sampling) for applying a sub-Nyquist sample that goes around the original high-definition television signal in four fields as a method of band-compressing a wideband high-definition television signal to a practical level for transmission.
Encoding) method.

【0003】MUSE方式はNHK(日本放送協会)が
開発した方式で、各種文献(例:平成2年12月1日
電子情報通信学会発行 「MUSE−ハイビション伝送
方式」二宮佑一著等)に記載されているため、詳細な説
明は省略する。
[0003] The MUSE system is a system developed by NHK (Japan Broadcasting Corporation), and various documents (eg, December 1, 1990)
The detailed description is omitted since it is described in "MUSE-High-Vision Transmission System" by Yuichi Ninomiya published by IEICE.

【0004】MUSE方式では、輝度信号(以下「Y信
号」という)で22MHz、色信号(以下C信号」とい
う)で7MHz程度までの帯域を持つ高品位テレビ信号
(以下「ベースバンド信号」という)を、帯域幅27MH
zの衛星放送1チャンネルで伝送するために、約8MHz
の帯域圧縮処理をしている。MUSEデコーダはこの帯
域圧縮された信号(以下「MUSE信号」という)を元
のベースバンド信号に復調するものである。
In the MUSE system, a high-definition television signal (hereinafter referred to as a "baseband signal") having a band of up to about 22 MHz for a luminance signal (hereinafter referred to as a "Y signal") and about 7 MHz for a chrominance signal (hereinafter referred to as a "C signal"). With a bandwidth of 27 MHZ
Approximately 8 MHz for transmission on one channel of satellite broadcasting
Bandwidth compression processing. The MUSE decoder demodulates the band-compressed signal (hereinafter, referred to as “MUSE signal”) into an original baseband signal.

【0005】図6は、従来のMUSEデコーダの構成を
示すブロック図である。
FIG. 6 is a block diagram showing a configuration of a conventional MUSE decoder.

【0006】入力端子1にはMUSE信号が供給され、
カットオフ周波数8.1MHzのLPF2で帯域を制限した
後、A/D変換器3で16.2MHzのクロック信号でサン
プリングしたデジタル信号となる。A/D変換器3の出
力信号は、音声デコード部4、同期処理部5、そしてデ
ィエンファシス処理部6に入力される。
The input terminal 1 is supplied with a MUSE signal.
After the band is limited by the LPF 2 having a cutoff frequency of 8.1 MHz, the digital signal is sampled by the A / D converter 3 using a clock signal of 16.2 MHz. The output signal of the A / D converter 3 is input to an audio decoding unit 4, a synchronization processing unit 5, and a de-emphasis processing unit 6.

【0007】音声デコード部4では入力信号から音声信
号が分離及びデコードされ、音声4チャンネル・独立デ
ータ信号7が出力される。
The audio decoder 4 separates and decodes the audio signal from the input signal, and outputs an audio 4-channel independent data signal 7.

【0008】同期処理部5では入力信号から同期信号
8、コントロール信号9が分離され各信号処理部へ供給
される。
In the synchronization processing section 5, a synchronization signal 8 and a control signal 9 are separated from an input signal and supplied to each signal processing section.

【0009】ディエンファシス処理部6ではMUSEエ
ンコーダ(送信側処理)におけるエンファシスと逆の処
理を行う。ディエンファシス処理を施された信号は逆ガ
ンマ補正処理部10でエンコーダ側の伝送ガンマの逆処理
を施され線形信号11となる。
[0009] The de-emphasis processing section 6 performs processing reverse to the emphasis in the MUSE encoder (transmission side processing). The signal that has been subjected to the de-emphasis processing is subjected to inverse processing of the transmission gamma on the encoder side by the inverse gamma correction processing unit 10, and becomes a linear signal 11.

【0010】逆ガンマ補正処理後の信号11は動き検出処
理部12、フィールド内内挿処理部13、及びフレーム間内
挿処理部14に入力される。
The signal 11 after the inverse gamma correction processing is input to a motion detection processing section 12, a field interpolation processing section 13, and an inter-frame interpolation processing section 14.

【0011】動き検出処理部12ではフレーム差分の信号
を用いて動画領域の検出を行い、MIX処理部18での静
止画領域と動画領域の混合比の基となる動き信号15を発
生する。動き検出処理の詳細な動作については後述す
る。
The motion detection processing section 12 detects a moving image area using the signal of the frame difference, and generates a motion signal 15 which is the basis of the mixing ratio of the still image area and the moving image area in the MIX processing section 18. The detailed operation of the motion detection processing will be described later.

【0012】フィールド内内挿部13では、動画領域につ
いて各フィールド内で内挿され、16MHzレートのデー
タが32MHzレートのデータに復調される。動画領域の
フィールド内内挿処理についても後述する。フィールド
内に内挿された信号はサンプリング周波数変換部17で32
MHzレートから48MHzレートのサンプリング信号に変
換され、MIX処理部18へ入力される。
The field interpolation section 13 interpolates the moving image area in each field, and demodulates data at a rate of 16 MHz into data at a rate of 32 MHz. The field interpolation processing of the moving image area will also be described later. The signal interpolated in the field is converted by the sampling frequency converter 17 to 32
The MHZ rate is converted into a 48 MHz rate sampling signal, which is input to the MIX processing unit 18.

【0013】フレーム間内挿処理部14では、静止画領域
について欠落サンプルを前フレームのサンプルで補間す
ることで内挿を行う。フレーム間内挿処理によって16M
Hzレートのデータは32MHzレートのデータとなる。フ
レーム間内挿処理後のY信号については、次処理のサン
プリング周波数変換時に発生する折り返し妨害を防ぐた
めにカットオフ周波数12MHzのLPF19を通す。
The interpolating section 14 performs interpolation by interpolating missing samples in the still image area with the samples of the previous frame. 16M by frame interpolation
The data at the Hz rate is data at the 32 MHz rate. The Y signal after the frame interpolation processing is passed through an LPF 19 having a cutoff frequency of 12 MHz in order to prevent aliasing interference occurring at the time of sampling frequency conversion in the next processing.

【0014】LPF通過後はフィールド間内挿を行うた
め、32MHzレートから24MHzレートにサンプリング周
波数を変換する。サンプリング周波数変換部20で24MH
zレートに変換されたデータはフィールド間内挿処理部2
1において欠落サンプルを前フィールドのサンプルで補
間され48MHzレートのサンプリング信号となりMIX
処理部18へ入力される。
After passing through the LPF, the sampling frequency is converted from a 32 MHz rate to a 24 MHz rate in order to perform field interpolation. 24 MHZ at sampling frequency converter 20
Data converted to z-rate is interpolated by field interpolator 2
In step 1, the missing sample is interpolated with the sample of the previous field to produce a sampling signal of a 48 MHz rate.
It is input to the processing unit 18.

【0015】MIX処理部18ではサンプリング周波数変
換部17からの動画信号と、フィールド間内挿処理部21か
らの静止画信号とを動き検出処理部12からの動き信号15
に応じて混合する。
The MIX processing unit 18 converts the moving image signal from the sampling frequency conversion unit 17 and the still image signal from the inter-field interpolation processing unit 21 into a motion signal 15 from the motion detection processing unit 12.
Mix according to.

【0016】MIX処理部18の出力信号はTCIデコー
ド部22で線順次走査の色信号をR−Y信号23、B−Y信
号24に分離され、逆マトリクス部26でY信号25と演算さ
れてR信号、G信号、B信号の3つの信号へと変換され
る。これら3つの信号をD/A変換器27でアナログ信号
へと変換し、カットオフ周波数約21MHzのLPF28を
通して、R信号29、G信号30、B信号31のハイビジョン
信号として出力する。
The output signal of the MIX processing unit 18 is obtained by separating a line-sequentially scanned color signal into an RY signal 23 and a BY signal 24 by a TCI decoding unit 22 and calculating a Y signal 25 by an inverse matrix unit 26. The signal is converted into three signals of an R signal, a G signal, and a B signal. These three signals are converted into analog signals by a D / A converter 27, and output as an HD signal of an R signal 29, a G signal 30, and a B signal 31 through an LPF 28 having a cutoff frequency of about 21 MHz.

【0017】次に動き検出処理とフィールド内内挿処理
について説明する。従来のMUSE方式の動き検出、及
びフィールド内内挿の方法については各種文献(例え
ば、日本放送出版協会発行 エレクトロニクスライフ19
90年1月号p38〜48“ハイビジョン受像機の仕組み”)
で紹介されている。
Next, the motion detection processing and the field interpolation processing will be described. Various documents (for example, Electronics Life 19 issued by Japan Broadcasting and Publishing Association) describe the method of motion detection and field interpolation of the conventional MUSE method.
January 1990, p.38-48 "How HDTV receivers work")
Introduced in

【0018】図7は従来の動き検出処理の構成を示すブ
ロック図である。逆ガンマ補正処理された信号11は動き
検出処理部12内のエッジ検出処理部37、2フレーム差検
出処理部32、1フレーム差検出処理部33の3ブロックに
入力される。
FIG. 7 is a block diagram showing the configuration of a conventional motion detection process. The signal 11 subjected to the inverse gamma correction processing is input to three blocks of an edge detection processing unit 37, a two-frame difference detection processing unit 32, and a one-frame difference detection processing unit 33 in the motion detection processing unit 12.

【0019】エッジ検出処理部37では物体の輪郭部にあ
たるエッジ部分の信号を検出する。エッジ検出の模式図
を図8に示す。入力された信号は16MHzレートである
から、同一ライン上には32MHzごとにデータのある点
(以下「サンプル点」という)とデータのない点(以下
「非サンプル点」という)があり、エッジ検出は2つの
点でそれぞれ別の方法で行なっている。
The edge detection processing section 37 detects a signal of an edge portion corresponding to the contour of the object. FIG. 8 is a schematic diagram of edge detection. Since the input signal has a 16 MHz rate, there are points having data (hereinafter, referred to as "sample points") and points having no data (hereinafter, referred to as "non-sample points") at every 32 MHz on the same line. Is performed in two different ways.

【0018】図8では横エッジ検出のサンプル点及び非
サンプル点での検出をそれぞれ(A)、(B)に示し、図9に
は縦エッジ検出のサンプル点及び非サンプル点での検出
をそれぞれ(A)、(B)に示す。4つの方法とも類似してい
るので、図8(A)に示すサンプル点での横エッジ検出で
代表して説明する。図8(A)の6つの画像データをA1〜
A6としたときに、|A1−A2|,|A3−A4|,|A5
−A6|を求めて、3つの値の最大値をA4の横エッジの
値とする。
FIGS. 8A and 8B show the detection at the sample point and the non-sample point of the horizontal edge detection, and FIG. 9 shows the detection at the sample point and the non-sample point of the vertical edge detection, respectively. (A) and (B) show. Since the four methods are similar, a description will be given using the horizontal edge detection at the sample points shown in FIG. 8A as a representative. The six image data of FIG.
When A6, | A1-A2 |, | A3-A4 |, | A5
-A6 | is determined, and the maximum value of the three values is set as the value of the horizontal edge of A4.

【0020】すなわち、 A4の横エッジ値=MAX{|A1−A2|,|A3−
A4|,|A5−A6|} となる。
[0020] That is, the horizontal edge values of A 4 = MAX {| A1- A2 |, | A3-
A4 |, | A5-A6 |}.

【0021】図8(B)及び図9(A),(B)についても同様
に、画素ごとの縦エッジと、横エッジの値が求められ
る。
8 (B) and FIGS. 9 (A) and 9 (B), the values of the vertical edge and the horizontal edge for each pixel are similarly obtained.

【0022】 B7の横エッジ値=MAX{|B1−B2|,|B3−B4
|,|B5−B6|} C4の縦エッジ値=MAX{|C1−C2|,|C3−C4
|,|C4−C5|} D6の縦エッジ値=MAX{|D1−D2|,|D2−D3
|,|D4−D5|}
The horizontal edge value of B7 = MAX {| B1−B2 |, | B3−B4
|, | B5-B6 |} Vertical edge value of C4 = MAXMA | C1-C2 |, | C3-C4
|, | C4-C5 |} Vertical edge value of D6 = MAX {| D1-D2 |, | D2-D3
|, | D4-D5 |}

【0023】2フレーム差検出処理部32では2フレーム
間の差分信号を求め、ゆっくりとした動き(2フレーム
=1/15秒)に対応した動き検出を行なう。
The two-frame difference detection processing unit 32 obtains a difference signal between two frames, and performs motion detection corresponding to a slow motion (2 frames = 1/15 second).

【0024】1フレーム差検出処理部33では1フレーム
間の差分信号を求め、2フレーム差よりも速い動き(1
フレーム=1/30秒)に対応した動き検出を行なう。
The one-frame difference detection processing unit 33 obtains a difference signal between one frame and a motion faster than the two-frame difference (1
The motion detection corresponding to (frame = 1/30 second) is performed.

【0025】検出された3種類の信号、エッジ信号16と
2フレーム検出信号34と1フレーム検出信号35は動画領
域検出処理部36に入力される。動画領域検出処理部36で
は、エッジ信号16を基に1フレーム差検出信号35と2フ
レーム差検出信号の感度を調整し、2つの信号の画素ご
との最大値をとって、動き信号15として出力する。
The detected three types of signals, the edge signal 16, the two-frame detection signal 34, and the one-frame detection signal 35 are input to a moving image area detection processing unit 36. The moving image area detection processing unit 36 adjusts the sensitivities of the one-frame difference detection signal 35 and the two-frame difference detection signal based on the edge signal 16, takes the maximum value of the two signals for each pixel, and outputs the result as the motion signal 15. I do.

【0026】図10(A),(B)は従来のフィールド内内挿
処理の一例を示す模式図である。図10(A)はサンプル
点(内挿する点E7)、図10(B)は非サンプル点(内挿
する点F7)を周辺のサンプル点から内挿する処理を示
す図である。2つの方法とも類似しているので図10
(A)に示すサンプル点でのフィールド内内挿処理で代表
して説明する。図10(A)の13個の画像データをE1〜
E13としたときに、全データに対して関数f1の処理を
施してE7のデータを生成し、サンプル点の内挿を行
う。図10(B)についても同様にして、非サンプル点の
内挿を行なう。
FIGS. 10A and 10B are schematic diagrams showing an example of a conventional field interpolation process. FIG. 10A shows a process of interpolating a sample point (interpolated point E7), and FIG. 10B shows a process of interpolating a non-sampled point (interpolated point F7) from surrounding sample points. Since the two methods are similar, FIG.
The field interpolation process at the sample points shown in FIG. The 13 image data shown in FIG.
When E13, the processing of the function f1 is performed on all data to generate E7 data, and interpolation of sample points is performed. In the same manner as in FIG. 10B, interpolation of non-sample points is performed.

【0027】このように、動き検出処理部12は特にエッ
ジ検出処理部37と、フィールド内内挿部13では同じデー
タを使って処理を行っている。図8(A)と図10(A)の画
像データを比較すると、A1とE4,A2とE9,A3とE
2,A4とE7,A5とE5,A6とE10は同一データであ
る。図8(B)と図10(B)、図9(A)と図10(A)、図9
(B)と図10(B)についても同様である。
As described above, the motion detection processing unit 12 and the edge detection processing unit 37 and the field interpolation unit 13 perform processing using the same data. Comparing the image data of FIGS. 8A and 10A, A1 and E4, A2 and E9, A3 and E
2, A4 and E7, A5 and E5, A6 and E10 are the same data. 8 (B) and 10 (B), FIG. 9 (A) and FIG. 10 (A), FIG.
The same applies to (B) and FIG. 10 (B).

【0028】[0028]

【発明が解決しようとする課題】このように従来のMU
SEデコーダでは、動き検出処理部とフィールド内内挿
処理部で類似した処理を行っているにもかかわらず、独
立した処理系統を持っている。このため、回路規模が大
きくなってしまい小さくすることが困難であった。
As described above, the conventional MU
The SE decoder has independent processing systems even though the motion detection processing unit and the field interpolation processing unit perform similar processing. For this reason, the circuit scale becomes large and it is difficult to reduce the circuit size.

【0029】したがって、本発明は、動き検出処理の一
部であるエッジ検出処理部と、映像動画信号の再生処理
回路の一部であるフィールド内内挿処理部との同一機能
回路を共有させるように構成し、回路規模を縮小させる
と共に、エッジ検出の精度を高めることを目的とする。
Therefore, in the present invention, the same function circuit is shared between the edge detection processing unit as a part of the motion detection processing and the field interpolation processing unit as a part of the video / video signal reproduction processing circuit. The purpose of the present invention is to reduce the circuit scale and increase the accuracy of edge detection.

【0030】[0030]

【課題を解決するための手段】上記目的を達成するため
に本発明は、帯域圧縮されたMUSE信号を元の広帯域
の高品位テレビジョン信号に復調し再生するMUSEデ
コーダ動き検出回路において、フレーム差分の信号を
用いて動画領域の検出を行う動き検出処理手段と、フィ
ールド内の画像データの補間を行うためのフィールド内
内挿手段と、を含み、動き検出処理を行うためにフィー
ルド内の所定の範囲における画像データの差分値からエ
ッジ信号を求めるエッジ検出手段を、前記動き検出処理
手段と前記フィールド内内挿手段とで互いに共有し、前
記エッジ検出手段を前記フィールド内内挿手段と前記
き検出処理手段のいずれか一方にのみ設けるように構成
したことを特徴とするMUSEデコーダ動き検出回路を
提供する。
To accomplish the above object means to provide a process, the motion detection circuit of MUSE decoder for reproducing and demodulating the MUSE signal band-compressed original broadband to high definition television signal, the frame The difference signal
Motion detection processing means for detecting a moving image area using the
In the field for performing interpolation of the image data in the field
And interpolation means.
From the difference value of the image data in a predetermined range within the
Edge detection means for obtaining the edge signal;
Characterized in that share each other between said field interpolation unit section, and constitutes the edge detection means so as to provide only one of the motion <br/>-out detection processing means and interpolation means in said field And a MUSE decoder motion detection circuit.

【0031】また、本発明は、前記一又は複数の回路ブ
ロックが、少なくとも画像データのラインメモリーであ
ることを特徴とするMUSEデコーダ動き検出回路を提
供する。
The present invention also provides a MUSE decoder motion detection circuit, wherein the one or more circuit blocks are at least line memories for image data.

【0032】[0032]

【作用】本発明のMUSEデコーダ動き検出回路におい
ては、動き検出処理手段の中に含まれるエッジ検出手段
と、動画信号を再生処理するためのフィールド補間を行
うフィールド内内挿手段との同一機能部分を共有するこ
とによって、回路規模を減少させることができる。
In the MUSE decoder motion detection circuit according to the present invention, the same functional parts as the edge detection means included in the motion detection processing means and the field interpolation means for performing field interpolation for reproducing a moving picture signal are performed. , The circuit scale can be reduced.

【0033】また、回路規模を増やすことなく、フィー
ルド内の広い範囲の画像データ及び周囲の均等な距離に
ある画像データからエッジ信号を求めることができる。
これによって、画素ごとに求められるエッジ信号の検出
精度を向上させることが可能となる。
Further, an edge signal can be obtained from image data in a wide range in a field and image data at an equal distance from the surroundings without increasing the circuit scale.
This makes it possible to improve the detection accuracy of the edge signal required for each pixel.

【0034】さらに、共有部分を画像データのラインメ
モリにすることによって、エッジ検出用に必要であった
回路を約3割程度に縮小できる。
Further, by making the shared portion a line memory for image data, the circuit required for edge detection can be reduced to about 30%.

【0035】[0035]

【実施例】次に、本発明の第1、第2実施例を図面を参
照して順次説明する。
Next, first and second embodiments of the present invention will be described sequentially with reference to the drawings.

【0036】まず、図1、図2、図3に基づいて第1実
施例について説明する。
First, a first embodiment will be described with reference to FIGS. 1, 2 and 3.

【0037】図1は本発明のMUSEデコーダのブロッ
ク図、図2は本発明のMUSEデコーダの動き検出処理
部のブロック図である。どちらのブロック図も動き検出
処理部12にフィールド内内挿部13からのエッジ信号16が
入力されている以外は図6、図7の従来例を示したブロ
ック図と同様である。従って、従来と同様な部分につい
ては説明を省略し、異なる部分を中心に説明する。
FIG. 1 is a block diagram of a MUSE decoder of the present invention, and FIG. 2 is a block diagram of a motion detection processing section of the MUSE decoder of the present invention. Both block diagrams are the same as the block diagrams showing the conventional example of FIGS. 6 and 7 except that the edge signal 16 from the field interpolation unit 13 is input to the motion detection processing unit 12. Therefore, the description of the same parts as in the related art will be omitted, and different parts will be mainly described.

【0038】従来例で説明したように、動き検出処理部
12の中のエッジ検出処理部37とフィールド内内挿部13で
は同じデータを用いて処理を行なっている。従って本発
明では、図2に示すように、従来例の図7に示すエッジ
検出処理部37を削除し、フィールド内内挿部13で処理
に使っている画像データを用いて、エッジ信号16を求め
るための演算処理を行っている。
As described in the conventional example, the motion detection processing unit
The edge detection processing unit 37 in 12 and the field interpolation unit 13 perform processing using the same data. Therefore, in the present invention, as shown in FIG. 2, the edge detection processing unit 37 shown in FIG. 7 of the conventional example is deleted, and the edge signal 16 is converted using the image data used in the processing by the field interpolation unit 13. The calculation process for obtaining is performed.

【0039】図3は本発明の第1実施例のフィールド内
内挿部13でのエッジ検出を示した模式図であり、サンプ
ル点について図3(A)に、非サンプル点について図3(B)
に示す。2つの方法とも類似しているので、図3(A)に
示すサンプル点でのエッジ検出処理で代表して説明す
る。図3(A)の13個の画像データをE1〜E13としたとき
に、|E4−E9|,|E2−E7|,|E5−E10|を求
めて、3つの値の最大値をE7の横エッジの値、|E4−
E5|,|E6−E7|,|E7−E8|を求めて、3つの
値の最大値をE7の縦エッジの値とする。
FIG. 3 is a schematic diagram showing edge detection in the field interpolation unit 13 according to the first embodiment of the present invention. FIG. 3A shows sample points and FIG. 3B shows non-sample points. )
Shown in Since the two methods are similar, the edge detection processing at the sample points shown in FIG. When the 13 pieces of image data in FIG. 3A are E1 to E13, | E4−E9 |, | E2−E7 |, and | E5−E10 | are obtained, and the maximum value of the three values is set to E7. Horizontal edge value, | E4−
E5 |, | E6-E7 |, | E7-E8 | are obtained, and the maximum value of the three values is set as the value of the vertical edge of E7.

【0040】すなわち、 E7の横エッジ値=MAX{|E4−E9|,|E2−E7
|,|E5−E10|} E7の縦エッジ値=MAX{|E4−E5|,|E6−E7
|,|E7−E8|} である。
That is, the horizontal edge value of E7 = MAX {| E4-E9 |, | E2-E7
|, | E5-E10 |} Vertical edge value of E7 = MAXMA | E4-E5 |, | E6-E7
|, | E7−E8 |}.

【0041】図3(B)についても同様にして、画素ごと
の横エッジと、縦エッジの値が求められる。
Similarly, the values of the horizontal edge and the vertical edge for each pixel are obtained for FIG.

【0042】 F7の横エッジ値=MAX{|F1−F6|,|F4−F10
|,|F2−F8|} F7の縦エッジ値=MAX{|F3−F4|,|F4−F5
|,|F6−F8|}
The horizontal edge value of F7 = MAX {| F1-F6 |, | F4-F10
|, | F2-F8 |} Vertical edge value of F7 = MAX {| F3-F4 |, | F4-F5
|, | F6-F8 |}

【0043】このように、フィールド内内挿部13の画像
データを用いて検出したエッジ信号16を動き検出処理部
12内の動画領域検出処理部36に入力して、2フレーム差
検出処理部32からの信号34及び1フレーム差検出処理部
33からの信号35と組み合わせて動き信号15を発生するよ
うに構成する。
As described above, the edge signal 16 detected by using the image data of the field interpolation unit 13 is
The signal 34 from the two-frame difference detection processing unit 32 and the one-frame difference detection processing unit
It is configured to generate the motion signal 15 in combination with the signal 35 from 33.

【0044】従って、上述の第1実施例によれば、エッ
ジ検出処理部37の回路をフィールド内内挿部13と共有す
ることができるため、回路規模を減少させることができ
る。実施例において共有している部分は、例えば、画像
データのラインメモリにあたる。
Therefore, according to the first embodiment, the circuit of the edge detection processing unit 37 can be shared with the field interpolation unit 13, so that the circuit scale can be reduced. The shared part in the embodiment corresponds to, for example, a line memory for image data.

【0045】次に、図4及び図5を用いて第2実施例に
ついて説明する。
Next, a second embodiment will be described with reference to FIGS.

【0046】従来例のフィールド内内挿(図10)とエ
ッジ検出処理(図8、図9)の一例を示す模式図を見て
も分かるように、フィールド内内挿ではエッジ検出処理
よりも多くのデータを使用している。エッジ検出処理部
の回路をフィールド内内挿部と共有することで、第1実
施例では、フィールド内内挿部13のデータを用いて従来
通りのエッジ検出処理を行なったが(図3)、第2実施
例では従来よりも多くのデータを使用してエッジ検出処
理を行なう。
As can be seen from a schematic diagram showing an example of the conventional field interpolation (FIG. 10) and the edge detection processing (FIGS. 8 and 9), the field interpolation is more than the edge detection processing. Using the data. By sharing the circuit of the edge detection processing unit with the field interpolation unit, in the first embodiment, the conventional edge detection processing was performed using the data of the field interpolation unit 13 (FIG. 3). In the second embodiment, the edge detection processing is performed using more data than in the conventional case.

【0047】図4及び図5は第2実施例のエッジ検出処
理を示す模式図であり、横エッジの検出を図4(A),(B)
に、縦エッジの検出を図5(A),(B)に示す。4つの方法
とも類似しているので、図4(A)に示すサンプル点での
横エッジ検出で代表して説明する。図4(A)の7つの画
像データをA1〜A7としたときに、|A1−A2|,|A
3−A4|,|A5−A6|,|A4−A7|を求めて、4つ
の値の最大値をA4の横エッジの値とする。
FIGS. 4 and 5 are schematic diagrams showing the edge detection processing according to the second embodiment. FIGS. 4A and 4B show the detection of a horizontal edge.
FIGS. 5A and 5B show the detection of the vertical edge. Since the four methods are similar, a description will be given using the horizontal edge detection at the sample points shown in FIG. When the seven image data in FIG. 4A are A1 to A7, | A1−A2 |, | A
3-A4 |, | A5-A6 |, | A4-A7 |, and the maximum value of the four values is taken as the value of the horizontal edge of A4.

【0048】すなわち、 A4の横エッジ値=MAX{|A1−A2|,|A3−A4
|,|A5−A6|,|A4−A7|} である。
That is, the horizontal edge value of A4 = MAX {| A1−A2 |, | A3−A4
|, | A5-A6 |, | A4-A7 | 7.

【0049】図4(B)及び図5(A),(B)についても同様
にして、画素ごとの横エッジと、縦エッジの値が求めら
れる。
Similarly, the values of the horizontal edge and the vertical edge for each pixel are obtained for FIGS. 4B, 5A and 5B.

【0050】 B7の横エッジ値=MAX{|B1−B2|,|B3−B4
|,|B5−B6|,|B2−B8|,|B6−B9|} C4の縦エッジ値=MAX{|C1−C2|,|C3−C4
|,|C4−C5|,|C6−C7|} D6の縦エッジ値=MAX{|D1−D2|,|D2−D3
|,|D4−D5|,|D7−D8|,|D8−D9|}
Horizontal edge value of B7 = MAXMA | B1−B2 |, | B3−B4
|, | B5-B6 |, | B2-B8 |, | B6-B9 |} Vertical edge value of C4 = MAX {| C1-C2 |, | C3-C4
|, | C4-C5 |, | C6-C7 | 7 Vertical edge value of D6 = MAX {| D1-D2 |, | D2-D3
|, | D4-D5 |, | D7-D8 |, | D8-D9 |

【0051】このようなエッジ検出処理を行なうと、従
来例では前のラインのデータに片寄っていたエッジ検出
処理(図8、図9参照)を、本発明によれば、周囲の均
等な距離にあるデータを使って検出することができる。
このため、画素ごとのエッジ信号の精度を向上させるこ
とができる。
According to the present invention, when such edge detection processing is performed, the edge detection processing (see FIGS. 8 and 9), which has been deviated from the data of the previous line in the conventional example, is reduced to a uniform distance around the periphery. It can be detected using certain data.
Therefore, the accuracy of the edge signal for each pixel can be improved.

【0052】従って、上述の第2実施例によれば、エッ
ジ検出処理部37の回路をフィールド内内挿部13と共有
し、更に従来よりも多くのデータを使ったエッジ検出処
理を行なうことでエッジ信号の精度を向上することがで
きる。実施例において共有している部分は、例えば、画
像データのラインメモリである。
Therefore, according to the above-described second embodiment, the circuit of the edge detection processing unit 37 is shared with the field interpolation unit 13, and the edge detection processing using more data than before is performed. The accuracy of the edge signal can be improved. The shared part in the embodiment is, for example, a line memory for image data.

【0053】なお、本発明はMUSEデコーダのみでな
く、フィールド内データ補間とエッジ検出を同一のフィ
ールド内のデータを用いて行う方式のものであれば、そ
の他の画像処理装置にも利用可能である。
The present invention can be applied not only to the MUSE decoder but also to other image processing devices as long as the data interpolation and edge detection are performed using data in the same field. .

【0054】[0054]

【発明の効果】以上説明したように本発明は、動き検出
処理の一部であるエッジ検出処理部と、フィールド内内
挿処理部の回路を共有させるように構成したので、エッ
ジ検出処理用の回路規模の削減ができ、エッジ検出処理
用に必要であった回路を約3割程度に縮小できる。
As described above, the present invention is configured so that the circuit of the edge detection processing unit, which is a part of the motion detection processing, and the circuit of the field interpolation processing unit are shared. The circuit scale can be reduced, and the circuit required for edge detection processing can be reduced to about 30%.

【0055】さらに、エッジ検出処理を行う際に、垂直
ライン方向のデータ数を多くすることができるため、周
囲の均等な距離にあるデータを用いた検出が可能とな
り、画素ごとのエッジ信号の検出精度を向上させること
ができる。この結果、動き検出処理部から出力される動
き信号の精度が向上する。
Further, when performing the edge detection processing, the number of data in the vertical line direction can be increased, so that it is possible to perform detection using data at an equal distance from the surroundings, and to detect an edge signal for each pixel. Accuracy can be improved. As a result, the accuracy of the motion signal output from the motion detection processing unit is improved.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施例の構成を示すブロック図であ
る。
FIG. 1 is a block diagram showing the configuration of an embodiment of the present invention.

【図2】本発明の一実施例の構成を示すブロック図であ
る。
FIG. 2 is a block diagram showing a configuration of one embodiment of the present invention.

【図3】(A),(B)はそれぞれ本発明におけるサンプル
点、非サンプル点でのフィールド内内挿を利用したエッ
ジ検出を示す模式図である。
FIGS. 3A and 3B are schematic diagrams showing edge detection using field interpolation at sample points and non-sample points according to the present invention, respectively.

【図4】(A),(B),はそれぞれ本発明におけるサンプル
点、非サンプル点での横エッジ検出を示す模式図であ
る。
FIGS. 4A and 4B are schematic diagrams showing horizontal edge detection at sample points and non-sample points in the present invention, respectively.

【図5】(A),(B),はそれぞれ本発明におけるサンプル
点、非サンプル点での縦エッジ検出を示す模式図であ
る。
FIGS. 5A and 5B are schematic diagrams showing vertical edge detection at sample points and non-sample points according to the present invention, respectively.

【図6】従来のMUSEデコーダの構成を示すブロック
図である。
FIG. 6 is a block diagram showing a configuration of a conventional MUSE decoder.

【図7】従来のMUSEデコーダにおける動き検出処理
部を示すブロック図である。
FIG. 7 is a block diagram showing a motion detection processing unit in a conventional MUSE decoder.

【図8】(A),(B)はそれぞれ従来のMUSEデコーダに
おけるサンプル点、非サンプル点での横エッジ検出を示
す模式図である。
FIGS. 8A and 8B are schematic diagrams showing horizontal edge detection at sample points and non-sample points in a conventional MUSE decoder, respectively.

【図9】(A),(B)はそれぞれ従来のMUSEデコーダに
おけるサンプル点、非サンプル点での縦エッジ検出を示
す模式図である。
FIGS. 9A and 9B are schematic diagrams showing vertical edge detection at sample points and non-sample points in a conventional MUSE decoder, respectively.

【図10】(A),(B)はそれぞれ従来のMUSEデコーダ
におけるサンプル点、非サンプル点でのフィールド内内
挿処理を示す模式図である。
FIGS. 10A and 10B are schematic diagrams showing field interpolation processing at sample points and non-sample points in a conventional MUSE decoder, respectively.

【符号の説明】[Explanation of symbols]

1 MUSE信号入力端子 3 A/D変換器 6 ディエンファシス処理部 12 動き検出処理部 13 フィールド内内挿部 15 動き信号 16 エッジ信号 17 サンプリング周波数変換部 18 MIX処理部 27 D/A変換器 32 2フレーム差検出処理部 33 1フレーム差検出処理部 36 動画領域検出処理部 37 エッジ検出処理部 1 MUSE signal input terminal 3 A / D converter 6 De-emphasis processing unit 12 Motion detection processing unit 13 Field interpolation unit 15 Motion signal 16 Edge signal 17 Sampling frequency conversion unit 18 MIX processing unit 27 D / A converter 32 2 Frame difference detection processing section 33 1 frame difference detection processing section 36 Video area detection processing section 37 Edge detection processing section

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】帯域圧縮されたMUSE信号を元の広帯域
の高品位テレビジョン信号に復調し再生するMUSEデ
コーダ動き検出回路において、フレーム差分の信号を用いて動画領域の検出を行う動き
検出処理手段と、 フィールド内の画像データの補間を行うためのフィール
ド内内挿手段と、 を含み、 動き検出処理を行うためにフィールド内の所定の範囲に
おける画像データの差分値からエッジ信号を求めるエッ
ジ検出手段を、前記動き検出処理手段 と前記フィールド
内内挿手段とで互いに共有し、 前記エッジ検出手段を前記フィールド内内挿手段と前記
動き検出処理手段のいずれか一方にのみ設けるように構
成したことを特徴とするMUSEデコーダ動き検出回
路。
1. A motion detecting circuit of a MUSE decoder for demodulating and reproducing a band-compressed MUSE signal into an original wide-band high-definition television signal and detecting a moving image area using a frame difference signal.
Detection processing means and a field for interpolating the image data in the field
Interpolating means for performing a motion detection process within a predetermined range in the field.
Edge signal from the difference value of the image data
The edge detection unit, the shared each other in a motion detecting processing means and the field interpolation means, only the edge detection means on one of the <br/> motion detection means and the interpolation means in said field A MUSE decoder motion detection circuit characterized by being configured to be provided.
【請求項2】4フィールドの周期で一巡するサブサンプ
ルによって帯域圧縮されたMUSE信号を元の広帯域の
高品位テレビジョン信号に復調し再生するMUSEデコ
ーダの動き検出回路において、 フレーム差分の信号を用いて動画領域の検出を行う動き
検出処理手段に、フィールド内の所定の範囲における画
像データの差分値からエッジを検出するエッジ検出手段
を設けず、 フィールド内の画像データの補間を行うためのフィール
ド内内挿手段が該フィールド内内挿手段で使用する画像
データを用いて検出したエッジ信号を出力し、 前記動き
検出処理手段が、前記フィールド内内挿手段から出力さ
れるエッジ信号に基づき動き検出を行うように構成した
ことを特徴とするMUSEデコーダ動き検出回路。
2. A subsump that makes a cycle with a period of 4 fields.
The MUSE signal band-compressed by the
MUSE Deco demodulates and reproduces high-definition television signals
In the motion detection circuit of the coder, the motion for detecting the moving image area using the frame difference signal
An image in a predetermined range within the field is provided to the detection processing means.
Edge detection means for detecting an edge from a difference value of image data
Field for interpolating image data in the field without
Image used by the field interpolation means in the field interpolation means
And outputs an edge signal detected by using the data, the motion
Detection processing means for outputting from the field interpolation means;
Configured to perform motion detection based on the edge signal
A MUSE decoder motion detection circuit, characterized in that:
【請求項3】前記動き検出処理手段と前記フィールド内
内挿手段とで少なくとも画像データのラインメモリーを
共用することを特徴とする請求項1に記載のMUSEデ
コーダ動き検出回路。
3. The motion detection processing means and the inside of the field
Interpolation means and at least the line memory for image data
The MUSE data according to claim 1, wherein the MUSE data is shared.
Coder motion detection circuit.
JP19385893A 1993-07-12 1993-07-12 MUSE decoder motion detection circuit Expired - Lifetime JP2646965B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP19385893A JP2646965B2 (en) 1993-07-12 1993-07-12 MUSE decoder motion detection circuit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP19385893A JP2646965B2 (en) 1993-07-12 1993-07-12 MUSE decoder motion detection circuit

Publications (2)

Publication Number Publication Date
JPH0746547A JPH0746547A (en) 1995-02-14
JP2646965B2 true JP2646965B2 (en) 1997-08-27

Family

ID=16314928

Family Applications (1)

Application Number Title Priority Date Filing Date
JP19385893A Expired - Lifetime JP2646965B2 (en) 1993-07-12 1993-07-12 MUSE decoder motion detection circuit

Country Status (1)

Country Link
JP (1) JP2646965B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006515977A (en) * 2003-01-29 2006-06-08 ソニー インターナショナル (ヨーロッパ) ゲゼルシャフト ミット ベシュレンクテル ハフツング Video signal processing system

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0344186A (en) * 1989-07-11 1991-02-26 Victor Co Of Japan Ltd Signal converter

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006515977A (en) * 2003-01-29 2006-06-08 ソニー インターナショナル (ヨーロッパ) ゲゼルシャフト ミット ベシュレンクテル ハフツング Video signal processing system

Also Published As

Publication number Publication date
JPH0746547A (en) 1995-02-14

Similar Documents

Publication Publication Date Title
US5844617A (en) Method and apparatus for enhancing the vertical resolution of a television signal having degraded vertical chrominance transitions
JPH02177785A (en) Signal converter
US5247353A (en) Motion detection system for high definition television receiver
JP2646965B2 (en) MUSE decoder motion detection circuit
JPS62172875A (en) Reproducing system for multiplex sample transmission signal
JP3047636B2 (en) MUSE decoder
JP2581312B2 (en) Motion adaptive interpolation circuit
JP3125896B2 (en) MUSE signal transmission / reception system
JPS6326089A (en) Television receiver
JP2595119B2 (en) Luminance signal reproduction processor
JP2580554B2 (en) Motion adaptive interpolation circuit
JP2893744B2 (en) Motion detection circuit
JP3097140B2 (en) Television signal receiving and processing device
JP2648382B2 (en) Still image playback device
JP2638380B2 (en) High-definition television receiver
JP2580555B2 (en) Motion adaptive interpolation circuit
JP2834239B2 (en) Television receiver
JP3285892B2 (en) Offset subsampling decoding device
JPH07123373A (en) Decoder of television signal
JP2784816B2 (en) Video signal processing device
JPH07115626A (en) Decoder for television signal
JPH07123371A (en) Decoder of television signal
JPH05328308A (en) High vision television image receiver
JPH11284960A (en) Method for reproducing progressive video
JPH0440785A (en) System converting device

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19970408