JPH10333638A - Dynamic image display method and dynamic image display device - Google Patents

Dynamic image display method and dynamic image display device

Info

Publication number
JPH10333638A
JPH10333638A JP9364054A JP36405497A JPH10333638A JP H10333638 A JPH10333638 A JP H10333638A JP 9364054 A JP9364054 A JP 9364054A JP 36405497 A JP36405497 A JP 36405497A JP H10333638 A JPH10333638 A JP H10333638A
Authority
JP
Japan
Prior art keywords
moving
block
pixels
pixel
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9364054A
Other languages
Japanese (ja)
Other versions
JP4203136B2 (en
Inventor
Hidehiko Kawakami
秀彦 川上
Kazuo Tomita
和男 冨田
Yoshio Watanabe
由雄 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP36405497A priority Critical patent/JP4203136B2/en
Priority to US09/381,637 priority patent/US6661470B1/en
Priority to PCT/JP1998/001335 priority patent/WO1998044479A1/en
Priority to CN98803741A priority patent/CN1253652A/en
Priority to KR1019997008849A priority patent/KR100345423B1/en
Priority to EP98911007A priority patent/EP0973147A4/en
Publication of JPH10333638A publication Critical patent/JPH10333638A/en
Application granted granted Critical
Publication of JP4203136B2 publication Critical patent/JP4203136B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To suppress the occurrence of a false contour when a dynamic image is followed by eyes by correcting the present image data in response to the movement of picture elements near the signal level generated by the false contour. SOLUTION: A moving vector detection section 25 is constituted of a binary arithmetic block 26 provided with binary arithmetic sections for individual colors and a comparing/detecting block 27 provided with comparison sections for individual colors, and the movement of an image between fields is obtained by block matching. A majority decision integrated judgment section 28 judges the number of moving picture elements and moving direction of each detecting block KB and registers the judged result in a moving vector table 29. A data correction process section 4 corrects the picture element data of a false contour section with a correction table generated based on visual experiments in advance. The movement of the picture elements near the signal level generated by the false contour is grasped, and the present image data are corrected in response to the movement of the picture elements.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、プラズマディスプ
レイパネル(以下、単に「PDP」と記述する)等にお
いて画像が移動する場合に発生する偽輪郭の発生を抑止
する動画像表示方法及びその装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving image display method and apparatus for suppressing the occurrence of false contours that occur when an image moves in a plasma display panel (hereinafter simply referred to as "PDP") or the like. .

【0002】[0002]

【従来の技術】近年の表示装置の大型化要望に応えるも
のとして、PDP,EL表示素子、蛍光表示管、液晶表
示素子等の薄型のマトリックスパネルが提供され始め
た。かかる薄型の表示装置の中で、特にPDPは大画面
で直視型の表示デバイスとしての期待が非常に大きい。
2. Description of the Related Art In response to recent demands for larger display devices, thin matrix panels such as PDPs, EL display devices, fluorescent display tubes, and liquid crystal display devices have begun to be provided. Among such thin display devices, PDP is particularly expected to be a large-screen, direct-view display device.

【0003】ところで、PDPの中間調表示方法の一つ
として、フィールド内時間分割法がある。この中間調表
示方法は1フィールドを輝度の重みの異なるN枚の画面
(これらを以下サブフィールドと呼ぶ)で構成する。輝
度の重みの小さい側からSF0,SF1,SF2,…・
・,SF(N−1)と呼ばれ、それらサブフィールドの
輝度の重みの比はそれぞれ、20,21,22,…・・,
2N-1である。1フィールド内の中間輝度は、これらの
サブフィールドの発光の有無を選択する事により行わ
れ、人間の視覚特性(残光特性)により、人間の目に感
じる輝度は発光サブフィールドの各々の輝度の和で表せ
る。この中間調表示方法で表現出来る中間調数は1フィ
ールド内のサブフィールド数、即ち2N通りである。
Incidentally, there is an intra-field time division method as one of the halftone display methods of the PDP. In this halftone display method, one field is composed of N screens having different luminance weights (these screens are hereinafter referred to as subfields). SF0, SF1, SF2,...
, SF (N-1), and the ratios of the luminance weights of the subfields are 20, 20, 22, 22,..., Respectively.
2N-1. Intermediate luminance in one field is determined by selecting the presence or absence of light emission in these subfields. The luminance perceived by the human eye is determined by the human visual characteristics (afterglow characteristics). It can be expressed as a sum. The number of halftones that can be expressed by this halftone display method is the number of subfields in one field, that is, 2N.

【0004】図21に上記中間調表示方法を用いた1フ
ィールド内の表示シーケンスを示す。1フィールドは8
枚(N=8)の輝度の重みの異なるサブフィールドで構
成され、輝度の重みの大きいほうからSF7,SF6,
…・・,SF0と呼ばれている。ここで、SF7を最上
位ビット(MSB)側、SF0を最下位ビット(LS
B)側と呼んでいる。各々のサブフィールドは1フィー
ルドの中に、SF0,SF1,…・・,SF7と輝度の
重みの小さいものから順に並んで発光を制御する場合が
多く用いられている。即ち、各サブフィールドの発光回
数の比は、SF0を“1”とすると、SF1は“2”,
SF2は“4”,…・・SF6は“64”,SF7は
“128”である。このサブフィールド数が8個のとき
は256階調まで表現できる。
FIG. 21 shows a display sequence in one field using the halftone display method. 1 field is 8
(N = 8) subfields having different luminance weights, and SF7, SF6, SF6,
..., SF0. Here, SF7 is the most significant bit (MSB) side, and SF0 is the least significant bit (LSB).
Called B) side. Each sub-field is often used to control light emission in one field in the order of SF0, SF1,... That is, assuming that the ratio of the number of times of light emission in each subfield is "1" for SF0, SF1 is "2",
SF2 is "4",... SF6 is "64", and SF7 is "128". When the number of subfields is 8, up to 256 gradations can be expressed.

【0005】ところで、上述したサブフィールド法によ
る中間調表示方法は、1と0の2つの階調しか表現出来
ないPDPのような2値表示デバイスでも多階調表現が
可能な技術として優れた方法であり、このサブフィール
ドを用いた表示方法により、テレビ画像とほぼ同様な画
質がPDPにおいても得られるようになった。
The halftone display method based on the above-described subfield method is an excellent technique as a technique capable of expressing multiple gradations even in a binary display device such as a PDP which can express only two gradations of 1 and 0. With the display method using the subfields, almost the same image quality as a television image can be obtained in a PDP.

【0006】しかしながら、例えば、濃淡が緩やかに変
化している被写体で動きのある映像が表示された場合、
テレビでは見られないPDP画像に特有のいわゆる偽輪
郭が発生する問題がある。この偽輪郭発生現象は視覚の
特性からくるもので、その映像信号レベルが256階調
表示のとき、上記の128,64,32,16などとい
った2のN乗の境界付近に沿って、あたかも階調が失わ
れたような状態で、更には本来表示すべき色と違った色
が縞状となって見られる現象である。しかし、静止画像
を表示した場合には偽輪郭は感じられない。動きのある
部分でかつ上記信号レベルの周辺でのみ認知されるのが
偽輪郭の特徴である。
However, for example, when a moving image is displayed on a subject whose gradation is gradually changing,
There is a problem that a so-called false contour peculiar to a PDP image which cannot be seen on a television occurs. This false contour generation phenomenon is caused by the visual characteristics. When the video signal level is displayed in 256 gradations, it is as if the floor is along the 2Nth boundary such as 128, 64, 32, 16 or the like. This is a phenomenon in which a color different from the color to be originally displayed appears as stripes in a state where the tone is lost. However, when a still image is displayed, no false contour is perceived. It is a feature of the false contour that it is perceived only in the moving part and around the signal level.

【0007】図22を用いてサブフィールド法による階
調表示方法で偽輪郭が発生する原理について説明する。
図22(a)では1フィールド内のサブフィールド数が
8個でその配列が輝度の重みの小さい方、即ちSF0,
SF1,SF2,…,SF7の順に並ぶ場合を示してい
る。ある画素位置の信号レベルが127から128に変
化しているときに、この動画像が1フィールドで3画素
移動している。図22(b)は、観測者が画面上でこの
動画像を観測した結果を示す。
Referring to FIG. 22, the principle of generating false contours in the gradation display method by the subfield method will be described.
In FIG. 22A, the number of subfields in one field is eight, and the arrangement thereof is smaller in luminance weight, that is, SF0, SF0,
.., SF7 are arranged in this order. When the signal level at a certain pixel position changes from 127 to 128, the moving image moves by three pixels in one field. FIG. 22B shows the result of the observer observing this moving image on the screen.

【0008】このように、信号レベル127(SF0か
らSF6までの発光)と信号レベル128(SF7のみ
が発光)が隣り合っている場合、その階調差は1LSB
(1/256)であるが、人間の網膜上で感じる発光値
はこの発光時間の不均一性により画像の移動した画素分
だけ各々の信号レベルの発光が重なり合う結果、空間的
拡がりとなって網膜上には大きな値(積分値)として感じ
る。即ち、本来同じ画素で発光しているべき各々のサブ
フィールドの発光が動画像部では異なった画素位置で発
光していることになり、画素の中間調輝度が単に各サブ
フィールドの和で表現出来なくなる。これが偽輪郭とし
て感じられる理由である。
As described above, when the signal level 127 (light emission from SF0 to SF6) and the signal level 128 (only SF7 emits light) are adjacent to each other, the gradation difference is 1 LSB.
However, the light emission value perceived on the human retina is equal to (1/256), but as a result of the non-uniformity of the light emission time, the light emission of each signal level overlaps by the amount of the moved pixel of the image, resulting in spatial expansion and retina. It is felt as a large value (integral value) above. In other words, the light emission of each subfield, which should originally emit light at the same pixel, is emitted at a different pixel position in the moving image part, and the halftone luminance of the pixel can be expressed simply by the sum of each subfield. Disappears. This is why it is felt as a false contour.

【0009】図22に示した様に、動画像が表示画面の
左側から右側へスクロールすると、上述の信号レベルの
境界部は明るい線として感じられ、反対に動画像が表示
画面の右側から左側へスクロールすると、上述の信号レ
ベルの境界部はサブフィールドの空間的分離として感じ
られ、暗い線として感じられることになる。一方、サブ
フィールドの配列が輝度の重みの大きい方、即ちSF
7、SF6,SF5,…,SF0と順に並んでいる表示
方法においては、動画像が表示画面の左側から右側へス
クロールすると、信号レベルの境界部は暗い線として感
じられ、反対に動画像が表示画面の右側から左側へスク
ロールすると、信号レベルの境界部は明るい線として感
じられることになる。つまり、表示画面の動画像の移動
方向によって、偽輪郭の見え方が異なることになる。
As shown in FIG. 22, when the moving image is scrolled from the left side to the right side of the display screen, the above-described boundary of the signal level is felt as a bright line, and conversely, the moving image moves from the right side to the left side of the display screen. When scrolling, the signal level boundaries described above will be perceived as spatial separation of subfields and will be perceived as dark lines. On the other hand, the arrangement of the subfields has the larger luminance weight, that is, SF
7, SF6, SF5,..., SF0, when the moving image is scrolled from the left side to the right side of the display screen, the boundary of the signal level is perceived as a dark line, and conversely, the moving image is displayed. When scrolling from the right side of the screen to the left side, the boundaries of the signal level will be felt as bright lines. That is, the appearance of the false contour differs depending on the moving direction of the moving image on the display screen.

【0010】更に、この偽輪郭の発生は動画像の動き速
度にも依存し、動き速度が速い程、偽輪郭の及ぶ範囲は
大きい。例えば、1フィールド中に10画素移動する動
画像では偽輪郭の及ぶ画素幅は10画素にも及ぶ。
Further, the generation of the false contour also depends on the moving speed of the moving image, and the higher the moving speed, the larger the range over which the false contour reaches. For example, in a moving image that moves by 10 pixels in one field, the pixel width covered by the false contour is as large as 10 pixels.

【0011】従来より、この偽輪郭に対する対策として
各種の提案がされており、特開平7−271325号公
報では、サブフィールドの表示順を、パルス数比率が
1,2,4,8,16,32,64,128のような単
純増加でなく、偽輪郭が目立たないような順序に並び替
える技術を開示している。例えば、サブフィールド中で
一番表示期間の長いサブフィールドをフィールドの中心
に配置するような順番に表示したり、1フィールド毎に
表示順番を変化させたりする方法などである。
Conventionally, various proposals have been made as a countermeasure against this false contour. In Japanese Patent Application Laid-Open No. Hei 7-271325, the display order of subfields is determined by setting the pulse number ratio to 1, 2, 4, 8, 16, There is disclosed a technique of rearranging in order such that false contours are not conspicuous, instead of simple increases such as 32, 64, and 128. For example, there is a method of displaying the subfield having the longest display period among the subfields in an order such that the subfield is arranged at the center of the field, or changing the display order for each field.

【0012】しかし、サブフィールドの並び替えやフィ
ールド毎にサブフィールドの発光シーケンスを変えたの
では、動きの速い動画像に対する偽輪郭には対応出来な
いなど効果が極めて限定される。
However, if the subfield rearrangement or the subfield light emission sequence is changed for each field, the effect is extremely limited, such as the inability to cope with a false contour of a fast-moving moving image.

【0013】また、特開平8−123355号公報には
動き検出を利用した偽輪郭の抑止技術が開示されてい
る。これは連続した2枚のフィールド画面の動画と背景
画に対応した画面から動き量と方向を求め、この検出値
と各サブフィールド画面の単位時間における分割時間割
合に基づいて動き補正量を求め、この補正量だけ対応す
るサブフィールド画面の発光パターンを移動させるとい
った技術である。
Japanese Patent Application Laid-Open No. 8-123355 discloses a technique for suppressing false contours using motion detection. In this method, a motion amount and a direction are obtained from a screen corresponding to a moving image and a background image of two continuous field screens, and a motion correction amount is obtained based on the detected value and a division time ratio in a unit time of each subfield screen. In this technique, the light emission pattern of the subfield screen corresponding to the correction amount is moved.

【0014】また、特開平8−211848号公報で
は、動きベクトルをフィールド間の表示データにより画
素ブロック毎に検出し、フィールド内の先頭サブフィー
ルドは入力データのそれに対応するデータを表示し、そ
れに続く各サブフィールドは各々の先頭サブフィールド
からの遅れ時間をフィールド周期で割った値を動きベク
トルに掛け算した値を用いて表示データを移動させ画像
を表示する技術内容が開示されている。
In Japanese Patent Application Laid-Open No. Hei 8-212848, a motion vector is detected for each pixel block by display data between fields, and a head subfield in the field displays data corresponding to the input data, and is followed by the data. For each subfield, a technique is disclosed in which an image is displayed by moving display data by using a value obtained by multiplying a motion vector by a value obtained by dividing a delay time from each head subfield by a field period and a motion vector.

【0015】上記したような動き量に応じてサブフィー
ルドの発光パターンを移動させたり表示データを変える
だけでは、動画像のブロック境界で不自然な階調変化や
髭が発生し、かえって副作用が目立つ場合がある。ま
た、視覚光量とのマッチングも難しく、動き量により単
にデータの移動だけでは対応出来ないことが視覚実験に
より判った。また、動き検出を利用した偽輪郭抑制で
は、偽輪郭を防止するための決め手は如何に精度良く動
き量を検出するかにかかっているにも拘わらず、実用性
のある動き検出の具体的構成が十分に開示されていな
い。
By simply moving the light emission pattern of the subfield or changing the display data in accordance with the amount of movement as described above, unnatural gradation changes and whiskers occur at the block boundaries of the moving image, and adverse side effects are conspicuous. There are cases. Further, it was found from a visual experiment that matching with the visual light amount was also difficult, and it was not possible to cope with the movement amount only by moving the data. Also, in false contour suppression using motion detection, a practical configuration of motion detection with practicality is irrespective of how accurately a motion amount is detected in order to prevent false contours. Are not fully disclosed.

【0016】また、特開平8−234694号公報に開
示された偽輪郭補正方法では、同一画素に対応する単位
画素データを少なくとも1フレーム期間だけ離れた前回
値と今回値とを比較して、双方の発光論理値の最上位ビ
ットの桁位置がお互いに異なる場合、今回値について補
正データを加算あるいは減算している。
In the false contour correction method disclosed in Japanese Patent Application Laid-Open No. H8-234694, the unit pixel data corresponding to the same pixel is compared with the previous value separated by at least one frame period and the current value. When the digit position of the most significant bit of the light emission logical value of the above is different from each other, the correction data is added to or subtracted from the current value.

【0017】しかし、この偽輪郭補正方法では動画像の
動き方向が特定出来なければ効果が反対になる可能性が
ある。例えば、上位方向にビットの桁位置を検出した時
補正データを減算するが、前述したように画像が左方向
に動いているときに上記演算を行うとかえって偽輪郭が
強調され効果が反対になる場合が生じてくる。同様に下
位方向にビットを検出した時補正データを加算するが、
画像が反対方向に移動している場合は効果が逆となる。
また、速度の速い動画像にも対応できない欠点を有して
いる。
However, in this false contour correction method, the effect may be reversed if the moving direction of the moving image cannot be specified. For example, when the digit position of the bit is detected in the upper direction, the correction data is subtracted. However, as described above, when the above operation is performed when the image is moving to the left, the false contour is emphasized and the effect is reversed. A case arises. Similarly, when a bit is detected in the lower direction, correction data is added.
The effect is reversed if the image is moving in the opposite direction.
In addition, it has a disadvantage that it cannot cope with a high-speed moving image.

【0018】[0018]

【発明が解決しようとする課題】このように、従来から
ある偽輪郭の抑止に関する技術では、動きの速い動画像
に発生する偽輪郭の防止には十分に対応することができ
なかった。
As described above, the conventional technique relating to the suppression of false contours has not been able to sufficiently cope with the prevention of false contours occurring in fast-moving moving images.

【0019】本発明は、以上のような実情に鑑みてなさ
れたもので、サブフィールド法で階調表示を行う表示装
置において、動画を目で追従したときの偽輪郭の発生を
大幅に抑制できる動画像表示方法及び動画像表示装置を
提供することを目的とする。
The present invention has been made in view of the above circumstances, and in a display device that performs gradation display by the subfield method, it is possible to greatly suppress the occurrence of false contours when a moving image is visually followed. It is an object to provide a moving image display method and a moving image display device.

【0020】[0020]

【課題を解決するための手段】上記課題を達成するため
に、本発明は以下のような手段を講じた。
Means for Solving the Problems In order to achieve the above object, the present invention takes the following measures.

【0021】請求項1記載の発明は、偽輪郭の発生する
信号レベル近傍の画素の動きを捉え、画素の動きに応じ
て現画像データを補正する構成を採る。この構成によれ
ば、偽輪郭の発生する信号レベル近傍で画素の動きを捉
えることで、画素値の分布の偏りに影響されることな
く、画像の局所的な変化を高速に検出することができ
る。偽輪郭部の発生する画素の動きは極めて局所的な検
出で十分であり、計算時間、回路構成等を簡単にでき
る。
The first aspect of the present invention employs a configuration in which the movement of a pixel near a signal level at which a false contour occurs is captured, and the current image data is corrected in accordance with the movement of the pixel. According to this configuration, by capturing the motion of the pixel in the vicinity of the signal level where the false contour occurs, a local change in the image can be detected at high speed without being affected by the bias of the distribution of the pixel values. . Very local detection of the motion of the pixel where the false contour portion occurs is sufficient, and the calculation time, circuit configuration, and the like can be simplified.

【0022】請求項2記載の発明は、偽輪郭の発生する
信号レベル近傍の区間をしきい値により現フィールド画
像及び前フィールド画像を2値化し、2値化画像を比較
して動いた画素の移動画素数及び移動方向を検出し、現
フィールド画像で偽輪郭の発生する信号レベルを持った
動き画素をその移動画素数及び移動方向に応じて補正す
る構成を採る。この構成によれば、偽輪郭の発生する信
号レベル近傍のしきい値にて現フィールド画像及び前フ
ィールド画像を2値化するので、少領域でも原画像の特
徴を反映したものとなり、偽輪郭部の発生する画素の動
きを検出できる。また、動きの検出された画素の移動画
素数及び移動方向に応じて補正するので偽輪郭の発生を
防止できる。
According to a second aspect of the present invention, the current field image and the previous field image are binarized in a section near the signal level at which a false contour occurs by using a threshold value, and the binarized image is compared with a moving pixel. The number of moving pixels and the moving direction are detected, and a moving pixel having a signal level at which a false contour occurs in the current field image is corrected in accordance with the number of moving pixels and the moving direction. According to this configuration, since the current field image and the previous field image are binarized using the threshold value near the signal level at which the false contour occurs, the characteristics of the original image are reflected even in a small area. Can be detected. Further, since the correction is made in accordance with the number of moving pixels and the moving direction of the pixel whose motion has been detected, the occurrence of false contour can be prevented.

【0023】請求項3記載の発明は、現フィールド2値
化画像を複数の検出ブロックに分割し、検出ブロック毎
に前フィールド2値化画像内に参照領域を設定し、参照
領域内に複数設定した参照ブロックと検出ブロックとの
一致度を評価し、評価値の最も高い参照ブロックと前記
検出ブロックとの位置関係から動き画素の移動画素数及
び移動方向を検出する構成を採る。この構成によれば、
偽輪郭が発生しない画像の動きベクトルは無視すること
ができ、偽輪郭の発生する近傍の2値画像で動きを検出
することから、例えば8ビットで表された画素値(多値
画像)を用いる場合に比べて減算、比較等の演算時間を
大幅に減らすことができ、動きの速い動画像に対しても
十分に対応できる。
According to a third aspect of the present invention, the current field binary image is divided into a plurality of detection blocks, a reference area is set in the previous field binary image for each detection block, and a plurality of reference areas are set in the reference area. The degree of coincidence between the reference block and the detected block is evaluated, and the number of moving pixels and the moving direction of the moving pixel are detected from the positional relationship between the reference block having the highest evaluation value and the detected block. According to this configuration,
Since a motion vector of an image in which a false contour does not occur can be ignored, and a motion is detected in a binary image in the vicinity where a false contour occurs, a pixel value (multi-valued image) represented by, for example, 8 bits is used. As compared with the case, the operation time for subtraction, comparison, and the like can be significantly reduced, and it is possible to sufficiently cope with a moving image with fast movement.

【0024】請求項4記載の発明は、検出ブロックと参
照ブロックとの比較で動きの検出されなかった検出ブロ
ックを不定ブロックとして仮登録し、動きが検出された
既知ブロックに囲まれた不定ブロックを既知ブロックと
同じ移動画素数及び移動方向にする構成を採る。この構
成によれば、動きが検出された既知ブロックに囲まれた
不定ブロックを既知ブロックと同じ動きがあったものと
して扱うので、動画像のエッジ部を含む複数のブロック
が1つ又は複数のブロックを囲む場合であっても、囲ま
れたブロックの動きを検出できる。
According to a fourth aspect of the present invention, a detected block in which no motion is detected in a comparison between a detected block and a reference block is temporarily registered as an undefined block, and an undefined block surrounded by a known block in which a motion is detected. A configuration is adopted in which the number of moving pixels and the moving direction are the same as those of the known block. According to this configuration, the indefinite block surrounded by the known block in which the motion has been detected is treated as having the same motion as the known block, so that the plurality of blocks including the edge portion of the moving image is one or more blocks. , The motion of the enclosed block can be detected.

【0025】請求項5記載の発明は、不定ブロックの処
理は、それを囲む既知ブロックの移動画素数及び移動方
向により線形補間により、当該検出ブロックの移動画素
数及び移動方向を求める構成を採る。この構成によれ
ば、動きが検出された既知ブロックに囲まれた不定ブロ
ックをその近傍既知ブロックから線形補間により求める
ので、動画像のエッジ部を含む複数のブロックが1つ又
は複数の不定ブロックを囲む場合であっても、囲まれた
ブロックの動きをさらに高精度に検出できる。
According to a fifth aspect of the present invention, the processing of an undefined block employs a configuration in which the number of moving pixels and the moving direction of the detection block are obtained by linear interpolation based on the number of moving pixels and the moving direction of a known block surrounding the block. According to this configuration, the undefined block surrounded by the known block in which the motion is detected is obtained by linear interpolation from the neighboring known blocks, so that a plurality of blocks including the edge portion of the moving image is replaced with one or a plurality of undefined blocks. Even in the case of surrounding, the movement of the surrounded block can be detected with higher accuracy.

【0026】請求項6記載の発明は、検出ブロック毎に
R,G,Bの各色成分について移動画素数及び移動方向
を検出し、多数決判定により当該検出ブロックの移動画
素数及び移動方向を確定する構成を採る。この構成によ
れば、多数決判定により当該検出ブロックの移動画素数
及び移動方向を確定するので、そのブロックの動き判定
が実現できる。
According to the present invention, the number of moving pixels and the moving direction of each of the R, G, and B color components are detected for each detection block, and the number of moving pixels and the moving direction of the detected block are determined by majority decision. Take the configuration. According to this configuration, since the number of moving pixels and the moving direction of the detection block are determined by the majority decision, the motion of the block can be determined.

【0027】請求項7記載の発明は、各色成分の当該検
出ブロックとその近傍ブロックの移動画素数及び移動方
向を取り出す際に、各色成分毎に数値の大きい順に並び
替えを行い、その中央値を代表値として求める構成を採
る。この構成によれば、当該検出ブロックの移動画素数
及び移動方向を、各色成分毎に求められた移動画素数及
び移動方向とそれを囲む近傍ブロックの移動画素数及び
移動方向の複数の値を使用して求めるため、さらに高精
度の動き判定が実現できる。
According to the seventh aspect of the present invention, when extracting the number of moving pixels and the moving direction of the detected block of each color component and its neighboring blocks, the color components are rearranged in descending order of numerical value, and the median value is calculated. A configuration to be obtained as a representative value is adopted. According to this configuration, the number of moving pixels and the moving direction of the detection block are determined using the number of moving pixels and the moving direction obtained for each color component and a plurality of values of the number of moving pixels and the moving direction of a neighboring block surrounding the moving pixel. Therefore, motion determination with higher accuracy can be realized.

【0028】請求項8記載の発明は、現フィールド画像
及び前フィールド画像を、2のN乗の信号レベル又はこ
れら信号レベルを組み合わせた信号レベルを中心とした
多階層のしきい値で2値化し、多階層画像データ毎に動
きを検出する構成を採る。この構成によれば、2のN乗
の信号レベル境界付近で偽輪郭が発生するので、偽輪郭
が発生する各信号レベル近傍の2値画像を抽出すること
ができ、多階層画像データ毎に動きを検出するので各信
号レベルで発生する偽輪郭をそれぞれ抑止できる。
According to the present invention, the current field image and the previous field image are binarized with a multi-level threshold centering on a signal level of 2 N or a signal level obtained by combining these signal levels. , A configuration for detecting a motion for each multi-layer image data. According to this configuration, a false contour occurs near the 2Nth signal level boundary, so that a binary image in the vicinity of each signal level at which the false contour occurs can be extracted. Is detected, false contours generated at each signal level can be suppressed.

【0029】請求項9記載の発明は、現フィールド画像
及び前フィールド画像を2値化前に平滑化処理する構成
を採る。この構成によれば、現フィールド画像及び前フ
ィールド画像のノイズを除去できるので、正確に動きを
検出できる。
The ninth aspect of the present invention employs a configuration in which the current field image and the previous field image are smoothed before binarization. According to this configuration, since the noise of the current field image and the previous field image can be removed, the motion can be accurately detected.

【0030】請求項10記載の発明は、偽輪郭の発生す
る信号レベルに対応して移動画素数及び移動方向に応じ
た補正データを補正テーブルに登録しておき、検出した
動き画素の移動画素数及び移動方向に基づいて前記補正
テーブルから補正データを取り出す構成を採る。この構
成によれば、動き画素の移動画素数及び移動方向を検出
でき、移動画素数及び移動方向に基づいて細かく補正デ
ータを設定した補正テーブルを使って補正することがで
きる。
According to a tenth aspect of the present invention, the correction data corresponding to the number of moving pixels and the moving direction is registered in a correction table corresponding to the signal level at which a false contour occurs, and the number of moving pixels of the detected moving pixel is registered. And taking out correction data from the correction table based on the moving direction. According to this configuration, the number of moving pixels and the moving direction of the moving pixel can be detected, and correction can be performed using a correction table in which correction data is finely set based on the number of moving pixels and the moving direction.

【0031】請求項11記載の発明は、検出ブロック毎
に検出した移動画素数及び移動方向を動きベクトルテー
ブルに登録する一方、現フィールド画像から偽輪郭の発
生する信号レベルの座標データを検出して補正候補画素
を抽出し、この補正候補画素が属する検出ブロックの移
動画素数及び移動方向を前記動きベクトルテーブルから
取りだし、取り出された移動画素数及び移動方向と前記
偽輪郭発生信号レベルとに対応した補正データを前記補
正テーブルから取り出す構成を採る。この構成によれ
ば、偽輪郭の発生する信号レベルを持ち、かつ動きの検
出された画素について、信号レベル、動き画素数及び方
向に応じた最適な補正データを取得することができる。
According to an eleventh aspect of the present invention, the number of moving pixels and the moving direction detected for each detection block are registered in a motion vector table, and the coordinate data of a signal level at which a false contour occurs is detected from the current field image. A correction candidate pixel is extracted, and the number of moving pixels and the moving direction of the detection block to which the correction candidate pixel belongs are taken out from the motion vector table, and the number of moving pixels and the moving direction taken out correspond to the false contour occurrence signal level. The correction data is taken out from the correction table. According to this configuration, it is possible to obtain optimal correction data corresponding to the signal level, the number of motion pixels, and the direction for a pixel having a signal level at which a false contour occurs and for which motion has been detected.

【0032】請求項12記載の発明は、偽輪郭の発生す
る信号レベルの検出密度に基づいて補正候補画素を決定
する構成を採る。この構成によれば、視覚的に偽輪郭が
確認される画素密度の領域にある画素だけ補正すること
ができる。
According to a twelfth aspect of the present invention, a configuration is adopted in which a correction candidate pixel is determined based on the detection density of a signal level at which a false contour occurs. According to this configuration, it is possible to correct only pixels in a pixel density region where a false contour is visually confirmed.

【0033】請求項13記載の発明は、偽輪郭の発生す
る信号レベル近傍のしきい値で現フィールド画像及び前
フィールド画像を2値化する2値化処理手段と、フィー
ルド間で2値化画像を比較して画素の動きを検出する動
き検出手段と、偽輪郭の発生する信号レベル毎に移動画
素数及び移動方向に対応した補正データが登録された補
正テーブルと、現フィールド画像から偽輪郭の発生する
信号レベルの画素を抽出する抽出手段と、この抽出画素
の動き検出結果及び信号レベルに対応した補正データを
前記補正テーブルから取り出して当該画素を補正する補
正手段とを具備する構成を採る。この構成によれば、P
DP等において偽輪郭が見えない動画像表示を確実に得
ることができる。
According to a thirteenth aspect of the present invention, there is provided a binarization processing means for binarizing a current field image and a previous field image with a threshold value near a signal level at which a false contour occurs, and a binarization image between fields. And a correction table in which correction data corresponding to the number of moving pixels and the moving direction are registered for each signal level at which a false contour occurs, and a false contour of the false contour from the current field image. The present invention employs a configuration including extraction means for extracting a pixel having a generated signal level, and correction means for extracting correction data corresponding to a motion detection result and a signal level of the extracted pixel from the correction table and correcting the pixel. According to this configuration, P
A moving image display in which false contours cannot be seen in DP or the like can be reliably obtained.

【0034】[0034]

【発明の実施の形態】次に、本発明の実施の形態を図面
を参照して詳細に説明する。図1は、本発明の動画像表
示方法を適用した階調画像表示装置の全体構成を示して
いる。この階調画像表示装置は、ビデオ信号処理部1で
ビデオ信号をR,G,Bの各色成分に分離し、A/D変
換部2でR,G,Bの画像データに変換してから動き検
出処理部3に入力する。動き検出処理部3で、平滑化処
理、多階層2値化処理、ブロックマッチング処理、多数
決・統合判定処理を実施して入力画像の動き画素数及び
移動方向を検出する。動き検出処理部3で検出した動き
画素数、移動方向及び検出ブロック情報を、動き画素数
及び移動方向に応じた補正量が設定された補正テーブル
を備えたデータ補正処理部4へ入力して偽輪郭の発生す
る画素の階調データを補正して出力処理部5へ出力す
る。出力処理部5は、各画素の階調データを電圧印可時
間幅に対応したパルス数に変換してXスキャンドライバ
7及びYスキャンドライバ8に与えることでPDPで構
成された画像表示部6に中間調表示を行っている。
Next, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 shows the overall configuration of a gradation image display device to which the moving image display method of the present invention is applied. In this gradation image display device, a video signal processing unit 1 separates a video signal into R, G, and B color components, and an A / D conversion unit 2 converts the video signal into R, G, and B image data. Input to the detection processing unit 3. The motion detection processing unit 3 performs smoothing processing, multi-level binarization processing, block matching processing, and majority / integration determination processing to detect the number of motion pixels and the moving direction of the input image. The number of motion pixels, the moving direction, and the detected block information detected by the motion detection processing unit 3 are input to the data correction processing unit 4 provided with a correction table in which a correction amount according to the number of motion pixels and the moving direction is set, and the data is false. The gradation data of the pixel having the contour is corrected and output to the output processing unit 5. The output processing unit 5 converts the gradation data of each pixel into a pulse number corresponding to the voltage application time width, and supplies the pulse number to the X scan driver 7 and the Y scan driver 8, thereby providing an intermediate signal to the image display unit 6 composed of a PDP. Key display is being performed.

【0035】なお、同期分離処理部9においてビデオ信
号から同期信号を分離して入力ビデオ信号に同期したタ
インミング信号をタイミング発生部10で生成して各部
に与えている。動き検出処理部3の具体的な構成を図2
に示す。A/D変換部2から入力した原画像データを、
現フィールドブロックB1に入力するとともに、遅延回
路20で1フィールド分遅延させてから前フィールドブ
ロックB2へ入力する。現フィールドブロックB1で
は、現フィールドの原画像データをR,G,Bの3つの
平滑化フィルタからなる平滑化フィルタブロック21−
1に入力し、各色毎に平滑化処理して原画像に含まれて
いるノイズ成分を除去する。平滑化処理した原画像デー
タをR,G,B毎に設けられた多階層2値化処理部から
なる多階層2値化ブロック22−1に入力して各色毎に
複数の2値化しきい値で2値化処理する。ここで、2値
化しきい値は偽輪郭の発生する信号レベル近傍に設定す
る。例えば、8ビットで256階調の表示を行う場合で
あれば、31から32、63から64、127から12
8及びその逆の信号レベルを含んだ値に設定する。各し
きい値毎に得られた2値化画像データ(多階層画像デー
タ)はそれぞれ多階層メモリブロック23−1の各色の
画像メモリに格納する。
The synchronization separation processing section 9 separates the synchronization signal from the video signal, generates a timing signal synchronized with the input video signal in the timing generation section 10 and gives the timing signal to each section. FIG. 2 shows a specific configuration of the motion detection processing unit 3.
Shown in The original image data input from the A / D converter 2 is
The signal is input to the current field block B1 and delayed by one field by the delay circuit 20 before being input to the previous field block B2. In the current field block B1, original image data of the current field is converted into a smoothing filter block 21- composed of three smoothing filters of R, G, and B.
1 and smoothing processing is performed for each color to remove noise components included in the original image. The smoothed original image data is input to a multi-level binarization block 22-1 including a multi-level binarization processing unit provided for each of R, G, and B, and a plurality of binarization thresholds are provided for each color. Performs binarization processing. Here, the binarization threshold is set in the vicinity of the signal level at which a false contour occurs. For example, when displaying 256 gradations with 8 bits, 31 to 32, 63 to 64, and 127 to 12
8 and the reverse signal level. The binarized image data (multi-layer image data) obtained for each threshold value is stored in the image memory of each color of the multi-layer memory block 23-1.

【0036】1フィールド前の原画像を処理する前フィ
ールドブロックB2は上記現フィールドブロックB1と
同様に構成されている。すなわち、平滑化フィルタブロ
ック21−2で1フィールド前の原画像データを各色毎
に平滑化処理し、R,G,B毎に設けられた多階層2値
化処理部からなる多階層2値化ブロック22−2で各色
毎に複数の2値化しきい値で2値化処理し、各しきい値
毎に得られた多階層画像データを多階層メモリブロック
23−2の各色の画像メモリに格納する。
The field block B2 before processing the original image one field before has the same configuration as that of the current field block B1. That is, the original image data one field before is smoothed for each color by the smoothing filter block 21-2, and the multi-level binarization processing unit provided for each of R, G, B is provided. In block 22-2, binarization processing is performed with a plurality of binarization thresholds for each color, and the multi-layer image data obtained for each threshold is stored in the image memory of each color in the multi-layer memory block 23-2. I do.

【0037】動き検出のためのブロックマッチング処理
において、現フィールド画像から切り出す検出ブロック
KBのアドレスマッピングをアドレスマッピング部24
−1が行い、前フィールド画像から切り出す参照ブロッ
クRBのブロックのアドレスマッピングをアドレスマッ
ピング部24−1が行う。検出ブロックKB及び参照ブ
ロックRBの各画像データは動きベクトル検出部25へ
入力する。
In the block matching process for motion detection, the address mapping of the detection block KB cut out from the current field image is performed by the address mapping unit 24.
-1 is performed, and the address mapping unit 24-1 performs address mapping of the block of the reference block RB cut out from the previous field image. Each image data of the detection block KB and the reference block RB is input to the motion vector detection unit 25.

【0038】動きベクトル検出部25は、2値演算部が
各色毎に設けられた2値演算ブロック26と、比較部が
各色毎に設けられた比較検出ブロック27とで構成さ
れ、ブロックマッチングによってフィールド間の画像の
動きを求める。
The motion vector detecting section 25 comprises a binary calculating block 26 in which a binary calculating section is provided for each color, and a comparison detecting block 27 in which a comparing section is provided for each color. Find the movement of the image between.

【0039】多数決・統合判定部28は、各検出ブロッ
クKBの動き画素数及び動き方向を判定して、判定結果
を動きベクトルテーブル29に登録する。
The majority / integration determination unit 28 determines the number of motion pixels and the direction of motion of each detection block KB, and registers the determination result in the motion vector table 29.

【0040】データ補正処理部4は、動きベクトルテー
ブル29及び予め視覚実験に基づいて作り込んだ補正テ
ーブルにより偽輪郭部の画素データを補正する。
The data correction processing unit 4 corrects the pixel data of the false contour portion using the motion vector table 29 and a correction table created based on a visual experiment in advance.

【0041】以上のように構成された階調画像表示装置
の動作の詳細について説明する。図10は、図2に示す
動き検出処理部3の各ブロックでの処理内容を概念的に
抜き出した図である。以下、図10に示す動き検出処理
部3の各ブロックでの処理内容について説明する。
The details of the operation of the gradation image display device configured as described above will be described. FIG. 10 is a diagram conceptually extracting the processing contents of each block of the motion detection processing unit 3 shown in FIG. Hereinafter, the processing content of each block of the motion detection processing unit 3 shown in FIG. 10 will be described.

【0042】現フィールド画像及び前フィールド画像の
それぞれにつき、偽輪郭の発生する信号レベルに設定し
た2値化しきい値により2値化処理がなされる。
Each of the current field image and the previous field image is subjected to a binarization process using a binarization threshold set to a signal level at which a false contour occurs.

【0043】ここで、多階層2値化画像の概念について
図11を参照して説明する。図11は横軸が画素位置、
縦軸が画素値を示す。画素値の変域はn個のしきい値T
h1からThn(同図ではn=5)により、(n+1)
個の区間に分割されており、隣接区間では値が異なるよ
う2値化画素値が割り振られ、各画素は画素値がどの区
間に属するかに応じて2値化される。
Here, the concept of a multi-level binary image will be described with reference to FIG. FIG. 11 shows the pixel position on the horizontal axis,
The vertical axis indicates the pixel value. The domain of the pixel value is n thresholds T
From h1 to Thn (n = 5 in the figure), (n + 1)
It is divided into a plurality of sections, and binarized pixel values are assigned so that values are different in adjacent sections, and each pixel is binarized according to which section the pixel value belongs to.

【0044】この2値化方法は画素値の分布の偏りに影
響されることなく、画像の局所的な変化を表すことがで
きるので、2値化された画像は動きベクトル検出のブロ
ックのような少量域内でも原画像の特徴を反映したもの
となる。偽輪郭の発生する画素の動きは極めて局所的な
検出で十分であり、計算時間、回路構成等を簡単にでき
る。
Since this binarization method can represent a local change in an image without being affected by the bias of the distribution of pixel values, the binarized image can be used as a block for detecting a motion vector. Even in a small area, the characteristics of the original image are reflected. Very local detection of the motion of a pixel where a false contour occurs is sufficient, and the calculation time, circuit configuration, and the like can be simplified.

【0045】次に動きベクトル検出部25でのブロック
マッチング処理について説明する。フィールド間の画像
の動きを求める方法としてブロックマッチング方法を用
いている。この方法は、前述したように検出ブロックK
Bを水平16画素、垂直16画素に、参照ブロックRB
も検出ブロックKBと同じサイズに設定したとき、参照
ブロックRBを含む参照領域Rを水平48画素、垂直4
8画素とすれば、水平方向(x方向)の動き画素数は−
16画素から+16画素まで検出でき、垂直方向(y方
向)の動き画素数も同様に−16画素から+16画素ま
で検出できる。動画像が表示画面で動くとき、その偽輪
郭が目立つのは、そのフィールド間の動きが6画素から
15画素近傍であるので、動き画素数の検出能力は上記
の程度必要である。図12に示すように、現フィールド
と前フィールド間の画像の動きを矩形のブロック単位で
求め、現フィールドを複数の参照領域Rに分割した各検
出ブロックKBについて最もよく一致する部分を前フィ
ールドの参照領域Rの中に含まれる参照ブロックRBの
中から見つけ、この間の量を動きベクトルとして求め
る。
Next, the block matching processing in the motion vector detecting section 25 will be described. A block matching method is used as a method for obtaining the motion of an image between fields. This method uses the detection block K as described above.
B into 16 horizontal pixels and 16 vertical pixels, the reference block RB
Is set to the same size as the detection block KB, the reference area R including the reference block RB is 48 pixels horizontally and 4 pixels vertically.
Assuming eight pixels, the number of motion pixels in the horizontal direction (x direction) is −
From 16 pixels to +16 pixels can be detected, and similarly, the number of motion pixels in the vertical direction (y direction) can be detected from -16 pixels to +16 pixels. When the moving image moves on the display screen, the false contour is conspicuous because the movement between the fields is in the vicinity of 6 to 15 pixels. As shown in FIG. 12, the motion of the image between the current field and the previous field is obtained in units of rectangular blocks, and the best match between each detection block KB obtained by dividing the current field into a plurality of reference regions R is defined as the previous field. It is found among the reference blocks RB included in the reference region R, and the amount between them is obtained as a motion vector.

【0046】この際、ブロックの一致の度合いは定めら
れた評価関数値の大小により判定し動きベクトルの検出
は参照領域Rに含まれる多数の参照ブロックRBの中か
ら評価関数最小値を与えるものを探し出すことにより行
う。
At this time, the degree of coincidence of the blocks is determined based on the magnitude of the determined evaluation function value, and the motion vector is detected from among a number of reference blocks RB included in the reference region R, which gives the minimum value of the evaluation function. We do this by finding out.

【0047】上記方法に基づいた構成を濃淡画像で行う
場合、評価関数値の計算に多値(例えば8ビット)で表
された画素値を用いて減算、比較等の多量の演算を行う
ことにより実時間処理で評価出来る参照ブロックRBの
数が限られているため、正しい動きベクトルを与える参
照ブロックRBが評価されない場合が生じ、結果として
動きベクトルの検出精度が低くなるという問題を有して
いた。
When a configuration based on the above method is performed on a grayscale image, a large number of operations such as subtraction and comparison are performed by using pixel values represented by multiple values (for example, 8 bits) in the calculation of the evaluation function value. Since the number of reference blocks RB that can be evaluated in real-time processing is limited, there is a case where a reference block RB that gives a correct motion vector is not evaluated, resulting in a problem that the detection accuracy of the motion vector is reduced. .

【0048】PDPにおける偽輪郭部抑制のためには、
偽輪郭の発生する信号レベルが判っているため、偽輪郭
の発生する近傍の画像の動きを求めるためには、この近
傍の画像を2値化し、その2値画像の動きベクトルを求
めることにより、計算時間及び精度が向上する。また、
偽輪郭が発生しない画像の動きベクトルは無視すること
ができる。
To suppress false contours in PDP,
Since the signal level at which the false contour occurs is known, in order to determine the motion of the image near the false contour, the image in the vicinity is binarized, and the motion vector of the binary image is determined. The calculation time and accuracy are improved. Also,
A motion vector of an image in which a false contour does not occur can be ignored.

【0049】2値演算ブロック26において、一致度を
示す評価関数を計算する。図3に、検出ブロックKBサ
イズが4*4画素の場合の2値演算部の構成を示す。な
お、検出ブロックKBサイズは16*16、参照領域R
は48*48で説明するが、ここでは説明を簡単にする
ために4*4で説明する。
In the binary operation block 26, an evaluation function indicating the degree of coincidence is calculated. FIG. 3 shows the configuration of the binary operation unit when the detection block KB size is 4 * 4 pixels. Note that the detection block KB size is 16 * 16, and the reference area R
Is described as 48 * 48, but here, it is described as 4 * 4 for simplicity.

【0050】2値演算部は、ブロック内の4ラインにつ
いてフィールド間のマッチングを検出する2値ラインマ
ッチング部30−1、30−2、30−3、30−4を
備えている。2値ラインマッチング部30−1は、現フ
ィールドと前フィールドとの間で第1ラインのラインマ
ッチングをみる。検出ブロックKBの第1ラインのライ
ンデータをシフトレジスタ31−1に入力し、参照ブロ
ックRBの第1ラインのラインデータをシフトレジスタ
31−2に入力する。シフトレジスタ31−1、31−
2は、4つの画素データを保持することができ、2つの
シフトレジスタから同一画素位置の画素データが同一の
排他的論理和回路32−1、32−2、32−3、32
−4へ入力するようにしている。排他的論理和回路の出
力をビット加算回路33で加算してマルチプレクサ34
へ入力する。
The binary operation unit includes binary line matching units 30-1, 30-2, 30-3, and 30-4 for detecting matching between fields for four lines in the block. The binary line matching unit 30-1 checks the line matching of the first line between the current field and the previous field. The line data of the first line of the detection block KB is input to the shift register 31-1, and the line data of the first line of the reference block RB is input to the shift register 31-2. Shift registers 31-1, 31-
2 can hold four pieces of pixel data, and the two exclusive-OR circuits 32-1, 32-2, 32-3, and 32 have the same pixel data from the two shift registers.
-4. The output of the exclusive OR circuit is added by a bit adder circuit 33 and a multiplexer 34
Enter

【0051】2値ラインマッチング部30−2、30−
3、30−4も、上記2値ラインマッチング部30−1
と同じ構成を有しており、それぞれ第2から第4ライン
のラインマッチングを評価してライン評価値となるビッ
ト加算値をマルチプレクサ34へ入力する。マルチプレ
クサ34を介して2値ラインマッチング部30−1、3
0−2、30−3、30−4の出力を選択的に加算器3
5へ入力して4ラインのライン評価値を加算した加算値
を1ブロック分のブロック評価値としてレジスタ36に
保存する。レジスタ37は出力制御のためのものであ
る。
Binary line matching units 30-2, 30-
3 and 30-4 are also the binary line matching unit 30-1.
, And evaluates the line matching of the second to fourth lines, and inputs a bit addition value serving as a line evaluation value to the multiplexer 34. Via the multiplexer 34, the binary line matching units 30-1, 3
0-2, 30-3 and 30-4 are selectively added to the adder 3
5 and the sum of the four line evaluation values is stored in the register 36 as a block evaluation value for one block. The register 37 is for output control.

【0052】上記2値演算部において、多階層画像メモ
リから信号線を介して供給された検出ブロックKB、参
照ブロックRBのデータは走査線単位で2値ラインマッ
チング部30に送られる。各ラインマッチング部30−
1から30−4では、シフトレジスタ31−1、31−
2を用いて画素毎の2値データが取り出され、ブロック
内で同位置の画素同士で排他的論理輪回路32−1から
32−4により一致、不一致が評価され、不一致のとき
値1が、一致のとき値0がビット加算回路33に供給さ
れる。
In the above-mentioned binary operation unit, the data of the detection block KB and the reference block RB supplied from the multi-level image memory via the signal lines are sent to the binary line matching unit 30 in scanning line units. Each line matching unit 30-
In 1 to 30-4, shift registers 31-1, 31-
2 is used to extract binary data for each pixel. Pixels at the same position in the block are evaluated for coincidence and non-coincidence by exclusive logic circuits 32-1 to 32-4. When they match, the value 0 is supplied to the bit addition circuit 33.

【0053】ビット加算回路33ではこれらの和が求め
られる。このビット加算値は走査線毎の不一致画素数を
示す。この和が信号線を介して2値ラインマッチング部
30より出力され、マルチプレクサ34に供給される。
マルチプレクサ34では、選択制御線より送られた選択
制御信号により各ラインのビット加算回路33の出力を
順次選択していき、信号線を介して加算器35に供給す
る。加算器35及びレジスタ36によりこの入力値の和
が求められ、ブロック間の不一致画素数が評価関数値と
して求められる。
The bit addition circuit 33 calculates the sum of these. This bit addition value indicates the number of unmatched pixels for each scanning line. The sum is output from the binary line matching unit 30 via a signal line and supplied to the multiplexer 34.
The multiplexer 34 sequentially selects the output of the bit addition circuit 33 of each line according to the selection control signal sent from the selection control line, and supplies the output to the adder 35 via the signal line. The sum of the input values is obtained by the adder 35 and the register 36, and the number of mismatched pixels between blocks is obtained as an evaluation function value.

【0054】比較検出ブロック27の動作について説明
する。図4に比較検出ブロック27の比較部の構成を示
している。比較部は、最小評価関数値を保持するレジス
タ41、最小評価関数値を示した参照ブロックRBのシ
フト量を保持するレジスタ42、現在の最小評価関数値
と今回比較対象の2値演算部出力(あるシフト量のブロ
ック評価関数値)とを比較する比較器43、マルチプレ
クサ44、45で構成されている。
The operation of the comparison detection block 27 will be described. FIG. 4 shows the configuration of the comparison unit of the comparison detection block 27. The comparison unit includes a register 41 for holding the minimum evaluation function value, a register 42 for holding the shift amount of the reference block RB indicating the minimum evaluation function value, and the current minimum evaluation function value and the output of the binary operation unit to be compared this time ( It comprises a comparator 43 for comparing with a block evaluation function value of a certain shift amount, and multiplexers 44 and 45.

【0055】比較部において、レジスタ41に各時点に
おける評価関数値の最小値が保持され、レジスタ42に
その最小値に対応する参照ブロックRBのシフト量が保
持される。比較器43では信号線を介して供給される評
価関数値とレジスタ41から供給される評価関数最小値
とが比較され、その比較結果が信号線を介して2つのマ
ルチプレクサ44、45へ選択制御信号として送出され
る。2値演算部からの入力が小のとき、マルチプレクサ
44は2値演算部からの入力評価関数値で、レジスタ4
1の内容を更新し、かつマルチプレクサ45は2値演算
部からの入力シフト量でレジスタ42の内容を更新す
る。最終的にレジスタ42に保持されているシフト量が
この検出ブロックKBの動きベクトルとして多数決・統
合判定部28へ送出される。
In the comparison section, the register 41 holds the minimum value of the evaluation function value at each time, and the register 42 holds the shift amount of the reference block RB corresponding to the minimum value. The comparator 43 compares the evaluation function value supplied via the signal line with the minimum value of the evaluation function supplied from the register 41, and outputs the comparison result to the two multiplexers 44 and 45 via the signal line. Is sent as When the input from the binary operation unit is small, the multiplexer 44 uses the input evaluation function value from the binary operation unit
1, and the multiplexer 45 updates the contents of the register 42 with the input shift amount from the binary operation unit. Finally, the shift amount held in the register 42 is sent to the majority / integration determination unit 28 as the motion vector of the detection block KB.

【0056】多数決・統合判定部28の動作について説
明する。ここでは各R,G,B成分の検出ブロックと参
照ブロックとの比較で動きの検出されなかった検出ブロ
ック、即ち、不定ブロックを周囲の既知ブロックの情報
から演算する処理と各R,G,B成分の検出ブロックの
動きベクトル情報から一つの動きベクトルに統合演算す
る処理を行う。
The operation of the majority / integration determination section 28 will be described. Here, a process of calculating a detection block in which no motion has been detected by comparing the detection block of each R, G, B component with the reference block, that is, an indefinite block from information of surrounding known blocks, and processing of each R, G, B A process of integrating and calculating one motion vector from the motion vector information of the component detection block is performed.

【0057】多数決・統合判定部28に動きベクトル検
出部25が現フィールドを複数分割した各検出ブロック
KBについて検出した動きベクトル情報が入力する。多
数決・統合判定部28は、不定ブロック処理及び多数決
処理により各検出ブロックKBの動き画素数及び動き方
向を判定して、判定結果を動きベクトルテーブル29に
登録する。
The motion vector information detected by the motion vector detection unit 25 for each detection block KB obtained by dividing the current field into a plurality of parts is input to the majority / integration determination unit 28. The majority / integration determination unit 28 determines the number of motion pixels and the motion direction of each detection block KB by the indefinite block process and the majority process, and registers the determination result in the motion vector table 29.

【0058】多数決・統合判定部28で実行される不定
ブロック処理について図13から図15を参照して説明
する。
The indefinite block processing executed by the majority / integration determining section 28 will be described with reference to FIGS.

【0059】多階層2値画像をブロック毎の区切った場
合、そのエッジ部がブロック内にある場合は動き画素数
を求めることができるが、ブロック内の画像データが全
て“1”の領域およびその領域が隣接している場合(図
13のFの符号を付した領域)は、そのブロックの領域
の動き画素数が見つけられない。
When the multi-level binary image is divided for each block, the number of motion pixels can be obtained if the edge portion is within the block. When the regions are adjacent to each other (the region indicated by the symbol F in FIG. 13), the number of motion pixels in the region of the block cannot be found.

【0060】このような場合は、動きベクトルの検出時
にこのブロック域での動き画素数を不定(例えば、フラ
グを1)とし、他のブロックと区別して仮登録してお
く。そして、既知ブロックKT領域で挟まれた不定ブロ
ックFT領域の動き画素数及び方向を既知ブロックKT
から求める。不定ブロックFT領域は既知ブロックKT
領域と同じ動きをするから、これらを囲む既知ブロック
KTの動き画素数と同一値を採用する。
In such a case, when detecting a motion vector, the number of motion pixels in this block area is undefined (for example, a flag is set to 1) and temporarily registered separately from other blocks. Then, the number and direction of motion pixels of the undefined block FT area sandwiched between the known block KT areas are determined by the known block KT.
Ask from. The undefined block FT area is a known block KT.
Since the motion is the same as that of the region, the same value as the number of motion pixels of the known block KT surrounding these is adopted.

【0061】この方法として、イメージマップ法が考え
られる。例えば、2値画像サイズが水平640画素、垂
直480画素のいわゆるVGAタイプの場合、動きベク
トルの検出ブロックKBが16*16画素であると、図
14に示すようにブロック数は水平40、垂直30の計
1200個のブロック域に分割できる。このため、40
*30画素のイメージマップとして不定ブロックFTを
囲む既知ブロックKTの形状からその不定ブロックFT
を求めることができる。ここで、不定ブロックFTを2
値画像でデータ“1”の領域とし、既知ブロックKTを
データ“0”の領域とする。
As this method, an image map method can be considered. For example, in the case of a so-called VGA type having a binary image size of 640 horizontal pixels and 480 vertical pixels, if the motion vector detection block KB is 16 * 16 pixels, the number of blocks is 40 horizontal and 30 vertical as shown in FIG. Can be divided into a total of 1200 block areas. For this reason, 40
* From the shape of the known block KT surrounding the undefined block FT as an image map of 30 pixels, the undefined block FT
Can be requested. Here, the indefinite block FT is 2
It is assumed that the value image is an area of data “1” and the known block KT is an area of data “0”.

【0062】この方法では、図15に示す3*3のエッ
ジ検出ウィンドウオペレータを用いる。図15には3*
3のエッジ検出パターンの組み合わせのうち9例を示し
ている。このウィンドウで40*30のブロックイメー
ジを走査し、注目点を基準にしてエッジパターンと一致
したところがあれば、それは不定ブロックFT域と既知
ブロックKT域の境界であるから、その不定ブロックF
Tを既知ブロックKTに置き換えていく。その不定ブロ
ックFTの動き画素数は注目点を含む既知ブロックKT
の動き画素数と等しくなる。
In this method, a 3 * 3 edge detection window operator shown in FIG. 15 is used. In FIG. 15, 3 *
9 examples are shown among the combinations of 3 edge detection patterns. In this window, a 40 * 30 block image is scanned, and if there is a portion that matches the edge pattern with respect to the point of interest, it is the boundary between the undefined block FT area and the known block KT area.
T is replaced with a known block KT. The number of motion pixels of the undefined block FT is the known block KT including the point of interest.
Of motion pixels.

【0063】次に、さらに、高精度な方法である線形補
間法について説明する。図16はこの方法による不定ブ
ロックを含んだブロック関係を示す。この場合の線形補
間の手順は次のように行われる。
Next, the linear interpolation method, which is a highly accurate method, will be described. FIG. 16 shows a block relationship including an undefined block according to this method. The procedure of the linear interpolation in this case is performed as follows.

【0064】図16において、まず注目ブロック(図中
の*印)を基準として右方向へフラグ’−1’の既知ブ
ロックの探索を行い、このブロックが存在すればその動
きベクトルを取り出し、参照ブロック1とする。この
時、参照ブロック1の位置の動きベクトルを(x1,y
1)で示し、注目ブロックからの距離をd1とする。な
お、動きベクトルは、動き画素数と動き方向(+/−)
で示すものとする。
In FIG. 16, first, a known block with a flag '-1' is searched rightward with reference to the block of interest (marked with * in the figure). If this block exists, its motion vector is extracted and the reference block is extracted. Let it be 1. At this time, the motion vector at the position of the reference block 1 is (x1, y
1), and the distance from the target block is d1. Note that the motion vector is determined by the number of motion pixels and the motion direction (+/-)
It is assumed that

【0065】次に、注目ブロックを基準として左方向へ
フラグ’−1’の既知ブロックの探索を行い、このブロ
ックが存在すればその動きベクトルを取り出し、参照ブ
ロック2とする。この時、参照ブロック2の位置の動き
ベクトルを(x2,y2)で示し、注目ブロックからの
距離をd2とする。さらに、注目ブロックを基準として
上方向へフラグ’−1’の既知ブロックの探索を行い、
このブロックが存在すればその動きベクトルを取り出
し、参照ブロック3とする。この時、参照ブロック3の
位置の動きベクトルを(x3,y3)で示し、注目ブロ
ックからの距離をd3とする。最後に、注目ブロックを
基準として下方向へフラグ’−1’の既知ブロックの探
索を行い、このブロックが存在すればその動きベクトル
を取り出し、参照ブロック4とする。この時、参照ブロ
ック4の位置の動きベクトルを(x4,y4)で示し、
注目ブロックからの距離をd4とする。
Next, a known block with the flag '-1' is searched leftward with reference to the block of interest, and if this block exists, its motion vector is extracted and set as a reference block 2. At this time, the motion vector at the position of the reference block 2 is indicated by (x2, y2), and the distance from the target block is d2. Further, a search is performed for a known block with the flag '-1' in the upward direction based on the block of interest,
If this block exists, its motion vector is extracted and set as a reference block 3. At this time, the motion vector at the position of the reference block 3 is indicated by (x3, y3), and the distance from the target block is d3. Lastly, a known block with the flag '-1' is searched downward with reference to the target block, and if this block exists, its motion vector is extracted and set as a reference block 4. At this time, the motion vector at the position of the reference block 4 is indicated by (x4, y4),
The distance from the block of interest is d4.

【0066】このように、左右上下方向の探索により取
り出した参照ブロックと注目ブロックとの距離から、各
参照ブロックへの重みを算出し、その重みと参照ブロッ
クの動きベクトルを用いて、以下に示す線形補間による
演算式に従って注目ブロックの動きベクトルを求める。
As described above, the weight for each reference block is calculated from the distance between the reference block extracted by the search in the horizontal and vertical directions and the target block, and the weight and the motion vector of the reference block are used as follows. A motion vector of the block of interest is obtained according to an arithmetic expression based on linear interpolation.

【0067】図16から、各参照ブロックへの重みw
は、次式で与えられる。
From FIG. 16, the weight w for each reference block is obtained.
Is given by the following equation.

【0068】[0068]

【数1】 そして、線形補間によって求める注目ブロックの動きベ
クトル(mx,my)は
(Equation 1) Then, the motion vector (mx, my) of the target block obtained by linear interpolation is

【0069】[0069]

【数2】 となる。(Equation 2) Becomes

【0070】ここで、Here,

【0071】[0071]

【数3】 である。これをブロック個数分繰り返し行い、不定ブロ
ックの動きベクトルが線形補間によって求められる。
(Equation 3) It is. This is repeated for the number of blocks, and the motion vector of the undefined block is obtained by linear interpolation.

【0072】図17は、線形補間の図形的位置関係を示
す。ここで、i,j,k,lは注目点Pからの距離で、
Pi,Pj,Pk,PlはPからそれぞれi,j,k,
lだけ離れた点の値とすると、注目ブロック位置Pの補
間式は以下ようになる。
FIG. 17 shows a graphical positional relationship of linear interpolation. Here, i, j, k, l are distances from the point of interest P,
Pi, Pj, Pk, and Pl are i, j, k,
Assuming that the value is a point separated by l, the interpolation formula for the target block position P is as follows.

【0073】各点への重みをIとすると、Assuming that the weight for each point is I,

【0074】[0074]

【数4】 で与えられるから、求める点の値(Px、Py)は(Equation 4) The value of the point to be obtained (Px, Py) is given by

【0075】[0075]

【数5】 となる。ここで、(Equation 5) Becomes here,

【0076】[0076]

【数6】 である。(Equation 6) It is.

【0077】以上のように、R,G,B画像毎に不定ブ
ロックFT領域の動きベクトルを周辺の既知ブロックK
Tの動き画素数から演算式により求める。そして、次に
R,G,Bそれぞれの動きベクトルから多数決判定など
の統合処理により各ブロックの動きベクトル値を求め
る。
As described above, the motion vector of the undefined block FT area is determined for each of the R, G, B
It is obtained from the number of motion pixels of T by an arithmetic expression. Then, a motion vector value of each block is obtained from the R, G, and B motion vectors by an integration process such as majority decision.

【0078】ここで、図18に示すフローチャートを参
照して多数決処理による統合処理の具体的な内容を説明
する。
Here, the specific contents of the integration processing by majority decision processing will be described with reference to the flowchart shown in FIG.

【0079】各ブロックはR,G,B画像について同じ
ブロックであるため、当然動き方向及び動き画素数は同
じはずである。しかしながら、対象画像のブロックにお
ける2値演算及び比較部の演算誤差などにより差違が発
生する場合がある。
Since each block is the same block for the R, G, and B images, the motion direction and the number of motion pixels must be the same. However, a difference may occur due to a binary calculation in a block of the target image and a calculation error of the comparison unit.

【0080】そこで、ブロック毎のx、y方向の動き画
素数を取り込み(S1)、R、G、B毎にx、y移動方
向が一致しているかどうか判定する(S2)。この場
合、移動方向の補正・選定では(S3)、R,G,B各
ブロックの2値演算、比較検出ブロックから出力された
x、yの動き方向が第1象限から第4象限までの座標軸
を基準としてその符号が付与されているため、これが
R,G,Bで同じかどうか判断する。これは、R,G,
Bの動き方向のx方向とy方向のそれぞれについて、該
当のブロックとそれに隣接するブロックの動きの符号を
含めて、多数決判定し動き方向として動きベクトルテー
ブル29に登録する(S6)。このような手段により動
き方向の精度を向上させる。
The number of motion pixels in the x and y directions for each block is fetched (S1), and it is determined whether the x and y movement directions match for each of R, G and B (S2). In this case, in the movement direction correction / selection (S3), the binary operation of each of the R, G, and B blocks, and the movement directions of x and y output from the comparison detection block are coordinate axes from the first quadrant to the fourth quadrant. Since the reference is assigned to the reference, it is determined whether or not the reference is the same for R, G, and B. This is R, G,
In each of the x direction and the y direction of the movement direction of B, the majority decision is performed including the sign of the movement of the corresponding block and the block adjacent thereto, and registered in the motion vector table 29 as the movement direction (S6). By such means, the accuracy of the movement direction is improved.

【0081】さらに、画素数の補正・選定(S5)も同
様にR,G,B各ブロックの2値演算、比較検出ブロッ
ク26、27から出力されたx、yの動き画素数もR,
G,Bで同じかどうか判定する(S4)。この場合、
R,G,Bの動き画素数が全く違っていれば、お互いが
近い画素数で、かつその値の中央値から順に重み付けし
た値の平均値を採用し、動き画素数として動きベクトル
テーブル29に登録する(S6)。この平均値は通常四
捨五入した値をとる。
Further, the correction / selection of the number of pixels (S5) is similarly performed by the binary operation of each of the R, G, and B blocks, and the number of x and y motion pixels output from the comparison detection blocks 26 and 27 is also R, G
It is determined whether G and B are the same (S4). in this case,
If the numbers of motion pixels of R, G, and B are completely different, an average value of weights that are close to each other and weighted in order from the median of the values is adopted as the number of motion pixels in the motion vector table 29. Register (S6). This average value is usually rounded off.

【0082】例えば、x方向の動き画素数が、R,G,
Bそれぞれ6、5、2であるとし、その重みを2、3、
1とする。x方向の動き画素数は、(2*6+3*5+
1*2)を(2+3+1)で割った値、すなわち5画素
とする。
For example, if the number of motion pixels in the x direction is R, G,
B are 6, 5, and 2, respectively, and their weights are 2, 3,
Let it be 1. The number of motion pixels in the x direction is (2 * 6 + 3 * 5 +
1 * 2) divided by (2 + 3 + 1), that is, 5 pixels.

【0083】また、R,G,Bについて同じ動き画素数
値が2つ存在した場合も同様である。例えば、x方向の
動き画素数が、R,G,Bそれぞれ2、5、2であると
し、その重みは3、1、2であるから、x方向の動き画
素数は(3*2+1*5+2*2)を(3+1+2)で
割った値、すなわち3画素とする。y方向についても同
様に行えばよい。
The same applies to a case where two identical motion pixel values exist for R, G, and B. For example, it is assumed that the number of motion pixels in the x direction is 2, 5, and 2, respectively, and their weights are 3, 1, and 2. Therefore, the number of motion pixels in the x direction is (3 * 2 + 1 * 5 + 2). * 2) divided by (3 + 1 + 2), that is, three pixels. The same applies to the y direction.

【0084】さらに、動きベクトルの精度を向上させる
ための統合処理方法を以下に説明する。
Further, an integrated processing method for improving the accuracy of a motion vector will be described below.

【0085】図19はR,G,Bの各動きベクトル値か
ら、一つの動きベクトルを求めるための動作フローチャ
ートである。
FIG. 19 is an operation flowchart for obtaining one motion vector from each of the R, G, and B motion vector values.

【0086】前述の図18に示した統合処理では、R,
G,B画像の各注目ブロックのみによる演算処理のた
め、得られた動きベクトルの値が精度の点で実際の値と
一致しないブロックが発生する場合があり、この検証結
果では、精度向上のために注目ブロックが不定ブロック
なのか、更には既知ブロックなのかということと、注目
ブロックの周辺ブロックの動きベクトルをも考慮に入れ
る必要があるとういうことが示唆された。
In the integration processing shown in FIG.
Due to the arithmetic processing using only the target blocks of the G and B images, there may be a case where the obtained motion vector value does not match the actual value in terms of accuracy. It has been suggested that whether the block of interest is an indefinite block or a known block, and that it is necessary to take into account the motion vectors of the peripheral blocks of the block of interest.

【0087】そこで、図19の動作フローチャートで示
すように、この統合処理では注目ブロックのフラグをま
ずチェックし(S10)、フラグが’1’(S11)
と’0’(S12)の場合は注目ブロックの動きベクト
ルを取り出さず、フラグが’−1’(S13)の場合に
のみ注目ブロックの動きベクトルを取り出す(S1
4)。しかる後に、注目ブロックを囲む周辺8近傍の動
きベクトルを取り出し(S15)、取り出した複数の動
きベクトルをx,y成分毎にそれぞれ並び替えを行い、
その中央値を代表値とする(S16)。
Therefore, as shown in the operation flowchart of FIG. 19, in this integration processing, the flag of the block of interest is first checked (S10), and the flag is set to '1' (S11).
And '0' (S12), the motion vector of the target block is not extracted, and only when the flag is '-1' (S13), the motion vector of the target block is extracted (S1).
4). Thereafter, the motion vectors near the periphery 8 surrounding the target block are extracted (S15), and the extracted motion vectors are rearranged for each of the x and y components.
The median value is set as a representative value (S16).

【0088】これを統合すべきR,G,B数まで行い
(S17)、その後代表値の個数に応じて処理を分け
る。代表値は各R,G,B成分毎に示されるものであ
り、この時、代表値が1個の場合には(S18)、統合
結果として注目ブロックの動きベクトル値はフラグ=−
1として、代表値そのままとする(S23)。又、対象
ブロックが偶数の場合など代表値が2個の場合は(S1
9)、2つの代表値の平均値を求め(S21)る。統合
結果として注目ブロックの動きベクトル値はフラグ=−
1として、その平均値演算結果を採る(S24)。さら
に、代表値が3個の場合は(S20)、3つの代表値の
平均値を求め(S22)る。統合結果は注目ブロックの
動きベクトル値をフラグ=−1として、その平均値演算
結果を採る(S24)。この処理を全ブロック個数まで
求め(S26)、注目ブロックの動きベクトル値とす
る。
This is performed up to the number of R, G, and B to be integrated (S17), and then the processing is divided according to the number of representative values. The representative value is indicated for each of the R, G, and B components. At this time, if the number of representative values is one (S18), the motion vector value of the block of interest is flag =-
As 1, the representative value is left as it is (S23). When there are two representative values, such as when the number of target blocks is even, (S1
9) An average value of the two representative values is obtained (S21). As a result of integration, the motion vector value of the block of interest is flag = −
The result of the average value calculation is taken as 1 (S24). Further, when there are three representative values (S20), an average value of the three representative values is obtained (S22). As the integration result, the motion vector value of the target block is set as the flag = -1, and the average value calculation result is obtained (S24). This process is performed up to the total number of blocks (S26), and is set as the motion vector value of the target block.

【0089】さらに、図20には、一例として注目ブロ
ックとその8近傍のブロックの動きベクトルの値から一
つの動きベクトルを求める統合処理の例を示す。
FIG. 20 shows an example of an integration process for obtaining one motion vector from the values of the motion vectors of the block of interest and its eight neighboring blocks as an example.

【0090】図20(a)はR,G,Bそれぞれの動き
ベクトルについて、注目ブロックとその8近傍ブロック
動きベクトル値を取り出した時の例を示す。この時、網
線で記したブロックが注目ブロックである。又、図中
(−、−)で記したブロックは動きベクトルが検出され
ない領域(フラグ=0)のブロックを示す。図20
(b)はR,G,Bベクトルから動きベクトルの有効な
ブロックを取り出した時を示す。
FIG. 20A shows an example in which, for each of R, G, and B motion vectors, a target block and its eight neighboring block motion vector values are extracted. At this time, the block marked with a hatched line is the block of interest. The blocks indicated by (-,-) in the figure indicate blocks in an area where no motion vector is detected (flag = 0). FIG.
(B) shows a case where a valid block of a motion vector is extracted from the R, G, and B vectors.

【0091】図20(c)はR,G,Bそれぞれについ
て数値の大きい順に並び替える手順を示す。図20
(d)はR,G,Bそれぞれの代表値を算出する例を示
す。その際、動きベクトルのデータ数が奇数個の場合は
配列の中央値を選択し、偶数個の場合は中央2個の平均
値を算出する手順を示す。このとき、動きベクトル値は
小数点以下は切り捨てとする。このようにして、各R,
G,Bの代表値が求められる。
FIG. 20C shows a procedure for rearranging R, G, and B in ascending numerical order. FIG.
(D) shows an example in which the representative values of R, G, and B are calculated. At this time, a procedure is shown in which the median value of the array is selected when the number of data of the motion vector is odd, and the average value of the center 2 is calculated when the number of data is even. At this time, the fraction of the motion vector value is rounded down. Thus, each R,
The representative values of G and B are obtained.

【0092】この結果を用いて、図19に示した様に統
合処理を行う。つまり、代表値が1つの場合は、そのま
まの値を結果とし、代表値が2つの場合は、2つの値で
平均値を採る。代表値が3つの場合は、その3つの値で
平均値をとる。上記の平均値演算はいずれも小数点以下
は四捨五入を行う。
Using this result, an integration process is performed as shown in FIG. That is, when there is one representative value, the value is used as it is, and when there are two representative values, an average value is obtained from the two values. When there are three representative values, an average value is obtained from the three values. In each of the above-described average value calculations, the decimal part is rounded off.

【0093】この場合の動きベクトル結果は次式で与え
られる。
The motion vector result in this case is given by the following equation.

【0094】[0094]

【数7】 従って、X方向の動きベクトルは’7’、Y方向の動き
ベクトルは’1’と求まる。
(Equation 7) Therefore, the motion vector in the X direction is obtained as “7”, and the motion vector in the Y direction is obtained as “1”.

【0095】上記統合処理の結果では、640画素x4
80画素のVGAタイプでは、検出ブロックが16画素
x16画素であるため、総検出ブロック数は1200個
である。この統合処理によって得られた平均誤差は先述
の方式に比べ約20%改善され、そのバラツキも極端な
動きベクトルを示すことはなく、全体的な動きベクトル
が正しく反映した結果が得られた。
As a result of the above integration processing, 640 pixels × 4
In the VGA type with 80 pixels, the number of detection blocks is 16 pixels × 16 pixels, so the total number of detection blocks is 1200. The average error obtained by this integration process was improved by about 20% compared to the above-mentioned method, and the variation did not show an extreme motion vector, and a result was obtained in which the overall motion vector was correctly reflected.

【0096】以上のようにR,G,B画像毎に求められ
た動き画素数を各ブロック毎に1つの値に統合処理し、
動き画素数として動きベクトルテーブルに登録する。
As described above, the number of motion pixels obtained for each of the R, G, and B images is integrated into one value for each block.
It is registered in the motion vector table as the number of motion pixels.

【0097】次に、補正処理ブロック4の処理内容につ
いて説明する。
Next, the processing contents of the correction processing block 4 will be described.

【0098】図5にデータ補正処理部4の構成を示して
いる。動きベクトルテーブル29には現フィールドの各
検出ブロックKBの動きベクトル情報が登録されてい
る。
FIG. 5 shows the configuration of the data correction processing section 4. In the motion vector table 29, motion vector information of each detection block KB in the current field is registered.

【0099】図6に動きベクトルテーブル29の構成を
示している。図6は、例えば水平640画素、垂直48
0画素の表示ができるVGAタイプの場合の動きテーブ
ルの例を示している。この場合、検出ブロックが水平1
6画素、垂直16画素であれば、合計1200個のブロ
ックに分割され、その各々のブロックについて動き画素
数と方向がテーブル化されている。ここで、各ブロック
の左上を座標の原点としている。現フィールド画像につ
いて動き検出の済んだ検出ブロック順に、検出ブロック
KBのブロック番号と、その検出ブロックKBの原点か
らのオフセット値と、その検出ブロックKBの前フィー
ルドからの動き画素数(動き方向を含む)とを登録して
いる。
FIG. 6 shows the structure of the motion vector table 29. FIG. 6 shows, for example, 640 horizontal pixels and 48 vertical pixels.
9 shows an example of a motion table in the case of a VGA type capable of displaying 0 pixels. In this case, the detection block is horizontal 1
If there are 6 pixels and 16 vertical pixels, the block is divided into a total of 1200 blocks, and the number of motion pixels and the direction of each block are tabulated. Here, the upper left of each block is the origin of the coordinates. The block number of the detection block KB, the offset value from the origin of the detection block KB, the number of motion pixels from the previous field of the detection block KB (including the motion direction) in the order of the detection blocks in which the motion detection has been performed for the current field image. ) And have registered.

【0100】図7に補正テーブル53の部分的な構成を
示しており、図8及び図9に具体的なテーブル構成を示
している。補正テーブル53は、検出ブロックKBの動
き方向を第1象限から第4象限に分け補正データを登録
している。第1象限には、水平方向となるx方向(+方
向)の動き画素数に応じて各補正データが登録され、第
2象限には、垂直方向となるy方向(+方向)の動き画
素数に応じて各補正データが登録されている。また、第
3象限には、水平方向となるx方向(−方向)の動き画
素数に応じて各補正データが登録され、第4象限には、
垂直方向となるy方向(−方向)の動き画素数に応じて
各補正データが登録されている。
FIG. 7 shows a partial configuration of the correction table 53, and FIGS. 8 and 9 show specific table configurations. The correction table 53 registers the correction data by dividing the movement direction of the detection block KB from the first quadrant to the fourth quadrant. In the first quadrant, each correction data is registered according to the number of motion pixels in the x direction (+ direction), which is the horizontal direction, and in the second quadrant, the number of motion pixels in the y direction (+ direction), the vertical direction. Each correction data is registered according to. In the third quadrant, each correction data is registered in accordance with the number of motion pixels in the horizontal x direction (−direction). In the fourth quadrant,
Each correction data is registered according to the number of motion pixels in the y direction (−direction) which is the vertical direction.

【0101】図8はx方向への動きが+及び−方向、即
ち、第1象限と第3象限への動きに対する補正データ
が、その信号レベルの変化とその位置に対応してマトリ
ックス表になっている。同様に図9はy方向への動きが
+及び−方向、即ち、第2象限と第4象限への動きに対
する補正データが、その信号レベルの変化とその位置に
対応してマトリックス表になっている。本説明では、補
正データは記入していない。
FIG. 8 shows that the correction data for the movement in the x direction in the + and-directions, that is, the movement in the first and third quadrants, is a matrix table corresponding to the change in the signal level and its position. ing. Similarly, FIG. 9 shows that the correction data for the movement in the y direction in the + and-directions, that is, the movement in the second and fourth quadrants, is a matrix table corresponding to the change in the signal level and the position. I have. In this description, no correction data is entered.

【0102】補正処理ブロック4では、現フィールドの
原画像データを偽輪郭発生レベル検出部51へ入力し
て、現フィールド画像の中から各画素の信号レベルによ
り偽輪郭が発生すると予測される偽輪郭発生予測点の
x、y座標を検出する。上述したように、偽輪郭の発生
する信号レベルは、2のN乗の信号レベル境界付近であ
るので、2のN乗の信号レベル境界付近の画素を抽出す
る。
In the correction processing block 4, the original image data of the current field is inputted to the false contour occurrence level detecting section 51, and the false contour is predicted to be generated by the signal level of each pixel from the current field image. The x and y coordinates of the predicted occurrence point are detected. As described above, since the signal level at which the false contour occurs is near the 2Nth signal level boundary, pixels near the 2Nth signal level boundary are extracted.

【0103】偽輪郭発生レベル検出部51で検出した全
ての偽輪郭発生予測点を偽輪郭発生画素候補検出部52
に供給し、視覚特性にあわせて実際の表示で偽輪郭とし
て認識される画素位置を偽輪郭発生予測点の中から特定
して偽輪郭発生画素候補とする。実際の表示で偽輪郭と
して認識される画素位置を選定するに当たり、偽輪郭発
生予測点の発生密度を反映させる。
All the false contour occurrence predicted points detected by the false contour occurrence level detecting section 51 are detected by the false contour occurrence pixel candidate detecting section 52.
The pixel position which is recognized as a false contour in an actual display according to the visual characteristics is specified from the false contour occurrence predicted points, and is set as a false contour occurrence pixel candidate. In selecting a pixel position that is recognized as a false contour in an actual display, the density of predicted false contour occurrence points is reflected.

【0104】この場合の処理として、偽輪郭発生予測点
のx,y座標を中心に3*3又は5*5のウインドウオ
ペレータによりその候補点の密度を検出することが可能
である。この検出点の数により候補点が1点で孤立して
いる場合に補正処理を行うかどうかを判定することがで
きる。
In this case, the density of the candidate points can be detected by a 3 * 3 or 5 * 5 window operator centering on the x and y coordinates of the false contour occurrence predicted point. Based on the number of detection points, it is possible to determine whether or not to perform the correction process when one candidate point is isolated.

【0105】偽輪郭発生画素候補に現実に偽輪郭が発生
するのは、当該偽輪郭発生画素候補の属する検出ブロッ
クKBが実際に移動している場合である。
A false contour actually occurs in a false contour occurrence pixel candidate when the detection block KB to which the false contour occurrence pixel candidate belongs is actually moving.

【0106】偽輪郭発生画素候補の属する検出ブロック
KBが移動ブロックの場合は、動きベクトルテーブル2
9から検出ブロック番号、x、yの動き画素数を取り出
して補正テーブル53へ供給する。補正テーブル53に
は動き画素数に応じた補正量が登録されている。補正テ
ーブル53は予めPDP装置を用いて視覚実験によりそ
の補正量を決めて、前述した図8、9の構造に従ってテ
ーブル化しておく。
If the detection block KB to which the false contour occurrence pixel candidate belongs is a moving block, the motion vector table 2
9, the detection block number and the number of motion pixels of x and y are extracted and supplied to the correction table 53. The correction amount corresponding to the number of motion pixels is registered in the correction table 53. The correction amount of the correction table 53 is determined in advance by a visual experiment using a PDP device, and is made into a table in accordance with the structure shown in FIGS.

【0107】偽輪郭発生画素候補検出部52から出力さ
れる偽輪郭発生レベルと動きベクトルテーブル29から
取り出されるx、yの動き画素数とから特定される補正
データを補正テーブル53から取り出して補正演算部5
4へ与える。補正演算部54は、原画像データを補正す
るに当たり、偽輪郭発生レベルで且つ動きのあった画素
は補正テーブル53から動き画素数及び動き方向に応じ
た補正データが与えられるので視覚光量に合わせた信号
レベルの補正する。
The correction data specified from the false contour occurrence level output from the false contour occurrence pixel candidate detection unit 52 and the number of x and y motion pixels extracted from the motion vector table 29 is extracted from the correction table 53 to perform a correction operation. Part 5
Give to 4. When correcting the original image data, the correction calculating unit 54 adjusts the pixel having the false contour occurrence level and the moving pixel to the visual light amount because the correction data corresponding to the number of moving pixels and the moving direction is given from the correction table 53. Correct the signal level.

【0108】以上のように、本発明の構成では動き検出
処理部とデータ補正処理部と分割されており、各処理部
は従属関係を持っているので、柔軟な補正処理が可能で
ある。
As described above, in the configuration of the present invention, the motion detection processing section and the data correction processing section are divided, and each processing section has a subordinate relationship, so that flexible correction processing is possible.

【0109】[0109]

【発明の効果】以上の説明から明らかなように、本発明
によれば、サブフィールド法で階調表示を行う表示装置
において、動画を目で追従したときの偽輪郭の発生を大
幅に抑制できる動画像表示方法及び動画像表示装置を提
供できる。
As is apparent from the above description, according to the present invention, in a display device that performs gradation display by the subfield method, it is possible to greatly suppress the occurrence of false contours when a moving image is visually followed. A moving image display method and a moving image display device can be provided.

【図面の簡単な説明】[Brief description of the drawings]

【図1】発明の一実施の形態に係る階調画像表示装置の
全体構成図
FIG. 1 is an overall configuration diagram of a gradation image display device according to an embodiment of the present invention;

【図2】上記一実施の形態に係る階調画像表示装置にお
ける動き検出処理部の機能ブロック図
FIG. 2 is a functional block diagram of a motion detection processing unit in the gradation image display device according to the embodiment.

【図3】動き検出処理部における2値演算部の回路構成
FIG. 3 is a circuit configuration diagram of a binary operation unit in the motion detection processing unit;

【図4】動き検出処理部における比較部の構成図FIG. 4 is a configuration diagram of a comparison unit in the motion detection processing unit.

【図5】データ補正処理部の構成図FIG. 5 is a configuration diagram of a data correction processing unit.

【図6】動きベクトルテーブルの構成図FIG. 6 is a configuration diagram of a motion vector table.

【図7】補正テーブルの構成図FIG. 7 is a configuration diagram of a correction table.

【図8】補正テーブルにおける第1象限、第2象限のテ
ーブル構成図
FIG. 8 is a table configuration diagram of a first quadrant and a second quadrant in a correction table.

【図9】補正テーブルにおける第3象限、第4象限のテ
ーブル構成図
FIG. 9 is a table configuration diagram of a third quadrant and a fourth quadrant in a correction table.

【図10】上記一実施の形態に係る階調画像表示装置の
全体的な処理の流れを示す図
FIG. 10 is a diagram showing an overall processing flow of the gradation image display device according to the embodiment.

【図11】サンプル画像での多階層画像としきい値との
関係を示す図
FIG. 11 is a diagram showing a relationship between a multi-layer image and a threshold in a sample image.

【図12】ブロックマッチングの概念図FIG. 12 is a conceptual diagram of block matching.

【図13】既知ブロックKT処理の概念図FIG. 13 is a conceptual diagram of a known block KT process.

【図14】不定ブロック処理の既知ブロックと不定ブロ
ックの具体例を示す図
FIG. 14 is a diagram illustrating a specific example of a known block and an undefined block in the undefined block processing.

【図15】エッジ検出ウィンドウの具体例を示す図FIG. 15 is a diagram showing a specific example of an edge detection window.

【図16】不定ブロック処理のブロック関係を示す図FIG. 16 is a diagram showing a block relationship of an undefined block process;

【図17】不定ブロック処理における線形補間の位置関
係を示す図
FIG. 17 is a diagram showing a positional relationship of linear interpolation in undefined block processing;

【図18】多数決判定処理のフローチャートFIG. 18 is a flowchart of majority decision processing.

【図19】統合処理の動作フローチャートFIG. 19 is an operation flowchart of an integration process.

【図20】統合処理の演算を示す図FIG. 20 is a diagram showing an operation of an integration process;

【図21】サブフィールドの輝度比を示す図FIG. 21 is a diagram showing a luminance ratio of a subfield.

【図22】サブフィールド法での偽輪郭発生原理を示す
FIG. 22 is a diagram showing the principle of false contour generation in the subfield method.

【符号の説明】[Explanation of symbols]

1 ビデオ信号処理部 2 A/D変換部 3 動き検出処理部 4 データ補正処理部 5 出力処理部 6 画像表示部 7 Xスキャンドライバ 8 Yスキャンドライバ 20 遅延回路 21−1、21−2 平滑化フィルタブロック 22−1、22−2 多階層2値化ブロック 23−1、23−2 多階層メモリブロック 24−1、24−2 アドレスマッピング部 25 動き検出ブロック 26 2値演算ブロック 27 比較検出ブロック 28 多数決・統合判定部 29 動きベクトルテーブル 30−1、30−2 2値ラインマッチング部 30−3、30−4 2値ラインマッチング部 34 マルチプレクサ部 35 加算器 36、37 レジスタ 51 偽輪郭発生レベル検出部 52 偽輪郭発生画素候補検出部 53 補正テーブル 54 補正演算部 DESCRIPTION OF SYMBOLS 1 Video signal processing part 2 A / D conversion part 3 Motion detection processing part 4 Data correction processing part 5 Output processing part 6 Image display part 7 X scan driver 8 Y scan driver 20 Delay circuit 21-1, 21-2 Smoothing filter Block 22-1, 22-2 Multi-level binarization block 23-1, 23-2 Multi-level memory block 24-1, 24-2 Address mapping unit 25 Motion detection block 26 Binary operation block 27 Comparison detection block 28 Majority decision Integration judgment unit 29 Motion vector table 30-1, 30-2 Binary line matching unit 30-3, 30-4 Binary line matching unit 34 Multiplexer unit 35 Adder 36, 37 Register 51 False contour occurrence level detection unit 52 False contour occurrence pixel candidate detection unit 53 Correction table 54 Correction calculation unit

Claims (13)

【特許請求の範囲】[Claims] 【請求項1】 偽輪郭の発生する信号レベル近傍の画素
の動きを捉え、画素の動きに応じて現画像データを補正
することを特徴とする動画像表示方法。
1. A moving image display method comprising: capturing a motion of a pixel near a signal level where a false contour occurs, and correcting the current image data according to the motion of the pixel.
【請求項2】 偽輪郭の発生する信号レベル近傍の区間
を閾値により現フィールド画像及び前フィールド画像を
2値化し、2値化画像を比較して動いた画素の移動画素
数及び移動方向を検出し、現フィールド画像で偽輪郭の
発生する信号レベルを持った動き画素をその移動画素数
及び移動方向に応じて補正することを特徴とする動画像
表示方法。
2. A section in the vicinity of a signal level where a false contour occurs is binarized by a threshold into a current field image and a previous field image, and the binarized images are compared to detect the number of moving pixels and the moving direction of the moved pixel. A moving pixel having a signal level at which a false contour occurs in the current field image is corrected in accordance with the number of moving pixels and a moving direction thereof.
【請求項3】 現フィールド2値化画像を複数の検出ブ
ロックに分割し、検出ブロック毎に前フィールド2値化
画像内に参照領域を設定し、参照領域内に複数設定した
参照ブロックと検出ブロックとの一致度を評価し、評価
値の最も高い参照ブロックと前記検出ブロックとの位置
関係から動き画素の移動画素数及び移動方向を検出する
ことを特徴とする請求項2記載の動画像表示方法。
3. A current field binary image is divided into a plurality of detection blocks, a reference area is set in a previous field binary image for each detection block, and a plurality of reference blocks and detection blocks are set in the reference area. 3. The moving image display method according to claim 2, further comprising: evaluating a degree of coincidence with the reference block; and detecting a moving pixel number and a moving direction of a moving pixel from a positional relationship between the reference block having the highest evaluation value and the detection block. .
【請求項4】 検出ブロックと参照ブロックとの比較で
動きの検出されなかった検出ブロックを不定ブロックと
して仮登録し、動きが検出された既知ブロックに囲まれ
た不定ブロックを既知ブロックと同じ移動画素数及び移
動方向にすることを特徴とする請求項3記載の動画像表
示方法。
4. A detection block in which no motion is detected in a comparison between a detection block and a reference block is provisionally registered as an indefinite block, and an indefinite block surrounded by a known block in which motion has been detected is the same moving pixel as the known block. The moving image display method according to claim 3, wherein the number and the moving direction are set.
【請求項5】 不定ブロックの処理は、それを囲む既知
ブロックの移動画素数及び移動方向により線形補間によ
り当該検出ブロックの移動画素数及び移動方向を求める
ことを特徴とする請求項4記載の動画像表示方法。
5. The moving picture according to claim 4, wherein in the processing of the undefined block, the moving pixel number and the moving direction of the detection block are obtained by linear interpolation based on the moving pixel number and the moving direction of the known block surrounding the unknown block. Image display method.
【請求項6】 検出ブロック毎にR,G,Bの各色成分
について移動画素数及び移動方向を検出し、多数決判定
により当該検出ブロックの移動画素数及び移動方向を確
定することを特徴とする請求項3記載の動画像表示方
法。
6. The method according to claim 1, wherein the number of moving pixels and the moving direction of each of the R, G, and B color components are detected for each detection block, and the number of moving pixels and the moving direction of the detection block are determined by majority decision. Item 3. The moving image display method according to Item 3.
【請求項7】 各色成分の当該検出ブロックとその近傍
ブロックの移動画素数及び移動方向を取り出す際に、数
値の大きい順に並び替えを行い、その中央値を代表値と
して求めることを特徴とする請求項3又は請求項6記載
の動画像表示方法。
7. When retrieving the number of moving pixels and the moving direction of the detection block and its neighboring blocks of each color component, rearrangement is performed in descending order of numerical values, and the median value is obtained as a representative value. 7. The moving image display method according to claim 3 or 6.
【請求項8】 現フィールド画像及び前フィールド画像
を、2のN乗の信号レベル又はこれら信号レベルを組み
合わせた信号レベルを中心とした多階層のしきい値で2
値化し、多階層画像データ毎に動きを検出することを特
徴とする請求項1乃至請求項5のいずれかに記載の動画
像表示方法。
8. A multi-level threshold centering around a signal level of 2 N or a signal level obtained by combining these signal levels, the current field image and the previous field image are defined as 2 levels.
6. The moving image display method according to claim 1, wherein the moving image is detected for each multi-layer image data.
【請求項9】 現フィールド画像及び前フィールド画像
を2値化前に平滑化処理することを特徴とする請求項1
乃至請求項8のいずれかに記載の動画像表示方法。
9. The method according to claim 1, wherein the current field image and the previous field image are smoothed before binarization.
The moving image display method according to claim 8.
【請求項10】 偽輪郭の発生する信号レベルに対応し
て移動画素数及び移動方向に応じた補正データを補正テ
ーブルに登録しておき、検出した動き画素の移動画素数
及び移動方向に基づいて前記補正テーブルから補正デー
タを取り出すことを特徴とする請求項1乃至請求項8の
いずれかに記載の動画像表示方法。
10. The correction data corresponding to the number of moving pixels and the moving direction corresponding to the signal level at which the false contour occurs is registered in a correction table, and based on the detected number of moving pixels and the moving direction of the moving pixel. 9. The moving image display method according to claim 1, wherein correction data is extracted from the correction table.
【請求項11】 検出ブロック毎に検出した移動画素数
及び移動方向を動きベクトルテーブルに登録する一方、
現フィールド画像から偽輪郭の発生する信号レベルの座
標データを検出して補正候補画素を抽出し、この補正候
補画素が属する検出ブロックの移動画素数及び移動方向
を前記動きベクトルテーブルから取りだし、取り出され
た移動画素数及び移動方向と前記偽輪郭発生信号レベル
とに対応した補正データを前記補正テーブルから取り出
すことを特徴とする請求項10記載の動画像表示方法。
11. While registering the number of moving pixels and the moving direction detected for each detection block in a motion vector table,
The coordinate data at the signal level at which a false contour occurs is detected from the current field image to extract a correction candidate pixel, and the number of moving pixels and the moving direction of the detection block to which the correction candidate pixel belongs are extracted from the motion vector table and extracted. 11. The moving image display method according to claim 10, wherein correction data corresponding to the number of moving pixels and the moving direction and the false contour occurrence signal level are extracted from the correction table.
【請求項12】 偽輪郭の発生する信号レベルの検出密
度に基づいて補正候補画素を決定することを特徴とする
請求項11記載の動画像表示方法。
12. The moving image display method according to claim 11, wherein a correction candidate pixel is determined based on a detection density of a signal level at which a false contour occurs.
【請求項13】 偽輪郭の発生する信号レベル近傍の閾
値で現フィールド画像及び前フィールド画像を2値化す
る2値化処理手段と、フィールド間で2値化画像を比較
して画素の動きを検出する動き検出手段と、偽輪郭の発
生する信号レベル毎に移動画素数及び移動方向に対応し
た補正データが登録された補正テーブルと、現フィール
ド画像から偽輪郭の発生する信号レベルの画素を抽出す
る抽出手段と、この抽出画素の動き検出結果及び信号レ
ベルに対応した補正データを前記補正テーブルから取り
出して当該画素を補正する補正手段と、を具備する動画
像表示装置。
13. A binarization processing means for binarizing a current field image and a previous field image with a threshold value near a signal level at which a false contour occurs, and comparing a binarized image between fields to determine a pixel movement. A motion detection means for detecting, a correction table in which correction data corresponding to the number of moving pixels and a moving direction are registered for each signal level at which a false contour occurs, and pixels at a signal level at which a false contour occurs from a current field image are extracted A moving image display apparatus comprising: an extracting unit that performs a motion detection result of the extracted pixel and correction data corresponding to a signal level from the correction table to correct the pixel.
JP36405497A 1997-03-31 1997-12-17 Moving image display method Expired - Fee Related JP4203136B2 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP36405497A JP4203136B2 (en) 1997-03-31 1997-12-17 Moving image display method
US09/381,637 US6661470B1 (en) 1997-03-31 1998-03-25 Moving picture display method and apparatus
PCT/JP1998/001335 WO1998044479A1 (en) 1997-03-31 1998-03-25 Dynamic image display method and device therefor
CN98803741A CN1253652A (en) 1997-03-31 1998-03-25 Dynatic image display method and device therefor
KR1019997008849A KR100345423B1 (en) 1997-03-31 1998-03-25 Dynamic image display method and device therefor
EP98911007A EP0973147A4 (en) 1997-03-31 1998-03-25 Dynamic image display method and device therefor

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP9-96419 1997-03-31
JP9641997 1997-03-31
JP36405497A JP4203136B2 (en) 1997-03-31 1997-12-17 Moving image display method

Publications (2)

Publication Number Publication Date
JPH10333638A true JPH10333638A (en) 1998-12-18
JP4203136B2 JP4203136B2 (en) 2008-12-24

Family

ID=26437633

Family Applications (1)

Application Number Title Priority Date Filing Date
JP36405497A Expired - Fee Related JP4203136B2 (en) 1997-03-31 1997-12-17 Moving image display method

Country Status (1)

Country Link
JP (1) JP4203136B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020065854A (en) * 2001-02-07 2002-08-14 가부시키가이샤 히타치세이사쿠쇼 Image display system and image information transmission method
JP2006229269A (en) * 2005-02-15 2006-08-31 Hitachi Ltd Scanning line interpolator
JP2007133242A (en) * 2005-11-11 2007-05-31 Sharp Corp Video display control unit and program
JP2007213017A (en) * 2006-02-09 2007-08-23 Lg Phillips Lcd Co Ltd Drive unit and drive method of liquid crystal display device
KR100774960B1 (en) 2005-12-13 2007-11-09 엘지전자 주식회사 Plasma Display Apparatus and Image Processing Method thereof
KR100799826B1 (en) * 2000-11-28 2008-01-31 후지츠 히다찌 플라즈마 디스플레이 리미티드 Method of driving display device capable of achieving display of images in higher precision without changing conventional specipication of panel
WO2008056397A1 (en) * 2006-11-06 2008-05-15 Hitachi Plasma Display Limited Plasma display device

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100799826B1 (en) * 2000-11-28 2008-01-31 후지츠 히다찌 플라즈마 디스플레이 리미티드 Method of driving display device capable of achieving display of images in higher precision without changing conventional specipication of panel
KR20020065854A (en) * 2001-02-07 2002-08-14 가부시키가이샤 히타치세이사쿠쇼 Image display system and image information transmission method
JP2006229269A (en) * 2005-02-15 2006-08-31 Hitachi Ltd Scanning line interpolator
JP2007133242A (en) * 2005-11-11 2007-05-31 Sharp Corp Video display control unit and program
KR100774960B1 (en) 2005-12-13 2007-11-09 엘지전자 주식회사 Plasma Display Apparatus and Image Processing Method thereof
JP2007213017A (en) * 2006-02-09 2007-08-23 Lg Phillips Lcd Co Ltd Drive unit and drive method of liquid crystal display device
US7893905B2 (en) 2006-02-09 2011-02-22 Lg Display Co., Ltd. Apparatus and method for driving liquid crystal display device
WO2008056397A1 (en) * 2006-11-06 2008-05-15 Hitachi Plasma Display Limited Plasma display device
JPWO2008056397A1 (en) * 2006-11-06 2010-02-25 日立プラズマディスプレイ株式会社 Plasma display device

Also Published As

Publication number Publication date
JP4203136B2 (en) 2008-12-24

Similar Documents

Publication Publication Date Title
KR100345423B1 (en) Dynamic image display method and device therefor
KR100595077B1 (en) Image display apparatus
JP3425083B2 (en) Image display device and image evaluation device
KR100734646B1 (en) Image display apparatus and image display method
JPH11231823A (en) Pseudo-outline noise detecting device and display device having the detecting device
JPH0792947A (en) Color display system
JP2001083926A (en) Animation false contour compensating method, and image display device using it
JPH11212517A (en) Multi-gradational image display device
CN101395655B (en) Image processing device, display device, image processing method, and program
KR20070020757A (en) Display apparatus and control method thereof
JP4203136B2 (en) Moving image display method
JPH11231832A (en) Moving vector detecting method, moving image display method and moving image display device
KR100825355B1 (en) Image display apparatus and method for driving the same
JP3482764B2 (en) Motion detection circuit for motion compensation of display device
JP2001034223A (en) Moving image displaying method and moving image displaying device using the method
JP3473454B2 (en) Video signal processing circuit and video signal processing method for matrix type display device
JP3314556B2 (en) Image display device
US6630917B1 (en) Subfield-driven display
JP3526249B2 (en) Display device motion detection method and display device
KR100792455B1 (en) False contour noise reducing apparatus and method thereof
JP2000039864A (en) Method and device for displaying dynamic image
JP3697681B2 (en) Gradation display method and gradation display device
JP2001042819A (en) Method and device for gradation display
JP3990612B2 (en) Image evaluation device
KR100462596B1 (en) Apparatus and method for compensating false contour

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080701

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080916

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081010

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111017

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees