JP3697681B2 - Gradation display method and gradation display device - Google Patents

Gradation display method and gradation display device Download PDF

Info

Publication number
JP3697681B2
JP3697681B2 JP05527598A JP5527598A JP3697681B2 JP 3697681 B2 JP3697681 B2 JP 3697681B2 JP 05527598 A JP05527598 A JP 05527598A JP 5527598 A JP5527598 A JP 5527598A JP 3697681 B2 JP3697681 B2 JP 3697681B2
Authority
JP
Japan
Prior art keywords
image data
subfield
gradation display
data
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP05527598A
Other languages
Japanese (ja)
Other versions
JPH11249617A (en
Inventor
宏昌 福島
雅樹 床井
秀昭 川村
秀彦 川上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP05527598A priority Critical patent/JP3697681B2/en
Priority to CN98803741A priority patent/CN1253652A/en
Priority to KR1019997008849A priority patent/KR100345423B1/en
Priority to EP98911007A priority patent/EP0973147A4/en
Priority to PCT/JP1998/001335 priority patent/WO1998044479A1/en
Priority to US09/381,637 priority patent/US6661470B1/en
Publication of JPH11249617A publication Critical patent/JPH11249617A/en
Application granted granted Critical
Publication of JP3697681B2 publication Critical patent/JP3697681B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/2007Display of intermediate tones
    • G09G3/2018Display of intermediate tones by time modulation using two or more time intervals
    • G09G3/2022Display of intermediate tones by time modulation using two or more time intervals using sub-frames
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0261Improving the quality of display appearance in the context of movement of objects on the screen or movement of the observer relative to the screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/10Special adaptations of display systems for operation with variable images
    • G09G2320/106Determination of movement vectors or equivalent parameters within the image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Control Of Gas Discharge Display Tubes (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は,表示装置に表示される1フィールドの画像を、複数個のサブフィールドに分割してディジタル信号で表した画像信号の各ビットを、前記サブフィールドに対応させて階調表示を行なう階調表示方法、及び階調表示装置において、画像が移動する場合に発生する偽輪郭の発生の抑止を図ったものに関するものである。
【0002】
【従来の技術】
近年の表示装置の大型化要望に応えるものとして、PDP(プラズマ・ディスプレイ・パネル),EL(エレクトロ・ルミネッセンス)表示素子,蛍光表示管,液晶表示素子等の薄型のマトリックスパネルが提供され始めた。かかる薄型の表示装置の中で、特にPDPは大画面で、発光源を直接見る、いわゆる直視型の表示デバイスとしての期待が非常に大きい。
【0003】
ところで、PDPの中間調表示方法として、フィールド内時間分割法がある。図25の中間調表示方法は、1フィールドを輝度の重みの異なるN枚の画面(これらを以下サブフィールドと呼ぶ)で構成するものであり、輝度の重みの小さい側から、SF0,SF1,SF2,…・・,SF(N−1)と呼ばれ、それらサブフィールドの輝度の重みの比はそれぞれ、20 ,21 ,22 ,…・・,2N-1 である。また、図中、斜線で示す部分が発光を行っている期間である。
【0004】
1フィールド内の中間輝度は、これらのサブフィールドの発光の有無を選択することにより行われ、人間の視覚特性(残光特性)により、人間の目に感じる輝度は発光サブフィールドの各々の輝度の和で表せる。この中間調表示方法で表現できる中間調数は、1フィールド内のサブフィールド数、すなわち2のN乗通りである。
【0005】
図25(a)に上記中間調表示方法を用いた1フィールド内の表示シーケンスを示す。図に示すように、1フィールドは8枚(N=8)の輝度の重みの異なるサブフィールドで構成され、輝度の重みの大きい方からSF7,SF6,…・・,SF0と呼ばれている。ここで、SF7を最上位ビット(MSB)側、SF0を最下位ビット(LSB)側と呼んでいる。各々のサブフィールドは1フィールドの中に、SF0,SF1,…・・,SF7と輝度の重みの小さいものから順に並んで発光を制御する場合が多く用いられている。すなわち、各サブフィールドの発光回数の比は、SF0を" 1" とすると、SF1は" 2" ,SF2は" 4" ,…・・SF6は" 64" ,SF7は" 128" である。このサブフィールド数が8個のときは256階調まで表現できる。
【0006】
ここで、例えば、129階調の中間調表示を行なう場合には、図25(b)に示すように、サブフィールドSF0とサブフィールドSF7とを発光させることにより、発光時間の異なる2 枚のサブフィールドを重ねあわせて表示することで実現される。
【0007】
ところで、上述したサブフィールド法による中間調表示方法は、1と0の2つの階調しか表現できないPDPのような2値表示デバイスでも多階調表現が可能な技術として優れた方法であり、このサブフィールドを用いた表示方法により、ブラウン管方式のテレビ画像とほぼ同様な画質がPDPにおいても得られるようになった。
【0008】
しかしながら、例えば、濃淡が緩やかに変化している被写体で、動きのある映像が表示された場合、ブラウン管方式のテレビ画像では見られない、PDP画像に特有のいわゆる偽輪郭が発生する問題がある。この偽輪郭発生現象は視覚の特性からくるもので、その映像信号レベルが256階調表示のとき、上記の128,64,32,16などといった2のN乗の境界付近に沿って、あたかも階調が失われたような状態で、さらには、本来表示すべき色と違った色が縞状となって見られる現象である。しかし、静止画像を表示した場合には偽輪郭は感じられない。動きのある部分で、かつ、上記信号レベルの周辺でのみ認知されるのが上記偽輪郭の特徴である。
【0009】
図26を用いて、サブフィールドによる階調表示方法で偽輪郭が発生する原理について説明する。図26(a)では、1フィールド内のサブフィールド数が8個で、その配列が輝度の重みの小さい方、すなわちSF0,SF1,SF2,…・・,SF7の順に並ぶ場合を示している。今、ある画素位置の信号レベルが127から128に変化しているときに、この動画像が1フィールドで3画素移動しているものとする。図26(b)は、観測者が画面上でこの動画像を観測した結果を、網膜での画素単位での光量積分値として示すものである。
【0010】
このように、信号レベル127(SF0からSF6までの発光)と信号レベル128(SF7のみが発光)が隣り合っている場合、その階調差は1LSB(1/256)であるが、人間の網膜上で感じる発光値はこの発光時間の不均一性により、画像の移動した画素分(3画素)だけ各々の信号レベルの発光が重なり合う結果、空間的拡がりとなって網膜上には大きな値( 積分値) として感じるようになる。すなわち、本来同じ画素で発光しているべき各々のサブフィールドの発光が、動画像部では異なった画素位置で発光していることになり、画素の中間調輝度が、単に各サブフィールドの和で表現できなくなる。これが偽輪郭として感じられる理由である。
【0011】
図26に示したように、紙面において、動画像が表示画面の左側から右側へスクロールすると、上述の信号レベルの境界部は明るい線として感じられ、また、反対に動画像が表示画面の右側から左側へスクロールすると、上述の信号レベルの境界部はサブフィールドの空間的分離として感じられ、暗い線として感じられることになる。
【0012】
一方、サブフィールドの配列が輝度の重みの大きい方、すなわち、サブフィールドSF7、SF6,SF5,…・・,SF0と順に並んでいる表示方法においては、動画像が表示画面の左側から右側へスクロールすると、信号レベルの境界部は暗い線として感じられ、反対に動画像が表示画面の右側から左側へスクロールすると、信号レベルの境界部は明るい線として感じられることになる。つまり、表示画面の動画像の移動方向によって、偽輪郭の見え方が異なることになる。
【0013】
さらに、この偽輪郭の発生は動画像の動き速度にも依存し、動き速度が速い程、偽輪郭の及ぶ範囲は大きい。例えば、1フィールド中に10画素移動する動画像では偽輪郭の及ぶ画素幅は10画素にも及ぶことになる。
【0014】
従来より、この偽輪郭に対する対策として各種の提案がされており、特開平8−211848号公報では、動きベクトルをフィールド間の表示データにより画素ブロック毎に検出し、フィールド内の先頭サブフィールドは、入力データのそれに対応するデータを表示し、それに続く各サブフィールドは各々の先頭サブフィールドからの遅れ時間をフィールド周期で割った値を動きベクトルに掛け算した値を用いて表示データを移動させ、画像を表示する技術内容が開示されている。
【0015】
図27は、上記公報に記載された中間階調表示方法及び中間階調表示装置による補正方法を示す図であり、視点の移動に合わせてサブフィールドのデータをシフトさせ、網膜に積分される発光輝度を本来のデータに近づけようとするものである。同図27は、説明を簡単にするために、4SF(サブフィールド)で、かつ、1 次元方向の移動の場合を例として示したものである。
【0016】
以下、具体的な処理のアルゴリズムについて説明する。まず、フィールド内の先頭サブフィールド(4SFでの降順の場合は8の重みのSFを指す)は、入力データのMSBをそのまま表示し、第2 サブフィールドの先頭サブフィールドからの遅れ時間を、第1 と第2 のサブフィールドの発光の重心から求める。求めた遅れ時間をフィールドの長さ(フィールド周期)で割った値をベクトルに掛け、四捨五入で整数値に直して、その分だけ視点の移動方向にシフトさせる。
第3フィールド以降も同様に、先頭サブフィールドからの遅れ時間を、先頭サブフィールドの発光の重心とそれぞれのサブフィールドの発光の重心から求める。求めた遅れ時間をフィールドの周期の時間で割った値を動きベクトルに掛け、四捨五入で整数値に直してその値の分だけ視点の移動方向にシフトさせる。
【0017】
しかしながら、このようなサブフィールドシフト型補正の場合、動きベクトルにおける移動画素数の大きさによって補正効果に差が生じることが、種々の評価画像データによる視覚シミュレーション実験で分かった。
【0018】
図28は、動きベクトルが8 画素/フィールドのときのサブフィールドデータの実際のシフト位置を、重みを含めて示したものであり、縦軸に時間をとり、 横軸に網膜位置をとったものである。図で斜めの太い実線の長さは、各サブフィールドの発光時間を表わし、SF1が重み128,SF8が重み1である。さらに本図では、実パネルの8サブフィールドの発光タイミング及び期間を忠実に再現していて、垂直方向に積分した値が網膜に受光される光量の総和になる。すなわち、右から3番目の網膜位置に着目すると、

Figure 0003697681
となる。
【0019】
この図28から、動きベクトルが6 画素/フィールドのときのサブフィールド(SF1〜SF4まで)は、ほぼ網膜の中心線に揃っていて、対応する画素にサブフィールドデータをシフトすれば偽輪郭を削除できることがわかる。
【0020】
一方、これに対して、図29は、動きベクトル6画素/フィールドのときのサブフィールドデータの実際のシフト量を示したものであり、重みの大きなSF2,SF3が網膜の中心線から離れていて、サブフィールドデータをシフトさせても隣接画素のデータの影響を受けてしまうことがわかる。すなわち、単純なサブフィールドデータのシフトだけでは、偽輪郭を完全になくすことは理論的に困難であることが分かった。
【0021】
【発明が解決しようとする課題】
従来の階調表示方法及び階調表示装置は以上のように構成されており、偽輪郭を抑制するために、サブフィールドデータを移動させるようにしていたが、画像の動き量に応じてサブフィールドの発光パターンを移動させたり、表示データを変えるだけでは、視覚光量とのマッチングが完全に対応できない場合が発生し、単に動き量によるフィールドデータの移動だけでは偽輪郭の発生を防止できないことが視覚実験により判明した。
【0022】
本発明は、以上のような問題点に鑑みてなされたもので、サブフィールド法で階調表示を行なう際に、動画を目で追従したときの偽輪郭の発生を大幅に抑制することができる階調表示方法、及び階調表示装置を提供することを目的とする。
【0023】
【課題を解決するための手段】
この発明の請求項1にかかる階調表示方法は、表示装置に表示される1フィールドの画像を、異なる階調度を有する複数個のサブフィールドを用い、これらサブフィールドから、表示に必要なものを選択して画像を表示する階調表示方法において、当該画像の動きベクトルを検出し、表示すべき画像が該検出した動きベクトルの移動方向に沿って移動する際に、該画像と隣接する周囲の画素に与える影響を寄与率として画素単位で数値化し、上記寄与度に応じて、表示すべき画像データの階調データを、複数のサブフィールドに分布するように分配配置し、上記寄与率、及び動きベクトルに基づいて、所定の階調度を有するサブフィールドを選択する組み合わせを変化させることにより画像データを表示するようにしたものである。
【0024】
また、この発明の請求項2にかかる階調表示方法は、上記請求項1 記載の階調表示方法において、前記画像データの分配は、サブフィールド毎に順次に行なうようにしたものである。
【0025】
また、この発明の請求項3にかかる階調表示方法は、上記請求項1記載の階調表示方法において、上記画像データの分配配置を、第1サブフィールドにおいて所定の画像データを分配配置して第1サブフィールドの点灯、もしくは不点灯画素を決定し、該第1サブフィールドの点灯、もしくは不点灯の結果に基づいて、次のフィールドである第2サブフィールドにおいて分配配置する新画像データを決定し、以降順次第kサブフィールドにおいて所定の画像データを分配配置して第kサブフィールドの点灯、もしくは不点灯画素を決定し、該第kサブフィールドの点灯、もしくは不点灯の結果に基づいて、第(k+1)サブフィールドにおいて分配配置する画像データを決定することで行なうようにしたものである。
【0026】
また、この発明の請求項4にかかる階調表示方法は、上記請求項3記載の階調表示方法において、上記サブフィールドの点灯、もしくは不点灯の決定を、分配配置された画像データと、当該サブフィールドの重みに応じてあらかじめ定めらた閾値とを比較することにより行なうようにしたものである。
【0027】
また、この発明の請求項5にかかる階調表示方法は、上記請求項3記載の階調表示方法において、上記第(k+1)サブフィールドにおいて分配配置する画像データは、上記第kサブフィールドにおいてデータを分配配置した結果、不点灯となった画素からは分配配置した同じ値を再度取り込み、点灯となった画素からは定められた減衰率を乗じた値を取り込んで得るようにしたものである。
【0028】
また、この発明の請求項6にかかる階調表示方法は、上記請求項1記載の階調表示方法において、上記画像データを分配配置する位置と割合を、上記検出した動きベクトルの移動方向、及び移動量に基づいて算出するようにしたものである。
【0029】
また、この発明の請求項7にかかる階調表示方法は、上記請求項6記載の階調表示方法において、上記画像データを分配配置する位置と割合を、動きベクトルに沿って移動した画像領域を視線が追随した場合に、網膜上の視点領域に影響を与える画素位置と割合に相当するものとしたものである。
【0030】
また、この発明の請求項8にかかる階調表示方法は、上記請求項6記載の階調表示方法において、上記画像データを分配配置する位置を、上記検出した動きベクトルの始点から終点に沿って、あらかじめ定められた面積の領域を移動させた場合に、上記領域に全体または一部が重なる画素となるようにしたものである。
【0031】
また、本発明の請求項9にかかる階調表示方法は、上記請求項6 記載の階調表示方法において、上記画像データを分配配置する割合を、上記検出した動きベクトルの始点から終点に沿って、あらかじめ定められた面積の領域を移動させた場合に、上記領域と画素とが重なる面積を、各サブフィールドが発光する時間で積分した値となるようにしたものである。
【0032】
また、この発明の請求項10にかかる階調表示方法は、上記請求項1記載の階調表示方法において、上記検出した当該画像の動きベクトルを基に、画素毎の4隅の移動方向、ならびに移動量を示す四隅動きベクトルを検出し、該動きベクトルを基に得られた4隅動きベクトルを用い、該4隅動きベクトル、及び寄与率に基づいて、所定の階調度を有するサブフィールドを選択する組み合わせを変化させることにより画像データを表示するようにしたものである。
【0033】
また、この発明の請求項11にかかる階調表示方法は、上記請求項10記載の階調表示方法において、上記画像データを分配配置する位置と割合を、上記検出した4隅動きベクトルの移動方向、及び移動量に基づいて算出するようにしたものである。
【0034】
また、この発明の請求項12にかかる階調表示方法は、上記請求項11記載の階調表示方法において、上記画像データを分配配置する位置を、上記検出した4隅動きベクトルの始点から終点までを4隅とする、定められた領域を移動させた場合に、上記領域に全体、または一部が重なる画素としたものである。
【0035】
また、この発明の請求項13にかかる階調表示方法は、上記請求項11記載の階調表示方法において、上記画像データを分配配置する割合を、上記検出した4隅動きベクトルの始点から終点までを4隅とする、定められた領域を移動させた場合に、上記領域と画素とが重なる面積を、各サブフィールドが発光する時間で積分した値となるようにしたものである。
【0036】
また、この発明の請求項14にかかる階調表示装置は、表示装置に表示される1フィールドの画像を、異なる階調度を有する複数個のサブフィールドを用い、こらサブフィールドから、表示に必要なものを選択して画像を表示する階調表示装置において、入力された画像信号のデータから、隣接するフィールド間で画像の動きベクトルを検出する動きベクトル検出手段と、上記検出した動きベクトルに基づいて、各サブフィールド毎に当該サブフィールドの発光開始位置と発光終了位置を算出する中間座標抽出部と、前記中間座標抽出部から出力される座標値に基づいてサブフィールドの点灯、または不点灯を制御する2値データを出力し、かつ、次のサブフィールドビットマップ演算部に与える画像データを出力するサブフィールドビットマップ演算部と、該サブフィールドビットマップ演算部からの2値データを全サブフィールドにわたって合成して、上記サブフィールドを構成するためのサブフィールド駆動データを出力する合成部とからなる画像データ演算変換手段とを備えたものである。
【0037】
また、この発明の請求項15にかかる階調表示装置は、上記請求項14記載の階調表示装置において、上記中間座標抽出部とサブフィールドビットマップ演算部を、1フィールドの画像を構成するサブフィールドの個数分と同個数設けられたものとしたものである。
【0038】
また、この発明の請求項16にかかる階調表示装置は、上記請求項14記載の階調表示装置において、上記サブフィールドビットマップ演算部を、上記中間座標抽出部より出力される座標値に基づいて、画像データを所定のサブフィールド平面に分配配置する割合を算出する寄与率演算部と、入力した画像データに上記寄与率を乗ずる複数の乗算器と、上記寄与率を乗じて分配したデータ値に基づいて当該サブフィールドの点灯、もしくは不点灯を制御する2値データを出力し、かつ、上記分配配置した画像データを取り込んで、次のサブフィールドビットマップ演算部に与える画像データを生成する際の減衰率を算出する減衰率演算部と、上記減衰率を上記分配配置した画像データに乗ずる複数の乗算器と、上記減衰率を乗じた画像データを取り込んで次のサブフィールドビットマップ演算部のための画像データを生成する新画像データ収納部とを備えたものとしたものである。
【0039】
また、この発明の請求項17にかかる階調表示装置は、上記請求項14記載の階調表示装置において、上記サブフィールドビットマップ演算部を、上記寄与率の値を、あらかじめ演算してROMテーブルとして値を保持し、上記中間座標抽出部よりの座標値に基づいて、画像データを所定のサブフィールド平面に分配配置する割合を上記ROMテーブルより出力する寄与率出力部と、入力した画像データに上記寄与率を乗ずる複数の乗算器と、上記寄与率を乗じて分配したデータ値に基づいて当該サブフィールドの点灯、もしくは不点灯を制御する2値データを出力し、かつ、上記分配配置した画像データを取り込んで次のサブフィールドビットマップ演算部に与える画像データを生成する際の減衰率を算出する減衰率演算部と、上記減衰率を上記分配した画像データに乗ずる複数の乗算器と、上記減衰率を乗じた画像データを取り込んで次のサブフィールドビットマップ演算部のための画像データを生成する新画像データ収納部とを備えたものとしたものである。
【0040】
また、この発明の請求項18にかかる階調表示装置は、上記表示装置に表示される1フィールドの画像を、異なる階調度を有する複数個のサブフィールドを用い、これらサブフィールドから、表示に必要なものを選択して画像を表示する画像表示装置において、入力された画像信号のデータから、隣接するフィールド間で画像の動きベクトルを検出する動きベクトル検出手段と、上記検出した動きベクトルに基づいて、各画素毎の4隅の移動方向、ならびに移動量を示す4隅動きベクトルを算出する4隅動きベクトル演算部と、上記算出した4隅動きベクトルに基づいて、各サブフィールド毎に当該サブフィールドの発光開始位置と発光終了位置を算出する中間座標抽出部と、上記出力される座標値に基づいてサブフィールドの点灯、または不点灯を制御する2値データを出力し、かつ、次のサブフィールドビットマップ演算部に与える画像データを出力するサブフィールドビットマップ演算部と、該サブフィールドビットマップ演算部からの2値データを全サブフィールドにわたって合成して上記サブフィールドを構成するためのサブフィールド駆動データを出力する合成部とからなる画像データ演算変換手段とを備えたものである。
【0041】
また、この発明の請求項19にかかる階調表示装置は、上記請求項18記載の階調表示装置において、上記中間座標抽出部とサブフィールドビットマップ演算部を、1フィールドの画像を構成するサブフィールドの個数分と同個数設けられたものとしたものである。
【0042】
また、この発明の請求項20にかかる階調表示装置は、上記請求項18記載の階調表示装置において、上記サブフィールドビットマップ演算部を、上記中間座標抽出部より出力される4隅ベクトルの中間座標値を4隅とする、定められた領域の面積を定められた期間積分する画素面積演算部と、上記4隅ベクトルの中間座標値にも基づいて、画像データを所定のサブフィールド平面に分配配置する割合を算出する寄与率演算部と、入力した画像データに上記寄与率を乗ずる複数の乗算器と、上記寄与率を乗じて分配したデータ値に基づいて当該サブフィールドの点灯、もしくは不点灯を制御する2値データを出力し、かつ、上記分配配置した画像データを取り込んで次のサブフィールドビットマップ演算部に与える画像データを生成する際の減衰率を算出する減衰率演算部と、上記減衰率を上記分配配置した画像データに乗ずる複数の乗算器と、上記減衰率を乗じた画像データを上記画素面積演算部で算出した成分値で除算する複数の除算器と、上記除算された画像データを取り込んで次のサブフィールドビットマップ演算部のための画像データを生成する新画像データ収納部とを備えたものとしたものである。
【0043】
また、この発明の請求項21にかかる階調表示装置は、上記請求項18記載の階調表示装置において、上記サブフィールドビットマップ演算部を、上記中間座標抽出部より出力される4隅ベクトルの中間座標値を4隅とする、定められた領域の面積を定められた期間積分する画素面積演算部と、寄与率の値をあらかじめ演算してROMテーブルとして値を保持し、上記4隅ベクトルの中間座標値にも基づいて、画像データを所定のサブフィールド平面に分配配置する割合を上記ROMテーブルより出力する寄与率演算部と、入力した画像データに上記寄与率を乗ずる複数の乗算器と、上記寄与率を乗じて分配配置したデータ値に基づいて当該サブフィールドの点灯、もしくは不点灯を制御する2値データを出力し、かつ、上記分配配置した画像データを取り込んで次のサブフィールドビットマップ演算部に与える画像データを生成する際の減衰率を算出する減衰率演算部と、上記減衰率を上記分配配置した画像データに乗ずる複数の乗算器と、上記減衰率を乗じた画像データを上記画素面積演算部で算出した成分値で除算する複数の除算器と、上記除算された画像データを取り込んで次のサブフィールドビットマップ演算部のための画像データを生成する新画像データ収納部とを備えたものとしたものである。
【0044】
また、この発明の請求項22にかかる階調表示装置は、上記請求項18記載の階調表示装置において、上記サブフィールドビットマップ演算部を、画素面積の値をあらかじめ演算してROMテーブルとして値を保持し、上記中間座標抽出部より出力される4隅ベクトルの中間座標値を4隅とする、定められた領域の面積を上記ROMテーブルより出力する画素面積演算部と、上記4隅ベクトルの中間座標値にも基づいて、画像データを所定のサブフィールド平面に分配配置する割合を算出する寄与率演算部と、入力した画像データに上記寄与率を乗ずる複数の乗算器と、上記寄与率を乗じて分配配置したデータ値に基づいて当該サブフィールドの点灯、もしくは不点灯を制御する2値データを出力し、かつ、上記分配配置した画像データを取り込んで次のサブフィールドビットマップ演算部に与える画像データを生成する際の減衰率を算出する減衰率演算手段と、前記減衰率を前記分配配置した画像データに乗ずる複数の乗算器と、上記減衰率を乗じた画像データを上記画素面積演算部で算出した成分値で除算する複数の除算器と、該記除算された画像データを取り込んで次のサブフィールドビットマップ演算部のための画像データを生成する新画像データ収納部とを備えたものとしたものである。
【0045】
また、この発明の請求項23にかかる階調表示装置は、上記請求項18記載の階調表示装置において、上記サブフィールドビットマップ演算部を、画素面積の値をあらかじめ演算してROMテーブルとして値を保持し、上記中間座標抽出部より出力される4隅ベクトルの中間座標値を4隅とする、定められた領域の面積を上記ROMテーブルより出力する画素面積演算部と、上記4隅ベクトルの中間座標値にも基づいて、画像データを所定のサブフィールド平面に分配配置する割合を上記ROMテーブルより出力する寄与率演算部と、入力した画像データに上記寄与率を乗ずる複数の乗算器と、上記寄与率を乗じて分配配置したデータ値に基づいて当該サブフィールドの点灯、もしくは不点灯を制御する2値データを出力し、かつ、上記分配配置した画像データを取り込んで次のサブフィールドビットマップ演算部に与える画像データを生成する際の減衰率を算出する減衰率演算部と、上記減衰率を上記分配配置した画像データに乗ずる複数の乗算器と、上記減衰率を乗じた画像データを上記画素面積演算部で算出した成分値で除算する複数の除算器と、上記除算された画像データを取り込んで次のサブフィールドビットマップ演算部のための画像データを生成する新画像データ収納部とを備えたものとしたものである。
【0046】
また、この発明の請求項24にかかる階調表示方法は、上記請求項3または5に記載の階調表示方法において、上記第kサブフィールドを、より発光期間の長いサブフィールドとし、上記第(k+1)サブフィールドを、発光期間のより短いサブフィールドとなるようにしたものである。
【0047】
また、この発明の請求項25にかかる階調表示装置は、上記請求項14または18に記載の階調表示装置において、上記第kサブフィールドを、より発光期間の長いサブフィールドとし、上記第(k+1)サブフィールドを、発光期間のより短いサブフィールドとなるようにしたものである。
【0048】
【発明の実施の形態】
実施の形態1.
以下、本発明の実施の形態1による階調表示方法、及び階調表示装置について、図面を参照して説明する。図1は、本実施の形態1の階調表示装置の全体構成を示している。図1において、入力端子により入力された映像信号1は、AD変換器2でデジタルデータに変換され、動きベクトル検出部4と画像データ演算変換部3に入力する。動きベクトル検出部4では、多階層2値化処理,ブロックマッチング処理,統合判定処理などを実施して入力画像の動き画素数、及び移動方向を検出し出力する。動きベクトル検出部4で検出した動き画素数,移動方向、及び検出ブロック情報を画像データ処理部3へ入力し、動き画素数、及び移動方向の結果に基づいて入力画素位置データのサブフィールドパターンの組み合わせ演算を行ない、視覚光量に適したデータの再構成を行なう。これにより、偽輪郭の発生する画素の階調データ補正を行なう。この出力データは、サブフィールド変換部5へ入力する。サブフィールド変換部5は、各画素の階調データを電圧印可時間幅に対応したパルス数に変換し、Xスキャンドライバー6、及びYスキャンドライバー7に与えることで、画像表示部8に中間調表示を行っている。同期分離部9において映像信号1から同期信号を分離し、入力映像信号に同期したタイミング信号をタイミング発生部10で作成して各部に与えている。
【0049】
次から画像データ演算変換部3の実施例1を説明する。図16は、図1における画像データ演算変換部3の構成を示すものである。動きベクトルデータ32は、1画素毎のベクトル値を入力する。画素4隅動きベクトル演算部20は、動きベクトルデータ32を入力し各画素毎に4隅の動きベクトルを演算出力する。画素の4隅の動きベクトルを演算する理由は、画素の動きに伴ってその形状が歪むためで、その頂点位置の動きベクトルを正確に捉えておく必要があるためである。第1サブフィールド中間座標抽出演算部21から第nサブフィールド中間座標抽出演算部25は、4隅の動きベクトルを入力し各サブフィールドで発光しているそれぞれの期間の視線の始点と終点の中間位置を求め出力する。第1サブフィールドビットマップ演算部26から第nサブフィールドビットマップ演算部30は、画像データを視線の始点と終点の中間座標を使い、各サブフィールドで画素単位に発光するか否かを合成部に出力しかつ次のサブフィールドビットマップ演算部で必要な新画像データを出力する。このサブフィールド中間座標抽出演算部21〜25とサブフィールドビットマップ演算部26〜30とは対をなしており、例えば、サブフィールド数が8個あればこの組み合わせは8対必要である。合成部31では、各ビットマップ演算部26〜30で出力されたデータの遅延を調整してサブフィールドパターンのビット毎の組み合わせを行ない、新しい画像データの合成を行なう。
【0050】
次に画素4隅動きベクトル演算部20の詳細を、図17、数式17を用いて説明する。図17は、画像データのある位置を示す。ある座標(m、n)の画素の動きベクトル値を(Vx(m,n),Vy(m,n)) とする。ある座標(m、n)とは、2次元の画像データ上の位置のことである。座標(m、n)の画素の4隅をそれぞれA,B、C、D点とする。例えば、A点に注目すると、A点は、位置(m、n)、(m−1 、n)、(m、n−1)、(m−1、n−1)のそれぞれの画素に囲まれている。A点の動きベクトルを求めるには、位置(m、n)、(m−1 、n)、(m、n−1)、(m−1、n−1)の画素の動きベクトル値を用いて演算する。A点の動きベクトルを求める演算の一例として、周りの画素位置4点の動きベクトルの平均をとることが考えられる。従って、A点の動きベクトル(VAx,VAy) は、数式17で求めることができる。他の3点も同様の式で求めることができる。
【0051】
【数17】
Figure 0003697681
【0052】
次に図16における、第1サブフィールド中間座標抽出演算部21から第nサブフィールド中間座標抽出演算部25の動作を、図2、及び図18を用いて説明する。図18は画像データがディスプレイ上の位置を移動している様子を示している。ある画素の4隅のA,B,C,D点の動きベクトルは、(点(6,4.3),(5.9,4),(6,3.8),(6.2,4) の1例を示している。網膜画素は、時刻t0の時80で、時刻t1の時81で、時刻t2のときは82で、t3のときは83で、t4のときは84でt5のときは85で、t6のときは86の位置にあることを示し、破線は、発光期間中の網膜画素の4隅を示している。サブフィールド中間座標抽出演算部は、それぞれのサブフィールドの発光期間の始点位置と終点位置を演算し出力する。
【0053】
計算方法は、
X=(t−t0)/t×Vx(m、n)+x0±0.5
Y=(t−t0)/t×Vy(m、n)+y0±0.5
Vx(m、n),Vy(m、n)は動きベクトル値
例えば、点87の位置は、
X=(4ー2)/10×5.9+x0+0.5=1.68+x0
Y=(4ー2)/10×4 +y0−0.5=0.30+y0
また、点88の位置は、
X=(8ー2)/10×6 +x0+0.5=4.10+x0
Y=(8ー2)/10×3.8+y0+0.5=2.78+y0
である。
【0054】
中間座標抽出演算部21〜25は、サブフィールドの数だけ必要で、第1サブフィールド中間座標抽出演算部21では、第1サブフィールドの発光期間の始点位置と終点位置を演算し、第1サブフィールドビットマップ演算部26に出力し、第2サブフィールド中間座標抽出演算部22では、第2サブフィールドの発光期間の始点位置と終点位置を演算し、第2サブフィールドビットマップ演算部27に出力し、第nサブフィールド中間座標抽出演算部25では、第nサブフィールドの発光期間の始点位置と終点位置を演算し、第nサブフィールドビットマップ演算部30に出力する。
【0055】
次に、第1サブフィールドビットマップ演算部26から第nサブフィールドビットマップ演算部30の詳細について図19を用いて説明する。図19は、中間座標抽出演算部からの中間座標データ73と画像データ74から、新画像データ75と2値のビットマップ76を出力するまでの構成を示した図である。処理の概念を、数式18、及び図20を用いて説明する。数式18は、図19の新画像データ75を求めるための式である。
【0056】
【数18】
Figure 0003697681
【0057】
Data(m、n)は、図19のある位置(m、n)の画像データ74である。NewData(m、n)は、図19のある位置(m、n)の新画像データ75である。Ka(x、y)は、図19の減衰率演算部59の出力である。E(m、n、x、y)は、図19の寄与率演算部54の出力である。図20は、ディスプレイ上のある位置(x、y)に対して、図19の画像データ74が配列されたレジスタ55から新画像データ75が配列されている新画像データ収納部72までの流れを視覚的に示した図である。図20の複数の画像データ100に保持するのが図19のレジスタ55である。複数の画像データ(x、y)に対応するそれぞれの寄与率を掛ける101に対応するのが図19の複数の乗算器56、57、58である。乗算されたデータを合計する図20のP(x、y)102に対応するのが図19の加算器60である。図20の“一様に減衰率を掛ける" 103に対応するのが図19の複数の乗算器66、67、68である。
【0058】
図20の“それぞれの画素面積で割る" 104に対応するのが図19の複数の除算器69,70,71である。図20の複数の新画像データ105に対応するのが図19の新画像データ収納部72である。図20の“+" 106は、図19の加算器76に対応する。図19のビットマップ出力76のデータは、ディスプレイ上の位置(x、y)に対応しており、出力データが“1" のときは、当該サブフィールドを発光させ、“0" のときは、発光させない。図20の信号の流れ107の画像データ上の出発位置(m、n)と新画像データ上の終着位置(m、n)は等しい。 ディスプレイ上のある位置(x、y)に対して寄与率が0になるようなある位置(m、n)の画像データは演算する必要はない。数式18において、E(m、n、x、y)=0であることから明らかである。
【0059】
次に各部の説明をする。画素面積演算部51は、中間座標データ73を用いて各画素の面積を演算するところである。レジスタ52は、画素面積演算部51より出力されたデータを保管しその複数のデータを出力する。レジスタ53は、動きベクトルデータ73を保管し、その複数の動きベクトルデータを出力できる。寄与率演算部54は、複数の中間座標データを用いて、複数の寄与率を演算し、出力する。レジスタ55は、画像データ74を保管し、その複数の画像データを出力する。
【0060】
次に、減衰率演算部59について説明する。減衰率演算部59は、入力されるデータをすべて加算し、その合計値と閾値作成部63の出力データとで大小比較した、“0" または“1" の結果を2値のビットマップとして出力する。また、その結果より、合計値が閾値より小さければ1.0を出力し合計値が閾値以上なら(合計値−閾値)÷(合計値)を出力する。その減衰率演算部59の概念を図21及び数式19,20を用いて説明する。
【0061】
【数19】
Figure 0003697681
【0062】
【数20】
Figure 0003697681
【0063】
図21は、加算器60の出力と減算器61の出力を表したものである。数式19は、加算器60の出力が閾値以上のときの減衰率演算部出力59の出力とビットマップ出力を表わす式である。数式20は、加算器60の出力が閾値未満のときの減衰率演算部出力59の出力とビットマップ出力を表わす式である。P(x,y)は、ディスプレイ上の位置x、yのときの加算器60の出力値である。thは閾値の値である。ka(x、y)は、ディスプレイ上の位置x、yのときの減衰率演算部出力59の出力値である。H(x,y)は、ディスプレイ上の位置x、yに対応するビット出力である。これで減衰率演算部59は、入力されるデータをすべて加算し、その合計値と閾値作成部63の出力データとで大小比較した、“0" または“1" の結果を2値のビットマップとして出力するし、その結果より、合計値が閾値より小さければ1.0を出力し合計値が閾値以上なら(合計値−閾値)÷(合計値)を出力することがわかる。
【0064】
新画像データ収納部72は、減衰率演算部と寄与率演算部と画像データ74が複数収納してあるレジスタ55を掛けた値から、画素面積演算部の結果が収納してあるレジスタ52の値を割った値を、一時加算保持し、次のサブフィールドビットマップ演算部に出力するデータを出力する。
【0065】
図16に示した合成部31は、次のサブフィールド変換部5の形式にあったデータを合成するところである。各ビットマップ演算部からの出力は、第1サブフィールド、次に第2、次に第3、第4という具合にサブフィールド順に遅延して出力される。この遅延を調整して次のサブフィールド変換5に出力する。
【0066】
以下、上記構成を有する階調表示装置を用いた表示方法について説明する。
まず階調表示方法について述べる。なお、ここでは説明を簡単にするために、一定方向の動きベクトル(6、4)のスクロール画像データと、図2に示すサブフィールドの発光シーケンスを用いて説明するものとする。
【0067】
最初にサブフィールドの構成を説明する。図2に示すように、サブフィールドの構成は、3つのサブフィールドからなり、それぞれのサブフィールドによる発光パターン比が{SF1,SF2,SF3}={4:2:1}の重み付けで構成された発光シーケンスとする。この場合の発光シーケンスの周期はTであり、斜線部分が発光期間を表している。この図2で、第1サブフィールドの発光期間の開始はt1であり、終わりはt2であり、また、第2サブフィールドの発光期間はt3であり、終わりはt4であり、さらに、第3サブフィールドの発光期間の開始はt5であり、終わりはt6をである。
【0068】
また、
t7=t1+T
t0=(t1+t2)÷2
(t2−t1):(t4−t3):(t6−t5):T=4:2:1:10
(t3−t2):(t5−t4):(t7−t6):T=1:1:1:10
の関係があるものとする。
【0069】
次に視点の動きと1単位の網膜画素面積の関係について説明する。ここでいう網膜画素とは、ディスプレイ上の像が網膜に映った、網膜の受容域のことを定義したもので、その受容域の重心位置が視点となる。図3(a)は、視点がディスプレイ上を右上方向に動くことを想定している概念図である。
【0070】
一定方向の動きベクトル(6、4)のスクロール画像であるから、視点は、ディスプレイ上の位置(x0、y0)から位置(x0+6、y0+4)を時間Tで通過する。また1単位の網膜画素面積とは、その受容域の1単位面積のことである。
【0071】
次に1単位の網膜画素がディスプレイ上の各画素からどれだけ影響を受けるかを説明する。図4は、各サブフィールドで、1単位の網膜画素がディスプレイ上の各画素からどれだけ影響を受けるかを小数3桁までの数字で表した図であり、ここでは、この数字を寄与率という呼び方で定義するものとする。寄与率の説明と求め方の詳細については後述する。図4(a)は、時刻t1からt2までの間で、図4(b)は、時刻t3からt4までの間で、図4(c)は、時刻t5からt6までの間に、網膜画素がディスプレイ上の各画素からどれだけ影響を受けたかを寄与率で示した図である。
【0072】
網膜画素160は、時刻t0のとき網膜画素の位置で、網膜画素161は、時刻t1のとき網膜画素の位置で、網膜画素162は、時刻t2のとき網膜画素の位置で、網膜画素163は、時刻t3のとき網膜画素の位置で、網膜画素164は、時刻t4のとき網膜画素の位置で、網膜画素165は、時刻t5のとき網膜画素の位置で、網膜画素166は、時刻t6のとき網膜画素の位置である。例えば、時刻t1からt2までに1単位の網膜画素は、ディスプレイ上の位置(x0、y0)に対して寄与率は0.324であり、ディスプレイ上の位置(x0+5、y0+3)に対して寄与率は0であることが図からわかる。
【0073】
次に、網膜画素がディスプレイより受けている階調の求め方について説明する。ディスプレイ上を移動したときの網膜画素に入ってくる階調は、それぞれのディスプレイ上の画素から受ける光量の和である。例えば、上記したサブフィールドの発光シーケンスで、時刻t1からt7までの時間に網膜画素がどれだけの階調を得たかを上記した寄与率をもって求める。そして、得た階調をMで、ディスプレイ上の位置(x、y)でnサブフィールド期間において、発光したか否かをH(x,y、n)とする。H(x,y)の値は、発光すればH(x,y、n)=1で、発光しなければH(x、y、n)=0である。
【0074】
従って、
Figure 0003697681
で求めることができる。
【0075】
上記H(x、y、n)の配列要素を適切に決定することによって、この網膜画素が知覚する階調Mが、元来の画像の階調データと限りなく等しくなると偽輪郭の発生を抑えられる。
【0076】
次にどのようにしてH(x、y、n)を求めるかを、説明を簡単にするために、2画素が動きベクトル(6、4)で移動した場合の例を取り上げて説明する。図3(b)は、2画素の画像データが移動し、それに伴い網膜画素が移動している様を示している。2つの網膜画素が、動きベクトル(6、4)で移動していることがわかる。例として、画像データは、位置(m、n)には7を、位置(m+1、n)には3とする。それを表しているのが図5(a)と図6(a)であり、画像データを2次元的に示している。図6,図7,図8は、これから説明する処理を示したものであり、それぞれの図の(a)図は、分配配置するデータを示し、図の(b)図は、位置(m、n)のデータを分配した結果を示し、図の(c)図は、位置(m+1、n)のデータを分配した結果を示し、図の(d)図は、分配したそれぞれの位置合計を示し、図の(e)図は、ある閾値で比較した結果を示し、図の(f)図は、次の処理で使用する画像データを示す。
【0077】
これからH(x,y,n)を求める過程を説明する。演算の過程としては概略次のようになる。まず、第1サブフィールドの発光するか否かのデータであるH(x、y、1)を求め、それからH(x、y、1)の結果と画像データからH(x、y、2)を求めるための新しい画像データAを演算し出力する。その出力された新しい画像データAをもとに、第2サブフィールドの発光するか否かのデータであるH(x、y、2)を求め、それからH(x、y、2)の結果と画像データAからH(x、y、3)を求めるための新しい画像データBを演算し出力する。最後に、その出力されたH(x、y、3)を求めるための新しい画像データBをもとに、第3サブフィールドの発光するか否かのデータであるH(x、y、3)を求める。
【0078】
それでは最初に、第1サブフィールドの発光するか否かのデータであるH(x、y、1)と、第2サブフィールドの発光するか否かのデータであるH(x、y、2)を求めるために、新しい画像データAを出力する過程について説明する。はじめに、位置(m、n)の画像データである7を、図4(a)に示す寄与率を用いてディスプレイ上に分配配置する。分配配置する方法は、図4(a)に示す位置(x、y)の寄与率と画像データを掛け合わせた値を、図6(b)に示す位置(x、y)に代入する。例えば、図6(b)に示す位置(x0、y0)に代入される値は、0.324×7=2.268で、位置(x0+1、y0)に代入される値は、0.136×7=0.952である。同様に図6(b)の他の位置に代入される値も演算する。また位置(m+1、n)の画像データである3を分配配置する方法は、上記のように寄与率と掛け合わせるが、x位置が先ほどより+1大きいので、代入する位置をx位置を+1シフトして書き入れる。すなわち、図6(c)に示す位置(x0+1、y0)に代入される値は、0.324×3=0.972で、位置(x0+2、y0)に代入される値は、0.136×3=0.408である。同様に図6(c)の他の位置に代入される値も演算する。
【0079】
次に図6(b)と図6(c)に示してある値を座標位置を一致させて加算する。例えば、図6(b)の位置(x0、y0)の値である2.268と、図6(c)の位置(x0、y0)の値である0.408を加算した値2.676を、図6(d)の位置(x0、y0)に代入する。同様に、図6(d)の他の位置に代入される値も演算する。そしてH(x、y、1)は、図6(d)の代入された値と閾値を比較して求める。図6(d)の値と比較する閾値は、4である。なお、ここでいう閾値の詳細については後述するものとする。H(x、y、1)は、図6(d)の値が閾値の4以上なら1、4未満なら0である。例えば、位置(x0、y0)の値は2.676で、4未満なので、H(x0、y0、1)は0である。同様に比較して代入していくと図6(e)が完成する。今回の例では、図6(e)のすべての位置の値は、0であった。すなわち、第1サブフィールド区間で発光する画素はないことがわかる。
【0080】
次に、第2サブフィールドの発光するか否かのデータであるH(x、y、2)を求めるための新しい画像データAを出力する過程について説明する。概念は、分配配置する画像データを回収(フィードバック)して、新画像データAを求めることである。新画像データAの値は、寄与率に応じて分配した画像データに対し、H(x、y、1)の結果によって決まる減衰率を掛けて、画素面積で割り、元の座標位置にすべて回収することにより算出する。なお、ここでいう画素面積の説明は後述するものとする。
【0081】
減衰率ka(x、y)の求め方は、
H(x、y、1)=1のとき、
ka(x、y)=(位置(x、y)に分配した値の合計値−閾値)÷(位置(x、y)に分配した値の合計値)
H(x、y、1)=0のとき、
ka(x、y)=1
である。
【0082】
回収する1例をあげると、画像データの位置(m、n)からディスプレイ上の位置(x0、y0)に分配した値は、上記の結果より2.268であった。またH(x0、y0、1)の結果は、0であった。画像データの位置(m、n)がディスプレイ上の位置(x0、y0)に対して回収する値は、2.268×1で2.268である。同じようにして、画像データの位置(m、n)がディスプレイ上の位置(x0+1、y0)に対して回収する値は、0.952×1で0.952である。従って、画像データの位置(m、n)がディスプレイ上のすべての位置に対して回収する値は、
0.322*1+1.029*1+0.042*1+0.014*1+0.952*1+2.268*1+0.952*1+0.014*1+0.042*1+1.029*1+0.322*1
で、6.986である。
【0083】
今回の例では、いかなるx、yに対してH(x、y、1)は、0であったので、分配した値はすべて回収することになる。すなわち、分配したデータ“7" は、そのまま回収される。上記の値が6.986となっているのは、小数3桁で丸めた誤差が含まれるためである。
【0084】
次に、この値を画素面積で割る。画素面積は、この例では1である。すなわち、割った値は、7÷1で7となる。同様に画像データの位置(m+1、n)がディスプレイ上のすべての位置に対して回収する値は3である。ここでも画素面積は、1である。割った値は、3÷1で3である。これを図6(f)に示しておく。この図6(f)の値が次の第2サブフィールドの発光するか否かのデータであるH(x、y、2)を求めるための新しい画像データAである。以上が第1サブフィールドの発光するか否かのデータであるH(x、y、1)を求め、それからH(x、y、1)の結果と画像データからH(x、y、2)を求めるための新しい画像データAを演算し出力する方法である。
【0085】
次に、第2サブフィールドが発光するか否かのデータであるH(x、y、2)を求め、それからH(x、y、2)の結果と画像データAからH(x、y、3)を求めるための新しい画像データBを演算し出力する方法を説明する。図7(a),(b),(c),(d)は、上記と同様な演算を行なえばよい。
【0086】
すると、図7(d)と比較する閾値は、2である。図7(d)で閾値である2以上の値をもつ位置は、(x0+2、y0+1)と(x0+3、y0+2)の2個所あり、それぞれの減衰率は、
位置(x0+2、y0+1)のとき、
(2.104−2)÷(2.104)=0.049、
位置(x0+3、y0+2)のとき、
(3.084−2)÷(3.084)=0.351
である。
従って、新画像データBの位置(m、n)の値は、
0.028*1+1.904*1+2.268*0.351+0.091*1+2.065*0.049+0.651*1
で3.571となり、
位置(m+1、n)の値は、
0.012*1+0.816*0.351+0.972*1+0.039*0.049+0.885*1+0.279*1
で2.436である。画素面積は、1である。割った値を図7(f)に示しておく。この図7(f)の値が次の第2サブフィールドの発光するか否かのデータであるH(x、y、3)を求めるための新しい画像データBである。
【0087】
以上が第2サブフィールドの発光するか否かのデータであるH(x、y、2)を求め、それからH(x、y、1)の結果と画像データAから、H(x、y、3)を求めるための新しい画像データBを演算し出力する方法を説明した。第3サブフィールドの発光するか否かのデータであるH(x、y、3)を求める方法も同様に演算すればよい。補足をすると、この場合、図8(d)の値と比較する閾値は、1となる。最後に出力結果を図5(b)に示した。この図5(b)は、座標位置を一致させて、図6(e)の値に4を掛けた値と、図7(e)に2を掛けた値と、図8(e)加算した結果を示したものである。
図5(a)は入力画像データであり、これまで説明した画像データ変換処理を施した結果が図5(b)になる。図5(b)では、視点の移動と共に各サブフィールド区間で発光している様子がわかる。
【0088】
次に寄与率と画素面積の概念と、求め方の詳細な説明を行なう。上述のように、寄与率とは、画像データ上の画素がディスプレイ上の画素に与える影響を数値化したものである。今までの寄与率の説明は、1単位の網膜画素がディスプレイ上の各画素からどれだけ影響を受けるかを数値化したものであったが、画像データ上の画素と1単位の網膜画素を等価にすることで本発明の目的である偽輪郭をなくすことができる。
【0089】
例えば、静止画像の場合の寄与率は、画像データ上の位置(m、n)の階調をディスプレイ上の位置(x、y)に表示するだけでよいので、画像データ上の位置(m、n)の画素に対するディスプレイ上の位置(x、y)画素の寄与率は、1(100%)である。また、動画像の場合、画像データの位置(m、n)の画素は、ディスプレイ上の位置(x、y)画素のみではなく、例えば、(x+1、y)や(x、y−1)などに影響を与えるので、画像データ上の位置(m、n)の画素に対するディスプレイ上の位置(x、y)画素の寄与率は、1未満である。また、画像データ上の画素とは、物理的に存在しているわけではなく、画を縦横に区切った1単位の領域を意味している。画自体の領域である。
【0090】
また、画像データ上の画素の面積のことを、画素面積という。また、画像データ上の画素は、変形することがある。これまで説明した一定方向に動くスクロール画像などは正方格子で変形することはないが、動きの違う画素と画素では、画素が伸縮したり膨張したりして変形する。また変形するということは、面積も変わることがある。
【0091】
以降、画素面積と寄与率の求め方について説明する。図9は、ある画像データの画素が時刻t1からt2の間に移動したこと示す図である。四角形A,B,C,Dは画素を示し、A,B,C,Dは四角形の4隅に相当し、四角形P,Q,R,Sは画素を示し、P,Q,R,Sは四角形の4隅に相当する。
【0092】
今、ある時刻t1のときの画素A,B,C,Dから、時刻t2のときの画素P,Q,R,Sに動いたとする。Kは、時刻tのおける移動途中の網膜画素の位置である。図9からは、画素が変形している様子や、ディスプレイ上の位置(x、y)を通過している様子がわかる。図10は、ディスプレイ上の位置(x、y)の付近を拡大した図である。ディスプレイ上の画素間の距離は、1で正規化をする。従ってディスプレイ上の1画素の面積は、1である。ディスプレイの構造上3原色で1画素であるが、本発明の説明では、1原色で1画素で、同一位置にある。斜線部分は、画素Kとディスプレイ上の位置(x、y)の重なっている部分で、画像データ(m、n)とディスプレイ上の位置(x、y)との関係であるので、面積をSp(t、m、n、x、y)とし、また画素Kの面積を、Sk(t、m、n)とする。それぞれを時間的平均をとることで寄与率と画素面積を定義する。数式1が寄与率E(m、n、x、y)で、式2(b)が画素面積S(m、n)を求める式である。
【0093】
【数1】
Figure 0003697681
【0094】
【数2】
Figure 0003697681
【0095】
次に面積Sp(t、m、n、x、y)と面積Sk(t、m、n)の求めかたの概念を説明する。図11(a),(b)は、あるディスプレイ上の位置に網膜画素が重なっている図であり、数式3,数式4は、その重なっている面積を求める式である。なお、数式3,4において、丸付き数字は、図11(a),(b)に相当する各3角の領域の面積を示している。
【0096】
【数3】
Figure 0003697681
【0097】
【数4】
Figure 0003697681
【0098】
重なっている面積は、単位正方形の面積1より、重なっていない面積を減算することで求まる。重なっていない面積を求めるには、重なっていない領域を補助線を引くことで幾つかの3角形をつくり、それらの3角形の面積を加算すればよい。それぞれ計算された面積Sが、面積Sp(t、m、n、x、y)である。
【0099】
また図式12(a),(b)は、網膜画素とその網膜画素をすべてを囲む長方形とその長方形の最大最小の座標を示し、数式5,6は網膜画素の面積を求める式である。なお、数式5,6の丸付き数字は、図12(a),(b)に相当する各3角または4角の領域の面積を示している。
【0100】
【数5】
Figure 0003697681
【0101】
【数6】
Figure 0003697681
【0102】
重なっている面積は、網膜画素をすべてを囲む長方形の面積である(MaxX−MinX)×(MaxY−MinY)より、重なっていない面積を引くことで求まる。ここで、MaxX,MaxYは、画素面積の座標x、yの最大値を示し、MinX,MinYは、画素面積の座標x、yの最小値を示している。一方、重なっていない面積を求めるには、重なっていない領域に補助線を引くことで幾つかの3角形と長方形をつくり、それらの3角形や長方形の面積を加算すればよい。それぞれの計算された面積Sが、面積Sk(t、m、n)である。以上、面積Sp(t、m、n、x、y)と面積Sk(t、m、n)の求めかたの概念を説明したが、面積は、直接求めるのではなく、面積を演算する回路が容易にできるように3角形か長方形を組み合わせて求める。
【0103】
次に寄与率演算部の概念と実際の数値を用いて詳細な説明をする。一例として、図4(a)の位置(x0、y0)の寄与率0.324の求め方を、図13、数式7〜16、図14、図15を用いて説明する。
【0104】
【数7】
Figure 0003697681
【0105】
【数8】
Figure 0003697681
【0106】
【数9】
Figure 0003697681
【0107】
【数10】
Figure 0003697681
【0108】
【数11】
Figure 0003697681
【0109】
【数12】
Figure 0003697681
【0110】
【数13】
Figure 0003697681
【0111】
【数14】
Figure 0003697681
【0112】
【数15】
Figure 0003697681
【0113】
【数16】
Figure 0003697681
【0114】
図13は、概念を、図14は、図4(a)の拡大図、及びいろいろな時刻の網膜画素の位置を、図15は、ある時刻におけるディスプレイ上の位置(x、y)と網膜画素との関わり合いを、数式11〜16は、寄与率の計算式を示すものである。まず、最初に、図13、及び数式7〜14を用いて概念を述べる。図13(a)は、2つの単位面積1の正方形(基本、移動)が重なっている図であり、数式7はその正方形が重なっている面積を求める式を示す。図13(a)の黒丸の点は、正方形の重心を示しており、基本正方形は座標(0、0)の位置に、移動正方形は、(x、y)にある。斜線の面積は、条件付きで(1−|x|)(1−|y|)であることがわかる。次に図13(b)は、移動正方形の重心が(x0、y0)から(x1、y1)に移動したときの図を示し、数式8は間接変数kを使用し移動中の移動正方形の重心(x、y)を示した式である。数式9は、移動正方形が移動中に重なった面積の総和を求める式と結果を示す。その総和を、Ee(x0、y0、x1、y1)の関数とする。Eeは、数式8を数式7に代入し、kの関数で表した面積をkで積分することになる。最後に図13(c)は、ある例を示して、E(寄与率)を求める方法を示すために、移動正方形が、重心(x0、y0)から(x3、y3)を移動している図を示し、数式10は象限の境目の座標位置を求める式と寄与率を求める式を示す。異象限を通過するために、Eeの計算は、象限毎に分ける必要がある。(x1、y1)は、第2象限と第3象限の境目の座標を、(x2、y2)は、第1象限と第2象限の境目の座標である。寄与率Eは、各象限の移動正方形が移動中の重なった面積の総和Eeに、各象限を通過した割合を掛けた総和である。また、同一象限内でも、重心位置が±1を通過するところでもEeの演算は分ける必要がある。図14は、図4(a)の拡大図、及びいろいろな時刻の網膜画素の位置を示しているが、時刻t0のときに網膜画素は172の位置に、時刻t1のときに網膜画素は170の位置に、時刻t2のときに網膜画素は174の位置にあることは、上記よりわかる。網膜画素171、173は、ディスプレイ上の位置(x0、y0)の画素に重なる直前と直後の位置である。そのときの時刻は、t11、t13である。次に図15は、ある時刻における網膜画素とディスプレイ上の位置(x、y)との重なりを示している。上記したように、斜線部分は、時刻tのときの網膜画素Kとディスプレイ上の位置(x、y)の重なっている部分で、画像データ(m、n)とディスプレイ上の位置(x、y)との関係があるので、面積をSp(t、m、n、x、y)とし、また画素Kの面積を、Sk(t、m、n)とする。これは、上記数式7と同様な関係がある。
【0115】
以上概念を説明したが、次から画素面積と寄与率の実際の数値を用いて述べる。
数式11は、画素面積を求めている式である。網膜画素は、時間的に変形しないので結果1となる。数式12は、寄与率を求める式である。
時刻t1からt2までの平均の重なり合っている面積を求めていることがわかる。数式7〜10と対比させると、寄与率Eの結果は、
(k2-k1)Ee(x1,y1,x2,y2)+(k3-k2)Ee(x2,y2,x3,y3)
となる。
【0116】
次に数式13では、移動正方形の重心の始点(x0、y0)と終点(x4、y4)の位置を、数式14では、同一象限内の重心位置が±1を通過する位置を、数式15では、移動正方形が移動中の重なった面積の総和Eeを、数式16では、上記数式14,数式15の結果を、数式12に代入して寄与率を、それぞれ求めている。以上の結果、寄与率0.324が求まることになる。この例では、異象限を通過するのは、時刻t0のときの1回である。また同一象限内の重心位置が±1を通過するのは、時刻t11とt13で2回ある。それぞれ分けて計算することがこの例からわかる。
【0117】
次に閾値の詳細な説明をする。閾値は、全サブフィールド発光期間の長さに対するあるサブフィールド発光期間の長さの比を画像データの最大値を掛けあわせたものである。一例を挙げて説明すると、
画像データが0、1、2、3、4、5、6、7の8階調で図2の発光シーケンスをとるときを例にとると、
Figure 0003697681
従って、第1サブフィールドビットマップ演算部26の閾値は4である。同じように第2サブフィールドビットマップ演算部27の閾値は2である。同じように第3サブフィールドビットマップ演算部28の閾値は1である。簡単な例ではあったが、256階調を10サブフィールドで表示する様なディスプレイの場合も、同様に上記の式を使用して求める。
【0118】
第1サブフィールドから第nサブフィールドビットマップ演算部の閾値は、大きい閾値から順に小さい閾値に設定する。すなわち第1サブフィールドのビットマップ演算部の閾値は、最大で、第nサブフィールドのビットマップ演算部の閾値は、最小である。またこの構成をとれば、動きベクトル検出に少々の誤差が生じても、画像破綻が生じない。
【0119】
このように本実施の形態によれば、動き画素数、及び動き方向に応じたベクトル値から、表示画面上で移動画素に対して視線が追従したときに、各サブフィールド区間内での発光時間と画面上の視線移動の経路から各網膜位置に入る光量の寄与率とをリアルタイムで計算し、その出力データから新しいサブフィールドデータを作成する構成としたので、動画を目で追従したときの網膜画素が知覚する階調と本来の画像の階調データと精度よく一致するようになり、網膜には本来の画像に対応した階調に相当する光量が蓄積されるようになり、画面偽輪郭の発生を大幅に抑制することができ、偽輪郭のない表示画像を提供することができる。
【0120】
なお、ここでは、概念を簡単に説明するために、図2に示す3サブフィールド発光シーケンスを用いて説明してきたが、3サブフィールド以上の発光シーケンス、例えば、8サブフィールドでも、画像データの演算変換は可能であり、また、網膜画素を正方形で説明したが、面積が1基本単位の円に置き換えて説明してもよいこはいうまでもない。
【0121】
さらに、時刻t0は(t1+t2)÷2として説明をしたが、t0=t1でも、t0=任意でもよいことはいうまでもない。
また、説明を簡単にするために、映像を2画素を用いて説明を行ったが、画素数が多い場合に顕著な効果が得られる。
【0122】
実施の形態2.
次に本発明の実施の形態2による階調表示装置について説明する。本実施の形態2による階調表示装置の概略的な構成は図1の実施の形態1に示したものとほぼ同じであるが、画像データ演算変換部3の構成だけが異なるものである。本実施の形態2では、1画面すべてがある一定の方向に一定の速さで動く、スクロール画像と呼ばれる画像を処理することに的を絞ったものである。
【0123】
図22は、図1における画像データ演算変換部3の本実施の形態2による詳細な構成を示すブロック図である。動きベクトルデータ32は、1フィールド毎にベクトル値を入力する。第1サブフィールド中間座標抽出演算部111から第nサブフィールド中間座標抽出演算部115は、動きベクトルを入力し各サブフィールドで発光している、それぞれの期間の視線の始点と終点の中間位置を求め出力する。第1サブフィールドビットマップ演算部116から第nサブフィールドビットマップ演算部120は、画像データを視線の始点と終点の中間座標を使い、各サブフィールドで画素単位に発光するか否かを合成部に出力し、かつ、次のサブフィールドビットマップ演算部で必要な新画像データを出力する。このサブフィールド中間座標抽出演算部111〜115と、サブフィールドビットマップ演算部116〜120とは対をなしており、例えば、サブフィールド数が8個あればこの組み合わせは8対必要となるものである。
合成部121では、各ビットマップ演算部116〜120で出力されたデータの遅延を調整して、サブフィールドパターンのビット毎の組み合わせを行ない、新しい画像データの合成を行なう。
【0124】
次に第1サブフィールド中間座標抽出演算部111から第nサブフィールド中間座標抽出演算部115は、図2、図23を用いて説明する。図23は画像データがディスプレイ上の位置を移動している様子を示している。ある画素の動きベクトル( 6,4) の1例を示している。網膜画素は、時刻t0の時180で、時刻t1の時181で、時刻t2のときは182で、t3のときは183で、t4のときは184でt5のときは185で、t6のときは186の位置にあることを示し、破線は、発光期間中の網膜画素の重心を示している。サブフィールド中間座標袖出演算部111〜115は、それぞれのサブフィールドの発光期間の網膜画素の重心の始点位置と終点位置を演算し出力する。
【0125】
計算方法は、
X=(t−t0)/t×Vx(m、n)+x0
Y=(t−t0)/t×Vy(m、n)+y0
Vx(m、n),Vy(m、n)は動きベクトル値
例えば、点187の位置は、
X=(5−2)/10×6+x0=1.8+x0
Y=(5−2)/10×4+y0=1.2+y0
また、点188の位置は、
X=(9−2)/10×6+x0=4.2+x0
Y=(9−2)/10×4+y0=2.8+y0
である。
【0126】
上述したように、中間座標抽出演算部111〜115は、サブフィールドの数だけ必要で、第1サブフィールド中間座標抽出演算部111では、第1サブフィールドの発光期間の網膜画素の重心の始点位置と終点位置を演算し、第1サブフィールドビットマップ演算部116に出力し、第2サブフィールド中間座標抽出演算部112では、第2サブフィールドの発光期間の網膜画素の重心の始点位置と終点位置を演算し、第2サブフィールドビットマップ演算部117に出力し、第nサブフィールド中間座標抽出演算部115では、第nサブフィールドの発光期間の網膜画素の重心の始点位置と終点位置を演算し、第nサブフィールドビットマップ演算部120に出力する。
【0127】
次に、第1サブフィールドビットマップ演算部116から第nサブフィールドビットマップ演算部120を図24を用いて説明する。図24は、中間座標抽出演算部111〜115からの中間座標データ153と画像データ154から、新画像データ155と2値のビットマップ156を出力するまでの構成を示した図である。上記実施の形態1で処理の概念については既に説明したが、本実施の形態2では、スクロール画像限定の機能を有するものとなっている。すなわち、本実施の形態2では、画素面積は一定であることを前提とし、その画素面積演算をする関係部所は必要ないものとしたものである。図24は、図19から画素面積演算の関係部所を除いた図で、レジスタ130と寄与率演算部131とレジスタ135と減衰率演算部139と新画像データ収納部149と合成部121に関しては上記実施の形態1で説明したのと同じである。
【0128】
このように本実施の形態2では、画素面積は一定であることを前提とし、その画素面積演算をする関係部所を削除したので、その分、装置を簡略化することができる。
なお、寄与率演算部と画素面積演算部は、回路規模の削減のため、あらかじめ演算しておいた寄与率や、画素面積をROMテーブルに書き込んでおくことで使用可能である。
【0129】
【発明の効果】
以上のように、この発明によれば、表示装置に表示される1フィールドの画像を複数個のサブフィールドにより構成する画像表示方法において、画像の動きベクトルを検出し、該検出した動きベクトルの移動方向に沿って、表示すべき画像データを分配配置してサブフィールド駆動データを構成するようにしたので、動き画素数、及び動き方向に応じたベクトル値から、表示画面上で移動画素に対し視線が追従したときに、各サブフィールド区間内での発光時間と画面上の視線移動の経路から各網膜位置に入る光量の寄与率がリアルタイムで計算され、その出力データから新しいサブフィールドデータが作成されるので、動きの検出された正確な画素の移動画素数、及び移動方向に応じて画像データが変換され、偽輪郭の発生を防止することができるという効果がある。
【0130】
また、上記画像データの分配配置を、サブフィールド毎に順次に行なうようにしたので、サブフィールド処理を大幅に削減することができ、演算速度の高速化を図ることができるという効果がある。
【0131】
また、上記画像データを分配配置する位置と割合を、前記検出した動きベクトルの移動方向及び移動量に基づいて算出するようにしたので、網膜に入る光量を正確に求めることができるという効果がある。
【0132】
また、画像の動きベクトルを検出し、該検出した動きベクトルを基に、画素毎の4隅の移動方向ならびに移動量を示す四隅動きベクトルを検出し、検出した4隅動きベクトルに沿って、表示すべき画像データを分配配置してサブフィールドを構成するようにしたので、画素の動きに伴ってその形状が歪む場合においても、正確に形状を把握しておくことが可能となり、正確な画素面積と寄与率を求めることが可能となるという効果がある。
【図面の簡単な説明】
【図1】 本発明の実施の形態1にかかる階調表示装置の全体を示す構成図である。
【図2】 本実施の形態1による階調表示装置のサブフィールドの発光シーケンスを示す図である。
【図3】 視点がディスプレイ上を動く様を表している図(a)、2画素の画像データが移動し、それに伴い網膜画素が移動している様を示している図(b)である。
【図4】 各サブフィールドで1単位の網膜画素がディスプレイ上の各画素からどれだけ影響を受けるかを小数3桁までの数字で表した図である。
【図5】 画像処理をする前のデータ(a)と処理の結果(b)を示す図である。
【図6】 第1サブフィールド区間内での処理を示す図である。
【図7】 第2サブフィールド区間内での処理を示す図である。
【図8】 第3サブフィールド区間内での処理を示す図である。
【図9】 ある画像データの画素が時刻t1からt2の間に移動したこと示す図である。
【図10】 ディスプレイ上の位置(x0、y0)の付近を拡大した図である。
【図11】 あるディスプレイ上の位置に網膜画素が重なっている図である。
【図12】 網膜画素とその網膜画素をすべてを囲む長方形とその長方形の最大最小の座標を示す図である。
【図13】 寄与率の求めかたを説明するための図である。
【図14】 いろいろな時刻の網膜画素の位置を示す図である。
【図15】 ある時刻における網膜画素とディスプレイ上の位置(x、y)との重なりとを示している図である。
【図16】 画像データ演算変換部の詳細な構成を示す図である。
【図17】 ある位置の動きベクトルを示す図である。
【図18】 画像データがディスプレイ上の位置を移動を示している図である。
【図19】 中間座標抽出演算部からの動きベクトルデータと画像データとから、新画像データと2値のビットマップとを出力するまでの構成を示す図である。
【図20】 ディスプレイ上のある位置(x、y)に対して、画像データが配列されたレジスタから、新画像データが配列されている新画像データ収納部までの流れを視覚的に示した概念図である。
【図21】 加算器60の出力と減算器61の出力を視覚的に示した図である。
【図22】 画像データ演算変換部の詳細な構成を示す図である。
【図23】 画像データがディスプレイ上の位置を移動している様子を示している図である。
【図24】 中間座標抽出演算部からの動きベクトルデータと画像データとから、新画像データと2値のビットマップとを出力するまで構成を示す図である。
【図25】 従来の中間調表示方法を用いた1フィールド内の表示シーケンス、及び複数フィールドによる階調表示方法を説明するための図である。
【図26】 従来のサブフィールドによる階調表示方法で、偽輪郭が発生する原理を説明するための図である。
【図27】 従来の、視点の移動に合わせてサブフィールドのデータをシフトさせる補正方法において、4SFで、かつ1次元方向の移動を例に挙げて処理アルゴリズムを説明するための図である。
【図28】 従来のサブフィールドによる階調表示方法で、動きベクトルが8 画素/フィールドのときのサブフィールドデータの実際のシフト位置を重みを考慮して示した図である。
【図29】 従来のサブフィールドによる階調表示方法で、動きベクトルが6画素/フィールドのときのサブフィールドデータの実際のシフト位置を重みを考慮して示した図である。
【符号の説明】
1 映像信号
2 A/D変換部
3 画像データ演算変換部
4 動きベクトル検出部
5 サブフィールド変換部
6 Xスキャンドライバー
7 Yスキャンドライバー
8 画像表示部
9 同期分離部
10 タイミング発生部
20 画素4隅動きベクトル演算部
21〜25,111〜115 中間座標演算部
26〜30,116〜120 ビットマップ演算部
31,121 合成部
51 画素面積演算部
54,131 寄与率演算部
59,139 減衰率演算部
72,149 新画像データ収納部[0001]
BACKGROUND OF THE INVENTION
According to the present invention, an image of one field displayed on a display device is divided into a plurality of subfields, and each bit of the image signal represented by a digital signal is displayed in gray scale in correspondence with the subfield. The present invention relates to a tone display method and a gradation display device that are intended to suppress the occurrence of false contours that occur when an image moves.
[0002]
[Prior art]
In response to the recent demand for larger display devices, thin matrix panels such as PDP (plasma display panel), EL (electroluminescence) display elements, fluorescent display tubes, and liquid crystal display elements have begun to be provided. Among such thin display devices, in particular, the PDP has a great expectation as a so-called direct-view type display device in which a light source is directly viewed on a large screen.
[0003]
By the way, there is an intra-field time division method as a PDP halftone display method. In the halftone display method of FIG. 25, one field is composed of N screens with different luminance weights (hereinafter referred to as subfields), and SF0, SF1, SF2 are selected from the smaller luminance weight side. ,..., SF (N−1), and the luminance weight ratio of these subfields is 2 respectively. 0 , 2 1 , 2 2 , ..., 2 N-1 It is. In the figure, the hatched portion is the period during which light is emitted.
[0004]
The intermediate luminance in one field is determined by selecting the presence or absence of light emission in these subfields, and the luminance perceived by the human eye is the luminance of each of the light emission subfields due to human visual characteristics (afterglow characteristics). It can be expressed as a sum. The halftone number that can be expressed by this halftone display method is the number of subfields in one field, that is, 2 to the Nth power.
[0005]
FIG. 25A shows a display sequence in one field using the halftone display method. As shown in the figure, one field is composed of eight (N = 8) subfields having different luminance weights, and is called SF7, SF6,..., SF0 from the higher luminance weight. Here, SF7 is called the most significant bit (MSB) side, and SF0 is called the least significant bit (LSB) side. Each subfield is often used to control light emission in the order of SF0, SF1,..., SF7 and those having the smallest luminance weight in one field. That is, the ratio of the number of times of light emission in each subfield is as follows: SF1 is “1”, SF1 is “2”, SF2 is “4”,... SF6 is “64” and SF7 is “128”. When the number of subfields is 8, up to 256 gradations can be expressed.
[0006]
Here, for example, when halftone display of 129 gradations is performed, as shown in FIG. 25 (b), two sub-fields SF0 and sub-field SF7 are caused to emit light so that two sub-lights having different emission times are emitted. This is achieved by displaying the fields superimposed.
[0007]
By the way, the halftone display method based on the subfield method described above is an excellent method as a technique capable of multi-gradation expression even in a binary display device such as a PDP that can express only two gradations of 1 and 0. With the display method using subfields, almost the same image quality as a CRT television image can be obtained in a PDP.
[0008]
However, for example, when a moving image is displayed on a subject whose gradation changes gradually, there is a problem that a so-called false contour peculiar to a PDP image that cannot be seen in a CRT television image occurs. This false contour generation phenomenon is caused by visual characteristics. When the video signal level is displayed in 256 gradations, it appears as if the floor is near the N-th power boundary such as 128, 64, 32, 16 and the like. This is a phenomenon in which a color different from the color to be originally displayed is seen as a stripe in a state where the tone is lost. However, no false contour is felt when a still image is displayed. It is the feature of the false contour that is recognized only in a moving part and around the signal level.
[0009]
The principle that a false contour is generated in the gradation display method using the subfield will be described with reference to FIG. FIG. 26A shows a case where the number of subfields in one field is 8, and the arrangement is arranged in the order of smaller luminance weights, that is, SF0, SF1, SF2,. Now, assume that when the signal level at a certain pixel position is changed from 127 to 128, this moving image is moved by three pixels in one field. FIG. 26B shows the result of the observer observing the moving image on the screen as a light amount integral value in pixel units in the retina.
[0010]
Thus, when the signal level 127 (light emission from SF0 to SF6) and the signal level 128 (only SF7 emit light) are adjacent, the gradation difference is 1LSB (1/256), but the human retina Due to the non-uniformity of the light emission time, the light emission value felt above is the result of the light emission of each signal level overlapping by the pixel (3 pixels) that moved the image, resulting in spatial expansion and a large value on the retina (integral Value). That is, the light emission of each subfield that should originally emit light from the same pixel is emitted at a different pixel position in the moving image portion, and the halftone luminance of the pixel is simply the sum of the subfields. It becomes impossible to express. This is why it is felt as a false contour.
[0011]
As shown in FIG. 26, when the moving image is scrolled from the left side to the right side of the display screen on the paper, the boundary portion of the above signal level is felt as a bright line, and conversely, the moving image is viewed from the right side of the display screen. When scrolling to the left, the signal level boundary is felt as a spatial separation of subfields and as a dark line.
[0012]
On the other hand, in the display method in which the arrangement of the subfields has the larger luminance weight, that is, the subfields SF7, SF6, SF5,..., SF0 are sequentially arranged, the moving image scrolls from the left side to the right side of the display screen. Then, the boundary portion of the signal level is felt as a dark line. Conversely, when the moving image is scrolled from the right side to the left side of the display screen, the boundary portion of the signal level is felt as a bright line. In other words, the appearance of the false contour differs depending on the moving direction of the moving image on the display screen.
[0013]
Furthermore, the generation of the false contour also depends on the moving speed of the moving image. The faster the moving speed, the larger the range covered by the false contour. For example, in a moving image that moves 10 pixels in one field, the pixel width covered by the false contour reaches 10 pixels.
[0014]
Conventionally, various proposals have been made as countermeasures against this false contour. In Japanese Patent Application Laid-Open No. 8-21848, a motion vector is detected for each pixel block based on display data between fields, and the first subfield in the field is: The data corresponding to that of the input data is displayed, and each subsequent subfield moves the display data using the value obtained by multiplying the motion vector by the value obtained by dividing the delay time from each head subfield by the field period, and The technical content for displaying is disclosed.
[0015]
FIG. 27 is a diagram showing the halftone display method and the correction method using the halftone display device described in the above publication, and the subfield data is shifted in accordance with the movement of the viewpoint, and the light emission integrated into the retina. It tries to bring the brightness closer to the original data. FIG. 27 shows, as an example, the case of 4SF (subfield) and movement in a one-dimensional direction for the sake of simplicity.
[0016]
Hereinafter, a specific processing algorithm will be described. First, the first subfield in the field (in the descending order of 4SF indicates SF with a weight of 8) displays the MSB of the input data as it is, and displays the delay time from the first subfield of the second subfield as the first subfield. Obtained from the center of gravity of the emission of the first and second subfields. A value obtained by dividing the obtained delay time by the field length (field period) is multiplied by the vector, rounded off to an integer value, and shifted in the moving direction of the viewpoint accordingly.
Similarly, in the third field and thereafter, the delay time from the first subfield is obtained from the light emission center of gravity of the first subfield and the light emission center of each subfield. A value obtained by dividing the obtained delay time by the time of the field period is multiplied by the motion vector, rounded off to an integer value, and shifted to the viewpoint movement direction by that value.
[0017]
However, in the case of such sub-field shift type correction, it has been found through visual simulation experiments using various evaluation image data that the correction effect varies depending on the number of moving pixels in the motion vector.
[0018]
FIG. 28 shows the actual shift position of the subfield data including the weight when the motion vector is 8 pixels / field, with time on the vertical axis and retina position on the horizontal axis. It is. In the figure, the length of the slanted solid line represents the light emission time of each subfield, with SF1 having a weight of 128 and SF8 having a weight of 1. Further, in this figure, the light emission timing and period of the 8 subfields of the actual panel are faithfully reproduced, and the value integrated in the vertical direction is the total amount of light received by the retina. That is, paying attention to the third retina position from the right,
Figure 0003697681
It becomes.
[0019]
From FIG. 28, the subfield (SF1 to SF4) when the motion vector is 6 pixels / field is substantially aligned with the center line of the retina, and the false contour is deleted if the subfield data is shifted to the corresponding pixel. I understand that I can do it.
[0020]
On the other hand, FIG. 29 shows the actual shift amount of the subfield data when the motion vector is 6 pixels / field, and SF2 and SF3 having large weights are separated from the center line of the retina. It can be seen that even if the subfield data is shifted, it is influenced by the data of the adjacent pixels. That is, it has been found that it is theoretically difficult to completely eliminate false contours by simply shifting subfield data.
[0021]
[Problems to be solved by the invention]
The conventional gradation display method and gradation display apparatus are configured as described above, and subfield data is moved in order to suppress false contours. If the light emission pattern is moved or the display data is changed, the matching with the visual light intensity may not be fully handled. It became clear by experiment.
[0022]
The present invention has been made in view of the above problems, and when performing gradation display by the subfield method, it is possible to greatly suppress the occurrence of false contours when a moving image is followed with eyes. An object is to provide a gradation display method and a gradation display device.
[0023]
[Means for Solving the Problems]
The gradation display method according to claim 1 of the present invention uses a plurality of subfields having different gradations for one field image displayed on the display device, and from these subfields, a necessary one for display is displayed. In the gradation display method of selecting and displaying an image, the motion vector of the image is detected, and when the image to be displayed moves along the moving direction of the detected motion vector, The effect on the pixel Contribution rate As a numerical value in units of pixels, and according to the contribution, the gradation data of the image data to be displayed is distributed and arranged so as to be distributed in a plurality of subfields. Contribution rate The image data is displayed by changing the combination of selecting subfields having a predetermined gradation based on the motion vector.
[0024]
A gradation display method according to a second aspect of the present invention is the gradation display method according to the first aspect, wherein the distribution of the image data is sequentially performed for each subfield.
[0025]
A gradation display method according to claim 3 of the present invention is the gradation display method according to claim 1, wherein the distribution arrangement of the image data is First Distribute and arrange predetermined image data in the subfield First Determine the lighting or non-lighting pixel of the subfield, Based on the result of lighting or non-lighting of the first subfield, new image data to be distributed and arranged in the second subfield which is the next field is determined, and then predetermined image data is sequentially distributed in the kth subfield. And determining the lighting or non-lighting pixel of the kth sub-field, Based on the result of lighting or non-lighting of the subfield, No. (k + 1) This is performed by determining image data to be distributed and arranged in the subfield.
[0026]
A gradation display method according to a fourth aspect of the present invention is the gradation display method according to the third aspect, wherein the determination of lighting or non-lighting of the subfield is performed on the distributed image data, This is performed by comparing a predetermined threshold value according to the weight of the subfield.
[0027]
A gradation display method according to claim 5 of the present invention is the gradation display method according to claim 3, wherein No. (k + 1) The image data distributed and arranged in the subfield is the above Kth As a result of distributing and arranging data in the subfield, the same value that was distributed and arranged is taken in again from the pixels that are not lit up, and the value multiplied by the specified attenuation factor is taken in from the pixels that are lit up. Is.
[0028]
A gradation display method according to a sixth aspect of the present invention is the gradation display method according to the first aspect, wherein the position and ratio at which the image data is distributed and arranged, the moving direction of the detected motion vector, and The calculation is based on the amount of movement.
[0029]
A gradation display method according to a seventh aspect of the present invention is the gradation display method according to the sixth aspect, wherein the position and the ratio at which the image data is distributed and arranged are arranged in the image area moved along the motion vector. This corresponds to a pixel position and a ratio that affect the viewpoint area on the retina when the line of sight follows.
[0030]
The gradation display method according to an eighth aspect of the present invention is the gradation display method according to the sixth aspect, wherein the position where the image data is distributed is arranged from the start point to the end point of the detected motion vector. When a region having a predetermined area is moved, the entire or part of the region overlaps with the pixel.
[0031]
The gradation display method according to claim 9 of the present invention is the gradation display method according to claim 6, wherein the distribution ratio of the image data is determined from the start point to the end point of the detected motion vector. When a region having a predetermined area is moved, the area where the region and the pixel overlap is a value obtained by integrating the time in which each subfield emits light.
[0032]
A gradation display method according to a tenth aspect of the present invention is the gradation display method according to the first aspect, wherein, based on the detected motion vector of the image, the moving directions of the four corners for each pixel, and A four-corner motion vector indicating the amount of movement is detected, and the four-corner motion vector obtained based on the motion vector is used. Contribution rate Based on the above, image data is displayed by changing a combination for selecting a subfield having a predetermined gradation.
[0033]
The gradation display method according to an eleventh aspect of the present invention is the gradation display method according to the tenth aspect, wherein the position and ratio of the image data distribution and arrangement are determined based on the movement direction of the detected four-corner motion vector. And based on the amount of movement.
[0034]
A gradation display method according to a twelfth aspect of the present invention is the gradation display method according to the eleventh aspect, wherein the position where the image data is distributed is arranged from the start point to the end point of the detected four-corner motion vector. When a predetermined area having four corners is moved, the whole or part of the pixel overlaps the above area.
[0035]
A gradation display method according to a thirteenth aspect of the present invention is the gradation display method according to the eleventh aspect, wherein the distribution ratio of the image data is determined from the start point to the end point of the detected four-corner motion vector. When a predetermined region having four corners is moved, the area where the region and the pixel overlap is a value obtained by integrating the time in which each subfield emits light.
[0036]
The gradation display device according to claim 14 of the present invention uses a plurality of subfields having different gradations for an image of one field displayed on the display device. This In the gradation display device for selecting an image necessary for display from subfields and displaying an image, motion vector detecting means for detecting an image motion vector between adjacent fields from input image signal data; An intermediate coordinate extraction unit that calculates a light emission start position and a light emission end position of each subfield based on the detected motion vector, and a subordinate based on a coordinate value output from the intermediate coordinate extraction unit. Output binary data to control lighting or non-lighting of the field, and next Subfield Bitmap calculator Give to new Output image data Subfield bitmap Calculation Part and the Subfield bitmap Calculation And an image data calculation / conversion unit comprising a combining unit for combining the binary data from the unit over all subfields and outputting subfield drive data for constituting the subfield.
[0037]
A gradation display device according to a fifteenth aspect of the present invention is the gradation display device according to the fourteenth aspect, wherein the intermediate coordinate extraction unit and Subfield bitmap calculation section Are provided in the same number as the number of subfields constituting one field image.
[0038]
A gradation display device according to claim 16 of the present invention is the gradation display device according to claim 14, wherein Subfield bitmap calculation section On the basis of the coordinate value output from the intermediate coordinate extraction unit, a contribution rate calculation unit for calculating a ratio of distributing and arranging image data on a predetermined subfield plane, and a plurality of units for multiplying the input image data by the contribution rate And the binary data for controlling the lighting or non-lighting of the subfield based on the data value distributed by multiplying by the contribution rate, and taking in the image data arranged in the distribution, Next subfield bitmap operation section An attenuation factor calculation unit for calculating an attenuation factor when generating image data to be applied to the image data; a plurality of multipliers for multiplying the image data arranged by the distribution of the attenuation factor; and image data multiplied by the attenuation factor. Next subfield bitmap operation section And a new image data storage unit for generating image data for the above.
[0039]
A gradation display device according to claim 17 of the present invention is the gradation display device according to claim 14, wherein Subfield bitmap calculation section The value of the contribution rate is calculated in advance and held as a ROM table. Based on the coordinate values from the intermediate coordinate extraction unit, the ratio of distributing and arranging the image data on a predetermined subfield plane is set in the ROM. Controls the lighting or non-lighting of the subfield based on the contribution value output section output from the table, a plurality of multipliers for multiplying the input image data by the contribution ratio, and the data value distributed by multiplying the contribution ratio. Output binary data and import the distributed image data Next subfield bitmap operation section An attenuation rate calculation unit for calculating an attenuation rate when generating image data to be applied to the image data; a plurality of multipliers for multiplying the distributed image data by the attenuation rate; and image data multiplied by the attenuation rate. Next subfield bitmap operation section And a new image data storage unit for generating image data for the above.
[0040]
The gradation display device according to claim 18 of the present invention uses a plurality of subfields having different gradations for displaying one field image displayed on the display device, and is necessary for display from these subfields. In an image display device for selecting an image and displaying an image, motion vector detection means for detecting a motion vector of an image between adjacent fields from input image signal data, and based on the detected motion vector A four-corner motion vector computing unit that calculates a four-corner motion vector indicating the moving direction and the amount of movement of each pixel, and the subfield for each subfield based on the calculated four-corner motion vector. An intermediate coordinate extraction unit for calculating a light emission start position and a light emission end position, and lighting of a subfield based on the output coordinate value, or Outputting binary data for controlling the lighting, and Next subfield bitmap operation section Give to new Output image data Subfield bitmap Calculation Part and the Subfield bitmap calculation section Binary data from to all subfields What And an image data calculation / conversion unit including a combining unit that outputs subfield driving data for combining and forming the subfield.
[0041]
A gradation display device according to a nineteenth aspect of the present invention is the gradation display device according to the eighteenth aspect, wherein the intermediate coordinate extraction unit and Subfield bitmap calculation section Are provided in the same number as the number of subfields constituting one field image.
[0042]
A gradation display device according to claim 20 of the present invention is the gradation display device according to claim 18, wherein Subfield bitmap calculation section A pixel area calculation unit that integrates the area of a predetermined region for a predetermined period, with the intermediate coordinate values of the four corner vectors output from the intermediate coordinate extraction unit as four corners, and the intermediate coordinates of the four corner vectors Based on the value, a contribution rate calculation unit that calculates a ratio of distributing and arranging the image data on a predetermined subfield plane, a plurality of multipliers that multiply the input image data by the contribution rate, and the contribution rate are multiplied. Based on the distributed data value, binary data for controlling lighting or non-lighting of the subfield is output, and the distributed image data is captured. Next subfield bitmap operation section An attenuation rate calculation unit for calculating an attenuation rate when generating image data to be applied to the image data, a plurality of multipliers for multiplying the image data with the attenuation rate distributed and arranged, and image data obtained by multiplying the attenuation rate by the pixel area Multiple dividers that divide by the component values calculated by the calculation unit, and the above divided image data Next subfield bitmap operation section And a new image data storage unit for generating image data for the above.
[0043]
A gradation display device according to claim 21 of the present invention is the gradation display device according to claim 18, wherein Subfield bitmap calculation section A pixel area calculation unit that integrates the area of a predetermined region for a predetermined period, with the intermediate coordinate values of the four corner vectors output from the intermediate coordinate extraction unit as four corners, and calculates a contribution value in advance. A contribution ratio calculation unit for holding a value as a ROM table and outputting from the ROM table a ratio of distributing image data to a predetermined subfield plane based on the intermediate coordinate values of the four corner vectors; A plurality of multipliers for multiplying the contributed image data by the contribution rate, and binary data for controlling lighting or non-lighting of the subfield based on the data value distributed and multiplied by the contribution rate, and Import the distributed image data Next subfield bitmap operation section An attenuation rate calculation unit for calculating an attenuation rate when generating image data to be applied to the image data, a plurality of multipliers for multiplying the image data with the attenuation rate distributed and arranged, and image data obtained by multiplying the attenuation rate by the pixel area Multiple dividers that divide by the component values calculated by the calculation unit, and the above divided image data Next subfield bitmap operation section And a new image data storage unit for generating image data for the above.
[0044]
A gradation display device according to claim 22 of the present invention is the gradation display device according to claim 18, wherein Subfield bitmap calculation section The pixel area value is calculated in advance and held as a ROM table, and the area of a defined region is defined as the ROM having four corners as the intermediate coordinate values of the four corner vectors output from the intermediate coordinate extraction unit. A pixel area calculation unit that outputs from a table, a contribution rate calculation unit that calculates a ratio of distributing image data to a predetermined subfield plane based on intermediate coordinate values of the four corner vectors, and input image data Outputs binary data for controlling lighting or non-lighting of the subfield based on a plurality of multipliers multiplied by the contribution rate and a data value distributed and arranged by multiplying the contribution rate, and the distribution placement is performed. Import image data Next subfield bitmap operation section An attenuation rate calculating means for calculating an attenuation rate when generating image data to be applied to the image data; a plurality of multipliers for multiplying the distributed image data by the attenuation rate; and image data obtained by multiplying the attenuation rate by the pixel area A plurality of dividers that divide by the component values calculated by the calculation unit and the divided image data Next subfield bitmap operation section And a new image data storage unit for generating image data for the above.
[0045]
A gradation display device according to claim 23 of the present invention is the gradation display device according to claim 18, wherein Subfield bitmap calculation section The pixel area value is calculated in advance and held as a ROM table, and the area of a defined region is defined as the ROM having four corners as the intermediate coordinate values of the four corner vectors output from the intermediate coordinate extraction unit. A pixel area calculation unit that outputs from the table, a contribution rate calculation unit that outputs from the ROM table a ratio of distributing image data to a predetermined subfield plane based on the intermediate coordinate values of the four corner vectors, and an input A plurality of multipliers for multiplying the contributed image data by the contribution rate, and binary data for controlling lighting or non-lighting of the subfield based on the data value distributed and multiplied by the contribution rate, and Import the distributed image data Next subfield bitmap operation section An attenuation rate calculation unit for calculating an attenuation rate when generating image data to be applied to the image data, a plurality of multipliers for multiplying the image data with the attenuation rate distributed and arranged, and image data obtained by multiplying the attenuation rate by the pixel area Multiple dividers that divide by the component values calculated by the calculation unit, and the above divided image data Next subfield bitmap operation section And a new image data storage unit for generating image data for the above.
[0046]
A gradation display method according to claim 24 of the present invention is the gradation display method according to claim 3 or 5, wherein Kth The subfield is a subfield with a longer emission period, and the above No. (k + 1) The subfield is a subfield having a shorter light emission period.
[0047]
A gradation display device according to claim 25 of the present invention is the gradation display device according to claim 14 or 18, wherein Kth The subfield is a subfield with a longer emission period, and the above No. (k + 1) The subfield is a subfield having a shorter light emission period.
[0048]
DETAILED DESCRIPTION OF THE INVENTION
Embodiment 1 FIG.
Hereinafter, a gradation display method and a gradation display apparatus according to Embodiment 1 of the present invention will be described with reference to the drawings. FIG. 1 shows the overall configuration of the gray scale display device according to the first embodiment. In FIG. 1, a video signal 1 input from an input terminal is converted into digital data by an AD converter 2 and input to a motion vector detection unit 4 and an image data arithmetic conversion unit 3. The motion vector detection unit 4 performs multi-layer binarization processing, block matching processing, integration determination processing, and the like to detect and output the number of motion pixels and the moving direction of the input image. The number of moving pixels detected by the motion vector detection unit 4, the moving direction, and the detected block information are input to the image data processing unit 3, and the subfield pattern of the input pixel position data is input based on the result of the number of moving pixels and the moving direction. The combination calculation is performed to reconstruct data suitable for the visual light quantity. Thereby, the gradation data correction of the pixel in which the false contour occurs is performed. This output data is input to the subfield conversion unit 5. The subfield conversion unit 5 converts the grayscale data of each pixel into the number of pulses corresponding to the voltage application time width, and gives it to the X scan driver 6 and the Y scan driver 7 to display halftones on the image display unit 8. It is carried out. The sync separator 9 separates the sync signal from the video signal 1, and a timing signal synchronized with the input video signal is created by the timing generator 10 and given to each unit.
[0049]
Next, a first embodiment of the image data calculation conversion unit 3 will be described. FIG. 16 shows the configuration of the image data calculation conversion unit 3 in FIG. As the motion vector data 32, a vector value for each pixel is input. The pixel four-corner motion vector calculation unit 20 receives the motion vector data 32 and calculates and outputs the four corner motion vectors for each pixel. The reason why the motion vectors at the four corners of the pixel are calculated is that the shape is distorted with the motion of the pixel, and it is necessary to accurately capture the motion vector at the vertex position. The first subfield intermediate coordinate extraction calculation unit 21 to the nth subfield intermediate coordinate extraction calculation unit 25 input the motion vectors at the four corners, and are intermediate between the start point and the end point of the line of sight in each period in which light is emitted in each subfield. Find the position and output it. The first subfield bitmap calculator 26 to the nth subfield bitmap calculator 30 use the intermediate coordinates of the start point and the end point of the line of sight for the image data and determine whether to emit light in pixel units in each subfield. And the new image data necessary for the next subfield bitmap calculation unit is output. The subfield intermediate coordinate extraction calculation units 21 to 25 and the subfield bitmap calculation units 26 to 30 form a pair. For example, if the number of subfields is eight, eight combinations are necessary. The synthesizing unit 31 adjusts the delay of the data output from each of the bitmap calculation units 26 to 30 to perform combination for each bit of the subfield pattern to synthesize new image data.
[0050]
Next, details of the pixel four-corner motion vector calculation unit 20 will be described with reference to FIG. FIG. 17 shows a certain position of the image data. Let the motion vector value of a pixel at a certain coordinate (m, n) be (Vx (m, n), Vy (m, n)). A certain coordinate (m, n) is a position on the two-dimensional image data. Let the four corners of the pixel at coordinates (m, n) be points A, B, C, and D, respectively. For example, when attention is paid to point A, point A is surrounded by pixels at positions (m, n), (m−1, n), (m, n−1), and (m−1, n−1). It is. In order to obtain the motion vector of the point A, the motion vector values of the pixels at the positions (m, n), (m−1, n), (m, n−1), and (m−1, n−1) are used. To calculate. As an example of the calculation for obtaining the motion vector of the point A, it can be considered to average the motion vectors of the four surrounding pixel positions. Therefore, the motion vector (VAx, VAy) of the point A can be obtained by Expression 17. The other three points can be obtained by the same formula.
[0051]
[Expression 17]
Figure 0003697681
[0052]
Next, operations of the first subfield intermediate coordinate extraction calculation unit 21 to the nth subfield intermediate coordinate extraction calculation unit 25 in FIG. 16 will be described with reference to FIGS. 2 and 18. FIG. 18 shows a state in which the image data is moving between positions on the display. The motion vectors of points A, B, C, and D at the four corners of a pixel are shown as an example of (points (6,4.3), (5.9,4), (6,3.8), (6.2,4) The retinal pixel is 80 at time t0, 81 at time t1, 82 at time t2, 83 at t3, 84 at t4, 85 at t5, and t6. In this case, the broken line indicates the four corners of the retinal pixel during the light emission period, and the subfield intermediate coordinate extraction calculation unit calculates the start point position and end point position of the light emission period of each subfield. Is calculated and output.
[0053]
The calculation method is
X = (t−t0) / t × Vx (m, n) + x0 ± 0.5
Y = (t−t0) / t × Vy (m, n) + y0 ± 0.5
Vx (m, n) and Vy (m, n) are motion vector values.
For example, the position of the point 87 is
X = (4-2) /10×5.9+x0+0.5=1.68+x0
Y = (4-2) /10×4+y0−0.5=0.30+y0
The position of the point 88 is
X = (8−2) / 10 × 6 + x0 + 0.5 = 4.10 + x0
Y = (8−2) /10×3.8+y0+0.5=2.78+y0
It is.
[0054]
The intermediate coordinate extraction calculation units 21 to 25 require the number of subfields, and the first subfield intermediate coordinate extraction calculation unit 21 calculates the start point position and end point position of the light emission period of the first subfield, The result is output to the field bitmap calculation unit 26, and the second subfield intermediate coordinate extraction calculation unit 22 calculates the start point position and end point position of the light emission period of the second subfield, and outputs to the second subfield bitmap calculation unit 27. The nth subfield intermediate coordinate extraction calculation unit 25 calculates the start point position and end point position of the light emission period of the nth subfield, and outputs them to the nth subfield bitmap calculation unit 30.
[0055]
Next, details of the first subfield bitmap calculator 26 to the nth subfield bitmap calculator 30 will be described with reference to FIG. FIG. 19 is a diagram showing a configuration from output of new image data 75 and binary bitmap 76 from intermediate coordinate data 73 and image data 74 from the intermediate coordinate extraction operation unit. The concept of processing will be described with reference to Expression 18 and FIG. Expression 18 is an expression for obtaining the new image data 75 of FIG.
[0056]
[Expression 18]
Figure 0003697681
[0057]
Data (m, n) is image data 74 at a certain position (m, n) in FIG. NewData (m, n) is new image data 75 at a certain position (m, n) in FIG. Ka (x, y) is the output of the attenuation factor calculation unit 59 in FIG. E (m, n, x, y) is an output of the contribution rate calculation unit 54 in FIG. FIG. 20 shows a flow from a register 55 in which image data 74 in FIG. 19 is arranged to a new image data storage unit 72 in which new image data 75 is arranged for a certain position (x, y) on the display. It is the figure shown visually. A plurality of image data 100 in FIG. 20 is stored in the register 55 in FIG. A plurality of multipliers 56, 57, and 58 in FIG. 19 correspond to 101 that multiplies the respective contribution rates corresponding to a plurality of image data (x, y). The adder 60 in FIG. 19 corresponds to P (x, y) 102 in FIG. 20 that sums the multiplied data. A plurality of multipliers 66, 67, and 68 in FIG. 19 correspond to “multiply the attenuation factor uniformly” 103 in FIG.
[0058]
A plurality of dividers 69, 70, and 71 in FIG. 19 correspond to “divide by each pixel area” 104 in FIG. 20. The new image data storage unit 72 in FIG. 19 corresponds to the plurality of new image data 105 in FIG. “+” 106 in FIG. 20 corresponds to the adder 76 in FIG. The data of the bitmap output 76 in FIG. 19 corresponds to the position (x, y) on the display. When the output data is “1”, the subfield is caused to emit light. When the output data is “0”, Do not fire. The start position (m, n) on the image data and the end position (m, n) on the new image data in the signal flow 107 in FIG. 20 are equal. It is not necessary to calculate image data at a certain position (m, n) such that the contribution ratio becomes 0 with respect to a certain position (x, y) on the display. In Formula 18, it is clear from E (m, n, x, y) = 0.
[0059]
Next, each part will be described. The pixel area calculation unit 51 uses the intermediate coordinate data 73 to calculate the area of each pixel. The register 52 stores the data output from the pixel area calculation unit 51 and outputs the plurality of data. The register 53 stores the motion vector data 73 and can output the plurality of motion vector data. The contribution rate calculation unit 54 calculates and outputs a plurality of contribution rates using a plurality of intermediate coordinate data. The register 55 stores the image data 74 and outputs the plurality of image data.
[0060]
Next, the attenuation factor calculation unit 59 will be described. The attenuation rate calculation unit 59 adds all the input data and compares the total value with the output data of the threshold generation unit 63 and outputs the result of “0” or “1” as a binary bitmap. To do. From the result, if the total value is smaller than the threshold, 1.0 is output, and if the total value is equal to or greater than the threshold, (total value−threshold) ÷ (total value) is output. The concept of the attenuation factor calculation unit 59 will be described with reference to FIG.
[0061]
[Equation 19]
Figure 0003697681
[0062]
[Expression 20]
Figure 0003697681
[0063]
FIG. 21 shows the output of the adder 60 and the output of the subtractor 61. Expression 19 is an expression representing the output of the attenuation factor calculation unit output 59 and the bitmap output when the output of the adder 60 is equal to or greater than the threshold value. Expression 20 is an expression representing the output of the attenuation factor calculation unit output 59 and the bitmap output when the output of the adder 60 is less than the threshold value. P (x, y) is an output value of the adder 60 at the position x, y on the display. th is a threshold value. ka (x, y) is an output value of the attenuation factor calculation unit output 59 at the position x, y on the display. H (x, y) is a bit output corresponding to the position x, y on the display. The attenuation rate calculation unit 59 adds all the input data, and compares the total value of the input data with the output data of the threshold value creation unit 63. The result of “0” or “1” is a binary bitmap. From the result, it can be seen that 1.0 is output if the total value is smaller than the threshold value, and (total value−threshold value) ÷ (total value) is output if the total value is equal to or greater than the threshold value.
[0064]
The new image data storage unit 72 calculates the value of the register 52 in which the result of the pixel area calculation unit is stored from the value obtained by multiplying the register 55 in which a plurality of attenuation rate calculation units, contribution rate calculation units, and image data 74 are stored. The value obtained by dividing is temporarily added and held, and data to be output to the next subfield bitmap calculation unit is output.
[0065]
The synthesizing unit 31 shown in FIG. 16 is for synthesizing data in the format of the next subfield converting unit 5. The output from each bitmap operation unit is output with a delay in the order of the subfields, such as the first subfield, then the second, then the third, and the fourth. This delay is adjusted and output to the next subfield conversion 5.
[0066]
Hereinafter, a display method using the gradation display device having the above configuration will be described.
First, the gradation display method will be described. Here, for the sake of simplicity of explanation, description will be made using scroll image data of motion vectors (6, 4) in a certain direction and a light emission sequence of subfields shown in FIG.
[0067]
First, the configuration of the subfield will be described. As shown in FIG. 2, the configuration of the subfield is composed of three subfields, and the emission pattern ratio of each subfield is configured with a weight of {SF1, SF2, SF3} = {4: 2: 1}. A light emission sequence is used. The period of the light emission sequence in this case is T, and the shaded portion represents the light emission period. In FIG. 2, the start of the light emission period of the first subfield is t1, the end is t2, the light emission period of the second subfield is t3, the end is t4, and the third subfield. The start of the field emission period is t5 and the end is t6.
[0068]
Also,
t7 = t1 + T
t0 = (t1 + t2) / 2
(T2-t1) :( t4-t3) :( t6-t5): T = 4: 2: 1: 10
(T3-t2) :( t5-t4) :( t7-t6): T = 1: 1: 1: 10
It shall be related.
[0069]
Next, the relationship between the viewpoint movement and the unit retinal pixel area will be described. The term “retinal pixel” as used herein defines a retina receiving area in which an image on the display is reflected on the retina, and the center of gravity of the receiving area is the viewpoint. FIG. 3A is a conceptual diagram assuming that the viewpoint moves in the upper right direction on the display.
[0070]
Since it is a scroll image of a motion vector (6, 4) in a certain direction, the viewpoint passes the position (x0 + 6, y0 + 4) from the position (x0, y0) on the display at time T. One unit of retinal pixel area is one unit area of the receiving area.
[0071]
Next, how much a unit of retinal pixel is affected by each pixel on the display will be described. FIG. 4 is a diagram showing how a single retinal pixel is affected by each pixel on the display in each subfield, expressed as a number of up to three decimal places. Here, this number is called a contribution rate. It shall be defined by way of calling. Details of the contribution ratio and how to obtain it will be described later. 4A shows the retinal pixel between time t1 and t2, FIG. 4B shows the time between time t3 and t4, and FIG. 4C shows the time between time t5 and t6. It is the figure which showed how much was influenced from each pixel on a display by the contribution rate.
[0072]
The retina pixel 160 is the position of the retina pixel at time t0, the retina pixel 161 is the position of the retina pixel at time t1, the retina pixel 162 is the position of the retina pixel at time t2, and the retina pixel 163 is The retina pixel 164 is the position of the retinal pixel at time t3, the retinal pixel 164 is the position of the retinal pixel at time t4, the retinal pixel 165 is the position of the retinal pixel at time t5, and the retinal pixel 166 is the retina at time t6. This is the pixel position. For example, one unit of retinal pixel from time t1 to t2 has a contribution rate of 0.324 with respect to the position (x0, y0) on the display and a contribution rate with respect to the position (x0 + 5, y0 + 3) on the display. It can be seen from the figure that is 0.
[0073]
Next, how to obtain the gradation that the retinal pixel receives from the display will be described. The gradation that enters the retinal pixel when moving on the display is the sum of the amounts of light received from the pixels on each display. For example, in the above-described subfield emission sequence, how many gradations the retinal pixel has obtained in the time from time t1 to t7 is obtained with the above-described contribution rate. The obtained gradation is M, and whether or not light is emitted in the n subfield period at the position (x, y) on the display is H (x, y, n). The value of H (x, y) is H (x, y, n) = 1 if light is emitted, and H (x, y, n) = 0 if light is not emitted.
[0074]
Therefore,
Figure 0003697681
Can be obtained.
[0075]
By appropriately determining the array elements of H (x, y, n), the occurrence of false contours can be suppressed when the gradation M perceived by the retinal pixels becomes infinitely equal to the gradation data of the original image. It is done.
[0076]
Next, how to obtain H (x, y, n) will be described by taking an example in which two pixels are moved by a motion vector (6, 4) in order to simplify the description. FIG. 3B shows that the image data of two pixels moves and the retinal pixels move accordingly. It can be seen that the two retinal pixels are moving with the motion vector (6, 4). As an example, the image data is 7 at position (m, n) and 3 at position (m + 1, n). This is shown in FIGS. 5A and 6A, in which the image data is shown two-dimensionally. 6, 7, and 8 show processing to be described below. FIG. 6A shows the data to be distributed and FIG. 6B shows the position (m, n) shows the result of distributing the data, (c) of the figure shows the result of distributing the data at position (m + 1, n), and (d) of the figure shows the total of each of the distributed positions. (E) of the figure shows the result of comparison with a certain threshold, and (f) of the figure shows the image data used in the next processing.
[0077]
A process for obtaining H (x, y, n) will now be described. The calculation process is roughly as follows. First, H (x, y, 1) which is data indicating whether or not the first subfield emits light is obtained, and then H (x, y, 2) is obtained from the result of H (x, y, 1) and image data. The new image data A for obtaining is calculated and output. Based on the output new image data A, H (x, y, 2) which is data indicating whether or not the second subfield emits light is obtained, and then the result of H (x, y, 2) is obtained. New image data B for calculating H (x, y, 3) from the image data A is calculated and output. Finally, based on the new image data B for obtaining the output H (x, y, 3), H (x, y, 3) which is data indicating whether or not the third subfield emits light. Ask for.
[0078]
First, H (x, y, 1), which is data indicating whether or not the first subfield emits light, and H (x, y, 2) that is data indicating whether or not the second subfield emits light. The process of outputting new image data A to obtain the above will be described. First, 7 which is the image data at the position (m, n) is distributed and arranged on the display using the contribution rate shown in FIG. In the distribution and arrangement method, a value obtained by multiplying the contribution rate of the position (x, y) shown in FIG. 4A and the image data is substituted into the position (x, y) shown in FIG. 6B. For example, the value assigned to the position (x0, y0) shown in FIG. 6B is 0.324 × 7 = 2.268, and the value assigned to the position (x0 + 1, y0) is 0.136 ×. 7 = 0.952. Similarly, a value substituted for another position in FIG. 6B is also calculated. Also, the method of distributing and arranging 3 which is the image data at the position (m + 1, n) is multiplied by the contribution rate as described above. However, since the x position is +1 larger than before, the position to be substituted is shifted by +1. Enter. That is, the value assigned to the position (x0 + 1, y0) shown in FIG. 6C is 0.324 × 3 = 0.972, and the value assigned to the position (x0 + 2, y0) is 0.136 × 3 = 0.408. Similarly, the values substituted in other positions in FIG. 6C are also calculated.
[0079]
Next, the values shown in FIG. 6B and FIG. 6C are added with their coordinate positions matched. For example, a value 2.676 obtained by adding 2.268 which is the value of the position (x0, y0) in FIG. 6B and 0.408 which is the value of the position (x0, y0) in FIG. , And substitute for the position (x0, y0) in FIG. Similarly, a value substituted for another position in FIG. 6D is also calculated. Then, H (x, y, 1) is obtained by comparing the substituted value in FIG. The threshold to be compared with the value in FIG. The details of the threshold here will be described later. H (x, y, 1) is 1 if the value in FIG. 6D is 4 or more of the threshold value, and 0 if it is less than 4. For example, the value of the position (x0, y0) is 2.676, which is less than 4, so H (x0, y0, 1) is 0. Similarly, when compared and substituted, FIG. 6E is completed. In this example, the values at all positions in FIG. That is, it can be seen that no pixel emits light in the first subfield section.
[0080]
Next, a process of outputting new image data A for obtaining H (x, y, 2) which is data indicating whether or not the second subfield emits light will be described. The concept is to collect (feedback) image data to be distributed and obtain new image data A. The value of the new image data A is obtained by multiplying the image data distributed according to the contribution rate by the attenuation rate determined by the result of H (x, y, 1), dividing by the pixel area, and collecting all at the original coordinate position. To calculate. The pixel area here will be described later.
[0081]
The method for obtaining the attenuation factor ka (x, y) is as follows:
When H (x, y, 1) = 1,
ka (x, y) = (total value distributed to position (x, y) −threshold) ÷ (total value distributed to position (x, y))
When H (x, y, 1) = 0,
ka (x, y) = 1
It is.
[0082]
As an example of collection, the value distributed from the position (m, n) of the image data to the position (x0, y0) on the display was 2.268 from the above result. The result of H (x0, y0, 1) was 0. The value collected by the position (m, n) of the image data with respect to the position (x0, y0) on the display is 2.268 × 1 and 2.268. Similarly, the value recovered for the position (m, n) of the image data with respect to the position (x0 + 1, y0) on the display is 0.952 × 1 and 0.952. Therefore, the value that the position (m, n) of the image data collects for all positions on the display is
0.322 * 1 + 1.029 * 1 + 0.042 * 1 + 0.014 * 1 + 0.952 * 1 + 2.268 * 1 + 0.952 * 1 + 0.014 * 1 + 0.042 * 1 + 1.029 * 1 + 0.322 * 1
It is 6.986.
[0083]
In this example, H (x, y, 1) is 0 for any x and y, and all distributed values are collected. That is, the distributed data “7” is collected as it is. The reason why the above value is 6.986 is because an error rounded to three decimal places is included.
[0084]
This value is then divided by the pixel area. The pixel area is 1 in this example. That is, the divided value is 7 by 7 ÷ 1. Similarly, the value that the position (m + 1, n) of image data collects for all positions on the display is 3. Again, the pixel area is one. The divided value is 3 divided by 3/1. This is shown in FIG. The value of FIG. 6F is new image data A for obtaining H (x, y, 2) which is data indicating whether or not the next second subfield emits light. The above is H (x, y, 1) which is data indicating whether or not the first subfield emits light, and then H (x, y, 2) is obtained from the result of H (x, y, 1) and the image data. This is a method of calculating and outputting new image data A for obtaining.
[0085]
Next, H (x, y, 2) which is data indicating whether or not the second subfield emits light is obtained, and then H (x, y, 2) is obtained from the result of H (x, y, 2) and the image data A. A method of calculating and outputting new image data B for obtaining 3) will be described. 7 (a), (b), (c), and (d) may be performed in the same manner as described above.
[0086]
Then, the threshold value compared with FIG. In FIG. 7 (d), there are two positions (x0 + 2, y0 + 1) and (x0 + 3, y0 + 2) having a value equal to or greater than the threshold value, and the respective attenuation rates are as follows.
At position (x0 + 2, y0 + 1)
(2.104-2) / (2.104) = 0.049,
At the position (x0 + 3, y0 + 2)
(3.084-2) / (3.084) = 0.351
It is.
Therefore, the value of the position (m, n) of the new image data B is
0.028 * 1 + 1.904 * 1 + 2.268 * 0.351 + 0.091 * 1 + 2.065 * 0.049 + 0.651 * 1
Becomes 3.571,
The value of position (m + 1, n) is
0.012 * 1 + 0.816 * 0.351 + 0.972 * 1 + 0.039 * 0.049 + 0.885 * 1 + 0.279 * 1
It is 2.436. The pixel area is 1. The divided value is shown in FIG. The value of FIG. 7F is new image data B for obtaining H (x, y, 3) which is data indicating whether or not the next second subfield emits light.
[0087]
Thus, H (x, y, 2) which is data indicating whether or not the second subfield emits light is obtained, and then H (x, y, 1) is obtained from the result of H (x, y, 1) and the image data A. The method of calculating and outputting new image data B for obtaining 3) has been described. The method for obtaining H (x, y, 3), which is data on whether or not to emit light in the third subfield, may be similarly calculated. Supplementally, in this case, the threshold value to be compared with the value in FIG. Finally, the output result is shown in FIG. In FIG. 5B, the coordinate positions are matched, and the value of FIG. 6E is multiplied by 4, the value of FIG. 7E is multiplied by 2, and FIG. 8E is added. The results are shown.
FIG. 5A shows input image data, and FIG. 5B shows the result of performing the image data conversion processing described so far. In FIG. 5B, it can be seen that light is emitted in each subfield section as the viewpoint moves.
[0088]
Next, the concept of the contribution rate and the pixel area and a detailed description of how to find them will be given. As described above, the contribution rate is obtained by quantifying the influence of pixels on the image data on the pixels on the display. The explanation of the contribution rate up to now has quantified how much one unit of retinal pixel is affected by each pixel on the display, but the pixel on the image data is equivalent to one unit of retinal pixel. By doing so, the false contour which is the object of the present invention can be eliminated.
[0089]
For example, the contribution ratio in the case of a still image only needs to display the gradation of the position (m, n) on the image data at the position (x, y) on the display, so the position (m, The contribution ratio of the position (x, y) pixel on the display to the pixel n) is 1 (100%). In the case of a moving image, the pixel at the position (m, n) of the image data is not only the position (x, y) pixel on the display, for example, (x + 1, y), (x, y-1), etc. Therefore, the contribution ratio of the position (x, y) pixel on the display to the pixel at the position (m, n) on the image data is less than 1. The pixel on the image data does not physically exist, but means a unit area obtained by dividing the image vertically and horizontally. This is the area of the picture itself.
[0090]
The area of the pixel on the image data is referred to as the pixel area. In addition, pixels on the image data may be deformed. The scroll image moving in a certain direction described so far is not deformed by a square lattice, but the pixels with different motions are deformed by expansion / contraction or expansion. Also, the deformation may change the area.
[0091]
Hereinafter, how to obtain the pixel area and the contribution rate will be described. FIG. 9 is a diagram illustrating that a pixel of certain image data has moved between times t1 and t2. Squares A, B, C, and D represent pixels, A, B, C, and D correspond to the four corners of the square, squares P, Q, R, and S represent pixels, and P, Q, R, and S represent It corresponds to the four corners of a rectangle.
[0092]
Assume that the pixels A, B, C, and D at a certain time t1 move to the pixels P, Q, R, and S at a time t2. K is the position of the retinal pixel in the middle of movement at time t. From FIG. 9, it can be seen that the pixel is deformed and that it passes through the position (x, y) on the display. FIG. 10 is an enlarged view of the vicinity of the position (x, y) on the display. The distance between pixels on the display is normalized by 1. Therefore, the area of one pixel on the display is 1. Although one pixel is used for the three primary colors due to the structure of the display, in the description of the present invention, one pixel is used for the first primary color and is located at the same position. The hatched portion is a portion where the pixel K and the position (x, y) on the display overlap, and is the relationship between the image data (m, n) and the position (x, y) on the display. (T, m, n, x, y) and the area of the pixel K is Sk (t, m, n). The contribution rate and the pixel area are defined by taking the time average of each. Formula 1 is a contribution rate E (m, n, x, y), and Formula 2 (b) is a formula for obtaining a pixel area S (m, n).
[0093]
[Expression 1]
Figure 0003697681
[0094]
[Expression 2]
Figure 0003697681
[0095]
Next, the concept of how to determine the area Sp (t, m, n, x, y) and the area Sk (t, m, n) will be described. 11A and 11B are diagrams in which retinal pixels overlap at a position on a certain display, and Equations 3 and 4 are equations for obtaining the overlapping area. In Equations 3 and 4, the circled numbers indicate the areas of the respective triangular regions corresponding to FIGS. 11 (a) and 11 (b).
[0096]
[Equation 3]
Figure 0003697681
[0097]
[Expression 4]
Figure 0003697681
[0098]
The overlapping area can be obtained by subtracting the non-overlapping area from the area 1 of the unit square. In order to obtain the non-overlapping area, several triangles may be created by drawing auxiliary lines in the non-overlapping region, and the areas of those triangles may be added. Each calculated area S is an area Sp (t, m, n, x, y).
[0099]
Schematics 12 (a) and 12 (b) show a retinal pixel, a rectangle enclosing all of the retinal pixel and the maximum and minimum coordinates of the rectangle, and Formulas 5 and 6 are formulas for determining the area of the retinal pixel. In addition, the numbers with circles in Formulas 5 and 6 indicate the areas of the respective triangular or quadrangular regions corresponding to FIGS. 12 (a) and 12 (b).
[0100]
[Equation 5]
Figure 0003697681
[0101]
[Formula 6]
Figure 0003697681
[0102]
The overlapping area is obtained by subtracting the non-overlapping area from (MaxX−MinX) × (MaxY−MinY), which is a rectangular area surrounding all the retinal pixels. Here, MaxX and MaxY indicate the maximum values of the coordinates x and y of the pixel area, and MinX and MinY indicate the minimum values of the coordinates x and y of the pixel area. On the other hand, in order to obtain the non-overlapping area, several triangles and rectangles are created by drawing auxiliary lines in the non-overlapping areas, and the areas of these triangles and rectangles are added. Each calculated area S is an area Sk (t, m, n). The concept of obtaining the area Sp (t, m, n, x, y) and the area Sk (t, m, n) has been described above. However, the area is not obtained directly, but a circuit for calculating the area. Is determined by combining triangles or rectangles.
[0103]
Next, a detailed description will be given using the concept of the contribution rate calculation unit and actual numerical values. As an example, a method for obtaining the contribution rate 0.324 of the position (x0, y0) in FIG. 4A will be described with reference to FIG. 13, Equations 7 to 16, FIG. 14, and FIG.
[0104]
[Expression 7]
Figure 0003697681
[0105]
[Equation 8]
Figure 0003697681
[0106]
[Equation 9]
Figure 0003697681
[0107]
[Expression 10]
Figure 0003697681
[0108]
[Expression 11]
Figure 0003697681
[0109]
[Expression 12]
Figure 0003697681
[0110]
[Formula 13]
Figure 0003697681
[0111]
[Expression 14]
Figure 0003697681
[0112]
[Expression 15]
Figure 0003697681
[0113]
[Expression 16]
Figure 0003697681
[0114]
13 is a concept, FIG. 14 is an enlarged view of FIG. 4A, and positions of retinal pixels at various times. FIG. 15 is a position (x, y) and retinal pixels on a display at a certain time. Equations 11 to 16 show the contribution rate calculation formulas. First, the concept will be described using FIG. 13 and Equations 7-14. FIG. 13A is a diagram in which two squares (basic, movement) of unit area 1 are overlapped, and Expression 7 shows an expression for obtaining an area where the squares overlap. The black dot in FIG. 13A indicates the center of gravity of the square, the basic square is at the position of coordinates (0, 0), and the moving square is at (x, y). It can be seen that the area of the oblique line is (1- | x |) (1- | y |) under certain conditions. Next, FIG. 13B shows a diagram when the center of gravity of the moving square has moved from (x0, y0) to (x1, y1), and Equation 8 uses the indirect variable k and the center of gravity of the moving square being moved. It is a formula showing (x, y). Formula 9 shows the formula and result for calculating the sum of the areas where the moving squares overlap during movement. The sum is taken as a function of Ee (x0, y0, x1, y1). Ee substitutes Expression 8 into Expression 7, and integrates the area represented by the function of k with k. Finally, FIG. 13 (c) shows an example in which the moving square moves from the center of gravity (x0, y0) to (x3, y3) in order to show a method for obtaining E (contribution rate). Equation 10 represents an equation for obtaining the coordinate position of the boundary of the quadrant and an equation for obtaining the contribution rate. In order to pass through different quadrants, the calculation of Ee needs to be divided for each quadrant. (X1, y1) is the coordinate of the boundary between the second quadrant and the third quadrant, and (x2, y2) is the coordinate of the boundary between the first quadrant and the second quadrant. The contribution rate E is a sum obtained by multiplying the total area Ee of the overlapping areas in which the moving squares of each quadrant are moving by the ratio of passing through each quadrant. Even in the same quadrant, the calculation of Ee needs to be divided even where the center of gravity passes ± 1. FIG. 14 shows an enlarged view of FIG. 4A and the positions of retinal pixels at various times. The retinal pixel is at position 172 at time t0, and the retinal pixel is 170 at time t1. It can be seen from the above that the retinal pixel is at the position 174 at time t2. The retinal pixels 171 and 173 are positions immediately before and after overlapping with a pixel at a position (x0, y0) on the display. The times at that time are t11 and t13. Next, FIG. 15 shows an overlap between a retinal pixel and a position (x, y) on the display at a certain time. As described above, the hatched portion is a portion where the retinal pixel K and the position (x, y) on the display overlap at the time t, and the image data (m, n) and the position (x, y) on the display. ), The area is Sp (t, m, n, x, y), and the area of the pixel K is Sk (t, m, n). This has the same relationship as that in Equation 7 above.
[0115]
Although the concept has been described above, the following description will be made using actual values of pixel area and contribution rate.
Expression 11 is an expression for obtaining the pixel area. The result is 1 because the retinal pixel is not deformed in time. Formula 12 is a formula for calculating the contribution rate.
It can be seen that the average overlapping area from time t1 to time t2 is obtained. Contrast with Equations 7-10, the result of contribution rate E is
(k2-k1) Ee (x1, y1, x2, y2) + (k3-k2) Ee (x2, y2, x3, y3)
It becomes.
[0116]
Next, in Expression 13, the position of the start point (x0, y0) and the end point (x4, y4) of the center of gravity of the moving square is expressed. In Expression 14, the position where the position of the center of gravity in the same quadrant passes ± 1. In equation 16, the total sum Ee of the overlapping areas in which the moving square is moving is substituted into the equation 12 by the results of the above equations 14 and 15, and the contribution rate is obtained. As a result, a contribution rate of 0.324 is obtained. In this example, it passes through the different quadrant only once at time t0. The center of gravity position within the same quadrant passes ± 1 twice at times t11 and t13. It can be seen from this example that the calculation is performed separately.
[0117]
Next, the threshold value will be described in detail. The threshold value is obtained by multiplying the ratio of the length of a certain subfield light emission period to the length of all the subfield light emission periods by the maximum value of the image data. As an example,
Taking the case where the image data takes the light emission sequence of FIG. 2 with 8 gradations of 0, 1, 2, 3, 4, 5, 6, 7,
Figure 0003697681
Therefore, the threshold value of the first subfield bitmap calculation unit 26 is 4. Similarly, the threshold value of the second subfield bitmap calculation unit 27 is 2. Similarly, the threshold value of the third subfield bitmap calculation unit 28 is 1. In the case of a display that displays 256 gray scales in 10 subfields, it was obtained using the above equation in the same way.
[0118]
The threshold values of the first to n-th subfield bitmap calculation units are set to the smaller threshold values in order from the largest threshold value. That is, the threshold value of the bitmap calculation unit of the first subfield is the maximum, and the threshold value of the bitmap calculation unit of the nth subfield is the minimum. Further, with this configuration, even if a slight error occurs in motion vector detection, no image corruption occurs.
[0119]
As described above, according to the present embodiment, when the line of sight follows the moving pixel on the display screen from the vector value corresponding to the number of moving pixels and the moving direction, the light emission time in each subfield section. And the contribution rate of the amount of light entering each retinal position from the path of gaze movement on the screen in real time, and a new subfield data is created from the output data. The gradation perceived by the pixel matches the gradation data of the original image with high accuracy, and the retina accumulates the amount of light corresponding to the gradation corresponding to the original image. Generation | occurrence | production can be suppressed significantly and the display image without a false outline can be provided.
[0120]
Here, in order to briefly explain the concept, the description has been given using the three-subfield light emission sequence shown in FIG. 2. However, even in the light emission sequence of three or more subfields, for example, eight subfields, the calculation of image data is performed. The conversion is possible, and the retinal pixel is described as a square, but needless to say, the area may be replaced with a circle of one basic unit.
[0121]
Furthermore, the time t0 has been described as (t1 + t2) / 2, but it goes without saying that t0 = t1 or t0 = arbitrary.
In addition, in order to simplify the description, the video has been described using two pixels. However, a remarkable effect can be obtained when the number of pixels is large.
[0122]
Embodiment 2. FIG.
Next, a gradation display device according to Embodiment 2 of the present invention will be described. The schematic configuration of the gray scale display device according to the second embodiment is almost the same as that shown in the first embodiment of FIG. 1, but only the configuration of the image data arithmetic conversion unit 3 is different. The second embodiment focuses on processing an image called a scroll image that moves at a constant speed in a certain direction in all of one screen.
[0123]
FIG. 22 is a block diagram showing a detailed configuration of the image data calculation / conversion unit 3 in FIG. 1 according to the second embodiment. As the motion vector data 32, a vector value is input for each field. The first subfield intermediate coordinate extraction calculation unit 111 to the n-th subfield intermediate coordinate extraction calculation unit 115 input the motion vector and emit light in each subfield, and determine the intermediate position between the start point and the end point of the line of sight in each period. Output asking. The first sub-field bitmap operation unit 116 to the n-th sub-field bitmap operation unit 120 use the intermediate coordinates of the start point and the end point of the line of sight for the image data and determine whether to emit light in pixel units in each sub field. And the new image data necessary for the next subfield bitmap calculation unit is output. The subfield intermediate coordinate extraction calculation units 111 to 115 and the subfield bitmap calculation units 116 to 120 are paired. For example, if the number of subfields is eight, this combination requires eight pairs. is there.
The synthesizing unit 121 adjusts the delay of the data output from each of the bitmap operation units 116 to 120, performs a combination for each bit of the subfield pattern, and synthesizes new image data.
[0124]
Next, the first subfield intermediate coordinate extraction calculation unit 111 to the nth subfield intermediate coordinate extraction calculation unit 115 will be described with reference to FIGS. FIG. 23 shows a state where the image data is moving between positions on the display. An example of a motion vector (6, 4) of a certain pixel is shown. The retinal pixel is 180 at time t0, 181 at time t1, 182 at time t2, 183 at t3, 184 at t4, 185 at t5, and 185 at t6. The broken line indicates the center of gravity of the retinal pixel during the light emission period. The subfield intermediate coordinate sleeve calculation units 111 to 115 calculate and output the start point position and end point position of the center of gravity of the retinal pixel in the light emission period of each subfield.
[0125]
The calculation method is
X = (t−t0) / t × Vx (m, n) + x0
Y = (t−t0) / t × Vy (m, n) + y0
Vx (m, n) and Vy (m, n) are motion vector values.
For example, the position of the point 187 is
X = (5-2) /10×6+x0=1.8+x0
Y = (5-2) /10×4+y0=1.2+y0
The position of the point 188 is
X = (9-2) /10×6+x0=4.2+x0
Y = (9-2) /10×4+y0=2.8+y0
It is.
[0126]
As described above, the intermediate coordinate extraction calculation units 111 to 115 require as many as the number of subfields, and the first subfield intermediate coordinate extraction calculation unit 111 determines the start position of the center of gravity of the retinal pixel in the light emission period of the first subfield. And the end position are calculated and output to the first subfield bitmap calculation unit 116. The second subfield intermediate coordinate extraction calculation unit 112 calculates the start point position and end point position of the center of gravity of the retinal pixel in the light emission period of the second subfield. Is output to the second subfield bitmap calculation unit 117, and the nth subfield intermediate coordinate extraction calculation unit 115 calculates the start point position and end point position of the center of gravity of the retinal pixel in the light emission period of the nth subfield. , Output to the n-th subfield bitmap calculation unit 120.
[0127]
Next, the first subfield bitmap operation unit 116 to the nth subfield bitmap operation unit 120 will be described with reference to FIG. FIG. 24 is a diagram illustrating a configuration from the intermediate coordinate data 153 and the image data 154 from the intermediate coordinate extraction calculation units 111 to 115 to the output of new image data 155 and a binary bitmap 156. Although the concept of the processing has already been described in the first embodiment, the second embodiment has a function for limiting the scroll image. That is, in the second embodiment, it is assumed that the pixel area is constant, and a related portion for calculating the pixel area is not necessary. FIG. 24 is a diagram excluding the pixel area calculation related portion from FIG. 19. The register 130, the contribution rate calculation unit 131, the register 135, the attenuation rate calculation unit 139, the new image data storage unit 149, and the synthesis unit 121 This is the same as described in the first embodiment.
[0128]
As described above, in the second embodiment, since the pixel area is assumed to be constant and the related portions for calculating the pixel area are deleted, the apparatus can be simplified correspondingly.
The contribution rate calculation unit and the pixel area calculation unit can be used by writing the calculated contribution rate and pixel area in the ROM table in order to reduce the circuit scale.
[0129]
【The invention's effect】
As described above, according to the present invention, in an image display method in which an image of one field displayed on a display device is composed of a plurality of subfields, a motion vector of the image is detected, and the detected motion vector is moved. Since the subfield drive data is configured by distributing and arranging the image data to be displayed along the direction, the line of sight with respect to the moving pixel on the display screen is determined from the vector value corresponding to the number of moving pixels and the moving direction. , The light emission time within each subfield section and the contribution rate of the amount of light entering each retinal position from the path of eye movement on the screen are calculated in real time, and new subfield data is created from the output data Therefore, image data is converted according to the number of moving pixels and the moving direction of the accurate pixels in which motion is detected, thereby preventing the occurrence of false contours. There is an effect that can be.
[0130]
In addition, since the distribution and arrangement of the image data is performed sequentially for each subfield, the subfield processing can be greatly reduced, and the calculation speed can be increased.
[0131]
In addition, since the position and ratio for distributing and arranging the image data are calculated based on the moving direction and moving amount of the detected motion vector, the amount of light entering the retina can be accurately obtained. .
[0132]
In addition, a motion vector of the image is detected, and based on the detected motion vector, a four-corner motion vector indicating a moving direction and a moving amount of the four corners for each pixel is detected, and displayed along the detected four-corner motion vector. Since the image data to be distributed is arranged to form subfields, it is possible to accurately grasp the shape even when the shape is distorted with the movement of the pixel, and the accurate pixel area The contribution rate can be obtained.
[Brief description of the drawings]
FIG. 1 is a configuration diagram showing an entire gradation display device according to a first embodiment of the present invention;
FIG. 2 is a diagram showing a subfield light emission sequence of the gradation display device according to the first embodiment;
FIG. 3A is a diagram showing a viewpoint moving on a display, and FIG. 3B is a diagram showing a state in which image data of two pixels moves and a retinal pixel moves accordingly.
FIG. 4 is a diagram showing how much one unit of retinal pixel is affected by each pixel on the display in each sub-field, using numbers up to three decimal places.
FIG. 5 is a diagram showing data (a) before image processing and a processing result (b).
FIG. 6 is a diagram showing processing in a first subfield section.
FIG. 7 is a diagram showing processing in a second subfield section.
FIG. 8 is a diagram showing processing in a third subfield section.
FIG. 9 is a diagram showing that a pixel of certain image data has moved between times t1 and t2.
FIG. 10 is an enlarged view of the vicinity of a position (x0, y0) on the display.
FIG. 11 is a diagram in which retinal pixels overlap a position on a display.
FIG. 12 is a diagram showing a retinal pixel, a rectangle surrounding all of the retinal pixel, and the maximum and minimum coordinates of the rectangle.
FIG. 13 is a diagram for explaining how to calculate a contribution rate;
FIG. 14 is a diagram showing the positions of retinal pixels at various times.
FIG. 15 is a diagram illustrating an overlap between a retinal pixel and a position (x, y) on a display at a certain time.
FIG. 16 is a diagram illustrating a detailed configuration of an image data calculation conversion unit.
FIG. 17 is a diagram showing a motion vector at a certain position.
FIG. 18 is a diagram showing movement of image data on a display position.
FIG. 19 is a diagram illustrating a configuration from output of new image data and a binary bitmap from motion vector data and image data from an intermediate coordinate extraction calculation unit.
FIG. 20 is a conceptual diagram showing a flow from a register in which image data is arranged to a new image data storage unit in which new image data is arranged for a certain position (x, y) on the display. FIG.
FIG. 21 is a diagram visually showing the output of an adder 60 and the output of a subtractor 61.
FIG. 22 is a diagram illustrating a detailed configuration of an image data calculation conversion unit.
FIG. 23 is a diagram showing a state in which image data is moving between positions on a display.
FIG. 24 is a diagram illustrating a configuration from output of new vector data and a binary bitmap from motion vector data and image data from an intermediate coordinate extraction calculation unit.
FIG. 25 is a diagram for explaining a display sequence within one field using a conventional halftone display method and a gradation display method using a plurality of fields.
FIG. 26 is a diagram for explaining the principle that a false contour is generated in a conventional gradation display method using subfields.
FIG. 27 is a diagram for explaining a processing algorithm using 4SF and a one-dimensional direction movement as an example in a conventional correction method for shifting subfield data according to viewpoint movement.
FIG. 28 is a diagram showing an actual shift position of subfield data when a motion vector is 8 pixels / field in consideration of a weight in a conventional gradation display method using subfields.
FIG. 29 is a diagram showing an actual shift position of subfield data when a motion vector is 6 pixels / field in consideration of a weight in a conventional gray scale display method using subfields.
[Explanation of symbols]
1 Video signal
2 A / D converter
3 Image data calculation converter
4 Motion vector detector
5 Subfield converter
6 X Scan Driver
7 Y scan driver
8 Image display
9 Sync separator
10 Timing generator
20 pixel 4-corner motion vector calculator
21 to 25, 111 to 115 Intermediate coordinate calculation unit
26-30, 116-120 Bitmap operation unit
31, 121 synthesis unit
51 Pixel area calculator
54,131 Contribution rate calculator
59,139 Attenuation rate calculator
72,149 New image data storage

Claims (25)

表示装置に表示される1フィールドの画像を、異なる階調度を有する複数個のサブフィールドを用い、これらサブフィールドから、表示に必要なものを選択して画像を表示する階調表示方法において、
当該画像の動きベクトルを検出し、表示すべき画像が該検出した動きベクトルの移動方向に沿って移動する際に、該画像と隣接する周囲の画素に与える影響を寄与率として画素単位で数値化し、
上記寄与度に応じて、表示すべき画像データの階調データを、複数のサブフィールドに分布するように分配配置し、
上記寄与率、及び動きベクトルに基づいて、所定の階調度を有するサブフィールドを選択する組み合わせを変化させることにより画像データを表示することを特徴とする階調表示方法。
In a gradation display method for displaying an image by using a plurality of subfields having different gradations for selecting an image of one field displayed on a display device, and selecting an image necessary for display from these subfields.
The motion vector of the image is detected, and when the image to be displayed moves along the moving direction of the detected motion vector, the influence on the surrounding pixels adjacent to the image is quantified in pixel units as a contribution rate. ,
According to the contribution, the gradation data of the image data to be displayed is distributed and arranged so as to be distributed in a plurality of subfields,
A gradation display method, comprising: displaying image data by changing a combination of selecting subfields having a predetermined gradation degree based on the contribution rate and the motion vector.
請求項1記載の階調表示方法において、
前記画像データの分配は、サブフィールド毎に順次に行なうことを特徴とする階調表示方法。
The gradation display method according to claim 1,
The gradation display method according to claim 1, wherein the distribution of the image data is performed sequentially for each subfield.
請求項1記載の階調表示方法において、
上記画像データの分配配置は、第1サブフィールドにおいて所定の画像データを分配配置して第1サブフィールドの点灯、もしくは不点灯画素を決定し、該第1サブフィールドの点灯、もしくは不点灯の結果に基づいて、次のフィールドである第2サブフィールドにおいて分配配置する新画像データを決定し、以降順次第kサブフィールドにおいて所定の画像データを分配配置して第kサブフィールドの点灯、もしくは不点灯画素を決定し、該第kサブフィールドの点灯、もしくは不点灯の結果に基づいて、第(k+1)サブフィールドにおいて分配配置する画像データを決定することを特徴とする階調表示方法。
The gradation display method according to claim 1,
Dispensing arrangement of the image data, the lighting of the first sub-field by distributing arranged predetermined image data in the first subfield, or to determine the non-lighting pixels, the lighting of the first subfield, or the result of unlighted Based on the above, new image data to be distributed and arranged in the second subfield which is the next field is determined, and predetermined image data is sequentially distributed and arranged in the kth subfield, and the kth subfield is turned on or off. A gradation display method , comprising: determining pixels, and determining image data to be distributed and arranged in the (k + 1) th subfield based on a result of lighting or non-lighting of the kth subfield.
請求項3記載の階調表示方法において、
上記サブフィールドの点灯、もしくは不点灯の決定は、分配配置された画像データと、当該サブフィールドの重みに応じてあらかじめ定めらた閾値とを比較することにより行なうことを特徴とする階調表示方法。
The gradation display method according to claim 3.
The gradation display method characterized in that the lighting or non-lighting of the subfield is determined by comparing the distributed image data with a threshold value determined in advance according to the weight of the subfield. .
請求項3記載の階調表示方法において、
上記第(k+1)サブフィールドにおいて分配配置する画像データは、上記第kサブフィールドにおいてデータを分配配置した結果、不点灯となった画素からは分配配置した同じ値を再度取り込み、点灯となった画素からは定められた減衰率を乗じた値を取り込んで得られるものであることを特徴とする階調表示方法。
The gradation display method according to claim 3.
For the image data distributed and arranged in the (k + 1) th subfield, the same value of the distributed arrangement is taken in again from the pixels that are not lit as a result of the data being arranged and distributed in the kth subfield. Is a gradation display method characterized by being obtained by taking in a value obtained by multiplying a predetermined attenuation factor.
請求項1記載の階調表示方法において、
上記画像データを分配配置する位置と割合を、上記検出した動きベクトルの移動方向、及び移動量に基づいて算出することを特徴とする階調表示方法。
The gradation display method according to claim 1,
A gradation display method, characterized in that the position and ratio for distributing and arranging the image data are calculated based on the movement direction and movement amount of the detected motion vector.
請求項6記載の階調表示方法において、
上記画像データを分配配置する位置と割合は、動きベクトルに沿って移動した画像領域を視線が追随した場合に、網膜上の視点領域に影響を与える画素位置と割合に相当するものであることを特徴とする階調表示方法。
The gradation display method according to claim 6.
The position and ratio at which the image data is distributed and arranged correspond to pixel positions and ratios that affect the viewpoint area on the retina when the line of sight follows the image area moved along the motion vector. A characteristic gradation display method.
請求項6記載の階調表示方法において、
上記画像データを分配配置する位置は、上記検出した動きベクトルの始点から終点に沿って、あらかじめ定められた面積の領域を移動させた場合に、上記領域に全体または一部が重なる画素であることを特徴とする階調表示方法。
The gradation display method according to claim 6.
The position where the image data is distributed and arranged is a pixel that overlaps the whole or a part of the area when a predetermined area is moved from the start point to the end point of the detected motion vector. The gradation display method characterized by this.
請求項6記載の階調表示方法において、
上記画像データを分配配置する割合は、上記検出した動きベクトルの始点から終点に沿って、あらかじめ定められた面積の領域を移動させた場合に、上記領域と画素とが重なる面積を、各サブフィールドが発光する時間で積分した値であることを特徴とする階調表示方法。
The gradation display method according to claim 6.
The distribution ratio of the image data is determined by determining the area where the area and the pixel overlap when the area having a predetermined area is moved from the start point to the end point of the detected motion vector. A gradation display method characterized in that the value is an integral value of the time during which light is emitted.
請求項1記載の階調表示方法において、
上記検出した当該画像の動きベクトルを基に、画素毎の4隅の移動方向、ならびに移動量を示す四隅動きベクトルを検出し、該動きベクトルを基に得られた4隅動きベクトルを用い、該4隅動きベクトル、及び寄与率に基づいて、所定の階調度を有するサブフィールドを選択する組み合わせを変化させることにより画像データを表示することを特徴とする階調表示方法。
The gradation display method according to claim 1,
Based on the detected motion vector of the image, four corner motion vectors indicating the movement direction and the movement amount of the four corners for each pixel are detected, and the four corner motion vectors obtained based on the motion vector are used, A gradation display method comprising: displaying image data by changing a combination of selecting subfields having a predetermined gradation degree based on a four-corner motion vector and a contribution rate .
請求項10記載の階調表示方法において、
上記画像データを分配配置する位置と割合を、上記検出した4隅動きベクトルの移動方向、及び移動量に基づいて算出することを特徴とする階調表示方法。
The gradation display method according to claim 10,
A gradation display method, characterized in that the position and ratio for distributing and arranging the image data are calculated based on the movement direction and movement amount of the detected four-corner motion vectors.
請求項11記載の階調表示方法において、
上記画像データを分配配置する位置は、上記検出した4隅動きベクトルの始点から終点までを4隅とする、定められた領域を移動させた場合に、上記領域に全体、または一部が重なる画素であることを特徴とする階調表示方法。
The gradation display method according to claim 11,
The position where the image data is distributed and arranged is a pixel that overlaps the whole or a part of the area when a predetermined area is moved with four corners from the start point to the end point of the detected four-corner motion vector. A gradation display method characterized by the above.
請求項11記載の階調表示方法において、
上記画像データを分配配置する割合は、上記検出した4隅動きベクトルの始点から終点までを4隅とする、定められた領域を移動させた場合に、上記領域と画素とが重なる面積を、各サブフィールドが発光する時間で積分した値であることを特徴とする階調表示方法。
The gradation display method according to claim 11,
The distribution ratio of the image data is the area where the region and the pixel overlap each other when a predetermined region is moved from the start point to the end point of the detected four-corner motion vector. A gradation display method, wherein the subfield is a value integrated by the time of light emission.
表示装置に表示される1フィールドの画像を、異なる階調度を有する複数個のサブフィールドを用い、これらサブフィールドから、表示に必要なものを選択して画像を表示する階調表示装置において、
入力された画像信号のデータから、隣接するフィールド間で画像の動きベクトルを検出する動きベクトル検出手段と、
上記検出した動きベクトルに基づいて、各サブフィールド毎に当該サブフィールドの発光開始位置と発光終了位置を算出する中間座標抽出部と、前記中間座標抽出部から出力される座標値に基づいてサブフィールドの点灯、または不点灯を制御する2値データを出力し、かつ、次のサブフィールドビットマップ演算部に与える画像データを出力するサブフィールドビットマップ演算部と、該サブフィールドビットマップ演算部からの2値データを全サブフィールドにわたって合成して、上記サブフィールドを構成するためのサブフィールド駆動データを出力する合成部とからなる画像データ演算変換手段とを備えたことを特徴とする階調表示装置。
In a gradation display device that uses a plurality of subfields having different gradations to select one field image displayed on the display device, and selects an image necessary for display from these subfields, and displays the image.
Motion vector detection means for detecting a motion vector of an image between adjacent fields from data of the input image signal;
An intermediate coordinate extraction unit that calculates the light emission start position and the light emission end position of each subfield based on the detected motion vector, and a subfield based on the coordinate value output from the intermediate coordinate extraction unit outputting binary data on, or to control the non-lighting of and subfield bit map calculating section for outputting new image data to be supplied to the next subfield bit map calculating section, from the sub-field bit map calculating section A gray scale display comprising: an image data arithmetic conversion means comprising: a synthesis unit for synthesizing the binary data over all subfields and outputting subfield drive data for constituting the subfields; apparatus.
請求項14記載の階調表示装置において、
上記中間座標抽出部とサブフィールドビットマップ演算部は、1フィールドの画像を構成するサブフィールドの個数分と同個数設けられていることを特徴とする階調表示装置。
The gradation display device according to claim 14, wherein
The gray scale display device according to claim 1, wherein the same number of intermediate coordinate extraction units and subfield bitmap calculation units are provided as many as the number of subfields constituting one field image.
請求項14記載の階調表示装置において、
上記サブフィールドビットマップ演算部は、上記中間座標抽出部より出力される座標値に基づいて、画像データを所定のサブフィールド平面に分配配置する割合を算出する寄与率演算部と、入力した画像データに上記寄与率を乗ずる複数の乗算器と、上記寄与率を乗じて分配したデータ値に基づいて当該サブフィールドの点灯、もしくは不点灯を制御する2値データを出力し、かつ、上記分配配置した画像データを取り込んで、次のサブフィールドビットマップ演算部に与える画像データを生成する際の減衰率を算出する減衰率演算部と、上記減衰率を上記分配配置した画像データに乗ずる複数の乗算器と、上記減衰率を乗じた画像データを取り込んで次のサブフィールドビットマップ演算部のための画像データを生成する新画像データ収納部とを備えていることを特徴とする階調表示装置。
The gradation display device according to claim 14, wherein
The subfield bitmap calculation unit includes a contribution rate calculation unit that calculates a ratio of distributing image data to a predetermined subfield plane based on the coordinate value output from the intermediate coordinate extraction unit, and the input image data A plurality of multipliers for multiplying the contribution rate by the above, and binary data for controlling lighting or non-lighting of the subfield based on the data value distributed by multiplying the contribution rate, and the distribution arrangement Attenuation rate calculation unit for calculating the attenuation rate when image data is taken and generated to be supplied to the next subfield bitmap calculation unit , and a plurality of multipliers for multiplying the attenuation rate by the distributed image data If the new image data to generate image data for the next sub-field bit map calculating section captures image data obtained by multiplying the attenuation factor storage Gradation display apparatus characterized by comprising and.
請求項14記載の階調表示装置において、
上記サブフィールドビットマップ演算部は、上記寄与率の値を、あらかじめ演算してROMテーブルとして値を保持し、上記中間座標抽出部よりの座標値に基づいて、画像データを所定のサブフィールド平面に分配配置する割合を上記ROMテーブルより出力する寄与率出力部と、入力した画像データに上記寄与率を乗ずる複数の乗算器と、上記寄与率を乗じて分配したデータ値に基づいて当該サブフィールドの点灯、もしくは不点灯を制御する2値データを出力し、かつ、上記分配配置した画像データを取り込んで次のサブフィールドビットマップ演算部に与える画像データを生成する際の減衰率を算出する減衰率演算部と、上記減衰率を上記分配した画像データに乗ずる複数の乗算器と、上記減衰率を乗じた画像データを取り込んで次のサブフィールドビットマップ演算部のための画像データを生成する新画像データ収納部とを備えていることを特徴とする階調表示装置。
The gradation display device according to claim 14, wherein
The subfield bitmap calculation unit calculates the contribution rate value in advance and holds the value as a ROM table, and based on the coordinate value from the intermediate coordinate extraction unit, sets the image data to a predetermined subfield plane. A contribution rate output unit that outputs a distribution ratio from the ROM table, a plurality of multipliers that multiply the input image data by the contribution rate, and a data value that is distributed by multiplying the contribution rate. Attenuation rate for outputting binary data for controlling lighting or non-lighting, and calculating an attenuation rate when the image data distributed and arranged is taken to generate image data to be supplied to the next subfield bitmap calculation unit an arithmetic unit, a plurality of multipliers for multiplying the attenuation factor on the image data the distribution, the following takes in image data multiplied by the attenuation factor Gradation display apparatus characterized by and a new image data storage unit for generating image data for the subfield bit map calculating section.
表示装置に表示される1フィールドの画像を、異なる階調度を有する複数個のサブフィールドを用い、これらサブフィールドから、表示に必要なものを選択して画像を表示する画像表示装置において、
入力された画像信号のデータから、隣接するフィールド間で画像の動きベクトルを検出する動きベクトル検出手段と、
上記検出した動きベクトルに基づいて、各画素毎の4隅の移動方向、ならびに移動量を示す4隅動きベクトルを算出する4隅動きベクトル演算部と、上記算出した4隅動きベクトルに基づいて、各サブフィールド毎に当該サブフィールドの発光開始位置と発光終了位置を算出する中間座標抽出部と、上記出力される座標値に基づいてサブフィールドの点灯、または不点灯を制御する2値データを出力し、かつ、次のサブフィールドビットマップ演算部に与える画像データを出力するサブフィールドビットマップ演算部と、該サブフィールドビットマップ演算部からの2値データを全サブフィールドにわたって合成して上記サブフィールドを構成するためのサブフィールド駆動データを出力する合成部とからなる画像データ演算変換手段とを備えたことを特徴とする階調表示装置。
In an image display apparatus that uses a plurality of subfields having different gradations to select an image necessary for display from a plurality of subfields, and displays an image by displaying a one-field image displayed on the display apparatus.
Motion vector detection means for detecting a motion vector of an image between adjacent fields from data of the input image signal;
Based on the detected motion vector, a four-corner motion vector calculating unit that calculates a four-corner motion vector indicating the moving direction and the moving amount of the four corners for each pixel, and based on the calculated four-corner motion vector, For each subfield, an intermediate coordinate extraction unit that calculates the light emission start position and light emission end position of the subfield, and binary data that controls lighting or non-lighting of the subfield based on the output coordinate values are output. and, and, and the subfield bit map calculating section for outputting new image data to be supplied to the next subfield bit map calculating section, the sub binary data from the sub-field bit map calculating section synthesizes over the entire sub-fields An image data calculation / conversion means comprising a synthesizing unit for outputting subfield driving data for constituting a field; Gray scale display device, characterized in that was e.
請求項18記載の階調表示装置において、
上記中間座標抽出部とサブフィールドビットマップ演算部は、1フィールドの画像を構成するサブフィールドの個数分と同個数設けられていることを特徴とする階調表示装置。
The gradation display device according to claim 18, wherein
The gray scale display device according to claim 1, wherein the same number of intermediate coordinate extraction units and subfield bitmap calculation units are provided as many as the number of subfields constituting one field image.
請求項18記載の階調表示装置において、
上記サブフィールドビットマップ演算部は、上記中間座標抽出部より出力される4隅ベクトルの中間座標値を4隅とする、定められた領域の面積を定められた期間積分する画素面積演算部と、上記4隅ベクトルの中間座標値にも基づいて、画像データを所定のサブフィールド平面に分配配置する割合を算出する寄与率演算部と、入力した画像データに上記寄与率を乗ずる複数の乗算器と、上記寄与率を乗じて分配したデータ値に基づいて当該サブフィールドの点灯、もしくは不点灯を制御する2値データを出力し、かつ、上記分配配置した画像データを取り込んで次のサブフィールドビットマップ演算部に与える画像データを生成する際の減衰率を算出する減衰率演算部と、上記減衰率を上記分配配置した画像データに乗ずる複数の乗算器と、上記減衰率を乗じた画像データを上記画素面積演算部で算出した成分値で除算する複数の除算器と、上記除算された画像データを取り込んで次のサブフィールドビットマップ演算部のための画像データを生成する新画像データ収納部とを備えていることを特徴とする階調表示装置。
The gradation display device according to claim 18, wherein
The subfield bitmap calculation unit includes a pixel area calculation unit that integrates the area of a predetermined region for a predetermined period, with the intermediate coordinate values of the four corner vectors output from the intermediate coordinate extraction unit as four corners, Based on the intermediate coordinate values of the four corner vectors, a contribution ratio calculation unit that calculates a ratio of distributing image data to a predetermined subfield plane; a plurality of multipliers that multiply the input image data by the contribution ratio; Binary data for controlling lighting or non-lighting of the subfield is output based on the data value distributed by multiplying the contribution rate, and the next subfield bit map is acquired by taking in the image data distributed and arranged. an attenuation factor calculating section for calculating an attenuation factor in generating the image data to be supplied to the arithmetic unit, a plurality of multipliers for multiplying the attenuation factor on the image data the distribution arrangement Image data for the plurality of divider and, next subfield bit map calculating section captures image data the division dividing the image data obtained by multiplying the attenuation factor a component value calculated in the pixel area calculating section And a new image data storage unit for generating the gradation display device.
請求項18記載の階調表示装置において、
上記サブフィールドビットマップ演算部は、上記中間座標抽出部より出力される4隅ベクトルの中間座標値を4隅とする、定められた領域の面積を定められた期間積分する画素面積演算部と、寄与率の値をあらかじめ演算してROMテーブルとして値を保持し、上記4隅ベクトルの中間座標値にも基づいて、画像データを所定のサブフィールド平面に分配配置する割合を上記ROMテーブルより出力する寄与率演算部と、入力した画像データに上記寄与率を乗ずる複数の乗算器と、上記寄与率を乗じて分配配置したデータ値に基づいて当該サブフィールドの点灯、もしくは不点灯を制御する2値データを出力し、かつ、上記分配配置した画像データを取り込んで次のサブフィールドビットマップ演算部に与える画像データを生成する際の減衰率を算出する減衰率演算部と、上記減衰率を上記分配配置した画像データに乗ずる複数の乗算器と、上記減衰率を乗じた画像データを上記画素面積演算部で算出した成分値で除算する複数の除算器と、上記除算された画像データを取り込んで次のサブフィールドビットマップ演算部のための画像データを生成する新画像データ収納部とを備えていることを特徴とする階調表示装置。
The gradation display device according to claim 18, wherein
The subfield bitmap calculation unit includes a pixel area calculation unit that integrates the area of a predetermined region for a predetermined period, with the intermediate coordinate values of the four corner vectors output from the intermediate coordinate extraction unit as four corners, The value of the contribution rate is calculated in advance and stored as a ROM table. Based on the intermediate coordinate values of the four corner vectors, the ratio at which image data is distributed and arranged on a predetermined subfield plane is output from the ROM table. A binary that controls lighting or non-lighting of the subfield based on a contribution value calculation unit, a plurality of multipliers that multiply the input image data by the contribution rate, and a data value that is distributed by multiplying the contribution rate outputs data, and the attenuation at the time of generating the image data to be supplied to the next subfield bit map calculating section captures the image data the distribution arrangement A plurality of multipliers for multiplying the distributed image data by the attenuation rate, and a plurality of multipliers for dividing the image data multiplied by the attenuation factor by the component values calculated by the pixel area calculating unit. And a new image data storage unit that takes in the divided image data and generates image data for the next subfield bitmap calculation unit .
請求項18記載の階調表示装置において、
上記サブフィールドビットマップ演算部は、画素面積の値をあらかじめ演算してROMテーブルとして値を保持し、上記中間座標抽出部より出力される4隅ベクトルの中間座標値を4隅とする、定められた領域の面積を上記ROMテーブルより出力する画素面積演算部と、上記4隅ベクトルの中間座標値にも基づいて、画像データを所定のサブフィールド平面に分配配置する割合を算出する寄与率演算部と、入力した画像データに上記寄与率を乗ずる複数の乗算器と、上記寄与率を乗じて分配配置したデータ値に基づいて当該サブフィールドの点灯、もしくは不点灯を制御する2値データを出力し、かつ、上記分配配置した画像データを取り込んで次のサブフィールドビットマップ演算部サブフィールドに与える画像データを生成する際の減衰率を算出する減衰率演算手段と、前記減衰率を前記分配配置した画像データに乗ずる複数の乗算器と、上記減衰率を乗じた画像データを上記画素面積演算部で算出した成分値で除算する複数の除算器と、該記除算された画像データを取り込んで次のサブフィールドビットマップ演算部のための画像データを生成する新画像データ収納部とを備えていることを特徴とする階調表示装置。
The gradation display device according to claim 18, wherein
The sub-field bitmap calculation unit is determined in advance to calculate a pixel area value to hold the value as a ROM table, and to set the intermediate coordinate values of the four corner vectors output from the intermediate coordinate extraction unit as four corners. A pixel area calculation unit that outputs the area of the region from the ROM table, and a contribution rate calculation unit that calculates a ratio of distributing and arranging the image data on a predetermined subfield plane based on the intermediate coordinate values of the four corner vectors And a plurality of multipliers for multiplying the input image data by the contribution rate, and binary data for controlling lighting or non-lighting of the subfield based on data values distributed and multiplied by the contribution rate. and, reducing the time of generating image data to be supplied to the next subfield bit map calculating section subfield captures the image data the distribution arrangement An attenuation rate calculating means for calculating a rate; a plurality of multipliers for multiplying the distributedly arranged image data by the attenuation rate; and image data obtained by multiplying the attenuation rate by the component value calculated by the pixel area calculating unit. A gradation display comprising: a plurality of dividers; and a new image data storage unit that takes in the divided image data and generates image data for the next subfield bitmap calculation unit apparatus.
請求項18記載の階調表示装置において、
上記サブフィールドビットマップ演算部は、画素面積の値をあらかじめ演算してROMテーブルとして値を保持し、上記中間座標抽出部より出力される4隅ベクトルの中間座標値を4隅とする、定められた領域の面積を上記ROMテーブルより出力する画素面積演算部と、上記4隅ベクトルの中間座標値にも基づいて、画像データを所定のサブフィールド平面に分配配置する割合を上記ROMテーブルより出力する寄与率演算部と、入力した画像データに上記寄与率を乗ずる複数の乗算器と、上記寄与率を乗じて分配配置したデータ値に基づいて当該サブフィールドの点灯、もしくは不点灯を制御する2値データを出力し、かつ、上記分配配置した画像データを取り込んで次のサブフィールドビットマップ演算部に与える画像データを生成する際の減衰率を算出する減衰率演算部と、上記減衰率を上記分配配置した画像データに乗ずる複数の乗算器と、上記減衰率を乗じた画像データを上記画素面積演算部で算出した成分値で除算する複数の除算器と、上記除算された画像データを取り込んで次のサブフィールドビットマップ演算部のための画像データを生成する新画像データ収納部とを備えていることを特徴とする階調表示装置。
The gradation display device according to claim 18, wherein
The subfield bitmap calculation unit is determined in advance to calculate a pixel area value and hold the value as a ROM table, and to set the intermediate coordinate values of the four corner vectors output from the intermediate coordinate extraction unit as four corners. Based on the pixel area calculation unit for outputting the area of the region from the ROM table and the intermediate coordinate values of the four corner vectors, the ratio for distributing the image data on a predetermined subfield plane is output from the ROM table. A binary that controls lighting or non-lighting of the subfield based on a contribution value calculation unit, a plurality of multipliers that multiply the input image data by the contribution rate, and a data value that is distributed by multiplying the contribution rate outputs data, and generates image data to be supplied to the next subfield bit map calculating section captures the image data the distribution arrangement A component value calculated by the pixel area calculation unit for the attenuation rate calculation unit for calculating the attenuation rate, a plurality of multipliers for multiplying the image data by which the attenuation rate is distributed, and the image data multiplied by the attenuation rate And a new image data storage unit that takes in the divided image data and generates image data for the next subfield bitmap operation unit. Tone display device.
請求項3または5に記載の階調表示方法において、
上記第kサブフィールドは、より発光期間の長いサブフィールドであり、上記第(k+1)サブフィールドは、発光期間のより短いサブフィールドであることを特徴とする階調表示方法。
The gradation display method according to claim 3 or 5,
The k-th subfield is a subfield with a longer light emission period, and the (k + 1) th subfield is a subfield with a shorter light emission period.
請求項14または18に記載の階調表示装置において、
上記第kサブフィールドは、より発光期間の長いサブフィールドであり、上記第(k+1)サブフィールドは、発光期間のより短いサブフィールドであることを特徴とする階調表示装置。
The gradation display device according to claim 14 or 18,
The grayscale display device, wherein the kth subfield is a subfield having a longer light emission period, and the (k + 1) th subfield is a subfield having a shorter light emission period.
JP05527598A 1997-03-31 1998-03-06 Gradation display method and gradation display device Expired - Fee Related JP3697681B2 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP05527598A JP3697681B2 (en) 1998-03-06 1998-03-06 Gradation display method and gradation display device
CN98803741A CN1253652A (en) 1997-03-31 1998-03-25 Dynatic image display method and device therefor
KR1019997008849A KR100345423B1 (en) 1997-03-31 1998-03-25 Dynamic image display method and device therefor
EP98911007A EP0973147A4 (en) 1997-03-31 1998-03-25 Dynamic image display method and device therefor
PCT/JP1998/001335 WO1998044479A1 (en) 1997-03-31 1998-03-25 Dynamic image display method and device therefor
US09/381,637 US6661470B1 (en) 1997-03-31 1998-03-25 Moving picture display method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP05527598A JP3697681B2 (en) 1998-03-06 1998-03-06 Gradation display method and gradation display device

Publications (2)

Publication Number Publication Date
JPH11249617A JPH11249617A (en) 1999-09-17
JP3697681B2 true JP3697681B2 (en) 2005-09-21

Family

ID=12994056

Family Applications (1)

Application Number Title Priority Date Filing Date
JP05527598A Expired - Fee Related JP3697681B2 (en) 1997-03-31 1998-03-06 Gradation display method and gradation display device

Country Status (1)

Country Link
JP (1) JP3697681B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001039488A2 (en) 1999-11-26 2001-05-31 Koninklijke Philips Electronics N.V. Method and unit for processing images
JP5191621B2 (en) * 2000-11-28 2013-05-08 株式会社日立製作所 Driving method of display device
JP3818649B2 (en) 2002-05-20 2006-09-06 インターナショナル・ビジネス・マシーンズ・コーポレーション Image display system, image display method, and program

Also Published As

Publication number Publication date
JPH11249617A (en) 1999-09-17

Similar Documents

Publication Publication Date Title
KR100595077B1 (en) Image display apparatus
KR100339983B1 (en) Detector For Detecting Pseudo-Contour Noise And Display Apparatus Using The Detector
US6473464B1 (en) Method and apparatus for processing video pictures, especially for false contour effect compensation
KR100345423B1 (en) Dynamic image display method and device therefor
KR100734646B1 (en) Image display apparatus and image display method
EP1300823A1 (en) Display device, and display method
EP1416464A2 (en) Method of and apparatus for displaying halftone images
JPH11231827A (en) Image display device and image evaluating device
JP2001083926A (en) Animation false contour compensating method, and image display device using it
US8363071B2 (en) Image processing device, image processing method, and program
JP5141043B2 (en) Image display device and image display method
JPH11231824A (en) Display device
JPH11231832A (en) Moving vector detecting method, moving image display method and moving image display device
JP3697681B2 (en) Gradation display method and gradation display device
JP2001034223A (en) Moving image displaying method and moving image displaying device using the method
JP2005165312A (en) Drive device for plasma display panel, image processing method for the plasma display panel, and the plasma display panel
KR100703817B1 (en) Image display apparatus
JP2001042819A (en) Method and device for gradation display
JP2000039864A (en) Method and device for displaying dynamic image
JP2001083925A (en) Detecting device of movement of display device, and display device
JP3990612B2 (en) Image evaluation device
JPH117266A (en) System and device for displaying video on display panel
JP3727619B2 (en) Image display device
KR100578917B1 (en) A driving apparatus of plasma display panel, a method for processing pictures on plasma display panel and a plasma display panel
JP4048089B2 (en) Image display device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050329

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050624

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090715

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090715

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100715

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110715

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110715

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120715

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees