JP2009065656A - 表示システム、表示方法およびコンピュータ読み取り可能媒体 - Google Patents

表示システム、表示方法およびコンピュータ読み取り可能媒体 Download PDF

Info

Publication number
JP2009065656A
JP2009065656A JP2008210350A JP2008210350A JP2009065656A JP 2009065656 A JP2009065656 A JP 2009065656A JP 2008210350 A JP2008210350 A JP 2008210350A JP 2008210350 A JP2008210350 A JP 2008210350A JP 2009065656 A JP2009065656 A JP 2009065656A
Authority
JP
Japan
Prior art keywords
pixel
frame
digital video
video sequence
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008210350A
Other languages
English (en)
Inventor
Eunice Poon
プーン ユーニス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Publication of JP2009065656A publication Critical patent/JP2009065656A/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/363Graphics controllers
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/34Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
    • G09G3/36Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source using liquid crystals
    • G09G3/3611Control of matrices with row and column drivers
    • G09G3/3648Control of matrices with row and column drivers using an active matrix
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/43Hardware specially adapted for motion estimation or compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/53Multi-resolution motion estimation; Hierarchical motion estimation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0252Improving the response speed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0261Improving the quality of display appearance in the context of movement of objects on the screen or movement of the observer relative to the screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0285Improving the quality of display appearance using tables for spatial correction of display data
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/10Special adaptations of display systems for operation with variable images
    • G09G2320/106Determination of movement vectors or equivalent parameters within the image
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/39Control of the bit-mapped memory
    • G09G5/393Arrangements for updating the contents of the bit-mapped memory

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Chemical & Material Sciences (AREA)
  • Crystallography & Structural Chemistry (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

【課題】知覚されるぶれを事前補正するための改善された技術を提供すること。
【解決手段】デジタルビデオシーケンスを表示するためのシステムはグラフィック処理装
置(GPU)およびディスプレイ装置を含む。GPUは、デジタルビデオシーケンスを受
信し、デジタルビデオシーケンスのフレーム間の動きに基づいて知覚されるぶれを補正す
るための修正を加える。ディスプレイ装置は修正されたデジタルビデオシーケンスを表示
する。さらに方法およびコンピュータ読み取り可能コードを含むコンピュータ読み取り可
能媒体も提供される。
【選択図】図1

Description

本発明は一般に画像処理に関するものであり、より具体的には知覚されるぶれを補正す
るための修正が加えられたデジタルビデオシーケンスを表示するための方法およびシステ
ムに関する。
液晶ディスプレイ(LCD)装置などの手持ち型ディスプレイ装置上に表示されたデジ
タルビデオ中で動くオブジェクトは、見る人にはぶれて見えることがある。この知覚され
るぶれは、液晶セルの相対的に遅いLC応答に一部起因することが知られている。たとえ
ば陰極線管(CRT)装置などのインパルス型装置と比較した場合、LCD装置ははるか
に遅い輝度遷移応答時間を持っている。知覚されるぶれはさらに、LCD装置に一般に採
用されているサンプルホールド駆動技術に固有の持続的発光にも一部起因しており、これ
は人の網膜に残像を形成することになる。これらの残像は、そのビデオシーケンスを鑑賞
する際にぶれた視覚認知を生じさせるのである。
知覚されるぶれを補正するために様々な方法が提案されている。これらの中には、手持
ち型装置自体に修正を加える方法(ブラックフレームを挿入する、またはバックライトを
ブリンキングさせるなど)、および手持ち型装置上での表示前に、デジタルビデオシーケ
ンスのフレーム群に動きぶれを補正するための前処理(低域フィルタリングまたは逆フィ
ルタリングなど)を施す方法が含まれる。
ムスクリシュナン(Muthukrishnan)等による特許文献1は、デジタルビ
デオストリームの予測符号化用の動き推定アルゴリズムを開示している。現在のフレーム
中の所定ブロックのベストマッチは、隣接するすでに符号化されたマクロブロックのメデ
ィアンベクトル、ゼロ動きベクトル、一時的に同一場所に配置されたマクロブロック、周
囲のマクロブロック動きベクトル、および全体的な動きベクトルに基づいて参照フレーム
中の予測材料サーチポイント(predictor search points)群を識別することにより、見
出される。次に所定ブロックと、参照フレーム中のそれぞれの予測ポイントを中心とする
各参照ブロックとの間の絶対差分和(SAD)が計算される。そして最も低いSADに対
応する予測ポイントが、所定の画素範囲におけるさらなるダイヤモンドサーチの中心とし
て使われ、ベターマッチ(たとえば最低SADを提示するもの)が識別される。ベターマ
ッチが見つかった場合、そのベターマッチを中心として画素範囲をより小さくしたダイヤ
モンドサーチが実施される。この処理は、画素範囲を徐々に小さくしながら所定回数繰り
返し続けられる、または最低SADが現在のダイヤモンドサーチの中心から動かなくなる
まで続けられる。そして所定ブロックの動きベクトルは、その最後のダイヤモンドサーチ
の中心に対応しているものとみなされる。
シェン(Shen)等による特許文献2および特許文献3は、ビデオを符号化するため
の中央処理装置(CPU)と、符号化において用いる動き予測を実施するためのグラフィ
ック処理装置(GPU)の両方を利用してビデオ符号化を加速するための方法を開示して
いる。特定のビデオフレームがCPUにより識別され、処理のためにGPUへと供給され
る。GPUはブロックマッチングにより動き予測を実施するもので、この間、最低SAD
を呈する参照画素ブロックを見つけるためにサーチウィンドウ中の参照画素ブロックが現
在のフレーム中の現在の画素ブロックと比較される。現在のフレームをデジタルビデオデ
ータストリームへと符号化するために、画素ブロックの動き予測を表す動きベクトルがG
PUからCPUへと供給される。GPUには動き予測を加速するためのデプスバッファが
採用されている。
ニッカーソン(Nickerson)による特許文献4は、ビデオフレームからビデオ
ストリームへの符号化において連続するビデオフレーム間の動きを予測する方法を開示し
ている。この方法においては、現在のフレーム中の現在の画素ブロックが、参照フレーム
におけるサーチウィンドウ中の複数の参照画素ブロックと、SADまたは差分の平方和(
SSD)を用いて比較され、ベストマッチが決定される。現在の画素ブロックにおいて、
市松模様状パターンに分布する半分の画素のみが比較されることにより、計算負荷が低減
されている。
ドリスデール(Drysdale)による特許文献5は、ビデオフレームセットの符号
化中にビデオフレーム間の動きを予測するための方法および装置を開示している。この方
法においては、ビデオフレームの1つからの第1マクロブロックが、参照ビデオフレーム
中の第2マクロブロックと比較され、差分値が決定される。次にこの差分値が比較値と比
較される。差分値が比較値以上であった場合、差分値は最低差分値と比較される。差分値
がその最低差分値以下である場合、その差分値が新たな最低差分値として記憶されること
により、より良好なマクロブロックマッチが確立される。
モリヨシ(Moriyoshi)による特許文献6は、デジタルビデオシーケンスの圧
縮符号化用にフレーム中の画素ブロック間の動きベクトルを検出するための方法を開示し
ている。本方法においては、現在の画像が画素ブロックへと分割され、現在の画像中の各
画素ブロックと、参照画像の探索範囲におけるそのベストマッチとの間の位置の違いが判
定される。参照フレーム中の同じ位置にある画素ブロックの動きベクトルは予測ベクトル
として設定され、予測ベクトルの終点位置が走査開始位置として設定される。探索の早い
時点で可能性の高い合致を見つけることができるように、探索中の走査は走査開始位置か
ら探索範囲外側に向けて渦巻き状に実施される。
クック(Cook)等による特許文献7はビデオシーケンスをデジタル符号化する目的
で、デジタルビデオシーケンス中のフレーム間の動きを補正するための方法を開示してい
る。この方法においては、画素マクロブロック中の画素の色を、そのシーケンスにおける
順方向および/または逆方向参照ピクチャについて先に取得されている動きベクトルを使
って予測することにより、シーケンス中のピクチャが再構成される。
ザッカリン(Zaccarin)等による特許文献8は、ビデオシーケンスのマルチレ
ート符号化のための方法を開示している。この方法においては、あるフレームを以前に符
号化されたフレームへと関連付ける動き情報が、そのフレームと以前のフレームの空間領
域および周波数領域の両方の表現を用いることにより計算される。符号化前の動き補正は
周波数領域において実施される。
オー(Au)等による特許文献9は、デジタルビデオシーケンス中の連続する画像間の
動きを、ブロックマッチング法を使って予測するための方法を開示している。この方法に
おいては、現在のフレームの現在の画素ブロックに類似する以前のフレームの画素ブロッ
クの探索が実施される。以前のフレーム中のポイントに基づく探索領域が、連続的により
大きなダイヤモンド形状のゾーンとして配置される。ダイヤモンド形状のゾーンは、以前
のフレームにおける画素ブロックの対応位置を中心とすること、または以前の動き予測に
基づくポイントを中心とすることができる。前のフレーム中のベストマッチの画素ブロッ
クを探すための連続ゾーンにおける探索は、閾値数のダイヤモンド形状ゾーンが探索され
るまで続けられる。
ウィックマン(Wichman)等による特許文献10は、デジタルビデオストリーム
を符号化または復号化するためにフレーム間の動き予測を実施するためのコプロセッサを
開示している。動き予測の間、1フレームにおいて、1つの16×16画素マクロブロッ
ク上の1つの動きベクトルと、4つの8×8画素ブロック上の4つの動きベクトルが計算
される。コプロセッサおよびプロセッサは協調して、マクロブロック全体用の一度の動き
ベクトル探索と4つの8×8ブロック用の複数の動きベクトル探索の両方を実施する。
ゾン(Zhong)等による特許文献11は、デジタルビデオシーケンス中のフレーム
間の動きを予測するための方法を開示している。この方法においては、複数の予測された
開始動きベクトルが選択される。その複数の予測開始動きベクトルを使った粗ブロック動
き探索が実施され、SAD値と関連ベクトルとが取得される。次に微細ブロック動き探索
が、開始位置として粗探査から得られたベストマッチ動きベクトルを使用して実施される
。予測開始動きベクトルは、現在のマクロブロックの上方かつ左側のマクロブロックに対
応するベクトルが望ましい。粗探索は16×16ダイヤモンドサーチであり、微細探索は
8×8探索と2分の1画素探索の両方を含むものであることが望ましい。
コンドウ(Kondo)等による特許文献12は、一連の動画中の画像を符号化および
復号化するための方法を開示している。予測符号化に使われる動きベクトルの記憶手段は
、参照ピクチャ数よりも少ない動きベクトル数を記憶するように制御される。必要とされ
る動きベクトルが記憶されると、その必要される動きベクトルを使って符号化が実施され
る。さもなければ、符号化は近隣ブロックに対応する動きベクトルを使って実施される。
パウ(Pau)等による特許文献13は、PAL(Phase−Alternate−
Line)表示システムに基づいてフォーマットされたデジタル画像を非PAL装置上で
表示するために、そのインターレースを解除するための方法を開示している。
カドノ(Kadono)等による特許文献14は、デジタルビデオシーケンスの圧縮符
号化を実施するために、そのビデオシーケンスにおけるフレーム間の動きを予測するため
の方法を開示している。この方法においては、参照ピクチャ中の参照ブロックが探索中心
として定義される。次に現在のピクチャ中の現在のブロックと参照ブロックとの間の誤差
、および現在のブロックとその参照ブロックの近傍にある各参照ブロックとの間の誤差と
が計算される。最小誤差を持つ参照ブロックが特定される。最小誤差に基づき、動き予測
を終了するべきかどうかが決定される。最小誤差を持つ参照ブロックの位置に基づいて、
探索中心から2画素以上移動した参照ブロックが次の探索中心に設定され、この、次の探
索中心に基づいて計算が繰り返される。方法は繰り返され、最も新しい最小値が閾値に至
った時点で終了する。
オー(Au)等による特許文献15は、デジタルビデオの圧縮時に複数フレームの動き
を予測するための方法を開示している。この方法においては、マクロブロックと、現在の
フレームにおけるそれらそれぞれの位置とが定義される。参照フレーム中の各マクロブロ
ックの探索領域と、探索領域内におけるマクロブロックの相対的なずれの各々を探す探索
ポイントとの両方が定義される。各マクロブロックをより小さく、重ならない領域へと細
分化する可能性のあるモード、すなわちレベル階層が構築される。各マクロブロックの「
緻密な」探索(たとえば画素精度の探索)が、最も高レベルに細分化されたマクロブロッ
クの各々に実施されることで、マクロブロックの整合が見つけられる。その後、最も高レ
ベルの緻密な探索から取得された動きベクトルの周囲で細かいダイヤモンド探索が実施さ
れる。そのマクロブロックの最良の動きベクトルは、最も不整合の小さい計測値(たとえ
ばSAD)を持つ参照フレームのマクロブロックの細分化部に対応する動きベクトルであ
る。
キタダ(Kitada)等による特許文献16は、圧縮符号化された動画像ストリーム
を復号化するための装置を開示している。装置は、以前に復号化されたピクチャを用いて
復号化されていないピクチャに対応するフレーム間予測信号を生成する動き補正処理を実
現している。フレーム間予測信号を生成するための動きベクトル情報は、エントロピー復
号部により動きのビデオストリームから分離される。
ナガラジャン(Nagarajan)等による特許文献17は、デジタルビデオの圧縮
符号化中にサブピクセル精度で動きベクトルを補間するための方法を開示している。各ブ
ロックについて全画素動きベクトルを計算するためのブロックマッチング処理は、現在の
フレーム中の画素ブロックを参照フレーム中の探索範囲にある参照画素ブロックと比較す
ることを含む。動きベクトルを補間する方法は、計算された全画素の動きの配向(水平、
垂直または斜めなど)に基づくものである。
マンジュナス(Manjunath)等による特許文献18は、ビデオシーケンスの符
号化中に個々のビデオシーケンスにおけるフレーム間の動きを予測するための方法を開示
している。この方法においては、フレームの現在のビデオブロックの近傍にあるビデオブ
ロックについて、先に計算された動きベクトルに基づいて、動きベクトル予測が計算され
る。動きベクトル予測は、現在のビデオブロックの符号化のために予測ビデオブロックを
探索する上での基盤として用いられる。次に現在のビデオブロックと予測ビデオブロック
との間の差分を示す差分ブロックが計算され、現在のビデオブロックの符号化に用いられ
る。
ストナー(Stoner)等による特許文献19は、デジタルビデオシーケンスの符号
化において動き予測を最適化するための方法を開示している。この方法においては、現在
のフレーム中の現在のマクロブロックと、参照フレーム中の探索範囲にある複数の参照マ
クロブロックの各々との間でSAD値が計算される。次にそのマクロブロック中でブロッ
クサイズが最も小さいミクロブロックの全てについてSAD値が計算される。最も小さい
ミクロブロックのSAD値は、そのマクロブロック中における他のサイズを持つミクロブ
ロックのSAD値を計算する(たとえばミクロブロックのSAD値を異なる組み合わせで
合計する)ために用いられる。各マクロブロック中の様々なサイズのミクロブロックから
の最も低いSAD値に対応する動きベクトルが、そのマクロブロックの動きベクトルとみ
なされる。
米国特許出願公開第2005/0265454号明細書 米国特許出願公開第2006/0056513号明細書 米国特許出願公開第2006/0056708号明細書 米国特許第5764787号明細書 米国特許第6496538号明細書 米国特許第6549576号明細書 米国特許第6707853号明細書 米国特許第6778607号明細書 米国特許第6842483号明細書 米国特許出願公開第2004/0227763号明細書 米国特許出願公開第2004/0247029号明細書 米国特許出願公開第2004/0264570号明細書 米国特許出願公開第2005/0179814号明細書 米国特許出願公開第2005/0190844号明細書 米国特許出願公開第2006/0002474号明細書 米国特許出願公開第2006/0067406号明細書 米国特許出願公開第2006/0109910号明細書 米国特許出願公開第2006/0120612号明細書 米国特許出願公開第2006/0126739号明細書
デジタルビデオを符号化するためにデジタルビデオシーケンスにおけるフレーム間の動
きを予測することは周知ではあるが、手持ち型の装置上に表示されるデジタルビデオシー
ケンスにおいて知覚されるぶれを事前補正するための改善された技術が望まれている。
よって目的は、知覚されるぶれを補正するための修正が加えられたデジタルビデオシー
ケンスを表示する新規なシステムおよび方法を提供することにある。
上記の目的は下記の本発明により達成される。
デジタルビデオシーケンスを表示するための表示システムであって、前記デジタルビデ
オシーケンスを受信し、前記デジタルビデオシーケンスのフレーム間の動きに基づいて知
覚されるぶれを補正するための修正を加えるグラフィック処理装置(GPU)と、前記修
正されたデジタルビデオシーケンスを表示するディスプレイ装置とを有する表示システム
本発明の表示システムにおいて、前記グラフィック処理装置は、プログラム可能フラグ
メントプロセッサと、前記デジタルビデオシーケンスのフレームを格納するテクスチャメ
モリと、前記プログラム可能フラグメントプロセッサにより実行可能なコンピュータプロ
グラムを格納するプログラムメモリとを有し、前記コンピュータプログラムは、現在のフ
レームおよび以前のフレームにおける画素間の動きを予測するプログラムコードと、知覚
されるぶれを補正するために前記予測された動きに基づいて前記現在のフレーム中の画素
をフィルタリングするプログラムコードとを有することが好ましい。
本発明の表示システムにおいて、前記グラフィック処理装置は、ベクトルマップルック
アップテーブルおよびオーバードライブルックアップテーブルを格納するテクスチャメモ
リをさらに有することが好ましい。
本発明の表示システムにおいて、前記グラフィック処理装置は、前記コンピュータプロ
グラムによる予測およびフィルタリングの中間フレーム処理結果を格納するフレームバッ
ファオブジェクトメモリをさらに有することが好ましい。
本発明の表示システムにおいて、前記フレームバッファオブジェクトメモリは、ベース
レベルおよびブロックレベルを持つポインタアレイをさらに格納していることが好ましい
本発明の表示システムにおいて、前記ベースレベルが、各々が前記現在のフレームと同
サイズである4つのテクスチャアタッチメントを含むことが好ましい。
本発明の表示システムにおいて、前記ブロックレベルが、各々が前記現在のフレームの
何分の1かのサイズである3つのテクスチャアタッチメントを含むことが好ましい。
本発明の表示システムにおいて、前記ブロックレベルのテクスチャアタッチメントのサ
イズが、前記現在のフレームの1/8であることが好ましい。
本発明の表示システムにおいて、前記動きを予測するプログラムコードおよび前記画素
をフィルタリングするプログラムコードが、フラグメントシェーダープログラムコードと
、バーテックスシェーダープログラムコードとを含むことが好ましい。
本発明の表示システムにおいて、前記グラフィック処理装置が、前記ディスプレイ装置
による表示のために、フィルタリングされたフレームを受ける複数のオフスクリーンフレ
ームバッファを有することが好ましい。
また本発明の表示システムにおいて、デジタルビデオストリームをデジタルビデオシー
ケンスへと復号化し、前記デジタルビデオシーケンスのフレームを前記グラフィック処理
装置へと供給する中央処理装置をさらに有することが好ましい。
一方、本発明のデジタルビデオを表示するための表示方法は、フレーム間の動きに基づ
いて知覚されるぶれを補正するために、グラフィック処理装置を使って入力デジタルビデ
オシーケンスを修正するステップと、前記修正されたデジタルビデオシーケンスをディス
プレイ装置へと供給するステップとを含む。
本発明の表示方法において、前記修正するステップが、前記デジタルビデオシーケンス
中のフレーム間の画素の動きを予測するステップと、前記予測された動きに基づいてフレ
ームをフィルタリングするステップとを含むことを特徴とする。
本発明の表示方法において、前記予測するステップが、現在のフレームの複数の画素ブ
ロックの各々について、前記現在のフレームと以前のフレームとの間の動きベクトルを予
測することにより、ブロック動きベクトルフィールドを取得するステップであって、前記
ブロック動きベクトルとは、それぞれの予測されたぶれの方向とぶれの範囲を表すもので
あることを特徴とする前記ステップと、前記ブロック動きベクトルフィールドをスムージ
ングするステップと、前記現在のフレーム中の各画素に、前記スムージングされたブロッ
ク動きベクトルフィールドにおいて対応するブロックのブロック動きベクトルを割り当て
るステップとを含むことが好ましい。
本発明の表示方法において、前記フィルタリングするステップが、前記現在のフレーム
に基づいて最初の推量フレームを生成するステップと、前記推量フレーム中の画素を、そ
れぞれに予測されたぶれ方向およびぶれ範囲の関数としてぶれ付けするステップと、それ
ぞれの画素の各々について誤差画素を生成するために、各ぶれ付けした画素を前記現在の
フレーム中のそれぞれの画素と比較するステップと、各誤差画素をぶれ付けし、重み付け
するステップと、前記推量フレームの更新およびぶれ補正を行うために、各誤差画素と、
前記最初の推量フレーム中のそれに対応する画素とを組み合わせるステップとを含むこと
が好ましい。
本発明の表示方法において、前記重み付けが、前記それぞれの画素の動きの関数である
ことが好ましい。
本発明の表示方法において、前記重み付けが、前記画素の動く方向における前記推量フ
レーム中の前記それぞれの画素のエッジ強度の予測値であることが好ましい。
本発明の表示方法において、前記エッジ強度が、高域フィルタを使って予測されたもの
であることが好ましい。
本発明の表示方法において、前記最初の推量フレームが、前記現在のフレームであるこ
とが好ましい。
本発明の表示方法において、前記重み付けが、前記画素の動く方向における前記推量フ
レーム中の前記それぞれの画素のエッジ強度の予測値であることが好ましい。
本発明の表示方法において、前記画素にぶれ付けするステップと、前記比較するステッ
プと、前記誤差画素にぶれ付けし重み付けするステップと、前記組み合わせるステップと
、が繰り返し実施されることが好ましい。
本発明の表示方法において、前記画素にぶれ付けするステップと、前記比較するステッ
プと、前記誤差画素にぶれ付けし重み付けするステップと、前記組み合わせるステップが
、誤差の和が閾値レベル未満に低下するまで繰り返し実施されることが好ましい。
本発明の表示方法において、前記画素にぶれ付けするステップと、前記比較するステッ
プと、前記誤差画素にぶれ付けし重み付けするステップと、前記組み合わせるステップと
が、所定回数にわたり繰り返し実施されることが好ましい。
本発明の表示方法において、前記画素にぶれ付けするステップと、前記比較するステッ
プと、前記誤差画素にぶれ付けし重み付けするステップと、前記組み合わせるステップと
が、連続する繰り返し間における誤差の和が閾値よりも大きい量分変化しなくなるまで繰
り返し実施されることが好ましい。
また、本発明のコンピュータ読み取り可能媒体は、デジタルビデオを表示するためにグ
ラフィック処理装置による実行が可能なコンピュータプログラムをその上に有するコンピ
ュータ読み取り可能媒体であって、フレーム間の動きに基づいて知覚されるぶれを補正す
るために、前記デジタルビデオシーケンスを修正するコンピュータプログラムコードと、
前記修正されたデジタルビデオシーケンスをディスプレイ装置へと供給するコンピュータ
プログラムコードとを有することを特徴とする。
本願に説明する方法およびシステムは、手持ち型ディスプレイ上に表示されるデジタル
ビデオの知覚される鮮明度を向上させつつも、多くの既知の逆フィルタリング法において
は一般的である過剰な雑音増幅を生じないものである。さらに動き予測および補正のため
にGPUを利用したことにより、中央処理装置(CPU)のみを用いた方法に比べて著し
い性能の向上が得られることになる。
以下に添付図を参照しつつ、実施例をより具体的に説明する。
理解を容易にするために、まず、サンプルホールド式表示フォーマットを用いたLCD
装置などの手持ち型ディスプレイに起因してデジタルビデオ画像中で知覚されるぶれにつ
いて説明する。デジタルビデオシーケンスがLCD装置に入力されると、各デジタルビデ
オ画像、すなわちデジタルビデオシーケンスのフレームが、LCD装置上に表示され、1
フレーム間隔にわたり持続する。M.J.ホーケン(M.J.Hawken)およびK.
R.ジェイゲンファートナー(Gegenfurtner)著の「パースート・アイ・ム
ーブメント・トゥ・セカンド・オーダー・モーション・ターゲッツ(Pursuit Eye Moveme
nts to Second Order Motion Targets)」(ジャーナル・オブ・ザ・オプティカル・ソサ
エティ・オブ・アメリカ(Journal of the Optical Society of America)A18(9)
,pp2292−2296,2001年)と題された出版物に説明されているように、人
の目は動くシーンを見ている間、なめらかな眼の動きにより活発にそのシーンを追い、人
の網膜上においては安定した画像を生成するようになっている。その時、人の視覚システ
ムはフリッカの無い画像を知覚するために、視覚的、一時的に低域通過フィルタの作用を
担うのである。
人の眼の追従反応は、少なくとも1フレーム間隔にわたるフレームデータを統合してし
まい、知覚されるぶれとなる。従ってLCD装置と人の視覚システムの追従反応の組み合
わせにより、空間的低域通過フィルタ効果がもたらされるのである。デジタルカメラで撮
像したデジタル画像における動きぶれを、画像の動きの方向および範囲の予測値を用いて
事前補正するための方法は、この参照により本願に組み込まれる米国特許出願公開第20
05/0231603号明細書に記載されている。デジタルビデオシーケンスにおいて知
覚される動きぶれを事前補正するための方法は、この参照により本願に組み込まれる米国
特許出願公開第2006/0280249号明細書に記載されている。
以下の説明においては、知覚されるぶれを補正するための修正を加えられたデジタルビ
デオシーケンスを表示するためのシステムおよび方法を提供する。システムは、入力デジ
タルビデオシーケンスを受信し、そのデジタルビデオシーケンスのフレーム間の動きに基
づいて知覚されるぶれを補正するための修正を加えるグラフィック処理装置(GPU)と
、修正されたデジタルビデオシーケンスを表示するディスプレイ装置とを具備している。
図1は、知覚されるぶれを補正するための修正を加えられたデジタルビデオシーケンス
を表示するためのシステム50のブロック図である。システム50は、デジタルビデオス
トリーム150を記憶したメモリ100を含む。デジタルビデオストリーム150は、M
PEG(Moving Pictures Expert Group)規格に基づき符号化されたものとすることがで
きる。中央処理装置(以降、CPUという)200はデジタルビデオストリーム150を
受信し、そしてフレームのデジタルビデオシーケンス250へと復号化する。CPU20
0はこのデジタルビデオシーケンス250をグラフィック処理装置(以降、GPUという
)300へと供給し、ここでデジタルビデオシーケンス250が処理され、フレーム間の
動きに基づいて知覚されるぶれが補正され、これにより修正された処理済みデジタルビデ
オシーケンス350が作られる。GPU300は修正された処理済みデジタルビデオシー
ケンス350を表示するためにディスプレイ装置400へと送る。
本実施例においては、CPU200はPentium(登録商標)4、2.26GHz
システムであり、Windows(登録商標)2000Professional英語版
OSと共に使われる。GPU300はNVIDIA GeForce6000シリーズ以
上のもので、ForceWareグラフィックドライバ、バージョン81以上と共に使わ
れる。
図2は、GPU300のブロック図である。GPU300は、プログラム可能フラグメ
ントプロセッサ310、メモリ312を含んでいる。メモリ312は、デジタルビデオシ
ーケンス250の現在のフレーム、ベクトルマップルックアップテーブル、およびオーバ
ードライブルックアップテーブルを格納するための3テクスチャのデータメモリを含んで
いる。これらのテクスチャの可変定義を下記の表1に示す。
メモリ312はさらに、処理中に中間フレーム結果を保持するためのフレームバッファ
オブジェクトも格納している。フレームバッファオブジェクトの可変定義を下記の表2に
示す。
明らかなように、フレームバッファオブジェクトの利用により、テクスチャへの直接レ
ンダリングが可能である。これによりデフォルトのフレームバッファからデータをコピー
する必要がなくなるため、高性能化が可能である。フレームバッファオブジェクト自体は
それぞれのテクスチャアタッチメントを持つベースレベルおよびブロックレベルのポイン
タアレイを記憶している。テクスチャアタッチメントは16ビットフロート型精度とRG
BAカラーフォーマットを持つ。テクスチャアタッチメントのRGBAカラーフォーマッ
トは各テクスチャから4つの単一チャネル輝度画像へのアクセスを提供しており、効率的
なメモリアクセスを可能としている。
ベースレベルは、以前のフレームデータ、事前処理済みフレーム結果、レンダリングバ
ッファおよびフレーム動きベクトルマップを格納するために4つのテクスチャアタッチメ
ントを含んでいる。これらベースレベルのテクスチャアタッチメントの各々は、現在のフ
レームと同じサイズである。フレームバッファオブジェクトテクスチャアタッチメントの
可変定義を下記の表3に示す。
ポインタアレイのブロックレベルはブロック動き予測用に3つのテクスチャアタッチメ
ントを含み、その各々が現在のフレームの1/8のサイズを持っている。
メモリ312はさらに、2つのオフスクリーンフレームバッファを含む。オフスクリー
ンフレームバッファは後に説明するように、フレームバッファオブジェクトにおけるテク
スチャのマルチパスレンダリングに用いられる。2つのオフスクリーンフレームバッファ
が必要とされる理由は、フレームバッファオブジェクトからの/へのテクスチャの読み出
し/書き込みを同時に実施することができないためである。
メモリ312はさらに、GLUT(OpenGLユティリティツールキット)を使って
書き込まれるOpenGL(オープングラフィックライブラリ)アプリケーションを格納
するためのプログラムメモリも含んでいる。OpenGLは、2Dおよび3Dグラフィッ
クアプリケーション用の業界標準グラフィックアプリケーションプログラミングインター
フェース(API)である。一般に、OpenGL APIは、ホストアプリケーション
から受けた、レンダリングするオブジェクトを表すグラフィックデータを処理し、そして
ユーザーが見ることができるようにディスプレイ装置上にグラフィック化したオブジェク
トを表示するものである。
OpenGLアプリケーションは、バーテックスシェーダーおよびフラグメントシェー
ダープログラムを含む。バーテックスシェーダープログラムの概要を下記の表4に示す。
フラグメントシェーダープログラムの概要を下記の表5に示す。
バーテックスシェーダープログラムは、畳み込みカーネルのテクスチャ座標を事前計算
することによりフラグメントシェーダープログラムの作業負荷を緩和する働きを持つ。フ
ラグメントシェーダープログラムは、既知のNV_fragment_program f
p40 profileを用いてランタイム時にコンパイルされる。
バーテックスシェーダーおよびフラグメントシェーダープログラムはC++およびCg
で書かれたもので、C++コンパイラはMicrsoft Visual Studio
C++6.0である。CgコンパイラはCgコンパイラ1.4 OpenGLバージョ
ン2.0であり、OpenGL Framebuffer Object Extent
ionが使われている。
図3は、デジタルビデオシーケンスの処理中および表示中にシステム50が採用するス
テップの概要を示している。最初に、ヘッダファイル群gl.h、glu.h、glut
.hおよびgltext.h、ライブラリ群opengl32.lib、glu32.l
ibおよびglut32.lib、そしてDLL群opengl32.dll、glu3
2.dllおよびglut32.dllを使ってWindows(登録商標) Open
GL開発環境を設定することによりバーテックスシェーダーおよびフラグメントシェーダ
ープログラムコードがコンパイルされる。
Cg開発環境は、ヘッダファイル群cg.hおよびcgGL.h、ライブラリ群cg.
libおよびcgGL.lib、そしてDLL群cg.dllおよびcgGL.dllを
使って設定される。標準型GLUTディスプレイおよびコールバック機能がビデオプレイ
バックウィンドウの生成に使われる。ビデオ同期オプションの有効時にはビデオプレイバ
ックはディスプレイ装置400のVSYNC信号と同期し、無効時には可能な限りすぐに
進められる。
デジタルビデオシーケンスをディスプレイ装置400上で表示することが望まれる場合
、CPU200がメモリ100からデジタルビデオストリームを読み出す。読み出すと、
CPU200はそのデジタルビデオストリームを復号化し、結果得られたデジタルビデオ
シーケンス250の各フレームFnをGPU200へと出力する(ステップS500)。
GPU200は、デジタルビデオシーケンス250のフレームを処理し、最終的に知覚さ
れる動きぶれを補正するための修正が施された出力フレームOnを出力する(ステップS
600)。修正された出力フレームOnは処理済みデジタルビデオシーケンス350を構
成し、これがディスプレイ装置400上で表示される(ステップS700)。
図4は、プログラムのフロー図であり、デジタルビデオシーケンス250の現在のフレ
ームに実施される処理演算の流れを説明している。図5は、動きの事前補正中に用いられ
るフラグメントシェーダープログラムのデータ入力とデータ出力を相互に関連付けた表で
ある。
最初に、メモリ100から読み出されたMPEG方式のデジタルビデオストリーム15
0をデジタルビデオシーケンス250へと復号化するために、CPU200上でMPEG
復号化スレッドが起動する。各フレームの復号化後、CPU200は、デジタルビデオシ
ーケンスの次のフレームの復号化を続ける前に、m_FrameIsReadyEven
tイベントフラグを設定し、GPU300からのm_FrameWantedEvent
イベントフラグを待つ。
GPU300は現在のフレームを受信すると、現在のフレームをテクスチャmpegT
exIDにバインドし、次にCPU200に他のフレームをGPU300へと供給しても
よいことを知らせるためにm_FrameWantedEventフラグを設定する。フ
ラグメントシェーダープログラムfragment_01_rgb2grayを用い、GP
U300は現在のフレームを単純な線形変換を利用してRGB色空間からYIQ色空間へ
と変換する。すると現在のフレームの輝度チャネルが抽出され、m_nDestTexI
Dに格納される(表3および図5を参照)。現在のフレーム中の画素間の動きはm_nD
estTexIDに格納され、そしてm_nSrcTexIDに格納されていた以前のフ
レームの画素間の動きが予測される。
現在のフレームおよび以前のフレームの画素間の動きの予測においては、高さhおよび
幅wを持つ現在のフレームがb×bの画素ブロックへと分割されるもので、ここではb=
8であり、64画素ブロックが存在している。次に[h/8]×[w/8]の寸法を持つ
動きベクトルフィールドVnが初期化される。その後、以前のフレームとのベストマッチ
を探すために、現在のフレームの各画素ブロックについてサーチが実施される。
サーチにおいては、半径r=16画素を持ち、その画素ブロックに対応する以前のフレ
ーム中の位置に中心を持つサーチウィンドウが画定される。次に12個の動きベクトル候
補(ゼロベクトルを含む)がサーチウィンドウ上でその中心から様々な方向および距離に
識別される。具体的には、サーチウィンドウ中心から「+」形状に延びる5個の動きベク
トル候補は距離d=r/4に画定され、サーチウィンドウ中心から「x」形状に延びる4
個の動きベクトル候補は距離2dに画定され、そしてサーチウィンドウ中心から「+」形
状に延びる4個の動きベクトル候補は距離3dに画定される。
図6は、画素ブロックのフレーム間動き予測において用いられる動きベクトル候補の終
点を示す図である。
フラグメントシェーダープログラムfragment_02_absdiff_0,fr
agment_03_sumdiff_0,fragment_04_absdiff_1,f
ragment_04_sumdiff_1を用いてゼロベクトルおよび第1レベルブロッ
ク動きサーチの絶対差分和(SAD)が計算された後、それぞれの動きベクトル候補によ
り中心を画定されたマッチング画素ブロック候補群が、現在のフレーム中の現在の画素ブ
ロックと比較される。SADは、下記式(1)により計算される。
その後、最低SADが得られたマッチング画素ブロック候補としてベストマッチが識別
される。ベストマッチがゼロベクトルに対応するマッチング画素ブロック候補であった場
合、サーチは終了し、その画素ブロックにおける画素の動きはゼロであるとみなされる。
そうでない場合、サーチはさらに細分化される。サーチの細分化においては、ベストマッ
チの中心から、それぞれの方向に距離d分延びた8個のさらなる動きベクトル候補が画定
される。次にフラグメントシェーダープログラムfragment_06_absdiff
_2,fragment_07_sumdiff_2を用い、さらなる動きベクトル候補のそ
れぞれによって画定された中心を持つさらなるマッチング画素ブロック候補群が、現在の
フレーム中の画素ブロックと比較される。さらなるマッチング画素ブロック候補群のいず
れも、現在のベストマッチよりも低いSADを生じない場合、現在のベストマッチが最終
マッチであるとみなされ、そのブロックの動きはその最終マッチの動きベクトル候補に対
応するとみなされる。そうでない場合、より低いSADを生じたさらなるマッチング画素
ブロック候補が新たなベストマッチとみなされる。その後、サーチはフラグメントシェー
ダープログラムfragment_06_absdiff_2,fragment_07_s
umdiff_2を用いて新たなベストマッチの中心から、それぞれの方向に距離d/2
分延びた8個のさらなる動きベクトル候補に基づいてさらに細分化される。
上述した処理は、フラグメントシェーダープログラムfragment_06_absd
iff_2,fragment_07_sumdiff_2を使って漸次細分化を続け、さら
なる動きベクトルが以前のベストマッチ中心から伸びる距離が漸次小さくなっていく。サ
ーチは、さらなる動きベクトル候補の長さが1画素未満となった場合、またはさらなる細
分化で、現在のベストマッチよりも低いSADを持つさらなるマッチング画素ブロック候
補が得られない場合のいずれかで終了する。
次に、以前のフレーム中のベストマッチに対応する動きベクトルにより、現在のフレー
ム中のブロック位置に対応するベクトルフィールドの位置が更新される。上述した処理は
、現在のフレームの各ブロックについて実施される。
図7(a)は、2フレーム間の画素ブロックの動きベクトルを示すベクトルフィールド
例である。現在のフレーム中の画素ブロックに対するベストマッチに相当するモーション
ベクトルがベクトルフィールドへと投入されると、ベクトルフィールドはフラグメントシ
ェーダープログラムfragment_08_vecmedianによりベクトルメディア
ンフィルタを使ってスムージングされる。図7(a)のベクトルフィールドにベクトルメ
ディアンフィルタを適用した結果を、図7(b)のベクトルフィールドに示す。
各画素ブロックについて動きベクトルが取得されると、動きベクトルマップが完成する
。次にフラグメントシェーダープログラムfragment_09_vecmapが、動き
ベクトルの双線補間法を使って動きベクトルマップを現在のフレームの1/8サイズから
現在のフレームのサイズへと変換する。これにより現在のフレーム中の各画素に方向と範
囲を持つそれぞれの動きベクトルが割り当てられる。
動きベクトルが存在しない場合、動きの事前補正は必要とされない。この場合、出力フ
レームOnは、現在のフレームFnと等しくなる。
しかしながら、現在のフレームFnと以前のフレームFn-1との間に予測される動きがあ
った場合、現在のフレームFnに対する出力フレームOnを生成するために、動きぶれの事
前補正が実施される。システム50が使用する事前補正とは、以下にも説明するように、
上述した米国特許出願公開第2005/0231603号明細書に開示された技術の一変
更形態である。
現在のフレームFnおよび以前のフレームFn-1が与えられると、フラグメントシェーダ
ープログラムfragment_10_imggradは、各画素位置におけるフレーム内
差分およびフレーム間差分の両方を、そのそれぞれの動きベクトルに基づいて計算する。
差分は重みとして格納され、各画素に実施すべき修正量を設定するフラグメントシェーダ
ープログラムfragment_11_setweightによって利用される。
フィルタバンクが構築され、そして各動きベクタ用に線形ぶれフィルタfkが、サイズ
kおよびそれぞれの動きベクトルに対応する方向Θkで作成されてフィルタバンクに加え
られる。たとえば、K=2の場合、2個の線形ぶれフィルタのうち、方向Θ1=0°、範
囲s1=5画素の動きベクトルに基づく第1のフィルタf1は以下の通りになる。
2個のぶれフィルタのうち、方向Θ2=90°、範囲s2=3画素の動きベクトルに基づ
く第2のフィルタf2は以下の通りになる。
現在のフレームFnを出力フレームOnの最初の推量画像として設定することにより、最
初の推量フレームが構成される。推量画像から1つの推量画素が選択され、その推量画素
に対応するぶれフィルタがフィルタバンクから読み出される。ぶれフィルタが少なくとも
1画素の範囲を持っていない場合、次の画素が選択される。逆に持っている場合、推量画
素のエッジ強度がソーベルエッジフィルタを使ってぶれフィルタの動きの方向において推
定され、重み係数Wn(x,y)として保存される。ソーベルエッジフィルタ演算および
重み付けは、下記方程式(2)、方程式(3)および方程式(4)に準じて実施される。
次に出力フレーム画素On(x,y)をフィルタfkで畳み込むことにより、ぶれフィル
タを使って推量画素をぶれ付けし、ぶれ付けした画素Bn(x,y)を取得する。フレー
ムFn中の画素とぶれ付けした推量画素間の誤差は、現在のフレーム画素Fn(x,y)か
らぶれ付けした画素Bn(x,y)を減算して誤差En(x,y)を取得することにより決
定される。次に誤差En(x,y)がぶれフィルタfkを使ってぶれ付けされ、重み係数と
して取得したエッジ強度を用いて重み付けが行われる。その後、推量画素は下記方程式(
5)に基づいて重みを付けられ、ぶれ付けされた誤差で更新される。
ここでβは一定のステップサイズである。
推量画像において選択すべき画素がさらにある場合、上述した前処理のために次の画素
が選択される。そうでない場合、全画素にわたり出力フレームOnに対する総合調整値が
計算され、下記方程式(6)に基づいて全画素にわたり計算された推量画像と現在のフレ
ームFn間の全体的な差分ΔEが決定される。
全体的な差分ΔEが所定の誤差閾値未満であれば、現在のフレームFnの事前補正が完
了する。この結果得られた出力フレームOnはフラグメントシェーダープログラムfra
gment_14_sharpenにより、各画素位置における動きの方向に調節された方
向性シャープニングフィルタを用いてシャープニングされ、レンダリングバッファm_n
BufferTexID中に格納される。そうでない場合、更新された推量画像における
1画素が選択され、完了するまで上述した処理が再度繰り返される。
出力フレームOnへのシャープニング処理が完了すると、フラグメントシェーダープロ
グラムfragment_15_overdriveを使ってオーバードライブ演算が実施
される。オーバードライブ演算の結果は事前処理済みフレーム結果としてm_nDest
TexID中に格納される。オーバードライブは、手持ち型装置の相対的に遅い応答時間
についてさらなる補正を提供する。オーバードライブの間、各デバイス画素に印加される
駆動電圧は、階調遷移に比例する量だけ調節される。この技術はH.Okurama、M
.Akiyama、K.TakotohおよびY.Uematsu著の「ア・ニュー・ロ
ー・イメージ‐ラグ・ドライブ・メソッド・フォア・ラージサイズLCTV(A New Low
Image-Lag Drive Method For Large-Size LCTV)」(SID’02Digest,pp.
1284−1287,2002)に記載されている。
オーバードライブが出力フレームOn上で完了すると、フラグメントシェーダープログ
ラムfragment_16_gray2rgbは、出力フレームOnをmpegTexI
Dにて格納されたYIQフレームの輝度チャネルYへと挿入し、そのフレームをRGB色
空間へと変換し、修正したRGBフレームデータをディスプレイ装置400へと提供する
ソースおよびターゲットテクスチャIDを各レンダリングパスの末端にてスワップする
ことによりマルチパスレンダリングが実現されるように、2つのオフスクリーンフレーム
バッファが使用される。こうして第1パスからのターゲットテクスチャは第2パスのソー
スとして使用されるのである。
システム50の性能は、動きの事前補正にCPUのみを採用したシステムよりも優秀で
あることがわかっている。システム50の性能を評価するために用いたテスト環境は、W
indows(登録商標)2000Professional英語版OSを使ったPen
tium(登録商標)4 2.26GHz CPU、256MBのRAMおよび266M
Hzのバス速度を含む。GPUは、NVIDIA GeForce6600シリーズのG
PUを256MB DDR RAMと共に使用した。kernel32.libライブラリの提供する
性能カウンタ機能を使用して評価指標を取得し、その結果をgDEBugger Ope
nGLプロファイラ、バージョン2.3を用いて検証した。評価された実装オプションの
各々について、試験ビデオシーケンス100フレーム分の処理にかかった時間が計測され
た。各ビデオシーケンスは5回にわたって計測され、平均フレーム処理時間を得た。
性能評価においては、5つのビデオシーケンスが使用された。これらの内容は以下の通
りである。
1.「フォアマン」:実写ビデオシーケンスであり、静止したバックグラウンドの前景
で被写体が動くもので、176×144画素の解像度を持つ。
2.「ヴィジョンチャート」:様々なフォントサイズを持つ視力検査表のアニメビデオ
シーケンスであり、一定の動きで左から右へとスクロールするもので、256×192画
素の解像度を持つ。
3.「ロード」:左から右へとパンするカメラで高速で動く車両を実写したビデオシー
ケンスであり、320×240画素の解像度を持つ。
4.「フットボール」:前景にいる高速移動する複数の被写体を実写したビデオシーケ
ンスであり、352×240画素の解像度を持つ。
5.「トゥードッグズ」:異なる方向に動きまわる2匹の犬を実写したビデオシーケン
スであり、640×480画素の解像度を持つ。
実写のビデオシーケンスは全てMPEGフォーマットで保存されたものである一方、ア
ニメのシーケンスはDirectXを使ってBMP画像を動かすことにより作成し、その
結果をMPEGファイルに保存したものである。すべてのテストビデオシーケンスにおい
ては30fpsのフレームレート(フレーム/秒)を使った。
アルゴリズム中の全ての演算を完了するまでにGPUおよびCPUが使った個々の処理
時間の合計が比較された。これらの演算には:色空間変換、動き予測、動きぶれ補正、動
きのシャープニングおよびオーバードライブが含まれる。図8は、いくつかのフレームサ
イズについて、知覚されるぶれを補正するためのフレーム修正にかかったGPUおよびC
PUの全体的な処理時間の差を説明するグラフである。図9は、図8のGPUおよびCP
Uの全体的な処理時間を相関させた表であり、フレームあたりの処理時間とフレームレー
トが示されている。全体としては、GPU実装例がCPU実装例の約2.5倍の性能高速
化係数を出した。性能高速化は、フレームサイズの増大に伴い重要度が増しているもので
ある。
図10は、知覚されるぶれを補正するためのフレーム修正において、様々な処理演算を
行った個々のGPUおよびCPU処理時間の違いを含む表である。図11は、図10の様
々な処理演算の個々のGPUおよびCPU処理時間の違いを説明する一群のグラフである
。上述した比較グラフおよび表から、最も重要な性能上の利益が動き予測において生じた
平均5倍の増加であることがわかる。加えて、オーバードライブのように全画素を通じて
高度に均一な演算は、GPU並列処理アーキテクチャからの恩恵を明確に受けるものであ
る。
多くの場合において、実際の動きぶれ補正を完了すると、CPUよりもGPUのほうが
時間がかかっていたことが観測されている。これは、読み出しオンリー、または書き込み
オンリーのいずれかであるオフスクリーンレンダリングターゲットを用いる場合の、GP
U実装例におけるさらなるデータコピー時間に起因していると考えられる。他の理由とし
ては、異なるフレームバッファ間でのスワップにより繰り返しのレンダリング処理に課せ
られるオーバーヘッドも考えられる。さらには、GPU実装例においては動きベクトルが
各画素について別個に格納されるのであるが、これはより滑らかな結果を生み出すことに
もなる一方で本質的にテクスチャフェッチに必要な時間を増大させてしまう。
図を参照しながら特定の実施例について上記に説明してきたが、他の実施例も可能であ
ることは明らかである。たとえば、動き予測用に8×8画素ブロックサイズを説明してき
たが、対応する処理時間−対−性能トレードオフを持つ、より大きい、またはより小さい
ブロックサイズを選択することも可能である。
繰り返しの事前補正が完了したかどうかを判定するための上記に記載した基準に代えて
、画素誤差の和が閾値量を超えて変化したかどうかで判定する方法を採用することもでき
る。たとえば、画素ぶれ付け、比較、誤差画素ぶれ付けおよび重み付け、そして組み合わ
せ処理を、特定の実施例に合わせる上で必要とされる所定回数にわたり繰り返し実施する
こともできる。
実施例を説明してきたが、当業者には明らかなように、本願請求項に定義される本発明
の精神および範囲から離れることなく変更および改変を加えることは可能である。
デジタルビデオストリームをデジタルビデオシーケンスへと復号化し、ディスプレイ装置を使ってそのデジタルビデオシーケンスを表示するためのシステムのブロック図。 図1のシステムにおけるグラフィック処理装置(GPU)のブロック図。 デジタルビデオシーケンスを処理および表示するための方法のブロック図。 図3の方法の間にデジタルビデオシーケンスフレームに実施される処理フローを示すプログラムフロー図。 図2のグラフィック処理装置が利用するいくつかのフラグメントシェーダープログラムのデータ入力および出力の相互関係を示す表。 デジタルビデオシーケンスフレーム間の画素ブロックの動き予測において使用される動きベクトル候補の終点を示す図。 (a)は、2つのフレーム間における画素ブロックの動きベクトルを示すベクトルフィールド例を描いた図、(b)は、(a)のベクトルフィールドをベクトルスムージング処理した後の図。 動きぶれの事前補正における全体的処理時間について、中央処理装置(CPU)とGPUの違いを説明するグラフ。 図8の全体的処理時間を、フレーム毎の処理時間およびフレームレートに相関させた表。 動きぶれの事前補正における様々な処理演算の個々の処理時間について、GPUとCPUの違いを示す表。 図10の様々な処理演算の個々の処理時間の違いを示すグラフ群。
符号の説明
50…システム、100…メモリ、150…デジタルビデオストリーム、200…中央
処理装置(CPU)、250…デジタルビデオシーケンス、300…グラフィック処理装
置(GPU)、310…プログラム可能フラグメントプロセッサ、312…メモリ、35
0…処理済みデジタルビデオシーケンス、400…ディスプレイ装置。

Claims (25)

  1. デジタルビデオシーケンスを表示するための表示システムであって、
    前記デジタルビデオシーケンスを受信し、前記デジタルビデオシーケンスのフレーム間
    の動きに基づいて知覚されるぶれを補正するための修正を加えるグラフィック処理装置と

    前記修正されたデジタルビデオシーケンスを表示するディスプレイ装置とを有すること
    を特徴とする表示システム。
  2. 前記グラフィック処理装置は、プログラム可能フラグメントプロセッサと、前記デジタ
    ルビデオシーケンスのフレームを格納するテクスチャメモリと、前記プログラム可能フラ
    グメントプロセッサにより実行可能なコンピュータプログラムを格納するプログラムメモ
    リとを有し、前記コンピュータプログラムは、現在のフレームおよび以前のフレームにお
    ける画素間の動きを予測するプログラムコードと、知覚されるぶれを補正するために前記
    予測された動きに基づいて前記現在のフレーム中の画素をフィルタリングするプログラム
    コードとを有することを特徴とする請求項1に記載の表示システム。
  3. 前記グラフィック処理装置は、ベクトルマップルックアップテーブルおよびオーバード
    ライブルックアップテーブルを格納するテクスチャメモリをさらに有することを特徴とす
    る請求項2に記載の表示システム。
  4. 前記グラフィック処理装置は、前記コンピュータプログラムによる予測およびフィルタ
    リングの中間フレーム処理結果を格納するフレームバッファオブジェクトメモリをさらに
    有することを特徴とする請求項3に記載の表示システム。
  5. 前記フレームバッファオブジェクトメモリは、ベースレベルおよびブロックレベルを持
    つポインタアレイをさらに格納したことを特徴とする請求項4に記載の表示システム。
  6. 前記ベースレベルが、各々が前記現在のフレームと同サイズである4つのテクスチャア
    タッチメントを含むことを特徴とする請求項5に記載の表示システム。
  7. 前記ブロックレベルが、各々が前記現在のフレームの何分の1かのサイズである3つの
    テクスチャアタッチメントを含むことを特徴とする請求項6に記載の表示システム。
  8. 前記ブロックレベルのテクスチャアタッチメントのサイズが、前記現在のフレームの1
    /8であることを特徴とする請求項7に記載の表示システム。
  9. 前記動きを予測するプログラムコードおよび前記画素をフィルタリングするプログラム
    コードが、
    フラグメントシェーダープログラムコードと、
    バーテックスシェーダープログラムコードとを含むことを特徴とする請求項2に記載の
    表示システム。
  10. 前記グラフィック処理装置が、前記ディスプレイ装置による表示のために、フィルタリ
    ングされたフレームを受ける複数のオフスクリーンフレームバッファを有することを特徴
    とする請求項1に記載の表示システム。
  11. デジタルビデオストリームをデジタルビデオシーケンスへと復号化し、前記デジタルビ
    デオシーケンスのフレームを前記グラフィック処理装置へと供給する中央処理装置をさら
    に有することを特徴とする請求項1に記載の表示システム。
  12. デジタルビデオを表示するための表示方法であって、
    フレーム間の動きに基づいて知覚されるぶれを補正するために、グラフィック処理装置
    を使って入力デジタルビデオシーケンスを修正するステップと、
    前記修正されたデジタルビデオシーケンスをディスプレイ装置へと供給するステップと
    を含むことを特徴とする表示方法。
  13. 前記修正するステップが、前記デジタルビデオシーケンス中のフレーム間の画素の動き
    を予測するステップと、
    前記予測された動きに基づいてフレームをフィルタリングするステップとを含むことを
    特徴とする請求項12に記載の表示方法。
  14. 前記予測するステップが、
    現在のフレームの複数の画素ブロックの各々について、前記現在のフレームと以前のフ
    レームとの間の動きベクトルを予測することにより、ブロック動きベクトルフィールドを
    取得するステップであって、前記ブロック動きベクトルとは、それぞれの予測されたぶれ
    の方向とぶれの範囲を表すものであることを特徴とする前記ステップと、
    前記ブロック動きベクトルフィールドをスムージングするステップと、
    前記現在のフレーム中の各画素に、前記スムージングされたブロック動きベクトルフィ
    ールドにおいて対応するブロックのブロック動きベクトルを割り当てるステップとを含む
    ことを特徴とする請求項13に記載の表示方法。
  15. 前記フィルタリングするステップが、
    前記現在のフレームに基づいて最初の推量フレームを生成するステップと、
    前記推量フレーム中の画素を、それぞれに予測されたぶれ方向およびぶれ範囲の関数と
    してぶれ付けするステップと、
    それぞれの画素の各々について誤差画素を生成するために、各ぶれ付けした画素を前記
    現在のフレーム中のそれぞれの画素と比較するステップと、
    各誤差画素をぶれ付けし、重み付けするステップと、
    前記推量フレームの更新およびぶれ補正を行うために、各誤差画素と、前記最初の推量
    フレーム中のそれに対応する画素とを組み合わせるステップとを含むことを特徴とする請
    求項14に記載の表示方法。
  16. 前記重み付けが、前記それぞれの画素の動きの関数であることを特徴とする請求項15
    に記載の表示方法。
  17. 前記重み付けが、前記画素の動く方向における前記推量フレーム中の前記それぞれの画
    素のエッジ強度の予測値であることを特徴とする請求項16に記載の表示方法。
  18. 前記エッジ強度が、高域フィルタを使って予測されたものであることを特徴とする請求
    項17に記載の表示方法。
  19. 前記最初の推量フレームが、前記現在のフレームであることを特徴とする請求項15に
    記載の表示方法。
  20. 前記重み付けが、前記画素の動く方向における前記推量フレーム中の前記それぞれの画
    素のエッジ強度の予測値であることを特徴とする請求項19に記載の表示方法。
  21. 前記画素にぶれ付けするステップと、前記比較するステップと、前記誤差画素にぶれ付
    けし重み付けするステップと、前記組み合わせるステップと、が繰り返し実施されること
    を特徴とする請求項16に記載の表示方法。
  22. 前記画素にぶれ付けするステップと、前記比較するステップと、前記誤差画素にぶれ付
    けし重み付けするステップと、前記組み合わせるステップが、誤差の和が閾値レベル未満
    に低下するまで繰り返し実施されることを特徴とする請求項21に記載の表示方法。
  23. 前記画素にぶれ付けするステップと、前記比較するステップと、前記誤差画素にぶれ付
    けし重み付けするステップと、前記組み合わせるステップとが、所定回数にわたり繰り返
    し実施されることを特徴とする請求項21に記載の表示方法。
  24. 前記画素にぶれ付けするステップと、前記比較するステップと、前記誤差画素にぶれ付
    けし重み付けするステップと、前記組み合わせるステップとが、連続する繰り返し間にお
    ける誤差の和が閾値よりも大きい量分変化しなくなるまで繰り返し実施されることを特徴
    とする請求項21に記載の表示方法。
  25. デジタルビデオを表示するためにグラフィック処理装置による実行が可能なコンピュー
    タプログラムをその上に有するコンピュータ読み取り可能媒体であって、
    フレーム間の動きに基づいて知覚されるぶれを補正するために、前記デジタルビデオシ
    ーケンスを修正するコンピュータプログラムコードと、
    前記修正されたデジタルビデオシーケンスをディスプレイ装置へと供給するコンピュー
    タプログラムコードとを有することを特徴とするコンピュータ読み取り可能媒体。
JP2008210350A 2007-09-07 2008-08-19 表示システム、表示方法およびコンピュータ読み取り可能媒体 Withdrawn JP2009065656A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US11/852,133 US7843462B2 (en) 2007-09-07 2007-09-07 System and method for displaying a digital video sequence modified to compensate for perceived blur

Publications (1)

Publication Number Publication Date
JP2009065656A true JP2009065656A (ja) 2009-03-26

Family

ID=40431788

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008210350A Withdrawn JP2009065656A (ja) 2007-09-07 2008-08-19 表示システム、表示方法およびコンピュータ読み取り可能媒体

Country Status (2)

Country Link
US (1) US7843462B2 (ja)
JP (1) JP2009065656A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012016043A (ja) * 2011-08-25 2012-01-19 Toshiba Corp グラフィクスプロセッシングユニットおよび情報処理装置
CN104200443A (zh) * 2014-09-22 2014-12-10 中华人民共和国四川出入境检验检疫局 结合alpha通道和图像分割的局部运动模糊复原算法

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8265135B2 (en) * 2007-01-29 2012-09-11 Intel Corporation Method and apparatus for video processing
US8031954B2 (en) * 2007-04-26 2011-10-04 Canon Kabushiki Kaisha Image encoding apparatus and control method thereof using prediction encoding and pixel classification
TW200922290A (en) * 2007-11-02 2009-05-16 Altek Corp Image capturing apparatus and method for providing image blur information
JP2009124489A (ja) * 2007-11-15 2009-06-04 Olympus Corp 映像信号処理装置及びプログラム
JP5000728B2 (ja) * 2008-01-22 2012-08-15 シャープ株式会社 表示システム、表示制御装置、画像表示装置
EP2109304A1 (en) * 2008-04-07 2009-10-14 Océ-Technologies B.V. Color management method, module, and program product, and printer ussing said method
FR2933565A1 (fr) * 2008-07-01 2010-01-08 France Telecom Procede et dispositif de codage d'une sequence d'images mettant en oeuvre une prediction temporelle, signal, support de donnees, procede et dispositif de decodage, et produit programme d'ordinateur correspondants
US8363727B2 (en) * 2008-09-30 2013-01-29 Microsoft Corporation Techniques to perform fast motion estimation
TWI406217B (zh) * 2008-12-29 2013-08-21 Prime View Int Co Ltd 電泳式顯示裝置的顯示方法及運用此方法之電泳式顯示裝置
WO2011094871A1 (en) * 2010-02-05 2011-08-11 Sensio Technologies Inc. Method and apparatus of frame interpolation
US20110221762A1 (en) * 2010-03-15 2011-09-15 National Taiwan University Content-adaptive overdrive system and method for a display panel
TW201218151A (en) * 2010-10-19 2012-05-01 Chimei Innolux Corp Overdriving apparatus and over driving value generating method
US20120177119A1 (en) * 2011-01-07 2012-07-12 Sony Corporation Faster motion estimation in an avc software encoder using general purpose graphic process units (gpgpu)
US8989280B2 (en) * 2011-06-30 2015-03-24 Cable Television Laboratories, Inc. Frame identification
WO2014019127A1 (en) * 2012-07-31 2014-02-06 Intel Corporation (A Corporation Of Delaware) Hybrid rendering systems and methods
CN103164839B (zh) * 2013-03-07 2019-06-21 华为技术有限公司 一种绘图方法、装置及终端
US9460481B2 (en) * 2013-03-25 2016-10-04 Vmware, Inc. Systems and methods for processing desktop graphics for remote display
US9454841B2 (en) * 2014-08-05 2016-09-27 Qualcomm Incorporated High order filtering in a graphics processing unit
US9852536B2 (en) * 2014-08-05 2017-12-26 Qualcomm Incorporated High order filtering in a graphics processing unit
US9384537B2 (en) * 2014-08-31 2016-07-05 National Taiwan University Virtual spatial overlap modulation microscopy for resolution improvement
US9684970B2 (en) * 2015-02-27 2017-06-20 Qualcomm Incorporated Fast adaptive estimation of motion blur for coherent rendering
EP3144883A1 (en) * 2015-09-16 2017-03-22 Thomson Licensing Method and apparatus for sharpening a video image using an indication of blurring
WO2018068264A1 (zh) * 2016-10-13 2018-04-19 富士通株式会社 图像编码/解码方法、装置以及图像处理设备
US10497173B2 (en) * 2018-05-07 2019-12-03 Intel Corporation Apparatus and method for hierarchical adaptive tessellation
US11143879B2 (en) * 2018-05-25 2021-10-12 Samsung Electronics Co., Ltd. Semi-dense depth estimation from a dynamic vision sensor (DVS) stereo pair and a pulsed speckle pattern projector
EP4327320A1 (en) * 2021-04-20 2024-02-28 Qualcomm Incorporated Per layer adaptive over-drive

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0218636A (ja) * 1988-07-07 1990-01-22 Nec Eng Ltd ユニバーサルインテリジェントメモリコントローラ
WO2006034034A2 (en) * 2004-09-16 2006-03-30 Nvidia Corporation Load balancing
WO2006044963A1 (en) * 2004-10-20 2006-04-27 Ugs Corp. System, method, and computer program product for dynamic shader generation
JP2006350334A (ja) * 2005-06-13 2006-12-28 Seiko Epson Corp ディジタル・ビデオ・シーケンスの現在のフレームと以前のフレームの間における動きに起因する知覚可能なぶれを補償する方法およびシステム
JP2007079549A (ja) * 2005-09-12 2007-03-29 Lg Phillips Lcd Co Ltd 液晶表示装置の駆動装置及び駆動方法
US20070071342A1 (en) * 2005-09-29 2007-03-29 Brett Bilbrey Video acquisition with integrated GPU processing
JP2007525049A (ja) * 2003-03-28 2007-08-30 マイクロソフト コーポレーション グラフィックス処理ユニットを使用してビデオ復号化を加速すること

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6026232A (en) * 1995-07-13 2000-02-15 Kabushiki Kaisha Toshiba Method and system to replace sections of an encoded video bitstream
US5764787A (en) 1996-03-27 1998-06-09 Intel Corporation Multi-byte processing of byte-based image data
JP3538055B2 (ja) 1999-02-15 2004-06-14 日本電気株式会社 動きベクトル検出装置
US6496538B1 (en) 1999-12-31 2002-12-17 Intel Corporation Method and apparatus for motion estimation for digital video encoding
US6707853B1 (en) 2000-01-10 2004-03-16 Intel Corporation Interface for performing motion compensation
US7663695B2 (en) 2000-05-05 2010-02-16 Stmicroelectronics S.R.L. Method and system for de-interlacing digital images, and computer program product therefor
US6842483B1 (en) 2000-09-11 2005-01-11 The Hong Kong University Of Science And Technology Device, method and digital video encoder for block-matching motion estimation
US7054500B1 (en) * 2000-12-06 2006-05-30 Realnetworks, Inc. Video compression and decompression system with postfilter to filter coding artifacts
US6778607B2 (en) 2001-05-22 2004-08-17 Intel Corporation Method and apparatus for multi-rate encoding of video sequences
US7822120B2 (en) 2002-07-26 2010-10-26 Panasonic Corporation Moving picture encoding method, moving picture decoding method, and recording medium
US7079147B2 (en) 2003-05-14 2006-07-18 Lsi Logic Corporation System and method for cooperative operation of a processor and coprocessor
US8660182B2 (en) 2003-06-09 2014-02-25 Nvidia Corporation MPEG motion estimation based on dual start points
US7894526B2 (en) 2004-02-27 2011-02-22 Panasonic Corporation Motion estimation method and moving picture coding method
US7782951B2 (en) 2004-05-13 2010-08-24 Ittiam Systems (P) Ltd. Fast motion-estimation scheme
US20060002474A1 (en) 2004-06-26 2006-01-05 Oscar Chi-Lim Au Efficient multi-block motion estimation for video compression
US7558428B2 (en) 2004-09-13 2009-07-07 Microsoft Corporation Accelerated video encoding using a graphics processing unit
DE602005015067D1 (de) 2004-09-30 2009-08-06 Toshiba Kk Informationsbearbeitungsgerät und Programm
US7792192B2 (en) 2004-11-19 2010-09-07 Analog Devices, Inc. System and method for sub-pixel interpolation in motion vector estimation
US20060120612A1 (en) 2004-12-08 2006-06-08 Sharath Manjunath Motion estimation techniques for video encoding
US20060126739A1 (en) 2004-12-15 2006-06-15 Stoner Michael D SIMD optimization for H.264 variable block size motion estimation algorithm
US7711200B2 (en) * 2005-09-29 2010-05-04 Apple Inc. Video acquisition with integrated GPU processing
US7626612B2 (en) * 2006-06-30 2009-12-01 Motorola, Inc. Methods and devices for video correction of still camera motion
EP2052553A4 (en) * 2006-07-26 2010-08-25 Human Monitoring Ltd IMAGE STABILIZER

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0218636A (ja) * 1988-07-07 1990-01-22 Nec Eng Ltd ユニバーサルインテリジェントメモリコントローラ
JP2007525049A (ja) * 2003-03-28 2007-08-30 マイクロソフト コーポレーション グラフィックス処理ユニットを使用してビデオ復号化を加速すること
WO2006034034A2 (en) * 2004-09-16 2006-03-30 Nvidia Corporation Load balancing
WO2006044963A1 (en) * 2004-10-20 2006-04-27 Ugs Corp. System, method, and computer program product for dynamic shader generation
JP2006350334A (ja) * 2005-06-13 2006-12-28 Seiko Epson Corp ディジタル・ビデオ・シーケンスの現在のフレームと以前のフレームの間における動きに起因する知覚可能なぶれを補償する方法およびシステム
JP2007079549A (ja) * 2005-09-12 2007-03-29 Lg Phillips Lcd Co Ltd 液晶表示装置の駆動装置及び駆動方法
US20070071342A1 (en) * 2005-09-29 2007-03-29 Brett Bilbrey Video acquisition with integrated GPU processing

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012016043A (ja) * 2011-08-25 2012-01-19 Toshiba Corp グラフィクスプロセッシングユニットおよび情報処理装置
CN104200443A (zh) * 2014-09-22 2014-12-10 中华人民共和国四川出入境检验检疫局 结合alpha通道和图像分割的局部运动模糊复原算法

Also Published As

Publication number Publication date
US20090067509A1 (en) 2009-03-12
US7843462B2 (en) 2010-11-30

Similar Documents

Publication Publication Date Title
JP2009065656A (ja) 表示システム、表示方法およびコンピュータ読み取り可能媒体
US9589366B2 (en) Dithered sampling patterns for temporal color averaging
US7899122B2 (en) Method, apparatus and computer program product for generating interpolation frame
US7965303B2 (en) Image displaying apparatus and method, and image processing apparatus and method
JP4615508B2 (ja) 画像表示装置及び方法、画像処理装置及び方法
US8520009B1 (en) Method and apparatus for filtering video data using a programmable graphics processor
US20080069478A1 (en) Apparatus, method, and computer program product for displaying image
US8189104B2 (en) Apparatus, method, and computer program product for detecting motion vector and for creating interpolation frame
JP2008107753A (ja) 画像表示装置及び方法、画像処理装置及び方法
KR101258473B1 (ko) 프레임 레이트 변환 장치 및 프레임 레이트 변환 방법
US11049269B2 (en) Motion based adaptive rendering
JP2009055340A (ja) 画像表示装置及び方法、画像処理装置及び方法
JP2006345445A (ja) 動画像変換装置、および動画像変換方法、並びにコンピュータ・プログラム
JP2013026933A (ja) 画像処理装置、画像処理方法、およびプログラム
JP4615594B2 (ja) 画像表示装置及び方法、画像処理装置及び方法
JP2007235403A (ja) 画像表示装置及び方法
JP2009182865A (ja) 画像表示装置及び方法、画像処理装置及び画像処理方法
JP2009181067A (ja) 画像表示装置及び方法、画像処理装置及び方法
JP4231539B2 (ja) 画像表示装置及び方法、画像処理装置及び方法
JP2007329952A (ja) 画像表示装置及び方法、画像処理装置及び方法
JP4157587B2 (ja) 画像表示装置及び方法、画像処理装置及び方法
JP2008109628A (ja) 画像表示装置及び方法、画像処理装置及び方法
JP4772008B2 (ja) 画像表示装置及び方法、画像処理装置及び方法
JP2007101694A (ja) 画像処理装置及びプログラム
JP4181615B2 (ja) 画像表示装置及び方法、画像処理装置及び方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110803

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121016

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20121213