JP2009044460A - 映像処理装置及びその制御方法 - Google Patents

映像処理装置及びその制御方法 Download PDF

Info

Publication number
JP2009044460A
JP2009044460A JP2007207181A JP2007207181A JP2009044460A JP 2009044460 A JP2009044460 A JP 2009044460A JP 2007207181 A JP2007207181 A JP 2007207181A JP 2007207181 A JP2007207181 A JP 2007207181A JP 2009044460 A JP2009044460 A JP 2009044460A
Authority
JP
Japan
Prior art keywords
image data
frequency component
frequency
frame
low
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007207181A
Other languages
English (en)
Other versions
JP2009044460A5 (ja
JP5080899B2 (ja
Inventor
Kiwamu Kobayashi
究 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2007207181A priority Critical patent/JP5080899B2/ja
Priority to US12/186,582 priority patent/US8421917B2/en
Priority to RU2008132628/09A priority patent/RU2384006C1/ru
Priority to CN2008101349245A priority patent/CN101365054B/zh
Priority to EP08162116.1A priority patent/EP2023315B1/en
Priority to KR1020080078178A priority patent/KR100979837B1/ko
Publication of JP2009044460A publication Critical patent/JP2009044460A/ja
Publication of JP2009044460A5 publication Critical patent/JP2009044460A5/ja
Application granted granted Critical
Publication of JP5080899B2 publication Critical patent/JP5080899B2/ja
Priority to US13/797,316 priority patent/US8842220B2/en
Priority to US14/453,884 priority patent/US9485457B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/21Circuitry for suppressing or minimising disturbance, e.g. moiré or halo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0127Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level by changing the field or frame frequency of the incoming video signal, e.g. frame rate converter
    • H04N7/0132Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level by changing the field or frame frequency of the incoming video signal, e.g. frame rate converter the field or frame frequency of the incoming video signal being multiplied by a positive integer, e.g. for flicker reduction
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/2007Display of intermediate tones
    • G09G3/2018Display of intermediate tones by time modulation using two or more time intervals
    • G09G3/2022Display of intermediate tones by time modulation using two or more time intervals using sub-frames
    • G09G3/2025Display of intermediate tones by time modulation using two or more time intervals using sub-frames the sub-frames having all the same time duration
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/2092Details of a display terminals using a flat panel, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/34Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
    • G09G3/36Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source using liquid crystals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47205End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
    • H04N7/012Conversion between an interlaced and a progressive signal
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0247Flicker reduction other than flicker reduction circuits used for single beam cathode-ray tubes
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0261Improving the quality of display appearance in the context of movement of objects on the screen or movement of the observer relative to the screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/10Special adaptations of display systems for operation with variable images
    • G09G2320/103Detection of image changes, e.g. determination of an index representative of the image change
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • G09G2340/0435Change or adaptation of the frame rate of the video stream
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/16Determination of a pixel data signal depending on the signal applied in the previous frame

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Chemical & Material Sciences (AREA)
  • Crystallography & Structural Chemistry (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Television Systems (AREA)
  • Liquid Crystal Display Device Control (AREA)
  • Picture Signal Circuits (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】 簡単な処理で、例えばホールド型表示装置では、動きぼけを小さくすることが可能であり、インパルス型表示装置においてはフリッカーを減少させることを可能にする。
【解決手段】 LPF1は、入力したフレームの画像データA[i]をフィルタリングし、低周波画像データLを生成する。減算器2及び加算器3により、高周波画像データSHが生成される。また、加算器6は、遅延回路5からの低周波画像データLとその後の低周波画像データとを加算し、除算器7で1/2にすることで低周波平均画像データSLを生成する。スイッチ8は、1フレームの画像データを入力する毎に、高周波画像データSH、低周波画像データSLを交互に出力することで、入力画像データのフレームレートの2倍の出力画像データを得る。
【選択図】 図1

Description

本発明は、動画像データをフレームレートをより高いレートに変換する画像変換技術に関するものである。
従来、テレビジョン等の動画表示装置といえば、CRTがその代名詞とも言えるものであったが、近年では、所謂、液晶ディスプレイ、プラズマディスプレイ、FEDディスプレイなどが実用化され、様々なタイプのディスプレイが混在する状況となった。
それぞれのタイプは、表示方法が異なる。例えば、液晶デバイスに基づく表示装置(直視型液晶表示装置、液晶リアプロジェクター、液晶フロントプロジェクター等)におけるスキャンの方法は幾つもある。しかし、何れの場合も、夫々の画素部分ごとに光が出力される期間は、1フレームの表示期間の大半を占める。それ故、このような表示装置はホールド型表示装置と言われる。
一方、例えばCRTやFEDなどにおいては、夫々の画素部分ごとに光が出力されるのは、1フレーム中一回でかつ発光時間はフレームの長さに比べて十分短く、通常はおよそ2msec以内である。それ故、これらの表示装置はインパルス型表示装置と言われる。
さらには、所謂プラズマディスプレイ、フィールドシーケンシャルディスプレイなど前記の分類とは異なるタイプの表示装置もある。
夫々のタイプの表示方法は、次に示すような特徴をもっている。
(1)ホールド型表示装置
このタイプの表示装置は、フレーム時間内のほとんどの時間において発光する。そのため光強度の時間的偏りが少ない。このためフリッカーがほとんど観測されない。また、追従視(動画像において、動く部分を視線で追いかける見方)を行うと、フレーム内で発光期間の長さに応じて動きぼけが相対的に大きく観測される。なお、ここで言う「動きぼけ」は、表示デバイスの応答特性に起因するものとは異なるものである。
(2)インパルス型表示装置
このタイプの表示装置は、フレーム期間内で発光する時間が非常に短いので、光強度の時間的偏りが大きい。このためフレームに同期したフリッカーが観測される。しかし、追従視における動きぼけは、ほとんど観測されず、静止している部分とあまり差の無い解像度が得られる。
一般に表示装置における発光の期間は表示方式、表示デバイスごとに異なり上記(1)、(2)は発光期間の長い短いで両極端に位置付けられる。また、それぞれの方式における発光期間(前記ホールド時間に相当)が長いほど、追従視における動きぼけは大きく、発光期間が短いほどに動きぼけは少ない。つまり、発光期間と動きぼけの大きさは概ね比例する。一方、フレームに同期したフリッカーに関しては前記発光期間が長いほど小さく、発光期間が短いほど大きく観測されるものである。すなわちこの両者の要因は、トレードオフの関係にあると言える。
これら2つの課題を同時に解決する方法が、フレーム周波数をN倍化することである。実際には多くの場合、N=2すなわち倍速化である。フレーム周波数を倍速化することにより、それぞれの倍速フレームにおける発光時間は半分になる。従って動きぼけも約半分になる。一方、フリッカーに関しても例えばもとのフレーム周波数が仮に60Hzの場合、倍速化して120Hzにすることにより、フリッカーの周波数を人間の目の応答特性の範囲外に追いやることができフリッカーは観測されない。
このようにフレーム周波数の倍速化(一般化するとN倍化)の効果は大きいのであるが、新たな問題がある。
例えば、もとの画像信号のフレーム周波数が60Hzの場合、画像の情報は1/60秒単位に画像が更新される。従って、これを倍速化して120Hzの表示を行う場合、必要とする画像の情報が一枚おきに欠落した状態となる。その対策としてまず考えられるのは、例えば倍速であれば同一の画像を2回ずつ表示することである。しかしながら、これではフリッカーは解決できるが、動きぼけに関してはもとの画像と同じである。また、インパルス型の場合は追従視にともなって2重の画像が見えてしまう(以下、この現象を「2重ぼけ」という)。
上記動きぼけや二重ぼけを軽減し、かつフリッカーを発生させないために、フレーム周波数を倍速化する方法は主なものとして二つある。
第1の方法は、もとの画像のオブジェクトの動きを検出して2つのフレーム間の画像を推定算出する方法である。一般に動き補償による中間画像作成方法などと言われる。この第1の方法は特定の条件において推定を間違うという問題がある。また、計算量が膨大になるなどの問題もある。
第2の方法は、先ず、入力画像に対してフレーム毎にフィルタ処理を行い、動きぼけに大きく関与する空間的高周波成分と、フリッカーに大きく関与する空間的低周波数成分を分離する。そして、前記空間的高周波成分を一方のサブフレーム(元のフレームに対応する2つの倍速フレームの一方)に集中させ、空間的低周波成分を両方のサブフレーム(元のフレームに対応する2つの倍速フレームの両方)に分配して表示する方法である。
本明細書においてはこの方式を「画像を空間周波数で分離してサブフレームに分配して表示する方式」と表現する。
この「画像を空間周波数で分離してサブフレームに分配して表示する方式」としては、特許文献1、2、3として知られている。
特開平6−70288号公報 特開2002−351382号公報 US2006/0227249A1
本発明は、比較的処理の負担の少ない後者(第2の方法)を、更に改善するものである。
ここで、「画像を空間周波数で分離してサブフレームに分配して表示する方式」について考察すると、2つの課題がある。
第1の課題は、実際に追従視したときの表示画像に歪が生ずる点である。そして、第2の課題は、表示装置のもつダイナミックレンジを100%生かしきれないという事である。
第1の課題は、入力画像からフレーム毎に作成した空間的高周波成分と空間的低周波成分のサブフレームへの分配により、それぞれの成分の表示の時間的重心がずれてしまう事に起因すると考えられる。
追従視を行うと、それぞれの像の表示時間が、追従視で観測される像の空間的位置に対応するので、前記時間的重心がずれると追従視して観測される像において空間的重心がずれてしまうこととなる。追従視画像においても通常の画像と同じように空間的高周波成分と空間的低周波成分の空間的重心がずれるとゴーストや尾引きなどの歪のある画像となる。
特許文献1は、元の画像を倍速化して一方のサブフレーム(対応する2つの倍速フレームの一方)の空間的高周波成分を制限し、画像の動きに応じてその制限の有無を制御するというものである。従って、前記高周波成分を制限した場合、その成分の時間的重心は高周波成分が制限されていないサブフレーム側にシフトすることとなる。その結果、入力画像の高周波成分と低周波成分の時間的重心がずれた表示が成されることになり、追従視においてゴーストや尾引きが観測される可能性がある。
特許文献2は、元の画像を倍速化して、2つの倍速フレーム(入力画像のフレームに対する2つのサブフレーム)の空間的高周波成分を動きに応じてそれぞれ増やしたり減らしたりする、というものである。この場合も、空間的高周波成分の時間的重心は高周波成分を増やした側のサブフレーム寄りにシフトすることとなり、上記同様に、追従視においてゴーストや尾引きが観測される可能性がある。
そして、特許文献3は、元の画像を倍速化して、一方のサブフレームの空間的高周波成分を増やし、同じだけ他方のサブフレームの空間的高周波成分を減らすというものである。この場合も空間的高周波成分の時間的重心は高周波成分を増やした側のサブフレーム寄りにシフトすることとなり、上記同様に、追従視においてゴーストや尾引きが観測される可能性がある。
また、第2の課題、すなわち、表示装置のダイナミックレンジを100%は生かしきれない問題は次の通りである。
一方のサブフレームの表示レベルを他方のサブフレームに移動させるとと、表示レベルが増大した方のサブフレームに対して最大表示強度の制限がかかる。このとき、もう一方の表示レベルが減少した方のサブフレームは最大値に達していない。このため、2つのサブフレームのダイナミックレンジを最大に使い切ることが出来ない。
本発明は係る問題に鑑みなされたものであり、簡単な構成により、少なくとも上記第1、第2の課題を解決する技術を提供しようとするものである。
例えば第1の課題を解決する本発明は以下の構成を備える。すなわち、
単位時間当たりm個のフレームの入力動画像データを、単位時間当たりN(N≧2)倍したN×m個のフレームの出力動画像データとして出力する画像処理装置であって、
前記入力動画像データのうち、着目したフレームの画像を、空間的な高周波成分画像データと空間的な低周波成分画像データとに分離するフィルタ手段と、
前記フィルタ手段で得られた各空間な周波数成分の画像データを一時的に記憶する記憶手段と、
前記記憶手段に記憶された前記高周波成分画像データ、及び、前記低周波成分画像データをN回読み出す読み込み手段と、
前記N回の読込みにおいて、前記高周波成分画像データと前記低周波成分画像データの時間的重心が一致し、かつ、前記高周波成分画像データの時間的分散が前記低周波成分画像データの時間的分散よりも小さくなるように設定された所定の乗算係数を前記高周波成分画像データと前記低周波成分画像データに乗算する乗算手段と、
前記読み込み手段で前記高周波成分画像データ、及び、前記低周波成分画像データを読み込む度に、前記乗算手段による乗算後の高周波成分画像データと前記低周波成分画像データとを加算する加算手段と、
前記加算手段による加算した画像データを出力する出力手段とを備える。
本発明によれば、簡単な処理で、例えばホールド型表示装置では、動きぼけを小さくすることが可能であり、インパルス型表示装置においてはフリッカーを減少させることが可能となる。また、追従視におけるゴーストや尾引きなどの歪みの発生を抑制することも可能になる。更に、他の発明によれば、輝度の低下、あるいは一方のサブフレームのレベルが飽和することによる画質的な弊害が起こらないようにすることも可能になる。
以下、添付図面に従って本発明に係る実施形態を詳細に説明する。
先ず、本発明の実施形態の理解を容易にするため、図4乃至図6を参照し、従来技術を説明する。
図4に示す従来例においては、入力されるフィールド画像を切り替えながら2つのフィールドメモリに一時的に保存することにより倍速化し、これをスイッチSW0によって倍速で交互に切り替えることにより、元の信号を倍速化する。このときに一方のサブフレームに対して空間周波数の高周波成分を抑圧する。その結果、前記サブフレーム(図中SLで表現)は相対的に空間的高周波成分が少なく、また他方のサブフレーム(図中SHで表現)には相対的に空間的高周波成分が多いこととなる。この結果、出力画像において一方のサブフレームに空間的高周波成分が局在することとなり、動きぼけを改善することができる。
図5に示す従来例においては、入力される画像をフレームコンバータで倍速化し、さらにフィルタLPF/HPFによって空間的低周波成分Lowと空間的高周波成分Highとに分離する。さらに前記Highを倍速フレームごとに(または入力画像のフレームから見ると一方のサブフレームごとに)所定のゲインαをかける。特に一方の倍速フレームにおいてαを正とし他方の倍速フレームにおいてαを負とし倍速フレームごとにαの極性が変わるようにする。また、さらに画像の動きが大きいと判断される時にαの絶対値を大きくする場合もある。このようにすることにより一方の倍速フレーム(または入力画像から見ると一方サブフレーム)SHに空間的高周波成分が局在することとなり、動きぼけを改善することができる。
図6に示す従来例は、入力画像にフィルタHPFをかけて空間的高周波成分データH[i]を生成する。さらに入力画像に空間的高周波成分データH[i]を加算した高周波強調画像データSH[i]と、入力画像A[i]から空間的高周波成分データH[i]を減算した低周波画像データSL[i]を生成する。そして、これらをスイッチSW0によって入力画像のフレーム周波数の倍の頻度で切り替えることにより、一方の倍速フレーム(入力画像のフレームから見ると一方のサブフレーム)に空間的高周波成分を集中させた倍速画像を出力する。これによって動きぼけを改善することが出来る。
ここで、これらの従来例においては、対応する2つの倍速フレーム(または入力画像から見ると一方のサブフレーム)、すなわちフレームSH、SLはいずれも入力した1フレームを元に作成されている。従って、例えばフレームSHを先に、フレームSLを後に表示した場合、入力画像の一つのフレームのうちの空間的高周波成分はフレームSHに多く含まれるために、空間的高周波成分は時間的に前にシフトする。一方、空間的低周波成分はSH、SL両者に分配されるため時間的なシフトは無い。従って前記空間的高周波成分は空間的低周波成分に対して相対的に時間的に前方にシフトすることとなる。
動画において画像の移動部分に対して追従視を行った場合、前記時間的に前にシフトすることは、追従視を行って観測される像においては移動方向に空間的にシフトすることに対応する。従って、この場合は追従視によって観測される像における空間的高周波成分が空間的低周波成分に対して移動方向に少しずれた像となる。このような場合、ゴーストや尾引きがある像として観測される。
<第1の実施形態>
本第1の実施形態では、先に示した第1の課題を解決するものである。すなわち、本第1の実施形態においては、空間的高周波成分画像データと空間的低周波成分画像データの表示(出力)における相対的時間的ずれを無くすことができる。これにより、本第1の実施形態では、追従視を行ったときに観測される像においてゴーストや尾引きが発生しない、もしくはそれを軽減するものである。
図1は第1の実施形態における画像処理装置のブロック構成図である。
同図は、動画像データをフレーム単位に入力し、1つのフレームの入力動画像データから2つのサブフレーム(2倍速の動画像データ)を生成するものである。ここで、1つのフレームの入力動画像データをA[i]、入力動画像データA[i]の空間的高周波成分データをH[ i ](空間的高周波成データ)とする。また、空間的低周波成分データ(空間的低周波成分画像データ)をL[ i ]、交互に出力されて倍速画像を実現するところの倍速フレーム(またはサブフレーム)の一方をSH[ i ]、他方をSL[ i ]とする。いずれも[i]は、入力画像におけるi番目にフレームに対応する番号である。
ローパスフィルタ1(以下、LPF1)は2次元のローパスフィルタである。このフィルタは特に関数を規定するものではないが、例えばガウス関数でもよいし、移動平均あるいは重み付けした移動平均でもよい。以下説明のために、フィルタ係数の最大値の1/2になる実効的距離を「距離定数:d」と定義する。距離定数dは、画像を空間周波数のフィルタで帯域制限するときのカットオフに相当する空間周波数に対応する波長の長さである。dの単位はpixelである。
まず、LPF1は、入力画像A[i]から、所定の定数で示される上限空間周波数をカットオフ(濾波)することで、空間的低周波成分データL[i]を生成する。減算器2は、次式に従い、元の画像データA[i]からL[i]を差し引くことにより空間的高周波成分データH[i]を算出する。
H[i]=A[i]−L[i]
さらに加算器3は、高周波成分データH[i]を、元のA[i]に加算することにより、空間的高周波成分の多いサブ画像データ(空間的高周波強調画像データ)SH[i]を生成する。
SH[i]=A[i]+H[i]=L[i]+2×H[i]
フレーム遅延回路4,5は現フレームと次のフレームとの間で演算を行うために、現フレームを1フレーム遅らせるものである。フレーム遅延回路4はスイッチ8のa側に入る信号とb側に入る信号のフレームのずれを解消する。
加算器6はLPF1で生成されて、1フレーム遅延された、空間的低周波成分データL[i−1](現フレーム)と次のフレームのL[i]とを加算する。
除算器7は、加算器6からの画像データを“2”で除算することで、その平均値を算出し、低周波平均画像データSL[i−1]として出力する。
SL[i−1]={L[i−1]+L[i]}/2
また加算器3で計算されたSH[i]をSL[i−1]にあわせるため、SH[i]はフレーム遅延回路4で1フレーム遅延されてSH[i−1]となる。
このように作成されたSH[i−1]とSL[i−1]をスイッチ8によって、入力される画像の倍の周波数で切り替えて順番に出力する。これに一方のフレームに空間的高周波成分を局在させた倍速画像信号を出力させることができる。この結果、動きぼけが少なくかつフリッカーの発生も少ない画像を実現することができる。
尚、本発明の実施形態における演算や定義は原則的に、表示される輝度(表示される光強度)に対しての概念として説明している。従って、本実施形態における画像の波形などを表す図は、全て縦軸を輝度として表現している。このため、本発明は、表示される輝度(表示される光強度)に比例するデータとして定義される画像データに対して適用する場合が、最も効果的である。しかしながら、本発明は、必ずしも、このような場合のみを限定しているわけではない。本発明は、一般的に使用される範囲の画像データ(表示輝度又は光強度とデータの値の間に若干の非線形性をもつ画像データ)に対して適用する場合も対象としている。このような場合でも、本発明の考え方が近似的に成り立ち、いずれの場合も十分効果的である。
さて、図1ではLPF1を用いる例を示したが、ハイパスフィルタ(HPF)を用い、図1と等価の回路構成にした例を図2に示す。
図2における符号11が、ハイパスフィルタ(以下、HPF)である。図2は、図1のLPF1と図2のHPF11との間でA[i]=H[i]+L[i] の関係が成り立っている事を条件とした回路構成である。図示の符号12は減算器、13及び16は加算器、14及び15はフレーム遅延回路、17は除算器、18はスイッチである。各構成要素は、図示の配置から、十分に理解できるであろうから、その詳述は不要であろう。
図3は本第1の実施形態における、入力画像A[i]と、出力画像SH[i]、SL[i]との対応関係を表したものである。上から下に向かってフレームの順番(時間の流れ)を表現している。ただし、出力画像は対応する入力画像に対して時間的に少なくとも1フレーム遅れて出力される。
出力画像SH[i−1]、SH[i]、SH[i+1]は、それぞれ入力画像 A[i−1] 、A[i]、A[i+1]に対応している。構成する要素もすべて入力画像の対応するフレームから計算されている。一方、例えば出力画像SL[i]の構成要素L[i]、L[i+1]は、それぞれA[i]、A[i+1]から計算されたものであり、SL[i]はその平均値となるようにしている。
このような関係にしておけば、A[i]の空間的低周波成分データであるL[i]は、その1/2がSH[i]として出力(表示)され、さらにSL[i−1]とSL[i]で1/4ずつ表示されることとなる。
従って、L[i]の表示の時間的重心は、SL[i−1] とSL[i]の中間、すなわちSH[i]が表示される期間の中央の時間となる。一方、A[i]の空間的高周波成分として計算されるH[i]は、その全てがSH[i]で表示されるので、H[i]の表示の時間的重心はSH[i]が表示される期間の中央の時間となる。その結果、L[i]とH[i]の表示の時間的重心が一致する。すなわち、追従視において観測される像においてゴーストや尾引き等の歪が発生することを防止するという目的を実現することができる。
<SHとSLの順番について>
本実施形態においては、一つの入力データA[i]に対応する,2つのサブフレームの信号SH[i]SL[i]について、SHを先に表示し、SLを後から表示するように出力することを前提に説明している。例えば図28などもそのような順番を明示的に示した表である。しかしながら、本発明はこの順番をどちらか一方に限定するものではない。この順番は逆でもよく、この順番が逆の順番であっても本質的に同じであり、効果も同じである。
以下、本実施形態の説明で用いているようにSLが後から出力される場合の順番を「正の順番」、逆にSLが先に出力される場合の順番を「逆の順番」と呼ぶ。
「正の順番」の場合、SLは着目フレームの低周波成分と一つ後のフレームの低周波成分を参照して平均値をとる。実際には、一つ後のフレームが入力されるまで1フレーム待って、一時保存されている現フレームと新規入力されたフレームの平均値をとることとなる。従って、出力される当該低周波画像は次式のように表現される。
SL[i−1]=(L[i−1] + L[i])/2
一方、「逆の順番」の場合は、SLは着目フレームの低周波成分と一つ前のフレームの低周波成分を参照して平均値をとる。従って、出力される低周波画像は次式にように表現される。
SL[i]=(L[i] + L[i‐1])/2
上記、2つの式は出力のフレーム番号が1つだけ違うだけであり、形は同じである。
いずれにしても、一つの低周波画像データSLは、そのサブフレームを挟む両隣のサブフレームSHに反映される低周波成分画像の平均値である。
なお、従来例においては図9や図11に示すように、追従視像に左右非対称の歪が発生することを説明した。この歪の形が、「正の順番」と「逆の順番」で異なる。具体的には左右を反転した関係となる、とくに尾引き歪については、その方向が、左右で反対方向となる。
<第1の実施形態の詳細な動作説明>
なお、本実施形態においては、N=2であり、また、空間周波数の帯域も高周波Hと低周波Lの2帯域である。しかし、本発明は、入力される画像のフレーム周波数をN倍し(あるいはN個のサブフレームに分けて)、かつ、入力される画像を複数の空間周波数の帯域に分けても構わない。この場合、上記の複数の帯域のなかで空間周波数が高い方のものほど時間的に集中させ、空間周波数の低い方のものほど時間的に分散させ、なおかつ、時間的重心を一致させるようにすれば良い。よってNは2以上でもよいし、入力される画像を複数の空間周波数の帯域に分けてもよい。
ここで、この空間的高周波成分Hと空間的低周波成分Lに対して上記のような条件を満たして、またHを一つのサブフレームに集中させるなどするためには、分配するサブフレームの数は奇数でなければならず、最小で3である。本実施形態は、N=2で、フレームを倍速化したことによるサブフレームによって表示するのであるが、一つの入力画像は、前記サブフレーム3つにまたがって分配されている。すなわち、分配するサブフレーム数をNdとするとNd=3である。本実施形態では入力画像において互いに隣接するフレームは、前記分配するサブフレームとして両端の一つを共有することによりこの関係(N=2、Nd=3)を両立させている。このように、Nが偶数のときには、奇数のNd(Nd≧N)個に各成分を分配し、隣接するフレームと例えば一つのサブフレームを共有する。また、そのサブフレームの係数は、それぞれもとの分配の係数を加算した値とする。このようにすることにより、NとNdの不一致を解消する。また、この加算値が、同じ空間周波数成分の他のサブフレームの係数を超えないようにしなければならない。
図28は、本実施形態における、それぞれの画像の相対関係を示す図である。すなわち図28は図1の動作をフレームの推移に従って忠実に表現したものである。図の横方向はフレームの推移を表す。縦方向は、画像ないし画像成分の種類を表す。1行目は、左から順に一枠ごとに入力画像の1フレームを示す。2行目以降は左から順に1列ごとにサブフレームを表す。入力画像Aに対して出力画像は1フレーム遅延しているので、本図においても1行目に対して2行目のiの値は1だけ少なくなっている。
図28の1行目は入力画像A、2行目は出力されるサブフレームを表す。3行目から7行目はそれぞれのフレームの入力画像Aに対して、フィルタで抽出した空間的高周波成分Hと空間的低周波成分Lとをそれぞれ係数をかけて示す。8行目は、2行目のサブフレームにおける合算出力の成分の内訳である。
図28の1行目で示すA[i]に対応する各周波数成分は5行目の4列〜6列である。この部分の詳細を図29に示す。このように、それぞれのフレームの入力画像が、図28のような係数で3つのサブフレームに分配(乗算)される。図29では、GL1〜3を{0.5,1,0.5}、GH1〜3を{0,2,0}としている。
図30に本実施形態の変形例を示す。図30と図1は同一機能である。図1は本実施形態を最もシンプルな形で表したものであるのに対し、図30は、図28に従って入力画像Aが、フレームごとに所定の比率で3つのサブフレームに分配される様子などがわかるように表したものである。また、図30で、図中の乗算器の係数を所定の条件を守りつつ適宜変更することにより、図1とは異なる構成例を実現することができる。
図30のブロック図を説明する。50は入力されたフレーム同期信号(例えば60Hz)を2逓倍して120Hzの同期信号clk2を作る2逓倍回路である。53は、入力画像を空間的高周波成分と空間的低周波成分に分けるフィルタであり、図1のLPF1と減算器2の組み合わせに相当する。スイッチ51、52は、A[i]のフレーム同期信号が入力されるごとに、出力端子(0)→(1)または(1)→(0)のように切り替える。
スイッチ58乃至61は、2逓倍回路50の出力であるclk2が入力されるごとに、その4つの出力端子を、(1)→(2)→(3)→(4)→(1)…の順に1ステップずつ切り替える。スイッチ58とスイッチ59は互いに同一の番号のチャンネルが接続される。スイッチ60とスイッチ61も同様に同一の番号のチャンネルが接続される。ただしスイッチ58とスイッチ59に対して、スイッチ60とスイッチ61は、2ステップ分異なる番号のチャンネルに接続される。それぞれのスイッチの出力端子(4)はタイミングを作るためのダミー接続である。これにより、図28のように動作するために、それぞれのスイッチはclk2に従って(1)→(2)→(3)→(4)→(1)→(2)…のように切り替わる。
スイッチ58乃至スイッチ61の各チャンネルには所定の係数の乗算器が接続される。それぞれの出力は加算器62、63、64、65で合算され、さらにそれらが加算器66で合算される。
スイッチ58とスイッチ60の各乗算器の係数の組み合わせは同一である。同様にスイッチ59とスイッチ61の各乗算器の係数の組み合わせも同一である。
スイッチ58とスイッチ60の各乗算器の係数GH1〜3は空間的高周波成分に関する係数であって、図29のH成分に示す係数である。スイッチ59とスイッチ61の各乗算器の係数GL1〜3は空間的低周波成分に関する係数であって、図29のL成分に示す係数である。
次に、図30について信号の流れを説明する。図30は図28の4列目のタイミング(すなわちサブフレームSL[i−1]に相当するタイミング)を示している。入力信号A[i]はフィルタ53によって空間的高周波成分H[i]と空間的低周波成分L[i]とに分けられる。分けられた空間的高周波成分H[i]と空間的低周波成分L[i]はそれぞれスイッチ51とスイッチ52に送られ、それぞれのスイッチの出力端子(1)が選択され、それぞれフレームメモリ56とフレームメモリ57に一時保存される。
一方、スイッチ51とスイッチ52の出力端子(0)からは、1フレーム前のH[i−1]、L[i−1]がフレームメモリ54、55に出力され、これらフレームメモリに一時保存されている。
フレームメモリ54、55、56、57には、スイッチ51とスイッチ52が該当する側に接続されるたびに、新たなデータがフィルタ53から送られ、内容が更新される。それぞれの保存データは入力画像における2フレームの期間分保持される。またスイッチ58からスイッチ61において、それぞれ接続が出力端子(4)から出力端子(1)に変わる直前に、該当するフレームメモリの内容が更新されるようになっている。
このような状態にあって、スイッチ58からスイッチ61が上記のように順番に切り替わり、ぞれぞれの出力を全て合算したものが、本実施形態の出力となる。ここで、例えばスイッチ58、スイッチ59が(1)→(2)→(3)のように順番に切り替わる場合、これは、図28のA[i−1]に対応する成分、すなわち、4行の2列→3列→4列の順に各空間周波数帯域成分を出力する事を意味する。同様にスイッチ60,スイッチ61が(1)→(2)→(3)のように順番に切り替わる場合、これは、図28のA[i]に対応する成分、すなわち、5行の4列→5列→6列の順に各空間周波数帯域成分を出力する事を意味する。
このようにして得られた本ブロック図の出力信号は、図28の8行目(最下段)に相当する。図30の中の各乗算器の係数GL1〜3、GH1〜3は図29に示す係数を用いている。この係数を用いる限り図30は図1と同一機能である。本発明の特徴を満たすには例えばGL1〜3に関して1項目と3項目が等しく、かつ全体の合計が2で、さらに端部の係数の2倍が中央の係数を越えなければよい。従って、GL1〜3として例えば{0.4,1.2,0.4}、あるいは{0.3,1.4,0.3}などでも良い。図30のGL1〜3をこれらのような係数に置き換え場合、第1の実施形態と比較してフリッカーが少し発生するが、歪がさらに少ない実施形態を実現することができる。後者の係数はその傾向がさらに大きい。
以上の結果、第1の実施形態と同様に、動きぼけが少なく、かつ、フリッカーの発生も少ない画像を実現することができる。
<尾引きの発生理由>
以下、L[i]とH[i]とで時間的重心がずれると、なぜゴーストや尾引き波形が発生するのかを説明する。ここでは入力画像のフレーム周波数が60Hzの場合を例に説明する。
まず、図7(a)に示すような、輝度の走査ラインが矩形波形をなすような像が、1/60秒あたりV(pixel)だけ移動する場合の追従視を考える。つまり、フレーム間でV(pixel)だけ移動するオブジェクトを有する動画像の場合である。
この場合、例えばパルス幅1/60秒のホールド型表示装置(フレーム周波数60Hz)の場合、V(pixel)幅の動きぼけが観測される(図7(b)の傾斜部がそれに対応する)。
また、例えばパルス幅1/120秒のホールド型表示装置(フレーム周波数120Hz)の場合、V/2(pixel)幅の動きぼけが観測される(図7(c)の傾斜部の幅がそれに対応する)。
インパルス駆動の場合はパルス幅が小さいので、比較的、静止時の波形に近い追従視像がえられる。図7(d)にパルス幅(1/1200秒)の場合を示す。何れの場合も、傾斜部分の幅で表される動きぼけは、パルス幅に近い値となり、少なくともこの値にはフレーム周波数は直接には関与しない。単にホールド型の場合に、パルス幅=「1/フレーム周波数」と同じか近い値になると言うだけである。
入力画像AをHPFまたはLPFで空間的高周波成分と空間的低周波成分に分ける場合の波形を図8(a)乃至(c)に示す。図8(a)は入力画像Aの波形を示している。SH(=L+2H)とSL(=L)はそれぞれ同図(b)、(c)のような波形となる。ただし、この図8は追従視している場合の波形ではなく静止している像の波形である。したがって動きぼけの影響は無い。
図9(a)乃至(c)は、図8(b)、(c)のSH[i]、SL[i]に対して追従視を行った場合を想定した図である。
夫々の表示期間は1/120秒であるから、図7(c)に示すパルス幅1/120秒に相当する動きぼけを示すような波形となる。ここで、従来例ではSH[i]はSL[i]と同一のフレームから作成しているため、それらは同一時間のものである。これに追従視を行った場合、SL[i]がSH[i]に対してフレーム時間に移動する距離の半分(すなわちV/2)だけ像の移動方向と反対の方向にずれて形成される。
実際には図9(a)、(b)のSH[i]とSL[i]は1/120秒ごとに交互に表示される。従って、実際に人間の視覚に認識されるときには、図9(c)の合成波形が認識される。この波形は図7(c)の波形に比較して、尾引きのある波形となっている。本実施形態は、この歪を改善するものである。
本実施形態においては、図3に示すように、例えば、SH[ i ] とSH[i+1]の間で表示されるSL[i] は、それぞれに対応する空間的低周波成分の平均値、すなわち {L[i]+L[i+1]}/2で構成している。ここで図9と同様に、SH[i](=L[i]+2×H[i])、SL[i](={L[i]+L[i+1]}/2)、及び、その追従視波形を図10(a)乃至(c)に示す。
ここまで述べてきたように、追従視を行った場合、L[i] は、1/120秒早く表示されるSH[i]と同じフレームの入力画像から作成しているので、フレーム当たりの移動距離の半分(V/2)だけ像の移動方向と反対の方向にずれて形成される。一方、L[i+1]は、1/120秒遅く表示されるSH[i+1]と同じフレームの入力画像から作成しているので、フレームの移動距離の半分(V/2)だけ像の移動方向と反対方向にずれて形成される。従って、図10(b)に示すように、それらを足して、2で割った波形SL[i](={L[i]+L[i+1]}/2)は、時間的重心としてはほぼSH[i]と同じ位置にして形成される。
実際には図10(a),(b)のSH[i]とSL[i]は1/120秒ごとに交互に表示されるので、実際に人間には、その合成波形(図10(c))が視覚される。この波形は従来例の図9(c)の波形に比較して左右対称で、尾引きの無い波形となっている。この尾引きの歪みが改善されることが本実施形態の効果である。
尚、ここまでは、パルス幅がフレーム周期に等しいホールド型表示装置でフレーム周波数60Hzの入力画像を倍速化して表示する場合を例に説明してきた。しかしながら、インパルス型でも従来例としての課題、本実施形態としての効果は同じである。
例えばインパル型表示装置でパルス幅がフレーム周期の1/100の場合、すなわち入力画像がパルス幅1/600秒(1.67msec)で、フレーム周波数60Hzであるとする。これを倍速化したとき、そのパルス幅は、さらにその半分(1/1200秒(=0.83msec))であるような場合を考える。
この場合、従来例の追従視波形は図11(a)乃至(c)、本実施形態の追従視波形は図12(a)乃至(c)のようになる。ここで、図11(a)乃至(c)は、図9(a)乃至(c)に対応し、図12(a)乃至(c)は図10(a)乃至(c)に対応する。
図9(a)、図10(a)のV/2は動きボケの要因であるパルス幅に対応する距離に相当するので、図11(a)、図12(a)ではV/20に置き換えられる。図9(b)、図10(b)のV/2は、フレームの時間差に対応する距離に相当するので図11(b)でも図12(b)でも同じV/2である。
<第1の実施形態の変形例>
上記第1の実施形態と等価の処理を、コンピュータプログラムで実現する例を説明する。このコンピュータプログラムを実行する装置は、パーソナルコンピュータ等の情報処理装置(以下、PCという)で良い。PCのハードウェアについては説明するまでもないであろう。但し、以下では、単位時間当たりm個のフレームの動画像データファイルはハードディスク等の記憶装置(もしくは記憶媒体)に既に格納されているものとする。そして、本変形例のアプリケーション(コンピュータプログラム)を実行するCPUは、そのファイルから、単位時間当たり2倍の2m個のフレームで再生すべき動画像データに変換し、その変換結果をハードディスクにファイルとして保存する例を説明する。また、変換対象動画像データは記憶装置に格納され、倍速変換後の動画像データも記憶装置に格納されるものであるから、本アプリケーションは倍速変換結果を表示する必要はない。つまり、CPUは、変換対象動画像データで表わされる動画像のフレームレートに同期して処理する必要もない点に注意されたい。また、変形例のアプリケーションは、やはりハードディスクに格納されており、CPUがRAMにロードし、実行するものである。
図27は、本アプリケーションの処理手順を示すフローチャートである。以下、同図に従って、CPUの実行処理手順を説明する。なお、以下の説明で、メモリ領域A,Bとは、RAMに確保された領域である。
先ず、ステップS1において、CPUは変換対象の動画像データファイルから、1フレーム分の画像データA[i]をRAMに読込む。符号化されている場合には、対応する復号処理を行なう。
ステップS2では、CPUは、予め設定されたLPFを用いて、入力した1フレームの着目画像データA[i]のフィルタ処理を行ない、空間的低周波成分データL[i]を生成する。
次いで、ステップS3に進み、CPUは空間的高周波成分データH[i]を生成する。H[i]=A[i]−L[i]
ステップS4では、CPUは高周波強調画像データSH[i]を生成し、それを一時的にRAMに格納する。
SH[i]=A[i]+H[i]=L[i]+2×H[i]
ステップS5では1フレーム前のSH[i−1]を現フレームとしてメモリ領域Aから読み出す。
ステップS6では次の入力フレームに対する処理に備え、SH[i]をメモリ領域Aに保存する。
ステップS7では1フレーム前のL[i−1]を現フレームとしてメモリ領域Bから読み出す。
ステップS8では次の入力フレームに対する処理に備え、L[i]をメモリ領域Bに保存する。
ステップS9では、CPUは、低周波平均画像データSL[i]を生成する。
SL[i−1]={L[i−1]+L[i]}/2
こうして、高周波強調画像データSH、低周波平均画像データSLが生成されると、CPUはステップS10に処理を進める。このステップS10では、CPUは、生成された2つの画像データ(サブフレーム)を出力動画像データとして出力する。
先のステップS5で利用したSH[i−1]は、前回のステップS6の処理結果を利用していることになる。先のステップS7で利用したL[i−1]は、前回のステップS8の処理結果を利用していることになる。なお、最初のフレームの画像データを倍速変換する場合、それ以前のフレームの低周波画像データは存在しない。その際には、適当な画素値であるものと見なして処理を行なうものとする。
この後、ステップS11にて、CPUは、変換対象の動画像データファイルの全フレームについて変換したか否かを判定する。この判定は、変換対象の動画像データファイルのファイルエンドを検出したか否かで良いであろう。
ステップS11にて、Noと判定した場合には、変数iを“1”だけインクリメントし、ステップS1以降の処理を繰り返す。
一方、ステップS11にて、Yesと判定した場合には、一連の倍速変換処理を終了する。
以上説明したように、第1の実施形態と比較し、変換処理速度はCPUに依存したものとなるものの、第1の実施形態と同等の作用効果を奏する倍速動画像データファイルを作成することが可能になる。
<第2の実施形態>
本第2の実施形態は先に示した第2の課題を解決する例を説明する。図17は第2の実施形態における画像処理装置のブロック構成図である。図1と同等の構成については、同符号を付し、その説明は省略する。
第2の課題は、入力画像に対してフレーム毎にフィルタ処理を行い、動きぼけに関与する空間的高周波成分と、フリッカーに関与する空間的低周波成分を分離した場合の問題である。すなわち、空間的高周波成分を一方のサブフレームに集中させ、前記空間的低周波成分を両方のサブフレームに分配して表示する方法の場合、その表示装置のもつダイナミックレンジを100%生かせないという問題である。
ここで、上記一方のサブフレームとは入力画像のフレームに対応する2つの倍速フレームの一方のことであり、上記両方のサブフレームとは入力画像のフレームに対応する2つの倍速フレームの両方のことである。
このような表示方法では、図13のホールド型、図14のインパルス型などのように空間的高周波成分(斜線部)を一方のサブフレームに集中させる。従って、例えば輝度の大きい画像を表示する場合、SH[i]を表示しているサブフレームにおいて先に飽和が起こる。一方、SL[i]を表示するサブフレームは前者が飽和しても、まだ飽和に至らないレベルにあることとなる。このため、フレーム全体が同時に飽和レベルになり、通常の表示方法(図15、図16)に比較して最大表示輝度が小さくなる。従って、実際に飽和を回避するためには、もとの画像信号に対して1より小さい比率をかけ算しなければならない。以下、この比率をk(0.5≦k≦1)とする。なお、先に説明した第1の実施形態では、飽和を考慮しない例であり、見方を変えればk=1の場合とした例とも言える。
輝度の低下を防ぐには、kをできるだけ“1”に近い値にとる必要がある。そのためには、図13、図14の斜線の部分の絶対値をできるだけ小さくして輝度の偏りを小さくする必要がある。なお、図13、図14の斜線の部分は正である場合もあるし、負である場合もある。図13、図14では、簡単のために正の場合を表現した。
このためには、LPFまたはHPFの距離定数dをできるだけ小さくする。すなわち空間的低周波成分と空間的高周波成分を切り分ける空間周波数を高く、換言すれば、フィルタの距離定数を小さくして、高周波成分の絶対値を小さくする必要がある。
一方、この距離定数dを小さくし過ぎると、図9(c)や図10(c)に見られるオーバーシュートの部分が目立つようになる。dが十分大きい場合、図10(c)の波形は、図7(c)の波形に近くなる。また、このオーバーシュートは、追従視する対象となる像の動きの速さが大きいほど目立つようになる。すなわち、波形を再現するうえで必要最低限のdの値というのは、入力画像において、どの程度の速さのものまで追従視の対象として考えるということでもある。
第2の実施形態では、入力画像の中の動きの速い部分に対しては、距離定数dの値を大きく設定し、動きの遅い部分に対しては距離定数dの値を小さく設定する。すなわち本第2の実施形態では、距離定数dを入力画像の空間周波数分布と、個々の部分の移動速度を考慮して、画像の領域ごとに適応的に決めると言うものである。
図17に示すように、本第2の実施形態では、適応型多段階ローパスフィルタ20を用いる。この適応型多段階ローパスフィルタの具体的な構成を図19に示す。この適応型多段階ローパスフィルタ20は、段階構造を成す複数のLPFから構成される。
図19は、段数=4の例で、現フレームに対して、フィルタ処理を行なう4つのローパスフィルタを示している。図示の如く、4つのLPF23、LPF26、LPF29、LPF31が数珠繋ぎになっている。これら複数のLPF(23、26、29、31)が第1のフィルタ部として機能する。同様に、前フレームに対しても3つのLPF22、24、28が数珠繋ぎになっている。これら複数のLPF(22、24、28)が第2のフィルタ部として機能する。ローパスフィルタLPF22とLPF23は同じ距離定数を用いる。LPF24とLPF26も同じ距離定数を用いるように設定されている。そして、LPF28とLPF29についても同じ距離定数が設定されている。各ローパスフィルタLPFn(n=1、2、3、4)の距離定数を、その添え番号順にdn(n=1、2、3、4)と定義したとき、その添え字の番号が進むほど距離定数は大きい値に設定する。つまり、添え字の番号順、つまり、数珠繋ぎの下流に位置するフィルタほど、濾波する周波数範囲の上限空間周波数が低くなる。従って、この距離定数は、フィルタリングする際の上限空間周波数を特定する情報とも言える。
ここでまず、図19中の各ブロックの機能を説明する。
遅延回路(以下、DL)21は、1フレーム分だけ、入力した画像データを遅延し、出力する。実際、このDL21は、1フレーム分の画像データを格納するFIFOメモリで構成すればよい。従って、適応型多段階ローパスフィルタ20が入力する現フレームの画像データをA[i]としたとき、DL21から出力されるのは前フレームの画像データA[i−1]となる。
LPF22、23は、距離定数d1に従って、入力した画像データのフィルタリング処理を行なう。
LPF24、26はそれぞれ上流のLPF22、23からの信号L1[i-1]とL1[i]、および差分比較器25から出力される領域データAREA1を入力データとして受け付ける。また、予め距離定数d2が設定されている。LPF24、26では、それぞれ前記L1[i-1]とL1[i]に対して、前記領域データAREA1で示される領域の画素に対して、距離定数d2に従ってフィルタリング処理を行う。ここで、フィルタリング処理の対象となるのは前記領域であるが、この処理により画像データが変化する範囲は前記領域よりも距離定数d2の分だけ広がった領域となる。このようなフィルタリング処理を行った結果をそれぞれL2[i-1]とL2[i]として出力する。
LPF28、29はそれぞれLPF24、26からの信号L2[i-1]とL2[i]、および差分比較器27から出力される領域データAREA2を入力データとして受け付ける。また、予め距離定数d3が設定されている。LPF28、29では、それぞれ前記L2[i-1]とL2[i]に対して、前記領域データAREA2で示される領域の画素に対して、距離定数d3に従ってフィルタリング処理を行う。ここで、フィルタリング処理の対象となるのは前記領域であるが、この処理により画像データが変化する範囲は前記領域よりも距離定数d3の分だけ広がった領域となる。このようなフィルタリング処理を行った結果をそれぞれL3[i-1]とL3[i]として出力する。
LPF31はそれぞれLPF29からの信号L3[i]、および差分比較器30から送られる領域データAREA3を入力データとして受け付ける。また、予め距離定数d4が設定されている。LPF31では、それぞれ前記L3[i-1]とL3[i]に対して、前記領域データAREA3で示される領域の画素に対して、距離定数d4に従ってフィルタリング処理を行う。ここで、フィルタリング処理の対象となるのは前記領域であるが、この処理により画像データが変化する範囲は前記領域よりも距離定数d4の分だけ広がった領域となる。このようなフィルタリング処理を行った結果を、適応型多段階ローパスフィルタ20の最終結果L[i]として出力する。
差分比較器25はL1[i−1],L1[i]を入力してその差分の絶対値を画素ごとに計算し、その結果に基づいて領域データAREA1を算出する。また、判定のための定数C1が予め設定されている。前記AREA1は前記L1と同じ形の配列データであり、画素ごとに、前記差分の絶対値が前記C1より大きい画素に対応するデータを“1”、前記差分値の絶対値が前記C1より小さい画素に対応するデータを“0”としたものである。
すなわち、画素(x、y)ごとに
|L1[i](x,y)−L1[i−1](x,y))|≧C1 の場合
AREA1(x,y)=“1”
|L1[i](x,y)−L1[i−1](x,y))|<C1 の場合
AREA1(x,y)=“0”
このようにして定義される領域データAREA1を出力する。
差分比較器27はL2[i−1],L2[i]を入力してその差分の絶対値を画素ごとに計算し、その結果に基づいて領域データAREA2を算出する。また、判定のための定数C2が予め設定されている。前記、AREA2は前記L2と同じ形の配列データであり、画素ごとに、前記差分の絶対値が前記C2より大きい画素に対応するデータを“1”、前記差分値の絶対値が前記C2より小さい画素に対応するデータを“0”としたものである。
すなわち、画素(x、y)ごとに
|L2[i](x,y)−L2[i−1](x,y))|≧C2 の場合
AREA2(x,y)=“1”
|L2[i](x,y)−L2[i−1](x,y))|<C2 の場合
AREA2(x,y)=“0”
このようにして定義される領域データAREA2を出力する。
差分比較器30はL3[i−1],L3[i]を入力してその差分の絶対値を画素ごとに計算し、その結果に基づいて領域データAREA3を算出する。また、判定のための定数C3が予め設定されている。前記、AREA3は前記L3と同じ形の配列データであり、画素ごとに、前記差分の絶対値が前記C3より大きい画素に対応するデータを“1”、前記差分値の絶対値が前記C3より小さい画素に対応するデータを“0”としたものである。
すなわち、画素(x、y)ごとに
|L3[i](x,y)−L3[i−1](x,y))|≧C3 の場合
AREA3(x,y)=“1”
|L3[i](x,y)−L3[i−1](x,y))|<C3 の場合
AREA3(x,y)=“0”
このようにして定義される領域データAREA3を出力する。
以上の説明を踏まえて、図19に示す、第2の実施形態の適応的多段階LPF20の動作を以下に説明する。
先ず、概要を簡単に説明すると、次の通りである。
LPF23は毎フレーム毎に必ずすべての領域に対してフィルタリング処理を行なう。そして、LPF23によるフィルタリング結果が不十分な領域がある場合、LPF26によるフィルタリング処理が行われる。更に、不十分な領域がある場合LPF29、LPF31とフィルタリング処理が行われる。
LPFによるフィルタリングが領域ごとに十分か不十分かの判定は次の通りである。
前フレームの画像データA[i−1]についてLPF22、LPF24、LPF28によるフィルタリング処理を行なう。そして、現フレームの画像データA[i]のフィルタリング結果と、前フレームのフィルタリング処理結果との差分が閾値と比較し、差分が閾値を超える領域を、LPFによるフィルタリングが不十分である領域と判定する。逆に、差分が閾値以下の領域をLPFによるフィルタリングが十分領域であると判定する。差分が不十分であると判断される領域を示す情報を次の段階のLPFに送り、次の段階のLPFではその領域に対してフィルタリング処理を施す。本実施形態における適応型多段階LPF20は4段階LPFである。従って、仮に最終的にフィルタリングが不十分であっても、LPF31によるフィルタリング結果が、適応型多段階LPF20の出力である画像データL[i]として出力される。
以下、流れに従って本実施形態のフィルタリング処理を説明する。
まず、入力画像A[i]と1フレーム前の入力画像A[i−1]にLPF22、23を施す。すなわち
L1[i]=LPF1(A[i])
L1[i−1]=LPF1(A[i−1])
なお、実際には、L1[i−1]は、既に一つ前のフレームの出力処理を行なっているときに算出されているので、それを保存しておきメモリからロードするようにしても構わない。
次に差分比較器25は、L1[i−1]とL1[i]の差の絶対値を計算し、その絶対値と閾値定数Cとを画素(x、y)ごとに比較し、領域データAREA1を作成し、LPF24、26に送る。
LPF24、26では、上流から送られるデータL1[i−1]とL1[i]に対してAREA1で示される領域においてLPF2のフィルタリングを行う。この処理は例えば次式で示すことができる。
L2=L1−(AREA1*L1)+LPF2((AREA1*L1))
ここで(AREA1*L1)はAREA1の成分が“1”である画素データは画像データL1のデータと同じにして、AREA1の成分が“0”である画素データは“0”とするような画像データを出力する演算を意味する。このようにして得られたL2[i]とL2[i−1]をLPF28、29に送る。
LPF28、29では、上流から送られるデータL2[i−1]とL2[i]に対してAREA2で示される領域においてLPF3のフィルタリング処理を行う。この処理は例えば次式で示すことができる。
L3=L2−(AREA2*L2)+LPF3((AREA2*L2))
ここで(AREA2*L2)はAREA2の成分が“1”である画素データは画像データL2のデータと同じにして、AREA2の成分が“0”である画素データは“0”とするような画像データを出力する演算を意味する。このようにして得られたL3[i]とL3[i−1]をLPF31に送る。
LPF31では、送られるデータL3[i]に対してAREA3で示される領域においてLPF4のフィルタリング処理を行う。この処理は例えば次式で示すことができる。
L4=L3−(AREA3*L3)+LPF4((AREA3*L3))
ここで(AREA3*L3)はAREA3の成分が“1”である画素データは画像データL3のデータと同じにして、AREA3の成分が“0”である画素データは“0”とするような画像データを作成する演算を意味する。
このようにして得られたL[i]を適応型多段階LPF20の出力である画像データとして出力する。
上記は要するに、以下のように表現することができる。
本第2の実施形態における適応型多段階LPF20は、第1のフィルタ部(LPF23、26、29、31)、第2のフィルタ部(LPF22、24、28)で構成されている。上流の段階から順番に、両者の対応関係にあるn番目のフィルタで得られた画像データどうしの差の絶対値を計算する。さらに、その差の絶対値が所定の閾値Cn以上の領域があるときに、その領域に対してのみ次の段階のLPFを施す。このようにして最終的に、全領域で、前記差の絶対値が所定の未満となり、なおかつ、それぞれの領域に施されたフィルタリング処理が必要最小限度であるような画像データを作成できる。このような画像データを着目フレームの低周波画像データL[i]として出力する。ここで本実施形態ではCnは段階ごとに設定できるような構成を例に説明しているが、すべてのCnを共通の一つの値Cとしてもよい。これは現実的な方法であり十分な効果も得られる。
本第2の実施形態では、図17に示すように図1の第1の実施形態におけるLPF1の代わりに、適応型多段階LPF20を用いる例を説明した。しかしながら、図18に示すように、図6の従来例のHPFを用いる構成の代わりに、第2の実施形態と適応型多段階LPFと減算器を組み合わせてHPFとすることによって構成することも出来る。
以上、本第2の実施形態では、4段階のLPFを用いる例を説明したが、この段数については多い方が特性が向上する。しかしながら、実際には回路規模、計算負荷等を考慮して、バランスの良い段数に設定するのが望ましい。例えば、最も小規模な場合は、図20に示すように段数=2の場合であり、このような構成でも従来技術と比較して遥かに優れた作用効果を奏することが可能である。
なお、上記多段階ローパスフィルタは、画像の部分(例えば動きの速い部分や動きの遅い部分)に応じてフィルタリング処理を行うことが好ましいが、画像全体にフィルタリング処理を行ってもよい。
画像全体にフィルタリング処理をする例を図31に示す。
DL21は、1フレーム分だけ、入力した画像データを遅延し、出力する。実際、このDL21は、1フレーム分の画像データを格納するFIFOメモリで構成すればよい。従って、適応型多段階LPF20が入力する現フレームの画像データをA[i]としたとき、DL21から出力されるのは前フレームの画像データA[i−1]となる。
LPF22、23は、常時アクティブになっていて、距離定数d1に従って、入力した画像データのフィルタリング処理を行なう。
また、LPF24、26は、差分比較器25からの判定信号dif_1が“1”の場合に、アクティブになり、上流のLPF22、23からの画像データを距離定数d2に用いてフィルタリングする。また、差分比較器25からの判定信号dif_1が“0”の場合、LPF24、26は、フィルタリング処理を行なわない。
また、LPF28、29は、差分比較器27からの判定信号dif_2が“1”の場合に、アクティブになり、上流のLPF24、226からの画像データを距離定数d3に用いてフィルタリングする。また、差分比較器27からの判定信号dif_2が“0”の場合、LPF28、29は、フィルタリング処理を行なわない。
LPF31は、差分比較器30からの判定信号dif_3が“1”の場合に、アクティブになり、上流のLPF24、26からの画像データを距離定数d3に用いてフィルタリングする。また、差分比較器30からの判定信号dif_3が“0”の場合、LPF31は、フィルタリング処理を行なわない。
差分比較器25は、LPF22、23から出力される各画素データをX1、X2としたとき、その差の絶対値|X1−X2|を算出し、その絶対値と閾値C1とを比較し、その比較結果を判定信号dif_1として出力する。
具体的には、
|X1−X2|≦C1の条件を満たすとき、dif_1=“0”
|X1−X2|>C1の条件を満たすとき、dif_1=“1”
差分比較器27、30も同様である。但し、差分比較器27が用いる閾値はC2であり、その判定結果はdif_2として出力される。また、差分比較器30が用いる閾値はC3であり、その判定結果はdif_3として出力される。
スイッチSW1は、差分比較器25からの判定信号dif_1が“1”の場合に、端子“1”を選択し、判定信号dif_1が“0”の場合に、端子“0”を選択する。スイッチSW2乃至SW4も同様である。
以上の説明を踏まえて、図31に示す、画像全体にフィルタリング処理をするLPF201の動作を以下に説明する。
先ず、概要を簡単に説明すると、次の通りである。
LPF23は毎フレーム毎に必ず処理を行なう。そして、LPF23によるフィルタリング結果が不十分な場合、LPF26によるフィルタリング処理が行われる。更に、不十分な場合はLPF29、LPF31とフィルタ処理が行われる。
LPFによるフィルタリングが十分か不十分かの判定は次の通りである。
前フレームの画像データA[i−1]についてLPF22、LPF24、LPF28によるフィルタリング処理を行なう。そして、現フレームの画像データA[i]のフィルタリング結果と、前フレームのフィルタリング処理結果との差分が閾値と比較し、差分が閾値を超えるとき、LPFによるフィルタリングが不十分であると判定する。逆に、差分が閾値以下の場合には、その段階でのLPFによるフィルタリングが十分であると判定し、その段階でのフィルタリング処理結果を、適応型多段階LPF20の出力である画像データL[i]として出力する。なお、適応型多段階LPF20は4段階LPFである。従って、最後の差分比較器30の判定結果dif_3が“1”の場合には、LPF31によるフィルタリング結果を、適応型多段階LPF20の出力である画像データL[i]として出力する。
以下、流れに従って本実施形態のフィルタリング処理を説明する。
まず、入力画像A[i]と1フレーム前の入力画像A[i−1]にLPF22、23を施す。すなわち
L1[i]=LPF1(A[i])
L1[i−1]=LPF1(A[i−1])
なお、実際には、L1[i−1]は、既に一つ前のフレームの出力処理を行なっているときに算出されているので、それを保存しておきメモリからロードするようにしても構わない。
次に差分比較器25は、L1[i]とL1[i−1]の差の絶対値を計算し、その絶対値と閾値定数C1とを比較する。
|L1[i]−L1[i−1])|<C1の場合、現フレームのフィルタリング結果L1[i]は十分であることになるので、差分比較器25は判定信号dif_1=“0”を出力する。この結果、スイッチSW1は出力端子“0”を選択するので、L1[i]が、適応型多段階LPF20の出力L[i]として出力される。なお、判定信号dif_1=“0”の場合、次段に位置する差分比較器27は、その判定信号dif_2を無条件に“0”にするものとする。これは、差分比較器30も同様である。
一方、|L1[i]−L1[i−1])|≧C2であった場合、現フレームのフィルタリング結果L1[i]は不十分であることになるので、差分比較器25は判定信号dif_1=“1”を出力する。この結果、LPF24、26がアクティブになる。また、スイッチSW1は出力端子“1”を選択する。従って、LPF24、26は、L1[i]、L1[i−1]をそれぞれフィルタリング処理を行なうことになる。
次に差分比較器27は、LPF24、26からの出力L2[i]とL2[i−1]の差の絶対値を計算し、その絶対値と閾値定数C2とを比較する。
|L2[i]−L2[i−1])|<C2の場合、現フレームのフィルタリング結果L2[i]は十分であることになるので、差分比較器27は判定信号dif_2=“0”を出力する。この結果、スイッチSW2は出力端子“0”を選択するので、L2[i]が、適応型多段階LPF20の出力L[i]として出力される。
一方、|L2[i]−L2[i−1])|≧C2であった場合、現フレームの着目画素のフィルタリング結果L2[i]は不十分であることになるので、差分比較器27は判定信号dif_2=“1”を出力する。この結果、LPF28、29がアクティブになる。また、スイッチSW2は出力端子“1”を選択する。従って、LPF28、29は、L2[i]、L2[i−1]をそれぞれフィルタリング処理を行なうことになる。
次に差分比較器30は、LPF28、29からの出力L3[i]とL3[i−1]の差の絶対値を計算し、その絶対値と閾値定数C3とを比較する。
|L3[i]−L3[i−1])|<C3の場合、現フレームのフィルタリング結果L3[i]は十分であることになるので、差分比較器30は判定信号dif_3=“0”を出力する。この結果、スイッチSW3は出力端子“0”を選択するので、L3[i]が、適応型多段階LPF201の出力L[i]として出力される。
一方、|L3[i]−L3[i−1])|≧C3であった場合、現フレームのフィルタリング結果L3[i]は不十分であることになるので、差分比較器27は判定信号dif_3=“1”を出力する。この結果、LPF31がアクティブになる。また、スイッチSW3及びSW4は、それぞれ出力端子“1”を選択する。従って、LPF31によるフィルタリング処理結果L4[i]が、適応型多段階LPF20の出力L[i]として出力される。
以上の結果、LPF23、26、29、31のいずれか1つのみの出力が、適応型多段階LPF201の出力L[i]として出力されることになる。
要するに、以下のように表現することができる。
本第2の実施形態における適応型多段階LPF20は、第1のフィルタ部(LPF23、26、29、31)、第2のフィルタ部(LPF22、24、28)で構成されている。上流の段階から順番に、両者の対応関係にあるn番目のフィルタで得られた画像データどうしの差の絶対値を計算する。さらに、その差の絶対値と所定の閾値Cnとを比較し、すべての領域で閾値Cn以下か否かを判定する。この判定が初めて成立したとき(すべての領域でCnより小さいと判定されたとき)第1のフィルタ部のn番目のフィルタで得られた画像データを、着目フレームの低周波画像データL[i]として出力する。
以上が、図31に示した、画像全体にフィルタリング処理をする多段階LPFの動作である。また、図20同様に、係数=2の場合の画像全体にフィルタリング処理をする多段階LPFのブロック図を図32に示す。
以上説明したように本第2の実施形態によれば、第1、第2の課題を解決することが可能になる。
<第3の実施形態>
本第3の実施形態では、先に示した第2の課題の解決方法を説明するものである。
先に説明した第2の実施形態では、LPFの距離定数dを適切に制御することにより、高周波成分の比率が必要以上に大きくなることを抑制するものであった。つまり、これによって、表示の輝度レベルが飽和する事(すなわち計算上SH[i]≧100%、または、SH[i]<0になること)を抑制するものであった。
本第3の実施形態では、上記の処理によっても尚、表示の輝度レベルが飽和する事(すなわち、計算上SH[i]≧100%、又は、SH[i]<0になること)がおこった場合にも、画像として不具合が発生しないようにすることを提案するものである。すなわち一旦計算したSH[i]、SL[i]を前記不具合が発生しないように再度補正しなおすものである。
本第3の実施形態では、図6の従来例に適用したものを図21、図22に示す。
ここで図6の従来例における、SH[i]、SL[i]は下記のように表現することができる。
L[i]=LPF(A[i])
H[i]=A[i]−L[i]
SH[i]=L[i]+2H[i]
SL[i]=L[i]
本第3の実施形態では、ここまでの計算によって得られたSH[i]、SL[i]に対し、後述する補正を行ない、その補正後の画像SH_0[i]、SL_0[i]を生成する。SH_0[i]とSL_0[i]の値は実際に表示される輝度レベルを表すものである。すなわち、SH_0[i]とSL_0[i]は、共に、0〜100%の値を現実的にとるように補正されたものである。なお、画素値が8ビットで表わされるとしたとき、「100%」とは、8ビットで表わすことができる上限値の“255”である。0%は、文字どおり8ビットの値の下限値“0”である。
まず、図21、24に表される各パラメータを定義する。空間的高周波画像データ中の或る画素の値が計算上100%超える場合は、その超えている部分(超過分)を“SH_Over100”と定義する。SHが計算上負になる場合、すなわち、2Hが負の値となり、2Hの絶対値がLより大きい場合、その下限値を下回っている負の部分のを“−SH_Under0”と定義する。
本第3の実施形態では、図21に示すように、空間的高周波画像データ中の或る画素がSH_Over100を有するとき、その画素からSH_Over100を減じ、空間的低周波画像データ中の同一位置の画素にSH_Over100を加算する。すなわち、SH_Over100を移動させる。同様に図22に示すように、−SH_Under0を埋め合わせるために同じ値を第2サブフレームから第1サブフレームに移動する。
以下に、実際にこのような動作をC言語を例として表現する。
if ( S1>100 ){
SH_over100 = SH-100 ; SH_under0 = 0 ; SH=100 ; }
else if( SH<0 ){
SH_over100 = 0 ; SH_under0 = -SH ; SH= 0 ; }
else {
SH_over100 = 0 ; SH_under0 = 0 ; }
SH_0[i] = SH[i] - SH_over100 + SH_under0;
SL_0[i] = SL[i] + SH_over100 - SH_under0;
このようにすることにより、表示の輝度レベルが飽和した場合(すなわち、計算上SH[i]≧100%、または、SH[i]<0になった場合)、上記のように補正してSH_0[i],SL_0[i]に置き換えられる。従って、画像として不具合が発生しないようにすることができる。
本第3の実施形態で説明する方法を、図1の第1の実施形態に適用したものを図23、図24に示す。
ここで図1の第1の実施形態においてはSH[i]、SL[i]は下記のように表現することができる。
L[i]=LPF(A[i])
H[i]=A[i]−L[i]
SH[i]=L[i]+2H[i]
SL[i]={L[i]+L[i+1]}/2
本第3の実施形態では、ここまでの計算によって得られたSH[i],SL[i]に対し、補正処理を行ない、その結果をSH_0[i],SL_0[i]とする。SH_0[i]とSL_0[i]の値は実際に表示される輝度レベルを表すものであり、0乃至100%の値をとる。
まず、図23、図24に表される各パラメータを定義する。画像データSH(=L+2H)が計算上100%を超える場合は実際に超えている部分をSH_Over100と定義する。SHが計算上負になる場合(2H負で、その絶対値がLより大きい場合)、実際に負になっている部分のを−SH_Under0と定義する。
本第3の実施形態では、図21に示すように、SH_Over100の半分を第1サブフレームから第2サブフレームに移動する。また、また残りの半分を1フレーム前の第2サブフレームに移動する。
同様に図24に示すように、−SH_Under0を埋め合わせるために、その半分に相当する値を第2サブフレームから着目第1サブフレームに移動し、残りの半分に相当する値を1フレーム前の第2サブフレームから着目第1サブフレームに移動する。
以下に、実際にこのような動作をC言語を例として表現する。
if ( S1>100 ){
SH_over100 = SH-100 ; SH_under0 = 0 ; SH=100 ; }
else if( SH<0 ){
SH_over100 = 0 ; SH_under0 = -SH ; SH= 0 ; }
else {
SH_over100 = 0 ; SH_under0 = 0 ; }
SH_0[i] = SH[i] - SH_over100 + SH_under0;
SL_0[i] = SL[i] + (1/2) * SH_over100 - (1/2) * SH_under0;
SL_0[i-1] = SL[i] + (1/2) * SH_over100 - (1/2) * SH_under0;
このようにすることにより、表示の輝度レベルが飽和した場合(計算上SH[i]≧100%、または、SH[i]<0になった場合)、上記のように補正してSH_0[i],SL_0[i]に置き換えらえる。この結果、画像として不具合が発生しないようにすることができる。また、本実施形態で説明する方法を適用しても、空間的高周波成分と空間的低周波成分の時間的重心はそれぞれ変化せず、従って、追従視をおこなったとき得られる像において空間的高周波成分と空間的低周波成分の表示位置にズレが発生しない。従って、前記追従視を行った像において尾引きなどの歪みが発生することを防止しつつ輝度レベルの飽和による誤動作を防止できる。
<第4の実施形態>
第4の実施形態では、先に説明した第1の課題と第2の課題を解決する例を説明する。
本第4の実施形態では、入力画像を複数の空間的周波数成分で分け、成分ごとに時間的重心が一致するように、表示のレベルを複数のサブフレームに分配(乗算)する。これにより、動きボケ、2重ボケ、フリッカーを改善するものである。先に説明した第1乃至第3の実施形態では、1入力フレームを倍速変換する(すなわち2つのサブフレームに分ける)場合で、かつ、空間周波数の分離は空間的高周波成分と空間的低周波成分とに分離する場合を例に説明した。
ここで、フレーム数の倍率をN、空間周波数を分離する場合の周波数帯域の数をRとすると、ここまでは、フレーム周波数が2倍(N=2)、また空間周波数帯域において高周波成分と低周波成分の2帯域(R=2)の場合を説明した。
しかしながら、本発明は、サブフレームの数を限定するものではない(すなわち、N倍速のNを“2”に限定するものではない)。また空間周波数の帯域の分離においても、帯域の数を限定するものではない(すなわち、R個の帯域の、Rを“2”に限定するものではない)。
本実施形態では、入力される画像のフレーム周波数をN倍し(あるいはN個のサブフレームに分けて)、かつ入力される画像をR個の空間周波数の帯域に分けても同じことが一般的に成り立つための条件を説明する。
まず、Nに関しては2に限定せず、3以上にしても同じことが成り立つことは明白である。むしろ本発明の用件を満たすには、Nは大きい方が配分の自由度が高く有利である。
またRについては、入力画像をR個の空間周波数帯域に分けたとき、隣接する2帯域(すなわち例えばJとJ+1)において、ここまで説明したR=2の場合の関係が常に成り立つように構成すれば、1番目からR番目の全ての帯域において同じ関係が成り立つ。すなわち、R個の帯域成分が、空間周波数の高い順に、前記帯域成分画像の時間的分散が小さく(言い換えると空間周波数が低い順に時間的分散が大きく)かつ、全ての帯域成分の時間的重心が一致するような関係とする。このとき、本発明における効果、すなわち動きボケが改善し、フリッカーも防止し、尾引きなどの歪みがすくなくなるという効果が成り立つ。このように、本発明においてはN、Rを一般化しても、ここまで説明してきたN=2、R=2のときと同様の効果がもたらされる。
また空間周波数の分離においても、帯域の数を限定するものではない。本第4の実施形態ではN=5である。これはフレーム周波数24Hzの映像(一般に映画の動画像がこれに相当する)を、120Hzの5倍速フレームレートに変換する場合などにあたる。また、帯域の数Rについては、あまり回路規模、計算希望があまり大きくならない例として、R=3で説明する。すなわち空間周波数をHigh、Middle、Lowの3帯域に分離する場合を例にとって説明する。
図26に本第4の実施形態のブロック図を示す。図25に本第4の実施形態における各サブフレームにおいて各空間周波数帯域の表示レベルの補正強度(乗算係数)を示す。
以下、図26における構成の動作を説明する。フィルタ40は、フレームレート24Hzの1フレームの画像データA[i]を入力する。そして、フィルタ40は、入力した画像データを、2つの距離定数d1、d2(例えばd1=3pixel、d2=8pixel)によって三つの空間周波数帯域の成分H,M,Lに分離される。それぞれの成分は、フレームメモリ42乃至43に一旦保存される。
フレーム同期信号5逓倍回路は、入力画像A[i]のフレーム同期信号の5逓倍したclk5を生成し、出力する。
スイッチ45、46それぞれは、画像A[i]のフレーム同期信号でリセットされ、clk5に従って、出力端子(1)→(2)→(3)→(4)→(5)の順に切り替える。
フレームメモリ42に一時保存されたH成分は、clk5に従って5回読み出されスイッチ45に送られる。スイッチ45は、clk5の最初のステージでは、出力端子(1)に接続する。その後、順番に(2),(3),(4),(5)に切り替わる。フレームメモリ43に保存されたM成分も同様に5回読み出され、スイッチ46で、出力端子(1)から(5)に順番に切り替わる。フレームメモリ44に一時保存されたL成分も同様に5回読み出される。
スイッチ45の各出力端子の直後には、図25に示した高周波成分の利得{0、0.5、4.0、0.5、0}に従って乗算する乗算器GH1乃至GH5が設けられている。
同様に、スイッチ46の各出力端子の直後には、図25に示した利得{0、1.5、2.0、1.5、0}に従って乗算する乗算器GH1乃至GH5が設けられている。
つまり、N回読込み(実施形態ではN=5)において、徐々にその利得(乗算係数)が増加し、半数回目(実施形態では3回目)で利得が最大となり、その半数回目以降では徐々に減少する。
フレームメモリ44の直後には利得{1、1、1、1、1}の掛け算器が備わる。低周波成分の利得は、同一であるので、図示の如く、乗算器は1つで良い。
なお、本来フレームメモリ44の直後にも、スイッチ45、46およびその後の乗算と同じ構成が必要だが、この場合は全ての係数が同一であるので、省略してこのような構成にしている。
加算器47乃至49は、夫々の乗算後の映像データを加算する。この結果、clkの第1乃至第5の各ステージにて、以下の式に示すS1[i],S2[i],S3[i],S4[i],S5[i]が、この順番に出力され表示される。
S1[i]=L[i]
S2[i]=L[i]+1.5M[i]+0.5H[i]
S3[i]=L[i]+2M[i]+4H[i]
S4[i]=L[i]+1.5M[i]+0.5H[i]
S5[i]=L[i]
(ここで、[i]は対応する入力画像A[i]のフレーム番号である)
本実施形態では、上述したように複数の空間周波数帯域の成分において、空間周波数が高い成分ほど時間的分散が小さく、(言い換えると空間周波数が低い成分ほど時間的分散が大きく)、かつ、全ての成分が、時間的重心が一致するようにするものである。図25は、その条件に従ったものである。図25に示す係数ではH成分、M成分、L成分とも、左右対称な形であり、時間的重心は中央(第3サブフレーム)の位置にあり全ての成分の時間的重心が一致している。また、H成分の係数が最も、真中のフレームに近い部分に重みが集中している。この集中の程度はH>M>Lの順である。L成分に到っては、平坦になっている。すなわち、空間周波数の高い成分ほど時間的分散が小さく(空間周波数が低い成分ほど大きく)なっていることがわかる。ここで、この時間的分散について図25の係数の配列を例に具体的に表現すると以下のように表現できる。すなわち、Mの係数に対するHの係数の比率は、中央の第3サブフレームに近いほど大きくなり、第3サブフレームでその比率が最大となる。Lの係数に対するMの係数の比率も、中央の第3サブフレームに近いほど大きく、第3サブフレームでその比率が最大になるようになっている。また、Lの係数とHの係数の関係も同様になっている。図25の係数の配列は、このように一般化して表現できる配列の一例を示したものである。
このように表示することにより、画像のなかで移動する像を追従視したとき、観測される像のH成分、M成分、L成分は空間的にずれることなく観測され、従って、ゴーストや尾引きなどの歪みのない像が観測される。
以上、本発明に係る4つの実施形態を説明した。本実施形態では、最終的に得られたN倍速の各フレームの出力先を特に示さなかったが、ホールド型、インパルス側表示装置のいずれでも構わない。また、出力先は、表示装置に限るものではなく、動画像ファイルとして、DVDやハードディスク等の記憶媒体や記憶装置としても構わない。
また、先の説明した第1の実施形態の変形例と同様に、第2の実施形態以降についても、それらと等価の処理をコンピュータプログラムによって実現させることができることは明らかである。
また、通常、コンピュータプログラムは、CD−ROM等のコンピュータ可読記憶媒体に格納されており、それをコンピュータが有する読取装置(CD−ROMドライブ等)にセットし、システムにコピーもしくはインストールすることで実行可能になる。従って。かかるコンピュータ可読記憶媒体も本発明の範疇にあることも明らかである。
第1の実施形態の画像処理装置のブロック構成図である。 第1の実施形態の画像処理装置の他のブロック構成図である。 第1の実施形態における入力フレームと倍速フレームにおける時間軸に沿った映像信号の波形の例を示す図である。 従来の画像処理装置のブロック構成図である。 従来の画像処理装置のブロック構成図である。 従来の画像処理装置のブロック構成図である。 尾引きの発生の原因を説明するための図である。 時間に対して変化のない画像の場合に動きぼけが発生しないことを説明するための図である。 図8の映像に対して追従視を行った場合を想定した映像信号SH、SLを示す図である。 第1の実施形態における追従視を行った場合を想定した映像信号SH、SLを示す図である。 従来例の追従視波形を示す図である。 第1の実施形態における追従視波形を示す図である。 第2の実施形態におけるホールド型の表示装置におけるサブフレームSH、SLの輝度の推移を示す図である。 第2の実施形態におけるインパルス型の表示装置におけるサブフレームSH、SLの輝度の推移を示す図である。 従来のホールド型の表示装置におけるフレームの表示タイミングを示す図である。 従来のインパルス型の表示装置におけるフレームの表示タイミングを示す図である。 第2の実施形態の画像処理装置のブロック構成図である。 第2の実施形態の画像処理装置の他のブロック構成図である。 第2の実施形態における適応型多段階(4段階)LPFのブロック構成図である。 第2の実施形態における適応型2段階LPFのブロック構成図である。 第3の実施形態における処理内容を説明するための図である。 第3の実施形態における処理内容を説明するための図である。 第3の実施形態における好ましい処理内容を説明するための図である。 第3の実施形態における好ましい処理内容を説明するための図である。 第4の実施形態の5倍速再生する際の5つのサブフレームにおける、各帯域毎の利得係数を示す図である。 第4の実施形態における画像処理装置のブロック構成図である。 第1の実施形態の変形例であるコンピュータプログラムの処理手順を示すフローチャートである。 第1の実施形態におけるフレーム関係を示す図である。 第1の実施形態におけるサブフレームの分配率を示す図である。 第1の実施形態の変形例である画像処理装置のブロック構成図である。 第2の実施形態における、画像全体にフィルタリング処理を行う適応型多段階(4段階)LPFのブロック構成図である。 第2の実施形態における画像全体にフィルタリング処理を行う適応型2段階LPFのブロック構成図である。

Claims (12)

  1. 単位時間当たりm個のフレームの入力動画像データを、単位時間当たりN(N≧2)倍したN×m個のフレームの出力動画像データとして出力する画像処理装置であって、
    前記入力動画像データのうち、着目したフレームの画像を、空間的な高周波成分画像データと空間的な低周波成分画像データとに分離するフィルタ手段と、
    前記フィルタ手段で得られた各空間的な周波数成分の画像データを一時的に記憶する記憶手段と、
    前記記憶手段に記憶された前記高周波成分画像データ、及び、前記低周波成分画像データをN回読み出す読み込み手段と、
    前記N回の読込みにおいて、前記高周波成分画像データと前記低周波成分画像データの時間的重心が一致し、かつ、前記高周波成分画像データの時間的分散が前記低周波成分画像データの時間的分散よりも小さくなるように設定された所定の乗算係数を前記高周波成分画像データと前記低周波成分画像データに乗算する乗算手段と、
    前記読み込み手段で前記高周波成分画像データ、及び、前記低周波成分画像データを読み込む度に、前記乗算手段による乗算後の高周波成分画像データと前記低周波成分画像データとを加算する加算手段と、
    前記加算手段による加算した画像データを出力する出力手段と
    を備えることを特徴とする画像処理装置。
  2. 単位時間当たりm個のフレームの動画像データを入力し、単位時間当たり2m個のフレームの動画像データとして出力する画像処理装置であって、
    フレーム単位に画像データを入力する入力手段と、
    入力手段で入力した着目フレームの画像データについて、空間的な高周波成分画像データと空間的な低周波成分画像データとに分離するフィルタ手段と、
    前記入力した画像データと前記高周波成分画像データと前記低周波成分画像データを記憶する記憶手段と、
    前記フィルタ手段で得られた着目フレームの次に入力されるフレームの低周波成分画像データと前記記憶手段に記憶された低周波成分画像データとの平均値である低周波平均画像データを算出する算出手段と、
    前記低周波成分画像データと前記高周波成分画像データとに基づいて作成される高周波強調画像データと、前記算出手段で得られた低周波平均画像データを、フレームごとに順番に出力する出力手段と
    を備えることを特徴とする画像処理装置。
  3. 前記フィルタ手段は、入力した着目しているi番目のフレームの画像データをA[i]、前記画像データA[i]から得られる低周波成分画像データをL[i]、高周波成分画像データをH[i]としたとき、前記高周波強調画像データSH[i]を、次式に従って算出し、
    SH[i]=L[i]+2×H[i]
    前記算出手段は、前記低周波平均画像データであるSL[i]を、次式に従って算出する
    SL[i]={L[i]+L[i+1]}/2
    ことを特徴とする請求項2に記載の画像処理装置。
  4. 前記フィルタ手段は、
    前記入力手段で入力した着目フレームの1つ前のフレームの画像データを記憶するメモリと、
    前記着目フレームの画像データに対し、互いに数珠繋ぎに接続され、下流に位置するほど、濾波する周波数の上限値が低い複数のフィルタで構成される第1のフィルタ手段と、
    前記メモリに格納された、着目フレームの1つ前のフレームの画像データに対し、互いに数珠繋ぎに接続され、下流に位置するほど、濾波する周波数の上限値が低い複数のフィルタで構成される第2のフィルタ手段と、
    前記第1のフィルタ手段の上流からn番目のフィルタで得られた画像データと、前記第2のフィルタ手段の上流からn番目のフィルタで得られた画像データとの差の絶対値が、初めて予め設定された閾値Cn以下となったとき、前記第1のフィルタ手段のn番目のフィルタで得られた画像データを、前記着目フレームの前記低周波画像データとして出力する手段と
    を備えることを特徴とする請求項1又は2に記載の画像処理装置。
  5. 前記第1のフィルタ手段の上流からn番目のフィルタで得られた画像データと、前記第2のフィルタ手段の上流からn番目のフィルタで得られた画像データとの差の絶対値が、予め設定された閾値Cn以上となる領域があったとき、
    前記第1のフィルタ手段の上流から(n+1)番目のフィルタと前記第2のフィルタ手段の上流から(n+1)番目のフィルタは前記領域のみをフィルタ処理することを特徴とする請求項5に記載の画像処理装置。
  6. 更に、前記高周波強調画像データの着目画素の画素値が、画素値の取り得る上限値を超えた場合には、超過分の値を着目画素から減算すると共に、前記着目フレームの前記低周波画像データの中の、着目画素と同じ位置の画素に前記超過分の値を加算し、
    前記高周波強調画像データの着目画素の画素値が、画素値の取り得る下限値を下回る場合には、前記着目画素の画素値を前記下限値にし、着目画素の画素値を前記下限値とするのに要する値を、前記低周波画像データの中の着目画素と同じ位置の画素からに減算することで、
    前記高周波強調画像データ、前記算出手段で得られた前記低周波画像データを補正する補正手段を備え、
    前記出力手段は、前記補正手段の補正後の高周波強調画像データ、低周波画像データを出力することを特徴とする請求項1又は2に記載の画像処理装置。
  7. 単位時間当たりm個のフレームの入力動画像データを、単位時間当たりN(N≧2)倍したN×m個のフレームの出力動画像データとして出力する画像処理装置であって、
    前記入力動画像データのうち、着目したフレームの画像データから、R個(R≧2)の空間周波数帯域の成分画像に分離するフィルタ手段と
    前記フィルタ手段で得られたR個の成分画像データを一時的に記憶する記憶手段と、
    前記記憶手段に記憶されたR個の成分画像データをN回読み出す読み込み手段と、
    前記N回の読込みにおいて、前記R個の成分画像データの時間的重心が一致し、かつ、前記R個の成分画像データの時間的分散が、前記空間周波数が高い成分画像ほど小さくなるように設定された所定の乗算係数を前記R個の成分画像データにそれぞれ乗算する乗算手段と、
    前記読み込み手段で前記R個の空間周波数帯域成分の画像データを読み込む度に、前記乗算手段による乗算後の前記R個の空間周波数帯域成分の画像データを加算する加算手段と、
    前記加算手段による合算した画像データを出力する出力手段と
    を備えることを特徴とする画像処理装置。
  8. 単位時間当たりm個のフレームの入力動画像データを、単位時間当たりN(N≧2)倍したN×m個のフレームの出力動画像データとして出力する画像処理装置の制御方法であって、
    前記入力動画像データのうち、着目したフレームの画像データから、空間的な高周波成分画像データと空間的な低周波成分画像データとに分離するフィルタ工程と、
    前記フィルタ工程で得られた各空間的な周波数成分の画像データを一時的に記憶手段に格納する工程と、
    前記記憶手段に記憶された前記高周波成分画像データ、及び、前記低周波成分画像データをN回読み出す読み込み工程と、
    前記N回の読込みにおいて、前記高周波成分画像データと前記低周波成分画像データの時間的重心が一致し、かつ、前記高周波成分画像データの時間的分散が前記低周波成分画像データの時間的分散よりも小さくなるように設定された所定の乗算係数を前記高周波成分画像データと前記低周波成分画像データに乗算する乗算工程と、
    前記読み込み工程で前記高周波成分画像データ、及び、前記低周波成分画像データを読み込む度に、前記乗算工程による乗算後の高周波成分画像データと前記低周波成分画像データとを加算する加算工程と、
    前記加算工程において加算した画像データを出力する出力工程と
    を備えることを特徴とする画像処理装置の制御方法。
  9. 単位時間当たりm個のフレームの動画像データを入力し、単位時間当たり2m個のフレームの動画像データとして出力する画像処理装置の制御方法であって、
    フレーム単位に画像データを入力する入力工程と、
    入力工程で入力した着目フレームの画像データについて、空間的な高周波成分画像データと空間的な低周波成分画像データとに分離するフィルタ工程と、
    前記着目フレームの1つ前のフレームの低周波成分画像データを記憶手段に格納する工程と、
    前記フィルタ工程で得られた着目フレームの次に入力されるフレームの低周波成分画像データと、前記記憶手段に記憶された低周波成分画像データとの平均値である、低周波平均画像データを算出する算出工程と、
    前記入力工程で入力した低周波成分画像データと高周波成分画像データとに基づいて作成される高周波強調画像データと、前記算出工程で得られた低周波平均画像データを、フレームごとに順番に出力する出力工程と
    を備えることを特徴とする画像処理装置の制御方法。
  10. 単位時間当たりm個のフレームの入力動画像データを、単位時間当たりN(N≧2)倍したN×m個のフレームの出力動画像データとして出力する画像処理装置の制御方法であって、
    前記入力動画像データのうち、着目したフレームの画像データから、R個(R≧2)の空間周波数帯域の成分画像に分離するフィルタ工程と
    前記フィルタ工程で得られたR個の成分画像データを一時的に記憶手段に格納する工程と、
    前記記憶手段に記憶されたR個の成分画像データをN回読み出す読み込み工程と、
    前記N回の読込みにおいて、前記R個の成分画像データの時間的重心が一致し、かつ、前記R個の成分画像データの時間的分散が、前記空間周波数が高い成分画像ほど小さくなるように設定された所定の乗算係数を前記R個の成分画像データにそれぞれ乗算する乗算工程と、
    前記読み込み工程で前記R個の空間周波数帯域成分の画像データを読み込む度に、前記乗算工程による乗算後の前記R個の空間周波数帯域成分の画像データを加算する加算工程と、
    前記加算工程による加算した画像データを出力する出力工程と
    を備えることを特徴とする画像処理装置の制御方法。
  11. コンピュータが読込み実行することで、前記コンピュータを、請求項1乃至7のいずれか1項に記載の画像処理装置として機能させることを特徴とするコンピュータプログラム。
  12. 請求項11に記載のコンピュータプログラムを格納したことを特徴とするコンピュータ可読記憶媒体。
JP2007207181A 2007-08-08 2007-08-08 映像処理装置及びその制御方法 Expired - Fee Related JP5080899B2 (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
JP2007207181A JP5080899B2 (ja) 2007-08-08 2007-08-08 映像処理装置及びその制御方法
US12/186,582 US8421917B2 (en) 2007-08-08 2008-08-06 Image processing apparatus and method of controlling the same
CN2008101349245A CN101365054B (zh) 2007-08-08 2008-08-07 图像处理设备及其控制方法
RU2008132628/09A RU2384006C1 (ru) 2007-08-08 2008-08-07 Устройство обработки изображений и способ управления устройством обработки изображений
EP08162116.1A EP2023315B1 (en) 2007-08-08 2008-08-08 Image processing apparatus and method of controlling the same
KR1020080078178A KR100979837B1 (ko) 2007-08-08 2008-08-08 화상 처리 장치 및 그 제어 방법
US13/797,316 US8842220B2 (en) 2007-08-08 2013-03-12 Image processing apparatus and method of controlling the same
US14/453,884 US9485457B2 (en) 2007-08-08 2014-08-07 Image processing apparatus and method of controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007207181A JP5080899B2 (ja) 2007-08-08 2007-08-08 映像処理装置及びその制御方法

Publications (3)

Publication Number Publication Date
JP2009044460A true JP2009044460A (ja) 2009-02-26
JP2009044460A5 JP2009044460A5 (ja) 2010-09-16
JP5080899B2 JP5080899B2 (ja) 2012-11-21

Family

ID=39817027

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007207181A Expired - Fee Related JP5080899B2 (ja) 2007-08-08 2007-08-08 映像処理装置及びその制御方法

Country Status (6)

Country Link
US (3) US8421917B2 (ja)
EP (1) EP2023315B1 (ja)
JP (1) JP5080899B2 (ja)
KR (1) KR100979837B1 (ja)
CN (1) CN101365054B (ja)
RU (1) RU2384006C1 (ja)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010079669A1 (en) * 2009-01-09 2010-07-15 Canon Kabushiki Kaisha Moving image processing apparatus and moving image processing method
JP2010175737A (ja) * 2009-01-28 2010-08-12 Canon Inc 動画像処理装置および動画像処理方法、ならびに、プログラムおよび記録媒体
JP2010246035A (ja) * 2009-04-09 2010-10-28 Canon Inc フレームレート変換装置及びフレームレート変換方法
JP2010243608A (ja) * 2009-04-01 2010-10-28 Canon Inc 画像処理装置、画像処理方法
JP2010283695A (ja) * 2009-06-05 2010-12-16 Canon Inc 画像処理装置、画像処理方法
JP2010286568A (ja) * 2009-06-09 2010-12-24 Canon Inc 画像処理装置、画像処理方法
JP2011017936A (ja) * 2009-07-09 2011-01-27 Canon Inc 画像表示装置及びその制御方法
JP2011033707A (ja) * 2009-07-30 2011-02-17 Canon Inc 画像処理装置及びその制御方法
JP2011081150A (ja) * 2009-10-06 2011-04-21 Canon Inc 画像処理装置、画像処理方法
JP2011090162A (ja) * 2009-10-22 2011-05-06 Canon Inc 画像処理装置およびその制御方法
JP2011097475A (ja) * 2009-10-30 2011-05-12 Canon Inc 画像処理装置およびその制御方法
JP2011141497A (ja) * 2010-01-08 2011-07-21 Canon Inc 映像処理装置及び方法
JP2012128394A (ja) * 2010-11-22 2012-07-05 Canon Inc 画像表示装置及びその制御方法
JP2012169784A (ja) * 2011-02-10 2012-09-06 Canon Inc 画像処理装置、画像処理方法
JP2013239784A (ja) * 2012-05-11 2013-11-28 Canon Inc 画像処理装置及びその制御方法
JP2014011501A (ja) * 2012-06-27 2014-01-20 Canon Inc 画像処理装置、画像処理方法
US8830344B2 (en) 2011-05-11 2014-09-09 Canon Kabushiki Kaisha Distortion correction processing apparatus, distortion correction processing method and storage medium
JP2015118283A (ja) * 2013-12-18 2015-06-25 キヤノン株式会社 映像表示装置、映像表示装置の制御方法及びプログラム
KR20160022450A (ko) * 2014-08-19 2016-03-02 삼성디스플레이 주식회사 표시 패널의 구동 방법 및 이를 수행하는 표시 장치
US9756225B2 (en) 2013-11-27 2017-09-05 Canon Kabushiki Kaisha Image-processing device and control method thereof
JP2018081305A (ja) * 2016-11-14 2018-05-24 三星ディスプレイ株式會社Samsung Display Co.,Ltd. 表示装置及びその駆動方法

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4586052B2 (ja) * 2007-08-08 2010-11-24 キヤノン株式会社 画像処理装置及びその制御方法
JP5080899B2 (ja) 2007-08-08 2012-11-21 キヤノン株式会社 映像処理装置及びその制御方法
WO2009034757A1 (ja) * 2007-09-14 2009-03-19 Sharp Kabushiki Kaisha 画像表示装置および画像表示方法
JP5229148B2 (ja) * 2009-07-28 2013-07-03 ソニー株式会社 撮像素子、撮像装置、信号処理方法及びプログラム
JP5451319B2 (ja) * 2009-10-29 2014-03-26 キヤノン株式会社 画像処理装置、画像処理方法、プログラム及び記憶媒体
KR101626742B1 (ko) * 2009-12-31 2016-06-03 엘지디스플레이 주식회사 멀티 영상 표시 시스템
US8736711B2 (en) * 2012-03-19 2014-05-27 Htc Corporation Camera with anti-flicker capability and image capturing method with anti-flicker capability
RU2601262C2 (ru) * 2012-10-17 2016-10-27 Родэ Унд Шварц Гмбх Унд Ко. Кг Способ и устройство широкополосной связи с высоким уровнем (гальванической) развязки
US9041864B2 (en) * 2012-11-19 2015-05-26 Nokia Technologies Oy Method and apparatus for temporal stabilization of streaming frames
WO2015163317A1 (ja) * 2014-04-22 2015-10-29 日本電信電話株式会社 映像表示装置、映像投影装置、動的錯覚呈示装置、映像生成装置、それらの方法、データ構造、プログラム
US9875524B2 (en) 2015-01-16 2018-01-23 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and computer-readable storage medium
US11120771B2 (en) 2019-01-04 2021-09-14 Ati Technologies Ulc Frame-rate based illumination control at display device
CN110691272B (zh) * 2019-10-18 2021-08-10 四川长虹电器股份有限公司 提升图像显示效果及视频播放效果的方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0670288A (ja) * 1992-08-20 1994-03-11 Hitachi Ltd テレビ信号の信号処理方法
JP2006184896A (ja) * 2004-12-02 2006-07-13 Seiko Epson Corp 画像表示方法及び装置、並びにプロジェクタ
US20060227249A1 (en) * 2005-04-11 2006-10-12 Samsung Electronics Co., Ltd. Display apparatus and control method thereof
JP2007304204A (ja) * 2006-05-09 2007-11-22 Sony Corp 画像表示装置、信号処理装置、および画像処理方法、並びにコンピュータ・プログラム
JP2007304205A (ja) * 2006-05-09 2007-11-22 Sony Corp 画像表示装置、信号処理装置、および画像処理方法、並びにコンピュータ・プログラム
JP2009042482A (ja) * 2007-08-08 2009-02-26 Canon Inc 画像処理装置及びその制御方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69536083D1 (de) * 1994-04-20 2010-08-05 Oki Electric Ind Co Ltd Gerät und Verfahren zur Kodierung und Dekodierung von Bildern unter Verwendung einer Kantensynthese und einer Wavelet-Rücktransformation
US6442203B1 (en) * 1999-11-05 2002-08-27 Demografx System and method for motion compensation and frame rate conversion
KR100708091B1 (ko) 2000-06-13 2007-04-16 삼성전자주식회사 양방향 움직임 벡터를 이용한 프레임 레이트 변환 장치 및그 방법
JP4040826B2 (ja) * 2000-06-23 2008-01-30 株式会社東芝 画像処理方法および画像表示システム
US7116372B2 (en) * 2000-10-20 2006-10-03 Matsushita Electric Industrial Co., Ltd. Method and apparatus for deinterlacing
JP2002351382A (ja) 2001-03-22 2002-12-06 Victor Co Of Japan Ltd ディスプレイ装置
JP4198550B2 (ja) 2002-09-10 2008-12-17 株式会社東芝 フレーム補間方法およびこのフレーム補間方法を用いた装置
JP4175124B2 (ja) * 2003-01-24 2008-11-05 ソニー株式会社 画像信号処理装置
JP4220284B2 (ja) 2003-03-28 2009-02-04 株式会社東芝 フレーム補間方法、装置及びこれを用いた画像表示システム
JP4511842B2 (ja) * 2004-01-26 2010-07-28 パナソニック株式会社 動きベクトル検出装置及び動画撮影装置
JP4548065B2 (ja) 2004-09-24 2010-09-22 日本ビクター株式会社 画像処理装置
KR100634731B1 (ko) * 2005-01-11 2006-10-16 엘지전자 주식회사 플라즈마 디스플레이 패널의 화상처리 장치 및 화상처리방법
JP4538358B2 (ja) 2005-03-30 2010-09-08 パイオニア株式会社 画像処理装置
US8547997B2 (en) * 2005-04-20 2013-10-01 Jupiter Systems Capture node for use in an audiovisual signal routing and distribution system
JP4304528B2 (ja) * 2005-12-01 2009-07-29 ソニー株式会社 画像処理装置および画像処理方法
JP4746514B2 (ja) * 2006-10-27 2011-08-10 シャープ株式会社 画像表示装置及び方法、画像処理装置及び方法
US8098333B2 (en) * 2007-06-29 2012-01-17 Seiko Epson Corporation Phase shift insertion method for reducing motion artifacts on hold-type displays
JP5080899B2 (ja) 2007-08-08 2012-11-21 キヤノン株式会社 映像処理装置及びその制御方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0670288A (ja) * 1992-08-20 1994-03-11 Hitachi Ltd テレビ信号の信号処理方法
JP2006184896A (ja) * 2004-12-02 2006-07-13 Seiko Epson Corp 画像表示方法及び装置、並びにプロジェクタ
US20060227249A1 (en) * 2005-04-11 2006-10-12 Samsung Electronics Co., Ltd. Display apparatus and control method thereof
JP2007304204A (ja) * 2006-05-09 2007-11-22 Sony Corp 画像表示装置、信号処理装置、および画像処理方法、並びにコンピュータ・プログラム
JP2007304205A (ja) * 2006-05-09 2007-11-22 Sony Corp 画像表示装置、信号処理装置、および画像処理方法、並びにコンピュータ・プログラム
JP2009042482A (ja) * 2007-08-08 2009-02-26 Canon Inc 画像処理装置及びその制御方法

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8749708B2 (en) 2009-01-09 2014-06-10 Canon Kabushiki Kaisha Moving image processing apparatus and moving image processing method
JP2010160440A (ja) * 2009-01-09 2010-07-22 Canon Inc 動画像処理装置および動画像処理方法
WO2010079669A1 (en) * 2009-01-09 2010-07-15 Canon Kabushiki Kaisha Moving image processing apparatus and moving image processing method
JP2010175737A (ja) * 2009-01-28 2010-08-12 Canon Inc 動画像処理装置および動画像処理方法、ならびに、プログラムおよび記録媒体
JP2010243608A (ja) * 2009-04-01 2010-10-28 Canon Inc 画像処理装置、画像処理方法
JP2010246035A (ja) * 2009-04-09 2010-10-28 Canon Inc フレームレート変換装置及びフレームレート変換方法
JP2010283695A (ja) * 2009-06-05 2010-12-16 Canon Inc 画像処理装置、画像処理方法
JP2010286568A (ja) * 2009-06-09 2010-12-24 Canon Inc 画像処理装置、画像処理方法
JP2011017936A (ja) * 2009-07-09 2011-01-27 Canon Inc 画像表示装置及びその制御方法
JP2011033707A (ja) * 2009-07-30 2011-02-17 Canon Inc 画像処理装置及びその制御方法
JP2011081150A (ja) * 2009-10-06 2011-04-21 Canon Inc 画像処理装置、画像処理方法
JP2011090162A (ja) * 2009-10-22 2011-05-06 Canon Inc 画像処理装置およびその制御方法
JP2011097475A (ja) * 2009-10-30 2011-05-12 Canon Inc 画像処理装置およびその制御方法
JP2011141497A (ja) * 2010-01-08 2011-07-21 Canon Inc 映像処理装置及び方法
JP2012128394A (ja) * 2010-11-22 2012-07-05 Canon Inc 画像表示装置及びその制御方法
US8625913B2 (en) 2011-02-10 2014-01-07 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP2012169784A (ja) * 2011-02-10 2012-09-06 Canon Inc 画像処理装置、画像処理方法
US8830344B2 (en) 2011-05-11 2014-09-09 Canon Kabushiki Kaisha Distortion correction processing apparatus, distortion correction processing method and storage medium
JP2013239784A (ja) * 2012-05-11 2013-11-28 Canon Inc 画像処理装置及びその制御方法
JP2014011501A (ja) * 2012-06-27 2014-01-20 Canon Inc 画像処理装置、画像処理方法
US9756225B2 (en) 2013-11-27 2017-09-05 Canon Kabushiki Kaisha Image-processing device and control method thereof
JP2015118283A (ja) * 2013-12-18 2015-06-25 キヤノン株式会社 映像表示装置、映像表示装置の制御方法及びプログラム
KR20160022450A (ko) * 2014-08-19 2016-03-02 삼성디스플레이 주식회사 표시 패널의 구동 방법 및 이를 수행하는 표시 장치
KR102238496B1 (ko) 2014-08-19 2021-04-12 삼성디스플레이 주식회사 표시 패널의 구동 방법 및 이를 수행하는 표시 장치
JP2018081305A (ja) * 2016-11-14 2018-05-24 三星ディスプレイ株式會社Samsung Display Co.,Ltd. 表示装置及びその駆動方法
JP7152850B2 (ja) 2016-11-14 2022-10-13 三星ディスプレイ株式會社 表示装置及びその駆動方法

Also Published As

Publication number Publication date
US20090040374A1 (en) 2009-02-12
US9485457B2 (en) 2016-11-01
US8842220B2 (en) 2014-09-23
EP2023315A2 (en) 2009-02-11
EP2023315B1 (en) 2013-04-10
KR20090015873A (ko) 2009-02-12
CN101365054A (zh) 2009-02-11
US8421917B2 (en) 2013-04-16
US20130188093A1 (en) 2013-07-25
EP2023315A3 (en) 2011-03-09
JP5080899B2 (ja) 2012-11-21
CN101365054B (zh) 2011-04-06
US20140340578A1 (en) 2014-11-20
KR100979837B1 (ko) 2010-09-02
RU2384006C1 (ru) 2010-03-10

Similar Documents

Publication Publication Date Title
JP5080899B2 (ja) 映像処理装置及びその制御方法
JP4586052B2 (ja) 画像処理装置及びその制御方法
JP4306671B2 (ja) 動画像表示装置および動画像表示方法
EP2262255B1 (en) Image processing apparatus and image processing method
JP2006337448A (ja) 画像表示装置
JP2007121704A (ja) 動画像表示装置および動画像表示方法
WO2010143330A1 (ja) 駆動装置,駆動方法,画像表示装置,テレビジョン受像機,ディスプレイモニター装置,プログラム,及び,記録媒体
JP2011234342A (ja) 画像処理装置及びその制御方法
KR101192648B1 (ko) 영상 신호 처리 장치 및 영상 신호 처리 방법
JP2010028575A (ja) 画像処理装置及びその制御方法
JP5249166B2 (ja) 画像処理装置、画像処理方法
JP5411713B2 (ja) 映像処理装置及び方法
US10198982B2 (en) Image processing apparatus, method thereof, and image display apparatus
JP5998982B2 (ja) 映像信号処理装置及び方法
JPWO2006057403A1 (ja) 画像処理装置
JP2013059092A (ja) 画像処理装置及びその制御方法
JP2009162955A (ja) 画像表示装置
JP2005338864A (ja) 画像表示装置
JP2012032549A (ja) 画像処理装置、画像処理方法

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100803

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100803

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120323

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120803

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120831

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150907

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150907

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees