JP2002503360A - 2つの画像系列の差の可視性を評価する方法および装置 - Google Patents

2つの画像系列の差の可視性を評価する方法および装置

Info

Publication number
JP2002503360A
JP2002503360A JP53533797A JP53533797A JP2002503360A JP 2002503360 A JP2002503360 A JP 2002503360A JP 53533797 A JP53533797 A JP 53533797A JP 53533797 A JP53533797 A JP 53533797A JP 2002503360 A JP2002503360 A JP 2002503360A
Authority
JP
Japan
Prior art keywords
image
input image
pyramid
contrast
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP53533797A
Other languages
English (en)
Other versions
JP4047385B2 (ja
Inventor
ブリル,マイケル,ヘンリー
ルビン,ジェフリー
ヴリーズ,アアルバート デ
フィナード,オルガ
Original Assignee
サーノフ コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by サーノフ コーポレイション filed Critical サーノフ コーポレイション
Publication of JP2002503360A publication Critical patent/JP2002503360A/ja
Application granted granted Critical
Publication of JP4047385B2 publication Critical patent/JP4047385B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/154Measured or subjectively estimated visual quality after decoding, e.g. measurement of distortion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

(57)【要約】 2つの入力画像系列の差の可視性を評価する方法および装置。本装置は、網膜サンプリング部(330)、複数の時間フィルタ(334、335)および空間識別部(240)を有する視覚識別測定装置(112)を備える。網膜サンプリング部(330)は複数の変換を入力画像系列(310、320)に行い、人間の視覚の画像処理特性をシミュレートする。時間フィルタ(334、335)は網膜画像系列を2つの時間チャネルに分離し、これらのチャネルは低域時間応答および帯域時間応答を発生させる。空間識別部(240)は空間処理を時間応答に行い、画像計量(250)を生成し、その画像計量を用いて2つの入力画像系列の差の可視性を評価する。

Description

【発明の詳細な説明】 2つの画像系列の差の可視性を評価する方法および装置 技術分野 本発明は、撮像システムの性能を評価するとともに向上させる装置およびそれ に伴う方法に関する。特に、本発明は、2つの画像系列の差の可視性を評価する 方法および装置に関する。 背景技術 多くの場合、撮像システム(imaging systems)の設計者は、物理的パラメータ 、例えば、圧縮/非圧縮(コーデック)処理におけるコントラスト、解像度およ びビットレート効率によって、設計の性能を評価する。これらのパラメータは容 易に測定できるが、正確な性能評価基準ではないことがある。その理由は、一般 に、撮像システムのエンドユーザは、主観的な視覚機能、例えば、人為要素(art ifacts)または歪みの可視性、場合によっては、画像、例えば、MRI(磁気共 鳴像)画像またはCAT(コンピュータ支援型断層撮影像)走査画像に腫瘍(tum or)が存在するような情報を示す画像特徴の向上により大きな関心を持っている からである。 例えば、2つの異なるコーデックアルゴリズムを用いて入力画像を処理し、2 つの異なるコーデック画像を撮影することができる。コーデック画像の忠実度の 測度(measure)がパラメータに純粋に基づいている場合、例えば、人間の視覚の 精神物理学的特性を一切考慮せず、両方のコーデック画像について平均平方誤差 (MSE)計算を行うような場合、MSE値が低いコーデック画像は、実際に、 MSE値が高いコーデック画像の歪みより著しく目立つ歪みを含むことがある。 長年にわたり、種々の人間の視覚機能モデルを用いて、撮像システムの設計を 改良してきた。1つのモデル(カールソン・コーエンモデルとして知られる)は 、一次元パワースペクトルを多数の離散隣接周波数帯に分割することによって、 入力画像を分解する。次に、各周波数帯内の振幅値の積分は、入力値が小さい場 合 は加速して値が大きい場合は圧縮状態の静的非線形性の影響を受ける。1対の画 像の一方から他方への処理の出力の変化は、2つの画像の差の可視性の簡単な知 覚測度を提供する。 同様の方法は平方根積分モデル(SQRI)である。このモデルでは、別個の 周波数選択帯を、表示の変調伝達関数と人間の観察者のコントラスト感度関数の 算術的近似値との比に基づいて、空間周波数全体にわたって1つの積分値に置換 する。SQRIは多くの様々な表示評価の問題にうまく適用されてきたが、この モデルおよび他の基本的な精神物理学的モデルは空間的に一次元である。すなわ ち、これらのモデルは一次元の空間変動に対する感度しか予測できない。 したがって、本技術分野では、撮像システムの主観的視覚機能に対する物理的 パラメータの影響を評価する方法および装置を必要とする。特に、2つの系列の 動画像の差の可視性を評価する方法および装置を必要とする。 発明の開示 本発明は、2つの入力画像系列の差の可視性を評価する方法および装置である 。本装置は、網膜サンプリング部、複数の時間フィルタおよび空間識別部を有す る視覚識別測定装置(measure)を備える。 網膜サンプリング部は複数の変換を入力画像系列に行い、人間の視覚の画像処 理特性をシミュレートする。網膜サンプリング部は入力画像を網膜画像に変換す る。さらに、クロミナンス成分が入力画像に存在する場合、入力画像系列にさら に変換を行い、クロミナンス成分における差の可視性を評価する。 次に、時間フィルタはそれぞれの網膜画像系列を2つの時間チャネルに分離し 、これらのチャネルは低域(lowpass)時間応答および帯域(bandpass)時間応答を 発生させることによって、(クロミナンス成分が入力画像系列においてアドレス 指定された場合)全部で4つの時間応答を発生させる。次に、空間識別部は空間 処理を画像に行い、画像計量(image metric)を生成し、この画像計量は2つの入 力画像系列の差の可視性を示す。 図面の簡単な説明 本発明が教示することは、以下の詳細な説明を添付図面と照合して考察するこ とによって容易に理解できるであろう。 図1は、本発明の信号処理システムのブロック図を示す。 図2は、視覚識別測定装置の構造の簡略ブロック図を示す。 図3は、視覚識別測定装置の構造の詳細ブロック図を示す。 図4は、視覚識別測定装置の網膜サンプリング部のブロック図を示す。 図5は、固定値の境界線の一例を示す。 図6は、エッジ制御された境界線の一例を示す。 図7は、コントラストピラミッドを生成する方法のフローチャートを示す。 図8は、視覚識別の色付加の実施の形態を実施する方法のフローチャートを示 す。 図9は、本発明の指向性フィルタのブロック図を示す。 図10は、画像計量を生成する方法のフローチャートを示す。 図11は、2つの入力画像系列の差の可視性を評価する方法のフローチャート を示す。 理解を容易にするため、同一の符号を用いて、可能な場合、図面に共通する同 一の構成要素を示した。 発明を実施するための最良の形態 図1は、本発明を用いる信号処理システム100を示す。信号処理システムは 、信号受信部130と、信号処理部110と、入力/出力装置120とを備える 。 信号受信部130を用いて、入力データ信号、例えば、撮像装置からの画像系 列を受信する。信号受信部130はデータ受信部132およびデータ記憶部13 4を含む。信号受信部130は、多くの装置、例えば、モデムおよびAD変換器 を含んでもよい。モデムは公知の装置であり、変調器および復調器を備え、2値 (binary)データを電話線または他の通信チャネルで送受信する。一方、AD変換 器はアナログ信号をディジタル形式に変換する。このため、信号受信部130は 入力信号を「オン・ライン」または「リアルタイム」に受信し、必要であれば、 入力信号をディジタル形式に変換する。このように、信号受信部130は、1つ 以上の装置、例えば、コンピュータ、カメラ、ビデオレコーダまたは種々の医療 用撮像装置から信号を受信する。 データ記憶部134を用いて、データ受信部132が受信した入力信号を記憶 する。データ記憶部134は、1つ以上の装置、例えば、ディスクドライブ、半 導体メモリまたは他の記憶媒体を含む。これらの記憶装置は、入力信号を遅延さ せるか、または、入力信号を単に記憶して、次の処理に備える方法を提供する。 好適な実施の形態では、信号処理部110は、視覚識別測定装置(VDM)1 12、中央処理装置(CPU)114およびメモリ116を有する汎用コンピュ ータを備え、画像処理を容易にする。視覚識別測定装置112は、種々のフィル タから構成され、通信チャネルを介してCPUに接続されている物理的装置でよ い。代替例として、視覚識別測定装置112は、メモリ116から呼び出されて 信号処理部のCPUによって実行されるソフトウェアアプリケーションとして実 施されてもよい。 また、信号処理部110は、複数の入力/出力装置120、例えば、キーボー ド、マウス、ビデオモニタ、または、ハードディスクドライブまたはコンパクト ディスクドライブを含むがこれらに限定されない記憶装置に接続されている。入 力装置を用いて、入力(制御信号およびデータ)を信号処理部に送り、入力画像 を処理する。一方、出力装置を用いて、その結果を表示または記録する。 視覚識別測定装置112は2つの系列または流れの入力画像の差の可視性を評 価し、客観的な「最小可知差異(just-noticeable difference)」(JND)画像 計量を生成する。この計量は、JND値、各入力画像対毎のJND写像、または 、確立予測として表すことができる。次に、CPUはJND画像計量を用い、デ ィジタル画像圧縮、画質測定および目的検出を含むがこれらに限定されない種々 の処理の最適化を行う。 図2は視覚識別測定装置112の構造の簡略ブロック図を示し、視覚識別測定 装置112では、2つの入力画像系列210および220を処理し、画像計量2 50を生成する。視覚識別測定装置は、時間フィルタリング部230および空間 識別器240を備える。 好適な実施の形態では、刺激は、2つのディジタル化画像系列、すなわち、入 力画像系列A210および入力画像系列B220である。例えば、系列Aは元の 画像(例えば、基準画像系列)から構成され、系列Bは系列Aのコーデック処理 画像(例えば、試験画像系列)から構成される。入力系列は、表示装置の表面上 の間隔の狭い点からなる均一な格子をサンプリングする光度計から反射する場合 のように、平面上のサンプリングされた輝度分布の時間フレームを示す。しかし ながら、本発明は2つの入力画像系列のクロミナンス(chrominance)の差も考慮 するように設計されているので、刺激はクロミナンス成分も含む。 時間フィルタリング部230は時間フィルタリングを両方の画像系列に行い、 8つの個別の応答(チャネル)212〜218および222〜228を発生させ る。例えば、入力画像系列210の輝度成分(信号)は、低域時間応答212お よび帯域時間応答214にフィルタリングされる。同様に、入力画像系列210 のクロミナンス成分(信号)は、低域時間応答216および帯域時間応答218 にフィルタリングされる。このため、2つの入力画像系列に対して8つのチャネ ルが形成される。8つの応答は空間識別器240によって受け取られ、画像計量 250を生成し、その画像計量は2つの入力画像系列の差の可視性の測度を提供 する。さらに、任意の網膜サンプリング部(以下、図3に示す)を含み、時間フ ィルタリングの前に入力画像系列の前処理を行うことによって、視覚識別測度の (人間の能力に対する)予測精度をさらに向上させることができる。 図3は、視覚識別測定装置112の構造の詳細ブロック図を示す。視覚識別測 定装置は、任意の網膜サンプリング部330と、複数の時間フィルタ335およ び334と、空間識別部240とを備える。空間識別部(空間識別器)は、複数 のコントラストピラミッドフィルタ340および345と、複数の任意の指向性 フィルタ350と、正規化回路355と、ゲイン制御部360と、トランスデュ ーサ部370と、プーリング部(プーラ)375と、距離部(ディスタンサ)3 80とを備える。 網膜サンプリング部(網膜サンプラ)330は複数の刺激を受け取って処理し 、網膜サンプリングされた画像系列を生成する。すなわち、網膜サンプリング部 は刺激を再びサンプリングし、人間の目のサンプリング処理をシミュレートする 。また、網膜サンプリング部330はさらに処理を行い、ディジタル画像処理の 効 果のために画像系列を準備してもよい。網膜サンプリング部330について、図 4を参照して以下に詳細に説明する。 図4を参照すると、網膜サンプリング部330は、フレームレート調整回路4 10、サンプリング回路420、境界線挿入回路430、平滑/補間回路440 、たたみ込み回路450、整合回路460およびサンプリング回路470を備え る。網膜サンプリング部330を用いて、人間の目のサンプリング処理に近づき ながら、画像を最適なディジタル画像処理ができるようにする。 フレームレート調整回路410は(入力系列210または220からなる)画 像系列405を受け取り、フレームレートが人間の目で処理できる範囲内か否か を判定する。フレームレート調整回路には時間再サンプリング方法が含まれ、画 像系列が人間の目の視覚モデルの現実の処理能力(例えば、12,000フレー ム/秒)を超えるフレーム/秒を含む可能性を示す。 しかしながら、人間の視覚はおよそ0.01秒を超えるフレーム間隔でしか画 像を解像できず、およそ0.01秒以内では、人間の目はほぼ完全な時間積分器 なので光の強度は時間に見合ったものではない。フレームレートが高い場合、フ レームレート調整回路410は、連続する矩形時間窓にわたって、フレームの平 均値(算術平均)を累算し、新しいサブサンプル画素値に到達する。すなわち、 フレームレート調整回路410は、多数のフレームNtにわたって各画素位置毎 に平均画素値を評価することによって元のフレームレートの1/Ntで評価され た新しいフレーム(フレーム調整された画像系列)を計算して、ちょうど良いタ イミングで画像系列を再びサンプリングする。数NtはNf/100の中で最大の 整数とし、ここで、Nfは元のフレーム/秒の数である。好適な実施の形態では 、元のフレームレートが200Hz以上でない場合、再サンプリングを行わない 。 次に、入力画像系列をサンプリング回路420によって調整し、入力画像系列 の入力「画素幾何学形状」と網膜の「受容体幾何学形状」との関係を相関させる 。すなわち、サンプリング回路420は、入力画像の画素間隔、画素の大きさお よび可視距離を、それぞれ、網膜の受容体間隔、受容体の大きさに相関させる。 このため、サンプリング回路420は、観察者から見えるように、各画素毎に定 まった角度を計算する。 特に、サンプリング回路420は、画像の入力画素の幾何学形状、例えば、画 像の物理的大きさ(w×h)、画素の大きさ(m×n)および可視距離d0を評 価する。次に、φ0、すなわち、(表示領域xs内の)画素の元の角度の大きさを 下式(1)のように計算できる。 しかしながら、(領域x内の)それぞれの「網膜画素」は、φr=0.0068 °の角度を定めなければならない。選択されたφrの値は網膜の中心窩の受容体 間の間隔(視角の24〜27秒、C.H.グラハム「視覚および視覚認知(Visi on and Visual Perception)」、Wiley、330頁、1966年参照)に近 い。さらに、0.0068°の選択されたφrの値は、2mの可視距離で見た標 準モニタ上の0.238mmの画素サイズが1つの受容体間の距離を定めるのに 都合がよい。サンプリング回路420は入力画像を再びサンプリングし、φ0= φrにする。m/n≠w/hの場合、再サンプリングは幅および高さが異なる。 例えば、d0=46cm、m=n=512、w=h=8cmの場合、φ0=0.0 1941になる。φ0>φrなので、画像にサンプリングを行ってはいけない。こ の場合、512×512の格子に対して係数0.01941/0.0068によ ってサンプリングを行わず、新しい格子サイズ1461×1461の画素または およそ10°の視角を形成する。 次に、境界線挿入回路430は入力画像系列を受け取り、固定幅境界線を入力 画像に追加し、後のフィルタリングおよびピラミッド処理において境界の影響( 人為的な高コントラストエッジ)を防ぐ。すなわち、画像のエッジが画像に対す る汚染、例えば、「ラップアラウンド(wraparound)」エラーを引き起こす場合、 入力画像系列には多くのたたみ込みが行われる。このため、境界線幅を、コント ラストピラミッドの最低解像度層の解像セルの幅に設定する(以下に説明する) 。2種類の境界線、すなわち、固定値境界線およびエッジ値制御境界線について 、それぞれ、図5および図6に示すように説明できる。 図5は、画像530のエッジ510を囲む1つの固定値境界線520の切り欠 き図を示す。境界線520内の「s」で示される固定値は、画像のエッジの値に 関係なく選択される。 これに対して、図6は画像630のエッジ610を囲むェッジ制御境界線62 0の切り欠き図を示す。境界線620内の値は画像のエッジの値に対応するよう に選択され、それによって、画像のエッジを所定幅だけ延長する。 図4に戻ると、入力画像系列を平滑/補間回路(サンプリング回路)440に よって調整し、(画素および受容体の分数部分を含む)画素/受容体比を考慮す る。すなわち、平滑/補間回路440は、画素数が受容体数を超える状態、逆に 、受容体数が画素数を超える状態を示す。 特に、平滑/補間回路440は、関数hを用いて水平方向および垂直方向にそ れぞれ(サンプリング間隔φ0の)各入力画像を補間または平滑化し、間隔0. 5φr(感光体のサンプリング間隔の半分)で入力画像を再びサンプリングし、 「平滑化/補間画像系列」を生成する。一次元において、hはハミング窓sin c関数(重み関数)であり、下式(2)により表される。 zが−4〜4の場合、この間隔を超えてh(z)=0になる。 重み関数hは、0.5φrがφ0を上回るか下回るかによって、異なって用いら れる。0.5φrがφ0を超える場合、hは、主に、入力画像に用いられた平滑化 フィルタ(ダウンサンプリング)であり、それによって、すべての入力画素が出 力画素に確かに寄与する。 これに対して、0.5φrがφ0未満の場合、hは、主に、点在する入力画素値 の補間回路(アップサンプリング)として動作する。したがって、視角(°)に 対するh領域zの関係は、下式(3)に示すように量Rに依存するように確立さ れる。ここで、hの幅は(8*max(0.5φr,φ0))に設定される。Rは必ずし も整数ではないので、分数の画素オフセットもある。また、画素オフセットは非 定常にzに影響を及ぼすため、再サンプリングアルゴリズムは1つのたたみ込み ではない。このような制約によって、2つの特定の実施が行われる。 まず、Rが1未満の場合、入力画像の各画素i毎に、iを中心とする重み関数 hは一連の新しい画素に対する画素iの寄与を判定する。j(i)をiに最も近 い新しい画素の指数として定義する場合、i/R=j−Dとなり、ここで、Dは −0.5〜0.5である。この場合の窓関数hの幅は8φ0なので、zは下式( 4)のように表される。 ここで、kはjから測定した新しい画素の位置である。このため、j+kのとき の新しい画素に対する古い画素iの寄与は、iのときの古い画素値のh((k十 D)R)倍である。 これに対して、Rが1を超える場合、新しい画素j毎に、重み関数hは、すべ ての古い画素iに起因するjに対する寄与を計算する。hの中心はi(j)にあ り、jに最も近い古い画素の指数である。このため、jR=i−Dとなり、ここ で、Dは−0.5〜0.5である。この場合の窓関数hの幅は4φrなので、z は下式(5)のように表される。 ここで、kはiから測定した古い画素の指数である。このため、jのときの新し い画素に対する古い画素i−kの寄与は、i−kのときの古い画素値のh((k −D)/R)倍である。 しかしながら、平滑化/補間関数を実行する前に、重み関数hは、h個のサン プル(R<1のときの出力サンプルおよびR>1のときの入力サンプル)の全幅 の和で割られる。この測定装置によって、確実に、エネルギを平滑化/補間処理 で一定に保つ。 いったん平滑/補間回路440が画像を処理すると、入力画像は、目の光学機 能にょって生じる点拡がりに近い関数を用いて、たたみ込み回路450によって たたみ込み処理され、それによって、たたみ込みされた入力画像系列を生成する 。この関数は下式(6)のように表される。 ここで、ρは(法線を目の光学機能の主線とした画像平面内で測定した)光点か らの(視角で表される)数分の円弧の距離であり、Q(ρ)は最大値に対する距 離ρでの光の強度である。この関数は、G.Westheimer「光学機器と しての目」、知覚および人間の機能ハンドブック(1986年)(G.Westheime r in"The Eye As An Optical Instrument"in Handbook of Perception and Huma n Performance(1986))に示されている。 また、数式(6)を2つの点拡がり関数の積としてほぼ表すことができ、ここ で、一方の係数においてρを網膜座標xで置換し、他方の係数においてρを網膜 座標yで置換する(数分の円弧で表される)。このため、点拡がり関数は積Q( x)Q(y)によって概算され、ここで、「Q()」は数式(6)に表される関 数である。好適な実施の形態では、光拡がり関数は、まず、画像の行(または列 )でたたみ込みされる前に2サンプル長ボックスカー関数で入力画像をたたみ込 みすることによって、実行される。次に、その結果を係数2によってダウンサン プリングし、最後にたたみ込み処理した入力画像を画素間隔φrで生成する。 次に、網膜サンプリング部330は光整合回路460を備えてもよく、整合回 路460は、固定深さが画像深さと整合しない場合、入力画像にさらに演算を行 う。画像深さは目の焦点中心から画像までの実際の距離である。固定深さは観察 者が自身の目を固定する距離である。 画像深さと固定深さの差の変化にともなう有効画像解像度の変化を考慮するた め、幾何光学機能を用いてぼけた円の大きさを計算する。ぼけた円をたたみ込み 入力画像系列に適用することによって、整合入力画像系列を生成する。 固定深さがDF、画面までの可視距離がD、ひとみから網膜までの深さがDi、 ひとみ径がdの場合、ぼけた円の半径rは、Diで割った(Di−Di')の絶対値 のd/2倍でぁる。パラメータDi'は画面の焦点を完全に合わせるひとみから網 膜までの距離であり、ここで、Di'は薄肉レンズの公式(1/Di'=1/Di+ 1/DF−1/D)である。この計算を行うには、ひとみから結像面(すなわち 、網膜)までの距離Di、Westheimer(1986年)によると20. 3mmの距離を知らなければならない。しかしながら、好適な実施の形態では、 画像深さを固定深さと等しくしてコンピュータのオーバーヘッドを簡略化すると 仮定している。 最後に、網膜サンプリング部330は任意のサンブリング回路470を備えて もよく、サンプリング回路470は網膜の中心窩で見ない場合に対する中心窩で 見る場合の効果を考慮する。網膜でサンプリングを行う最高密度の感光体領域は 中心窩であり、固定点を中心にしておよそ2°の範囲に及ぶ。この領域において 、線形感光体密度は1°当たり約120個の網膜円錐体がある。しかしながら、 中心窩領域の奥では、感光体の線形密度は偏心状の略線形関数のように低下する 。 このため、入力画像は、画像が中心窩で見られるかどうかにしたがって、網膜 によって異なった方法でサンプリングされる。このような人間の目のサンプリン グ処理をシミュレートする際、サンブリング回路470は視角1°当たり120 個の画素の密度で入力画像をサンブリングし、「中心窩で見る」場合、512× 512個の画素の「網膜画像」475を生成する。同様に、「中心窩で見ない」 場合のサンプリング密度は下式(7)から計算される。 ここで、dは算出された密度、eは角度の偏心率、kは0.4に設定されたパラ メータであり、この場合、値は、A.Watson「単純空間形態の検出および 認識」、画像の物理的/生物学的処理(1983年)(A.Watson in"Detection And Recognition of Simple Spatial Forms",in Physical and Biological Pr ocessing of Images(1983))に示される精神物理学的データから推定される。 しかしながら、好適な実施の形態では、中心窩で見ると仮定している。 コンピュータのオーバーヘッドを低減するため、好適な実施の形態では、整合 回路460およびサンプリング回路470を実行しない。当業者であれば、網膜 サンプリング部330内部の種々の構成部品を任意に実行するか同様の処理に置 き換え、異なる用途の要求に応えることができることは理解するであろう。この ため、図2の入力系列210および220は元の未処理の入力画像を示すにすぎ ない。または、入力系列210および220は、網膜サンプリング部330の1 工程以上の種々の画像処理工程が行われた網膜画像475を示す。 図3に戻ると、視覚識別測定装置112は複数の時間フィルタ334および3 35を含み、各入力画像系列の輝度成分を2つの異なるチャネルに分離する。同 様に、各入力画像系列のクロミナンス成分も、第2組の時間フィルタ334およ び335を介して2つの異なるチャネルに分離する。このため、2つの入力系列 のそれぞれに時間フィルタリングを行い、図2に示されるように、空間識別器2 40に対する入力として4つの応答を発生させる。 2つの時間フィルタ、すなわち、図3のフィルタh1335およびフィルタh2 334を用いて、各入力系列を低域(持続チャネル)時間応答および帯域(過渡 チャネル)時間応答に分離し、全部で4つの応答を発生させる。基本的な低域お よび帯域形状を維持した状態のまま、分析形式が異なる他の時間フィルタを用い ることができる。 持続チャネルは入力の流れ(画像系列)を時間的にぼやけさせるが、比較的良 好な空間解像度を提供するので効果的である。このため、このチャネルの出力は 、微細な詳細および色計量を見るのに理想的である。逆に、過渡チャネルは入力 の流れを空間的にぼやけさせるが、良好な時間解像度を提供するので、入力画像 系列における動作または色の変化を検出するのに理想的である。 特に、2つの時間フィルタは時間フィルタリングを各入力画像系列に行い、こ れはI(x,t)で表され、下式(8)のように示される2つのフイルタリング された系列Jn(x,t)を生成する。 ここで、nは1または2であり、「*」は時間たたみ込みを示す。好適な実施の 形態では、低域時間フィルタ(持続インパルス応答関数)および帯域時間フィル タ(過渡インパルス応答関数)は、それぞれ、下式(9)および(10)のよう に表すことができる。 ここで、u(t)は単位段階関数[t<0の場合はu(t)=0、他の場合はu (t)=1]、「b」は正の実数、このデフォルト値は84.14Hz、「a」 のデフォルト値は5.2Hzである。Koenderinkおよびvan Doornの「時空コン トラスト検出しきい値面は2モードである」、Optics Letters 4、32〜34頁 (1979年)(Koenderink and van Doorn,"Spatiotemporal Contrast Detec tion Threshold Surface Is Bimodal",Optics Letters 4,32-34(1979))のコ ントラスト感度データを用いる較正は、表1〜3を参照して以下に検討するaお よびbの1組の値を与える。 時間フィルタの実行の1つには量の計算が含まれる。 上式(11)は時間指数j、空間座標xおよび時間段階ΔtとともにJ'n(x, j)の加算によって概算できる。好適な実施の形態では、量Δtを1/30秒( ビデオフレームレート)または1/60秒(ビデオインターレース・フィールド レート)になるように選択する。 持続インパルス応答関数(n=1)の場合、期待される約0.5秒の時間で、 加算は直線(デルタ関数)サンプリング、すなわち、下式(12)によって適切 に表される。 ここで、kは仮指数を示す。引数h1の項0.5Δtは各間隔の中間でリーマン 和を正当化し、負の指数関数h1(t)の立ち上がりに起因する結果を除去する 。 しかしながら、過渡応答(n=2)の期待される時間は、数式(12)のデル タ関数がうまく機能せずアンダーサンプリングを引き起こすような短い時間であ る。過渡応答の場合、時間フィルタは、ON/OFF状態になると、フレームの 時間波形g(t)をモデル化する。次に、画像系列I(x,t)は下式(13) のように表される。 ここで、ID(x,kΔt)はディジタル画素値であり、空間座標xは続行され る。 さらに、数式(13)をこのように表しても一般性は失われないので、数式( 13)を持続チャネル(n=1)に適用できる。このため、数式(11)は下式 (14)のように表される。 上記数式(14)の時間関数は、精度を欠くことなく(フレームレートを含む) いずれのレートでもサンプリングすることができる。一例として、Jnをレート Δt1で時間サンプリングし、t=jΔt1とする。J'n(x,j)は下式(1 5)のように表される。 ここで、数式(16)が示され、 ここで、τ=jΔt1−kΔtとなる。 Hmで表される積分値は、Δtより微細な時間解像度で分析的または数値的に 評価される。このため、液晶表示に適した好適な実施の形態では、関数gを単純 な矩形関数とする。すなわち、0<t<Δtの場合はg(t)=1、他の場合は g(t)=0である。この代入によって、Hmの場合、以下の分析式が導かれる ここで、下式(18)、(19)が表される。 CRTの場合(およびCRTデータに関して以下に説明するような較正手順の 場合も)、g(t)はほぼインパルス関数なので、下式(19a)、(19b) となる。 最後に、数式(15)の無限極限を、H(n)(τ)の有効な支援による有限極 限に置換する。この支援の保存推定値は以下の通りである。すなわち、H(1) (τ)は、τが0〜(1/a)ln(1000)=N(1)Δtの場合、非ゼロ であり、H(2)(τ)は、τが0〜15/b=N(2)Δtの場合、非ゼロであ る。このよ うにN(1)およびN(2)を定義し、(数式(15)、(16)から)τ=j Δt1−kΔtの場合、数式(15)のkは下式(20)によって制約される。 この制約から、数式(15)を下式の有限和の近似値に置換することができる 。ここで、c=Δt1/Δt、N(1)=(aΔt)-1ln(1000)、N(2 )=15(bΔt)-1である。和の下限および上限は、それぞれ、最も近い整数 に下げられる、および/または、上げられる。 概して、時間フィルタの実行には数式(17)、(18)、(19)および( 21)の適用が含まれ、持続時間チャネルおよび過渡時間チャネル(n=1、2 )をともに含む。ID(x,kΔt)のすべての所要値を数式(21)で定義す るため、画像系列IDは公称開始点j=0の前にmax[N(1),N(2)] フレームを拡張しなければならない。 図3を参照すると、時間フィルタリングの後、時間フィルタから生じた行輝度 信号およびクロミナンス信号は、それぞれ、コントラスト変換340および34 5によって受信され、局所コントラストの単位に変換される。すなわち、「コン トラストピラミッド」は、網膜画像をガウス・ラプラスピラミッドに分解するこ とによって生成される。まず、各画像を、P.J.BurtおよびE.H.Adelson、「 コンパクト画像符号としてのラプラスピラミッド(The Laplacian Pylamid As A Compact Image Code)」、IEEE Transactions on Communications(1983年 )に記載されるラプラスピラミッドに分解する。 好適な実施の形態では、入力画像の輝度成分を、32〜0.5周期/度のピー ク周波数で、7個の周波数チャネルまたは帯域(ピラミッド)レベルの集合に分 解する。各レベルは、1オクターブ、すなわち、32、16、8、4、2、1お よび0.5によって、隣接するレベルから分離される。次に、各レベルのそれぞ れの点で、ラプラス値を、解像度が2レベル下のガウスピラミッドレベルからサ ンブリングされていない対応点で割る。すなわち、ピラミッドの各レベルの局所 コントラストを計算するには、各ガウスレベルからそれ自体の1レベルぼけたコ ピーを減じることによって、ラプラス(帯域)ピラミッドを生成し、その結果を 2レベルぼけたコピーで割る。 数理的に、コントラストピラミッド演算の実行は(連続領域において)下式( 22)のように表すことができる。 ここで、Ekn(x,t)はピラミッドレベルkおよび指数n=1または2(持続 または過渡)のコントラスト、xは二次元位置ベクトル、Jn(x,t)は時間 フィルタからの入力画像、「*」は二次元空間たたみ込みであり、ここで、Gk( x)は、下式(23)のように示されるガウスたたみ込みカーネルである。 ここで、数式(24)が表され、 σ1=0.0068は、ほぼ、中心窩の感光体間の視角間隔(°)である。σ1 の正確な数値を選択し、d=0.238mmの画素間隔を2000mmの可視距 離Dからちょうど解像できるようにする。この場合、σ1=(d/D)(180 /π)°の視角になる。コントラストピラミッドを生成する数式(22)〜(2 4)の実行についての詳細な説明は以下に記載する。 さらに、空間的に均一な点滅は人間の目によって視覚的に検出可能であるとい う経験的事実(Van Nesら、「人間の目における時空変調伝達("Spatiotemporal Modulation Transfer In The Human Eye")」、J.Opt.Soc.Am.57,1082-10 88(1967)参照)を考慮するため、n=2およびk=7(すなわち、過渡応答の 場合の最低解像度)の場合、数式(22)の一般的な形式を変更する。すなわち 、 この空間的に対抗しない形式は、WieselおよびHubel、「アカゲザルの側膝状体 における空間および色の相互作用("Spatial And Chromatic Interactions In T he Lateral Geniculate Body Of The Rhesus Monkey")」、J.Neurophysiol.2 9,1115-1156(1966)に記載される「タイプII」の神経受容場を連想させる。 図7は、上記数式(22〜24)で説明したようなコントラストピラミッドを 構成する方法700を示す。方法700はステップ710から始まり、ステップ 720に進み、ここで、ガウスピラミッドを構成する。ガウスピラミッドは数式 (22)の関数Gk(x)、(k=1,2,3...)を示す。元の入力画像を ピラミッドの第1のレベルG1と呼ぶ。後続の低解像度のレベルは「簡約」と呼 ばれる演算によって得られる。 簡約演算は、画像の各方向に順に、5タップ低域フィルタを重み(1、4、6 、4、1)/16とともに元の入力画像G1に用い、ぼけた画像を生成する。次 に、その結果生じたぼけた画像を係数2でサブサンプリングし、次のレベルG2 を生成する。方法700は簡約演算を新しいレベルの各々に再帰的に行い、トッ プレベルに達すると停止し、そのデフォルト値は7である。 図7を参照すると、方法700はステップ730でラプラスピラミッドを生成 する。ラプラスピラミッドは数式(22)の関数Gk(x)−Gk+1(x)、(k =1,2,3...)を示し、ステップ720のガウスピラミッドから生成され る。ラプラスピラミッドのk番目のレベルLkはLk=Gk−Gk+1から計算される 。隣接するガウスピラミッドレベルを点毎に減算するには、Gk+1レベルを先に アップサンプリングし、「展開」と呼ばれる演算によってGkレベルの解像度を 整合させる必要がある。 展開演算は係数2によってガウスピラミッドレベルkの画像Gkをアップサン プリングし(すなわち、元のサンプルはゼロを間に挟んで間隔をあける)、その 結果生じた大きい画像に対して、x方向およびy方向の両方に、重み(1、4、 6、4、1)/16でたたみ込みを行う。ラプラスピラミッドのk番目のレベル Lkを計算する際、展開演算は点毎の減算と交替に行う。すなわち、Lk=Gk− 展開(Gk+1)となる。この処理は最も粗いガウスレベル(k=7)から最も微 細なレベル(k=1)まで続く。 ステップ740で、方法700はコントラストピラミッドを計算する。所定の フレームtおよび時間チャネルnの場合、数式(22)で定義された局所コント ラストピラミッドEkn(x,t)は、ラプラスピラミッドの各レベルの各画素値 を(展開演算によって)補間された2レベルから現在のラプラスピラミッドレベ ルサイズまでの対応するガウス値で割ることによって、計算される。小さい定数 を約数(例えば、1e〜10)に加算することによって、0で割る誤差を避ける 。修正係数(以下に説明する)はコントラストピラミッドの各レベルを乗算処理 し、確実に、計算したコントラストが各バンド(0.5、1、2、4、8、16 および32cpd)のピークで正弦波格子から計算されたコントラストに等しく なるようにする。いったんコントラストピラミッドが構成されると、方法700 はステップ750で終了する。 概して、コントラストピラミッドの演算結果は、局所平均、すなわち、局所コ ントラスト測度で割った、空間および周波数の両方で局所化された局所差である 。すなわち、その結果は、1オクターブによって互いに分離された多くの異なる 尺度の場合に局所平均で割った局所変化の大きさの測度である。1つのピラミッ ドレベルの周波数通過帯域内の正弦格子の場合、生じたコントラスト測定装置は ウェーバーコントラスト、すなわち、(Lmax−Lmin)/Lmeanにほぼ等しく、 ここで、Lmax、LminおよびLmeanは、それぞれ、格子パターンの最大輝度、最 小輝度および平均輝度を示す。このコントラストピラミッド演算を両方の時間フ ィルタリングチャネルからの値に用いるのが理想的である。コントラストピラミ ッドの計算を行う同様の処理は、E.Peli、「複雑画像におけるコントラスト(" Contrast In Complex Images")」、J.Opt.Soc.Am.(1990)に記載されている 。さらに、好適な実施の形態は7つのレベルを有するコントラストピラミッドを 含むが、レベルおよび/または他のピーク周波数範囲を何個でも有するコントラ ス トピラミッドを用いて本発明を変更することができる。 視覚識別測定装置112は、所定の画素およびフレームで輝度が異なる2つの 入力画像系列の差を記録する。しかしながら、好適な実施の形態では、2つの入 力画像系列のクロミナンス成分の差も記録し、視覚識別測定装置112の検出能 力を向上させる。 歪みが発生していないビデオ系列に対して歪みが発生しているビデオ系列の品 質を評価する際、視覚識別測定装置によるクロミナンスの差の検出は人間の視覚 系の検出とほとんど変わらない場合がある。しかしながら、種々の画像の誤り結 果はクロミナンス成分がない場合よりクロミナンス成分がある場合の方が目立つ 。これらの誤り結果は、輝度成分のみを視覚識別測定装置112で分析しても容 易に検出できない。このような誤り結果の一例は、一方側の明るいグレイから他 方側の暗いグレイに円滑に変化する広い無色領域のベクトル量子化カラー画像の 劣化である。パステルカラーの均一なパッチは遅い無色勾配に取って代わる。こ れらのパッチは白黒の場合より色がより一層目立つ。このため、種々の用途、例 えば、ベクトル量子化アルゴリズムの評価のために「色差検出成分」(色付加) を備えることによって、視覚識別測定装置の検出能力を向上させる。 2つの色付加の実施の形態について図8を参照して以下に説明する。2つの実 施例は同様のアーキテクチャを共有するが、異なる方法で実施され、異なる要求 に応える。1つの実施の形態の実施には、視覚識別測定装置112の「輝度部」 を再較正する必要はない。これに対して、第2の実施の形態は精度は高いが、視 覚識別測定装置の「輝度部」の再較正を必要とする。 図8は、視覚識別測定装置112の色付加を行う方法800を示す。方法80 0はステップ810から始まり、ステップ820に進み、ここで、各画像画素毎 のCIE(Commission Internationale de l'Eclairage)座標を生成する。 入力画像の各画素毎に、モニタRGB(赤、緑、青)値を公知の燐光体の発光 スペクトルと組み合わせ、CIE座標(X,Y,Z)を形成する。尚、これらの 座標に対応する色整合関数は、D.Judd(G.Wyszecki and W.S.Stiles,Color Science ,Second Ed.,Wiley,1982参照)による1951年の修正を除いて、 1931年のCIEに示されている。 概して、Juddによって修正されたCIE座標は所定のディジタルRGB値およ び燐光体の発光スペクトルEi(λ;k0)から計算され、スペクトルEi(λ; k0)は燐光体i、波長λおよびディジタル値k0に対応し、ディジタル値k0で 燐光体スペクトルを測定する。市販のモニタまたはディスプレイの燐光体は製造 者によって異なるので、燐光体の発光スペクトルの値は、一般に、National Tel evision Systems Committee(NTSC)の受像器の燐光体の規格から得られる。Juddszecki and Stiles,Color Science,Second Ed.,Wiley(1982)に定義され、ベ クトル値関数x(λ)として定義されている。燐光体iの場合、ディジタルレベ ルkに対応する3刺激座標Xi(k),Yi(k),Zi(k)は下式(26)で 示されるベクトルXi(k)として定義される。 ここで、値Ei(λ;k0)およびYi(k)(k=0,255)は特定のディス プレイの場合に測定される。ディジタル値kiが画素のRGBに対応する場合、 画素の3刺激ベクトルX=(X,Y,Z)は下式(27)のように計算される。 RGB値のCIE座標への変換は、本技術分野においてよく知られている。詳 細に検討するには、G.Wyszecki and W.S.Stiles(1982)を参照されたい。 ステップ830で、下式(27a)によって、ステップ820からのCIE座 標を円錐体応答L、MおよびS(L=長波長感度、M=中間波長感度、S=短波 長感度)に変換する。 この変換はWyszecki and Stiles,1982の表2(8.2.5)に示され、V.Sm ithおよびJ.Pokorney、「400〜500nmの中心窩円錐体の光色素のスペク トル感度("Spectral Sensitivity Of The Foveal Cone Photopigments Between 400 And 500nm")」、Vision Research 15,171(1975)から導き出される。また 、輝度座標Yはステップ820から変わらない。 ステップ840で、ステップ830の出力を用いて、各画像画素毎の3色座標 である輝度Yおよび輝度正規化対抗空間(Juddの後の「色照明された表面色の色 相、彩度および明度("Hue,Saturation And Lightness Of Surface Colors Wit h Chromatic Illumination")」、J.Opt.Soc.Am.30,2,1940)を得る。す なわち、 ここで、下付き文字D65は、CIE規格の光源D65(G.Wyszecki and W.S .Stiles,1982,Op.Cit.参照)の場合に色度値または座標S/YおよびL/Y が得られることを示す。座標S/YおよびL/Yは、D.MacLeod and R.Boynto n、「等しい輝度の刺激による円錐体の励起を示す色度図("Chromaticity Diagr am Showing Cone Excitation By Stimuli Of Equal Luminance")」、J.Opt.S oc.Am.69,1183-1185,1979によって発展した円錐体励起空間から取る。光源 に対する減算修正は、D.Judd(1940,J.Opt.Soc.Am.30,2)に示される。 図3を参照すると、網膜サンプリング部330の後にステップ840(図3に 示されていない)を実行し、一方、網膜サンプリング部がクロミナンス成分を処 理する前にステップ820〜830(図3に示されていない)を実行する。この ため、網膜サンプリング部330に入る入力系列310および320のクロミナ ンス成分は円錐体応答(L,M,S)で表される。しかしながら、当業者であれ ば、ステップ820〜840で実行される関数を網膜サンプリング部で実行する ことができることは分かる。上記と同様に、クロミナンス成分に行われるような 「網膜」処理量は特定の用途に依存する。このため、図4の1つ以上のステップ を入力画像系列のクロミナンス成分に行うことができる。 ステップ850で、図3に示すように、ステッブ840の色座標は時間フィル タ335および334を通過する。これらの時間フィルタは入力画像の輝度成分 に用いられた時間フィルタと同じであり、数式(9)および(10)にしたがっ て実行される。入力画像の輝度成分312には2つの時間フィルタを用いるが、 入力画像の2つの色成分314および316の各々には(数式(9)の形式の) 時間フィルタを1つだけ用いて、2つの色時間応答を発生させる。 ステップ860で、方法800は2つの色時間応答(チャネル)の各画像毎に コントラストピラミッドを生成する。ラプラスピラミッドは、方法700のステ ップ720および730にしたがって、画像平面Y、ybおよびrgから作成さ れる。しかしながら、チャネルのラプラシアンを小さい定数とチャネルの絶対値 の局所平均との和で割ることによって、各画像平面毎のコントラストピラミッド を計算する。すなわち、 ここで、CY、CybおよびCrgは所定レベルのコントラストピラミッド値であり 、Δはそのレベルのラプラスピラミッドを示し、<>はラプラシアンを定義する 最も微細なレベルより2レベル粗いガウスピラミッドの値を示す。値Y0、yb0 およびrg0は定数である。いったんコントラストビラミッドを生成すると、方 法800はステップ870で終了する。 別の色付加の実施の形態では、方法800をステップ840および860につ いて修正する。ステップ840で、方法800は、下式(33)、(34)にし たがって、各画素毎に色座標を計算する。 ステッブ860で、各レベルのラプラスピラミッド値を、色度チャネル自身の 局所平均ではなく、輝度チャネルより2レベル粗いガウス値で割ることによって 、2つの色度チャネルのためのコントラストピラミッドを構成する。 第1の色付加の実施の形態は「白黒との互換性」の効果を確実に得る(すなわ ち、強度レベルを変化させても光の色は変化しない)。D65の色度の画像の場 合、ybおよびrgのコントラストの寄与は無く、輝度コントラストだけで画像 測度を決定する。このため、第1の色付加の実施の形態を採用する場合、視覚識 別測定装置112を再較正する必要はない。さらに、ステップ840の減算およ び定数yb0およびrg0によって、確実に、最大の色感度は観察どおりモニタ( D65)の白点に近づく。さらに、数式(31)および(32)のCybおよびCrg のラプラスピラミッド演算子Δは、ラプラスピラミッドの基準として用いたガ ウスピラミッド演算子と任意に置き換えることができる。ラプラシアンを色度チ ャネルから除去することによって、確実に、コントラストピラミッドはピラミッ ドレベルに依存する遮断空間周波数を低域空間フィルタリングに供給する。 これに対して、第2の色付加の実施の形態においてCIE規格の光源D65を 用いる場合、色度値または色座標が得られないので、視覚識別測定装置112の 再較正が必要になる。この第2の実施の形態は、再較正のオーバーヘッドを犠牲 にして精度を高くする。 図3に戻ると、視覚識別測定装置112は複数の任意の指向性フィルタ350 を含み、そのフィルタは8つのチャネルからのコントラストピラミッドに対して 指向同調または指向フィルタリングを行う。 指向同調または指向フィルタリングを選択した場合、コントラストピラミッド の各レベルは4対で1組の空間指向性フィルタ350で受け取られるとともにた たみ込みされ、空間的に指向が決定された出力を生成する。 特に、図9は、たたみ込み回路910および変換回路920を備える指向性フ ィルタ350のブロック図を示す。たたみ込み回路910は複数の空間指向性フ ィルタ対を備え、各フィルタ対は(水平、垂直および2つの対角の4方向のうち 1方向の)ガウスから導出される方向秒およびそのヒルベルト変換からなる。こ れらのフィルタは、A.Watson、「格子パッチの合計は1つの網膜位置の多種の 検出器を示す("Summation Of Grating Patches Indicates Many Types Of Dete ctors At One Retina Location")」、Vision Res.22(1982)によって精神物理 学的に推論した帯域幅の範囲内の値である約0.7オクターブの半分の高さのロ グ帯域幅を含む。好適な実施の形態では、これらのフィルタの指向帯域幅(すな わち、フィルタ出力が最大値の1/2を超える角度の範囲)はおよそ65°であ る。この数字は、DeValoisら、「マカークザルの視覚細胞表層内の細胞の指向お よび方向選択性」、Vision Res.22(1982),531-544によって報告されたサルの 単純細胞の40°の同調およびPhi1lips and Wilson、「マスキングによって測 定された空間機構の指向帯域幅("Orientation Bandwidths Of Spatial Mechani sms Measured By Masking")」、J.Opt.Soc.Am.[A]1(1984),226-232によっ て精神物理学的に報告された30〜60°の範囲より若干大きい。 代替例として、帯域幅の小さい空間指向性フィルタを用いることができるが、 指向範囲を均一にカバーするにはさらにフィルタが必要になるため、計算コスト が高く計算速度が遅いがより正確な処理が行われる。このため、いくつかの指向 マスキングデータに関する予測精度は劣化するおそれがあるが、4指向を有する フィルタを用いることによって、性能とコストのバランスが良くなる。しかしな がら、当業者であれば、本発明のフィルタ数を調整して特定用途の要求に応える ことができることは分かる。本発明では、W.T.Freeman and E.H.Adelson、 「操縦フィルタの設計および使用("The Design And Use Of Steerable Filters ")」、IEEE Transactions on Pattern Analysis and Machine Intelligence 13 (1991)891-906の操縦フィルタを用いて、空間指向性フィルタを実施する。 指向フィルタリングの後、対応するヒルベルトフィルタ対の出力画像を変換回 路920によって二乗して和をとり、数式(35)で表される位相に依存しない エネルギ応答を得る。 ここで、θは4つの指向全体を示し、nは2つの時間チャネル全体を示し、kは ピラミッドレベルであり、oおよびhは指向演算子およびそのヒルベルト変換で ある。この演算は、広く提案されている、ほ乳類の視覚細胞表層における単純細 胞間の線形応答から複雑細胞間のエネルギ応答への変換のシミュレーションを図 る。この演算から得られる位相独立はいくつかの有効な特性をもたらす。例えば 、位相独立によって、視覚識別測定装置112は、エッジ、すなわち、人間の精 神物理学的機能に見られる特性の正確な位置に対する感度が低下する。 図3に戻ると、視覚識別測定装置112は任意の正規化回路355を含み、正 規化回路355はコントラストピラミッドに対して正規化を行う。空間フィルタ リングの複雑さは特定用途の精度要件に対する速度にともなって変動する可能性 があるので、各コントラストピラミッドの出力画素の二乗は、一般に、値1/Γkn によって正規化される。尚、値1/Γknは、時間チャネル、ピラミッドレベル および局所輝度に対する二乗格子コントラスト検出しきい値に対して閉じている 。ピラミッドレベルをk(最も微細な解像度から最も粗い解像度までのk=1, ...7)で示し、それぞれの時間チャネルをn(n=1,2)の持続チャネル および過渡チャネルで示すと、Γk1には以下に示す表1のデフォルト値が与えら れる。 これらの値によって、効果的に、過渡チャネルは粗い空間解像度を有したり、ま た、逆のことも行われる。下記の較正によって決定された値は一般に平均網膜照 明Bの関数であるが、デフォルト値はB=200フォトンに相当する。しかしな がら、当業者であれば、他のΓknの値を用いることができることは分かる。実際 、異なる用途を考慮して、または、異なる較正データに合うように考慮して他の Γknの値を導出する較正手順について、以下に説明する。 2つの実行例が考えられる。上記のように指向同調または指向フィルタリング を選択した場合、数式(35)の各エネルギ応答または測度応答はΓknによって 受け取られて正規化される。その結果は、各指向チャネル毎の追加的指数θをとt)は数式(37)のように計算される。 ここで、局所平均輝度LkはJ1 *k+2によって求められ、これは、実質的に、時 空的に低域フィルタリングされた画像系列のバージョンである。ガウスフィルタ Gk+2(x)により空間周波数(ピラミッドレベルk)および局所平均輝度によって 決定した最小可知差異に必要なコントラストでコントラストピラミッドの各レベ ルを割る関数として、Mt[vk,Lk]を定義する。Mtにおいて、空間周波数vk はコントラストピラミッドのk番目のレベルが最も感度の高い値によって求め られ、概算でvk=1/(2πσk)になる。量Γknはコントラスト感度データに よって空間/時間周波数の関数として適合していた。 代替例として、Lkを画像全体にわたって平均網膜照度B(フォトン)に置換 (38)のように表される。 量Γkn(B)は2段階で決定される。まず、200フォトンの網膜照度で得ら れたKoenderink and van Doorn(1979)のデータを用いて、量Γkn(200)を適 合させる。次に、他のいくつかの照度レベルで得られたvan Nesら(1967)のデ ータを用いて、量Γkn(B)をBの他の値に適合させる。その結果は量Γkn(B )のルックアップ表である。画像系列を備える輝度パターンからBを計算する場 合については以下に説明する。 さらに、色付加の実施の形態の場合のコントラストピラミッドは、モデルの較 正段階でデータによって適合されるコントラスト感度関数によって正規化される 。較正は、D.H.Kelly(1983,J.Opt.Soc.Am.73,742-750)およびK.T.Mul len(1985,J.Physiol.359,381-400)のデータのようなデータを含んでもよい 。 図3に戻ると、視覚識別測定装置112はゲイン制御部360を含み、ゲイン 制御部360は視覚しきい値のクロス周波数マスキングおよび/またはクロス指 向マスキングを行う。すなわち、各フィルタ出力を他のいくつかのフィルタ出力 の和で割るか正規化し、ある空間および/または時間周波数の下で人間の視覚の 感度抑圧を考慮する。 特に、ある空間(または時間)周波数で高くなる人間の視覚感度は同じ空間周 波数の信号(またはクラッタ)が存在すると高くなることが明らかになった。こ のようなしきい値の増加は、一般に、「マスキング」(または、特定の場合にお いて、「帯域内マスキング」と呼ばれる)として知られている。 人間の知覚の別の特性は、大幅に異なる周波数または指向のクラッタによって 、ある時空周波数または指向にマスキングが行われる場合もあることである。こ のマスキングの効果は、一般に、「クロスモーションマスキング」(J.Lubin、 未出版の博士論文、ペンシルバニア大学、1992年)または静的状態の場合の 「クロス指向マスキング」(J.Lubin、「表示システムの性能の分析における精 神物理学的データおよびモデルの使用("The Use Of Psychophysical Data And Models In The Analysis Of Display System Performance")」、Digital Image s in Human Vision,ed.A.B.Watson,MIT Press,1993,p 177)として知ら れている。同様の概念は文献(例えば、Heeger,1991,「視覚処理の計算モデル 」(Computational Models of Visual Processing)、MIT Press)にも記載され て いる。 ゲイン制御部360は、コントラストピラミッドに対して視覚しきい値のクロ ス周波数および/またはクロス指向マスキングを行う。特定の用途にしたがって 、ゲイン制御部は、正規化回路355からの正規化コントラストピラミッドまた は指向性フィルタ350からの指向同調コントラストピラミッドにおいて動作す る。ゲイン制御関数は数式(39)のように表すことができる。 ここで、xcは入力ピラミッド値、Fcは出力ピラミッド値、wiは一定の重み( デフォルト値は1)、i全体にわたる和は空間ピラミッドのすべてのレベルおよ びすべての時間チャネル(すなわち、コントラストピラミッドの7つのレベルお よび4つの時間チャネル、輝度およびクロミナンスから生じる28チャネル)に わたる。フィルタ350の指向同調の後にFcが演算する場合、和は指向(すな わち、4つの指向から生じる112チャネル)全体にわたる。しかしながら、和 は現在のチャネルcには及ばない。すなわち、iはチャネルの総数−1個のチャ ネルに及ぶ。 空間−時間(−指向)チャネルcの場合の値Fcは他のチャネルiに対する入 力によって減少し、ここで、減少の度合はwiおよびxiにともなって増加する。 このような値Fcの減少にともなって、チャネルcの画像系列の差も減少する。 このように、数式(39)のゲイン制御関数は所望の空間−時間クロス周波数マ スキングを実現する。しかしながら、1つのチャネルcしか画像系列による励起 を受け取らなかった場合、Fc=xcとなり、多重周波数がない場合はクロス周波 数マスキングが行われない。 図3に戻ると、トランスデューサ部(トランスデューサ)370は正規化され たコントラストピラミッドの各成分にS字状非線形性を用い、トランスデューサ 出力Pkn(x,t)を発生させる。すなわち、正規化されたコントラストピラミ ッドの各成分を二乗し、同じ点非線形性Tの処理を行い、数式(40)が表され る。 ここで、S字状非線形性Tは数式(41)のように表される。 ここで、y=eknθ(x,t)となる。S字状非線形性を用いて、J.Nachmias and R.V.Sansbury、「格子コントラスト:識別は検出より優れている("Gratl ng Contrasts:Discrimination May Be Better Than Detection")」、Vision Re s.14(1974)1039-1042に示されるようなコントラスト識別関数のひしゃく形状 を再形成する。このため、トランスデューサ出力は、系列の各画像毎に圧縮され 正規化されたコントラストピラミッドである。 次に、上記の空間指向性フィルタ350は、正弦格子が最適に同調されたとき に1つのフィルタが1つの空間位置にある場合、パッチの周期数の関数としての 出力が1周期をわずかに超える周期で漸近線になるという特性を持つ。これに対 して、J.Hoekstraら、「空間正弦波パターンにおいて視覚コントラスト検出し きい値に対する周期数の影響("The Influence Of The Number of Cycles Upon The Visual Contrast Detection Threshold For Spatial Sinewave Patterns"」 、Vision Research 14(1974)365-368に記載されるように、パッチの周期数が およそ5まで増加し続けるにつれて、中心窩の人間の感度は向上し続ける。 この効果を考慮して、視覚識別測定装置112は任意のプーリング部(プーラ )375を含んでもよい。中心窩の入力の場合、ブーリング部は、中心窩(d0 )が5の正方形状カーネルでたたみ込みを行うことによって、小さい「近傍」全 体にわたってトランスデューサ出力を受け取って平均化し、プール出力を生成す る。すなわち、小さい近傍は、トランスデューサ出力の各点の周囲の5×5のカ ーネル(5×5の感光体空間、すなわち、網膜画素)として定義されている。 中心窩の外部の刺激偏心率の場合、このカーネルの直径dpは、数式(42) にしたがって、偏心率の線形関数として増加する。 ここで、dpは中心窩の直径(5.0)、eは偏心率(°)(デフォルト値は0° )、kpは尺度係数である。このような偏心率に依存するプーリングの増加は、 刺激特徴の正確で相対的な局所化を必要とするタスク、例えば、文字識別におい て、コントラスト感度の損失に帰属しうる損失を超える偏心率に依存する性能の 損失をシミュレートするのに必要である。 プーリング演算の後、各画像の各空間位置はm次元ベクトルに等しい。尚、m は指向数のピラミッドレベル数倍である。これらのベクトルは距離部(ディスタ ンサ)380によって受け取られ、ここで、2つの入力画像の場合のこれらのベ クトル間の距離を計算する。 特に、2つの入力画像(例えば、入力画像系列Aからの試験画像および入力画 像系列Bからの基準画像)の場合の圧縮化/正規化コントラストピラミッドの絶 対値を減じた後、時間チャネルを含む7つのピラミッドレベル全体にわたって平 均化(Q乗平均)し、距離測度(画像計量)250を生成する。すなわち、51 2×512のフルサイズに対して、小さいピラミッドレベルのサンプリングを行 わない。この場合、その結果は各入力画像x毎のm個の配列Pi(x)の集合で ある(ここで、iは1〜mを示す)。これらから、距離測度D(x1,x2,t) は下式のように計算される。 ここで、x1およびx2は2つの入力画像(例えば、試験画像および基準画像)、 Q(ミンコフスキー指数(Minkowski exponent)として知られている)は2に設定 されたパラメータである。(Q=2の場合、この数式は2つのベクトル間のユー クリッド距離に相当する)。 距離部380の出力は画像計量250として機能する。特に、出力は距離値ま たは「JND」値の空間列である。この出力を用いて、1対の対応する入力画像 、 すなわち、入力系列Aからの画像および入力系列Bからの画像に対して「JND 写像」を形成することができる。 図10は、コントラストピラミッドからJND写像を構成する方法1000を 示す。すなわち、JND写像D(x1,x2,t)は、数式(43)の実行にした がって、圧縮/正規化されたピラミッドPkn(x,t)から計算される。方法1 000はステップ1010から始まり、ステップ1020に進み、ここで、一方 の入力画像系列のフレームtのピラミッドPを、フレームtで、もう一方の入力 画像系列のピラミッドPから減じる。 ステップ1030で、内部ミンコフスキーべき指数Qを得られたピラミッドの 各値に用いる。ステップ1040で、上記のような展開演算を最も粗いピラミッ ドレベルから最も微細なピラミッドレベルまでのカスケードの加算と交換する。 例えば、展開演算を最も粗いレベル(n=7)に用い、その結果をピラミッドの 次のレベル(n=6)に加算する。次に、展開演算を再び行い、その結果をピラ ミッドの次のレベル(n=5)に加算し、最も微細なレベル(n=1)になるま で続ける。ステップ1050で、得られた完全解像度の画像をミンコフスキーべ き指数1/Qで処理し、JND写像を生成する。方法1010はステップ106 Oで終了する。 JND写像を生成する方法1010は、コントラストピラミッドを生成する方 法700と同様の点がいくつかある。例えば、量σkは明確に定義されていない が、簡約演算の再帰的演算から明らかになる。元の画像(第1のn=1のガウス ピラミッドレベル)にはカーネル(1、4、6、4、1)/16でたたみ込みが 行われ、第2のレベルのピラミッドを生成する。暗黙のうちに、画素間隔(すな わち、視覚受容体間隔)はすべての値σkの基準となる。特に、分布(1、4、 6、4、1)/16の標準偏差は1であり、ここで、σ1は1つの受容体間の距 離である。カーネル(1、4、6、4、1)/16での高レベルのたたみ込みは 、それぞれ、ガウス関数の幅を2倍にする。このため、等式(24)のσk=2k -1 σ1は概算値である。 しかしながら、各連続カーネルの分散は現在の「ガウス」(例えば、2k-1σ1 )の分散とすべての低レベルの「ガウス」の分散との和であることに注目する ことによって、この概算値を向上させる。このため、 したがって、 等式(45)は、単純な正弦波入力における視覚識別測度を較正するために用 いた分析評価において重要である。ある調整可能なパラメータによって視覚識別 測度を較正する際、このような分析解法は、以下に説明するように、最適なパラ メータ値を得るのに必要な計算時間を短くする。 次に、JND写像から計算した統計値に基づいて、他の複数の画像計量を生成 することができる。一般に、上記と同様の距離計量にしたがって、JND写像全 体の値を組み合わせることができる。実際に、2つの異なる組み合わせの1つを 用いる。例えば、写像全体の平均値または最大値、すなわち、単純にxおよびt のすべての値の中の最大値を用いる。すなわち、 しきい値識別タスクの場合は後者がより有効な統計値であり、画質評価タスクの 場合は前者がより有効な統計値である。 このため、JND値出力を確率値に変換することができる。JND写像上の実 際の確率値をJNDと呼ばれる語で較正し、ここで、1JNDは、2つの入力画 像を複数回見る観察者が差に気づくことができる確率75%に相当する。次に、 1を超えるJNDは増分的に計算される。 好適な実施の形態では、視覚識別測定装置112は空間識別部240を用いる が、本発明はこのような特定の実施例に限定されない。他の空間識別装置または 方法を本発明に組み込んでも、同様の結果が得られる。 説明のため、空間指向性フィルタ350を除去することによって、空間識別部 240の複雑さを低減することができる。実際に、特定の用途にしたがって、空 間識別部240の処理部355〜380のうち1つ以上の部分を省略することが できる。より大幅な簡略化によって、空間識別部のほとんどの部分を単純な平均 平方誤差計算に置き換える。用途によっては、簡略化を行っても精度はほとんど 低下しないが、システムは計算速度の大幅な向上から利益を得る場合がある。同 様に、網膜サンプリング部330によって行われる種々の変換(または網膜サン プリング部330全体)を省略または修正して、視覚識別測定装置112の複雑 さを最小限に抑えることもできる。 さらに、本発明は複数の時間フィルタ、コントラストピラミッド変換および指 向性フィルタについて説明しているが、当業者であればフィルタ数を減らして視 覚識別測定装置を簡略化することができることは分かる。説明のため、マルチプ レクサを用いて、時間フィルタ334〜335、コントラストピラミッド変換3 40〜345および指向性フィルタ350を共有することができる。 さらに、視覚識別測定装置112はそのパラメータを再調整しなくても多くの 正確な予測を行うことができる。このロバスト性(robustness)を達成するため、 以下に検討する較正手順にしたがって視覚識別測度の較正を行う。 1つの平均輝度レベルで得られたKoenderinkおよびvan Doorn(1979年) によって報告された視覚コントラスト感度データおよびいくつかの平均輝度レベ ルで得られたvan Nesら(1967年)によって報告されたデータを用いて、視 覚識別測度を較正する。刺激はdcバイアスをかけた時空正弦波であり、この正 弦波は視角4°の幅を持つ正方形窓によって窓処理されている。この刺激によっ て、(較正を行う目的のため)視覚識別測度の代わりに、空間−時間積分の多く を分析的に行う「単純モデル」を用いることができる。単純モデルを用いて、い くつかの自由なパラメータの値を得る。 較正の第1のステップはインパルス応答のパラメータa、bの値および重みΓkn (200)を決定し、これらを用いて過渡コントラストピラミッドを正規化す る。Koenderinkおよびvan Doorn(1979年)に示される200フォトンの時 空コントラスト検出面を用いて、モデル適合を行う。この実験では、61Hzの フ レームレートおよび視角4°の窓に含まれる空間正弦波を用いる。目的は、未決 定のバラメータを調整し、量JND(α,ω)の1に対する適合を最適化するこ とである。尚、関数JNDは等式(46)に示され、α=2πfs、ω=2πft 、fsおよびftは実験正弦波の空間周波数および時間周波数(それぞれ、周期/ 度、ヘルツ)である。以下の目的関数はこの較正で最小になる。 この計算に対するインブリシット(implicit)入力は実験のコントラストしきい値 M(α,ω)であり、入力画像系列S(xs,t)に代入される。初期画像系列 は時空輝度分布s(xs,t)の特徴がある。ここで、xsは表示の二次元空間座 標を示し、tは経過時間である。 パラメータ適合の途中に、ミンコフスキーべき指数Qを求め、2に等しく設定 されたときに満足な適合が行われる。画像サイズは視角4°であり、可視距離を 2mに設定し、画素密度を網膜の受容体間隔と等しくする。その結果、584× 584個の画素を有する画像サイズになる。(周波数f0の)所定の正弦波刺激 に十分な時間サンプリングを確実に行うため、フレーム間隔をΔt=1/(f0 f)にする。ここで、Nfは正弦波の1周期当たりのフレーム数であり、時間周 波数にしたがって、2のように小さい整数および50のように大きい整数に等し く設定される。入力波形は公知の位相の余弦波なので、サンプルを余弦波の極値 でサンブリングすることができる。このため、ナイキストレート(Nyquist rate) より高い周波数でサンプリングを行う必要がない。Δtを少なくとも0.065 秒に制限することによって、確実に、低周波正弦波は低周波視覚チャネルしか励 起しない。このため、Δtが大きい場合、フレーム遷移の不連続性は、f0では なくフレームレートに同調された刺激時間チャネルを(人為的に)有する。h1 を用いるたたみ込みの長さを(1/a)ln(1000)に等しく設定し、確実 にh1の支援を適正に含み、h2を用いるたたみ込みの長さを15/bに等しく設 定する。(ここで、aおよびbの単位はHzである)。 以下のパラメータ値は較正処理によって得られる。すなわち、k=1,7(ピ ラミッドレベル)、n=1,2(過渡時間チャネルに対する持続時間チャネル) 、a=5.200Hz、b=84.14Hzの場合、Γkn(200)は上記表1 のようになる。 さらに、表2および表3は、異なるフォトンの時空コントラスト検出面で計算 した他のγ値Γkn(B)、すなわち、Γkn(0.085)、Γkn(0.85)、 Γkn(8.5)、Γkn(85)、Γkn(850)およびΓkn(8500)と比較 して、Γkn(200)を示す。表2および表3は、それぞれ、持続チャネル(n =1)および過渡チャネル(n=2)の場合のγ値を含む。 第2の較正ステップは、Van Nesら(1967年)のデータを用いて、種々の 照度BでのΓkn(B)を決定する。上記第1の較正ステップと同じ画像サイズ( 4°)、可視距離(2m)、時間積分の極限値および時間区分Δtを選択する。 各照度B毎に、量を下式(48)によって最適化する。ここで、実験入力α、ω、Bおよびこれらに依存する実験変数m(α、ω、B) を用いて等式(46)によって、JND値を求める。パラメータΓkn(B)はB =200の場合に上記の値と同じである。 視覚識別測定装置112の較正は、均一な背景上の窓を有する時空正弦波から なる簡略化された刺激に基づく。このような簡略化によってVDMのたたみ込み 積分のいくつかを分析的に行うことができ、それによって、較正およびパラメー タ調整に必要な最適化時の計算時間が大幅に節約される。 単純モデルを用いて、空間窓を無視し、入力波形を等式(49)によって求め る。 ここで、M(α、ω、B)は実験で得られた変調しきい値、Bは平均網膜照度( フォトン)、α=2πfs、ω=2πft、fsおよびftは実験正弦波の空間周波 数および時間周波数(それぞれ、周期/度、ヘルツ)である。 仮定した刺激がこのような形式の場合、単純モデルには2つの実施例がある。 一方は等輝度較正、他方はより包括的な較正である。これらの実施例についてそ れぞれ以下に説明する。 等式(49)を用いて、等式(8)の時間たたみ込み積分を分析的に行うこと ができるが、等式(19a)〜(19b)から得られるインパルス応答の時系列 で波形に離散たたみ込みを行うことによっで、現実のモデルとの良好な対応が得 られる。チャネルn(持続チャネルの場合はn=1、過渡チャネルの場合はn= 2)の場合、(Δt1=Δtおよび時間指数mの)時系列は下式(50)、(5 1)で表される。 時間増分Δtは、フレームレート(61Hz)にできるだけ近く対応するが1周 期当たりのフレーム数が整数になるように定義される。このため、 ここで、Nf=2(ft>30Hzの場合)、8(ftが7〜30Hzの場合)、 32(ftが1〜7Hzの場合)になり、その他の場合はNf=50になる。項Δ tを少なくとも0.065秒に制限する。 次に、離散時間インパルス応答関数に対してcos(mωΔt)で数値的にた たみ込みを行い、フィルタリングされた時間波形Jm (1)、Jm (2)を生成する。余 弦波の周期性から、余弦周期(Jm (1)、Jm (2)のm<2π/ωΔt)を1つだけ 計算すればよい。すなわち、等式(21)および等式(8)の離散形を用いて、 下式(53)を表す。 等式(53)の第1項は空間的に一定なので、ラプラスピラミッドはこの項を 除去し、J'n(x,m)の唯一の実効項として量BΔtM(α、ω、B)cos (αx)Jm (n)が残る。 次に、等式(23)のガウスGk(x)でcos(αx)に空間たたみ込みを 行った結果が下式(54)である。 ここで、(等式(45)のように)σk=[(4/3)(1−2-2k)]0.5k-1 σ1となる。 別の簡略化によって、変調Mが小さいのでコントラストピラミッドの分母はB にほぼ等しいことが分かる。この簡略化を用いて、等式(53)の係数Bを相殺 し、等式(54)でcos(αx)=1を設定することによって、等式(46) から得たx全体の最大値を暗に実行することができる。このため、以下の簡略化 式を実行し、等式(38)の正規化されたコントラストピラミッドを得る(空間 変数xを除去した状態)。 ここで、等輝度較正の場合はB=200フォトンである。等式(25)に戻ると 、k=7、n=2の場合、代替の式は以下の通りである。 次に、等式(40)および(41)で説明したように、正規化されたコントラ ストピラミッドの各成分を二乗し、同じ点非線形性Tの処理を行う。 次に、等式(43)および(46)の計算を行い、基準画像系列のPが0であ るとともにx依存性をすでに除去した簡略化を行う。すなわち、 実際に、このJND値は入力刺激の関数であり、このパラメータはα、ω、JN D=JND(α、ω)である。 最後に、最適化される目的関数(等式(47))を形成する。データ値Mを上 記モデルに挿入し、モデルによって予測されるように感知した差の1つのJND の結果を出したとき、データとの一致が達成する。この一致が達成したとき、較 正が完了する。 包括的な較正手順(種々の輝度データの較正)は等輝度較正の手順と同様であ るが、2つの違いがある。第1に、離散時間インパルス応答関数を得るステップ を省略し、Jm (1)を値「1」に等しく設定し、Jm (2)を値「0」に等しく設定す る。第2に、量Γkn(B)はBのいくつかの値毎に個別に求められるが、aおよ びbはB=200フォトンでの較正で決定したように固定した状態である。 図11は、画像の忠実度および視覚タスクの用途を向上させるため、2つの入 力画像系列の差の可視性を評価する方法1100を示す。方法1100はステッ プ1110で始まり、ステップ1115に進み、ここで、方法は入力画像系列が クロミナンス成分を含むかどうかを判定する。答えがYESの場合、方法110 0はステップ1117に進み、ここで、各画素毎のRGB値を公知の燐光体の発 光スペクトルと組み合わせ、CIE座標を形成する。 答えがNOの場合、方法1100はステップ1120に進み、ここで、入力画 像系列を「再び時間サンプリング(time-resampled)」し、人間の目の限界を考 慮して、フレームレートの高い画像系列を処理する。しかしながら、元の(入力 画像の)フレームレートが200Hz以上でない場合、再サンプリングを行わな い。さらに、ステップ1115の問いに対する答えを選択的に判定し、特定用途 のコンピュータのオーバーヘッドを低減するために、いかなるクロミナンス成分 の存在も無視することができる。 ステップ1119では、ステップ1117のCIE座標を円錐体応答に変換し 、次に、これらの応答を用いて、下記のようにステップ1162の別の色座標に 到達する。次に、方法1100はステップ1120に進む。 ステップ1125では、入力画像を再びサンプリングし、入力画像の画素間隔 、画素の大きさおよび可視距離を、それぞれ、網膜の受容体間隔、受容体の大き さに相関させる。方法1100は、等式(1)にしたがって、観察者から見える ように、各画素毎に定まった角度を計算する。 ステップ1130では、方法1100は固定幅境界線を各入力画像に挿入し、 境界線の影響を防ぐ。2種類の境界線、すなわち、固定値境界線およびエッジ値 制御境界線を用途にしたがって用いることができる。 ステップ1135では、方法1100は入力画像系列を調整(平滑化/補間) し、画素/受容体比を考慮する。すなわち、画素数が受容体数を超える場合、方 法1100は入力画像に「ダウンサンプリング」を行う。受容体数が入力画像の 画素数を超える場合、方法1100は入力画像に「アップサンプリング」を行う 。平滑化/補間演算は、上記のように、等式(2〜5)にしたがって行われる。 ステップ1140では、入力画像系列を変換し、人間の目の光学機能による点 拡がりに近づける。方法1100は等式(6)の関数で入力画像にたたみ込みを 行う。 ステップ1145では、方法は固定深さが画像深さと等しいかどうかを判定す る。答えがYESの場合、方法1100はステップ1150に進み、ここで、入 力画像を再びサンプリングし、網膜画像を生成する。答えがNOの場合、方法1 100はステップ1147に進み、ここで、「ぼけた円」を計算し、その円に入 力画像でたたみ込みを行い、画像深さと固定深さの差の変化にともなう実効画像 解像度の変化を考慮する。 ステップ1150では、方法1100は人間の目のサンプリング処理のシミュ レーションを図る。効果的には、視角1°当たり120個の画素の密度で各入力 画像をサンプリングし、「中心窩で見る」場合、512×512個の画素の「網 膜画像」を生成する。「中心窩で見ない」場合、ステップ1150は、等式(7 )に基づいた密度で入力画像をサンプリングする。 ステップ1160では、方法1100は、再び、入力画像系列がクロミナンス 成分を含むかどうかを判定する。答えがYESの場合、方法1100はステップ 1162に進み、ここで、ステップ1119からの円錐体応答を用い、等式(2 8)〜(29)にしたがって、別の3色座標に到達する。答えがNOの場合、方 法1100はステップ1165に進む。また、ステップ1160の問いに対する 答えを選択的に判定し、特定用途のコンピュータのオーバーヘッドを低減するた めに、いかなるクロミナンス成分の存在も無視することができる。 ステップ1165では、網膜画像に時間フィルタリングを行い、各入力画像の 輝度成分を2つの時間チャネル、すなわち、持続チャネルおよび過渡チャネルに 分離する。任意に、各入力画像系列のクロミナンス成分を2つの異なるチャネル に分離することによって、2つの入力系列のそれぞれに4つの時間応答を生成す る。2つの時間チャネルの関数は等式(9)および(10)に表されている。 ステップ1170では、ステップ1165から生成された各画像を等式(22 〜25)および図7にしたがって(クロミナンス成分の修正のように)分解する ことによって、コントラストピラミッドを生成する。各コントラストピラミッド は7つの周波数チャネルまたはピラミッドレベルを含む。 ステップ1175では、方法1100は指向フィルタリングを選択するかどう かを判定する。答えがNOの場合、方法1100はステップ1180に進む。答 えがYESの場合、方法1100はステップ1177に進み、ここで、指向フィ ルタリングを行う。 ステップ1177では、空間指向性フィルタを各コントラストピラミッドに用 い、次に、ステップ1179で、出力画像を等式(35)にしたがって変換し、 ほ乳類の視覚細胞表層における単純細胞間の線形応答から複雑細胞間のエネルギ 応答への変換をシミュレートする。 ステップ1180では、方法1100は各コントラストピラミッドを重み関数 の集合で正規化し、人間の目のコントラスト感度関数を考慮する。各ピラミッド レベルおよび時間チャネル毎に(表1〜3にしたがって)コントラスト正規化項 Γknの値を変化させることによって、重み関数を計算する。 ステップ1185では、方法1100は、視覚しきい値のクロス周波数および /またはクロス指向マスキングをコントラストピラミッドに行う。すなわち、各 コントラストピラミッド値(入力ピラミッド値)を他のいくつかのコントラスト ピラミッド出力の和で割るか正規化し、ある空間および/または時間周波数の下 で人間の視覚の感度抑圧を考慮する。その結果生じたコントラストピラミッド値 (出力ピラミッド値)は等式(39)にしたがって計算される。 ステップ1190では、方法1100は、等式(40〜41)にしたがって、 正規化されたコントラストピラミッドの各成分にS字状非線形性を用い、トラン スデューサ出力を発生させる。トランスデューサ出力は、入力画像系列の各画像 毎に圧縮/正規化コントラストピラミッドを示す。 ステップ1195では、方法1100は、ステップ1190からのトランスデ ューサ出力にプーリング演算を行う。プーリング演算は、ある大きさの直径の円 盤状カーネルでたたみ込みを行うことによって、小さい近傍全体のエネルギ応答 を平均化する。中心窩の内部の刺激偏心率の場合、「中心窩」の直径を5に設定 する。中心窩の外部の刺激偏心率の場合、直径dpを等式(42)にしたがって 計算する。プーリング演算の後、各画像の各空間位置はm次元ベクトルに等しい 。 ステップ1197では、2つの対応する入力画像の場合のこれらのベクトル間 の距離を計算する。512×512のフルサイズに対して小さいピラミッドレベ ルのサンプリングを行わず、等式(43)および図10にしたがって距離を計算 し、距離値の空間列を生成する。 ステップ1198では、距離値の空間列を用いて、確率予測のような種々の画 像計量を生成することができる。その後、方法1100はステップ1199で終 了する。 産業上の利用の可能性 このように、画像の忠実度および視覚タスクの用途を向上させるため、2つの 入力画像系列の差の可視性を評価する新規の方法および装置について図示および 説明してきた。しかしながら、本発明の多くの変更、修正、変形および他の使用 および適用は、本発明の実施の形態を示す明細書および添付図面を検討した後に 、当業者に明らかになるであろう。本発明の精神および範囲から逸脱しないこの ようなすべての変更、修正、変形および他の使用および適用は、以下の請求の範 囲によってのみ制限される本発明に包含される。
───────────────────────────────────────────────────── フロントページの続き (31)優先権主張番号 60/014,688 (32)優先日 平成8年4月2日(1996.4.2) (33)優先権主張国 米国(US) (31)優先権主張番号 08/829,516 (32)優先日 平成9年3月28日(1997.3.28) (33)優先権主張国 米国(US) (81)指定国 EP(AT,BE,CH,DE, DK,ES,FI,FR,GB,GR,IE,IT,L U,MC,NL,PT,SE),CA,JP,KR,M X (72)発明者 デ ヴリーズ,アアルバート アメリカ合衆国 ニュー ジャージー州 ローレンスヴィル タウン コート サウ ス 5221 (72)発明者 フィナード,オルガ アメリカ合衆国 ニュー ジャージー州 プリンストン ハミルトン アヴェニュー 284

Claims (1)

  1. 【特許請求の範囲】 1. 各々がクロミナンス成分を含む複数の入力画像を有する2つの入力画像 系列の差の可視性を評価する装置であって、 各入力画像系列のクロミナンス成分を低域時間応答にフィルタリングする時間 フィルタと、および 前記時間フィルタに接続され、前記低域時間応答から画像計量を生成する空間 識別器と を備えることを特徴とする装置。 2. 前記入力画像の各々はさらに輝度成分を含み、前記時間フィルタは各入 力画像系列の前記輝度成分を第2の低域時間応答および帯域時間応答にフィルタ リングし、前記空間識別器は入力画像系列の輝度成分およびクロミナンス成分の 両方からの前記低域時間応答および前記帯域時間応答から画像計量を生成するこ とを特徴とする請求項1に記載の装置。 3. 前記時間フィルタは、 前記空間識別器に接続され、第1の入力画像系列のクロミナンス成分をフィル タリングする第1の時間フィルタと、および 前記空間識別器に接続され、第2の入力画像系列のクロミナンス成分をフィル タリングする第2の時間フィルタと を備えることを特徴とする請求項2に記載の装置。 4. 前記空間識別器は、 前記低域時間応答および前記帯域時間応答の各画像毎に複数のレベルを有する コントラストピラミッドを計算するコントラスト変換器と、 前記コントラスト変換器に接続され、前記コントラストピラミッドに対して視 覚しきい値のクロスマスキングを行うゲイン制御器と を備えることを特徴とする請求項2に記載の装置。 5. 複数の入力画像を有する2つの入力画像系列の差の可視性を評価する装 置であって、 各入力画像系列を低域時間応答および帯域時間応答にフィルタリングする時間 フィルタと、および 前記時間フィルタに接続され、前記低域時間応答および前記帯域時間応答から 画像計量を生成する空間識別器と を備え、 前記空間識別器は、前記低域時間応答および前記帯域時間応答の各画像毎に複 数のレベルを有するコントラストピラミッドを計算するコントラスト変換器を備 え、前記空間識別器は、さらに、前記コントラスト変換に接続されて前記コント ラストピラミッドに対して視覚しきい値のクロスマスキングを行うゲイン制御器 を備えることを特徴とする装置。 6. 各々がクロミナンス成分を含む複数の入力画像を有する2つの入力画像 系列の差の可視性を評価する方法であって、 (a)各入力画像系列のクロミナンス成分を低域時間応答にフィルタリングす るステップと、および (b)前記低域時間応答を識別し、画像計量を生成するステップと を含むことを特徴とする方法。 7. (a')前記入力画像系列から前記入力画像の各画像画素毎に色座標の 集合を生成するステップをさらに含み、前記フィルタリングステップ(a)に対 する前記入力画像系列は前記色座標を含むことを特徴とする請求項6に記載の方 法。 8. 前記生成ステップ(a')は、 (a'1)入力画像系列から前記入力画像の各画像画素毎にCIE(Commission Internationale de l'Eclairage)座標を生成するステップと、 (a'2)前記CIE座標を円錐体応答に変換するステップと、および (a'3)前記円錐体応答から前記色座標の集合を生成するステップと を含むことを特徴とする請求項7に記載の方法。 9. 各入力画像はさらに輝度成分を含み、前記フィルタリングステップ(a )は、さらに、 (a1)各入力画像系列の輝度成分を第2の低域時間応答および帯域時間応答 にフィルタリングするステップを含むことを特徴とする請求項6に記載の方法。 10. 前記識別ステップ(b)は、 (b1)前記低域時間応答および前記帯域時間応答の各画像毎に複数のレベル を有するコントラストピラミッドを生成するステップと、 (b2)前記コントラストピラミッドに対して視覚しきい値のクロスマスキン グを行うステップと を含むことを特徴とする請求項9に記載の方法。
JP53533797A 1996-03-29 1997-03-31 2つの画像系列の差の可視性を評価する方法および装置 Expired - Lifetime JP4047385B2 (ja)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US1433396P 1996-03-29 1996-03-29
US1433296P 1996-03-29 1996-03-29
US60/014,333 1996-03-29
US60/014,332 1996-03-29
US1468896P 1996-04-02 1996-04-02
US60/014,688 1996-04-02
US08/829,516 US5974159A (en) 1996-03-29 1997-03-28 Method and apparatus for assessing the visibility of differences between two image sequences
US08/829,516 1997-03-28
PCT/US1997/004664 WO1997037325A1 (en) 1996-03-29 1997-03-31 Method and apparatus for assessing the visibility of differences between two image sequences

Publications (2)

Publication Number Publication Date
JP2002503360A true JP2002503360A (ja) 2002-01-29
JP4047385B2 JP4047385B2 (ja) 2008-02-13

Family

ID=27486377

Family Applications (1)

Application Number Title Priority Date Filing Date
JP53533797A Expired - Lifetime JP4047385B2 (ja) 1996-03-29 1997-03-31 2つの画像系列の差の可視性を評価する方法および装置

Country Status (6)

Country Link
US (1) US5974159A (ja)
EP (1) EP0898764B1 (ja)
JP (1) JP4047385B2 (ja)
KR (1) KR100378637B1 (ja)
DE (1) DE69726567T2 (ja)
WO (1) WO1997037325A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014524630A (ja) * 2011-08-25 2014-09-22 コーネル ユニヴァーシティー 機械視覚のための網膜符号化器
US11430263B2 (en) 2015-04-20 2022-08-30 Cornell University Machine vision with dimensional data reduction

Families Citing this family (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6957350B1 (en) * 1996-01-30 2005-10-18 Dolby Laboratories Licensing Corporation Encrypted and watermarked temporal and resolution layering in advanced television
US6360022B1 (en) 1997-04-04 2002-03-19 Sarnoff Corporation Method and apparatus for assessing the visibility of differences between two signal sequences
US6137904A (en) * 1997-04-04 2000-10-24 Sarnoff Corporation Method and apparatus for assessing the visibility of differences between two signal sequences
US6236742B1 (en) * 1997-07-09 2001-05-22 Peter H. Handel Coherent superscan early cancer detection
US6141459A (en) * 1997-09-24 2000-10-31 Sarnoff Corporation Method and apparatus for processing image pyramid borders
US6421462B1 (en) * 1998-02-06 2002-07-16 Compaq Computer Corporation Technique for differencing an image
US6285794B1 (en) * 1998-04-17 2001-09-04 Adobe Systems Incorporated Compression and editing of movies by multi-image morphing
US6295392B1 (en) * 1998-05-20 2001-09-25 Itt Manufacturing Enterprises, Inc. Super resolution methods for electro-optical systems
US6269175B1 (en) * 1998-08-28 2001-07-31 Sarnoff Corporation Method and apparatus for enhancing regions of aligned images using flow estimation
US6269176B1 (en) * 1998-12-21 2001-07-31 Eastman Kodak Company Method for x-ray antiscatter grid detection and suppression in digital radiography
CA2371998C (en) * 1999-02-11 2006-01-24 British Telecommunications Public Limited Company Analysis of video signal quality
US6285797B1 (en) 1999-04-13 2001-09-04 Sarnoff Corporation Method and apparatus for estimating digital video quality without using a reference video
DE19946429A1 (de) * 1999-09-28 2001-04-05 Stefan Vilsmeier Kontinuierliche Erfassung und Analyse von Gewebeveränderungen
US6674915B1 (en) * 1999-10-07 2004-01-06 Sony Corporation Descriptors adjustment when using steerable pyramid to extract features for content based search
US6678424B1 (en) 1999-11-11 2004-01-13 Tektronix, Inc. Real time human vision system behavioral modeling
US6690839B1 (en) * 2000-01-17 2004-02-10 Tektronix, Inc. Efficient predictor of subjective video quality rating measures
IL134182A (en) 2000-01-23 2006-08-01 Vls Com Ltd Method and apparatus for visual lossless pre-processing
US6753929B1 (en) 2000-06-28 2004-06-22 Vls Com Ltd. Method and system for real time motion picture segmentation and superposition
JP2002224982A (ja) * 2000-12-01 2002-08-13 Yaskawa Electric Corp 薄型基板搬送用ロボットおよび薄型基板検出方法
ATE552572T1 (de) * 2000-12-01 2012-04-15 Imax Corp Verfahren und vorrichtung zum erzeugen hochauflösender bilder
US6556009B2 (en) * 2000-12-11 2003-04-29 The United States Of America As Represented By The Department Of Health And Human Services Accelerated magnetic resonance imaging using a parallel spatial filter
US6670963B2 (en) * 2001-01-17 2003-12-30 Tektronix, Inc. Visual attention model
US7266150B2 (en) 2001-07-11 2007-09-04 Dolby Laboratories, Inc. Interpolation of video compression frames
US6633162B2 (en) * 2001-08-22 2003-10-14 Ge Medical Systems Global Technology Company, Llc System and method for filtering frequency encoded imaging signals
US6941017B2 (en) * 2001-09-18 2005-09-06 Tektronix, Inc. Temporal processing for realtime human vision system behavior modeling
US7856055B2 (en) * 2002-03-13 2010-12-21 Imax Corporation Systems and methods for digitally re-mastering or otherwise modifying motion pictures or other image sequences data
FR2848363B1 (fr) * 2002-12-10 2005-03-11 Geoservices Dispositif de transmission de donnees pour une installation d'exploitation de fluides contenus dans un sous-sol.
US20050110883A1 (en) * 2003-11-24 2005-05-26 Allen Brent H. Image property translator
KR100519776B1 (ko) * 2003-11-24 2005-10-07 삼성전자주식회사 영상 신호의 해상도 변환 방법 및 장치
US8027531B2 (en) * 2004-07-21 2011-09-27 The Board Of Trustees Of The Leland Stanford Junior University Apparatus and method for capturing a scene using staggered triggering of dense camera arrays
US7903902B2 (en) 2004-07-26 2011-03-08 Sheraizin Semion M Adaptive image improvement
US7639892B2 (en) * 2004-07-26 2009-12-29 Sheraizin Semion M Adaptive image improvement
US7982774B2 (en) * 2004-09-13 2011-07-19 Sony Corporation Image processing apparatus and image processing method
US7783130B2 (en) * 2005-01-24 2010-08-24 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Spatial standard observer
US7526142B2 (en) * 2005-02-22 2009-04-28 Sheraizin Vitaly S Enhancement of decompressed video
US20070003118A1 (en) * 2005-06-30 2007-01-04 Wheeler Frederick W Method and system for projective comparative image analysis and diagnosis
US8842730B2 (en) 2006-01-27 2014-09-23 Imax Corporation Methods and systems for digitally re-mastering of 2D and 3D motion pictures for exhibition with enhanced visual quality
WO2007148219A2 (en) 2006-06-23 2007-12-27 Imax Corporation Methods and systems for converting 2d motion pictures for stereoscopic 3d exhibition
US8711144B2 (en) * 2006-08-01 2014-04-29 Siemens Medical Solutions Usa, Inc. Perception-based artifact quantification for volume rendering
KR100925419B1 (ko) * 2006-12-19 2009-11-06 삼성전자주식회사 라플라시안 피라미드를 이용한 컬러 영상의 화질 개선 장치및 그 방법
EP1956554B1 (en) * 2007-02-09 2009-10-07 Agfa-Gevaert Visual enhancement of interval changes using a temporal subtraction technique
US8126858B1 (en) 2008-01-23 2012-02-28 A9.Com, Inc. System and method for delivering content to a communication device in a content delivery system
US8538140B2 (en) * 2008-06-23 2013-09-17 Nikon Corporation Device and method for detecting whether an image is blurred
AU2009297243B2 (en) * 2008-09-29 2015-10-29 Proyecto De Biomedicina Cima S.L. Porphobilinogen deaminase gene therapy
US8406507B2 (en) 2009-01-14 2013-03-26 A9.Com, Inc. Method and system for representing image patches
WO2010093745A1 (en) 2009-02-12 2010-08-19 Dolby Laboratories Licensing Corporation Quality evaluation of sequences of images
US8738647B2 (en) * 2009-02-18 2014-05-27 A9.Com, Inc. Method and system for image matching
JP5363656B2 (ja) * 2009-10-10 2013-12-11 トムソン ライセンシング ビデオ画像のブラーを計算する方法及び装置
KR101092650B1 (ko) * 2010-01-12 2011-12-13 서강대학교산학협력단 양자화 코드를 이용한 화질 평가 방법 및 장치
CN102858402B (zh) 2010-02-26 2016-03-30 康奈尔大学 视网膜假体
US8805112B2 (en) 2010-05-06 2014-08-12 Nikon Corporation Image sharpness classification system
US8611620B2 (en) * 2010-07-01 2013-12-17 Ardia Medical Products Ltd. Advanced digital pathology and provisions for remote diagnostics
KR20120014804A (ko) 2010-08-10 2012-02-20 삼성전자주식회사 밝기 신호와 색차 신호 간의 크로스토크를 감소시키는 비디오 신호 생성 장치 및 방법
US9302103B1 (en) 2010-09-10 2016-04-05 Cornell University Neurological prosthesis
US8422782B1 (en) 2010-09-30 2013-04-16 A9.Com, Inc. Contour detection and image classification
US8990199B1 (en) 2010-09-30 2015-03-24 Amazon Technologies, Inc. Content search with category-aware visual similarity
US8463036B1 (en) 2010-09-30 2013-06-11 A9.Com, Inc. Shape-based search of a collection of content
US9251439B2 (en) 2011-08-18 2016-02-02 Nikon Corporation Image sharpness classification system
US9147275B1 (en) 2012-11-19 2015-09-29 A9.Com, Inc. Approaches to text editing
US9043349B1 (en) 2012-11-29 2015-05-26 A9.Com, Inc. Image-based character recognition
US9342930B1 (en) 2013-01-25 2016-05-17 A9.Com, Inc. Information aggregation for recognized locations
US20140254897A1 (en) * 2013-03-06 2014-09-11 Tektronix, Inc. Design verification and diagnostics for image devices
US9424598B1 (en) 2013-12-02 2016-08-23 A9.Com, Inc. Visual search in a controlled shopping environment
GB201410635D0 (en) * 2014-06-13 2014-07-30 Univ Bangor Improvements in and relating to the display of images
US9536161B1 (en) 2014-06-17 2017-01-03 Amazon Technologies, Inc. Visual and audio recognition for scene change events
US10810455B2 (en) 2018-03-05 2020-10-20 Nvidia Corp. Spatio-temporal image metric for rendered animations
US11393115B2 (en) * 2018-11-27 2022-07-19 Infineon Technologies Ag Filtering continuous-wave time-of-flight measurements, based on coded modulation images

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01230185A (ja) * 1988-03-10 1989-09-13 Fujitsu Ltd 画質評価装置
JPH0415882A (ja) * 1990-05-09 1992-01-21 Matsushita Electric Ind Co Ltd 画質評価装置
JPH0530495A (ja) * 1991-07-17 1993-02-05 Nippon Hoso Kyokai <Nhk> 勾配法による動きベクトル検出方法
JPH0696218A (ja) * 1992-06-30 1994-04-08 Eastman Kodak Co 画像間の視覚的に認知可能な差異を決定する方法及び装置
JPH06133176A (ja) * 1992-10-14 1994-05-13 Daikin Ind Ltd 差画像作成方法、客観的画質評価方法、画像圧縮方法およびそれらの装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4792854A (en) * 1982-09-14 1988-12-20 New York Institute Of Technology Apparatus for temporally processing a video signal
CA2014935C (en) * 1989-05-04 1996-02-06 James D. Johnston Perceptually-adapted image coding system
US5204944A (en) * 1989-07-28 1993-04-20 The Trustees Of Columbia University In The City Of New York Separable image warping methods and systems using spatial lookup tables
US5446492A (en) * 1993-01-19 1995-08-29 Wolf; Stephen Perception-based video quality measurement system
US5694491A (en) * 1996-03-29 1997-12-02 David Sarnoff Research Center, Inc. Methods and apparatus for assessing the visibility of differences between two image sequences

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01230185A (ja) * 1988-03-10 1989-09-13 Fujitsu Ltd 画質評価装置
JPH0415882A (ja) * 1990-05-09 1992-01-21 Matsushita Electric Ind Co Ltd 画質評価装置
JPH0530495A (ja) * 1991-07-17 1993-02-05 Nippon Hoso Kyokai <Nhk> 勾配法による動きベクトル検出方法
JPH0696218A (ja) * 1992-06-30 1994-04-08 Eastman Kodak Co 画像間の視覚的に認知可能な差異を決定する方法及び装置
JPH06133176A (ja) * 1992-10-14 1994-05-13 Daikin Ind Ltd 差画像作成方法、客観的画質評価方法、画像圧縮方法およびそれらの装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
松井利一: "視覚モデルを用いた画質評価プロセスの定量的再現〜眼を近付けた場合の画質など〜", テレビジョン学会技術報告 VOL.20 NO.6 情報ディスプレイ, CSNG199700302001, pages 25 - 30, ISSN: 0000820349 *
松井利一: "視覚モデルを用いた画質評価プロセスの定量的再現〜眼を近付けた場合の画質など〜", テレビジョン学会技術報告 VOL.20 NO.6 情報ディスプレイ, JPN6007001196, pages 25 - 30, ISSN: 0000907471 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014524630A (ja) * 2011-08-25 2014-09-22 コーネル ユニヴァーシティー 機械視覚のための網膜符号化器
US10769483B2 (en) 2011-08-25 2020-09-08 Cornell University Retinal encoder for machine vision
US11640681B2 (en) 2011-08-25 2023-05-02 Cornell University Retinal encoder for machine vision
US11430263B2 (en) 2015-04-20 2022-08-30 Cornell University Machine vision with dimensional data reduction

Also Published As

Publication number Publication date
DE69726567D1 (de) 2004-01-15
EP0898764A1 (en) 1999-03-03
WO1997037325A1 (en) 1997-10-09
US5974159A (en) 1999-10-26
EP0898764B1 (en) 2003-12-03
KR19990087653A (ko) 1999-12-27
EP0898764A4 (en) 2000-04-26
JP4047385B2 (ja) 2008-02-13
KR100378637B1 (ko) 2003-06-18
DE69726567T2 (de) 2004-09-30

Similar Documents

Publication Publication Date Title
JP2002503360A (ja) 2つの画像系列の差の可視性を評価する方法および装置
Winkler Issues in vision modeling for perceptual video quality assessment
US5719966A (en) Apparatus for assessing the visiblity of differences between two image sequences
Mantiuk et al. Predicting visible differences in high dynamic range images: model and its calibration
Martens et al. Image dissimilarity
Chandler et al. VSNR: A wavelet-based visual signal-to-noise ratio for natural images
US5694491A (en) Methods and apparatus for assessing the visibility of differences between two image sequences
Winkler Perceptual video quality metrics—A review
Mohammadi et al. Subjective and objective quality assessment of image: A survey
JP3498842B2 (ja) 実時間人間視覚システム行動モデル化方法
Longere et al. Perceptual assessment of demosaicing algorithm performance
JP4700144B2 (ja) 2つの信号シーケンス間差分の可視度査定方法および査定装置
Masry et al. A metric for continuous quality evaluation of compressed video with severe distortions
US20020031277A1 (en) Method and apparatus for assessing the visibility of differences between two signal sequences
KR100347202B1 (ko) 이미지스트림을국부적콘트라스트단위들로분해하는방법및장치
Pedersen et al. Survey of full-reference image quality metrics
Nadenau et al. Human vision models for perceptually optimized image processing–a review
Yu et al. Human visual system based objective digital video quality metrics
Triantaphillidou et al. Contrast sensitivity in images of natural scenes
Farrell Image quality evaluation
Chandler et al. Suprathreshold image compression based on contrast allocation and global precedence
Osberger et al. An objective quality assessment technique for digital image sequences
US7760957B2 (en) Sharpness enhancement
Kitanovski et al. Masking in chrominance channels of natural images—Data, analysis, and prediction
KR100574595B1 (ko) 두개의 신호 시퀀스들 사이의 가시성 차이들을 평가하기 위한 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061010

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070227

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20070510

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20070625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070822

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20070822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071023

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071122

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101130

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111130

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111130

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121130

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121130

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131130

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term