JP2016508298A - 視聴条件を意識したビデオ符号化のための知覚前処理フィルタ - Google Patents

視聴条件を意識したビデオ符号化のための知覚前処理フィルタ Download PDF

Info

Publication number
JP2016508298A
JP2016508298A JP2015542856A JP2015542856A JP2016508298A JP 2016508298 A JP2016508298 A JP 2016508298A JP 2015542856 A JP2015542856 A JP 2015542856A JP 2015542856 A JP2015542856 A JP 2015542856A JP 2016508298 A JP2016508298 A JP 2016508298A
Authority
JP
Japan
Prior art keywords
display device
pixel
filter
perceptual
local
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015542856A
Other languages
English (en)
Other versions
JP2016508298A5 (ja
Inventor
ヴァナム ラーフル
ヴァナム ラーフル
レズニック ユーリー
レズニック ユーリー
ケロフスキー ルイス
ケロフスキー ルイス
Original Assignee
ヴィド スケール インコーポレイテッド
ヴィド スケール インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヴィド スケール インコーポレイテッド, ヴィド スケール インコーポレイテッド filed Critical ヴィド スケール インコーポレイテッド
Publication of JP2016508298A publication Critical patent/JP2016508298A/ja
Publication of JP2016508298A5 publication Critical patent/JP2016508298A5/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/164Feedback from the receiver or from the transmission channel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel

Abstract

知覚フィルタを実装して、ビデオ信号から、ビデオ信号の視聴者のコントラスト感度限度未満である1または複数の空間周波数をフィルタリングすることができる。知覚フィルタは、コンテンツ、視聴距離、表示密度、コントラスト比、表示輝度、背景輝度、および/または視聴者の年齢に例えば基づいて、1または複数の知覚フィルタパラメータを画素ベースで適応させるように構成されてよい。ビデオフレームの、DC、振幅、およびコントラスト感度の推定が実施されてよい。知覚フィルタの空間カットオフ周波数が、コントラスト感度にマッピングされてよい。知覚フィルタは、符号化済みビットレートを低下させるために、ビデオエンコーダのための前処理として使用されてよい。人間の視覚系の斜め効果現象が、知覚フィルタに組み込まれてよい。

Description

ビデオのためのフィルタに関する。
関連出願の相互参照
本出願は、2012年11月16日に出願された米国特許仮出願第61/727,203号明細書、2013年6月13日に出願された米国特許仮出願第61/834,789号明細書、および2013年9月9日に出願された米国特許仮出願第61/875,415号明細書の利益を主張するものであり、これらの各仮出願の内容全体は、参照により本明細書に組み込まれる。
ビデオおよびモバイルビデオは、世界規模のインターネットおよびモバイルネットワークにおける、急速に成長しつつあるトラフィックセグメントである。ワイヤレス送受信ユニット(WTRU)などのビデオストリーミングクライアントは、可能な最高のストリーミングマルチメディア再生品質を提供するためにストリーミングレート適応技法を採用することができ、これは例えば、通信ネットワーク条件(例えば利用可能な帯域幅)に従ってビットレートや解像度などを選択することによって行うことができる。
ビデオストリーミングレート適応技法は、ビデオストリーミングクライアントのエンドユーザによって知覚可能なビデオ品質に影響を及ぼす可能性のある視聴条件を反映できない場合がある。
知覚フィルタを実装して、ビデオ信号から、ビデオ信号の視聴者のコントラスト感度限度未満である1または複数の空間周波数をフィルタリングすることができる。知覚フィルタは、局所コントラストに、かつ/または振動の配向(orientation of oscillation or oscillations)に例えば基づいて、空間周波数を適応的にフィルタリングすることができる。知覚フィルタは、コンテンツ、視聴距離、表示密度、コントラスト比、表示輝度、背景輝度、および/または視聴者の年齢に例えば基づいて、1または複数の知覚フィルタパラメータを画素ベースで適応させるように構成されてよい。ビデオフレームの、DCレベル、振幅偏差、およびコントラスト感度の推定が実施されてよい。知覚フィルタの空間カットオフ周波数が、コントラスト感度にマッピングされてよい。知覚フィルタは、符号化済みビットレートを低下させるために、ビデオエンコーダに対する前処理として使用されてよい。人間の視覚系の斜め効果現象が、知覚フィルタに組み込まれてよい。
入力ビデオ信号の前処理は、入力ビデオ信号の視聴者によるビデオ信号の知覚に関係する少なくとも1つのパラメータを受け取ることを含んでよい。少なくとも1つのパラメータは、表示輝度と背景輝度のうちの少なくとも一方を含んでよい。前処理は、少なくとも1つのパラメータに従って適応ローパスフィルタを構成することを含んでよい。前処理は、適応ローパスフィルタを使用して入力ビデオ信号をフィルタリングして、出力ビデオ信号を生み出すことを含んでよい。適応ローパスフィルタを構成することは、人間の視覚系の斜め効果現象を適応ローパスフィルタに組み込むことを含んでよい。
キャンベル−ロブソン(Campbell-Robson)チャートを使用した例示的なコントラスト感度関数を描く図である。 知覚斜めフィルタとすることのできる例示的な知覚フィルタのブロック図である。 例示的なアンビエント適応知覚フィルタを示すブロック図である。 知覚前処理フィルタを採用する例示的なビデオシステムアーキテクチャを描く図である。 例示的なビデオ視聴セットアップのパラメータを描く図である。 ビデオシステムのブロック図である。 ビデオフィルタリングデバイスのブロック図である。 プロビジョニングデバイスのブロック図である。 ビデオストリームを示す図である。 ビデオフレームを示す図である。 方法のフローチャートである。 例示的な入力ビデオおよび/または画像を描く図である。 図12Aに描かれる例示的な入力ビデオおよび/または画像のルマ成分を描く図である。 黒レベル調整後の、図12Bに描かれる例示的な入力ビデオおよび/または画像のルマ成分を描く図である。 図12Aに描かれる例示的な入力ビデオおよび/または画像に対応するDC推定を描く図である。 図12Aに描かれる例示的な入力ビデオおよび/または画像に対応する振幅包絡線推定を描く図である。 図12Aに描かれる例示的な入力ビデオおよび/または画像に対応するカットオフ周波数マップを描く図である。 図12Aに描かれる例示的な入力ビデオおよび/または画像のフィルタリング済み出力画像を描く図である。 アンビエント光の反射を示す図である。 アンビエントコントラスト比算出への例示的な入力を示す図である。 DCの知覚に関する、中心窩の視界中の周期数の例を描く図である。 1度当たりの周期から1画素当たりの周期への例示的な変換を描く図である。 それぞれの局所的領域に含めるための画素を選択する方法のフローチャートである。 振幅包絡線推定のための例示的なプロセスフローを描く図である。 例示的なモブションおよびキォープス(Movshon and Kiorpes)コントラスト感度関数(CSF)モデルを描く図である。 例示的なCSFおよび近似逆関数を示すグラフである。 コントラスト感度を使用してカットオフ周波数を計算する際に使用され得る例示的な関係を描く図である。 周囲輝度とオブジェクト輝度との比率に応じた例示的なスケーリングファクタを示す図である。 年齢に伴うCSF変動の例を示すグラフである。 年齢に伴うCSFスケーリングの例を示すグラフである。 例示的な知覚フィルタの周波数特性を描く図である。 配向角度に応じたカットオフ周波数を描くグラフである。 分離可能ローパスフィルタによって実現され得る周波数特性に周波数特性を近似させる例を描く図である。 周波数特性を達成するために分離可能フィルタの3つの対を使用する例を描く図である。 テスト画像を描く図である。 例示的な知覚フィルタでフィルタリングされた図29Aのテスト画像の例を描く図である。 例示的な知覚斜めフィルタでフィルタリングされた図29Aのテスト画像の例を描く図である。 図29Bおよび29Cのフィルタリング済み画像に対応する差分画像を描く図である。 例示的な前処理フィルタセットアップを描く図である。 例示的なビデオに対する、フィルタリングなし(元の符号化)に勝る例示的な知覚斜めフィルタを採用することの例示的なビットレート節約を描く図である。 例示的なビデオに対する、一様プレフィルタに勝る例示的な知覚斜めフィルタを採用することの例示的なビットレート節約を描く図である。 アンビエント適応フィルタリングの例示的な結果を描く図である。 1または複数の開示される実施形態がその中で実現され得る例示的な通信システムのシステム図である。 図34Aに示される通信システム内で使用され得る例示的な送受信ユニット(WTRU)のシステム図である。 図34Aに示される通信システム内で使用され得る例示的な無線アクセスネットワークおよび例示的なコアネットワークのシステム図である。 図34Aに示される通信システム内で使用され得る例示的な無線アクセスネットワークおよび例示的なコアネットワークのシステム図である。 図34Aに示される通信システム内で使用され得る例示的な無線アクセスネットワークおよび例示的なコアネットワークのシステム図である。
モバイルビデオストリーミングおよびモバイルビデオ会議は、様々な場所で様々なときにビデオコンテンツにアクセスすることおよび/またはビデオコンテンツを視聴することのフレキシビリティを、ユーザに提供することができる。固定的であろう従来のテレビジョン表示装置と比較して、モバイルデバイスなどのWTRUは、ユーザの選好に合うようにWTRUを所望の距離および配向にセットアップするフレキシビリティを、ユーザに与えることができる。ユーザは、家庭や劇場など特定の位置でコンテンツを視聴することに制約されなくてよく、その代わり、様々な位置のいずれでもコンテンツを視聴することができる。
通信ネットワーク条件以外の1または複数の要因が、ストリーミングクライアント(例えばモバイルデバイス)の表示装置上でレンダリングされるビデオ情報の可視性を決定することがあり、これらの要因は、モバイルデバイスからの視聴距離、モバイルデバイスの表示装置のサイズ、表示装置のコントラスト感度、表示装置の画素密度、などのうちの1または複数を含み得る。例えば、ユーザから腕を伸ばした距離に保持されたモバイルデバイスは、モバイルデバイスがユーザによってより近くに保持された場合よりもずっと高い空間密度のビデオ情報を提示することができる。同様に、モバイルデバイスを直射日光の下で視聴するときは、モバイルデバイスを暗い環境で視聴するときよりも、ビデオ情報の可視性が低いであろう。
視覚情報の知覚に影響を及ぼすこのような要因は、視聴デバイスに送信される符号化済みビデオのビットレートを低下させるために例えば使用され得る、知覚前処理フィルタによって反映されることが可能である。知覚フィルタは、モバイルまたは固定デバイスへのビデオ送信と共に使用されてよく、視聴デバイスに関係する現在の条件に従って適応されてよい。モバイルデバイスを利用する視聴者は、より多様な視聴条件を経験する可能性があり、帯域幅低減の必要性をより多く有する可能性がある。よって、知覚フィルタは、ビデオの知覚品質を維持しながら、ビデオの圧縮から、結果的なビットレートを低下させることができる。
1.序論
コントラスト、または輝度コントラストは、例えば、2つの色の知覚される明度の差を定義できる知覚尺度とすることができる。周期的なパターン(例えば正弦波格子)のコントラストは、ミケルソン(Michelson)のコントラストを使用して測定されることが可能であり、これは以下のように表現されることが可能である。
上式で、LmaxおよびLminは、それぞれ最大および最小輝度値である。
あるいは、コントラストは、以下のように表現されることも可能である。
コントラストしきい値は、人間の視覚系による知覚された反応を引き出すことのできるコントラストレベルに対応するものとすることができる。コントラストしきい値の逆数は、コントラスト感度と呼ばれることがある。コントラスト感度は、以下のように表現されることが可能である。
コントラスト感度は、図1に描かれるキャンベル−ロブソンチャートによって例えば示されるように、空間周波数に応じて変動することがある。キャンベル−ロブソンチャートでは、空間周波数は、左から右に対数的に増加するものとすることができ、コントラストは、下から上に対数的に減少するものとすることができる。コントラスト感度と空間周波数との関係は、コントラスト感度関数(CSF)と呼ばれることがある。図1には、例示的なCSF曲線が示されている。
CSFは、4周期/度(CPD)で最大値を有することがあり、感度は、より低い周波数とより高い周波数の両方で減少することがあり、それにより帯域通過特性を生じる。CSF曲線は、可視性のしきい値を定義することができ、その場合、曲線よりも下の領域は視聴者に見えるものとすることができ、曲線よりも上の領域は視聴者に見えないものとすることができる(例えば不可視とすることができる)。CSFモデルは、モブションおよびキォープスモデル、バルテン(Barten)モデル、ならびに/またはダリー(Daly)モデル、のうちの1または複数を含み得る。
適応ローパスフィルタ(例えば知覚フィルタ)は、図2に描かれるように、例えば、人間の視覚系のCSFモデルに基づくことができる。知覚フィルタ202への入力は、入力ビデオおよび/もしくは画像、モバイルデバイスの表示装置とモバイルデバイスのユーザとの間の視聴距離、表示装置に関連するコントラスト比、および/または、表示装置の表示画素密度、のうちの1または複数を含み得る。入力に対して信号処理を実施して、例えば、適応ローパスフィルタ202についてのカットオフ周波数を生成することができる。
本開示のいくつかの実施形態またはその一部は、マイクロプロセッサ、マイクロコントローラ、またはディジタルシーケンシャルロジック等(プロセッサなど)の1または複数のハードウェアコンポーネントを、コンピュータメモリなどの有形のコンピュータ可読メモリデバイスに記憶された1または複数のソフトウェアコンポーネント(例えば、プログラムコード、ファームウェア、常駐ソフトウェア、マイクロコード等)と組み合わせることができ、これらは一緒に、本明細書に記載の機能を実施する特に構成された装置を形成する。特別にプログラムされたデバイスを形成するこれらの組合せは、本明細書では一般に「モジュール」と呼ばれることがある。モジュールのソフトウェアコンポーネント部分は、任意のコンピュータ言語で書かれてよく、モノリシックコードベースの一部である場合もあり、または、オブジェクト指向コンピュータ言語で通常そうであるように、より離散的なコード部分において開発される場合もある。加えて、モジュールは、複数のコンピュータプラットフォーム、サーバ、端末などにわたって分散されることもある。記載の機能が別々のプロセッサおよび/またはハードウェアプラットフォームによって実施されるように、所与のモジュールが実現される場合すらある。
図2に示されるように、適応フィルタリング装置の実施形態が、様々な機能モジュールに関して描かれている。色空間変換モジュール204が、画像(例えばビデオフレーム)を受け取り、受け取った画像の色空間を線形色空間に変換する。次いでモジュール204は、色空間変換済み画像を、輝度計算モジュール206および適応ローパスフィルタ202に提供する。輝度計算モジュール206は、受け取った色空間変換済み画像に基づいて輝度画像を生成し、輝度画像を黒レベル調整モジュール208に提供する。
知覚特性モジュールが、意図された表示デバイスのコントラスト比のコントラスト比指示を、黒レベル調整モジュール208に提供する。知覚特性モジュールはさらに、視聴距離指示および画素密度指示を、DC推定モジュール210とカットオフ周波数計算モジュール218の両方に提供する。視聴距離指示は、表示デバイスユーザから意図された表示デバイスまでの距離を含み、画素密度指示は、意図された表示デバイスの画素密度を含む。
黒レベル調整モジュール208は、受け取った輝度画像および受け取ったコントラスト比指示に基づいて、黒レベル調整済み画像を生成する。次いでモジュール208は、黒レベル調整済み画像を、DC推定モジュール210および差分モジュール214に提供する。DC推定モジュール210は、受け取った視聴距離指示および画素密度指示に基づいて黒レベル調整済み画像の各画素の局所的DCを推定することによって、DC推定画像を生成する。次いでモジュール210は、DC推定画像を、差分モジュール214とコントラスト感度推定モジュール216の両方に提供する。
差分モジュール214は、受け取った黒レベル調整済み画像およびDC推定画像に基づいて差分画像を生成し、差分画像を振幅推定モジュール212に提供する。モジュール212は、受け取った差分画像の各画素についてそれぞれの局所的振幅を推定することによって、振幅推定画像を生成する。次いでモジュール212は、振幅推定画像をコントラスト感度推定モジュール216に提供する。
モジュール216は、受け取ったDC推定画像および振幅推定画像の各画素についてそれぞれのコントラスト感度値を生成し、コントラスト感度値をカットオフ周波数計算モジュール218に提供する。モジュール218は、コントラスト感度関数と、受け取った視聴距離指示および画素密度指示とに基づいて、受け取った各コントラスト感度値についてそれぞれのカットオフ周波数値を計算する。次いでモジュール218は、カットオフ周波数値を適応ローパスフィルタモジュール202に提供する。
モジュール202は、色空間変換モジュール204から受け取った色空間変換済み画像と、カットオフ周波数計算モジュール218から受け取ったカットオフ周波数値とに基づいて、フィルタリング済み画像を生成する。次いでモジュール202は、フィルタリング済み画像を第2の色空間変換モジュール220に提供する。モジュール220は、受け取ったフィルタリング済み画像の色空間を、元の色空間(色空間変換モジュール204によって受け取られた)に変換し、知覚プレフィルタリング済み画像を出力する。
実施形態では、知覚フィルタは、CSFモデルを採用して、1または複数の不可視な空間周波数を決定する。これらを使用して、例えば、適応ローパスフィルタ(例えば知覚フィルタ)の局所カットオフ周波数を決定することができる。例えば本明細書に記載のような知覚フィルタは、人間の視覚系の斜め効果現象を組み込む(例えば反映する)ことができる。例えば、知覚フィルタは、1または複数の空間周波数を、水平および/または垂直方向に対して相対的に、斜め方向にフィルタリングする(例えば強くフィルタリングする)ことができる。斜め効果を組み込むことによって、知覚フィルタは、例えば式(1)を単独で使用するのに勝って、空間的振動を低減することができる。これは、視覚品質をほとんどまたは全く損失せずに、ビデオの符号化に使用されるビットレートを低下させるのを可能にすることができる。
図3は、例示的なアンビエント適応知覚フィルタ302を示すブロック図である。アンビエント適応知覚フィルタ302への入力は、入力ビデオおよび/もしくは画像、モバイルデバイスの表示装置とモバイルデバイスのユーザとの間の視聴距離、表示装置に関連するコントラスト比、表示装置の表示画素密度、アンビエント照明レベル、背景反射係数、ならびに/またはユーザの年齢、のうちの1または複数を含み得る。入力に対して信号処理を実施して、例えば、適応ローパスフィルタ302についてのカットオフ周波数を生成することができる。
適応フィルタリング装置の実施形態が、図3に示される様々な機能モジュールに関して描かれている。色空間変換モジュール304が、画像(例えばビデオフレーム)を受け取り、受け取った画像の色空間を線形色空間に変換する。次いでモジュール304は、色空間変換済み画像を、輝度計算モジュール306および適応ローパスフィルタモジュール334に提供する。輝度計算モジュール306は、受け取った色空間変換済み画像に基づいて輝度画像を生成し、輝度画像を黒レベル調整モジュール310に提供する。
アンビエントコントラスト比モジュール308が、アンビエント照明指示、表示装置反射率指示、ピーク輝度指示、およびネイティブコントラスト比指示を、知覚特性モジュールから受け取る。アンビエント照明指示は、意図された表示デバイスにおけるアンビエント照明を含み、表示装置反射率指示は、意図された表示デバイスの反射率を含み、ピーク輝度指示は、意図された表示デバイスのピーク輝度を含み、ネイティブコントラスト比指示は、意図された表示デバイスのネイティブコントラスト比を含む。モジュール308は、受け取った指示に基づいて、意図された表示デバイスのアンビエントコントラスト比を計算し、計算したコントラスト比のアンビエントコントラスト比指示を黒レベル調整モジュール310に提供する。
モジュール310は、受け取った輝度画像および受け取ったアンビエントコントラスト比指示に基づいて、黒レベル調整済み画像を生成する。次いでモジュール310は、黒レベル調整済み画像を、DC推定モジュール312、差分モジュール316、および大域DC推定モジュール326に提供する。
DC推定モジュール312は、受け取った黒レベル調整済み画像の各画素についてそれぞれの局所的DCを推定することによって、DC推定画像を生成する。次いでモジュール312は、DC推定画像を、差分モジュール316とコントラスト感度推定モジュール318の両方に提供する。差分モジュール316は、受け取った黒レベル調整済み画像およびDC推定画像に基づいて差分画像を生成し、差分画像を振幅推定モジュール314に提供する。
モジュール314は、受け取った差分画像の各画素についてそれぞれの局所的振幅を推定することによって、振幅推定画像を生成する。次いでモジュール314は、振幅推定画像をコントラスト感度推定モジュール318に提供する。モジュール318は、受け取ったDC推定画像および振幅推定画像の各画素についてそれぞれのコントラスト感度値を生成し、コントラスト感度値をカットオフ周波数計算モジュール320に提供する。
表示装置サイズモジュール322が、表示装置幅指示、表示装置高さ指示、画素密度指示、および視聴距離指示を、知覚特性モジュールから受け取る。表示装置幅指示および表示装置高さ指示は、意図された表示デバイスの幅および高さをそれぞれ含む。画素密度指示は、意図された受信デバイスの画素密度を含み、視聴距離指示は、表示デバイスユーザから意図された表示デバイスまでの距離を含む。モジュール322は、受け取った指示に基づいて、意図された表示デバイスの角度サイズ(度で表された)を決定し、決定した角度サイズの角度サイズ指示をカットオフ周波数計算モジュール320に提供する。
サラウンド輝度モジュール324が、アンビエント照明指示と表示装置反射率指示の両方を、知覚特性モジュールから受け取る。これらの指示は、意図された表示デバイスにおけるアンビエント照明、および意図された表示デバイスの反射率をそれぞれ含む。モジュール324は、受け取った指示に基づいて、意図された表示デバイスにおけるサラウンド輝度を決定し、決定したサラウンド輝度のサラウンド輝度指示をカットオフ周波数計算モジュール320に提供する。
大域DCモジュール326は、モジュール310から受け取った黒レベル調整済み画像の平均DC値を決定する。次いでモジュール326は、決定した平均DC値の大域DC指示を時間フィルタモジュール328に提供する。モジュール328は、受け取った大域DC指示と、前にフィルタリングされた画像の時間フィルタリング済みDC値とに基づいて、現画像についての時間フィルタリング済みDC値を決定する。次いでモジュール328は、時間フィルタリング済みDC値の時間フィルタリング済みDC指示を、ピーク輝度モジュール330に提供する。
モジュール330は、受け取った時間フィルタリング済みDC指示と、知覚特性モジュールから受け取ったピーク輝度指示とに基づいて、スケーリング済みDC値を決定する。受け取ったピーク輝度指示は、意図された表示デバイスのピーク輝度を含む。次いでモジュール330は、スケーリング済みDC値のスケーリング済みDC指示を、カットオフ周波数計算モジュール320に提供する。
カットオフ周波数計算モジュール320は、受け取った各コントラスト感度値について、それぞれのカットオフ周波数値を計算する。計算は、(i)逆コントラスト感度関数、(ii)受け取った角度サイズ指示、サラウンド輝度指示、およびスケーリング済みDC指示、ならびに(iii)知覚特性モジュールから受け取ったユーザ年齢指示に基づき、受け取ったユーザ年齢指示は、意図された表示デバイスのユーザの年齢を含む。次いでモジュール320は、計算したカットオフ周波数値を、周波数変換モジュール332に提供する。
周波数変換モジュール332は、1度当たりの周期(CPD)で表された値をとり、1画素当たりの周期(CPP)で表された値を適応フィルタに提供する。1度当たりの画素の決定はさらに、例えば、表示装置の1度当たりの周期数、および/または、ユーザと表示装置との間の視聴距離に基づくことができる。実施形態では、1画素当たりの周期数は、以下のように決定される。
上式で、Dは、画素で表された視聴距離であり、CPDは、選択された1度当たりの周期数である。
適応ローパスフィルタモジュール334は、色空間変換モジュール304から受け取った色空間変換済み画像と、周波数変換モジュール332から受け取った変換済みカットオフ周波数値とに基づいて、フィルタリング済み画像を生成する。次いでモジュール334は、フィルタリング済み画像を、第2の色空間変換モジュール336に提供する。モジュール336は、受け取ったフィルタリング済み画像の色空間を、元の色空間(色空間変換モジュール304によって受け取られた)に変換し、知覚プレフィルタリング済み画像を出力する。
2.例示的なシステム
図4は、知覚前処理フィルタ402を採用する例示的なビデオシステムアーキテクチャ400を描く。知覚前処理フィルタ402は、例えば符号化の前に、入来ビデオコンテンツに適用されてよい。前処理フィルタ402は、視聴セットアップのパラメータに関係する1または複数の入力に従って動作することができ、これらのパラメータは例えば、モバイルデバイスの表示装置に対する視聴距離(例えば、モバイルデバイスの前向きカメラを使用して計算された)、表示装置の表示密度、および/または、表示装置の実効コントラスト比である。パラメータは、事前に決定された(例えば、1または複数の典型的な考慮事項に基づいて選択された)ものであってもよく、または動的に選択される(例えば、推定されて符号化システムに通信し返される)ものであってもよい。
例えば知覚フィルタに再生セットアップの1または複数の特性が提供された場合に、知覚フィルタを使用して、エンドユーザに見えないであろう空間的振動を選択的に除去することができる。このような振動を除去することによって、知覚フィルタは、従来型のビデオエンコーダ(例えば、高効率ビデオ符号化(HEVC)エンコーダ、H.264エンコーダなど)への入力として提供され得るビデオ信号を単純化することができる。入力ビデオ信号を単純化する結果、得られた出力ビデオ信号を(例えば1または複数のチャネルを介して)通信するのに使用されるビットレートを低下させることができる。ビデオ信号を知覚前処理フィルタでフィルタリングし、その後でビデオ信号を符号化することは、視聴条件を意識したビデオ符号化と呼ばれることが可能である。
図5は、例示的なビデオ視聴セットアップ(例えば、ワイヤレス送受信ユニット(WTRU)の表示装置502上でのストリーミングビデオ視聴)のパラメータを描く。視野504が両眼視によって形成されてよく、したがって、視野504は、水平に約120度(120°)とすることができる。例示されるビデオセットアップに関連するパラメータは、WTRUの表示装置サイズ、表示装置502までの視聴距離、表示装置502の表示解像度、表示装置502の表示密度(例えば、1インチ(2.54センチ)当たりの画素で表された)、および、視聴者508(例えば、WTRUのユーザ)に関連する視野角506、のうちの1または複数を含み得る。パラメータのうちの1または複数は、相互に関係し合う場合がある。例えば、視野角は、以下のように表現されることが可能である。
図6は、いくつかの実施形態による、ビデオシステムのブロック図である。図6に示されるように、ビデオシステム600は、ビデオソース602、ビデオフィルタリングデバイス604、ビデオエンコーダ606、データベースサーバ608、ビデオデコーダ610、表示装置612、センサ614、ユーザインタフェース616、ネットワーク618、およびプロビジョニングデバイス620を含む。
ビデオフィルタリングデバイス604は、本明細書に記載のビデオフィルタリングデバイス機能を実施できる任意のコンポーネントとすることができる。図7は、いくつかの実施形態による、例示的なビデオフィルタリングデバイスのブロック図である。図7に示されるように、ビデオフィルタリングデバイス604は、プロセッサ702と、プログラム命令706を記憶するデータ記憶装置704と、通信インタフェース708と、フィルタ710とを備え、これらの各々はシステムバス712を介して相互接続される。
プロセッサ702は、1もしくは複数の汎用プロセッサ、および/または、1もしくは複数の専用プロセッサの形をとる(またはそれを含む)ことができ、全体的または部分的に、データ記憶装置704および/または通信インタフェース708と統合されてよい。プロセッサ702は、他の形をとることもできる。
データ記憶装置704は、プログラム命令706を記憶することに加えて、多くの可能性の中でもとりわけ、特性データ、データベースデータ、および/またはユーザインタフェースデータを記憶することもできる。データ記憶装置は、非一時的コンピュータ可読媒体の形をとる(またはそれを含む)ことができ、この非一時的コンピュータ可読媒体は、ほんの少数の例を挙げると、ハードドライブ、ソリッドステートドライブ、EPROM、USB記憶デバイス、CD−ROMディスク、DVDディスク、他の任意の不揮発性記憶装置、またはこれらの任意の組合せなどである。プログラム706は、本明細書に記載の様々な機能を実施するためにプロセッサ702によって実行可能な機械言語命令を含むことができる。データ記憶装置および/またはプログラム命令は、他の形をとることもできる。
通信インタフェース708は、本明細書に記載の通信インタフェース機能を実施できる任意のコンポーネントとすることができる。通信インタフェースは、例えば、ビデオフレームをビデオソース602から受け取ること、フィルタリング済みフレームをビデオエンコーダ606に提供すること、知覚メッセージをプロビジョニングデバイス620から受け取ること、クエリをデータベースサーバ608に送りクエリ応答をデータベースサーバ608から受け取ること、および/または他の任意のエンティティと通信すること、を容易にすることができる。通信インタフェースは、例の中でもとりわけ、Ethernet(登録商標)、Wi−Fi、Bluetooth、および/もしくはユニバーサルシリアルバス(USB)インタフェース、ならびに/または、システムバスの形をとる(またはそれを含む)ことができる。通信インタフェース708および/またはシステムバス712が他の形をとることもできることは、当業者なら認識するであろう。
フィルタ710は、本明細書に記載のフィルタ機能を実施できる任意のコンポーネントとすることができる。したがって、フィルタ710は、多くの可能性の中でもとりわけ、有限インパルス応答(FIR)フィルタ、ランチョス(Lanczos)フィルタ、ガウシアンフィルタ、他の任意のアナログもしくはディジタルフィルタ、またはこれらの任意の組合せの形をとることができる。
再び図6を参照するが、ビデオソース602は、本明細書に記載のビデオソース機能を実施できる任意のコンポーネントとすることができる。ビデオソースは、多くの可能性の中でもとりわけ、DVDおよび/もしくはBlu−rayプレーヤ、ビデオカメラ(スマートフォンやタブレットコンピュータなど別のデバイスにおそらく組み込まれた)、ならびに/またはビデオ加入サービス(Netflix(登録商標)やHulu(登録商標)など)のコンピュータ、の形をとる(かつ/またはそれを含む)ことができる。ビデオソースは、1または複数のビデオフレームをビデオフィルタリングデバイスに提供するように構成されてよい。
ビデオエンコーダ606は、本明細書に記載のビデオエンコーダ機能を実施できる任意のコンポーネントとすることができる。エンコーダは、フィルタリング済みビデオフレームをビデオフィルタリングデバイス604から受け取るように構成されてよい。エンコーダは、多くの可能性の中でもとりわけMPEG−2 Part2、MPEG−4 Part2、H.264(MPEG−4 Part10)、Theora、Dirac、RealVideoRV40、VP8、および/またはHEVCに従った、1または複数の既知のビデオ圧縮アルゴリズムをおそらく使用して、受け取ったフィルタリング済みビデオフレームを符号化することができる。エンコーダは、おそらくネットワーク618を介して、符号化済みビデオフレームをビデオデコーダ610に提供するように構成されてよい。
データベースサーバ608は、本明細書に記載のデータベースサーバ機能を実施できる任意のコンポーネントとすることができる。データベースサーバは、検索クエリをビデオフィルタリングデバイス604から受け取って、クエリ応答をビデオフィルタリングデバイスに提供するように構成されてよい。
ビデオデコーダ610は、本明細書に記載のビデオデコーダ機能を実施できる任意のコンポーネントとすることができる。デコーダは、おそらくネットワーク618を介して、符号化済みビデオフレームをビデオエンコーダ606から受け取るように構成されてよい。デコーダは、前述のビデオ圧縮アルゴリズムのうちの1または複数をおそらく使用して、受け取った符号化済みビデオフレームを復号することができる。エンコーダは、復号済みビデオフレームを表示デバイス612に提供するように構成されてよい。
表示装置612は、本明細書に記載の表示装置機能を実施できる任意のコンポーネントとすることができる。表示装置は、多くの可能性の中でもとりわけ、陰極線管(CRT)表示装置、発光ダイオード(LED)表示装置、プラズマ表示装置、液晶表示装置(LCD)、薄膜トランジスタ(TFT)表示装置、および/または有機発光ダイオード(OLED)表示装置などの表示装置を含み得る。表示デバイスは、多くの可能性の中でもとりわけ、テレビジョン、コンピュータモニタ、スマートフォン、および/またはタブレットコンピュータの形をとることができる。表示デバイスは、復号済みビデオフレームをビデオデコーダ610から受け取って、受け取った復号済みビデオフレームを、表示装置を介して提示するように構成されてよい。表示デバイスは、表示装置反射率、表示装置最大輝度、および/または表示装置ネイティブコントラスト比などの表示特性を、プロビジョニングデバイス620に提供することができる。
プロビジョニングデバイス620は、本明細書に記載のプロビジョニングデバイス機能を実施できる任意のコンポーネントとすることができる。図8は、いくつかの実施形態による、プロビジョニングデバイス620のブロック図である。図示のように、プロビジョニングデバイス620は、プロセッサ802と、プログラム命令806を記憶するデータ記憶装置804と、通信インタフェース808とを備え、これらの各々はシステムバス810を介して相互接続される。これらの各々は、図7に関して上述されたように機能することができる。
図8に示されるように、プロビジョニングデバイス320は、通信リンク818を介して、表示装置612、センサ614、および/またはユーザインタフェース616のうちの1または複数と通信可能にリンクされてよい。別の可能性として、表示装置、センサ、およびユーザインタフェースのうちの任意の1または複数は、プロビジョニングデバイスに組み込まれてもよい。
センサ614は、本明細書に記載のセンサ機能を実施できる任意のコンポーネントとすることができる。感知デバイスは、表示デバイス612における1または複数の視聴条件を検出するように構成されてよい。検出される視聴条件は、多くの可能性の中でもとりわけ、表示装置ユーザから表示装置612までの視聴距離、および/または、表示デバイスにおけるアンビエント光の輝度とすることができる。
ユーザインタフェース616は、本明細書に記載のユーザインタフェースデバイス機能を実施できる任意のコンポーネントとすることができる。ユーザインタフェースは、キーボード、マウス、および/または表示装置(表示装置612など)を含むかまたは組み込むことができる。ユーザインタフェースデバイスは、ユーザ特性(表示デバイス612の表示デバイスユーザの年齢など)を得ることができる。
プロビジョニングデバイスは、可能性の中でもとりわけ例えば表示装置612、センサ614、ユーザインタフェース616、および/またはデータ記憶装置804から、知覚特性を得るように構成されてよい。プロビジョニングデバイスは、得られた知覚特性をビデオフィルタリングデバイス604に提供することができる。
ビデオシステム600のエンティティのうちの任意の1または複数は、ビデオシステムの他の任意のエンティティ(entity or entities)と結合されてもよく、かつ/またはそれに組み込まれてもよいことを理解されたい。例えば、ビデオフィルタリングデバイス604はビデオエンコーダ606と結合されてもよく、かつ/または、ビデオデコーダ610は表示装置612と結合されてもよい。表示装置612、センサ614、およびユーザインタフェース616のうちの任意の1または複数が結合されて、1つのコンポーネントにされてもよい。
図9は、例示的な実施形態によるビデオストリームを示す。図9に示されるように、ビデオストリーム900は、複数のビデオフレーム902から908を含む。ビデオストリームは、空間的x軸910およびy軸912、ならびに時間的t軸914に沿った、3次元である。
図10は、例示的な実施形態によるビデオフレームを示す。図10に示されるように、ビデオフレーム902は、N個の画素行およびM個の画素列を含む。x軸およびy軸が、ビデオフレームに沿って水平および垂直にそれぞれ延びる。ビデオフレーム中の各画素P0,0からPM-1,N-1は、Px,yとして参照されることが可能であり、ここで、xおよびyはそれぞれのx値およびy値で置き換えられる。各画素は、画素の輝度、クロミナンス、色、または他の値をおそらく示す、1または複数の対応する値を有することができる。
3.例示的な動作
3.1.ビデオフレームの受領
図11は、例示的な実施形態による方法のフローチャートである。図11に示されるように、方法1100はステップ1102で開始し、ビデオフィルタリングデバイス604が複数のビデオフレーム902から908を受け取る。実施形態では、各フレームは、複数の画素P0,0からPM-1,N-1を有する。図12A〜12Gは、知覚フィルタを採用する例示的な前処理プロセス中の様々な状態における、例示的な入力ビデオおよび/または画像を示す。図12Aは、受け取られる(例えばフルカラーで)であろう入力ビデオおよび/または画像を示す。
3.2.局所的コントラスト感度の決定
3.2.1.色空間の変更
ステップ1104で、ビデオフィルタリングデバイス604は、各画素P0,0からPM-1,N-1について、それぞれの局所的コントラスト感度CSx,yを決定する。それぞれの局所的コントラスト感度CSx,yを決定することは、ビデオフレームの色空間を変更することを伴う場合がある。入力ビデオおよび/または画像は、線形空間に変換されてよい。例えば、入力ビデオおよび/または画像がYUV4:2:0フォーマットのものである場合は、入力ビデオおよび/または画像は、YUV入力がITU−Rec、BT.601、BT.709、および/またはSMPTE240規格を使用して生成されたかどうかに例えば基づいて、色変換行列を使用してガンマ領域RGB色空間に変換されてよい。ガンマ領域RGBは、例えば逆ガンマ操作を適用することによって、線形RGBフレームに変換されてよい。AVI、BMP、またはPNGフォーマットの入力ビデオおよび/または画像の場合は、入力ビデオおよび/または画像からsRGB画像が抽出されてよく、デガンマ操作が入力ビデオおよび/または画像に適用されて、線形RGBフレームが生成されてよい。他の色空間変更も可能である。
3.2.2.知覚特性の取得
それぞれのコントラスト感度CSx,yの決定は、少なくとも1つの知覚特性に、少なくとも部分的に基づくことができる。実施形態では、表示装置612の表示特性と、表示装置612の視聴条件と、表示装置612のユーザのユーザ特性とからなるグループから、知覚ファクタが選択される。受信デバイスの表示特性は、例えば、表示装置612の画素密度、表示装置612の高さおよび/もしくは幅、表示装置612のネイティブコントラスト比、ならびに/または、表示装置612の反射率とすることができる。視聴条件は、可能性の中でもとりわけ、表示装置612におけるアンビエント照明、および/または、ユーザと表示装置612との間の距離(「視聴距離」と呼ばれる)とすることができる。ユーザ特性は、ユーザの、年齢および/または他の特性とすることができる。表1に、例示的な知覚特性の要約リストが列挙される。
表示特性、視聴条件、および/またはユーザ特性は、他の形をとることもでき、知覚特性は、上に明示的に列挙されていない他のタイプの特性を含むこともできる。
知覚特性は、ビデオフィルタリングデバイス604の通信インタフェース708を介して得られることがある。得られる特性は、フォトダイオードの電流または電圧など、アナログ信号とすることができる。別の可能性として、得られる知覚特性は、ディジタルフォーマットで表されることもある。例えば、32インチ(81.28センチ)の表示装置高さは、バイナリフォーマットで00100000として受け取られてよい。得られたディジタルフォーマット知覚特性は、可能性の中でもとりわけ、IPパケットなどのデータグラム中にカプセル化されることが可能である。
実施形態では、知覚特性は、プロビジョニングデバイス620から得られる。別の実施形態では、知覚特性を得ることは、知覚情報(知覚特性以外の)をプロビジョニングデバイス620から受け取ることを伴う。知覚情報は、例えば、ユーザ名、デバイスシリアル番号、デバイスモデル番号等とすることができる。ビデオフィルタリングデバイス604は、知覚情報を受け取ると、受け取った知覚情報に少なくとも部分的に基づいてクエリをデータベースサーバ608に送ることができる。
クエリを受け取るのに応答して、データベースサーバは、受け取ったクエリに関連する知覚特性を選択する。例えば、データベースは、1または複数のモデルまたはシリアル番号と、各モデルまたはシリアル番号に関連して1または複数の知覚特性とを記憶することができる。いくつかの実施形態では、データベースは、シリアル番号に基づいてモデル番号を決定することができる。所与のモデルまたはシリアル番号に基づくクエリを受け取ると、データベースサーバは、例えば、所与の番号に関連付けられたデバイスの、画素密度、高さおよび幅、ならびに/または反射率を選択する。ユーザ名に基づくクエリをサーバが受け取った場合、データベースサーバは、ユーザ名に関連づけられたユーザの年齢を選択することができる。受け取ったクエリに基づいて知覚特性を選択した後、データベースサーバは、選択した知覚特性をビデオフィルタリングデバイス604に送ることができる。ビデオフィルタリングデバイス604は、知覚特性をデータベースサーバ608から受け取り、受け取った知覚特性に基づいてそれぞれの局所的コントラスト感度を決定することができる。
知覚特性は他の形をとることもでき、他の知覚特性取得方法も可能であることは、当業者なら認識するであろう。
3.2.3.黒レベルの調整
いくつかの実施形態で、それぞれの局所的コントラスト感度CSx,yを決定することは、各画素P0,0からPM-1,N-1の黒レベルを調整することを伴う場合がある。例示的な入力ビデオおよび/または画像に対して、黒レベル調整が実施されてよい。例えば[0,1]の範囲を有する、正規化された輝度成分が、線形RGBフレームから抽出されてよい。例えば表示装置の1または複数の特性のせいで、表示装置上の黒色が、照度測定値0に対応しない場合があり、そうではなく正の値を有する場合がある。表示装置上の黒の照度と、実際の黒画素値との不一致を補償するために、黒レベル調整が輝度フレームに適用されてよい。表示装置のコントラスト比Cdが、以下のように表現されることが可能である。
逆数αが、α=1/Cdとして定義されることが可能である。黒レベル調整は、例えば、以下の演算をルマ成分xに適用することによって実施されてよい。
y=α+(1−α)x (式6)
図12Bおよび12Cは、例示的な入力ビデオおよび/または画像の、正規化済みルマ成分および黒レベル調整済みルマ成分をそれぞれ描く。
表示装置を特徴付けることのできるコントラスト比は、暗所で測定されてよく、表示装置のネイティブコントラスト比と呼ばれることがある。アンビエント光がある場合、図13に示されるように、表示面は、光の一部を反射することがあり、この光は白と黒の両方の輝度レベルを増大させることがある。この結果、コントラスト比が低減されることがある。黒レベル調整に使用され得るコントラスト比は、アンビエント照明の推定値I(a)(例えばルクスで表された)、表示装置反射率の推定値(例えばパーセンテージ、例えば4%Rdとして表現された)、アンビエント光がない場合の表示装置白の輝度W、および/またはネイティブコントラスト比CR0、との相関関係とすることができる。アンビエントコントラスト比は、以下のように計算されることが可能である。
上式で、図13に示される
の値は、
によって与えられるものとすることができる。ファクタπは、ルクスをcd/m2単位に変換することができる。
アンビエント照明は、表示デバイス上のセンサによって供給されてもよく、または、例えば時刻から推定されてもよい。白の輝度は、相対的な表示明るさおよびピーク明るさによって決定されてよい。ネイティブコントラスト比および表示装置反射率の値は、表示装置仕様によって決定されてもよく、または、典型的な値、例えばCR0=1000およびRd=4%を想定することによって決定されてもよい。図14は、アンビエントコントラスト比算出への、アンビエントルクス1402、表示装置反射率1404、表示装置ホワイトポイント1406、および表示装置ネイティブCR1408の例示的な入力を示すブロック図である。
図11の方法1100に戻るが、ステップ1104での決定は、各画素P0,0からPM-1,N-1について黒レベルを調整し、黒レベル調整された各画素についてそれぞれの局所的コントラスト感度を決定することを伴う場合がある。実施形態では、画素ごとの黒レベルの調整は、表示装置612のアンビエントコントラスト比C1に基づく。アンビエントコントラスト比に基づいて画素ごとに黒レベルを調整することは、ビデオフィルタリングデバイス604が、表示装置612におけるアンビエント照度と、表示装置612の反射率と、表示装置612のピーク輝度と、表示装置612のネイティブコントラスト比と、からなるグループから選択された少なくとも1つの知覚特性を得ることを伴う場合がある。ビデオフィルタリングデバイスは、得られた前述のような少なくとも1つの知覚特性に(少なくとも)基づいて、アンビエントコントラスト比C1を決定することができる。次いでビデオフィルタは、前述のように、決定したアンビエントコントラスト比C1に基づいて、画素ごとに黒レベルを調整することができる。実施形態では、決定されたアンビエントコントラスト比C1に基づいて各画素の黒レベルを調整することは、それぞれの画素値の調整済み値
を以下のように決定することを含む。
上式で、Px,yは、それぞれの画素の値である。
3.2.4.局所ピーク振幅に対する局所平均の比率の決定
それぞれの画素Px,yについてのそれぞれの局所的コントラスト感度CSx,yは、画素Px,yの周りのそれぞれの局所的領域Rx,y内の画素のそれぞれの値に、少なくとも部分的に基づくことができる。いくつかの実施形態では、CSx,yはまた(または代わりに)、少なくとも1つの知覚ファクタに、少なくとも部分的に基づくことができる。Rx,yに含めるための画素の選択は、少なくとも1つの知覚ファクタに基づくことができる。少なくとも1つの知覚ファクタは、例えば、以下に説明される可能性の中でもとりわけ、表示装置612における視聴条件、表示装置の表示特性、および/または、表示装置ユーザのユーザ特性とすることができる。
コントラスト感度が推定されてよい(例えば画素ごとに)。例えば、位置(i,j)(本明細書では座標(x,y)を使用して参照されることもある)の各入力画素について、コントラスト感度が、それぞれのDCと振幅(例えば本明細書に記載のように計算された)との比率をとることによって計算されてよく、これは以下のように表現されることが可能である。
実施形態では、ステップ1104での決定は、各画素P0,0からPM-1,N-1について、それぞれのDC(または「局所平均」)DCx,yと、それぞれの振幅(または「局所ピーク振幅」)Ax,yの両方を決定することを伴う。それぞれの画素Px,yについての、それぞれの局所平均DCx,yとそれぞれの局所ピーク振幅Ax,yのいずれかまたは両方は、それぞれの局所的領域Rx,y内の画素の値に基づくことができる。
例示的な入力ビデオおよび/または画像の、黒レベル調整済みルマ成分のDCが、以下のように表現されるガウシアンローパスフィルタを例えば適用することによって、推定されてよい。
上式で、後者の公式中のブラケットで囲まれた演算(
)は、フロア演算を表すことができ、σ1は標準偏差とすることができる。σ1の選択は、例えば、人間の視力に基づくことができる。図15に描かれるように、人間の目の中の中心窩は、約2度の視野を見ることができる。入力が正弦波格子であった場合、DCは、中心窩の視界中の最大2分の1周期に対応するものとすることができる。ローパスフィルタの最大カットオフ周波数は、以下のように表現されることが可能である。
例えば、3dBカットオフ周波数=1/2CPDが選ばれてよい。DCijは、位置(i,j)におけるDC値を表すことができる。図12Dは、カットオフ周波数1/2CPDを使用したローパスフィルタリング後の、例示的な入力ビデオおよび/または画像に対応するDC推定を描く。
CPDで表されたカットオフ周波数は、1画素当たりの周期に変換されてよく、関連するσ1が計算されてよい。図16に描かれるように、CPDで表されたカットオフ周波数を1画素当たりの周期に変換する際、nは、1周期中の画素数とすることができ、dは、画素数で表された視聴距離とすることができ、βは、1周期当たりの度数で表された視野角とすることができる。画素で表された視聴距離は、以下のように表されることが可能である。
視聴距離と表示装置画素密度は両方とも、例えば図2または図3に描かれるように、知覚フィルタ202または302への入力パラメータとすることができる。
図16は、以下の関係をもたらすことができる。
βは1周期当たりの度数とすることができるので、1度当たりの周期で表された周波数は、cpd=1/βとすることができる。上式(19)は、以下のように表現されることが可能である。
この式(20)は、以下のように表現されることが可能である。
カットオフ周波数は、σから計算されてよい。例えば、式(21)を使用して、1画素当たりの周期で表されたカットオフ周波数を導出することができる。1画素当たりの周期で表されたカットオフ周波数fcからσ1を計算するための公式が導出されてよい。式(16)に離散フーリエ変換を適用して、以下によって与えられる周波数応答を得ることができる。
3dBカットオフ周波数fcでは、以下のとおりである。
図18に、振幅包絡線推定のための例示的なプロセスフロー1600を描く。1602で、推定されたDCとルマ画像との絶対差分を計算して、差分画像を得ることができる。サイズ11×11画素のスライディングフィルタ内で最大値を例えば見つけることによって、マックスフィルタが差分画像に適用されてよい。マックスフィルタは、差分画像の包絡線を推定することができる。1604で、式(16)と同様のガウシアンローパスフィルタを例えば使用して差分画像を平滑化して、推定振幅包絡線画像を得ることができる。
例えば、ガウシアンローパスフィルタパラメータσおよびNが、以下のように計算されてよい。
σ=0.1325×2×(2.5N2+1) (式21)
上式で、N2=4である。位置(i,j)における振幅包絡線推定値は、振幅ijによって表されてよい。図12Eは、図12Aに描かれる例示的なテスト画像に対応する振幅包絡線推定を描く。
図17は、いくつかの実施形態による、Rx,yに含めるための画素を選択する方法のフローチャートである。図17に示されるように、方法1700はステップ1702で開始し、ビデオフィルタリングデバイス604が、カットオフ周波数として、1度当たりの周期数を選択する。実施形態では、選択される1度当たりの周期は、1/4または1/2である。特許請求の範囲を逸脱することなく他のカットオフ周波数が選択されてもよいことは、当業者なら認識するであろう。
ステップ1704で、ビデオフィルタリングデバイス604は、1度当たりの周期数に基づいて、1画素当たりの周期数を決定する。1度当たりの画素の決定はさらに、例えば、表示装置612の1度当たりの画素数、および/または、ユーザと表示装置612との間の視聴距離に基づくことができる。実施形態では、1画素当たりの周期数は、以下のように決定される。
上式で、Dは、画素で表された視聴距離であり、CPDは、選択された1度当たりの周期数である。
ステップ1706で、ビデオフィルタデバイスは、決定された1画素当たりの周期数に基づいて、ガウシアンフィルタの標準偏差σ1を決定する。実施形態では、標準偏差σ1は、以下のように決定される。
上式で、fは、決定された1画素当たりの周期数である。
ステップ1708で、ビデオフィルタリングデバイス604は、標準偏差σ1の値に少なくとも部分的に基づいて、Rx,yに含めるための画素を選択する。実施形態では、ビデオフィルタリングデバイス604は、Rx,yに含めるために、Px,yの周りで、Px-N,y-N、Px-N,y+N、Px+N,y-N、Px+N,y+Nによって境界を画された画素を選択し、ここで、Nの値は、標準偏差σ1の値に少なくとも部分的に基づく。実施形態では、
である。特許請求の範囲を逸脱することなく他の値のNが代わりに使用されてもよいことは、当業者なら認識するであろう。
いくつかの実施形態では、ビデオフィルタリングデバイス604は、Rx,yに含めるために、Px,yの周りで、Px-N,y-N、Px-N,y+N、Px+N,y-N、Px+N,y+Nによって境界を画された画素を選択することができ、ここで、Nは所定の値である。実施形態では、N=9である。他の値のNも可能である。
実施形態では、それぞれの局所的領域Rx,yは、それぞれの局所的DC領域RDC x,y、およびそれぞれの局所的振幅領域RA x,yを含む。ビデオフィルタリングデバイス604は、それぞれの局所的DC領域RDC x,y内の画素の値に少なくとも部分的に基づいて、それぞれの局所平均DCx,yを決定し、それぞれの局所的振幅領域RA x,y内の画素の値に少なくとも部分的に基づいて、それぞれの局所ピーク振幅Ax,yを決定する。RDC x,y中の画素のセットは、RDC x,y中の画素のセットと同じである場合もあり、そうでない場合もある。
実施形態では、それぞれの画素Px,yについてのそれぞれの局所平均DCx,yは、RDC x,y中の画素の値の平均として決定される。実施形態では、ビデオフィルタリングデバイス604は、Rx,yに含めるために、Px,yの周りで、Px-N,y-N、Px-N,y+N、Px+N,y-N、Px+N,y+Nによって境界を画された画素を選択する。ここで、
である。中央傾向の他の尺度(例えば、メジアン、モード)または他の任意の手段を使用してそれぞれの局所平均DCx,yを決定することもできる。
実施形態では、それぞれの画素Px,yについてそれぞれのローカルピーク振幅Ax,yを決定することは、ビデオフィルタリングデバイス604が、各画素P0,0からPM-1,N-1についてそれぞれの絶対差分値Dx,y=|Px,y−DCx,y|を決定することを伴う。次いでビデオフィルタリングデバイスは、「マックス」フィルタを使用して、それぞれの画素の周りのそれぞれのウィンドウRW x,y中の画素について、決定したそれぞれの絶対差分値の最大値を選択する。「マックス」フィルタは、それぞれの画素Px,yについて、それぞれのスライディングウィンドウRW x,y内の画素のうちから、それぞれの局所的最大値Dmax x,yを選択する。実施形態では、それぞれのウィンドウRW x,yは、11×11画素領域である。
実施形態では、ビデオフィルタリングデバイス604は、Px,yの周りのそれぞれの局所的振幅領域RA x,y内の画素の値に少なくとも部分的に基づいて、それぞれの画素Px,yについてのそれぞれの各局所的最大値Dmax x,yにガウシアンフィルタを適用する。ビデオフィルタリングデバイス604は、RA x,yに含めるために、Px,yの周りで、Px-N,y-N、Px-N,y+N、Px+N,y-N、Px+N,y+Nによって境界を画された画素を選択する。ここで、例えばN=9である。ビデオフィルタリングデバイスは、それぞれの画素Px,yについてのそれぞれの局所ピーク振幅Ax,yとして、それぞれのフィルタリング済み値Dmax x,yを選択する。
3.3フィルタ帯域幅の設定
図11に戻るが、ビデオフィルタリングデバイスは、ステップ1106で、それぞれの画素のそれぞれの局所的コントラスト感度CSx,yに少なくとも部分的に基づいて、各画素P0,0からPM-1,N-1についてのそれぞれのフィルタ帯域幅fc x,yを選択する。それぞれのフィルタ帯域幅の選択は、以下に説明されるように、それぞれのコントラスト感度にコントラスト感度モデルを適用することを伴う場合がある。
モブションおよびキォープスCSFモデルは、3パラメータ指数関数を採用してCSFをモデル化することができ、これは以下のように表現されることが可能である。
csf(f)=afc-bf (式24)
上式で、例えば、a=75、b=0.2、およびc=0.8であり、fは、CPDで表された空間周波数とすることができる。図17は、例えば4cpdでピークに達する帯域フィルタ特性を呈することのできる例示的なモブションおよびキォープスCSFモデルを描く。
バルテンCSFモデルは、いくつかの視聴パラメータを含むことができる。このモデルは、以下のように表現されることが可能である。
上式で、A、B、C、およびDは、その値が例えば下式によって与えられることが可能な定数とすることができる。
値X0は、視度で表されたオブジェクトサイズとすることができる。値Lは、cd/m2で表されたオブジェクト輝度とすることができる。S(u)についての表現は、以下のように近似されることが可能である。
この近似公式は、ランベルトW関数を使用して解析的に反転されて、下式を与えることが可能である。
この逆関数は、下式によって近似されることが可能である。
バルテンCSFの逆関数に対するこの近似の精度は、図18に示されるように、この近似の逆関数l-1(u)と共にバルテンCSF(例えば元のバルテンCSF)をプロットすることによって評価されることが可能である。CSFのピークを過ぎると、近似逆関数は、バルテンCSFに近いものとすることができる。
カットオフ周波数が算出されてよい。例えば、コントラスト感度は、適応ローパスフィルタのカットオフ周波数にマッピングされてよい。CSFモデル(例えば、モブションおよびキォープスのCSFモデル)に基づいて、カットオフ周波数を計算するための逆関係がコントラスト感度から構築されてよい。例示的なモデルは、以下のように表現されることが可能である。
上式で、以下のとおりである。
ij=−42.26+78.463csij -0.079−0.04894csij 1.0809 (式31)
min=4CPD (式32)
max=35.9CPD (式33)
バルテンCSFが使用される場合、カットオフ周波数は、関係(26)中で表現されるモデルではなく、例えば本明細書に開示される関係(8)中の逆関数I(s)を使用して、選択されてよい。
このモデルは、4CPD未満の周波数に対する通過帯域を有するローパスフィルタとして、CSFを近似することができる。適応ローパスフィルタは、それぞれ4CPDおよび35.9CPDの最小および最大カットオフ周波数を有することができる。図19は、例示的なモデルが、例えば4CPDおよび35.9CPDを含む範囲で、どのようにモブションおよびキォープスのモデルにぴったり合うことができるかを描く。前述のプロセスを採用して、1または複数の入力画素(例えば各入力画素)についてそれぞれのカットオフ周波数を計算することができる。図12Fに、例示的な入力ビデオおよび/または画像についての、画素ごとの例示的なカットオフ周波数が描かれている。
方法1100に戻るが、それぞれのフィルタ帯域幅の選択は、逆コントラスト感度関数に少なくとも部分的に基づくことができる。逆コントラスト感度関数は、モブションおよびキォープスコントラスト感度モデルの逆関数に少なくとも部分的に基づくことができる。追加でまたは代替として、逆コントラスト感度関数は、バルテンコントラスト感度モデルの逆関数に少なくとも部分的に基づくこともできる。
実施形態では、逆コントラスト感度関数は、下式を使用して、それぞれの画素Px,yについてのカットオフ周波数fc x、yを提供する。
c x、y=−42.26+78.463CSx、y -0.079−0.04894CSx、y 1.0809 (式34)
上式で、CSx、yは、Px,yについてのそれぞれのコントラスト感度である。逆コントラスト感度関数は他のコントラスト感度モデルおよびコントラスト感度関数に基づいてもよいことは、当業者なら認識するであろう。
テスト用パターンの平均DCに等しいテストを囲む視野を用いて、コントラスト感度測定が実施されてよい。視野の環境が異なるとき、HVS感度は変化する場合がある。例えば、夜と昼とでは、ヘッドライトによって発せられる光がほぼ同じであるかもしれなくても、点灯されたヘッドライトの外観は大きく変化する場合がある。バルテンモデルは、テスト用オブジェクト(例えばCSFテストパターン)の輝度に対する周囲輝度の比率に依存する、CSFについてのスケーリング関数を導入することによって、この挙動をモデル化する。例えば、本明細書で式(5)に開示されるバルテンモデルのコントラストAは、ファクタfによってスケーリングされてよい。このスケーリングファクタfが、モブションおよびキォープスCSFモデルに適用されてよい。スケーリングファクタfは、以下のように表現されることが可能である。
上式で、LSは周囲輝度であり、LOはオブジェクトの輝度であり、XOは、視度で表されたオブジェクトのサイズである。図20に、例として、周囲輝度とオブジェクト輝度との比率に応じたスケーリングファクタfを示す。
CSFは、年齢に伴う減少を特徴とする場合がある。図21に、年齢に伴うCSF変動の例を示す。CSFに適用され得るスケーリングファクタが決定されてよい。20代の年齢に対応するCSFがベースラインとして使用されてよい。図23に示されるデータから計算されたスケーリングファクタが、年齢に伴うスケーリングの包絡線を近似できる線形モデルと共に、図22に描かれている。
年齢に依存するスケーリングファクタを計算できるモデルが導出されてよい。年齢に依存するスケーリングファクタは、本明細書で式(5)に開示されるバルテンモデルの定数Aに、かつ/またはモブションおよびキォープスCSFモデルに、適用されてよい。スケーリングファクタは、以下のように表現されることが可能である。
サラウンド効果が使用されてよい。サラウンド効果を利用するために、CSFを適切に修正するためのスケーリングファクタfが決定されてよい。モデルは、3つの定数、例えば、サラウンドの輝度LS、オブジェクトの輝度LO、およびオブジェクトのサイズXOを使用することができる。
XOには、表示装置サイズが使用されてよい。XOの値は、視度で表現されてよい。視聴距離を使用して、視角と画素寸法との間で変換することができる。
オブジェクト輝度は、オブジェクト輝度に対して直接に表示装置ピーク輝度を例えば使用することによって、対応する明るさ設定における表示装置ピーク輝度を使用して決定されてよい。平均表示装置輝度を使用して、ピーク輝度をスケーリングすることができる。この算出のために、平均表示装置輝度が時間の経過に伴って平滑化されてよい。
オブジェクト輝度は、DC画像の平均を計算することにより画像全体にわたる大域DCを計算することによって、推定されてよい。大域DCは、以下のように定義される1タップIIRフィルタを例えば使用して、時間的にフィルタリングされてよい。
上式で、
は、時間的にフィルタリングされた大域DCとすることができ、DCjは、フレームjの大域DCとすることができる。フィルタリング済みDCをピーク輝度によってスケーリングして、オブジェクト輝度LOをもたらすことができる。
サラウンド輝度は、アンビエントコントラスト比の場合と同様に、アンビエント光レベルA(例えばルクスで表された)を使用して推定されてよい。一様な背景反射率値RSが想定されてよい。サラウンド輝度LS(例えばcd/m2で表された)は、以下のように算出されてよい。
CSFスケーリングファクタfは、例えばCSFを使用してカットオフ周波数を決定する前に、パラメータLS、LO、およびXOから計算されてよい。CSFは一定に維持されてよく、感度値は、例えばカットオフ周波数を計算する前に、スケーリングファクタの逆数によってスケーリングされてよい。
サラウンド効果と同様、年齢効果がスケーリングファクタによって反映されてよい。年齢をスケーリングファクタに変換する例示的な数学モデルが、関係(10)として本明細書に開示される。ユーザは、構成(例えば初期構成)の一部として、年齢値を供給することができる。代替としてまたはそれに加えて、ビデオコンテンツの人口統計を使用して年齢値を選択することもできる。例えば、ゴルフイベントには、音楽ビデオと比較してより高い年齢値が割り当てられるものとすることができる。追加の情報が利用可能でない場合は、デフォルト年齢値、例えば20が年齢パラメータに使用されてよい。
実施形態では、ステップ1106でそれぞれのフィルタ帯域幅fc x,yを選択することは、それぞれの画素Px,yについてそれぞれのスケーリング済みコントラスト感度CSs x,yを得て、それぞれのスケーリング済み局所的コントラスト感度に少なくとも部分的に基づいてそれぞれのフィルタ帯域幅を選択することを伴う。実施形態では、スケーリング済みコントラスト感度は、スケーリングファクタfsを使用して得られる。例えば、ビデオフィルタリングデバイス602は、スケーリングファクタfsの値を選択し、それぞれの局所的コントラスト感度CSs x,yに、選択したスケーリングファクタを掛けることができる。
実施形態では、スケーリングファクタfsは、表示装置612におけるアンビエント照度と、表示装置のピーク輝度と、表示装置612のサイズとを含めた、知覚特性のセットに基づいて選択される。別の実施形態では、スケーリングファクタfsは、表示装置612のユーザの年齢に基づいて選択される。フィルタ帯域幅は、下式を使用して選択されてよい。
上式で、年齢は、ユーザの年齢である。スケーリングファクタは、年齢、アンビエント照度、ピーク輝度、表示装置サイズ、または他の任意の知覚特性の、任意の組合せに基づくことができる。
3.4.ビデオフレームのフィルタリング
ステップ1108で、ビデオフィルタリングデバイス604は、画素のそれぞれの選択されたフィルタ帯域幅fc x,yに従って各画素P0,0からPM-1,N-1をフィルタリングすることによって、フィルタリング済みビデオフレームを生成する。各フィルタリング済み画素は、それぞれのフィルタリング済み値
を有することができる。
適応ローパスフィルタ(例えば知覚フィルタ)は、例えばランチョスフィルタに基づくことができる。1または複数の入力線形RGB画素が、ランチョスフィルタを使用してフィルタリングされてよい。位置(i,j)におけるランチョスフィルタは、以下のように定義されることが可能である。
上式で、fc(i,j)は、位置(i,j)におけるカットオフ周波数とすることができ、nはフィルタ次数(例えばn=4)とすることができる。2つの分離可能ランチョスフィルタが使用されてよい。例えば、第1のランチョスフィルタは、1または複数の行の画素に沿ったフィルタリングに使用されてよく、第2のランチョスフィルタは、1または複数の列の画素に沿ったフィルタリングに使用されてよい。ランチョスフィルタによってフィルタリングされることになる1または複数の入力画素(例えば各入力画素)に対して、それぞれのカットオフ周波数、例えば本明細書に記載のように計算されたそれぞれのカットオフ周波数fcが、使用されてよい。ランチョスフィルタは、画素ベースで適応することができる。2つの分離可能ランチョスフィルタは、水平方向と垂直方向のうちの一方または両方で、カットオフ周波数fcを有することができる。この結果、例えば図23に描かれるような周波数特性となる場合がある。カットオフ周波数fcは、局所コントラスト比に適応することができる(例えば適応されられることができる)。
c値のセットに対応するランチョスフィルタのバンクが、事前に計算されてよい。例えば、fc値のセットは、F={fc1,fc2,...,fcM}とすることができ、ここで、Mはフィルタバンクの総数とすることができる。式(27)を使用して画素についてのカットオフ周波数fc(i,j)が計算されると、これは、セットF中の最も近いカットオフ周波数に近似されてよく、これを使用してフィルタバンクからフィルタを選ぶことができる。
例えば水平および/または垂直パターンと比較して、斜めに配向されたパターンの、低下した可視性は、斜め効果と呼ばれることがある。生理学的実験は、パターンの配向が人間の視覚系のコントラスト感度に影響を及ぼす場合があることを示している。斜めパターンは、水平および/または垂直パターンと比較して、劣った感度を有する場合がある。ダリーCSFモデルは、入力配向を考慮することによって、斜め効果の現象を反映することができる。
斜め効果は、適応ローパスフィルタ(例えば知覚フィルタ)に組み込まれる(例えばその内部で反映される)ことが可能であり、したがって、適応ローパスまたは知覚フィルタは、知覚斜めフィルタと呼ばれることがある。例えば、これは、カットオフ周波数を周波数領域における配向角度に適応させることによって達成されるであろう。斜め効果現象をモデル化するために、カットオフ周波数fcと周波数配向角度θとの以下の関係が使用されてよい。
上式で、fcは、式(26)を使用して得られるであろう。図24に、式(28)の例証が描かれている。図26に示されるように、カットオフ周波数fcが水平方向と垂直方向の両方に使用されてよく、一方でより小さいカットオフ周波数0.78fcがθ=45°に使用されてよい。
異方性2次元有限インパルス応答(FIR)フィルタを実装して、図26に示される周波数特性などの周波数特性を得ることができる。図27に描かれるように、いくつかの分離可能フィルタ対を使用して周波数特性を近似させることができる。図27に示されるように、分離可能フィルタの3つの対を使用して、周波数特性を達成することができる。図28に、分離可能フィルタの3つの対2102、2104、2106を使用して周波数特性を達成することの例が描かれている。分離可能フィルタ対2102、2104、2106のうちの1または複数(例えば各分離可能フィルタ対)が、水平および/または垂直方向について指定されたそれぞれのカットオフ周波数を有することができる。図28に描かれるように、所望の周波数特性を有するフィルタリング済み出力を得るために、分離可能フィルタ対2102および2104からのフィルタリング済み出力が加算されてよく、フィルタ対2106からの出力が減算されてよい。
実施形態では、フィルタ710は、3つの分離可能フィルタF1、F2、およびF3の形の非分離可能フィルタである。3つのフィルタは、それぞれの水平カットオフ周波数f1 H、f2 H、およびf3 H、ならびにそれぞれの垂直カットオフ周波数f1 V、f2 V、およびf3 Vを有することができる。
1、F2、およびF3の水平および垂直カットオフ周波数の値は、以下のように選択されてよい。
1 H=f2 V=f3 V
1 V=f2 H=f3 H
カットオフ周波数は、f1 H≠f1 V、またはf1 H=f1 Vのように選択されてよい。
さらに、カットオフ周波数の値は、以下のように選択されてよい。
1 H=s1×f2 H=s1×f3 H
1 V=s2×f2 V=s2×f3 V
上式で、s1およびs2はスケーリングファクタである。スケーリングファクタs1は、s2と同じである可能性もあり、またはs2とは異なる可能性もある。実施形態では、s1=s2=.5515である。他の値のs1およびs2が使用されてもよい。
実施形態では、それぞれの画素Px,yをF1、F2、およびF3の各々でフィルタリングすることは、3つのそれぞれのフィルタリング済み値
、および
を与える。それぞれの画素Px,yについてのそれぞれの合成フィルタリング済み値
が、以下のように決定されてよい。
実施形態では、分離可能フィルタF1、F2、およびF3のうちの少なくとも1つは、2つの1次元分離可能フィルタ(それぞれのカットオフ周波数を有する、1つの水平フィルタおよび1つの垂直フィルタ)の形の、2次元分離可能フィルタである。
3.5.ビデオフレームの提供
ステップ1110で、ビデオフィルタリングデバイス604は、フィルタリング済みビデオフレームをビデオエンコーダ606に提供している。フレームをエンコーダ606に提供する前に、ガンマ操作をフィルタリング済み線形RGB画像に適用して、フィルタリング済み線形RGB画像をsRGB画像に変換することができる。入力がYUV4:2:0フォーマットのものであった場合、sRGBはYUV4:2:0色空間に変換し戻されることが可能である。図12Gは、モバイルデバイスの表示装置上でレンダリング(例えばフルカラーで)されたときに現れるであろう、例示的な入力ビデオおよび/または画像のフィルタリング済み出力画像を描く。
4.例示的なシステム
本開示の実施形態は、データ記憶装置と、受信機と、コントラスト感度決定モジュールと、フィルタ帯域幅選択モジュールと、ビデオフィルタモジュールとを備えるビデオフィルタリング装置の形をとる。
実施形態では、データ記憶装置は、1または複数のビデオフレームを記憶するように構成され、これらのビデオフレームは、受信フレームおよびフィルタリング済みフレーム、ならびに、ビデオフィルタリングプロセスの前、間、または後における他の中間状態のビデオフレーム(例の中でもとりわけ、ルマフレーム、色空間変換済みフレーム、および黒レベル調整済みフレームなど)を含む。ビデオフィルタリング装置の機能モジュールが、データ記憶装置に記憶されたビデオフレームに対して操作を実施することができ、この操作の結果を、他の機能モジュールによって使用されるようにデータ記憶装置に記憶することができる。データ記憶装置は、例えば、前述のデータ記憶装置704の形をとることができる。実施形態では、ビデオフレームは、それぞれの画素値を有する複数の画素を含む。
実施形態では、受信機は、少なくとも1つの知覚特性を受信することができる。知覚特性は、例として、表示装置における視聴条件、表示装置の表示特性、および/またはユーザ特性とすることができる。受信機は、可能性の中でもとりわけ、黒レベル調整モジュール、コントラスト感度決定モジュール、および/またはフィルタ選択モジュールなど、1または複数の他のモジュールに、得られた特性を提供することができる。
実施形態では、ビデオフィルタリング装置は、表示装置における視聴条件、表示装置の表示特性、および/またはユーザ特性に関連付けられた知覚情報を受け取るように構成された、知覚相関モジュールを備える。知覚情報は、可能性の中でもとりわけ、表示装置のシリアル識別子、表示装置のモデル識別子、表示装置の地理的位置、表示装置における時刻、および/または表示装置のユーザのユーザ名とすることができる。
実施形態では、知覚相関モジュールは、知覚情報に少なくとも部分的に基づいて知覚特性を得るように構成される。例えば、知覚相関モジュールは、1または複数のモデルまたはシリアル番号と、各モデルまたはシリアル番号に関連して1または複数の知覚特性とを記憶するように構成された、ルックアップテーブルを備える。知覚相関モジュールは、シリアル番号に基づいてモデル番号を決定することができる。知覚相関モジュールは、モデルまたはシリアル番号に関連付けられて記憶された知覚特性を得ることができ、知覚特性は、所与の番号に関連するデバイスの、画素密度、高さおよび幅、ならびに/または反射率などである。知覚情報がユーザ名を含む場合、知覚相関モジュールは、ユーザ名に関連付けられたユーザの年齢を得ることができる。知覚情報が表示装置の地理的位置、および/または表示装置における時刻を含む場合、知覚相関モジュールは、表示装置における推定されたアンビエント照度を得ることができる。他の例も可能である。
実施形態では、ビデオフィルタリング装置は、ビデオフレームの色空間を第1の色空間から第2の色空間に変換するように構成された色空間変換モジュールを備える。例えば、ビデオフィルタリング装置は、CMYK、HSV/HSL、YIQ、YUV、YPbPr、および/またはxvYCC色空間で色を表すビデオフレームを受信する場合がある。色空間変換モジュールは、sRGB(単純化されたフレーム変換機能を可能にすることのできる線形色空間)など、装置互換性のある色空間内で一般に動作するビデオフィルタリング装置の実施形態で、採用されてよい。装置互換性のある色空間以外の色空間を有する受信ビデオフレームの変換を可能にするために、色空間変換モジュールは、1または複数の色空間特有の変換を実施する前に、受信ビデオフレームの色空間を装置互換性のある色空間に変換することができる。実施形態では、色空間変換モジュールは、受信ビデオフレームの色空間を、元の色空間から線形RGB色空間(sRGBまたはガンマ補正された線形色空間)に変換し、フィルタリング済みビデオフレームの色空間を元の色空間に変換して戻す。
実施形態では、ビデオフィルタリング装置は、表示装置におけるアンビエントコントラスト比に少なくとも部分的に基づいて各画素のそれぞれの黒レベルを調整するように構成された、黒レベル調整モジュールを備える。黒レベル調整モジュールは、1つの可能性として、それぞれのコントラスト感度をコントラスト感度決定モジュールが決定する前にそれぞれの黒レベルを調整するビデオフィルタリング装置の実施形態で、採用されてよい。黒レベル調整モジュールは、例として、受信ビデオフレームおよび/または色空間変換済みビデオフレームの、それぞれの画素の黒レベルを調整することができる。実施形態では、黒レベル調整モジュールは、下式を使用して、各画素値Pについてのそれぞれの調整済み値PAを決定する。
上式で、C1はアンビエントコントラスト比である。
実施形態では、黒レベル調整モジュールは、デバイスにおけるアンビエントコントラスト比を決定するように構成されたアンビエントコントラスト比決定モジュールを備える。アンビエントコントラスト比決定モジュールは、知覚特性のセットに少なくとも部分的に基づいてアンビエントコントラスト比を決定することができ、知覚特性のセットは、表示装置におけるアンビエント照度、表示装置の最大輝度、表示装置の反射率、および表示装置のネイティブコントラスト比、のうちの1または複数を含む。例えば、アンビエントコントラスト比決定モジュールの実施形態は、以下のようにアンビエントコントラスト比CR(a)を決定する。
上式で、I(a)はアンビエント照明であり、Rdは表示装置反射率であり、Wは、アンビエント光がない場合の表示装置白の輝度であり、CR0はネイティブコントラスト比である。黒レベル調整モジュールは、可能性の中でもとりわけ、アンビエントコントラスト比決定モジュールによって決定されたアンビエントコントラスト比に基づいて、各画素の黒レベルを調整することができる。
実施形態では、コントラスト感度決定モジュールは、ビデオフレームのそれぞれの画素ごとに、それぞれの局所的コントラスト感度を決定するように構成される。コントラスト感度モジュールは、それぞれの画素の周りのそれぞれの局所的領域内の画素のそれぞれの値と、少なくとも1つの知覚特性とに(少なくとも部分的に)基づいて、それぞれのコントラスト感度を決定するように構成されてよい。他の構成も可能である。
実施形態では、コントラスト感度決定モジュールは、局所平均推定モジュール、局所極大推定モジュール、およびコントラスト感度比率モジュールを備える。実施形態では、コントラスト感度比率モジュールは、各画素についてそれぞれの比率を決定するように構成され、それぞれの比率は、それぞれの局所極大に対するそれぞれの局所平均の比率である。コントラスト感度決定モジュールは、決定されたそれぞれの比率を、それぞれの画素についてのそれぞれの局所的コントラスト感度として選択するように構成されてよい。
局所平均推定モジュールは、それぞれの局所的領域内の画素の値に少なくとも部分的に基づいて、それぞれの局所平均を決定するように構成されてよい。実施形態では、局所平均推定モジュールは、それぞれの局所的領域内の画素の値の和を得て、得られた和を領域内の画素の数で割ることによって、それぞれの局所平均を決定するように構成されてよい。他の構成も可能であろう。
実施形態では、それぞれの画素の周りのそれぞれの局所的領域は、それぞれの局所平均領域とそれぞれの局所極大領域の両方を含み、コントラスト感度決定モジュールは、局所平均領域に含めるための画素を選択するように構成された局所平均領域選択モジュールを備える。局所平均領域選択モジュールは、視野の1度当たりの空間的振動数を有する局所的カットオフ周波数を選択して、この局所的カットオフ周波数を視野の1度当たりの画素数に変換することによって、画素を選択することができる。このモジュールは、変換済み局所的カットオフ周波数に少なくとも部分的に基づいて、それぞれの局所平均領域に含めるための画素を選択することができる。実施形態では、局所平均領域選択モジュールは、変換済み局所的カットオフ周波数に(少なくとも部分的に)基づいてガウシアンフィルタの標準偏差値を決定し、次いで、それぞれの画素から所与の数の標準偏差内にある画素を選択する。例えば、実施形態では、局所平均領域選択モジュールは、それぞれの画素から
画素内にある画素を選択する。局所平均推定モジュールは、局所平均領域選択モジュールによって選択された画素のそれぞれの局所平均を決定するように構成されてよい。他の構成も可能である。
実施形態では、コントラスト感度決定モジュールは、それぞれの絶対差分値を決定するように構成された差分モジュールを備える。それぞれの画素についてそれぞれの絶対差分値を決定するために、差分モジュールは、それぞれの画素の、それぞれの値とそれぞれの局所平均との差の絶対値を決定することができる。それぞれの画素値は、可能性の中でもとりわけ、元の画素値、それぞれの色空間変換済み値、または黒レベル調整済み値とすることができる。
実施形態では、局所極大推定モジュールは、それぞれの局所極大領域内の画素のそれぞれの絶対差分値のそれぞれの局所極大を決定するように構成される。実施形態では、局所極大領域選択モジュールが、それぞれの局所極大領域に含めるために、それぞれの画素から所定数の画素内にある画素を選択する。例えば、実施形態では、局所極大領域選択モジュールは、それぞれの画素から5画素内にある画素を選択し、この結果、11画素×11画素の局所極大領域となる。実施形態では、局所極大領域選択モジュールは、局所平均領域選択モジュールについて記述されたのと同様にして、画素を選択する。他の構成も可能であろう。
実施形態では、局所極大推定モジュールはさらに、それぞれの局所極大を決定する前に、各画素のそれぞれの絶対差分値にガウシアンフィルタを適用するように構成される。例えば、実施形態では、局所極大推定モジュールは、下式によって与えられるガウシアンフィルタを適用する。
σ=0.1325×2×(2.5N2+1) (式44)
上式で、
であり、N2=4である。σ、N、およびN2の、他の値が使用されてもよい。
実施形態では、コントラスト感度決定モジュールは、スケーリングファクタに(少なくとも部分的に)基づいて画素のそれぞれの局所的コントラスト感度を調整するように構成された、コントラスト感度スケーリングモジュールを備える。スケーリングファクタは、少なくとも1つの知覚特性に(少なくとも部分的に)基づいて決定されてよい。例えば、実施形態では、コントラスト感度モジュールは、知覚特性のセットに(少なくとも部分的に)基づいてスケーリングファクタを決定するように構成されたサラウンド輝度スケーリングファクタモジュールを備え、知覚特性のセットは、表示装置におけるアンビエント照度、表示装置の最大輝度、表示装置の反射率、および表示装置のネイティブコントラスト比を含む。同様に、実施形態では、コントラスト感度モジュールは、表示装置のユーザの表示装置ユーザ年齢に(少なくとも部分的に)基づいてスケーリングファクタを決定するように構成された年齢スケーリングファクタモジュールを備える。サラウンド輝度スケーリングファクタモジュールおよび年齢スケーリングファクタモジュールは、方法ステップ1006に関して上述されたように、それぞれの知覚特性を使用してそれぞれのスケーリングファクタを決定することができる。
実施形態では、フィルタ帯域幅選択モジュールは、画素のそれぞれの局所的コントラスト感度に少なくとも部分的に基づいて、各画素についてそれぞれのフィルタ帯域幅fcを決定するように構成される。例えば、フィルタ帯域幅選択モジュールは、方法ステップ1106に関して上述されたように、それぞれの局所的コントラスト感度を逆コントラスト感度関数に提供してカットオフ周波数を得るように構成されてよい。
実施形態では、フィルタ帯域幅選択モジュールは、それぞれのフィルタ帯域幅に少なくとも部分的に基づいて、画素ごとの対応するフィルタを選択するように構成される。例えば、実施形態では、フィルタ帯域幅選択モジュールは、所与のフィルタ帯域幅に対応するフィルタのルックアップテーブルを備える。モジュールは、決定されたそれぞれのフィルタ帯域幅に対応するフィルタを、ルックアップテーブルから選択する。
実施形態では、対応するフィルタは、フィルタ係数のセットとして表される。例えば、フィルタ帯域幅f1に対するフィルタは、フィルタ係数のセット{f0 1,f1 1,f2 1,f3 1,およびf4 1}として表されてよく、フィルタ帯域幅f1に対するフィルタは、フィルタ係数のセット{f0 2,f1 2,f2 2,f3 2,およびf4 2}として表されてよい。実施形態では、所与のフィルタ帯域幅に対する係数は、ステップ1108に関して上述されたランチョスフィルタから導出される。
実施形態では、フィルタ帯域幅選択モジュールは、各画素について、それぞれの水平帯域幅とそれぞれの垂直帯域幅の両方を選択するように構成される。水平帯域幅と垂直帯域幅のいずれか(または両方)は、逆コントラスト感度関数によって提供されるカットオフ周波数とすることができ、次いでこれにスカラsが掛けられる。実施形態では、s=.5515である。実施形態では、フィルタ帯域幅選択モジュールは、各画素について、水平帯域幅と垂直帯域幅の3つの対、すなわちF1={s×fc,fc}、F1={fc,s×fc}、およびF3={s×fc,s×fc}を選択するように構成され、ここで、各対の中の1番目の帯域幅は水平帯域幅であり、2番目の帯域幅は垂直帯域幅である。
実施形態では、ビデオフィルタモジュールは、各画素についてのそれぞれの選択されたフィルタに従って各画素をフィルタリングすることによって、フィルタリング済みビデオフレームを生成するように構成される。例えば、ビデオフィルタモジュールは、それぞれの画素についての選択されたフィルタに対応するそれぞれのフィルタ係数セットを使用して、フィルタリング済みビデオフレームを生成するように構成されてよい。実施形態では、ビデオフィルタモジュールは、画素ごとに選択されたそれぞれの水平および垂直フィルタに従って、各画素をフィルタリングするように構成される。例えば、実施形態では、ビデオフィルタモジュールは、フィルタ対F1、F2、およびF3に従って各画素をフィルタリングしてそれぞれのフィルタ結果R1、R2、およびR3を得ることによって、フィルタリング済みビデオフレームを生成する。ビデオフィルタリング装置のフィルタ合計モジュールが、生成されたフィルタリング済みビデオフレーム中の各画素についてのそれぞれのフィルタリング済み値として、総計フィルタ結果R1+R2−R3を決定するように構成される。
5.結び
知覚フィルタおよび知覚斜めフィルタのそれぞれの性能は、テスト画像を両方のフィルタでフィルタリングすることによって例証されるであろう。例えば、本明細書に記載のような知覚フィルタと知覚斜めフィルタの両方を使用して、図29Aに描かれる「星」テスト画像がフィルタリングされた。図29Bは、図29Aのテスト画像を知覚フィルタでフィルタリングすることによって生み出された例示的な出力画像を描く。図29Cは、図29Aのテスト画像を知覚斜めフィルタでフィルタリングすることによって生み出された例示的な出力画像を描く。図22Bおよび22Cに描かれる画像は、同じ(例えばほぼ同じ)視聴条件を使用して得られた。図29Dに描かれるような差分画像が得られた。図29Dに示されるように、知覚斜めフィルタは、垂直および水平方向に沿って知覚フィルタと実質的に同一に機能することができるが、1または複数の斜め方向に沿って追加のフィルタリングを実施することができる。
知覚斜めフィルタは、ビデオエンコーダに対する前処理ステップとして使用されてよい。例えば一様プレフィルタ方式および/またはフィルタリングなし方式ではなく、知覚斜めフィルタを採用することによって、利益が実現され得る。一様プレフィルタは、視聴条件に基づく空間カットオフ周波数を使用することができ、この空間カットオフ周波数は、視力限度に対応するものとすることができる。対照的に、知覚斜めフィルタは、局所コントラスト感度と、1もしくは複数の空間的振動の配向とのうちの一方または両方に例えば基づいて、そのカットオフ周波数を画素ベースで適応させることができる。
知覚斜めフィルタを採用することの結果は、角度特性(例えば、ユーザが視聴している表示装置の幅を取り込むことのできる、ユーザの観察角度)の点から提示されることが可能である。これは、視野角γと呼ばれることがある。視野角γは、例えば、以下のように表示装置幅wおよび視聴距離dに結び付けられることが可能である。
この測定基準は、例えば、結果が種々の画面密度および/またはサイズに適用可能になるので、好都合な場合がある。この定義を使用して、6°から45°の観察角度の範囲をカバーするユーザ位置を記述するために12個の例示的な動作ポイントが選択された。画面の実効コントラスト比についての以下の例示的なテストポイント、すなわち、CR∈{2:1,3:1,5:1,10:1,100:1,および100000:1}が選択された。1番目の例示的なコントラスト比は、表示装置が日光の下にあるときの状況に対応するものとすることができ、一方で最後の例示的なコントラスト比は、暗い室内のスタジオモニタの等価物に対応するものとすることができる。知覚斜めフィルタを採用することの結果は、他の適切な点から、例えば種々の視聴距離などの点から提示されてもよい。
知覚斜めフィルタは、「IntoTree」1080pビデオテストシーケンスを使用してテストされた。テストでは、定数量子化パラメータ(QP)レート制御を伴うx264高プロファイルビデオエンコーダが使用された。図30に、知覚斜めフィルタと一様プレフィルタの両方に使用された実験用テストセットアップが描かれている。
図31に、知覚プレフィルタ(例えば知覚斜めフィルタ)を使用することによってフィルタリングなし(例えば元の符号化)に勝って達成され得る、例示的なビット節約が示されている。図示のように、知覚斜めフィルタは、より狭い視野角および/またはより小さいコントラスト比で、大幅なビット節約を達成することができ、フィルタリングなし方式に勝る例えば75%の最大ビット節約を生むことができる。
図32に、知覚斜めフィルタを採用することによって一様プレフィルタに勝って達成され得る、同じ視聴条件(例えばほぼ同じ視聴条件)の下における性能の例が示されている。図示のように、かなりのビットレート節約、例えば、15°と35°の間の視野角では10%よりも大きく、約20°の視野角では40%のビットレート節約が、達成され得る。知覚斜めフィルタは、例えばより低いコントラスト比では、一様プレフィルタに勝るより高いビット節約を生むことができる。
図33に示されるような例示的な結果を比較することによって、アンビエント適応フィルタリングの利益がわかるであろう。図33に示される結果は、50ルクス、500ルクス、および10000ルクスの、3つの例示的なアンビエントレベルに対応する。表示明るさは、相対的な輝度比率が500ルクスの中間アンビエントレベルで最大となれるようなものとすることができる。アンビエントルクスが、表示装置の対応する表示明るさよりも大幅に低いかまたは高いとき、ビットレート節約は増大することができる。これは、サラウンド対オブジェクトの相対的な輝度比率を、50ルクスの場合のより低い輝度比率または10000ルクスの場合のより高い輝度比率から離すことに対応するものとすることができる。いずれの場合も、スケーリングファクタは、低減されたビットレート節約または増大されたビットレート節約を引き起こすことがある。この効果は、ピクチャコンテンツに適応できる適応フィルタで見ることができ、また、カットオフ周波数選択がピクチャコンテンツに適応されない、非適応フィルタでも見ることができる。
本明細書に開示される知覚フィルタと知覚斜めフィルタのうちの一方または両方、およびそれらに関連する対応する技法は、図27A〜27Eに示される例示的なワイヤレス通信システム2700および/またはそのコンポーネントなど、ワイヤレス通信システムにおいて、ビデオ(例えばビデオストリーミング)を搬送することに従って実現されることが可能である。
図34Aは、1または複数の開示される実施形態がその中で実現され得る例示的な通信システム3400の図である。通信システム3400は、音声、データ、ビデオ、メッセージング、ブロードキャストなどのコンテンツを複数のワイヤレスユーザに提供する多元接続システムであってよい。通信システム3400は、複数のワイヤレスユーザが、ワイヤレス帯域幅を含めたシステムリソースの共有を通してこのようなコンテンツにアクセスするのを可能にすることができる。例えば、通信システム3400は、符号分割多元接続(CDMA)、時分割多元接続(TDMA)、周波数分割多元接続(FDMA)、直交FDMA(OFDMA)、シングルキャリアFDMA(SC−FDMA)など、1または複数のチャネルアクセス方法を採用することができる。
図34Aに示されるように、通信システム3400は、少なくとも1つのワイヤレス送受信ユニット(WTRU)(複数のWTRUなど、例えばWTRU3402a、3402b、3402c、3402d)、無線アクセスネットワーク(RAN)3404、コアネットワーク3406、公衆交換電話網(PSTN)3408、インターネット3410、および他のネットワーク3412を含んでよいが、開示される実施形態は任意の数のWTRU、基地局、ネットワーク、および/またはネットワーク要素を企図することを理解されたい。各WTRU3402a、3402b、3402c、3402dは、ワイヤレス環境で動作および/または通信するように構成された任意のタイプのデバイスであってよい。例として、WTRU3402a、3402b、3402c、3402dは、ワイヤレス信号を送信および/または受信するように構成されてよく、ユーザ機器(UE)、移動局、固定またはモバイルの加入者ユニット、ページャ、セルラ電話機、パーソナルディジタルアシスタント(PDA)、スマートフォン、ラップトップ、ネットブック、パーソナルコンピュータ、ワイヤレスセンサ、消費者電子機器などを含み得る。
通信システム3400はまた、基地局3414aおよび基地局3414bを含んでよい。各基地局3414a、3414bは、WTRU3402a、3402b、3402c、3402dのうちの少なくとも1つとワイヤレスにインタフェースして、コアネットワーク3406、インターネット3410、および/またはネットワーク3412など、1または複数の通信ネットワークへのアクセスを容易にするように構成された、任意のタイプのデバイスであってよい。例として、基地局3414a、3414bは、ベーストランシーバステーション(BTS)、Node−B、eNode B、Home Node B、Home eNode B、サイトコントローラ、アクセスポイント(AP)、ワイヤレスルータなどであってよい。基地局3414a、3414bはそれぞれ単一の要素として描かれているが、基地局3414a、3414bは任意の数の相互接続された基地局および/またはネットワーク要素を含んでよいことを理解されたい。
基地局3414aはRAN3404の一部であってよく、RAN3404はまた、基地局コントローラ(BSC)や無線ネットワークコントローラ(RNC)や中継ノードなど、他の基地局および/またはネットワーク要素(図示せず)を含んでもよい。基地局3414aおよび/または基地局3414bは、特定の地理領域内でワイヤレス信号を送信および/または受信するように構成されてよく、この地理領域はセル(図示せず)と呼ばれることがある。セルはさらに、セルセクタに分割されてよい。例えば、基地局3414aに関連付けられたセルが、3つのセクタに分割されてよい。よって、一実施形態では、基地局3414aは、3つの送受信機、例えば、セルの各セクタにつき1つの送受信機を備えることができる。別の実施形態では、基地局3414aは、多入力多出力(MIMO)技術を採用することができ、したがって、セルの各セクタにつき複数の送受信機を利用することができる。
基地局3414a、3414bは、エアインタフェース3416を介してWTRU3402a、3402b、3402c、3402dのうちの1または複数と通信することができ、エアインタフェース3416は、任意の適切なワイヤレス通信リンク(例えば、無線周波数(RF)、マイクロ波、赤外線(IR)、紫外線(UV)、可視光など)であってよい。エアインタフェース3416は、任意の適切な無線アクセス技術(RAT)を使用して確立されてよい。
より具体的には、上記のように、通信システム3400は、多元接続システムであってよく、CDMA、TDMA、FDMA、OFDMA、SC−FDMAなど、1または複数のチャネルアクセス方式を採用することができる。例えば、RAN3404中の基地局3414a、およびWTRU3402a、3402b、3402cは、ユニバーサルモバイルテレコミュニケーションズシステム(UMTS)地上無線アクセス(UTRA)などの無線技術を実装することができ、これは、広帯域CDMA(WCDMA(登録商標))を使用してエアインタフェース3416を確立することができる。WCDMAは、高速パケットアクセス(HSPA)および/または進化型HSPA(HSPA+)などの通信プロトコルを含むことができる。HSPAは、高速ダウンリンクパケットアクセス(HSDPA)および/または高速アップリンクパケットアクセス(HSUPA)を含むことができる。
別の実施形態では、基地局3414aおよびWTRU3402a、3402b、3402cは、進化型UMTS地上無線アクセス(E−UTRA)などの無線技術を実装することができ、これは、ロングタームエボリューション(LTE)および/またはLTEアドバンスト(LTE−A)を使用してエアインタフェース3416を確立することができる。
他の実施形態では、基地局3414aおよびWTRU3402a、3402b、3402cは、IEEE802.16(例えばワールドワイドインターオペラビリティフォーマイクロウェーブアクセス(WiMAX))、CDMA2000、CDMA2000 1X、CDMA2000EV−DO、暫定標準2000(IS−2000)、暫定標準95(IS−95)、暫定標準856(IS−856)、グローバルシステムフォーモバイルコミュニケーションズ(GSM(登録商標))、エンハンストデータレートフォーGSMエボリューション(EDGE)、GSM EDGE(GERAN)などの無線技術を実装することができる。
図34A中の基地局3414bは、例えば、ワイヤレスルータ、Home Node B、Home eNode B、またはアクセスポイントを含んでよく、事業所、家庭、車両、キャンパスなどの局所化されたエリア中でのワイヤレス接続性を容易にするために任意の適切なRATを利用することができる。一実施形態では、基地局3414bおよびWTRU3402c、3402dは、IEEE802.11などの無線技術を実装して、ワイヤレスローカルエリアネットワーク(WLAN)を確立することができる。別の実施形態では、基地局3414bおよびWTRU3402c、3402dは、IEEE802.15などの無線技術を実装して、ワイヤレスパーソナルエリアネットワーク(WPAN)を確立することができる。さらに別の実施形態では、基地局3414bおよびWTRU3402c、3402dは、セルラベースのRAT(例えば、WCDMA、CDMA2000、GSM、LTE、LTE−Aなど)を利用して、ピコセルまたはフェムトセルを確立することができる。図34Aに示されるように、基地局3414bは、インターネット3410への直接接続を有することができる。よって、基地局3414bは、コアネットワーク3406を介してインターネット3410にアクセスすることは必要とされなくてよい。
RAN3404は、コアネットワーク3406と通信してよく、コアネットワーク3406は、音声、データ、アプリケーション、および/またはボイスオーバインターネットプロトコル(VoIP)サービスをWTRU3402a、3402b、3402c、3402dのうちの1または複数に提供するように構成された、任意のタイプのネットワークであってよい。例えば、コアネットワーク3406は、呼制御、料金請求サービス、モバイル位置ベースサービス、前払い電話、インターネット接続性、ビデオ配信などを提供することができ、かつ/または、ユーザ認証など、高レベルのセキュリティ機能を実施することができる。図34Aには示されていないが、RAN3404および/またはコアネットワーク3406は、RAN3404と同じRATまたは異なるRATを採用する他のRANと、直接的または間接的に通信してもよいことを理解されたい。例えば、コアネットワーク3406は、E−UTRA無線技術を利用しているであろうRAN3404に接続されるのに加えて、GSM無線技術を採用する別のRAN(図示せず)と通信してもよい。
コアネットワーク3406はまた、WTRU3402a、3402b、3402c、3402dがPSTN3408、インターネット3410、および/または他のネットワーク3412にアクセスするためのゲートウェイとしての働きをすることができる。PSTN3408は、プレーンオールドテレフォンサービス(POTS)を提供する回路交換電話網を含んでよい。インターネット3410は、TCP/IPインターネットプロトコルスイート中の、伝送制御プロトコル(TCP)、ユーザデータグラムプロトコル(UDP)、およびインターネットプロトコル(IP)など、共通の通信プロトコルを使用する相互接続されたコンピュータネットワークおよびデバイスの地球規模のシステムを含んでよい。ネットワーク3412は、他のサービスプロバイダによって所有および/または運営される、有線またはワイヤレス通信ネットワークを含んでよい。例えば、ネットワーク3412は、RAN3404と同じRATまたは異なるRATを採用するであろう1または複数のRANに接続された、別のコアネットワークを含んでよい。
通信システム3400中のWTRU3402a、3402b、3402c、3402dのいくつかまたは全ては、マルチモード能力を備えることができる。例えば、WTRU3402a、3402b、3402c、3402dは、種々のワイヤレスリンクを介して種々のワイヤレスネットワークと通信するために、複数の送受信機を備えることができる。例えば、図34Aに示されるWTRU3402cは、セルラベースの無線技術を採用するであろう基地局3414aと、かつIEEE802無線技術を採用するであろう基地局3414bと、通信するように構成されてよい。
図34Bは、例示的なWTRU3402のシステム図である。図34Bに示されるように、WTRU3402は、プロセッサ3418、送受信機3420、送受信要素3422、スピーカ/マイクロホン3424、キーパッド3426、表示装置/タッチパッド3428、非取外し可能メモリ3430、取外し可能メモリ3432、電源3434、全地球測位システム(GPS)チップセット3436、および他の周辺装置3438を備えてよい。WTRU3402は実施形態との整合性を維持しながら前述の要素の任意のサブコンビネーションを備えてよいことを理解されたい。
プロセッサ3418は、汎用プロセッサ、専用プロセッサ、従来型プロセッサ、ディジタル信号プロセッサ(DSP)、複数のマイクロプロセッサ、DSPコアに関連する1または複数のマイクロプロセッサ、コントローラ、マイクロコントローラ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)回路、他の任意のタイプの集積回路(IC)、状態機械などを含み得る。プロセッサ3418は、信号符号化、データ処理、電力制御、入出力処理、および/または、WTRU3402がワイヤレス環境で動作できるようにする他の任意の機能を実施することができる。プロセッサ3418は送受信機3420に結合されてよく、送受信機3420は送受信要素3422に結合されてよい。図34Bはプロセッサ3418と送受信機3420とを別々のコンポーネントとして描いているが、プロセッサ3418と送受信機3420とが共に電子パッケージまたはチップ中で統合されてもよいことを理解されたい。
送受信要素3422は、エアインタフェース3416を介して基地局(例えば基地局3414a)との間で信号を送信または受信するように構成されてよい。例えば、一実施形態では、送受信要素3422は、RF信号を送信および/または受信するように構成されたアンテナであってよい。別の実施形態では、送受信要素3422は、例えばIR、UV、または可視光信号を送信および/または受信するように構成された、エミッタ/検出器であってよい。さらに別の実施形態では、送受信要素3422は、RF信号と光信号の両方を送受信するように構成されてよい。送受信要素3422は任意の組合せのワイヤレス信号を送信および/または受信するように構成されてよいことを理解されたい。
加えて、図34Bでは送受信要素3422が単一の要素として描かれているが、WTRU3402は、任意の数の送受信要素3422を備えてよい。より具体的には、WTRU3402は、MIMO技術を採用することができる。よって、一実施形態では、WTRU3402は、エアインタフェース3416を介してワイヤレス信号を送受信するために、2つ以上の送受信要素3422(例えば複数のアンテナ)を備えることができる。
送受信機3420は、送受信要素3422によって送信されることになる信号を変調し、送受信要素3422によって受信された信号を復調するように構成されてよい。上記のように、WTRU3402は、マルチモード能力を有することができる。よって、送受信機3420は、WTRU3402が複数のRAT(例えばUTRAおよびIEEE802.11など)を介して通信できるようにするために、複数の送受信機を備えることができる。
WTRU3402のプロセッサ3418は、スピーカ/マイクロホン3424、キーパッド3426、および/または、表示装置/タッチパッド3428(例えば、液晶表示装置(LCD)表示ユニットもしくは有機発光ダイオード(OLED)表示ユニット)に結合されてよく、これらからユーザ入力データを受け取ることができる。プロセッサ3418はまた、スピーカ/マイクロホン3424、キーパッド3426、および/または、表示装置/タッチパッド3428にユーザデータを出力することができる。加えて、プロセッサ3418は、非取外し可能メモリ3430および/または取外し可能メモリ3432など、任意のタイプの適切なメモリからの情報にアクセスすること、およびそのようなメモリにデータを記憶することができる。非取外し可能メモリ3430は、ランダムアクセスメモリ(RAM)、読取専用メモリ(ROM)、ハードディスク、または他の任意のタイプのメモリ記憶デバイスを含んでよい。取外し可能メモリ3432は、加入者識別モジュール(SIM)カード、メモリスティック、セキュアディジタル(SD)メモリカードなどを含んでよい。他の実施形態では、プロセッサ3418は、サーバやホームコンピュータ(図示せず)上のメモリなど、WTRU3402上に物理的に位置しないメモリからの情報にアクセスすること、およびそのようなメモリにデータを記憶することができる。
プロセッサ3418は、電源3434から電力を受け取ることができ、WTRU3402中の他のコンポーネントへの電力を分配および/または制御するように構成されてよい。電源3434は、WTRU3402に電力を供給するための任意の適切なデバイスであってよい。例えば、電源3434は、1または複数の乾電池バッテリ(例えば、ニッケルカドミウム(NiCd)、ニッケル亜鉛(NiZn)、ニッケル金属水素化物(NiMH)、リチウムイオン(Li−ion)など)、太陽電池、燃料電池などを含み得る。
プロセッサ3418はまた、GPSチップセット3436に結合されてよく、GPSチップセット3436は、WTRU3402の現在位置に関する位置情報(例えば経度と緯度)を提供するように構成されてよい。GPSチップセット3436からの情報に加えて、またはそれに代えて、WTRU3402は、基地局(例えば基地局114a、114b)からエアインタフェース3416を介して位置情報を受信することができ、かつ/または、2つ以上の近隣基地局から受信されている信号のタイミングに基づいてその位置を決定することができる。WTRU3402は実施形態との整合性を維持しながら任意の適切な位置決定方法によって位置情報を取得できることを理解されたい。
プロセッサ3418はさらに、他の周辺装置3438に結合されてよく、周辺装置3438は、追加の特徴、機能、および/または有線もしくはワイヤレス接続性を提供する、1または複数のソフトウェアおよび/またはハードウェアモジュールを含み得る。例えば、周辺装置3438は、加速度計、電子コンパス、衛星送受信機、ディジタルカメラ(写真またはビデオ用)、ユニバーサルシリアルバス(USB)ポート、振動デバイス、テレビジョン送受信機、ハンズフリーヘッドセット、Bluetooth(登録商標)モジュール、周波数変調(FM)無線ユニット、ディジタル音楽プレーヤ、メディアプレーヤ、ビデオゲームプレーヤモジュール、インターネットブラウザなどを含み得る。
図34Cは、RAN3404aとコアネットワーク3406aとを含む通信システム3400の実施形態のシステム図であり、RAN3404aおよびコアネットワーク3406aは、RAN3404およびコアネットワーク3406の例示的な実装形態をそれぞれ構成する。上記のように、RAN3404、例えばRAN3404aは、UTRA無線技術を採用して、エアインタフェース3416を介してWTRU3402a、3402b、3402cと通信することができる。RAN3404aはまた、コアネットワーク3406aとも通信してよい。図34Cに示されるように、RAN3404aは、Node−B3440a、3440b、3440cを含んでよく、これらのNode−Bはそれぞれ、エアインタフェース3416を介してWTRU3402a、3402b、3402cと通信するために、1または複数の送受信機を備えてよい。Node−B3440a、3440b、3440cはそれぞれ、RAN3404a内の特定のセル(図示せず)に関連付けられてもよい。RAN3404aはまた、RNC3442a、3442bを含んでよい。RAN3404aは実施形態との整合性を維持しながら任意の数のNode−BおよびRNCを含んでよいことを理解されたい。
図34Cに示されるように、Node−B3440a、3440bは、RNC3442aと通信してよい。加えて、Node−B3440cは、RNC3442bと通信してよい。Node−B3440a、3440b、3440cは、Iubインタフェースを介してそれぞれのRNC3442a、3442bと通信することができる。RNC3442a、3442bは、Iurインタフェースを介して相互と通信してよい。各RNC3442a、3442bは、それが接続されたそれぞれのNode−B3440a、3440b、3440cを制御するように構成されてよい。加えて、各RNC3442a、3442bは、アウターループ電力制御、負荷制御、アドミッション制御、パケットスケジューリング、ハンドオーバ制御、マクロダイバーシティ、セキュリティ機能、データ暗号化など、他の機能を実施またはサポートするように構成されてよい。
図34Cに示されるコアネットワーク3406aは、媒体ゲートウェイ(MGW)3444、モバイル交換センタ(MSC)3446、サービングGPRSサポートノード(SGSN)3448、および/またはゲートウェイGPRSサポートノード(GGSN)3450を含んでよい。前述の要素の各々はコアネットワーク3406aの一部として描かれているが、これらの要素の任意の1つがコアネットワークオペレータ以外のエンティティによって所有および/または運営されてもよいことを理解されたい。
RAN3404a中のRNC3442aは、IuCSインタフェースを介して、コアネットワーク3406a中のMSC3446に接続されてよい。MSC3446は、MGW3444に接続されてよい。MSC3446およびMGW3444は、PSTN3408などの回路交換ネットワークへのアクセスをWTRU3402a、3402b、3402cに提供して、WTRU3402a、3402b、3402cと従来の陸線通信デバイスとの間の通信を容易にすることができる。
RAN3404a中のRNC3442aはまた、IuPSインタフェースを介して、コアネットワーク3406a中のSGSN3448に接続されてよい。SGSN3448は、GGSN3450に接続されてよい。SGSN3448およびGGSN3450は、インターネット3410などのパケット交換ネットワークへのアクセスをWTRU3402a、3402b、3402cに提供して、WTRU3402a、3402b、3402cとIP対応デバイスとの間の通信を容易にすることができる。
上記のように、コアネットワーク3406aはネットワーク3412にも接続されてよく、ネットワーク3412は、他のサービスプロバイダによって所有および/または運営される他の有線またはワイヤレスネットワークを含み得る。
図34Dは、RAN3404bとコアネットワーク3406bとを含む通信システム3400の実施形態のシステム図であり、RAN3404bおよびコアネットワーク3406bは、RAN3404およびコアネットワーク3406の例示的な実装形態をそれぞれ構成する。上記のように、RAN3404、例えばRAN3404bは、E−UTRA無線技術を採用して、エアインタフェース3416を介してWTRU3402a、3402b、3402cと通信することができる。RAN3404bはまた、コアネットワーク3406bとも通信してよい。
RAN3404bは、eNode−B3440d、3440e、3440fを含んでよいが、RAN3404bは実施形態との整合性を維持しながら任意の数のeNode−Bを含んでよいことを理解されたい。eNode−B3440d、3440e、3440fはそれぞれ、エアインタフェース3416を介してWTRU3402a、3402b、3402cと通信するために、1または複数の送受信機を備えてよい。一実施形態では、eNode−B3440d、3440e、3440fは、MIMO技術を実装することができる。よって、例えばeNode−B3440dは、複数のアンテナを使用して、WTRU3402aとの間でワイヤレス信号を送受信することができる。
各eNode−B3440d、3440e、および3440fは、特定のセル(図示せず)に関連付けられてもよく、無線リソース管理決定、ハンドオーバ決定、アップリンクおよび/またはダウンリンクにおけるユーザのスケジューリングなどを扱うように構成されてよい。図34Dに示されるように、eNode−B3440d、3440e、3440fは、X2インタフェースを介して相互と通信することができる。
図34Dに示されるコアネットワーク3406bは、モビリティ管理エンティティゲートウェイ(MME)3443、サービングゲートウェイ3445、およびパケットデータネットワーク(PDN)ゲートウェイ3447を含んでよい。前述の各要素はコアネットワーク3406bの一部として描かれているが、これらの要素の任意の1つがコアネットワークオペレータ以外のエンティティによって所有および/または運営されてもよいことを理解されたい。
MME3443は、S1インタフェースを介してRAN3404b中の各eNode−B3440d、3440e、3440fに接続されてよく、制御ノードとしての働きをすることができる。例えば、MME3443は、WTRU3402a、3402b、3402cのユーザを認証すること、ベアラをアクティブ化/非アクティブ化すること、WTRU3402a、3402b、3402cの最初の帰属中に特定のサービングゲートウェイを選択することなどを担うことができる。MME3443はまた、RAN3404bと、GSMやWCDMAなど他の無線技術を採用する他のRAN(図示せず)との間で切り替えるための制御プレーン機能を提供することができる。
サービングゲートウェイ3445は、S1インタフェースを介してRAN3404b中の各eNode B3440d、3440e、3440fに接続されてよい。サービングゲートウェイ3445は一般に、WTRU3402a、3402b、3402cとの間でユーザデータパケットをルーティングおよび転送することができる。サービングゲートウェイ3445はまた、eNode B間ハンドオーバ中にユーザプレーンをアンカリングすること、ダウンリンクデータがWTRU3402a、3402b、3402cに利用可能なときにページングをトリガすること、WTRU3402a、3402b、3402cのコンテキストを管理および記憶することなど、他の機能を実施することもできる。
サービングゲートウェイ3445はまた、PDNゲートウェイ3447にも接続されてよく、PDNゲートウェイ3447は、インターネット3410などのパケット交換ネットワークへのアクセスをWTRU3402a、3402b、3402cに提供して、WTRU3402a、3402b、3402cとIP対応デバイスとの間の通信を容易にすることができる。
コアネットワーク3406bは、他のネットワークとの通信を容易にすることができる。例えば、コアネットワーク3406bは、PSTN3408などの回路交換ネットワークへのアクセスをWTRU3402a、3402b、3402cに提供して、WTRU3402a、3402b、3402cと従来の陸線通信デバイスとの間の通信を容易にすることができる。例えば、コアネットワーク3406bは、コアネットワーク3406bとPSTN3408との間のインタフェースとしての働きをするIPゲートウェイ(例えばIPマルチメディアサブシステム(IMS)サーバ)を含むか、またはそのようなIPゲートウェイと通信することができる。加えて、コアネットワーク3406bは、他のサービスプロバイダによって所有および/または運営される他の有線またはワイヤレスネットワークを含み得るネットワーク3412へのアクセスを、WTRU3402a、3402b、3402cに提供することができる。
図34Eは、RAN3404cとコアネットワーク3406cとを含む通信システム3400の実施形態のシステム図であり、RAN3404cおよびコアネットワーク3406cは、RAN3404およびコアネットワーク3406の例示的な実装形態をそれぞれ構成する。RAN3404、例えばRAN3404cは、IEEE802.16無線技術を採用してエアインタフェース3416を介してWTRU3402a、3402b、および3402cと通信するアクセスサービスネットワーク(ASN)であってよい。本明細書に記載のように、WTRU3402a、3402b、3402c、RAN3404c、およびコアネットワーク3406cの種々の機能エンティティ間の通信リンクは、参照ポイントとして定義されてよい。
図34Eに示されるように、RAN3404cは、基地局3402a、3402b、3402c、およびASNゲートウェイ3441を含んでよいが、RAN3404cは実施形態との整合性を維持しながら任意の数の基地局およびASNゲートウェイを含んでよいことを理解されたい。基地局3402a、3402b、3402cはそれぞれ、RAN3404c中の特定のセル(図示せず)に関連付けられてもよく、それぞれ、エアインタフェース3416を介してWTRU3402a、3402b、3402cと通信するために1または複数の送受信機を備えてよい。一実施形態では、基地局3440g、3440h、3440iは、MIMO技術を実装することができる。よって、例えば基地局3440gは、複数のアンテナを使用して、WTRU3402aとの間でワイヤレス信号を送受信することができる。基地局3440g、3440h、3440iはまた、ハンドオフトリガリング、トンネル確立、無線リソース管理、トラフィック分類、サービス品質(QoS)ポリシ施行など、モビリティ管理機能を提供することができる。ASNゲートウェイ3441は、トラフィック集約ポイントとしての働きをすることができ、ページング、加入者プロファイルのキャッシング、コアネットワーク3406cへのルーティングなどを担うことができる。
WTRU3402a、3402b、3402c、とRAN3404cとの間のエアインタフェース3416は、IEEE802.16仕様を実装するR1参照ポイントとして定義されてよい。加えて、各WTRU3402a、3402b、および3402cは、コアネットワーク3406cとの論理インタフェース(図示せず)を確立することができる。WTRU3402a、3402b、3402cとコアネットワーク3406cとの間の論理インタフェースは、R2参照ポイントとして定義されてよく、R2参照ポイントは、認証、許可、IPホスト構成管理、および/またはモビリティ管理のために使用されることがある。
各基地局3440g、3440h、3440i間の通信リンクは、R8参照ポイントとして定義されてよく、R8参照ポイントは、WTRUハンドオーバおよび基地局間のデータ転送を容易にするためのプロトコルを含む。基地局3440g、3440h、3440iとASNゲートウェイ3441との間の通信リンクは、R6参照ポイントとして定義されてよい。R6参照ポイントは、各WTRU3402a、3402b、3402cに関連付けられたモビリティイベントに基づくモビリティ管理を容易にするためのプロトコルを含むことができる。
図34Eに示されるように、RAN3404cは、コアネットワーク3406cに接続されてよい。RAN3404cとコアネットワーク3406cとの間の通信リンクは、R3参照ポイントとして定義されてよく、R3参照ポイントは、例えば、データ転送およびモビリティ管理能力を容易にするためのプロトコルを含む。コアネットワーク3406cは、モバイルIPホームエージェント(MIP−HA)3444、認証許可アカウンティング(AAA)サーバ3456、およびゲートウェイ3458を備えてよい。前述の各要素はコアネットワーク3406cの一部として描かれているが、これらの要素の任意の1つがコアネットワークオペレータ以外のエンティティによって所有および/または運営されてもよいことを理解されたい。
MIP−HAは、IPアドレス管理を担うことができ、WTRU3402a、3402b、および3402cが種々のASNおよび/または種々のコアネットワーク間でローミングするのを可能にすることができる。MIP−HA1354は、インターネット3410などのパケット交換ネットワークへのアクセスをWTRU3402a、3402b、3402cに提供して、WTRU3402a、3402b、3402cとIP対応デバイスとの間の通信を容易にすることができる。AAAサーバ3456は、ユーザ認証、およびユーザサービスのサポートを担うことができる。ゲートウェイ3458は、他のネットワークとのインターワーキングを容易にすることができる。例えば、ゲートウェイ3458は、PSTN3408などの回路交換ネットワークへのアクセスをWTRU3402a、3402b、3402cに提供して、WTRU3402a、3402b、3402cと従来の陸線通信デバイスとの間の通信を容易にすることができる。加えて、ゲートウェイ3458は、他のサービスプロバイダによって所有および/または運営される他の有線またはワイヤレスネットワークを含み得るネットワーク3412へのアクセスを、WTRU3402a、3402b、3402cに提供することができる。
図34Eには示されていないが、RAN3404cは他のASNに接続されてもよく、コアネットワーク3406cは他のコアネットワークに接続されてもよいことを理解されたい。RAN3404cと他のASNとの間の通信リンクは、R4参照ポイントとして定義されてよく、R4参照ポイントは、RAN3404cと他のASNとの間におけるWTRU3402a、3402b、3402cのモビリティの協調をとるためのプロトコルを含むことができる。コアネットワーク3406cと他のコアネットワークとの間の通信リンクは、R5参照ポイントとして定義されてよく、R5参照ポイントは、ホームコアネットワークと訪問先コアネットワークとの間のインターワーキングを容易にするためのプロトコルを含むことができる。
本明細書に記載のプロセスおよび手段は、任意の組合せで適用されてよく、他のワイヤレス技術に適用されてもよく、他のサービス(例えば近接サービスに限定されない)のために適用されてもよい。
WTRUは、物理デバイスの識別、またはユーザの識別(加入関係の識別など、例えばMSISDN、SIP URI等)を指す場合がある。WTRUは、アプリケーションベースの識別、例えばアプリケーションごとに使用され得るユーザ名を指す場合がある。
以上では特徴および要素が特定の組合せで記述されているが、各特徴または要素は、単独で、または他の特徴および要素との任意の組合せで使用されてよいことを、当業者なら理解するであろう。加えて、本明細書に記載の方法は、コンピュータまたはプロセッサによって実行されるようにコンピュータ可読媒体に組み入れられたコンピュータプログラム、ソフトウェア、またはファームウェアにおいて実現されてよい。コンピュータ可読媒体の例は、電子信号(有線またはワイヤレス接続を介して伝送される)、およびコンピュータ可読記憶媒体を含む。コンピュータ可読記憶媒体の例は、読取専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、レジスタ、キャッシュメモリ、半導体メモリデバイス、内蔵ハードディスクや取外し可能ディスクなどの磁気媒体、光磁気媒体、および、CD−ROMディスクやディジタル多用途ディスク(DVD)などの光学媒体を含むが、これらに限定されない。プロセッサがソフトウェアと共に使用されて、WTRU、WTRU、端末、基地局、RNC、または任意のホストコンピュータ中で使用される無線周波数送受信機が実現されてよい。

Claims (30)

  1. ビデオソースから複数のビデオフレームを受け取ることであって、各フレームは複数の画素を有し、前記画素の各々はそれぞれの値を有する、ことと、
    各画素の周りのそれぞれの局所的領域内の画素の前記それぞれの値と、表示装置における視聴条件、前記表示装置の表示特性、およびユーザ特性、からなるグループから選択された少なくとも1つの知覚特性と、に少なくとも部分的に基づいて、各画素についてそれぞれの局所的コントラスト感度を決定することと、
    各画素の前記それぞれの局所的コントラスト感度に少なくとも部分的に基づいて、各画素についてそれぞれのフィルタ帯域幅を選択することと、
    各画素の前記それぞれの選択されたフィルタ帯域幅に従って各画素をフィルタリングすることによって、フィルタリング済みビデオフレームを生成することと、
    前記フィルタリング済みビデオフレームをビデオエンコーダに提供することと
    を含むことを特徴とする方法。
  2. それぞれの画素の前記それぞれの局所的コントラスト感度を決定することは、アンビエントコントラスト比に基づいて前記画素の前記値を調整することと、前記それぞれの調整済みの値に基づいて前記それぞれの局所的コントラスト感度を決定することとを含むことを特徴とする請求項1に記載の方法。
  3. 前記知覚特性は、受信デバイスにおけるアンビエント照度、前記受信デバイスの反射率、前記受信デバイスのピーク輝度、および前記受信デバイスのネイティブコントラスト比、のうちの少なくとも1つを含み、前記アンビエントコントラスト比に基づいて前記それぞれの画素値を調整することは、前記知覚特性に基づいて前記値を調整することを含むことを特徴とする請求項2に記載の方法。
  4. 前記知覚特性は、前記表示装置の画素密度、および表示装置ユーザと前記表示装置との間の視聴距離、のうちの少なくとも一方を含み、前記それぞれの局所的コントラスト感度を決定することは、前記画素密度および前記視聴距離に少なくとも基づいて、前記それぞれの局所的領域に含めるための画素を選択することを含むことを特徴とする請求項1に記載の方法。
  5. 前記それぞれの局所的領域に含めるための前記画素を選択することは、ガウシアンフィルタの標準偏差値に基づいて前記画素を選択することを含むことを特徴とする請求項4に記載の方法。
  6. 前記標準偏差値に基づいて前記画素を選択することは、画素に対する周期の比率を選択することと、前記選択された比率に基づいて前記標準偏差値を決定することとを含むことを特徴とする請求項5に記載の方法。
  7. 画素に対する周期の前記比率を選択することは、
    視野の度に対する周期の比率を選択することと、前記画素密度および前記視聴距離に基づいて度に対する画素の比率を決定することと、度に対する周期の前記選択された比率と、度に対する画素の前記決定された比率とに少なくとも基づいて、画素に対する周期の比率を決定することとを含むことを特徴とする請求項6に記載の方法。
  8. それぞれの画素について前記それぞれの局所的コントラスト感度を決定することは、
    前記それぞれの局所的領域内の前記画素の前記値に少なくとも部分的に基づいてそれぞれの局所平均を決定することと、
    前記それぞれの局所平均と、前記それぞれの局所的領域内の前記画素の前記値とに少なくとも部分的に基づいて、それぞれの局所ピーク振幅を決定することと、
    前記それぞれの局所ピーク振幅に対する前記それぞれの局所平均のそれぞれの比率を、前記それぞれの局所的コントラスト感度として決定することと
    を含むことを特徴とする請求項1に記載の方法。
  9. 前記それぞれの局所ピーク振幅を決定することは、
    前記複数の画素の各々についてそれぞれの絶対差分を決定することであって、前記それぞれの絶対差分は前記それぞれの局所平均と前記それぞれの画素値との間のそれぞれの絶対差分を含む、ことと、
    前記それぞれの局所的領域内の前記それぞれの絶対差分のうちの最大絶対差分を、前記それぞれの局所ピーク振幅として選択することと
    を含むことを特徴とする請求項8に記載の方法。
  10. 前記それぞれの局所ピーク振幅の各々にガウシアンフィルタを適用することをさらに含み、前記最大絶対差分を前記それぞれの局所ピーク振幅として選択することは、最大フィルタリング済み絶対差分を前記それぞれの局所ピーク振幅として選択することを含むことを特徴とする請求項9に記載の方法。
  11. 前記それぞれの局所的コントラスト感度に少なくとも部分的に基づいてそれぞれの画素についてそれぞれのフィルタ帯域幅を選択することは、逆コントラスト感度関数を使用して得られた帯域幅に少なくとも部分的に基づいて前記それぞれのフィルタ帯域幅を選択することを含むことを特徴とする請求項1に記載の方法。
  12. 前記逆コントラスト感度関数は、モブションおよびキォープスコントラスト感度モデルとバルテンコントラスト感度モデルとのうちの少なくとも一方の逆関数に少なくとも部分的に基づくことを特徴とする請求項11に記載の方法。
  13. それぞれの画素についてそれぞれのフィルタ帯域幅を選択することは、少なくとも1つの知覚ファクタに少なくとも部分的に基づいてスケーリングファクタを選択することと、前記スケーリングファクタを使用して前記それぞれの局所的コントラスト感度を調整することと、前記それぞれの調整済み局所的コントラスト感度に少なくとも部分的に基づいて前記それぞれのフィルタ帯域幅を選択することとを含むことを特徴とする請求項1に記載の方法。
  14. 前記少なくとも1つの知覚ファクタは、前記表示装置におけるアンビエント照度、前記表示装置のピーク輝度、表示装置ユーザと前記表示装置との間の視聴距離、および前記表示装置の画素密度、のうちの少なくとも1つを含むことを特徴とする請求項13に記載の方法。
  15. 前記少なくとも1つの知覚ファクタは表示装置ユーザの年齢を含むことを特徴とする請求項13に記載の方法。
  16. フィルタリング済みビデオフレームを生成することは、3つの2次元分離可能フィルタのセットを使用して各画素をフィルタリングすることを含み、前記セット中の各2次元分離可能フィルタはそれぞれの水平カットオフ周波数およびそれぞれの垂直カットオフ周波数を有し、第1の2次元分離可能フィルタの前記水平カットオフ周波数は、第3の2次元分離可能フィルタの前記水平カットオフ周波数に等しく、第2の2次元分離可能フィルタの前記垂直カットオフ周波数は、前記第3の2次元分離可能フィルタの前記垂直カットオフ周波数に等しく、2次元分離可能フィルタの前記セットを使用して各画素をフィルタリングすることは、前記第1の2次元分離可能フィルタおよび前記第2の2次元分離可能フィルタのそれぞれのフィルタリング結果の和を得ることと、前記和と、前記第3の2次元分離可能フィルタの前記それぞれのフィルタリング結果との間の差を得ることとを含むことを特徴とする請求項1に記載の方法。
  17. 前記2次元分離可能フィルタの各々は、それぞれの1次元水平フィルタおよびそれぞれの1次元垂直フィルタを備え、前記それぞれの1次元水平フィルタのカットオフ周波数は、前記それぞれの2次元フィルタの前記それぞれの水平カットオフ周波数に等しく、前記それぞれの1次元垂直フィルタのカットオフ周波数は、前記それぞれの2次元フィルタの前記それぞれの垂直カットオフ周波数に等しいことを特徴とする請求項16に記載の方法。
  18. 前記それぞれの1次元水平フィルタおよび前記それぞれの1次元垂直フィルタはランチョスフィルタを含むことを特徴とする請求項17に記載の方法。
  19. ビデオフィルタリング装置であって、
    複数のビデオフレームを記憶するように構成された記憶要素であって、各フレームは複数の画素を有し、前記画素の各々はそれぞれの値を有し、ビデオエンコーダに利用可能な1または複数のフィルタリング済みビデオフレームを作成するように構成された記憶要素と、
    表示装置における視聴条件、前記表示装置の表示特性、およびユーザ特性、からなるグループから選択された少なくとも1つの知覚特性を受け取るように構成された受信機と、
    各画素の周りのそれぞれの局所的領域内の画素の前記それぞれの値と、前記少なくとも1つの知覚特性とに少なくとも部分的に基づいて、各画素についてそれぞれの局所的コントラスト感度を決定するように構成されたコントラスト感度決定モジュールと、
    (i)各画素の前記それぞれの局所的コントラスト感度に少なくとも部分的に基づいて各画素についてそれぞれのフィルタ帯域幅を決定し、(ii)前記それぞれのフィルタ帯域幅に少なくとも部分的に基づいて各画素についての対応するフィルタを選択するように構成されたコントラスト感度フィルタ選択モジュールと、
    各画素についての前記それぞれの選択されたフィルタに従って各画素をフィルタリングすることによって、フィルタリング済みビデオフレームを生成するように構成されたビデオフィルタモジュールと
    を備えることを特徴とする装置。
  20. 知覚特性の前記グループから選択された少なくとも1つの知覚特性に関連付けられた知覚情報を受け取り、
    前記知覚情報に少なくとも部分的に基づいて知覚特性を得る
    ように構成された知覚相関モジュールをさらに備えることを特徴とする請求項19に記載の装置。
  21. 前記知覚情報は、前記表示装置のシリアル識別子、前記表示装置のモデル識別子、前記表示装置の地理的位置、前記表示装置における時刻、および前記表示装置のユーザのユーザ名、からなるグループから選択されることを特徴とする請求項20に記載の方法。
  22. 前記受け取られたビデオフレームの色空間を元の色空間から線形RGB色空間に変換し、
    前記フィルタリング済みビデオフレームの色空間を前記線形RGB色空間から前記元の色空間に変換する
    ように構成された色空間変換モジュールをさらに備えることを特徴とする請求項19に記載の装置。
  23. 前記コントラスト感度決定モジュールが各画素について前記それぞれの局所的コントラスト感度を決定する前に、各画素の黒レベルを調整するように構成された黒レベル調整モジュールをさらに備え、前記調整は前記表示装置におけるアンビエントコントラスト比に少なくとも部分的に基づくことを特徴とする請求項19に記載の装置。
  24. 前記少なくとも1つの知覚特性は、前記表示装置におけるアンビエント照度、前記表示装置の最大輝度、前記表示装置の反射率、および前記表示装置のネイティブコントラスト比、を含む知覚特性のセットを含み、前記黒レベル調整モジュールは、知覚特性の前記セットに少なくとも部分的に基づいて前記アンビエントコントラスト比を決定するように構成されたアンビエントコントラスト比決定モジュールを備えることを特徴とする請求項22に記載の装置。
  25. それぞれの画素の周りの前記それぞれの局所的領域は、それぞれの局所平均領域およびそれぞれの局所極大領域を含み、
    前記コントラスト感度決定モジュールは、
    前記それぞれの局所平均領域内の前記値のそれぞれの局所平均を決定するように構成された局所平均推定モジュールと、
    前記それぞれの局所極大領域内の画素のそれぞれの絶対差分値のそれぞれの局所極大を決定するように構成された局所極大推定モジュールと、
    前記それぞれの局所極大に対する前記それぞれの局所平均のそれぞれの比率を決定するように構成されたコントラスト感度比率モジュールと
    を備え、
    前記コントラスト感度決定モジュールは、前記決定されたそれぞれの比率を前記それぞれの局所的コントラスト感度として選択するように構成されたことを特徴とする請求項19に記載の装置。
  26. 前記コントラスト感度決定モジュールは局所平均領域選択モジュールをさらに備え、前記局所平均領域選択モジュールは、
    視野の1度当たりの空間的振動数を有する局所的カットオフ周波数を選択し、
    前記局所的カットオフ周波数を、前記視野の1度当たりの画素数を有する変換済み局所的カットオフ周波数に変換し、
    前記変換済み局所的カットオフ周波数に少なくとも部分的に基づいて、前記それぞれの画素の周りの前記それぞれの局所平均領域に含めるための画素を選択する
    ように構成されたことを特徴とする請求項25に記載の装置。
  27. 前記少なくとも1つの知覚特性は、前記表示装置の画素密度と、前記表示装置から前記表示装置のユーザまでの視聴距離とを含む知覚特性のセットを含み、前記局所平均領域選択モジュールは、知覚特性の前記セットに少なくとも部分的に基づいて、前記局所的カットオフ周波数を前記変換済み局所的カットオフ周波数に変換することを特徴とする請求項26に記載の装置。
  28. 前記コントラスト感度決定モジュールは、前記少なくとも1つの知覚特性に少なくとも部分的に基づいて決定されたスケーリングファクタに少なくとも部分的に基づいて前記それぞれの局所的コントラスト感度を調整するように構成されたコントラスト感度スケーリングモジュールをさらに備えることを特徴とする請求項19に記載の装置。
  29. 前記少なくとも1つの知覚特性は、前記表示装置におけるアンビエント照度、前記表示装置の最大輝度、前記表示装置の反射率、および前記表示装置のネイティブコントラスト比、を含む知覚特性のセットを含み、
    前記コントラスト感度スケーリングモジュールは、知覚特性の前記セットに少なくとも部分的に基づいて前記スケーリングファクタを決定するように構成されたサラウンド輝度スケーリングファクタ決定モジュールを備えることを特徴とする請求項28に記載の装置。
  30. 前記少なくとも1つの知覚特性は前記表示装置のユーザの表示装置ユーザ年齢を含み、
    前記コントラスト感度スケーリングモジュールは、前記表示装置ユーザ年齢に少なくとも部分的に基づいて前記スケーリングファクタを決定するように構成された年齢スケーリングファクタ決定モジュールを備えることを特徴とする請求項28に記載の装置。
JP2015542856A 2012-11-16 2013-11-15 視聴条件を意識したビデオ符号化のための知覚前処理フィルタ Pending JP2016508298A (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201261727203P 2012-11-16 2012-11-16
US61/727,203 2012-11-16
US201361834789P 2013-06-13 2013-06-13
US61/834,789 2013-06-13
US201361875415P 2013-09-09 2013-09-09
US61/875,415 2013-09-09
PCT/US2013/070444 WO2014078748A1 (en) 2012-11-16 2013-11-15 Perceptual preprocessing filter for viewing-conditions-aware video coding

Publications (2)

Publication Number Publication Date
JP2016508298A true JP2016508298A (ja) 2016-03-17
JP2016508298A5 JP2016508298A5 (ja) 2017-01-05

Family

ID=49724666

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015542856A Pending JP2016508298A (ja) 2012-11-16 2013-11-15 視聴条件を意識したビデオ符号化のための知覚前処理フィルタ

Country Status (6)

Country Link
US (1) US20150304685A1 (ja)
EP (1) EP2920965A1 (ja)
JP (1) JP2016508298A (ja)
KR (1) KR20150086327A (ja)
CN (1) CN104937935A (ja)
WO (1) WO2014078748A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10182241B2 (en) 2014-03-04 2019-01-15 Microsoft Technology Licensing, Llc Encoding strategies for adaptive switching of color spaces, color sampling rates and/or bit depths
RU2653295C2 (ru) 2014-03-04 2018-05-07 МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи Адаптивное переключение цветовых пространств, частот цветовой дискретизации и/или битовых глубин
BR112016021529B1 (pt) * 2014-03-27 2023-02-28 Microsoft Technology Licensing, Llc Dispositivo de computação, método e meio legível por computador para ajuste de quantização/escalada e quantização/escalada inversa ao alternar áreas de cor
US10045050B2 (en) * 2014-04-25 2018-08-07 Vid Scale, Inc. Perceptual preprocessing filter for viewing-conditions-aware video coding
US10687069B2 (en) 2014-10-08 2020-06-16 Microsoft Technology Licensing, Llc Adjustments to encoding and decoding when switching color spaces
WO2016060672A1 (en) 2014-10-16 2016-04-21 Hewlett-Packard Development Company, L.P. Video coding using a saliency map
US10368105B2 (en) 2015-06-09 2019-07-30 Microsoft Technology Licensing, Llc Metadata describing nominal lighting conditions of a reference viewing environment for video playback
JP6523151B2 (ja) * 2015-12-09 2019-05-29 富士フイルム株式会社 表示装置
KR102646030B1 (ko) 2016-12-15 2024-03-12 삼성전자주식회사 영상제공장치, 그의 제어 방법 및 영상제공시스템
KR20180089939A (ko) * 2017-02-01 2018-08-10 삼성전자주식회사 비디오 코딩 모듈 및 그것의 동작 방법
CN107197266B (zh) * 2017-06-26 2020-05-15 杭州当虹科技股份有限公司 一种hdr视频编码方法
EP3659040A4 (en) * 2017-07-28 2020-12-02 Dolby Laboratories Licensing Corporation PROCESS AND SYSTEM FOR PROVIDING MULTIMEDIA CONTENT TO A CUSTOMER
US11381849B2 (en) 2018-03-15 2022-07-05 Comcast Cable Communications, Llc Systems, methods, and apparatuses for processing video
US10931977B2 (en) * 2018-03-15 2021-02-23 Comcast Cable Communications, Llc Systems, methods, and apparatuses for processing video
JP2020003704A (ja) * 2018-06-29 2020-01-09 株式会社デンソー 情報処理装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003069858A (ja) * 2001-05-16 2003-03-07 Tektronix Inc 適応時空フィルタ及びろ波方法
JP2004015178A (ja) * 2002-06-04 2004-01-15 Fuji Xerox Co Ltd 画像処理装置
JP2010524298A (ja) * 2007-03-30 2010-07-15 イーストマン コダック カンパニー 圧縮データ量の制御

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5623577A (en) * 1993-07-16 1997-04-22 Dolby Laboratories Licensing Corporation Computationally efficient adaptive bit allocation for encoding method and apparatus with allowance for decoder spectral distortions
US6633654B2 (en) * 2000-06-19 2003-10-14 Digimarc Corporation Perceptual modeling of media signals based on local contrast and directional edges
US6975776B2 (en) * 2002-02-14 2005-12-13 Tektronix, Inc. Predicting human vision perception and perceptual difference
US7471843B2 (en) * 2004-02-04 2008-12-30 Sharp Laboratories Of America, Inc. System for improving an image displayed on a display
JP2010521272A (ja) * 2007-03-16 2010-06-24 エスティーアイ・メディカル・システムズ・エルエルシー 標準化された撮像データを実現するために撮像デバイスに自動品質フィードバックを与える方法
CN101127926A (zh) * 2007-09-14 2008-02-20 西安电子科技大学 基于多尺度几何分析的图像质量评测方法
EP2120448A1 (en) * 2008-05-14 2009-11-18 Thomson Licensing Method of processing of a compressed image into a gamut mapped image using spatial frequency analysis
US8913668B2 (en) * 2008-09-29 2014-12-16 Microsoft Corporation Perceptual mechanism for the selection of residues in video coders
CN101710995B (zh) * 2009-12-10 2011-02-16 武汉大学 基于视觉特性的视频编码系统
US8698961B2 (en) * 2010-05-21 2014-04-15 Vixs Systems, Inc. Enhanced histogram equalization
US9520101B2 (en) * 2011-08-31 2016-12-13 Microsoft Technology Licensing, Llc Image rendering filter creation
US9237343B2 (en) * 2012-12-13 2016-01-12 Mitsubishi Electric Research Laboratories, Inc. Perceptually coding images and videos
US10045050B2 (en) * 2014-04-25 2018-08-07 Vid Scale, Inc. Perceptual preprocessing filter for viewing-conditions-aware video coding

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003069858A (ja) * 2001-05-16 2003-03-07 Tektronix Inc 適応時空フィルタ及びろ波方法
JP2004015178A (ja) * 2002-06-04 2004-01-15 Fuji Xerox Co Ltd 画像処理装置
JP2010524298A (ja) * 2007-03-30 2010-07-15 イーストマン コダック カンパニー 圧縮データ量の制御

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
樋口 和則 KAZUNORI HIGUCHI: "人間の視覚・聴覚情報 Human Visual and Auditory Information", 映像情報メディア学会誌 第53巻 第9号 THE JOURNAL OF THE INSTITUTE OF IMAGE INFORMATION AND TELE, vol. 第53巻, JPN6017037958, JP *

Also Published As

Publication number Publication date
EP2920965A1 (en) 2015-09-23
CN104937935A (zh) 2015-09-23
WO2014078748A1 (en) 2014-05-22
US20150304685A1 (en) 2015-10-22
KR20150086327A (ko) 2015-07-27

Similar Documents

Publication Publication Date Title
JP2016508298A (ja) 視聴条件を意識したビデオ符号化のための知覚前処理フィルタ
JP2016508298A5 (ja)
JP7295178B2 (ja) ジオメトリ投影を使用する360度ビデオ符号化
US10045050B2 (en) Perceptual preprocessing filter for viewing-conditions-aware video coding
US11356638B2 (en) User-adaptive video telephony
CN108141507B (zh) 利用查找表进行颜色校正
JP6564086B2 (ja) マルチレイヤビデオコーディングのコンバインドスケーラビリティ処理
JP6671321B2 (ja) ビデオコーディングにおけるクロマ信号強調のためのクロスプレーンフィルタリング
CN109982081B (zh) 用于多层视频编码的自适应上采样
KR101833034B1 (ko) 시청 조건에 대한 적응을 지원하는 비디오 전송 방법 및 시스템
US20180309995A1 (en) High dynamic range video coding
US10044913B2 (en) Temporal filter for denoising a high dynamic range video
JP2018521522A (ja) 芸術的意図をベースとするビデオ符号化

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161115

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171010

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180110

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190226