JP6510039B2 - ジャダー可視性制御のためのデュアルエンドメタデータ - Google Patents

ジャダー可視性制御のためのデュアルエンドメタデータ Download PDF

Info

Publication number
JP6510039B2
JP6510039B2 JP2017517794A JP2017517794A JP6510039B2 JP 6510039 B2 JP6510039 B2 JP 6510039B2 JP 2017517794 A JP2017517794 A JP 2017517794A JP 2017517794 A JP2017517794 A JP 2017517794A JP 6510039 B2 JP6510039 B2 JP 6510039B2
Authority
JP
Japan
Prior art keywords
judder
frame rate
control
metadata
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017517794A
Other languages
English (en)
Other versions
JP2017537494A (ja
Inventor
シュー,ニン
ジェームズ イー. クレンショー,
ジェームズ イー. クレンショー,
スコット ダリー,
スコット ダリー,
エヌ. ヒュルヤルカール,サミール
エヌ. ヒュルヤルカール,サミール
ヨン,レイモンド
Original Assignee
ドルビー ラボラトリーズ ライセンシング コーポレイション
ドルビー ラボラトリーズ ライセンシング コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ドルビー ラボラトリーズ ライセンシング コーポレイション, ドルビー ラボラトリーズ ライセンシング コーポレイション filed Critical ドルビー ラボラトリーズ ライセンシング コーポレイション
Publication of JP2017537494A publication Critical patent/JP2017537494A/ja
Application granted granted Critical
Publication of JP6510039B2 publication Critical patent/JP6510039B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0127Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level by changing the field or frame frequency of the incoming video signal, e.g. frame rate converter
    • H04N7/0132Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level by changing the field or frame frequency of the incoming video signal, e.g. frame rate converter the field or frame frequency of the incoming video signal being multiplied by a positive integer, e.g. for flicker reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/21Circuitry for suppressing or minimising disturbance, e.g. moiré or halo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • H04N5/145Movement estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0127Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level by changing the field or frame frequency of the incoming video signal, e.g. frame rate converter

Description

関連出願への相互参照
本願は、2014年10月2日付け出願の米国仮特許出願第62/059,040号に基づく優先権を主張するものであり、この出願の開示内容を全て本願に援用する。本願はまた、2015年2月23日付け出願のPCT出願第PCT/US2015/017110号および2015年2月23日付け出願のPCT出願第PCT/US2015/017110号にも関し得るものであり、両出願の開示内容を全て本願に援用する。
技術分野
本開示は、映像処理に関する。より詳細には、デュアルエンド(dual−ended)メタデータを介してジャダー(judder)の可視性を制御するシステムおよび方法に関する。
本明細書に組み込まれ、その一部を構成する付随の図面により、本開示の1以上の実施形態を例示する。また、これらの図面を実施形態例の記述と併用して、本開示の原理および態様を説明するための一助とする。
図1は、24fpsの入力マテリアルを処理する一実施形態の高レベルブロック図を例示する。 図2は、眼球運動を伴わないワールド座標すなわち固視の場合(左半分)について、滑らかな動き(上)を時間的サンプリング(下)することに起因する歪みと、追跡眼球運動の場合(右半分)の網膜の動きと、を例示する。 図3は、48fpsでサンプリングされ、48fpsのホールド型ディスプレイ上に表示された、線分の動きを例示する。 図4は、本開示のある実施形態による、24fps入力と48fps出力とを用いたジャダー低減処理を例示する。 図5は、本開示のある実施形態による、速度の関数としてのマッピング関数の一例を示す。 図6は、本開示のある実施形態による、ジャダー制御へのさまざまな可能なアプローチを例示する。 図7は、本開示のある実施形態による、ジャダー制御へのさまざまな可能なアプローチを例示する。 図8は、本開示のある実施形態による、ジャダー制御へのさまざまな可能なアプローチを例示する。 図9は、本開示のある実施形態による、ジャダー制御へのさまざまな可能なアプローチを例示する。 図10は、本開示のある実施形態による、ジャダー制御へのさまざまな可能なアプローチを例示する。 図11は、本開示のある実施形態による、ジャダー制御へのさまざまな可能なアプローチを例示する。 図12は、本開示のある実施形態による、ジャダー制御へのさまざまな可能なアプローチを例示する。 図13は、本開示のある実施形態による、ジャダー制御へのさまざまな可能なアプローチを例示する。 図14は、本開示のある実施形態による、ジャダー制御へのさまざまな可能なアプローチを例示する。 図15は、本開示のある実施形態による、ジャダー制御アルゴリズムの一実施形態を例示する。 図16は、本開示の方法をハードウェアで実装する一実施形態を例示する。 図17は、ジャダー制御に関するいくつかの概念を例示する。 図18は、ジャダー制御に関するいくつかのマッピング例を示す。 図19は、ジャダー制御に関するいくつかのマッピング例を示す。 図20は、120fpsの入力についての出力時刻と入力時刻との間の関係例を示す。 図21は、ジャダー制御に関するいくつかの概念を例示する。 図22は、ある無限フレームレート例について、実時刻と表示時刻との間のマッピングを例示する。 図23は、円滑性追跡眼球運動を伴う時空間軌跡直線および伴わない時空間軌跡直線を例示する。 図24は、本開示のジャダー制御のある実施形態におけるマッピング時刻および実時刻を例示する。 図25は、本開示のある実施形態による、拡張されたジャダー可視性制御フローチャートの一例を示す。 図26は、本開示のある実施形態による、高フレームレート画像のための拡張されたジャダー可視性制御フローチャートの一例を示す。本ステップは一般に、画像制作の段階(すなわちポストプロダクション)における処理担当者が制御する。 図27は、本開示のある実施形態による、ジャダー制御に関するメタデータを送信する方法のダイアグラム例を表す。 図28は、本開示のある実施形態による、ジャダーを制御する方法のダイアグラム例を表す。 図29は、網膜照度の関数としての最大周波数可視性(臨界融合周波数、CFF)のグラフを例示する。この直線的な挙動は、精神物理学におけるFerr−Porterの法則として知られている。 図30は、本開示のある実施形態による、ディスプレイパネルのパラメータを用いたジャダー制御のアプローチ例を示す。 図31は、本開示のある実施形態による、ディスプレイパネルのパラメータを用いたジャダー制御のアプローチ例を示す。 図32は、本開示のある実施形態による、Ferry−Porterの法則を用いたジャダー制御アプローチの一例を示す。 図33は、時空間CSF関数の等高線図を例示する。 図34は、本開示のある実施形態による、LA−ST−CSFアルゴリズムを用いたジャダー制御アプローチの一例を示す。 図35は、本開示のある実施形態による、逆トーンマッピングおよびフレームレート変換を用いたジャダー制御アプローチの一例を示す。 図36は、本開示のある実施形態による、ジャダー制御および逆トーンマッピングについての全体的なフローチャートを表す。 図37は、ジャダー制御装置の一例を示す。
概要
本開示の第1の局面において、コンピュータを用いてジャダー可視性を制御する方法を記載する。方法は、コンピュータによって少なくとも2つの入力映像フレームを提供することと、例えばコンピュータによって、少なくとも2つの入力映像フレームに基づきジャダーメタデータを生成することと、コンピュータによって、ジャダーメタデータに基づき、少なくとも2つの入力映像フレームに対してジャダー制御を適用すること、を包含する。
本開示の第2の局面において、コンピュータを用いてジャダー可視性を制御する方法を記載する。方法は、コンピュータによって少なくとも2つの入力映像フレームを提供することと、例えばコンピュータによって、少なくとも2つの入力映像フレームに基づきジャダーメタデータを生成することと、コンピュータによってディスプレイ信号メタデータを提供することと、出力ディスプレイパラメータを取得することと、コンピュータによって、ジャダーメタデータ、ディスプレイ信号メタデータ、および出力ディスプレイパラメータに基づき、少なくとも2つの入力映像フレームに対してジャダー制御を適用すること、を包含する。
本開示の第3の局面において、コンピュータを用いて動きの滑らかさ(motion smoothness)を制御する方法を記載する。方法は、コンピュータによって少なくとも2つの入力映像フレームを提供することと、コンピュータによって、少なくとも2つの入力映像フレームに基づき、動きの滑らかさマッピング曲線を生成することと、コンピュータによってディスプレイ信号メタデータを提供することと、コンピュータによって、ディスプレイ信号メタデータに基づき、少なくとも2つの入力映像フレームについて平均輝度および平均コントラストを算出することと、コンピュータによって、平均輝度および平均コントラストに基づき超閾パラメータを算出することと、コンピュータによって、動きの滑らかさマッピング曲線および超閾パラメータに基づき、少なくとも2つの入力映像フレームに対して動きの滑らかさ制御を適用すること、を包含する。
本開示の第4の局面において、ジャダー制御の方法を記載する。方法は、映像フレームを受信するように構成されたディスプレイ、ジャダーに関するデータを受信するように構成されたジャダー制御デバイス、およびディスプレイとジャダー制御デバイスとの間の通信手段を備える。
詳細な説明
動画におけるジャダーとは、滑らかでない動きのことであると簡潔に説明し得る。しかし、この用語はまた、映像記録において典型的な24fpsという比較的低いフレームレートのもたらす任意の結果を広く表現するためにも使用される。本開示において、ジャダーは、あるいは、動きの滑らかさと呼ぶこともある。24fpsというフレームレート(またはその他の同様な低フレームレート)の結果としてもたらされる、現実世界に視られる動きに比較した歪みのいくつかは、4つの主成分に分解できる。すなわち、1)滑らかでない動き(チャタリング)2)動く輪郭(edges)に沿ったちらつき、3)動く物体における空間的なブラー、4)偽の多重輪郭、である。
このような歪みは、主として、画像更新レート(フレームレート)に対して動きの程度(degree of motion)が大きいことに起因して起きるとともに、時空間エイリアシングから生じる結果でもある。当該分野の当業者が理解しているように、動き歪みの可視性は、時空間コントラスト感度関数(CSF)(ST−CSFと呼ぶ)によって表現できる。運動物体がその周辺領域に対して有するコントラストにより、この可視性に影響が及び得る。というのも、コントラストはST−CSFに対する主要な入力変数であり、これによって閾値および全体的な可視性が定まるからである。
これらの歪みの可視性に対しては、視覚システムの輝度順応に基づいた影響もまた及ぶ。輝度レベルがより高くなれば、ST−CSFの空間的および時間的な帯域幅が増加し、その結果、4成分全ての可視性もまた増大する。シネマ用の新しいプロジェクタ設計によって、より高い最大輝度およびより高いコントラストが可能となりつつある。増大した最大輝度を用いることにより、平均輝度レベルが向上することもあれば、物体のコントラストだけが向上することもある。これらの向上の両方には、ジャダーの4成分全ての可視性を増大させるという点において、マイナスの副作用がある。残念なことに、以前は許容できたジャダーのレベルが、いまや不快となり得る。
言い換えれば、100ニトの標準ダイナミックレンジディスプレイまたは48ニトのフィルムスクリーン向けにグレーディングされたコンテンツを、例えば800ニトのTVディスプレイまたは110ニトのフィルムスクリーンなどの拡張または視覚ダイナミックレンジディスプレイへと再グレーディングすると、不快なジャダーが現れる。その理由は、精神物理学の実験が示すように、明度およびコントラストがより高くなると、ジャダーに対する知覚が増大するからである。
精神物理学実験において、本物の画像シーケンスに加えて、Gaborおよび特別仕様のコントラスト−周波数テストパターンを刺激として使用し、さまざまな要因によってどのように動きのジャダーの知覚に影響が及ぶのかについて研究がなされてきた。その結果によると、ジャダー性(judderness)は、フレームレート、動き速度、明度、コントラスト、シャッター角度などを含むさまざまな変数と強い関連を有し得ることが示されている。ジャダーの知覚には遮断フレームレートが存在する。すなわち、このフレームレートより上においてはジャダーは全く知覚されないが、このレートより下においては、フレームレートが減少するとジャダー知覚が増大する。同一フレームレートにおいては、従って、動き速度、明度、およびコントラストが増加するにつれてジャダー知覚は増大し、シャッター角度が増加するにつれてジャダー知覚は低下する。
多くのイメージング用途において、動きの質の改善目標は、上記に列挙した4つのジャダー成分全てを低減することであり、「可視性窓」(the window of visibility)によって、このような改善に向けた明確な道筋が得られる。ジャダーを低減するひとつの方法は、撮影または表示の段階において、フレームレートを増加することもしくは時空間解像度を低減することである。しかし、シネマについては、これらの成分のうちいくつかは特定の振幅レベルにあることが実は望ましい。というのも、映画産業における撮影監督その他の専門家がしばしば求める「フィルムらしさ」(film look)に寄与するからである。シネマを、相対的により高いフレームレートに起因してはるかにより滑らかな動きと鮮鋭な動く輪郭を有するビデオとは異なって見えるようにする上で、これらの成分は重要である。フィルムらしさが好まれる背景にある詳細のいくつかは未知であるものの、モーションブラー(LCDディスプレイ産業においてしばしば議論されるホールド型(hold−type)ブラーと円滑性追跡眼球運動との相互作用による)が好まれるのは、シネマ従業者が焦点について浅い被写界深度をしばしば好む事実に関するものと同様の理由によると考えられている。モーションブラーは、ストーリーの進行には不要な可視の細部(これらは気を散らすものと見做し得る)を、減少させる。他の説として、シネマはリアルすぎてはならない、視聴者の想像力の妨げとなるから、というものがある。第3の重要な説によれば、映画愛好家にとって、ジャダー成分のうちいくつかはフィルムらしさに強く結びついており、結果として、フィルム視聴者は、ビデオの有するよりリアルな動きの質を、映画は有さずにいて欲しいと望む。これらの複雑な要因の結果として、単純にジャダーを除去する(撮影および表示フレームレートを増加すること、あるいは動き補間を用いて所定ソースのフレームレートを増加すること、などによる)だけに終わらない方法が必要である。このような方法においては、ジャダーを管理しなければならない。すなわち、コントラストおよび輝度レベルの増加にもかかわらず、望ましい成分を、従来的なシネマと知覚的に同様に保たなければならない。ジャダー管理に対するこれらのアプローチは、本開示の主題である。ジャダー成分レベルを、以前は許容できたシネマ由来のレベルに保持することに加え、監督または撮影監督が、従来的な見た目からより自然な「ビデオ的動き」の見た目までにわたるジャダーの見た目のさまざまな局面を、その中間のさまざまな状態を含めて、グローバルおよびローカルの両方で制御することを可能にし得るシステムおよび方法を、本開示に記載する。
動きのアーチファクトに対処するもう1つのアプローチは、記録処理を制御することによる。全米撮影監督協会(The American Society of Cinematographers)は、シーンにおける動きを撮影することについて「7秒ルール」(物体は、カメラフレームを横切るのに7秒かかるべきである)などのガイドラインを提供している。これらのルールは、従来のプロジェクタに由来する輝度レベルおよびコントラストのために開発された。しかし、新しいディスプレイ技術の下では、任意の既存コンテンツに対してジャダーについての再評価が必要となるであろうし、現実世界の制作環境においては、コンテンツ制作の間にジャダー知覚の量を先験的に判断することは不可能かも知れない。多くのディスプレイは、ジャダーが決して現れず、適切なフィルムらしさが自然には得られないぐらいに高い、固有のフレームレートを有する。それゆえ、監督/撮影監督/ポストプロダクション担当者や視聴者による、ジャダーの知覚を制御する半自動化された処理が望まれる。
ジャダーをマスキングする一般的なポストプロダクションの方法は、以下の通りである。
1.全体的なピクチャの明度レベルを、ジャダーが許容できるようになるまで低下させること。この方法は、ディスプレイにおけるより高い明度およびより高いコントラストの要望と衝突しており、表現意図が人為的に制限されてしまう。
2.より長いカメラシャッターを模擬するモーションブラーを追加すること。これにより、動きの量および方向に基づいて、画素をにじませる。この方法により、シーンに存在するディテールに悪影響が及び得、全ての動く物体はディテールを失ってしまうだろう。この潜在的な問題を回避するためには最小量のモーションブラーを追加するが、これは、将来のディスプレイ技術においてはうまくいかないかも知れない。実際、ジャダーを隠すために必要な純然たるブラーの量は非常に大きくなり得るため、物理的にもっともらしいカメラシャッターとは矛盾してしまい、新しいマイナスの見た目がフィルムに追加されることがある。
3.より高いフレームレートへと画像間を補間すること、あるいはより高いフレームレートにおいて撮影すること。この場合、フレームからフレームへの動きが減少する。この方法が現在、ほとんどの解決策について好適なモードである。しかし、この方法はまた、もはやフィルムらしい「感じ」がしないと評されるような、マイナスな心理学的影響をもシーンに及ぼす。この方法はまた、いくつかのディスプレイ技術においては可能でないこともある。
本開示において、監督または撮影監督が、従来的な見た目からより自然な「ビデオ的動き」の見た目までにわたるジャダーの見た目のさまざまな局面を、その中間のさまざまな状態を含め、グローバルおよびローカルの両方で制御することを可能にし得るシステムおよび方法を、記載する。本開示により、ユーザーがある特定の位置でどの程度のジャダーを知覚し得るかについての、体系化された計測基準を提供し得る。また、対象とするエリアのみにおいて適応的補正を加えるアプローチを提供する。さらに、これらの補正を改変することによって、見かけのディテールおよびフィルム「らしさ」の知覚を維持することが可能である。
2015年2月23日付け出願のPCT出願第PCT/US2015/017110号(‘110出願)「SYSTEMS AND METHODS TO CONTROL JUDDER VISIBILITY」において、例えば、ジャダー可視性をグローバルおよびローカルに制御可能にしながらフレームレートを倍増することによるなどの、低フレームレートコンテンツのジャダー可視性を制御するさまざまなアプローチが記載されている。さらに、高フレームレートの撮影および表示を用いてジャダーを制御するためのいくつかの方法を提案する。参考のために、‘110出願に由来するいくつかの概念を本明細書に再現する。
1.不変フレームレート処理
不変フレームレート処理は、フレームレートを変えないままでジャダーを低減する方法を提供し得る。図1は、24fpsの入力マテリアルを処理する一実施形態の高レベルブロック図を例示するものであり、ディスプレイが24fpsに限定されているために時間的補間が不可能なときに使用する最終出力を表し得る。より高い入力フレームレートにおいては、「フィルムらしさ」(film feel)へ調節するためにさらなる処理が追加されるであろう。顕著性または物体同一性などのさらなる画像属性によって、結果が向上するものと想定される。
図1において、時刻t(110)、t−1(105)、およびt+1(120)における入力画像が、時間的処理(115)を受ける。映像処理(115)は、動き推定(130)を含んでおり、ここで動きベクトルを推定する。輝度(121)およびコントラスト(125)、あるいはフレームからフレームまでに存在するその他の変化量の尺度についてもまた、入力画像(105、110、120)の間の時間的差異を算出する。動き推定その他の変化の測定値は、前後の(surrounding)映像フレームをより多く組み入れることによって改善し得る。動き推定(130)は、2組の動きベクトルの推定を含む。すなわち、1組の順方向動きベクトル、および1組の逆方向動きベクトルである。これらの順方向および逆方向の組は別々に算出する。これにより、動き推定の演算をより高精度におこなうことが可能となる。
動きベクトルの推定は、ベクトルの方向(140)およびベクトルの大きさ(135)の判定を含む。ベクトルの大きさ(135)、輝度変化マップ(121)、およびコントラスト変化マップ(125)を使用し、正規化ジャダーマップ(145)を決定する。ここで、各画素についてのジャダー値は、どの程度のジャダーが見えるかを表す。この方法の簡素な一実施形態は、「w0*ベクトルの大きさ+w1*輝度変化+w2*コントラスト変化」のような加重スキームを用いて各構成要素を合計し、0と1の間で変化する単一の数にすることであろう。但し、0はジャダーが全く見えないことを意味し、1は最大量のジャダーに対応する。他の統計的方法を用いて、相互に関係した入力パラメータ群の間で、より正確に配分を決めることもできる。いくつかの実施形態において、ジャダー値は、全画素の部分集合について計算してもよい。ジャダーマップ(145)を決定するためには、シーンおよびディスプレイのメタデータ(150)もまた使用できる。例えば、シーンの明度ならびにディスプレイの寸法および輝度を採用できる。当該分野の当業者が理解しているように、画面が大きければ大きいほど、それだけより多くのジャダーが見える。シーンおよびディスプレイのメタデータ(150)は、ジャダーの知覚に影響し得る。例えば、明度が増加するにつれて、知覚されるジャダーが増加する。全体的なシーン明度は、シーンメタデータ(150)で伝達することが可能であり、よって、ジャダー性を決定する際に使用できる。ディスプレイメタデータ(150)は、ディスプレイのサイズに加えてディスプレイの最大明度を含んでいてもよく、その両方が、知覚されるジャダーに影響し得る。
画素毎のジャダー量(145)に基づいて、追加すべきノイズ(160)を算出することができる。ベクトルが有する動きの大きさ(135)は、ジャダーマップ(145)に基づいてスケーリング(155)できる。スケーリング(155)の後、ジャダー量に基づき、動きの大きさにノイズ(ジッター)を追加(165)する。ノイズは、ジャダーマップ(145)に基づいて判断される(160)。例えば、ジャダーの規模がより大きいほど、それだけ、追加されるノイズはより高くなる。
ジッター処理(165)の後で、動きの大きさと方向を用いることにより、動きベクトルを再構成(170)する。本明細書で用いるとき、ジッターとは、時間的ずれ(temporal offsets)を指す。これらの動きベクトルに基づいて、画像にモーションブラー(175)を追加する。また、ノイズの量に基づき、元々の画像と調和するように疑似フィルムグレイン(180)も追加することにより、モーションブラーが元々の撮影の一部らしく見えるようになる。ノイズの振幅、サイズ、または分布は、ジャダーの量に基づいて調節できる。最終的に、出力画像を取得(185)する。いくつかの実施形態において、本節に記載の処理は、画像の1つ以上の画素について、または重み的に実行される。
2.フレームレート調節処理
フレームレートを選択できるならば、より高いフレームレートで撮影するか、または、より低いフレームレートを補間してより高いフレームレートで表示することにより、さらなる処理が可能となる。これにより、強いジャダーというマイナスの副作用を伴うことなく、向上した「フィルムらしさ」を表現できるようになる。不快なジャダーを有する領域においてより高いフレームレートで滑らかでない動きを導入することによって、知覚されるジャダーが無くされずに許容範囲まで低下される一方で、過剰なジャダーを有しない当該画像の大部分はより低いフレームレートで更新するようにできる。従って、画像シーケンス全体は、このより高いフレームレートで再生したとき、生理的な「フィルムらしさ」を保持しているであろう。言い換えれば、過剰なジャダーをローカルな領域で低減する一方で、他の領域には手を触れないでおくことができる。最終画像においては、より高いフレームレートのピクチャに基づいた領域もあれば、より低いフレームレートのピクチャに基づいた領域もあるだろう。
例えば、24fpsの入力が与えられた場合、ディスプレイ/プロジェクタの明度の増加に起因して増大したジャダー感を相殺するためには、一つの選択肢としてフレームレートを増加することが考えられる。必要となるフレームレートの増加は、明度に起因して増加した分と同量のジャダーを効果的に低減し得るものであり、精神物理学実験によってモデル化できる。但し、48fpsにおいては、通常、ジャダーは全く知覚されないので、調節可能なフレームレートの範囲は、24fpsと48fpsの間に限定してよい。フレームレート変換およびディスプレイ技術が進歩すればより実用的とはなり得るものの、所定の24fpsのシーケンスを48fps未満のある任意のフレームレートへと補間してその任意のフレームレートにおいて表示することは、実用的ではないかも知れない。この解決策は、以下のように定式化し得る:第1のディスプレイ明度のためにグレーディングされた24fpsの画像シーン/シーケンスを所与のものとして、ある最適な第2のフレームレートを発見することにより、フレームレートを24fpsからこの第2のフレームレートへと変換した後に、第2のディスプレイ明度を有する出力ディスプレイ上で再生されるコンテンツにおいて、当初の24fpsのコンテンツを第1のディスプレイ明度を有するディスプレイ上で再生したときと同量のジャダーが知覚されるようにする。
より実用的には、ディスプレイおよびプロジェクタは、通常、48fps、60fpsその他の標準的なフレームレートについて利用可能である。この場合、時間的補間を適正におこなえば、このような高フレームレートにおいてジャダーは全く見えなくなるので、フレームレート変換を用いることによって全てのジャダー知覚を除去し得る。
一つの可能な方法において、過剰なジャダーを有する領域を識別し、これらの領域のみをより高いフレームレートで更新する一方で、その他の領域をより低いフレームレートで再生し続けようと試みる。この方法によれば、ジャダー感は、過剰なジャダーを有する領域においては無くされるがほとんどの領域においては保持されるため、ピクチャの全ての部分をより高いフレームレートに更新する方法に比べ、向上した結果が現れる。
本明細書に記載の解決策を適用することにより、知覚されるジャダーが24fpsのコンテンツをより高いフレームレートで再生するときにも保持されるように、過剰なジャダーを許容可能レベルまで低減し得る。例えば、より高いフレームレートにおけるローカルに変化可能な滑らかでない動きを導入することにより、ローカルに制御可能なジャダー感を導入することができる。この機能を用いて、過剰なジャダーを有する領域において、適正な量のジャダーをオンにできる。他の領域におけるジャダーを24fpsにおける最大可能ジャダー量にまでオンにして、空間的および時間的にジャダー感が滑らかに変化することを確実にすることもまた可能である。本明細書に記載の方法を以下に説明する上で、48fpsの出力フレームレート例を用いるが、他の出力フレームレートも可能であることが当該分野の当業者には理解されるであろう。
滑らかに動く物体から人間が受けるジャダーの知覚は、例えば、J.Larimerらによる、2001年SIDにおける「Judder−induced edge flicker in moving objects」などに従って、輪郭のちらつきによって説明し得る。この開示内容を全て本願に援用する。
図2は、ジャダー制御に関するいくつかの概念を例示する。図2において、線分が画面を横切って左から右へ動いており、視聴者は、この線分を円滑性追跡眼球運動(SPEM)で追跡しているものとする。上の行(205、210)は、現実世界、すなわち連続領域における直線(225、230)の時空間軌跡を表し、下の行(215、220)は、24fpsでサンプリングしてホールド型ディスプレイ上で再生したときの上の行(205、210)の時空間軌跡を表している。
図2において、左側(205、215)では、空間的位置をワールド座標で表し、右側(210、220)では、位置は、SPEMを伴った視聴者の網膜座標で表す。中心線(225、230、235、240)は、視聴者が物体を追跡するときの視線の時空間軌跡を表す。従って、パネル(205)は、左から右へと動く線分を表しており、網膜座標におけるこの動きがパネル(210)に示されている。動く線をサンプリングし、ホールド型ディスプレイ上で再構成するとき、パネル(215)における階段状軌跡を観察し得る。この軌跡を、視聴者が物体を追跡している間の網膜座標において表すとき、パネル(220)の時空間軌跡における鋸歯状の輪郭を観察し得る。従って、線分の輪郭において、色が背景色から線の色まで立ち上がるモーションブラーを観察し得る。同時に、フレームレートが臨界融合周波数(CFF)をはるかに下回る24fpsという周波数なので、ちらつきをも観察し得る。このちらつきおよびモーションブラーが、通常、24fpsの再生においてジャダーとして見られるものである。パネル(220)において、鋸歯形の深さをx(245)と記す。これは、線分についてのフレーム毎の変位、すなわち線分の速度である。精神物理学実験により、知覚されるジャダーの大きさは動き速度と正の相関関係を有することが知られている。よって、知覚されるジャダーは、xが増加するとき増加し、xが減少するとき減少する。
図3は、線分の動きを48fpsでサンプリングして48fpsホールド型ディスプレイで表示すると何が起きるかを、例示している。図3において、上の行(305、310)は、ホールド型ディスプレイ(305)上、およびディスプレイをSPEMで見ている視聴者の網膜(310)上における、滑らかに動く線分の時空間軌跡を表す。(310)に観察され得るように、変位がおよそ半分の値であり、かつ、より重要なことには周波数が48fpsであってCFFに近づきつつあるので、輪郭のちらつきは、図2の(220)におけるよりもはるかに少ない。実際には、モーションブラーがより少なく、通常全く輪郭のちらつきを伴わない、より鮮鋭な画像を観察し得る。
それゆえ、もしも、フレームレート制御(FRC)を用いて入力24fpsコンテンツを48fpsに補間し、補間フレームの時間的位置をt+0.5とするならば、ジャダーは全く知覚されないであろう。本来の目的は過剰なジャダーを低減することであって無くすことではないので、このことは必ずしも有利とはならない。
図2および図3はまた、補間フレームの時間的位置がt+0.5であるフレームレート制御(FRC)を用いて24fpsの入力コンテンツを48fpsへと補間した結果をも示している。
図3において、下の行(315、320、325、330)は、48fpsにおける、滑らかでない動きで左から右へと動く線分の時空間軌跡を表している。具体的には、線分(335)は、24fpsの周期のうち前半(316)は小さな変位で、後半(317)は大きな変位で、左から動いている。目は動きを追跡しているので、中心線(335、340)は上の行(305、310)の直線(345、350)と同一のままである。言い換えれば、(315)はまた、補間映像フレームの時間的位置がt+dtであるような、24fps入力コンテンツについての48fpsへの補間であるとも解釈し得る。但し、dt<=0.5である。従って、(315)はまた、補間フレームの時間的位置が2つの連続した映像フレームの間においては時刻dtであるような、24fps入力コンテンツについての48fpsへの補間であるとも解釈し得る。但し、dt = x1/(24x)秒である。
前半(316)の小さな変位、および後半(317)の大きな変位はまた、図17においてより詳細に、x1+x2=xを満たすx1(1705)およびx2(1710)としても観察し得る。
図3を再び参照する。(315)における時空間軌跡を、(320)におけるように視聴者の網膜上において表したとき、(320)における軌跡は、24fps成分(325)および48fps成分(330)の2成分に分解し得る。成分(325)は、図2の(220)における軌跡と酷似しており、ジャダーとして知覚されるであろう。一方で、図3における成分(330)は、(310)における軌跡に酷似しており、全くジャダーを示さない。図3における(325)と図2における(220)との違いは、x(355)=x2−x1=x(245)−2*x1が成り立ち、(325)における変位x(355)が(220)における変位x(245)よりも小さいということである。変位x(335)はまた、x’と呼ぶこともある。図2および図3は縮尺が互いには対応しておらず、従って、図2および図3における変位x(355、245)の長さの比率は、本明細書に記載のものとは異なって見えることもある。上記の解析に基づくと、より小さな変位x(355)は、より遅い動き速度に対応し、それゆえ、より少ないジャダーを引き起こす。それと同時に、成分(330)は、48fpsでありかつ動き速度が(310)に比べてさらに小さいので、全くジャダーを有さないであろう。総合的に、網膜上における時空間軌跡(320)は、(310)に比べると低減されたジャダーを示すであろう。
(320)における変位は、(325)における変位(355)と(330)における変位との和である。従って、変位(355)は、(320)における変位よりも小さいことになる。
異なる時間的位置dtにおいて48fpsストリームの中間フレームを補間し得るので、変位x(355)は制御可能である。補間位置dtを算出するための公式は、
Figure 0006510039
である。
もしもdt=0(このときx’=x)またはdt=1ならば、図2の(220)におけるのと同一の効果が得られ、当初のジャダーが伴う。もしもdt=0.5(このときx’=0)ならば、図3の(310)におけるのと同一の効果が得られ、ジャダーは全く存在しない。0と1の間の他の値(0とxの間のx’値)において、知覚されるジャダー性を、dt=0およびdt=0.5における2つの場合の間の所望の程度へと制御することが可能である。滑らかでない動きは、dt’=1−dtにおける補間によっても得ることができ、dtにおける補間と同量のジャダーが伴うであろう。
いくつかの実施形態において、ジャダーを低減するためにdt<=0.5を選択するが、0.5に関して逆側の値も同様な効果を有するであろう。同一の手法を使用して有機的な高フレームレートコンテンツにジャダー知覚を導入することが可能であり、滑らかでない動きでジャダーを注入し得る。
24fps入力および48fps出力を用いるジャダー低減について、図4に示すダイアグラムでアルゴリズムを実装し得る。補間位置マップM(425)を生成(430)して、各画素(x,y)に対し、当該画素が時間的位置dt=M(x,y)において補間されるようにすることが可能である。
本実施形態において、出力のフレームレートは、入力のフレームレートの2倍である。簡略化のために、全ての入力フレーム(405)を出力フレーム(410)として直接コピーし、隣り合う原初の入力映像フレームの全ての対の間に(455)それぞれ1つのフレームを補間することによって、出力フレーム(460)を取得し得る。
フレームを解析(440)して、どの程度のジャダーを含んでいるかを判定することが可能である。ある実施形態において、ジャダー解析(440)は、図1に表わすジャダー制御処理において説明したように実行し得る。もう一つの実施形態において、別のジャダー解析技術を、図4を参照しながら次に説明する。
補間フレームを取得するために、入力映像フレーム(405)をまず使用して、各画素について、動きベクトルフィールド(420)を推定(415)する。各画素(x,y)に対し、順方向動きベクトルmvf(x,y)および逆方向動きベクトルmvb(x,y)を取得する。これら2つの動きベクトルに基づき、順方向動きベクトルと逆方向動きベクトルとを比較することによって、画素(x,y)についての時間的な動き整合率Ct(x,y)を規定することができ、かつ、順方向および逆方向の動きベクトルを隣接画素と比較することによって、空間的な動き整合率Cs(x,y)を規定することができる。そのうえ、各画素(x,y)の順方向動きベクトルmvf(x,y)を用いて、次のフレームにおける対応画素(x’,y’)を発見することができる。こうして、画素mvf(x,y)の順方向動きベクトルを次のフレームにおける対応画素の逆方向動きベクトルすなわちmvb(x’,y’)と比較することにより、順方向動き整合率Cf(x,y)を判定できるようになる。
同様に、ある画素の逆方向動きベクトルmvb(x,y)を、先行フレームにおける対応画素(x”,y”)の順方向動きベクトル、すなわちmvf(x”,y”)と比較することにより、逆方向動き整合率Cb(x,y)を判定することができる。ここで、対応する画素(x”,y”)は、画素(x,y)の逆方向動きベクトルmvb(x,y)により決定される。一実施形態において、これらの動きベクトル整合率は、動きベクトルの和の大きさを動きベクトルの大きさの平均で割った商として定義する。例えば、
Figure 0006510039
であって、但し、|u|はuの大きさである。一実施形態において、各画素(x,y)に対し、補正された動きの大きさm(x,y)は、「順方向の動きの大きさ×順方向動き整合率」および「逆方向の動きの大きさ×逆方向動き整合率」のうちの大きい方として定義できる。この補正された動きの大きさに対して、さらに時間的動き整合率を乗じる。例えば、
Figure 0006510039
となる。
この補正された動きの大きさsにガウシアンフィルタを適用することにより、動き速度s’の滑らかなマップを取得する。実際には、画素(x,y)に対してマッピングされる補間位置M(x,y)は、動き速度s’(x,y)によって決まる。このマッピングされた補間位置はまた、ジャダー解析結果に基づいて補正することもでき、かつユーザーとの対話によって制御することができる。例えば、ポストプロダクションにおけるユーザー(435)は、シーンのどの部分が過剰なジャダーを含むかを判断し、変位マップを調整することによって、結果が適正なジャダーを含むようにし得る。
一実施形態において、補間マップM(425)は、先に取得された滑らかになった動き速度s’に基づいて算出することが可能である。例えば、画素(x,y)の動き速度s’(x,y)と補間位置M(x,y)との間の関係は、図5に示すような、最小補間位置が0でありかつ最大補間位置が0.25である、2つの速度閾値T1およびT2の間のソフトスイッチング関数となり得る。
図5において、T1(505)およびT2(510)は速度閾値である。一方、M(x,y)=0(515)は最小補間位置であり、M(x,y)=0.25(520)は最大補間位置である。
1対の原初の入力映像フレーム、および補間位置マップMに対し、各画素(x,y)において標準的なフレームレート変換方法を適用することにより、対応する補間位置M(x,y)における補間結果を取得できる。動き推定の結果に基づいてモーションブラーをシミュレートすることもまた可能であり、一実施形態において、モーションブラーの量は補間位置に比例する。すなわち、最も近い原初の入力映像フレームから補間位置がより遠ざかるほど、それだけより多くのモーションブラーが適用される。モーションブラーは、例えば、動き方向に沿ってボックスフィルタまたはガウシアンフィルタを適用することにより、取得できる。別の実施形態において、原初の入力フレームと補間フレームとの間のサンプリング映像フレームを平均することによって、モーションブラーをシミュレートする。この場合、全てのサンプリング補間映像フレームをまず算出し、補間位置マップMに基づいて各画素について平均をとることができる。
上記の実施形態におけるジャダー管理アプローチについて、いくつかの応用シナリオが存在する。まず第一に、ポストプロダクションのためのツールとして、スタジオにおいて48fpsの脱ジャダー出力コンテンツを直接に生成し得、コンテンツはその後、適合性のあるプロジェクタによって再生されるであろう。ポストプロダクション処理においては、また、実時間でのジャダー低減をおこなうデジタルシネマプロジェクタのためのメタデータを生成することもできる。このメタデータを用いて、コンシューマー機器におけるFRCをガイドすることも、また可能である。メタデータは複数の形式をとり得、どのシーンがジャダー低減を必要とするかを表す指標や、ある特定のシーンについて補間位置マップを生成する方法を規定するパラメトリックなマッピング関数を含む。
本開示に記載の方法はまた、プロジェクタおよびコンシューマー機器の両方において、実時間での完全自動ジャダー低減のために直接に適用し得る。本開示に記載のアルゴリズムは、エンコーダ、デコーダ、プロジェクタ、およびコンシューマー機器などのハードウェアデバイスに実装可能である。
3.高フレームレートとジャダー制御処理
いくつかの実施形態において、上記の方法に関し、48fps以上のストリームが既に利用可能であるステップまで、一気に進むことが可能である。上記で想定したように、このことは補間によっておこなうことができる。あるいは、そもそも高フレームレートカメラでコンテンツを撮影することによっておこなってもよい。すると問題となるのは、フィルムらしさを保つために適切なレベルのジャダーが表れるように、利用可能な画像を最適に表示する方法である。
3.1.滑らかでない動きを使用してジャダーをシミュレートする
主な意図は、滑らかでない動きを高フレームレートコンテンツに導入することにより、たとえ当該コンテンツを高リフレッシュレートにおいて再生するとしても、ジャダーに似た知覚が現れるようにすることである。
滑らかでない動きは、撮影側(end)でポストプロダクションの間に導入するか、またはプロジェクタ/ディスプレイ側で導入するか、のいずれかが可能である。以下の小節において、滑らかでない動きを高フレームレートシステムにどこで導入するのかに基づき、3つの方法を記載する。
3.1a
いくつかの実施形態において、滑らかでないやり方で、すなわち各フレームの撮影の間に一定でない時間間隔をおいて、動画を撮影する。この滑らかでないやり方で撮影した動画を、その後、連続した映像フレームを一定の時間間隔をおいて投影するプロジェクタによって投影し得る。従って、知覚されるコンテンツには、滑らかでない動きが導入されていることになる。このことにより、高フレームレートコンテンツの再生にジャダー感がもたらされる。
例えば、フレームインデックスiをi=0,1,2,…とし、各フレームが撮影される時刻をt(i)と表すものとする。一定の時間間隔dtを伴う規則的な撮影について、撮影時刻t(i)=i*dtが成り立つ。但しdtは2つの映像フレームの間の時間である。例えば、フレームレートが120fpsのとき、dt=1/120=8.333msとなる。滑らかでない撮影について、映像フレームの部分集合の撮影時刻を変更して、撮影時刻を時間的に少し前後に移動する(例えば、24Hzの周波数で何かを導入できるように120fpsの撮影に対して5フレーム毎に)ことが可能である。数学的には、t(i)=i*dt+δと置くことが可能である。但し、δは、mod(i,n)=0ならば非ゼロであり、さもなくばδ=0である。もしも120fpsの撮影についてnを5と設定するならば、5映像フレーム毎に、映像フレームのうちの1つが異なるタイムスタンプにおいて撮影されることを意味する。これを図6に示す。この方法で撮影された映像フレームを、ディスプレイ側では、なお一定間隔の再生において表示する。図6において、ディスプレイ上に表示される5番目(605)および10番目(610)の画像は、より早い時刻において撮影されるであろうことが見て取れる。一定の速度で左(615)から右(620)へと動く物体があるものとすると、ディスプレイ上において、この物体は、フレーム1からフレーム4まで一定の速度で動き、フレーム4とフレーム5との間で減速し、フレーム5からフレーム6まで加速するであろう。この滑らかでない動きは、ジャダーに類似した、一種の動きアーチファクトとして知覚されるであろう。
図7は、180度シャッター撮影における一例を示す。5フレーム毎に、dtの半分だけ撮影時刻をずらす。すなわち、5番目のフレーム(705)を、4番目フレーム(710)の直後に撮影する。同様に、ディスプレイ側において、撮影動画を一定の時間間隔dtで投影する。
現在のカメラは、映像を撮影するときに撮影時刻を変更することをサポートしていないかも知れない。本小節に記載の実施形態を実施する1つの方法は、より高いフレームレートで撮影することができるビデオカメラを使用することである。例えば、240fpsかつシャッター度360のカメラを使用し、図7に示すシーケンスを撮影し得る。
3.1b
上記の実施形態と同様に、一定でない時間間隔で映像フレームを投影するように、プロジェクタシステムを変更することが可能である。一例を、図8に示す。180度の撮影シャッター角度および全周期におけるディスプレイのホールド時間を想定すると、各フレームの実際の撮影および表示は、図9のようになる。
本例において、各フレームの表示タイムスタンプを変更する。しかし、特定のディスプレイシステムは本実施形態をサポートしないかも知れない。本効果は、図10に示すように、より高いフレームレートプロジェクタ/ディスプレイを用いてシミュレートすることが可能である。
上記の2実施形態を組み合わせることにより、例えば図11および図12に示すように、ジャダー知覚をより柔軟に制御し得る。
3.1c
いくつかの実施形態において、撮影時刻および表示時刻を変更しない。よって、動画をある一定の時間間隔で撮影して、これと同一の時間間隔で表示する。代わりに、撮影した動画を、後処理/ポストプロダクションのステップで編集する。一般に、時刻tにおいてフレームを表示するために、時刻t2(t)に撮影されたフレームを用いる。例えば、入力が120fpsコンテンツであるとき、時刻関数を
Figure 0006510039
として設計し得る。要するに、この時刻関数は、5フレームの周期毎における4番目のフレームを繰り返し、元の5番目フレームを破棄することになる。この特定の実施形態を、図13に示す。4番目(1305)および9番目(1310)の映像フレームはまた、5番目(1315)および10番目(1320)の映像フレームとしても使用する。
他の時刻関数t2(t)を設計することも可能である。5という数は、変更され得るばかりか、整数である必要もない。t2(t)が整数ではないとき、当該フレームは、t2(t)においては撮影されない。このもう1つの実施形態において、ビュー補間技術を使用することによって、時刻floor(t)およびfloor(t)+1において撮影された2映像フレームの間のフレームをシミュレートするフレームを生成することが可能である。一例を、図14に示す。
図14において、4番目(1405)および5番目(1410)の撮影映像フレームを使用して、5番目(1415)の表示フレームを生成する。一つの可能なビュー補間処理は、映像フレーム
Figure 0006510039
間の動きベクトルをまず求め、それから補間フレームにおける各画素について、動きベクトルを用いてこれら2つの隣接映像フレームにおける対応画素を導出し、これらの対応画素およびその隣接画素に基づいて画素値を取得することである。
3.2 24Hzコンテンツを高フレームレートに追加する
24ヘルツのコンテンツは、ジャダーが知覚されるひとつの本質的な理由であろうし、この特定の周波数を有するコンテンツは、歴史的に、ジャダー知覚の形成に寄与してきた。ジャダーを注入するために、24Hzコンテンツを高フレームレートコンテンツに導入することが可能であるかも知れない。しかし、コンテンツ全体を完全に24fpsへと変換すべきではない。さもないと、高フレームレートの恩恵が失われてしまうことになる。
3.2a 24Hzのノイズ/フィルムグレインを追加する
対象とするコンテンツ自体を高フレームレートで更新しつつも、このコンテンツにさらに、低フレームレートのノイズまたはフィルムグレイン(シミュレーションまたは実際に撮影された)を追加することが可能である。まず、ノイズ低減方法(1505)を使用することにより、当初の高フレームレートコンテンツにおけるノイズまたはフィルムグレインを低減し得る。そして、除去されたノイズまたはフィルムグレイン(1510)を処理(1515)することによって、同様な空間的特性を有した24Hzのノイズまたはフィルムグレイン(1520)を生成する。この24Hzの再生成されたノイズまたはフィルムグレイン(1520)を、その後、高フレームレートコンテンツへと加え戻す(1525)ことができる。本処理は、図15に見ることができる。
24fpsのノイズおよびフィルムグレインを生成する一つの方法は、ある1フレームのノイズ/フィルムグレインを繰り返して使用し、これを、120fpsコンテンツにおける隣接5映像フレーム全てにおいて適用することであり得る。このようにすれば、コンテンツ自体は120fpsで変化していても、5映像フレーム毎に同一のノイズ/フィルムグレインが共有されることになる。
3.2b 当初の高フレームレートが有する24Hzコンテンツを変更する
24Hzで表示されるであろう映像フレームを繰り返し変更することによって、当初の高フレームレートコンテンツが有する24Hzコンテンツを変更することが可能である。例えば、120fpsコンテンツについて、フレームインデックスを5で割った余りに基づき、映像フレームを5つの異なるグループへと分割することが可能である。こうすれば、各グループは、実際には24Hzのコンテンツとなる。これらのグループの1つ以上において映像フレームを変更することができ、その結果、24Hz信号が当初のコンテンツに加え込まれることになる。コンテンツを変更する多数の方法が存在し、例えば、当該グループの各フレームに対し、空間的な偏心を伴ってまたは伴わずに空間的フィルタを適用することである。具体的には、平滑化フィルタ(ガウシアン、シグマ、バイラテラルなど)または鮮鋭化フィルタ(アンシャープマスクなど)を使用することにより、このグループにおける画像を変更して、他のグループにおける画像に比べて異なる特性を有するようにすることができる。同時に、このグループにおける映像フレームを、例えば動きベクトルなど、コンテンツ自体が有するいくつかの特性に基づいて、揺らがせる(jittered around)または不均一な変換にかけることができる。さらに、24Hzコンテンツを追加するために、高フレームレートコンテンツの各グループを時間的にフィルタリングしてもよい。
4.拡張されたジャダー可視性制御
上記に詳述したアプローチは、さまざまな方法で拡張することが可能である。
ジャダー可視性制御に対する拡張アプローチの第1の例において、2連続映像フレーム間の時間周期Tinに相当する入力フレームレートRin(入力コンテンツのフレームレート)について考える。ここで、Tin=1/Rinである。また、出力フレームレートは、時間周期Toutに相当するRout(すなわち、表示フレームレート)である。上記の諸例においては、例えばRout=2*Rinの場合について各方法を適用し得るものである。本節において以下に続く拡張アプローチは、出力フレームレートが入力フレームレートの2倍でない場合に適用し得る。
例えば、第1の一般化は、Rout=2*n*Rinの場合についておこない得る。但し、n=1,2,…は自然数である。この場合、ベースフレームレート(BFR)は入力フレームレートのままに保つことができ、本開示における上記の方法を用いて、ローカルに変化する変位マップdt(x,y,t)に基づき全ての2連続入力映像フレーム間にフレームを補間することにより、フレームレートを2倍にすることが可能である。このとき、出力は2倍のフレームレートすなわち2*Rinを有しており、各出力フレームをn回ずつ表示すれば、表示レートRoutで表示し得る。
図18は、上記に説明したある実施形態の一例を、n=2の特定の場合について示しており、Rout=4*Rinであって、dt(x,y,t)=0.25*Tin=Toutが成り立つ。黒色の線(1805)は入力映像フレームを表しており、灰色の線(1810)は補間映像フレームである。各フレーム(1805、1810)は、2Toutの期間表示される。
outがRinの偶数倍ではないときの実施形態については、TinはToutの偶数倍とはならない。従って、当初の入力映像フレームを保持しかつ連続する映像フレームの各対の間のフレームを補間する上記のアプローチを、改変する必要がある。例えば、補間フレームを、上記で用いたものとは異なった、当初の映像フレーム間の中途における時間的位置で表示することが可能であろう。例えば、Tin=5Toutのとき、図19に見られるように、当初のフレームを3Toutに等しい期間表示し、補間フレームを2Toutに等しい期間表示し得るであろう。
図19において、黒色の線(1905)は入力映像フレームを表しており、3Toutの期間表示される。一方、灰色の線(1910)は補間映像フレームであり、2Toutの期間表示される。
しかし、本解決策は、当該分野において周知の3:2プルダウンに類似した、望ましくないかも知れないアーチファクト信号を招き得る。
3:2プルダウン型のアーチファクトを避けるために、ベースフレームレートをRinに近いフレームレートへと変更することが可能である。言い換えると、ある自然数kを発見し、BFRをRout/(2*k)に等しくすることによって、BFRがRinに近く、かつ、依然としてジャダーフレームレートであるようにできる。
例えば、もしもRout=120fpsならば、kを例えばk=2またはk=3となるように選択できるであろう。このようにして、BFRは、120/(2*2)=30fpsまたはBFR=120/(2*3)=20fpsに等しくなり得る。簡単のために、かつ一般性を失わずに、以下の例を、k=2およびBFR=30fpsとする。もしも入力フレームレートRin=30fpsならば、上記した、2倍のフレームレートの諸方法を適用し得、2倍のフレームレートを有した60fpsの出力信号を取得できる。出力は、その後、全てのフレームを2回ずつ繰り返すことにより、120fpsのディスプレイにおいて表示し得る。もしも入力フレームレートRinが30fpsではなく24fpsであるならば、時間的補間を用いることによって、全ての必要となる映像フレームを取得することが可能である。例えば、dt=0.25*TBFR=Toutであるものとすると、出力時刻と入力時刻との間の関係は、図20に示すことができる。ここで、黒色の線(2005)は入力映像フレームを表し、灰色の線(2010)は補間映像フレームである。
さらに、上記の方法においてはBFRを変更したので、同一のジャダー知覚を保つために、時間的変位dtを相応に変更する必要がある。
ジャダー可視性制御に対する第2の拡張アプローチ例において、図2に記載の線分動きモデルについて考える。網膜像(220)はジャダー効果を有するものであり、(220)における変位x(245)は知覚されるジャダーの大きさを定めることが分かっている。SPEMの最中における網膜像が同じ形状の(220)を有しながらも制御可能な変位xを伴うように、線分の動きを構成することが可能である。
図21(2105)に示すように、線分(2110)は、時間T=1/BFRの間はより低い速度で右へと動き、その後、距離x(2115)だけ右へとジャンプする。実際、1フレームの勾配(2110)は、速度T=1/BFRで右へと動く。BFRは通常は十分に高いので、線分を追跡する視線は、(2120)に示されるように、全体的には直線をなお辿る。網膜上に投影された軌跡は(2125)に示されており、図2の(220)と同様の形状をしているが、異なるxを伴っている。
無限フレームレートのディスプレイを仮定し、入力画像シーケンスを無限フレームレートへと時間的に補間することが可能であるものとすると、図2の(205)におけるのと同じ時空間軌跡を伴った画像シーケンスを取得し得る。この無限フレームレートの例について、実時刻と表示時刻との間のマッピングは、図22の(2205)において示す灰色の直線(2210)として表せる。灰色の直線(2210)は、動き補間勾配と呼ぶこともある。
次に、無限フレームレート入力を、期間Tに相当するベースフレームレート(BFR)でサンプリングし、BFRのホールド型ディスプレイにおいて表示することができる。実時刻と表示時刻との間のマッピングは、図22における黒色の線分(2215)として表されるであろう。上例において、簡単のため、シャッター角度の影響は考慮しなかった。
続いて、滑らかでない動きを、図21と同様に導入し得る。すなわち、無限フレームレートの入力は、各期間Tの中においてはより低い速度で再生することができ、各Tの終わりに、実再生時刻に追いつくために順方向へのジャンプがおこなわれる。マッピング曲線は、このとき、図22に示す点線分(2220)のように変更されるであろう。この場合、物体は、実際には滑らかに動いているのだが、期間Tの内側ではより低い速度で動くように表示され、その後、次の期間の始めに、新しい位置へとジャンプするように表示される。ジャンプすることによって、ジャダーとして知覚されるであろうBFR信号が導入される。その一方で、点線分(2220)の傾きによって定まるジャンプ量は、知覚されるジャダー性の大きさに影響を及ぼすであろう。言い換えると、知覚的ジャダー性を、2極すなわち、ジャダーが皆無の状態とベースフレームレートにおける通常量のジャダーとの間で制御し得る。
ゆえに、点線分(2220)の傾きをジャダー制御レート(JCR)として用いることにより、出力のジャダー性を制御することが可能である。傾きが1に等しいときには、ジャンプはおこなわれず、よってジャダーは存在しない。一方で、傾きが0に等しいときには、最大量のジャンプが起きる。このJCRは、フレームレートが倍化される上記の例におけるdtと同様の効果を有する。ただし、本例においては、無限フレームレートについて考察している。
いくつかの実施形態において、ベースフレームレート(BFR)に対応する期間Tは、表示フレームレートに対応する周期Tdの倍数である。例えば、表示フレームレートは120fpsであり、かつBFRは24fpsであることが可能である。図22は、表示フレームレートがBFR値の5倍であるような一実施形態におけるマッピング(2225)を例示する。直線(2210)を完全にサンプリングすれば、結果として、図2の(210)における直線(230)と同様なマッピングが得られるだろう。
従って、表示フレームレートが十分に高いものとすると、物体は、ジャダー知覚を全く伴わずに、なお滑らかに動くだろう。もしも同一の線分動きモデルを使用するならば、時空間軌跡は、現実空間の場合(2305)および網膜投影の場合(2310)について、図23のように例示し得る。もしもジャダー知覚を伴う入力を、図22における線分(2215)と同様にサンプリングするならば、取得されるマッピングは、図22に示す点線分(2230)によって表すことができる。言い換えると、点線(2230)を鉛直の実時刻軸(2235)上へと投影したところにおける離散タイムスタンプへと入力画像シーケンスを補間することができる。線分動きモデルの、これに対応する時空間軌跡を、図23(2315、2320)に示す。
もしも、BFRの期間Tが、表示フレームレートに対応する期間Tdの値の倍数であり、図22における直線(2220)の傾きであるジャダー制御レート(JCR)をrと表すならば、各表示時刻tに対するサンプリング時刻f(t)は、
Figure 0006510039
として、算出し得る。
但し、
Figure 0006510039
である。TはTdの倍数であることが分かっているので、T=kTdと置くと、
Figure 0006510039
を得る。
但し、
Figure 0006510039
である。
TがTdの値の倍数ではない実施形態において、
Figure 0006510039
であってT’はTdの倍数となるように値を選択でき、その後に上記の等式を使用してf(t)を算出し得る。同じ量のジャダー可視性を保存するために、BFRが変化するのに応じてJCRを調節する必要が生じ得るだろう。
BFRを変更する必要のないもう一つの可能な方法は、以下のように記述できる。まず、無限フレームレートのディスプレイについて考察するので、サンプリング時刻は、図22における勾配直線(2220)を辿ることになる。図24において、勾配直線(2405)は、各ベース期間Tについて示されている。勾配直線(2405)は無限フレームレートの場合を表しており、このとき、水平線(2410)で示すように、サンプリングレート1/Tdを用いて無限フレームレートシーケンスをサンプリングすることが可能である。勾配直線(2405)の時刻マッピングについての公式は、
Figure 0006510039
であって、
但し、
Figure 0006510039
である。このとき、サンプリングされた水平線(2410)についての公式は、
Figure 0006510039
であって、但し
Figure 0006510039
である。すると、これら2等式を組み合わせることによって、以下の公式
Figure 0006510039
を得ることができ、
但し、
Figure 0006510039
である。
もしもTがTdの値の倍数ならば、すなわちT=kTdであるならば、同一の公式は、段落0105において上記した場合に関するものとして得られるであろうことが理解できる。従って、この等式は、さらなる一般化である。
上記の諸実施形態と同様に、このJCR、すなわちrは、空間的、時間的に変化する関数r(x,y,t)であってよい。つまり、ジャダー制御レートは、様々な時空位置に対して様々であることが可能であり、これにより、ジャダー可視性制御を、異なる時刻において異なる領域に別々に適用することが可能となる。
要約すると、ジャダー制御レート(JCR)およびベースフレームレート(BFR)を所与のものとして、任意の入力フレームレートRinに対するジャダー知覚を任意の出力フレームレートRoutへと制御し得るように、本開示に記載のジャダー可視性制御方法は拡張された。全体的なフローチャートは、図25のように示される。
図25に見られるように、ジャダー制御レート処理(2510)およびベースフレームレート(2010)を使用し、上記の拡張されたジャダー可視性アプローチ(2515)を入力画像シーケンス(2505)に適用することが可能であり、このようにして出力画像シーケンス(2520)が取得される。
5.高フレームレートおよび複数のフレームレートにおけるフィルムらしさの体験
上記の拡張されたジャダー可視性制御アプローチを、高フレームレート(HFR)画像シーケンスにおいて適用することによって、フィルムらしさの体験を得ることが可能である。高フレームレート画像シーケンスは、通常、より鮮鋭な画像およびより少ないモーションブラーを有しており、立体映像における高フレームレートは、従来の24fps画像シーケンスに比べ、より優れた3D効果を有するであろう。しかし、高フレームレートにおける滑らかな動きは、全くジャダー的な知覚を伴わないので、「ビデオらしさ」であると時々批判されることがある。上記の方法を使用することにより、高フレームレート画像シーケンスにジャダー性を導入することができる。導入されたジャダー性は、コンテンツにおけるフィルムらしさの体験を増大させるために役立ち得る。図26は、フィルムらしさの体験をHFR入力コンテンツに追加するためのダイアグラムを表している。
この場合、入力および出力画像シーケンスの両方が同一のフレームレート、すなわちRout=Rinを有することになる。例えば、入力および出力の両方が、48fps、60fps、120fpsなどであり得る。入力シーケンスはシーンを高フレームレートでサンプリングしているので、同一のフレームレートRinで表示したとき、入力シーケンスにジャダー知覚は全く存在しない。ジャダー知覚を導入するためには、第1のステップは、ジャダーを引き起こすベースフレームレートBFRを選び、適切なジャダー制御レートrを選択することであり、これにより、図24を参照しながら記載した処理を用いて、T=1/BFRかつTd=1/Rinで、入力画像シーケンスを再サンプリングし得るようになる。上記のように、出力画像シーケンスをRoutで再生したときに適切な量のジャダー性すなわちフィルムらしさをその出力画像シーケンスに加えることができるように、ジャダー制御レートJCR=rを決定することができる。さらに、このrは、空間的および時間的に変化する関数r(x,y,t)であってもよい。
従って、フィルムらしさの体験(ジャダー)は、ポストプロダクション側において画素毎に制御することが可能である。様々な画素が、異なる時刻に、異なるJCRを有していてよい。この場合、通常は、JCR関数r(x,y,t)はショット内でローカルに滑らかとなるであろう。
ある単純化された実施形態において、フィルムらしさの体験は、ポストプロダクション側においてフレーム毎に制御することができる。異なる映像フレームは異なるJCRを有し得る。この場合、JCR関数r(t)はショット内でローカルに滑らかとなるであろう。
いくつかの実施形態において、フィルムらしさの体験(ジャダー)はまた、ポストプロダクション側においてショット毎に制御することも可能である。異なるショットは異なるJCRを有してもよく、このようにして、必要な場合には、異なる量のジャダー性が異なるショットへと追加されるであろう。
ポストプロダクション側における一実施形態は、プロフェッショナルなツールを用いることにより、ジャダー知覚を必要とするローカルな領域を識別することを含む。その後に、適切な量のジャダーを追加するために必要となるJCRを決定することができる。ある次のステップで、ショット境界内において空間的および時間的に、JCRを滑らかにし得る。
参考文献[2][3]に記されているように、1シーケンス、さらには1フレーム中において複数のフレームレートを有した、混合フレームレートコンテンツについてのさまざまな提案が存在する。高速の動き映像フレーム/物体は、より高いフレームレートから恩恵を受けることができる。その一方で、より低速の動き映像フレーム/物体は、より低いフレームレートで保持することができる。複数のフレームレートを有するこれらのコンテンツにもまた、上記の拡張されたジャダー可視性制御アプローチを適用し得る。
低フレームレート映像フレーム/領域においては、低減する必要のある過剰なジャダーが存在し得る。その一方で、高フレームレート映像フレーム/領域においては、ジャダー的な知覚を加え戻す必要がある。上記および以下の方法を組み合わせることによって、複数フレームレートのコンテンツにおけるジャダーの可視性を制御することが可能である。
6.ジャダー制御メタデータを用いたデュアルエンドのフレームレート変換
画像シーケンスに滑らかでない動きを導入することにより、ジャダー可視性を制御し得る。ジャダー可視性の制御における重要なステップの一つは、上記のように入力映像フレームを所望の時間的位置へと時間的に補間することである。このフレーム補間は、ディスプレイ側におけるフレームレート制御アルゴリズムの殆どにおいて既存の機能である。しかし、現在のFRCの方法では、通常、映像フレームは規則的な時間的位置のみにおいて補間される。例えば、24fpsから120fpsへのフレームレート変換では、2入力映像フレーム間の等間隔の時間的位置において、4映像フレームが補間されるであろう。これにより、コンテンツにおける任意の知覚的ジャダー性が消失するだろう。本開示に記載の方法により、ジャダーが皆無の状態から24fpsにおける最高レベルのジャダー性まで、知覚的ジャダー性を制御可能にすることができる。本開示の方法は、コンテンツに基づいた何らかの推定を介し、ディスプレイ側で自動的に実行され得るが、このやり方では品質は正常には制御可能とならず、制作側からの監督の意図を変えることになるだろう。
監督の意図を維持する一つの方法は、コンテンツ制作側で決定して画像データと共に送信することのできるジャダー制御メタデータ(JCM)を介し、情報を伝達することであろう。このJCMは、その後、FRCアルゴリズムが入力コンテンツを補間するのをガイドし得、これにより、補間された出力シーケンスは、期待されるレベルのジャダー性を有するようになるだろう。本方法を表すダイアグラムの一例を、図27に示す。
図27において、ある入力画像シーケンス(2705)が提供される。すると、この画像シーケンス(2705)に基づき、ジャダーメタデータを生成(2710)することができる。その後、ジャダー制御メタデータ(2715)を使用することにより、フレームレート制御方法に基づいて、ジャダー可視性制御を実行(2720)し得る。続いて、ジャダー制御リファレンスモニタ(2725)は、ジャダーメタデータ生成(2710)にフィードバック(2730)を提供し得る。それから、メタデータおよび画像をジャダー可視性制御(2735)のためにディスプレイ側へと引き渡し、出力ディスプレイ(2740)において使用する。
ディスプレイ側においてFRCを制御するためには、必要となる一つの重要なメタデータはジャダー制御レート(JCR)であって、これは図22における線分(2220)の傾きである。JCRは、両端を含めて0と1の間の値を取り得る。FRCは、このJCR値に基づき、入力シーケンスを補間することが可能である。
例えば、ジャダー制御レートr=0.5が成り立つとき、24fpsから120fpsへのFRCは、4つの中間位置5*n+i*rを補間することができる。但し、i=1,2,3,4は2つの連続した入力映像フレーム間の補間フレームインデックスであり、n=1,2,…は、入力シーケンスのフレームインデックスである。
個々のソフトウェアまたはハードウェア実装に依存して、FRCアルゴリズムは、どの時間的位置へとフレームを補間し得るのかに関する制限を有するかも知れない。24fpsの入力を許容する120fpsのディスプレイにおいて、しばしば、FRCは5*n+kにしか補間し得ない。但し、k=1,2,3,4は整数である。この場合、既存のFRCアルゴリズムを利用するために、i*rは最も近い整数へと丸められるであろう。
一つのさらなるメタデータはベースフレームレート(BFR)であろう。これは、図22に関して上記に説明した期間Tに対応する。大抵、BFRは24fpsであるが、25fps、30fpsなどでもよいだろう。このBFRは、入力コンテンツのフレームレートと同一でもよいが、これら2フレームレートは異なり得ることに留意されたい。BFRは、JCRと連動する出力の予測ベースフレームレートを表す。言い換えると、これは、適用したJCRの量に対してコンテンツのジャダー制御/フィルムらしさの体験を視覚的に検証するために、ポストプロダクション側が使用したフレームレートである。例えば、24fps入力に対し、30fpsのBFRを用いて、周期毎に2映像フレームで60fpsディスプレイ上において結果を検証できるので、BFRは30fpsであってもよいだろう。FRCは120fpsにおける等間隔の時間的位置へしか補間し得ないにしても、ディスプレイ側で30fpsのBFRを使用することにより、3−2プルダウン型のジャダー性を導入することなく出力を得ることができるであろう。
たとえ、同一のJCRを用いるとしても、異なるBFRにより、異なったジャダー知覚を生成し得る。従って、もしも出力が、BFRメタデータに対応するものとは異なる期間Tを使用するならば、JCRを相応に変更して同様な量のジャダー知覚を確保する必要がある。
追加的なメタデータとしては、ジャダーを制御するために使用されたリファレンスディスプレイについてのディスプレイパラメータを含むだろう。これは主として、ディスプレイの最小および最大輝度値となる。これらのメタデータの重要性は、同一のJCRおよびBFRであっても、異なるリファレンスモニタを使用すれば、異なったレベルのジャダー性を知覚し得ることにある。ディスプレイ側において、メタデータをディスプレイ自体のパラメータと組み合わせることによって、新しい一組のBFRおよびJCRを決定し、これにより、制作側における監督の意図からFRC出力がかけ離れないようにすることが可能である。このメタデータがある場合、図28に例示するように、ディスプレイ側における処理はまず、その他の2メタデータすなわちJCRおよびBFRを更新するブロック(2805)を含むだろう。
全てのジャダー制御メタデータは、ショット毎のメタデータおよびフレーム毎のメタデータの両方として実装し得る。ディスプレイの最小および最大輝度を含めたディスプレイパラメータのメタデータはまた、トラックレベルのメタデータとして実装してもよい。すなわち、その他のジャダー制御メタデータが、同一ディスプレイを使用して取得されている限り、当該トラック全体は、単一組のディスプレイパラメータを共有することができる。
ショット毎のメタデータにおいて、制作側は、どのショットをジャダー制御する必要があるのかを決定するであろう。そして、メタデータを当該ショット全体に提供する。もしもあるショットをジャダー制御する必要があるならば、JCRおよびBFRの両方を、対応する非ゼロ値に設定する。もしもあるショットにおいてジャダー制御をおこなわないならば、JCRおよびBFRの両方を、ゼロに設定する。
フレーム毎のメタデータにおいて、制作側は、ジャダー制御する必要がある映像フレームについて精密な調整をおこない、ショット全体ではなく、特定のフレーム範囲にメタデータを提供することができる。この場合、ショット内におけるジャダー可視性の唐突な変化を防止するために、メタデータのJCRをショット境界内で滑らかにし得る。どうやってJCRを滑らかにするのかは、制作側における実装の問題であろう。結果として、JCRは、当該ショットにおいてフレーム毎に変化していくことができる。
BFRは、JCRが変化していくときでさえ、ショット全体についてなお同一であることができる。このBFRはまた、あるショットの最初のフレームにおいて、当該ショットに何らかのジャダー制御が存在するかどうかをディスプレイ側に伝える指標としても役立つ。具体的には、あるショット内に何らかのジャダー制御が存在すれば、BFRは、このショットの最初のフレームから始まるある非ゼロ値を有する。もしもあるショット内にジャダー制御が全く存在しないならば、値はゼロである。このことは、ディスプレイ側におけるアルゴリズムが、FRCアルゴリズムに固有のFRC性能に基づいて異なる判断を下すのに役立つであろう。ディスプレイ側における既存のFRCアルゴリズムは、映像フレームを補間する能力に制限が有る場合、ジャダー可視性の唐突なジャンプを回避するために、ジャダー制御を当該ショット全体のあらゆるフレームについて適用しようとするかも知れない。JCR値に従って最も近い利用可能な映像フレームへと丸めをおこなうか、または何らかの形のジャダー可視性制御を当該ショット全体に適用するかの判断は、ディスプレイ側に一任される。
ショットが何らかのジャダー制御を含むかどうかを表すこの種の指標はまた、別個のメタデータを使用して実装してもよい。このメタデータは、ブール型であってもよいだろう。
4つの等間隔の映像フレームを補間することによって24fpsから120fpsへの変換をおこなうことのできる、FRCの一例が考えられる。本例において、利用可能な映像フレームは、離散的な表示時刻tにある。但し、t=0,1,2,…である。あるショットの最初のフレームが、メタデータBFR>0かつJCR=0とともにディスプレイ側において受信されるとき、ディスプレイ側は、このショットにはジャダー制御が存在するが、最初のフレームからは始まらないものと推測し得る。2つの可能な選択肢を実施し得る。すなわち、1.当該ショット内の各時刻tにおいて、各入力フレームのJCRに基づき算出される時間的位置f(t)に最も近い利用可能なフレームを表示すること。例えば、ある入力フレーム5*nにおいてJCR=0.6のとき、後続の4映像フレームは、理想的には5*n+0.6,5*n+1.2,5*n+1.8,5*n+2.4であり、これに最も近い利用可能な映像フレームはそれぞれ、5*n+1,5*n+1,5*n+2,5*n+2となるだろう。あるいは、2.当該ショット全体についてジャダー可視性制御をおこなうことを決定する。この場合、3:2プルダウンアーチファクトを導入することのない一つの解決策は、
Figure 0006510039
と表せるであろう。
但し、tは、当該離散的な表示時刻である。この場合、効果的なBFRは、30fpsとなり、ディスプレイは、実際には0 0 1 1, 4 4 5 5, 8 8 9 9, …のパターンを示している。他のジャダー可視性制御方式もまた、ディスプレイ側において適用し得、例えば、24fpsのBFRおよびいくつかの特定範囲のJCRを使用すると、パターンは0 0 0 1 1, 5 5 5 6 6, …または0 0 2 2 2, 5 5 7 7 7, …などとなるだろう。但し、各インデックス数は、算出されたマッピングf(t)を丸めたマッピングとして選択される。
いずれの場合にも、JCRおよびBFRは各フレームにつき実装し得る。単一バイトの文字が、両方のメタデータのために十分に高い精度を有し得る。リファレンスディスプレイのメタデータに関しては、フレームベース、ショットベース、あるいはコンテンツベースでさえあってもよい。例えば、2つのフロート型を使用することにより、リファレンスディスプレイの最小および最大輝度を表現できるであろう。これに加えて、あるショットにジャダー制御が存在するかどうかを表すために、オプションとして、ブール型メタデータをショット毎またはフレーム毎に入れることもできる。
さらに、JCRは、フレーム内でさえも空間的に異なっていてよい。領域ベースまたは画素ベースで実装し得る。この空間的に異なるJCRメタデータは、アーチファクトを回避するために滑らかに変化している必要があるだろう。
7.視覚モデルを用い、ディスプレイによるジャダー制御メタデータの使用をディスプレイメタデータに従って補正する
信号側のディスプレイメタデータとディスプレイ側のパラメータとを組み合わせることは、望まれない歪みだけでなく、望まれるジャダーの可視性および見た目のレベルをも、より細心に制御することにつながり得る。このことの動機として、ジャダーの時空間成分の可視性は、コントラスト感度によって(すなわち、CSFモデルを介して)表される信号コントラストに依存し、これが今度は視覚システムの明順応レベルに依存する(LA−ST−CSFによってモデル化されるように)という事実がある。例えば、明順応輝度が増加するにつれて、より高い時間周波数に対する感度が増大する。これは実際、図29に示すように、明順応レベルの対数との線形関係に従う。図29は、5つの例示的な偏心度(0、10、22°、40°、および70°)における、log網膜照度に対する臨界融合周波数(CFF)のプロットを表す。図29は、参考文献[3]からの引用である。Ferry−Porter関数との一致(直線(2905))において、偏心度に伴って傾きが顕著に増加することに注目することができる。信号側のディスプレイメタデータとディスプレイのパラメータとの相互作用によって、ディスプレイは、表示中の信号の正確な輝度レベルを知ることができるようになる。
図30は、ジャダー制御アルゴリズムパラメータがどのようにしてディスプレイメタデータ(DM)によって補正され得るか、および、総合的な映像信号(3010)(本体(3005)、メタデータ(3015、3020)、コンテナフォーマットなどを含む)のうちの画像部分(3005)(「映像信号本体」と呼ぶ)がどのようにしてジャダー制御アルゴリズム(3025)によって処理され得るかについての、高レベルの説明を示している。図30において、ジャダー制御アルゴリズム(3025)は、ディスプレイパラメータ(3030)およびジャダーメタデータ(3015、3020)によって補正される。いくつかの実施形態において、ジャダーメタデータは、ディスプレイメタデータ(3015)である。
図31に見られるように、ディスプレイ信号メタデータは、入力信号(3110)の最小、中央、および最大を含み得る。ディスプレイのパラメータは、最小および最大輝度(3115)を含み得る。ジャダー制御アルゴリズムパラメータに対する変更の算出は、処理(3105)に示されている。
以下において、視覚モデルを用いる2つの実施形態を記載する。一つのアプローチは、視覚システムの時間的帯域幅を記述するFerry−Porterの法則を直接的に使用することである。このアプローチを図32に表わす。表示信号がより明るくなるにつれて、時間的帯域幅はFerry−Porterの法則に従って増大し、その近似において、ジャダー可視性の全ての側面は比例的に増加するものと仮定する。よって、ある近似的な「最小可知差異」(just noticeable difference)(JND)、すなわち閾値を上回るスケールファクタが算出されて、JNDがより高いほど、ジャダーはそれだけ可視性がより高く、相応にスケールダウンされなければならないことを意味する。スケールダウンは、図22におけるジャダーマッピング関数(2210)の傾きを変更することによっておこなう。図32のダイアグラムにおいて、これを、動き補間勾配(3205)と呼ぶ。特に、傾きを増加することは、より低いジャダー成分を処理映像に導入することを意味する。JNDはまた、「超閾パラメータ」(above threshold parameter)と呼ぶこともある。
図32に見られるように、Ferry−Porterの法則(3220)に基づくモデルを適用する前に、平均輝度(3210)および平均コントラスト(3215)を算出し得る。
視覚モデルを使用することへの第2のアプローチは、周波数応答に類似した、時空間コントラスト感度関数(ST−CSF)の全体について考察することである。さらに、図33に示すような、ST−CSFの明順応バージョン(LA−ST−CSF)を使用することが可能である。Ferry Porterの法則は、LA−ST−CSF、とりわけ図33のモデルにおいて見られるような時間周波数境界の挙動(明順応が増加するにつれてより高い遮断周波数へと上昇するのを観察し得る)の中に含まれている。図33は、6つの異なる輝度順応(LA)レベル1、10、34、100、500、および1000cd/m2における、新たな時空間CSFの等高線図を例示している。
LA−ST−CSFアルゴリズムの使用を、図34に示す。図34は、LA−ST−CSFアルゴリズムを用いることにより、ジャダーのJNDを推定し、ジャダー制御アルゴリズムのパラメータを相応にスケーリングするアプローチの一例を示す。本実施形態において、全ての側面をFerry−Porterに従ってスケーリングすることによって可視性が表されるものと仮定するのではなく、フレーム毎、ローカル領域毎、または画素毎の信号のコントラスト、ならびに結果として得られる明順応CSFを、具体的に考慮に入れている。CSFは、ある特定の明順応レベルに対する感度を与える。すると、これをもとに、閾値のコントラストを算出し得る(すなわち、JND)。入力のJNDレベルは、信号コントラストを閾値コントラストで除算することによって算出することができ、これがCSFモデルの出力となる。特に、閾値は感度の逆数である。
ジャダーの成分の可視性はCSFに従うものと理解されるので、ジャダー制御アルゴリズムを介し、CSFの感度の逆数でジャダーの見た目をスケーリングすることは、広範囲のディスプレイ輝度レベル(および得られるコントラスト)にわたってジャダーの見た目を調整するように作用する。この調整は、動き補間勾配(2210)の制御を介しておこない得る。
もう一つの実施形態において、上記の方法は、ジャダーに関すると識別された画像内の領域のみに適用される。本実施形態において、ジャダー信号コントラストは、これらの領域の輝度に基づく。信号側のディスプレイメタデータおよびディスプレイのパラメータを使用することによって輝度への変換をおこなった後の領域のヒストグラムから、これを算出する。
8.逆トーンマッピングを伴うディスプレイにおけるジャダー可視性制御
時として、より高いダイナミックレンジを有するディスプレイにおいて、入力コンテンツが低ダイナミックレンジにグレーディングされていることがあるだろう。例えば、ブルーレイディスクは100ニトにグレーディングされている。100ニトのディスプレイ上で表示するように意図されたブルーレイコンテンツをより高いダイナミックレンジディスプレイへと直接に入力するとき、例えば参考文献[6]において説明されているように、逆トーンマッピングを適用することにより、入力される低ダイナミックレンジコンテンツを、ディスプレイの性能に応じて適切なダイナミックレンジへと変換することが可能である。いくつかの実施形態において、24fpsコンテンツを、ディスプレイの有する例えば120fpsなどのより高いフレームレートへとフレームレート変換することも、また可能である。図35は、このような、逆トーンマッピングおよびフレームレート変換の両方を含んだディスプレイシステムについてのフローチャートを示している。
逆トーンマッピングにより、静止画像の見映えを補正して、ディスプレイのダイナミックレンジに整合させることが可能であり、通常は、全体的な明度とコントラストが増加する。このことにより同時に、ディスプレイにおけるジャダー知覚は増大し得る。それゆえ、ここでジャダー可視性制御を適用することにより、フレームレート変換の助けを借りて、増大したジャダーの可視性を元のレベルに戻すように制御し得る。
ジャダー可視性の制御のために、一実施形態において、ベースフレームレートBFRは表示フレームレートに基づいて選択することができ、ジャダー制御レートJCRは、入力コンテンツおよび逆トーンマッピングされた出力、ならびに入力のターゲットディスプレイ(通常は、100ニトの最大輝度)および実際のディスプレイのダイナミックレンジに基づき、本開示における上記の方法によって算出できる。図36は、全体的なフローチャートを示している。
もう一つの実施形態において、ジャダー制御方法は、画像シーケンス中の、逆トーンマッピング後に変化したジャダー知覚を伴うと識別されるローカル領域にのみ適用され、ジャダー可視性制御をこれらのローカルな空間的および時間的領域に適用する。
同様に、ディスプレイ側における、ジャダー知覚を変化させるであろう任意の後処理アルゴリズムの後には、ジャダー可視性制御ブロックが続くことになる。このブロックは、ジャダー性が変化した位置および量を推定し、入力グレーディングコンテンツにおけるのと同一量のジャダー知覚をターゲットディスプレイのために保持しようとし得る。
図37は、ジャダー制御装置の一例を示す。ディスプレイ(3705)は、本開示に記載の方法のいずれかを適用するように構成されたジャダー制御デバイス(3710)を備え得る。ディスプレイ(3705)は、入力フレーム(3715)を受信することができ、その一方で、ジャダー制御デバイス(3710)は、本開示における上記のメタデータなどのジャダー制御データ(3720)を受信することができる。データ(3725)は、ジャダー制御デバイス(3710)からディスプレイ(3705)へと送信でき、その逆に(3730)送信してもよい。
本開示において、いくつかの方法はショット毎に適用できる。当該分野の当業者には理解されるように、シーンカットとカメラアングルカット(通常、同一シーン中にある)とを説明する、より微妙なレベルの区別が存在する。ショットとは、シーンカットおよびカメラアングルカットの両方を含み得る用語である。いくつかの実施形態において、本開示のジャダーメタデータの方法はシーンカットに基づくのであって、カメラアングルカットに基づくのではない。
本開示において、従って、コンピュータによって少なくとも2つの画像を提供する工程と、コンピュータによってジャダーマップを算出する工程であって、ジャダーマップは少なくとも2つの画像の少なくとも1つの画素についてのジャダー情報を含んでいる、工程と、ジャダーマップに基づいて少なくとも1つの画素を処理する工程と、を包含する方法が記載されている。
少なくとも1つの画素を処理することは、いくつかの画素により形成された画像の領域を処理することを含み得る。処理することは、異なる映像処理技術を適用することを含んでよく、異なる技術を、または異なるパラメータを用いた同一の技術を、異なる画素に対し、ジャダーマップに含まれた当該画素に関するジャダー情報に基づいて適用し得る。
図16は、図1〜15の実施形態を実装するためのターゲットハードウェア(10)(例えば、コンピュータシステム)の実施形態例である。このターゲットハードウェアは、プロセッサ(15)、メモリバンク(20)、ローカルインターフェースバス(35)、および1つ以上の入出力デバイス(40)を備える。プロセッサは、メモリ(20)に格納されたある実行可能プログラム(30)に基づいてオペレーティングシステム(25)により提供される、図1〜15の態様に関する1つ以上の命令を実行し得る。これらの命令は、ローカルインターフェース(35)を介し、かつ、ローカルインターフェースおよびプロセッサ(15)に固有の何らかのデータインターフェースプロトコルにより規定されるように、プロセッサ(15)へと搬送される。ローカルインターフェース(35)は、プロセッサに基づいたシステムの複数の要素間においてアドレス、制御、および/またはデータ接続を提供することに広く向けられた、コントローラ、バッファ(キャッシュ)、ドライバ、リピータ、およびレシーバなどのいくつかの要素の記号表現であることに留意されたい。いくつかの実施形態において、プロセッサ(15)は、実行されるべき命令のうちいくつかを格納して実行速度をいくらか増すことのできる、いくらかのローカルメモリ(キャッシュ)を備え得る。プロセッサによる命令の実行のためには、ハードディスクに格納されたファイルからデータを入力すること、キーボードからコマンドを入力すること、タッチスクリーンからデータおよび/またはコマンドを入力すること、ディスプレイへとデータを出力すること、またはUSBフラッシュドライブへとデータを出力することなど、何らかの入出力デバイス(40)の使用が必要となり得る。いくつかの実施形態において、オペレーティングシステム(25)は、プログラムの実行のために必要となる様々なデータおよび命令を集めてこれらをマイクロプロセッサへと提供するための中心要素となることで、これらのタスクを容易にする。いくつかの実施形態において、オペレーティングシステムは存在しないこともあり、このとき、ターゲットハードウェアデバイス(10)の基本的なアーキテクチャは図16に表わすものと同一のままであるだろうが、全てのタスクはプロセッサ(15)によって直接に制御される。いくつかの実施形態において、実行速度を増すために、複数のプロセッサを並列構成で使用し得る。このような場合、実行可能プログラムを、並列実行に合わせた特別仕様にしてもよい。また、いくつかの実施形態において、プロセッサ(15)は図1〜15の態様の一部を実行してもよく、ある他の部分を、ローカルインターフェース(35)を介してターゲットハードウェア(10)がアクセスできる入出力位置に配置された、専用のハードウェア/ファームウェアを用いて実施することが可能である。ターゲットハードウェア(10)は複数の実行可能プログラム(30)を含むことができ、それぞれを独立して、またはお互いに組み合わせて実行し得る。
本開示に記載の方法およびシステムは、ハードウェア、ソフトウェア、ファームウェア、またはこれらの任意の組み合わせで、実装し得る。ブロック、モジュール、またはコンポーネントとして記載された要素は、一緒に(例えば、集積ロジックデバイスなどのロジックデバイスで)実装してもよいし、あるいは別々に(例えば、接続された別個のロジックデバイス群として)実装してもよい。本開示の方法のソフトウェア部分は、実行されるときに本記載の方法を少なくとも部分的におこなう命令を含んだコンピュータ可読媒体を含み得る。コンピュータ可読媒体は、例えば、ランダムアクセスメモリ(RAM)および/または読み出し専用メモリ(ROM)を含み得る。命令は、プロセッサ(例えば、デジタルシグナルプロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルロジックアレイ(FPGA)、グラフィックプロセッシングユニット(GPU)または汎用GPU)によって実行できる。
本開示の数々の実施形態を記載した。しかし、本開示の趣旨および範囲から離れることなく様々な改変を成し得ることが理解されるであろう。従って、他の実施形態が、以下に続く請求項の範囲に含まれる。
上記に提示した例は、当該分野に通常の熟練を有する当業者に対し、本開示の実施形態を作成して使用する方法を完全に開示かつ説明するものとして提供されているのであって、発明者/発明者らが自らの開示であると考えるものの範囲を限定するようには意図されていない。
本明細書中に開示された方法およびシステムを実行するための上記の態様に対する改変であって当該分野の当業者にとって明らかなものは、以下に続く請求項の範囲に含まれるものとして意図されている。本明細書において言及された全ての特許および公開は、本開示が関する当該分野の当業者の技術レベルを示す。本開示に引用された全ての文献は、各文献が個別にその全ての開示内容を援用されている場合と同程度に、援用される。
本開示は、特定の方法またはシステムには限定されず、もちろん変化し得ることを理解されたい。また、本明細書で用いられる用語は、特定の実施形態を記載する目的のためだけのものであり、限定するようには意図されていないことも理解されたい。本明細書および添付の請求項において用いるとき、単数形の「ある(a)」、「一つの(an)」、および「この(the)」は、内容によって明らかにそうでないと決まらない限り、複数の指示対象を含む。「複数(plurality)」という用語は、内容によって明らかにそうでないと決まらない限り、2つ以上の指示対象を含む。別途の定義のない限り、本明細書で用いられる全ての技術的および科学的な用語は、本開示が関する当該技術の当業者によって一般に理解されるものと同一の意味を有する。
下記の文献リストに示された本願における参考文献について、その開示内容を全て本願に援用する。

参考文献
[1]2015年2月23日付け出願のPCT出願シリアル番号第PCT/US2015/017110号。
[2]米国特許出願公開第2014/0098886号としてもまた公開された、2012年5月24日付け出願のPCT出願シリアル番号第PCT/US2012/039338号。
[3]米国特許第8,363,117号。
[4]Watson, Andrew B., Albert J. Ahumada Jr, and Joyce E. Farrell. “Window of visibility: a psychophysical theory of fidelity in time−sampled visual motion displays.” JOSA A 3.
3 (1986): 300−307.
[5]Tyler, Christopher W., and Russell D. Hamer. “Analysis of visual modulation sensitivity. IV. Validity of the Ferry−Porter law.” JOSA A 7.
4 (1990): 743−758.
[6]米国特許出願公開第2015/077329号としてもまた公開された、2013年11月22日付け出願の米国仮特許出願シリアル番号第61/907,996号。

Claims (26)

  1. ジャダーの知覚の遮断フレームレートに満たないフレームレートにおいて符号化された映像のジャダー可視性を制御する、ディスプレイ側でコンピュータ実装される方法であって、ここでジャダーとは、前記遮断フレームレートに満たない前記フレームレートにおける前記符号化に起因して、滑らかでない動きの結果として生じる視覚的歪みを指し、
    少なくとも2つの入力映像フレームを提供する工程と、
    前記少なくとも2つの入力映像フレームに基づいてコンテンツ制作側のコンピュータにより生成されたジャダー制御メタデータを受信する工程と、
    前記ジャダー制御メタデータをフレームレート制御アルゴリズムに適用する工程であって、前記フレームレート制御アルゴリズムは、前記少なくとも2つの入力映像フレームを補間するように構成され、これにより、前記補間される映像フレームは、前記コンテンツ制作側において意図されて前記ジャダー制御メタデータにより規定された期待されるレベルのジャダー可視性を有するようになる、工程と、
    を包含し、
    前記少なくとも2つの入力映像フレームに基づいてジャダー制御メタデータを生成する前記工程は、
    前記適用されたジャダー制御についてのフィードバックを提供する工程と、
    前記フィードバックに基づき、前記ジャダー制御メタデータを補正する工程と、
    をさらに含む、方法。
  2. 前記ジャダー制御メタデータはベースフレームレートを含み、ここで前記ベースフレームレートとは、適用された前記所望のレベルのジャダーを用いて、前記少なくとも2つの入力映像フレームにおける前記ジャダー制御あるいはフィルムらしさの体験を視覚的に検証するために使用されたフレームレートを指している、請求項1に記載の方法。
  3. 前記ジャダー制御メタデータはジャダー制御レートをさらに含み、前記ジャダー制御レートは、適用されるべきジャダーの量を、ジャダーが皆無の状態とジャダー制御を適用しない場合にベースフレームレートにおいて存在するジャダーの量との間で規定する、請求項2に記載の方法。
  4. 前記ジャダー制御メタデータは、前記ジャダー制御メタデータが関連付けられている特定のフレームまたはショットについてジャダー制御の有無を通知するパラメータを含み、ここで前記ショットとはフレームのシーケンスを指している、請求項3に記載の方法。
  5. 前記補間された映像フレームを、前記ディスプレイ側における出力ディスプレイ上に表示する工程をさらに包含する、請求項に記載の方法。
  6. 前記ジャダー制御メタデータは、ジャダーを制御するために使用された前記コンテンツ制作側におけるリファレンスディスプレイのディスプレイパラメータを含む、請求項3に記載の方法。
  7. 前記ディスプレイパラメータは、最小および最大輝度を含む、請求項に記載の方法。
  8. 前記ジャダー制御メタデータおよび前記ディスプレイ側における出力ディスプレイのディスプレイパラメータに基づいて前記ジャダー制御レートおよび前記ベースフレームレートを調節する工程をさらに包含する、請求項に記載の方法。
  9. 前記ジャダー制御メタデータにより示される前記ベースフレームレートとは異なる周期を前記ディスプレイ側における出力ディスプレイが使用するとき、前記ジャダー制御レートを補正する工程をさらに包含する、請求項3に記載の方法。
  10. ショット毎の処理に対して、フレーム毎の処理に対して、または前記少なくとも2つの入力映像フレームのコンテンツに基づいて、前記ジャダー制御メタデータを調節する工程をさらに包含し、ここでショット毎の処理とはフレームのシーケンスに適用される処理を指している、請求項1に記載の方法。
  11. 前記ディスプレイ側における出力ディスプレイのディスプレイパラメータに基づいて前記ジャダー制御メタデータを調節する工程をさらに包含する、請求項1に記載の方法。
  12. ショット境界内における前記ジャダー制御レートを平滑化することによって前記ショット境界内におけるジャダー可視性の唐突な変化を防止する工程をさらに包含し、ここでショットとはフレームのシーケンスを指している、請求項3に記載の方法。
  13. 前記ジャダー制御メタデータは、ジャダー制御の有無を表すメタデータパラメータをさらに含む、請求項3に記載の方法。
  14. ジャダーの知覚の遮断フレームレートに満たないフレームレートにおいて符号化されたビデオのジャダー可視性を制御する、ディスプレイ側でコンピュータ実装される方法であって、ここでジャダーとは、前記遮断フレームレートに満たない前記フレームレートにおける前記符号化に起因して、滑らかでない動きの結果として生じる視覚的歪みを指し、
    少なくとも2つの入力映像フレームを提供する工程と、
    前記少なくとも2つの入力映像フレームに基づいてコンテンツ制作側のコンピュータによって生成されたジャダー制御メタデータを受信する工程と、
    ディスプレイ信号メタデータを提供する工程であって、前記ディスプレイ信号メタデータは、入力信号の最小、中央、および最大を含む、工程と、
    出力ディスプレイパラメータを取得する工程であって、前記出力ディスプレイパラメータは、前記コンテンツ制作側において意図される期待されるレベルのジャダー可視性を決定するために使用されたリファレンスディスプレイの最小および最大輝度を含む、工程と
    前記ジャダー制御メタデータを、フレームレート制御アルゴリズムに適用する工程であって、前記フレームレート制御アルゴリズムは、前記少なくとも2つの入力映像フレームを補間するように構成され、これにより、前記補間された映像フレームは、前記コンテンツ制作側において意図されて前記ジャダー制御メタデータ、前記ディスプレイ信号メタデータ、および前記出力ディスプレイパラメータによって規定された前記期待されるレベルのジャダー可視性を有するようになる、工程と、
    を包含する方法。
  15. ジャダーの知覚の遮断フレームレートに満たないフレームレートにおいて符号化された映像の動きの滑らかさを制御する、ディスプレイ側でコンピュータ実装される方法であって、ここで動きの滑らかさ、すなわちジャダーとは、前記遮断フレームレートに満たない前記フレームレートにおける前記符号化に起因して、滑らかでない動きの結果として生じる視覚的歪みを指し、
    少なくとも2つの入力映像フレームを提供する工程と、
    前記少なくとも2つの入力映像フレームに基づいてコンテンツ制作側におけるコンピュータによって生成されたジャダー制御メタデータを受信する工程であって、前記少なくとも2つの入力映像フレームに基づいて前記コンテンツ制作側の前記コンピュータによって生成された動きの滑らかさマッピング曲線を受信する工程を含む、工程と
    ディスプレイ信号メタデータを提供する工程であって、前記ディスプレイ信号メタデータは、入力信号の最小、中央、および最大を含む、工程と、
    前記ディスプレイ信号メタデータに基づき、前記少なくとも2つの入力映像フレームについて平均輝度および平均コントラストを算出する工程と、
    前記平均輝度および平均コントラストに基づき、超閾パラメータを算出する工程と、
    前記動きの滑らかさマッピング曲線を、動きの滑らかさ制御に適用する工程であって、前記動きの滑らかさ制御は、前記少なくとも2つの入力映像フレームを補間するように構成され、これにより、前記補間された映像フレームは、前記コンテンツ制作側において意図されて前記動きの滑らかさマッピング曲線および前記超閾パラメータによって規定された期待されるレベルのジャダー可視性を有するようになり、前記動きの滑らかさマッピング曲線を前記動きの滑らかさ制御に適用する前記工程は、前記超閾パラメータに基づいて動き補間勾配を変更する工程を含む、工程と、
    を包含する方法。
  16. 超閾パラメータを算出する前記工程は、Ferry−Porterの法則に基づく、請求項15に記載の方法。
  17. 超閾パラメータを算出する前記工程は、時空間コントラスト感度関数に基づく、請求項15に記載の方法。
  18. 前記時空間コントラスト感度関数は明順応性である、請求項17に記載の方法。
  19. 前記超閾パラメータは、入力信号コントラストを閾値コントラストで除算することによって算出される、請求項18に記載の方法。
  20. 前記少なくとも2つの入力映像フレームについて少なくとも1つの空間的領域を選択する工程をさらに包含し、前記動きの滑らかさマッピング曲線を前記動きの滑らかさ制御に適用する前記工程は、前記少なくとも1つの空間的領域に限定されている、請求項15に記載の方法。
  21. 前記少なくとも1つの領域の輝度を算出する工程をさらに包含する、請求項20の方法。
  22. さらに、
    前記少なくとも2つの入力映像フレームに逆トーンマッピングを適用する工程と、
    前記逆トーンマッピングに基づき、前記ジャダー制御レートを調節する工程と、
    を包含する、請求項に記載の方法。
  23. 前記少なくとも2つの入力映像フレームについて少なくとも1つの領域を選択する工程をさらに包含し、前記動きの滑らかさマッピング曲線を前記動きの滑らかさ制御に適用する前記工程は、前記少なくとも1つの領域に限定されている、請求項15に記載の方法。
  24. 前記閾値コントラストは、動き補間勾配を変更するためにある、請求項19に記載の方法。
  25. ジャダーの知覚の遮断フレームレートに満たないフレームレートにおいて符号化された映像のジャダー可視性を制御する、ディスプレイ側でコンピュータ実装される方法であって、ここでジャダーとは、前記遮断フレームレートに満たない前記フレームレートにおける前記符号化に起因して、滑らかでない動きの結果として生じる視覚的歪みを指し、
    少なくとも2つの入力映像フレームを提供する工程と、
    前記少なくとも2つの入力映像フレームに基づいてコンテンツ制作側のコンピュータにより生成されたジャダー制御メタデータを受信する工程と、
    前記ジャダー制御メタデータをフレームレート制御アルゴリズムに適用する工程であって、前記フレームレート制御アルゴリズムは、前記少なくとも2つの入力映像フレームを補間するように構成され、これにより、前記補間される映像フレームは、前記コンテンツ制作側において意図されて前記ジャダー制御メタデータにより規定された期待されるレベルのジャダー可視性を有するようになる、工程と、
    を包含し、
    前記ジャダー制御メタデータは、ジャダー制御レートおよびベースフレームレートを含み、ここで、前記ジャダー制御レートは、適用されるべきジャダーの量を、ジャダーが皆無の状態とジャダー制御を適用しない場合に前記ベースフレームレートにおいて存在するジャダーの量との間で規定し、前記ベースフレームレートとは、適用された前記所望のレベルのジャダーを用いて、前記少なくとも2つの入力映像フレームにおける前記ジャダー制御あるいはフィルムらしさの体験を視覚的に検証するために使用されたフレームレートを指している、方法。
  26. ディスプレイ側におけるジャダー制御のための装置であって、
    少なくとも2つの入力映像フレームを受信するように構成された出力ディスプレイと、
    前記少なくとも2つの入力映像フレームに基づくジャダー制御メタデータを受信するように構成されたジャダー制御デバイスと、
    前記出力ディスプレイと前記ジャダー制御デバイスとの間の通信手段と、
    を備え、
    前記ジャダー制御デバイスは、請求項1から25のいずれかに記載の方法を実行するように構成されている、装置。
JP2017517794A 2014-10-02 2015-09-29 ジャダー可視性制御のためのデュアルエンドメタデータ Active JP6510039B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201462059040P 2014-10-02 2014-10-02
US62/059,040 2014-10-02
PCT/US2015/052994 WO2016054076A1 (en) 2014-10-02 2015-09-29 Dual-ended metadata for judder visibility control

Publications (2)

Publication Number Publication Date
JP2017537494A JP2017537494A (ja) 2017-12-14
JP6510039B2 true JP6510039B2 (ja) 2019-05-08

Family

ID=54337372

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017517794A Active JP6510039B2 (ja) 2014-10-02 2015-09-29 ジャダー可視性制御のためのデュアルエンドメタデータ

Country Status (5)

Country Link
US (1) US10944938B2 (ja)
EP (1) EP3202132B1 (ja)
JP (1) JP6510039B2 (ja)
CN (1) CN107079079B (ja)
WO (1) WO2016054076A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10559073B2 (en) * 2016-03-23 2020-02-11 Intel Corporation Motion adaptive stream processing for temporal noise reduction
US20180060994A1 (en) * 2016-08-27 2018-03-01 Grace Rusi Woo System and Methods for Designing Unobtrusive Video Response Codes
US11019302B2 (en) 2017-09-28 2021-05-25 Dolby Laboratories Licensing Corporation Frame rate conversion metadata
CN107680549B (zh) * 2017-10-25 2022-11-15 昆山龙腾光电股份有限公司 帧速率控制方法
TWI680675B (zh) * 2017-12-29 2019-12-21 聯發科技股份有限公司 影像處理裝置與相關的影像處理方法
US10499009B1 (en) * 2018-09-25 2019-12-03 Pixelworks, Inc. Realistic 24 frames per second output from high frame rate content
IL295131B2 (en) 2019-03-11 2023-12-01 Dolby Laboratories Licensing Corp Video encoding with adjustable frame rate
EP3939317A1 (en) 2019-03-11 2022-01-19 Dolby Laboratories Licensing Corporation Video coding using reference picture resampling supporting region of interest
US11403979B2 (en) * 2019-06-20 2022-08-02 Apple Inc. Dynamic persistence for judder reduction
CN114208202A (zh) 2019-08-06 2022-03-18 杜比实验室特许公司 画布尺寸可伸缩的视频编码
CN111935392B (zh) * 2020-05-26 2022-01-07 许继集团有限公司 用于综合管廊吊轨机器人巡检视频数字防抖的方法和系统
WO2021242873A1 (en) * 2020-05-26 2021-12-02 Dolby Laboratories Licensing Corporation Picture metadata for variable frame-rate video
KR20230172469A (ko) * 2021-04-14 2023-12-22 퀄컴 인코포레이티드 상이한 동적 범위들의 이미지들의 디스플레이
CN113114946B (zh) * 2021-04-19 2023-04-18 深圳市帧彩影视科技有限公司 视频的处理方法、装置、电子设备及存储介质
CN113099132B (zh) * 2021-04-19 2023-03-21 深圳市帧彩影视科技有限公司 视频处理方法、装置、电子设备、存储介质及程序产品
US20230088882A1 (en) * 2021-09-22 2023-03-23 Samsung Electronics Co., Ltd. Judder detection for dynamic frame rate conversion

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6028608A (en) 1997-05-09 2000-02-22 Jenkins; Barry System and method of perception-based image generation and encoding
US7038710B2 (en) 2002-07-17 2006-05-02 Koninklijke Philips Electronics, N.V. Method and apparatus for measuring the quality of video data
EP1443776B1 (en) 2003-01-29 2012-08-15 Sony Deutschland GmbH Video signal processing system
US7508448B1 (en) * 2003-05-29 2009-03-24 Nvidia Corporation Method and apparatus for filtering video data using a programmable graphics processor
KR100577684B1 (ko) * 2004-10-08 2006-05-10 삼성전자주식회사 저더-맵을 이용한 영상 처리 장치 및 방법
KR101305622B1 (ko) * 2006-08-11 2013-09-09 톰슨 라이센싱 디스플레이 및 디지털 프로젝터를 위한 정확한 움직임 묘사
GB2450121A (en) 2007-06-13 2008-12-17 Sharp Kk Frame rate conversion using either interpolation or frame repetition
US8159605B2 (en) 2007-07-13 2012-04-17 Fujitsu Limited Frame interpolating apparatus and method
JP5091575B2 (ja) 2007-07-20 2012-12-05 三洋電機株式会社 映像表示装置
JP2009071809A (ja) 2007-08-20 2009-04-02 Panasonic Corp 映像表示装置ならびに補間画像生成回路および方法
JP4882948B2 (ja) * 2007-10-04 2012-02-22 ソニー株式会社 画像処理装置および方法、並びにプログラム
KR101492302B1 (ko) * 2007-10-15 2015-02-23 톰슨 라이센싱 스케일러블 비디오에 대한 계층간 레시듀 예측을 위한 방법들 및 장치들
CN101953150A (zh) 2007-12-20 2011-01-19 Ati技术无限责任公司 用于描述视频处理的方法、设备及其机器可读取介质
US20090161011A1 (en) 2007-12-21 2009-06-25 Barak Hurwitz Frame rate conversion method based on global motion estimation
US8749703B2 (en) 2008-02-04 2014-06-10 Broadcom Corporation Method and system for selecting interpolation as a means of trading off judder against interpolation artifacts
JP4587186B2 (ja) 2008-04-22 2010-11-24 キヤノン株式会社 インパルス型画像表示装置及びその駆動方法。
US20110001873A1 (en) 2008-08-06 2011-01-06 Daniel Doswald Frame rate converter for input frames with video and film content
KR101486254B1 (ko) 2008-10-10 2015-01-28 삼성전자주식회사 프레임 레이트 변환 설정방법 및 이를 적용한 디스플레이 장치
GB2466044B (en) * 2008-12-09 2014-05-21 Snell Ltd Motion image rendering system
EP2234402B1 (en) * 2009-03-25 2012-07-04 Bang & Olufsen A/S A method and a system for adapting film judder correction
US8363117B2 (en) 2009-04-13 2013-01-29 Showscan Digital Llc Method and apparatus for photographing and projecting moving images
US8390704B2 (en) 2009-10-16 2013-03-05 Eastman Kodak Company Image deblurring using a spatial image prior
GB201007351D0 (en) 2010-04-30 2010-06-16 Imagination Tech Ltd Varying temporal interpolation in a motion compensated frame interpolation system
US8421847B2 (en) * 2010-05-21 2013-04-16 Mediatek Inc. Apparatus and method for converting two-dimensional video frames to stereoscopic video frames
US8446524B2 (en) 2010-06-21 2013-05-21 Realtek Semiconductor Corp. Apparatus and method for frame rate conversion
US9094656B2 (en) 2010-09-13 2015-07-28 Thomson Licensing Method for sequentially displaying a colour image
US9554132B2 (en) 2011-05-31 2017-01-24 Dolby Laboratories Licensing Corporation Video compression implementing resolution tradeoffs and optimization
JP5880116B2 (ja) 2012-02-17 2016-03-08 株式会社Jvcケンウッド 映像信号処理装置及び方法
RU2643485C2 (ru) 2011-09-27 2018-02-01 Конинклейке Филипс Н.В. Устройство и способ для преобразования динамического диапазона изображений
US9032335B2 (en) 2012-08-14 2015-05-12 Christopher V. Beckman User interface techniques reducing the impact of movements
EP2731337B1 (en) 2012-10-17 2017-07-12 Dolby Laboratories Licensing Corporation Systems and methods for transmitting video frames
KR20150032019A (ko) 2013-09-17 2015-03-25 한국전자통신연구원 시선 추적 기반의 사용자 인터페이스 방법 및 그 장치
CN105745914B (zh) 2013-11-22 2018-09-07 杜比实验室特许公司 用于逆色调映射的方法和系统
EP3111635B1 (en) 2014-02-27 2018-06-27 Dolby Laboratories Licensing Corporation Systems and methods to control judder visibility
US9858892B2 (en) * 2014-03-28 2018-01-02 Change Healthcare Llc Method and computing device for identifying a pixel visibility loss condition

Also Published As

Publication number Publication date
EP3202132A1 (en) 2017-08-09
US20170264861A1 (en) 2017-09-14
CN107079079B (zh) 2019-10-15
EP3202132B1 (en) 2020-12-30
US10944938B2 (en) 2021-03-09
CN107079079A (zh) 2017-08-18
WO2016054076A1 (en) 2016-04-07
JP2017537494A (ja) 2017-12-14

Similar Documents

Publication Publication Date Title
JP6510039B2 (ja) ジャダー可視性制御のためのデュアルエンドメタデータ
CN109089014B (zh) 用于控制颤抖可见性的方法、装置及计算机可读介质
JP4961800B2 (ja) 画像処理装置、および画像処理方法、並びにコンピュータ・プログラム
JP6073307B2 (ja) ディスプレイ用信号の生成方法及び装置
US9407797B1 (en) Methods and systems for changing duty cycle to reduce judder effect
US20190012771A1 (en) Configuration for rendering virtual reality with an adaptive focal plane
Daly et al. A psychophysical study exploring judder using fundamental signals and complex imagery
JP2011176541A (ja) 立体映像処理装置および方法、並びにプログラム
US10580154B2 (en) Method and apparatus for determining a depth map for an image
KR102531767B1 (ko) 이미지를 생성하기 위한 장치 및 방법
CN109191506B (zh) 深度图的处理方法、系统及计算机可读存储介质
JP4548520B2 (ja) 係数生成装置および方法、画像生成装置および方法、並びにプログラム
KR101630444B1 (ko) 스테레오스코픽 디지털 영화에서의 최적화된 모션 재생을 위한 방법과 장치
WO2014126032A1 (ja) 画像処理装置、画像処理方法、および記録媒体
US20180025686A1 (en) Method and device for emulating continuously varying frame rates
JP5566196B2 (ja) 画像処理装置及びその制御方法
KR20140033856A (ko) 잡음 추정 장치 및 방법
JP4069407B2 (ja) 表示制御装置および方法、並びにプログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180712

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180724

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181023

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190403

R150 Certificate of patent or registration of utility model

Ref document number: 6510039

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250