JP5791818B2 - 突出ベース視差マッピング - Google Patents

突出ベース視差マッピング Download PDF

Info

Publication number
JP5791818B2
JP5791818B2 JP2014537784A JP2014537784A JP5791818B2 JP 5791818 B2 JP5791818 B2 JP 5791818B2 JP 2014537784 A JP2014537784 A JP 2014537784A JP 2014537784 A JP2014537784 A JP 2014537784A JP 5791818 B2 JP5791818 B2 JP 5791818B2
Authority
JP
Japan
Prior art keywords
depth
range
display
protrusion
protruding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014537784A
Other languages
English (en)
Other versions
JP2015503258A (ja
Inventor
ウィルヘルムス ヘンドリクス アルフォンソ ブルース
ウィルヘルムス ヘンドリクス アルフォンソ ブルース
バート クルーン
バート クルーン
パトリック ルク エルス バンドワール
パトリック ルク エルス バンドワール
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2015503258A publication Critical patent/JP2015503258A/ja
Application granted granted Critical
Publication of JP5791818B2 publication Critical patent/JP5791818B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Description

本発明は、マルチ表示ビューに基づいて、3次元(3D)ディスプレイ上に3D画像データをレンダリングするための3D画像信号の処理方法に関する。
また、本発明は、3Dビデオデバイス、3D画像信号、及びコンピュータプログラムに関する。
本発明は、3D表示(ディスプレイ)デバイス上へのレンダリングを改良するための3D画像データ処理の分野に関する。特に、特定の3Dディスプレイ上での3D体験を改良するために、取得可能な又は生成される奥行きマップが処理される。ここで、画像データは、ビデオデータを含み、通常2つの空間次元で処理され、ビデオデータにおける時間は第3の次元として用いられ得る。
「Adaptive 3D Rendering based on Region-of-Interest, by Christel Chamaret, Sylvain Godeffroy, Patrick Lopez, Olivier Le Meur, at Thomson Corporate Research, 1 Avenue de Belle-Fontaine 35576 Cesson-Sevigne France」は、3Dビデオ処理技術、特に高視差の管理を開示する。現在、高視差は、3D画面上での3Dシーンの視聴に強い影響を与える。シーンの突出領域は、通常、画像処理領域内の関心領域(Region−Of−Interest)と呼ばれる。3D体験は、関心領域に関係する効果をいくらか適用することによって補正される。特に、シーン内の関心領域上でゼロ視差となるように、2つのビュー間のずれが適応的に調節される。
上記文書は、主要関心領域がゼロ視差を有するように左右のビュー間に視差シフトを適用することによって画像データ内の視差を変更することを開示する。当該シフトにより、画像データ内の他の領域は、元のデータより高い視差を得る。かかる視差は、人間の視覚系が3D体験において快適に処理できる視差範囲を超えるおそれがあり、視覚的な不快感、めまい、又は複視(二重視)を生じ得る。上記文書は、かかる不快な領域を隠すために、例えば、画像の背景部分を選択的にぼかす等のぼかし(ブラーリング)を適用することを提案する。また、高視差関心領域をゼロ視差にシフトするため、比較的大きなシフトを適用しなければならない。よって、周知の方法の問題は、画像の3D体験が低減されることである。
本発明の課題は、高視差を有する3D画像データの改良されたレンダリングのための3D画像データ処理を画質を損なうことなく提供することである。
この目的のために、本発明の第1の側面によれば、最初の段落に記載された方法は、3D画像信号から、第1奥行き値を含む第1奥行きマップを引き出すステップと、3D画像信号から、3D画像データのある量内の突出を表す突出データを引き出すステップであって、突出は、突出範囲の奥行き値を有する突出要素を示す、ステップと、奥行き値の突出範囲内の第1奥行き値がディスプレイ奥行きサブ範囲にマッピングされるよう、3D画像データの量に対して、突出データに応じて奥行きマッピング関数を決定するステップであって、ディスプレイ奥行きサブ範囲は、3Dディスプレイの使用可能奥行き範囲のサブ範囲であり、使用可能奥行き範囲にかけての3D画質より高い3D画質を視聴者に提供する、ステップとを含み当該奥行きマッピング関数を決定するステップは、突出奥行き値及び非突出奥行き値の結合ヒストグラムを作成するステップであって、突出奥行き値は、ヒストグラムに加えられる前に第1入力変換重みを用いて重み付けされ、非突出奥行き値は、ヒストグラムに加えられる前に第2入力変換重みを用いて重み付けされ、第1入力変換重み及び第2入力変換重みは、ディスプレイ奥行きサブ範囲及び3Dディスプレイの使用可能範囲に依存する、ステップと、結合ヒストグラム奥行き範囲を決定するステップと、結合ヒストグラム奥行き範囲を3Dディスプレイの使用可能奥行き範囲内にマッピングするステップであって、第1入力変換重み及び第2入力変換重みは、互いに異なり、奥行き値の突出範囲内の第1奥行き値が、ディスプレイ奥行きサブ範囲にワープされるよう選択される、ステップとを含み、第2奥行きマップに基づいて表示ビューを生成するために、奥行きマッピング関数によって第1奥行きマップを第2奥行きマップに変換するステップをさらに含む。
この目的のために、本発明の他の側面によれば、マルチ表示ビューに基づいて3Dディスプレイ上に3D画像データをレンダリングするための3次元(3D)画像信号を処理するための3Dビデオデバイスは、入力手段とビデオプロセッサとを含み、入力手段は、3D画像信号から、第1奥行き値を含む第1奥行きマップを引き出すステップと、3D画像信号から、3D画像データのある量内の突出を表す突出データを引き出すステップであって、突出は、突出範囲の奥行き値を有する突出要素を示す、ステップとを実行し、ビデオプロセッサは、奥行き値の突出範囲内の第1奥行き値がディスプレイ奥行きサブ範囲にマッピングされるよう、3D画像データの量に対して、突出データに応じて奥行きマッピング関数を決定するステップであって、ディスプレイ奥行きサブ範囲は、3Dディスプレイの使用可能奥行き範囲のサブ範囲であり、使用可能奥行き範囲にかけての3D画質より高い3D画質を視聴者に提供する、ステップとを実行し当該奥行きマッピング関数を決定するステップは、突出奥行き値及び非突出奥行き値の結合ヒストグラムを作成するステップであって、突出奥行き値は、ヒストグラムに加えられる前に第1入力変換重みを用いて重み付けされ、非突出奥行き値は、ヒストグラムに加えられる前に第2入力変換重みを用いて重み付けされ、第1入力変換重み及び第2入力変換重みは、ディスプレイ奥行きサブ範囲及び3Dディスプレイの使用可能範囲に依存する、ステップと、結合ヒストグラム奥行き範囲を決定するステップと、結合ヒストグラム奥行き範囲を3Dディスプレイの使用可能奥行き範囲内にマッピングするステップであって、第1入力変換重み及び第2入力変換重みは、互いに異なり、奥行き値の突出範囲内の第1奥行き値が、ディスプレイ奥行きサブ範囲にワープされるよう選択される、ステップとを含み、第2奥行きマップに基づいて表示ビューを生成するために、奥行きマッピング関数によって第1奥行きマップを第2奥行きマップに変換するステップをさらに実行する。
好ましくは、マルチ表示ビューに基づいて3Dディスプレイ上に3D画像データをレンダリングするための3D画像信号は、3D画像データのある量内の突出を表す突出データを含むメタデータであって、突出は、突出範囲の奥行き値を有する突出要素を示す、メタデータを含み、当該信号は、3Dビデオデバイスにおいて、3D画像信号から、第1奥行き値を含む第1奥行きマップを引き出すステップと、突出範囲内の第1奥行き値がディスプレイ奥行きサブ範囲にマッピングされるよう、3D画像データの量に対して、突出データに応じて奥行きマッピング関数を決定し、ディスプレイ奥行きサブ範囲は、3Dディスプレイの使用可能奥行き範囲のサブ範囲であり、使用可能奥行き範囲にかけての3D画質より高い3D画質を視聴者に提供するステップと、第2奥行きマップに基づいて表示ビューを生成するために、奥行きマッピング関数によって第1奥行きマップを第2奥行きマップに変換するステップとを可能にする。
上記手段は、特定のディスプレイ上にレンダリングされるビュー間の視差が視差の使用可能範囲に含まれるよう視差を変更する効果を有する。使用可能範囲は、3D(立体)快適帯と呼ぶこともでき、これは、すなわち人間の視覚系によって快適に3D体験に処理できる、3Dレンダリングにおける視差値の範囲である。また、3D画像データ内の突出データは、画像内の関心要素の突出範囲を決定するために使用され、かかる要素は、高い3D画質を有する3Dディスプレイの奥行きサブ範囲上にマッピングされる。
当該方法は、マルチ表示ビューに基づいて3Dディスプレイ上に3D画像データをレンダリングするための3D画像信号を処理するための方法である。かかるディスプレイは、例えば、視聴者の左右の目に1組のビューを提供するよう設計されたマルチビューのビュービームを生成する自動3Dディスプレイでもよい。第1奥行きマップは、3D画像信号から引き出される。また、画像信号から、3D画像データのある量内の突出を表す突出データが引き出される。当該量は、単一の画像又はビデオフレーム、ビデオフィールド又はフレームのシーケンス(例えば、所定の期間に対応する複数のフレーム)、ショット、画像グループ等の符号化ユニット(MPEG符号化におけるGOP)等である。ショットを表す複数の連続フレーム、又は複数の非連続フレーム(例えば、開始フレーム又は開始及び終了フレーム)を使用することにより、突出及び非突出データのより良い近似を得ることができる。
突出データは、信号内にメタデータとして含まれてもよいし、3D画像データのある量を局所的に処理することによって取得されてもよい。突出は、突出要素、すなわち視聴者の注意を引く画像の部分を示す。画像の突出部は、奥行き値の突出範囲、すなわち、視聴者の注目を得る可能性が高い画像の部分の奥行き値の範囲を有する。例えば、突出は輝度、コントラスト、及び/又は色の違いに基づいてもよく、部分的には奥行きの違い、例えば突出に基づいてもよい。また、対象の種類、例えば人間の顔を検出して突出のために使用してもよい。当業者にとって、画像データ内の突出要素を決定する多様な方法が周知であろう。
また、本発明は以下の認識に基づく。発明者は、特定のディスプレイについて、全使用可能奥行き範囲にかけての3D画質より高い3D画質を視聴者に対して有する、当該3Dディスプレイの使用可能奥行き範囲のディスプレイ奥行きサブ範囲が存在することを理解した。サブ範囲はディスプレイの種類に固有でもよいし、特定の視聴者、例えば子供のために適応されてもよいし、視聴者によって設定される好みでもよい。また、使用可能範囲にかけてのクロストークが高い一方、サブ範囲は、ビュー間のクロストークのレベルが低くなるよう選択されてもよい。
奥行きマッピング関数は、3D画像データの前記量を突出データに応じてマッピングするよう決定される。奥行きマッピング関数は、他の奥行き値、すなわち画像の非突出部の非突出値が、実質的にディスプレイの使用可能範囲内に残るようにマッピングされるよう設計される。奥行きマッピング関数は元の第1奥行き値に適用され、突出範囲内の第1奥行き値がディスプレイ奥行きサブ範囲内の奥行き値に変更されるよう、適合された奥行き値を生成する。実際の環境において、実際の画像コンテンツに応じて、実質的に全ての奥行き値が選択されたサブ範囲にマッピングされてもよいし、突出奥行き値の少なくとも一部についてサブ範囲へのシフトが少なくとも実行されてもよい。マッピングにより、突出要素はディスプレイの高画質範囲に向けて奥行き方向に移動され、一方、画像の他の部分はディスプレイの使用可能範囲内の奥行き値を実質的に維持する。最後に、第1奥行きマップを第2(最終的な)奥行きマップに変換するために奥行きマッピング関数が3D画像データの該当する量に適用され、第2奥行きマップに基づいて表示ビューが生成される。主要な突出オブジェクトの奥行き値は上記サブ範囲に移動されるだけであり、ゼロ視差まで移動させられないため、かかるオブジェクトをゼロ視差に移動させることを好適に避けることができる。
本明細書において、奥行き値及び奥行きマップは視差値及び視差マップを含むことを留意されたい。奥行きの実際の表示は、特定の系(例えば0−255、高い値は視聴者に近く、ゼロは無限遠)によって使用される奥行き値範囲又は視差値範囲でもよい。あるいは、ゼロを中心とした視差値の範囲、例えば−512〜+511を使用してもよく、負のデジタル値は表示画面の前方の視差を表し、ゼロは画面平面を表す。あるいは、xR=xL−dLの関係を用いて、正の視差dは遠くのオブジェクトを表してもよい。視差値はピクセルの実際のシフトに対応してもよいし、異なるスケール又は解像度を有してもよい。よって、奥行きに基づく値及び/又は処理に言及する場合、かかる用語は、視差に基づく表現も含むと解釈されるべきである。一般的に、視差は典型的には1/Zに基づく(Zは奥行き)。詳細には、Zとの関係は周知であるが複雑である(例えば、平行なカメラを有するエピポーラ幾何に基づく)。典型的なコンテンツの典型的な(小さな)入力視差範囲においては、奥行きと視差との間の関係は線形に近い。例えば、奥行きマッピング関数によって第1奥行きマップを第2奥行きマップに変換するステップ、及び第2奥行きマップに基づいて表示ビューを生成するステップは、変更(マッピング)された視差を有するビューを直接生成することによって結合されてもよい。
任意で、突出データは、画像のピクセルの突出の度合いを示す突出マップでもよい。突出の度合いは二進法、例えば0又は1でもよいし、中間値を用いてもよい。奥行き値の範囲は、各突出ピクセルに関して決定されてもよい。任意で、突出データは突出奥行き範囲である。範囲は別個に決定されてもよく、例えば、3D画像データ又は3Dビデオの作成又は予備処理中に決定されてもよい。
任意で、突出データを引き出すステップは、3D画像信号からのメタデータを引き出すステップを含み、メタデータは、3D画像データの突出データを表す。好適には、3D画像データのソース、例えば映画スタジオが突出を決定し、3Dビデオ信号内に突出に関するメタデータを含ませてもよい。
任意で、奥行きマッピング関数は、突出ピクセル及び非突出ピクセルの結合ヒストグラムを作成するステップであって、突出ピクセルは第1入力変換を受け、非突出ピクセルは第2入力変換を受け、第1入力変換は、使用可能範囲に対するサブ範囲に応じた補正関数を有する、ステップと、結合ヒストグラム奥行き範囲を決定するステップと、結合ヒストグラム奥行き範囲をディスプレイ使用可能奥行き範囲内にマッピングするステップであって、補正関数は、突出範囲内の第1奥行き値をディスプレイ奥行きサブ範囲にワープする、ステップとを含む。突出値及び非突出値はともに結合ヒストグラム内に入力されるが、異なる入力変換が適用される。例えば、非突出ピクセルは単にヒストグラム内に入力される、すなわち、一致入力変換が適用される。例えば、サブ範囲が0.25x使用可能範囲(すなわち、使用可能範囲の25%)である場合、第1入力変換は、線形補正関数4を有してもよい。続いて、マッピングは、結合ヒストグラム奥行きを使用可能範囲内に有することに基づく。上記補正関数によって突出奥行きを好適に事実上拡大することにより、突出奥行きは実質的にサブ範囲内に包含される。
任意で、3D画像データの量は、3Dビデオ信号の期間であり、奥行きマッピング関数は、時間をまたぐ突出データに依存する。奥行きマッピング関数は期間に対して決定されるか、又はせいぜい前記期間中に徐々に変化する。好適には、人間の視覚系は、奥行きの遠近の頻繁な変化によって妨害されない。特に、奥行きマッピング関数は、3Dビデオ信号の期間としてショットを決定し、ショットに対してマッピング関数を設定するステップか、又はルックアヘッドを有する移動ウィンドウを使用して、ウィンドウに対してマッピング関数を設定するステップを含んでもよい。
任意で、ビデオプロセッサは、第2奥行きマップに基づいて表示ビューを生成するよう構成されてもよい。任意で、デバイスは、視聴者の左右の目のための表示ビューを表示するための3Dディスプレイを含む。任意で、ビデオプロセッサは、3Dビデオデバイスに接続された3D表示(ディスプレイ)デバイスからディスプレイ能力情報を取得することによってディスプレイ奥行きサブ範囲を決定するよう構成される。
任意で、突出データを引き出すステップは、3D画像信号からメタデータを引き出すステップを含み、メタデータは3D画像データの突出データを表す。
本発明に係る方法、及び3Dデバイスの他の好ましい実施形態は添付の特許請求の範囲において提供され、それらの開示は、参照によって本明細書に組み込まれる。
本発明の上記及び他の側面は、以下の記載及び図面によって例示的に説明される実施形態を参照して説明されることにより、明らかになるであろう。
図1は、3D画像データを表示するためのシステム内で3D画像データを処理するためのデバイスを示す。 図2は、視差マッピングのシステムの概要を示す。 図3は、従来技術の視差マッピングを概略的に示す。 図4は、改良された視差マッピングを概略的に示す。 図5は、非線形視差マッピングを示す。 図6は、最大ゲイン制限を示す。 図7は、改良された非線形視差マッピングを示す。
図面において、前に説明された要素に対応する要素は同じ参照符号を有し得る。
本発明は、静止画又は動画、あらゆる種類の3D画像データに対して使用できることに留意されたい。システムは、3D画像データ内に与えられた奥行き(深度)マップを処理する。奥行きマップは、システムの入力において元から存在してもよいし、下記のように、例えばステレオ(L+R)ビデオ信号内の左/右フレームから、又は2Dビデオから生成されてもよい。3D画像データは、デジタルコード化された電子データとして取得可能であると仮定される。本発明は、かかる画像データに関連し、デジタル領域において画像データを処理する。
3Dビデオフォーマットと呼ばれる、3Dビデオデータをフォーマット及び伝送する方法(形態)が種々存在する。いくつかのフォーマットは、2Dチャネルを用いて3D情報をも運ぶことに基づく。例えば、左右のビューをインターレースしてもよいし、左右及び上下に配置してもよい。あるいは、2D画像及び奥行きマップを伝送し、さらに、場合によってはオクルージョン又は透明性データ等の他の3Dデータを伝送してもよい。インターネット又はBlu-ray(登録商標) Disc(BD)(登録商標)等、3D画像データを提供又は伝送する任意の方法によって3Dビデオデータを提供することができる。
図1は、3D画像データを表示するためのシステム内で3D画像データを処理するためのデバイスを示す。3Dソースと呼ばれる第1の3Dビデオデバイス40は、3Dビデオ信号41を他の3D画像処理デバイス50に伝送する。3D画像処理デバイス50は、3D表示信号56を伝送するために3D表示(ディスプレイ)デバイス60に接続される。
図1は、さらに、3Dビデオ信号の担体として記録担体54を示す。記録担体はディスク形状を有し、トラック及び中央の穴を有する。物理的に検知可能なマークのパターンによって構成されるトラックは、1つ以上の情報層上に実質的に平行な複数のトラックを構成する回転のらせん状又は同心円状パターンに従って構成される。記録担体は、例えばCD、DVD、又はBD(Blu-ray(登録商標) Disc)(登録商標)等の、光学ディスクと呼ばれる光学的に読み取り可能な担体でもよい。情報は、例えばピット(凹部)及びランド(平面部)からなるトラックに沿う光学的に検知可能なマークによって情報層上に具現化される。また、トラック構造は、通常は情報ブロックと呼ばれる情報ユニットの位置を示すための位置情報、例えばヘッダ及びアドレスを含む。記録担体54は、例えばMPEG2又はMPEG4符号化システムに従ってDVD又はBD(登録商標)フォーマット等の既定の記録フォーマットに符号化された、ビデオ等のデジタルコード化3D画像データを表す情報を保持する。
3Dソースは、入力ユニット47を介して受信された3Dビデオデータを処理するための処理ユニット42を有する。入力3Dビデオデータ43は、記憶システム、レコーディングスタジオ、3Dカメラ等から取得可能でもよい。ビデオプロセッサ42は、3Dビデオデータを含む3Dビデオ信号41を生成する。ソースは、3Dビデオ信号をビデオプロセッサから出力ユニット46を介して他の3Dビデオデバイスに伝送してもよいし、例えば記録担体を介して配信のために3Dビデオ信号を供給してもよい。3Dビデオ信号は、入力3Dビデオデータ43の処理、例えば、エンコーダ48による3Dビデオデータの既定のフォーマットに従う符号化及びフォーマットに基づく。
3Dソースは、サーバ、ブロードキャスタ、記録デバイス、又はBlu-ray(登録商標) Disc(登録商標)等の光学記録担体を製造するためのオーサリング及び/若しくは製造システムであり得る。Blu-ray(登録商標) Disc(登録商標)は、コンテンツ作成者に、ビデオを配信するインタラクティブなプラットフォームを提供する。Blu-ray(登録商標) Disc(登録商標)に関する情報は、ブルーレイディスクアソシエーションのウェブサイトから、オーディオ・ビジュアルアプリケーションフォーマットに関する文書(例えば、http://www.Blu-ray(登録商標)disc.com/Assets/Downloadablefile/2b_bdrom_audiovisualapplication_0305-12955-15269.pdf)によって得ることができる。光学記録担体の製造プロセスは、さらに、3D突出メタデータを含み得る3Dビデオ信号を具現化するマークの物理パターンを提供するステップ、及び続いて当該パターンに従って記録担体の材料を成形して、少なくとも1つの記憶層上にマークのトラックを提供するステップを含む。
3D画像処理デバイス50は、3Dビデオ信号41を受信するための入力ユニット51を有する。例えば、デバイスは、DVD又はBlu-ray(登録商標) Disc(登録商標)等の光学記録担体54から3Dビデオ情報を引き出すための入力ユニットに接続された光学ディスクユニット58を含んでもよい。あるいは(又はさらに)、デバイスは、例えばインターネット又はブロードキャストネットワーク等のネットワーク45に接続するためのネットワークインターフェイスユニット59を含んでもよく、かかるデバイスは一般的にセットトップボックスと呼ばれる。3Dビデオ信号は、3Dソース40によって示される遠隔ウェブサイト又はメディアサーバから引き出されてもよい。3D画像処理デバイスは、画像入力信号を所望の視差を有する画像出力信号に変換するコンバータでもよい。かかるコンバータは、様々な入力3Dビデオ信号を特定の種類の3Dディスプレイ用に変換するために、例えば、標準的な3Dコンテンツを、特定の種類又はベンダーの自動3Dディスプレイに適したビデオ信号に変換するために用いられ得る。実際において、デバイスは3D光学ディスクプレイヤー、通信衛星受信機、セットトップボックス、又は任意の種類のメディアプレイヤーでもよい。
3D処理デバイスは、入力ユニット51に接続された処理ユニット52を有し、処理ユニット52は、出力インターフェイスユニット55を介して表示デバイスに伝送される3D表示信号56、例えば、HDMI(登録商標)(登録商標)規格に従う表示信号(「High Definition Multimedia Interface; Specification Version 1.4a of March 4, 2010」参照;3D部分は、http://HDMI(登録商標)(登録商標).org/manufacturer/specification.aspxでダウンロード可能である)を生成するために3D情報を処理する。処理ユニット52は、表示デバイス60上に表示するための、3D表示信号56内に含まれる画像データを生成するよう構成される。
3D表示デバイス60は、3D画像データを表示する。デバイスは、3Dプレイヤー50から伝送された3Dビデオデータを含む3D表示信号56を受信するための入力インターフェイスユニット61を有する。伝送された3Dビデオデータは、3Dディスプレイ63、例えばデュアルビュー又はマルチビューLCD上で表示されるために処理ユニット62内で処理される。表示デバイス60は、任意の種類の立体ディスプレイ(3Dディスプレイとも呼ぶ)であり得る。
3Dビデオデバイス内のビデオプロセッサ、すなわち、3Dビデオデバイス50内のプロセッサユニット52は、3Dビデオ信号を処理するための以下の機能を実行するよう構成される。3Dビデオ信号は、入力手段51,58,59によって受信され、少なくとも第1奥行きマップ及び画像データを含む3D画像データを提供する。上述したように、この文脈において、視差マップは奥行きマップの一種とも考えられることに留意されたい。例えば、第1奥行きマップは、ステレオ(L+R)入力信号から視差推定によって生成されてもよい。第1奥行きマップは、第1奥行き値、及び2次元ピクセルアレイ状の画像値を含む画像を有する。奥行きマップも2次元ピクセルアレイを有し、画像に対応するが、奥行きマップは異なる解像度を有し得ることに留意されたい。
3D表示デバイス60内のビデオプロセッサ62は、複数のビューをレンダリングするための表示制御信号を生成するために3Dビデオデータを処理するよう構成される。複数のビューは、3D画像データから奥行きマップを用いて生成され得る。
システムの第1実施形態において、ビデオプロセッサ62は、マルチ表示ビューに基づいて、3D画像データを3Dディスプレイ上にレンダリングするために3D画像信号を処理するよう構成される。入力処理は、3D画像信号から第1奥行き値を含む第1奥行きマップを取得すること、及び、3D画像信号から3D画像データのある量内の突出を表す突出データを取得することを含む。突出は、突出範囲の奥行き値を有する突出要素を示す。奥行きマップ及び/又は突出データは、映画スタジオ等の3Dデータのソースで生成された後、3D画像信号とともに伝送されてもよいし、3Dプレイヤーデバイス又は3D表示デバイスにおいて生成されてもよい。
突出は、突出要素、すなわち視聴者の注目を得る画像内の部分を示す。画像の突出部は、突出範囲の奥行き値、すなわち視聴者の注目を得る可能性が高い画像部分の奥行き値の範囲を有する。突出は、例えば輝度、コントラスト及び/若しくは色差、並びに/又は突出等の奥行き差に基づき得る。また、対象の種類、例えば人間の顔を検知して、突出のために用いてもよい。このように、画像データ内で突出要素を決定する様々な方法が知られている。
例えば、顔を検出するために周知の顔検出器を適用してもよく、例えば「P. Viola and M. Jones, Robust Real-time Object Detection, Second International Workshop On Statistical And Computational Theories Of Vision - Modeling, Learning, Computing, and Sampling; Vancouver, Canada, July 13, 2001」を参照されたい。特に、大きい顔は最も突出しているため、大きい顔が検出される一方、より小さい顔は無視されてもよい。前方の顔に関しては、かかる検出は通常かなり強力であり、つまり、前方の顔はほとんどのフレームで検出される。
また、顔検出器以外の突出手段が含まれもよい。これは、特定のオブジェクト(物体)の検出器でもよいが、視聴者の注意を引く画像の部分を示す「標準的」突出手段でもよい。複数の検出器の出力が同じ突出奥行き範囲(d min,d max)に関連付けられる場合、それらは組み合わされてもよいし、そうでない場合は別々に扱われてもよい。下記において、単一の突出奥行き範囲が仮定されるが、全ての記載は一般的な事例に等しく適用される。
3D画像データ内に突出メタデータを組み込むために、3Dフォーマットは、当該3Dフォーマット、例えば上記のBD(登録商標)ビデオフォーマット又はHDMI(登録商標)(登録商標)(登録商標)インターフェイスフォーマットの制約内で伝送される追加のデータ構造又はメッセージを規定することによって拡張され得る。例えば、突出メタデータは、奥行き値若しくは視差値の突出範囲、又は画像データ内の1つ以上の突出領域の指標、例えば突出マップを含み得る。任意で、突出メタデータは、以下で説明されるような改良視差マッピングのために用いられる特定のマッピング関数、又は特定のパラメータを含んでもよい。例えば、マッピング中に使用するために、特定の関係、1つ以上のサブ範囲、又はオフセット値が提供されてもよい。また、突出メタデータは、3D画像データの特定の期間、例えばフレーム数、符号化画像グループ(MPEG符号化におけるGOP)、3Dビデオ信号のシーン又はショット等を指定してもよく、視差マッピングが調節され得る時間的境界若しくは移行時点、又はマッピングが固定されていなければならない期間、若しくはマッピングが全く適用されない期間に関するデータを含んでもよい。オフセットメタデータは、いくつかの異なる対象3D表示システムに関して含まれてもよく、例えば、比較的小さいサブ範囲を有する自動3Dディスプレイのための突出データの第1セット、及び、より大きなサブ範囲を有する3Dディスプレイのための第2セットを含んでもよい。
また、処理は、ディスプレイ奥行きサブ範囲を決定することを含む。ディスプレイ奥行きサブ範囲は、3Dディスプレイの使用可能な奥行き範囲のサブ範囲であり、使用可能な奥行き範囲にかけての3D画質より高い3D画質を視聴者に提供する。サブ範囲は、対応するディスプレイの種類に対して決定された所定の範囲でもよく、デジタルインターフェイス、又はルックアップテーブルを介してディスプレイに引き出されてもよい。例えば、サブ範囲は、ディスプレイEDIDデータの一部として伝送されてもよい。よって、ディスプレイサブ範囲は、例えば補正された奥行きマップ又はマルチビューを受信するために処理デバイスに接続された3Dディスプレイデバイス60からディスプレイ能力情報を取得することによって決定されてもよい。
任意で、サブ範囲は特定の視聴者、例えば子供のために設定又は調整されてもよいし、視聴者によって入力されるユーザの好みでもよい。例えば、サブ範囲はオブジェクトが高い鮮明度を有する範囲であり、一方、サブ範囲を超えるオブジェクトは鮮明度が低い又はぼやける。自動立体ディスプレイは、通常かかるサブ範囲を有する。また、サブ範囲は、使用可能な範囲にかけてのクロストークに対して、ビュー間のクロストークのレベルが低くなるよう選択され得る。例えば、アクティブシャッターメガネを使用する立体ディスプレイは、このようなクロストークをしばしば生じる。
処理は、さらに、突出範囲内の第1奥行き値がディスプレイ奥行きサブ範囲にマッピングされるよう、3D画像データの上記量に対して、突出データに応じて奥行きマッピング関数を決定することを含む。最後に、第1奥行きマップが奥行きマッピング関数によって第2奥行きマップに変換され、第2奥行きマップに基づいて表示ビューが生成される。
あるいは、3Dプレイヤーデバイス50内のビデオプロセッサ52、又は3Dソースデバイス内の処理ユニット42が、前記奥行きマップ処理を実行するよう構成されてもよい。突出データ、及び/又は第2奥行きマップ、及び/又は指定された3Dディスプレイ用に生成されたマルチビューは、3D画像信号とともに3Dディスプレイに向けて伝送されてもよい。
3D画像信号処理は、さらに、2Dビデオを3Dビデオに変換するために、2Dビデオ信号から第1奥行きマップを生成することを含んでもよい。前記3Dビデオ信号を提供することは、2Dビデオフレームシーケンスを含む2Dビデオ信号を受信すること、及び2Dビデオフレームシーケンスの処理に基づいて第1奥行きマップを生成することを含む。このように生成された奥行きマップはしばしば限定された品質を有し、奥行きマップをフィルタリング及び改良することによって、その品質を著しく向上できることに留意されたい。奥行きマップを生成する機能は、3Dプレイヤーの入力ユニット51、3D表示デバイス60内のビデオプロセッサ62、又は3Dソースデバイス内の処理ユニット42内に実装されてもよい。
一実施形態において、第1奥行きマップは、例えば3Dプレイヤーデバイス50内のビデオプロセッサ52、又は3D表示デバイス内の処理ユニット62によって生成される。奥行きマップ生成器は、動作中、3D効果を生むために視聴者の両目に対して表示される左ビュー及び右ビューを表す左フレームL及び右フレームRの時系列を有する3D信号(左右ビデオ信号とも呼ぶ)を受信する。当該ユニットは、その後左ビュー及び右ビューの視差推定によって第1奥行きマップを生成し、さらに、左ビュー及び/又は右ビューに基づいて2D画像を提供してもよい。視差推定は、L及びRフレームを比較するために使用される動き推定アルゴリズムに基づき得る。オブジェクトのLビューとRビューとの間の大きな差は、その差の方向に応じて、表示画面の前方又は背後の奥行き値に変換される。生成器ユニットの出力は、第1奥行きマップである。他の入力ユニットを使用して第1奥行きマップ及び対応する2D画像データを提供してもよいことに留意されたい。
図2は、視差マッピングのためのシステムの概要を示す。視差推定器21は、3D画像データに基づく第1視差マップ28を提供する。突出検出器22は、3D画像データ内の突出要素の検出に基づく突出データ23を提供する。視差マッピングユニット24において、第1視差マップは、3Dディスプレイ27のために求められた対象視差サブ範囲25に基づいて変更される。サブ範囲は、具体的な自動立体ディスプレイ等の特定の種類のディスプレイに対して予め定められてもよく、インターフェイスを介して伝送されてもよく、好みに基づいて視聴者によって設定又は調整されてもよい。最後に、ビューレンダラ―26が複数のビュー、すなわち立体ディスプレイのための少なくとも左及び右ビュー、又は自動立体タイプのディスプレイのための連続ビューのセットを生成する。図2に概略的に示された機能は、例えばコンピュータプログラム内に実装される3Dビデオの処理方法のステップが、信号処理システム、又は汎用コンピュータ上で実行された場合に対応する。
かかる視差推定は、例えば「D. Scharstein and R. Szeliski, A taxonomy and evaluation of dense two-frame stereo correspondence algorithms, International Journal of Computer Vision, 47(1/2/3):7-42, April-June 2002」から知られている。正確に推定及び記憶された場合、視差値は、立体コンテンツのための奥行き効果の適合を許容する。これは、例えば、立体コンテンツを、異なるサイズのディスプレイ上での視聴のために適合する上で、又はマルチビュー自動立体ディスプレイ上での視聴のために適合する上で有用であり得る。視差マップの明確な算出を伴わない視差範囲のワーピングが、「M. Lang, A. Hornung, O. Wang, S. Poulakos, A. Smolic, and M. Gross, Nonlinear Disparity Mapping for Stereoscopic 3D, Proc. ACM SIGGRAPH, 2010」で研究されている。
現在、自動立体ディスプレイ上で3Dコンテンツを視聴する際、入力奥行き範囲を、特定の種類のディスプレイ上で映りが良くなるような奥行き範囲にワープする重要性が認識された。特定のサブ範囲のみが、レンズ形のディスプレイ上での快適な視聴のために十分に鮮明であり得る。鮮明さは、奥行きが増加し、スクリーン平面から離れるにつれて徐々に減衰するが、使用可能な奥行き範囲にかけて使用可能な3D効果を維持する。
同時に、かかるディスプレイ上でコンテンツを視聴すると、ビデオの所定のオブジェクト又は部分が他のオブジェクト又は部分よりぼやけると、それらがより邪魔になることが明らかになる。あるいは、言い換えれば、突出オブジェクト(例えば、顔)のための鮮明度要求は、より突出でない/非突出オブジェクト(例えば、背景内の森)に対する要求より厳しくない。
図3は、従来技術の視差マッピングを概略的に示す。上側の部分は、3つの要素、すなわち小さな視差を有する円、正の視差(d>0)を有する三角、及び負の視差(d<0)を有する星(視聴者に最も近い)を有する3D画像30を示す。中央部は、下部に図示される、dmin〜dmaxによって示されるディスプレイの視差値の使用可能範囲32より大きい視差値の入力範囲31を示す。従来技術の視差マッピングは、使用可能な範囲に収まるよう、入力範囲を単純に圧縮する。
参照によって本明細書に組み込まれる、「The zone of comfort: Predicting visual discomfort with stereo displays」by T. Shibata, et al., Journal of Vision 2011, July 21, 2011, vol. 11, no. 8, article 11に示されるように、自然な視聴とステレオ3D視聴との間には違いが存在する。自然な視聴において、両眼離反運動(バージェンス)及び焦点合わせは相反しないが、ステレオ3D視聴では当てはまらない。バージェンス距離は画像コンテンツに応じて変化する一方、焦点距離は一定であるため、ステレオ3D視聴は、バージェンス距離と焦点距離との間に不一致を生む。
上記論文は、さらに、実際においてカメラマンは表示視差を抑えるために規則を用いようとするが、快適帯の厳密な定義には真の一致(コンセンサス)が存在しないことを述べる。例えば、画面より近い交差視差は、画面幅の2〜3%を超えるべきではなく、非交差視差は、画面幅の1〜2%を超えるべきではないことを述べるパーセント規則が言及されている。また、上記論文の著者は、このパーセント規則にいくらかの改良を加えることが好ましく、また、境界ははっきりとした境界ではなく、実際には連続的であることを述べる。
自動立体ディスプレイに関して、発明者は、2D画像に可能な限り近い3D立体画像から初めて、立体画像の奥行きを増加させる際、立体画像の知覚される鮮明度に大きな影響を与えることなく、所定の間隔にかけて視差(及び3D効果)を高められることに気が付いた。視差をさらに増加させると、立体画像の鮮明度は劣化するが、知覚される3D効果は向上する。ある時点において、表示視差を上げても3D効果は上がらなくなり、逆に知覚される3D効果は低減する。
また、発明者は、突出オブジェクトと非突出オブジェクトとの間の上記における違いに気が付いた。発明者は、快適帯の正確な限界に関係なく、突出オブジェクト及び非突出オブジェクトの許容可能な視差の許容値に違いが存在するようであることに気が付いた。この洞察に基づいて、突出オブジェクトがより小さい視差値(ゼロに向かう)を有する領域に、すなわち、より鮮明な画像レンダリングを可能にする奥行き範囲上にマッピングされた際、3D立体画像の立体的知覚を知覚的に改良することができた。これは非突出オブジェクトにおいてはそれほど決定的に表れず、このため、非突出オブジェクトは、より大きな視差値、例えば全快適帯にマッピングされ得り、知覚される品質への影響は小さい。
言い換えれば、好ましくは、突出オブジェクトは快適帯のサブ範囲上にマッピングされる。このサブ範囲は、快適帯より厳しい品質要求を有する快適帯のサブセットとして認識されてもよい。突出オブジェクトをディスプレイ視差範囲のこのサブセット内に位置させることにより、突出オブジェクトは、非突出オブジェクトより高い知覚鮮明度でレンダリングされ得る。
図4は、改良ディスプレイマッピングを概略的に示す。上側の部分は、4つの要素、すなわち視差が小さい円、正の視差(d>0)を有する三角、負の視差(d<0)を有する星(視聴者に最も近い)、及び三角の近くの顔を有する3D画像33を示す。中央部は、視差値の入力範囲34を示す。下側の部分は、第2視差マップ、すなわち突出ベース視差マッピング後のマップを示す。dNS min〜dNS maxによって示される、画像の非突出部に使用可能なディスプレイの視差値の使用可能範囲36が決定された(下部の図)。d min〜d maxによって示されるサブ範囲35は、画像の突出部に適している。顔は、突出要素として検出されると仮定される。以下に説明されるような突出ベースマッピングは、顔の視差値をサブ範囲にマッピングする視差マッピング関数を使用する。第2視差マップは、顔がサブ範囲35内で表示されていることを示す。
よって、改良マッピングは、視差マッピングに対する可変要求の動機づけとなるオブジェクト突出に基づく。ワープのために単一の使用可能視差範囲を使用する代わりに、突出部のマッピングには特定のサブ範囲が使用される。実際において、2つの奥行き範囲、すなわちサブ範囲及び全使用可能範囲の使用は、非常に良好な改良を与え、使用される奥行き範囲は、1つ以上の突出推定に基づいて決定される。
一実施形態において、2つの奥行き範囲が使用され、一方は典型的には顔等である突出領域のためのサブ範囲であり、他方は風景等のより突出していない領域である。2つの視差範囲を以下のように定義したとする。
(dNS min,dNS max)非突出(NS)領域のために使用可能
(d min,d max) 突出(S)領域(例えば顔)のためのサブ範囲
通常、サブ範囲は1つ目の範囲より(はるかに)小さい。中間奥行き表現を用いる表示システムにおいては、使用可能な範囲をこの中間表現で指定してもよいことを理解されたい。例えば、表示設定が、非突出領域に対して全奥行き範囲が使用できるように調整された場合、dNS min=0及びdNS max=255ステップを定義すべきである、この場合、突出領域に対しては、例えばd min=64及びd max=192ステップでもよい。実際において、範囲はコンテンツの視聴テストに基づいて決定されてもよい。奥行きレンダリングディスプレイ内において、ビュー合成処理の一部として、中間奥行き表現が視差に変換されてもよい。
突出及び非突出領域からの入力視差値d及びdNSは、以下のように単一のヒストグラムに結合することができる。変換は、オペレーターφ(d)を規定することによって実行され、φ(d)は、視差を突出範囲(d min,d max)から非突出範囲(dNS min,dNS max)に変換し、φ(d min)=dNS min及びφ(d max)=dNS maxである。通常、視差範囲はゼロを中心とし、オペレーターはφ(d)=cd(cは定数)でもよい。他の関数を適切に選択してもよいことに留意されたい。順番に並ぶフレームシーケンスに関しては、ピクセル突出を考慮して視差のヒストグラムを更新する。視差dを有する各ピクセルpに対して、
h(d)+=1すなわち、h(d)=h(d)+1(pが非突出ピクセルである場合)
h(φ(d))+=1(pが突出ピクセルである場合)
その後、ヒストグラムから低パーセンタイル(例えば2)及び高パーセンタイル(例えば98)を選択することによって対象視差範囲に向けてマッピングし、前記範囲を対象範囲にマッピングしてもよい。
他の実施形態において、奥行き変換のための時間的安定性が向上される。ヒストグラムは上記のように計算及び使用されるが、さらに、現在のフレームhのためのヒストグラムは直前のフレーム内で使用されたヒストグラムHN−1の重み付けされたバージョンと再帰的に組み合わされる。
=αHN−1+h
ここで、αは、ショット内のフレームに関しては1に近似する又は等しく、ショットの移行直後は0に近似する又は等しい。一改良例において、αの値は最後のショット移行後のフレーム数に依存し、場合によっては、前回の又は次回のショット移行の推定確率、及び画像変化量を考慮する。
実践的な一実施形態は、以下の機能を有する(全ての値は例である)。この例において、奥行き/視差を有する入力ビデオを有し、顔等の突出要素が検出されたと仮定する。よって、画像は突出ピクセル、及び非突出ピクセルに分けられる。3Dディスプレイ(立体又は自動立体)は、「使用可能」視差範囲[−40,40]、及び「鮮明/好適」視差サブ範囲[−10,10]を有すると仮定する。マッピング関数は、入力奥行き値([0,255])をディスプレイ視差にマッピングしなければならない。
慣例的に、突出の使用がない場合、入力範囲[0,255]は[−40,40]にマッピングされる。このような慣例的なマッピングの問題は、この範囲の端部が、典型的にはあまり視聴に好ましくない/不快なことである。例えば、自動立体ディスプレイにおいて、範囲の端部は鮮明度が下がる。顔がこのような「端部」の視差値を有する場合、生じる3D画像はあまり視聴に好ましくない。
改良マッピングでは、突出領域及びそれらの入力奥行き値が知らされる。マッピング関数は、人々はこれらの部分に注目するため、これらの値を「鮮明/好適」視差範囲([−10,10])にワープさせるよう設計される。画像の残りの部分に関しては、視差は「使用可能」範囲[−40,40]にマッピングされる。
これを実現する方法は、入力視差値の結合ヒストグラムを作成することである。突出領域外のピクセルは、視差ヒストグラムに直接加えられる。
h(d)+=1(pが非突出ピクセルの場合)
上式は、値dのヒストグラム「ビン」が1増加されることを示す。突出領域内のピクセルに関しては、異なる変換が用いられ、ヒストグラムの異なるビンに加えられる。結合ヒストグラムは、マッピングを実行するために使用される。
この例において、線形マッピングを使用すると以下の式が得られる。
h(4d)+=1(pが突出ピクセルの場合)
上式は、値4d(4×d)の「ビン」が1増加されることを示す。よって、突出ピクセルは、結合ヒストグラムに入力される前に補正関数によって変換される。上記補正関数により、突出ピクセル奥行き範囲は、元の値の4倍の値にワープされる。かかる計算により、突出ピクセル及び非突出ピクセルの結合ヒストグラムが形成され、突出ピクセルは第1入力変換を受け、非突出ピクセルは第2入力変換を受ける。突出ピクセルのための第1入力変換は、使用可能範囲に対するサブ範囲に応じて設定される補正関数を有する。
このようにして、全てのピクセル全体に対して単一のヒストグラムが得られる。その後、所定のパーセンタイルを使用可能範囲にマッピングすることが望ましいこと、例えば、視差ヒストグラムの5%パーセンタイルを−40に、そして95%パーセンタイルを40にマッピングすることができ、中間値に線形マッピングを実行できると決定できる。視差値のうちの少量、この例では約10%がディスプレイの使用可能範囲外にあるが、大部分は[−40,40]にマッピングされることに留意されたい。実際においては、使用可能範囲内に含まれるよう、視差値のうちの前記少量はクリッピングされてもよい。よって、結合ヒストグラム奥行き範囲は、ディスプレイの使用可能奥行き範囲内にマッピングされ、補正関数は、突出範囲内の第1奥行き値をディスプレイの奥行きサブ範囲にワープさせる。
他の例において、突出データは度合い、例えば0〜1の小数値で表される。各ヒストグラムのビンは、当該少数によって変更されてもよい。例えば、オブジェクト検出器の信頼値w∈[0,1]を、φ(d)を調節することによって、又は好ましくはピクセルpを部分的に突出なピクセルとして扱うことによって、考慮に入れてもよい。
h(d)+=1−w(全てのpに関して)
h(φ(d))+=w(全てのpに関して)
他の例示的な実施形態において、突出値及び非突出値のために別々のヒストグラムが計算される。突出範囲の境界値は、突出ヒストグラムから決定され、例えば5%パーセンタイル及び95%パーセンタイルである。続いて、突出視差範囲を「鮮明/好適」範囲にマッピングし、一方で、残りの範囲を「使用可能」範囲にマッピングする。残りの範囲は、通常2つのサブ範囲、すなわち、[10,40]の範囲にマッピングされる、突出範囲の上限より高い非突出値の第1サブ範囲、及び[−40,10]の範囲にマッピングされる、突出範囲の下限より低い非突出値の第2サブ範囲を含む。かかるマッピングは区分線形マッピングでもよく、非線形マッピングでもよい。非線形マッピングの例を以下に示す。
任意で、ヒストグラムに突出ピクセルのみを入力してもよい。突出奥行き値のヒストグラムは、ディスプレイの高品質サブ範囲上に続けてマッピングされる。その後、奥行き値の残りの範囲が、実際に生じる非突出奥行き値の量を決定することなく、使用可能範囲内にマッピングされる。
実際の環境において時間的な安定性を改良するために、以下のオプションが考えられる。
オフライン処理のために、ショットごとに対象範囲を決定してもよい。時間的境界は既知でもよいし、検出アルゴリズムを使用して自動的に決定してもよい。上記ヒストグラムは、例えばショットに対して単一のマッピングを適用することによって、ショットの全長に関して計算され得る。あるいは、ショットの間に小さな差が生じてもよい。ショットの境界ではより大きな差が生じるが、ショット移行の間ではほとんど不可視である。よって、この視差マッピングは、安定且つ許容可能な3D体験を提供する。
オンライン処理に関しては、適切なバッファリングを用いることにより、いくつか先のフレームを見て、対象範囲をフレームの(移動)ウィンドウ(moving window)に基づかせることができる。
オンライン処理において、フレームを遅延することができない場合、ショット中で範囲の減少(奥行きの減少)のみを許可することにより、時間的な安定性を改善し得る。ショット移行の直後、範囲はリセットされる。あるいは、ショット内で範囲を徐々に増加してもよい。
図5は、非線形視差マッピングを示す。左のダイアグラム501は、視差値のヒストグラムを示す。このヒストグラムは、上記のようにそれぞれが異なる入力変換関数を有する突出及び非突出奥行き値の結合ヒストグラムである。中央のダイアグラム502は、正規化されたヒストグラムを示し、これは、各度数の推定により取得され、連続データに関しては確率密度関数(PDF)とも知られている。右のダイアグラム503は、積分又は累積加算によって得られる累積分布関数(CDF)の推定を示す。非線形マッピングの単純な方法は、CDFを使用可能な対象範囲、例えば[dmin,dmax]=[−40,40]にスケーリングすることであろう。
φ(d)=CDF(d)x(dmax−dmin)+dmin=80*CDF(d)−40
単純なマッピングの結果、オブジェクト内の視差が伸長され、視覚的な歪みが生じるおそれがある。解決策は、例えば以下のようなマッピングの傾きを限定する制限マッピングである。
φ’(d)<=maxgain
ここで、maxgainは、前述の歪みに限界を設定するために選択された定数である。
図6は、最大ゲイン制限を示す。x値は、対象奥行き値であり、y値は、入力/出力密度比例ゲイン値である。単純マッピング601は、上記ゲインの非常に高いピーク値を示す。最大ゲイン値603は点線によって示される。制限マッピング602は、上記最大ゲイン603を越えない。ピーク値を有さない領域において、制限マッピング602は単純マッピング601より高い。
図7は、改良非線形視差マッピングを示す。この図は、非線形マッピング関数の結果を示す。単純曲線701は、最大制限を有さない基本的な非線形マッピングφ(d)を示し、制限マッピング曲線702は、最大制限を有する改良非線形マッピングφ’(d)を示す。
以下の項は、マッピング関数φ’(d)のサンプル疑似コードを4つのステップで提供する。
1.入力:
a.単純マッピングphi_naive、所望の出力範囲[d_min,d_max]、及び最大ゲイン制限maxgain
2.初期化:
a.phi’:=phi’_naive(単純マッピングの導関数から開始)
b.last:={}
3.反復:
a.saturated(飽和):={d|phi’(d)>=maxgain}
b.saturated=lastの場合、4.に進む
c.last:=saturated
d.saturated内の全てのdに関して、phi’(d):=maxgain(飽和領域に関してマッピングを調節)
e.correction(補正):=(sum(phi’_naive)−sum_saturated(phi’))/sum_not saturated(phi’))(不飽和領域の補正ゲインを計算)
f.saturated内の全てのdに関して、phi’(d):=correction phi’(不飽和領域に関してマッピングを調節)
4.完了
a.phi:=integrate phi’+d_min
b.phi:=phi+(d_max−phi(∞))/2(マッピング範囲を指定範囲内にセンタリング)
条件4bは、元画像内に視差が無い場合又は少ない場合、例えば映画のクレジットの間に生じることに留意されたい。また、サンプルアルゴリズムは中央値視差を所望のサブ範囲の中央付近にマッピングし、これは一般的に好ましい。
要約すると、特定の3Dディスプレイ上での最適な3D視聴条件のためには、視差は使用可能な範囲にワープされなければならない。単一なワープ範囲は準最適であり、狭すぎる範囲(奥行き効果小)又は広すぎる範囲(突出オブジェクトの邪魔なぼやけ)を生じる。したがって、突出領域を制限された視差の出力サブ範囲上にワープする一方、非突出領域は、より広い使用可能視差をフルで使用することができる、入力視差範囲の突出ベースワープが提案される。
本発明は、具体的にはレンズ形又はバリアベースマルチビュー表示デバイス等の自動立体表示(ディスプレイ)デバイスに適用することができ、これらのデバイスにおいて、本発明は、モノ/ステレオコンテンツをかかるディスプレイでの使用のためにマルチビューに変換するために使用される。
本発明は、BD(登録商標)等の光学ディスクを介した3D画像信号伝送を用いる実施形態によって主に説明されたが、本発明は、DVBブロードキャスト又はインターネット等のデジタルチャネルを介したあらゆる3Dビデオ配信にも適している。
上記説明は、明瞭さのために、本発明の実施形態を機能的なユニット及びプロセッサと関連して説明してきたと理解されるであろう。しかし、本発明から逸脱することなく、異なる機能的ユニット又はプロセッサ間で機能を任意で適切に分配できることが明らかであろう。例えば、複数の別個のユニット、プロセッサ、又はコントローラによって実行されると説明された機能が、同じプロセッサ又はコントローラによって実行されてもよい。よって、特定の機能ユニットへの言及は、厳密な論理的又は物理的な構造又は構成を示すものではなく、説明された機能を提供するための適当な手段への言及としてのみ見なされるべきである。本発明は、ハードウェア、ソフトウェア、ファームウェア、又はこれらの任意の組み合わせとして実施できる。
上記において、ほとんどの実施形態はデバイス(装置)に関して示されてきたが、対応する方法によって同じ機能が提供される。かかる方法は、任意で、1つ以上のデータプロセッサ及び/又はデジタル信号プロセッサ上で動作するコンピュータソフトウェアの少なくとも一部として実施され得る。本発明の実施形態の要素及び部品は、物理的、機能的、又は論理的に適切な任意の方法で実現できる。
ある特徴が具体的な実施形態と関連して説明される場合、当業者は、説明される実施形態の多様な特徴が、本発明にしたがって組み合わせられることを認識するであろう。個別の特徴を好適に組み合わせることができ、また異なる請求項に含まれているからといって、特徴の組み合わせが実現可能及び/又は好適でないとは限らない。また、ある特徴が1つのクレームカテゴリに含まれているからといって、このカテゴリに限定されるとは限らず、特徴は適宜他のクレームカテゴリに等しく適用できる、また、請求項内の特徴の順番は、特徴が作用されなければならない具体的な順番を示すものではなく、特に、方法クレーム内の個別なステップの順番は、ステップがその順番で実行されなければならないことを意味しない。ステップは任意の適切な順番で実行することができる。また、要素は複数を除外しない。「第1」、「第2」等の記載も複数を除外しない。特許請求の範囲における参照符号は、単に明瞭化のための例として与えられ、特許請求の範囲をいかなる意味でも限定するものではないと解釈されたい。

Claims (11)

  1. マルチ表示ビューに基づいて3Dディスプレイ上に3D画像データをレンダリングするための3次元(3D)画像信号を処理する方法であって、当該方法は、
    −前記3D画像信号から、第1奥行き値を含む第1奥行きマップを引き出すステップと、
    −前記3D画像信号から、前記3D画像データのある量内の突出を表す突出データを引き出すステップであって、前記突出は、突出範囲の奥行き値を有する突出要素を示す、ステップと、
    −奥行き値の前記突出範囲内にある前記第1奥行き値がディスプレイ奥行きサブ範囲にマッピングされるよう、前記3D画像データの前記ある量に対して、前記突出データに応じて奥行きマッピング関数を決定するステップであって、前記ディスプレイ奥行きサブ範囲は、前記3Dディスプレイの使用可能奥行き範囲のサブ範囲であり、前記使用可能奥行き範囲にかけての少なくとも鮮明さを含む3D画質より高い3D画質を視聴者に提供する、ステップとを含み、当該奥行きマッピング関数を決定するステップは、
    −突出要素の奥行き値である突出奥行き値及び非突出要素の奥行き値である非突出奥行き値の結合ヒストグラムを作成するステップであって、前記突出奥行き値は、前記結合ヒストグラムに加えられる前に第1入力変換重みを用いて重み付けされ、前記非突出奥行き値は、前記結合ヒストグラムに加えられる前に第2入力変換重みを用いて重み付けされ、前記第1入力変換重み及び前記第2入力変換重みは、前記ディスプレイ奥行きサブ範囲及び前記3Dディスプレイの前記使用可能奥行き範囲に依存する、ステップと、
    −結合ヒストグラム奥行き範囲を決定するステップと、
    −前記結合ヒストグラム奥行き範囲を前記3Dディスプレイの前記使用可能奥行き範囲内にマッピングするよう前記奥行きマッピング関数を決定するステップであって、前記第1入力変換重み及び前記第2入力変換重みは、互いに異なり、奥行き値の前記突出範囲内の前記第1奥行き値が、前記ディスプレイ奥行きサブ範囲にワープされるよう選択される、ステップとを含み、
    −第2奥行きマップに基づいて表示ビューを生成するために、前記奥行きマッピング関数によって前記第1奥行きマップを第2奥行きマップに変換するステップ
    をさらに含む、方法。
  2. −前記突出データは、画像のピクセルの突出の度合いを示す突出マップであるか、又は、
    −前記突出データは、突出奥行き範囲である、
    請求項1に記載の方法。
  3. 前記突出データを引き出すステップは、前記3D画像データの前記突出データを表すメタデータを前記3D画像信号から引き出すステップを含む、請求項1に記載の方法。
  4. 前記3D画像データの前記ある量は、3Dビデオ信号の期間であり、前記奥行きマッピング関数は、ある時間にわたる前記突出データに依存する、請求項1に記載の方法。
  5. 前記奥行きマッピング関数を決定するステップは、
    −前記3Dビデオ信号の前記期間としてショットを決定し、前記ショットに対してマッピング関数を設定するステップか、又は、
    −先読みを有する移動ウィンドウを使用し、前記ウィンドウに対してマッピング関数を設定するステップを含む、請求項4に記載の方法。
  6. マルチ表示ビューに基づいて3Dディスプレイ上に3D画像データをレンダリングするための3次元(3D)画像信号を処理するための3Dビデオデバイスであって、当該デバイスは、入力手段とビデオプロセッサとを含み、
    前記入力手段は、
    −前記3D画像信号から、第1奥行き値を含む第1奥行きマップを引き出すステップと、
    −前記3D画像信号から、前記3D画像データのある量内の突出を表す突出データを引き出すステップであって、前記突出は、突出範囲の奥行き値を有する突出要素を示す、ステップとを実行し、
    前記ビデオプロセッサは、
    −奥行き値の前記突出範囲内にある前記第1奥行き値がディスプレイ奥行きサブ範囲にマッピングされるよう、前記3D画像データの前記ある量に対して、前記突出データに応じて奥行きマッピング関数を決定するステップであって、前記ディスプレイ奥行きサブ範囲は、前記3Dディスプレイの使用可能奥行き範囲のサブ範囲であり、前記使用可能奥行き範囲にかけての少なくとも鮮明さを含む3D画質より高い3D画質を視聴者に提供する、ステップとを実行し、当該奥行きマッピング関数を決定するステップは、
    −突出要素の奥行き値である突出奥行き値及び非突出要素の奥行き値である非突出奥行き値の結合ヒストグラムを作成するステップであって、前記突出奥行き値は、前記結合ヒストグラムに加えられる前に第1入力変換重みを用いて重み付けされ、前記非突出奥行き値は、前記結合ヒストグラムに加えられる前に第2入力変換重みを用いて重み付けされ、前記第1入力変換重み及び前記第2入力変換重みは、前記ディスプレイ奥行きサブ範囲及び前記3Dディスプレイの前記使用可能奥行き範囲に依存する、ステップと、
    −結合ヒストグラム奥行き範囲を決定するステップと、
    −前記結合ヒストグラム奥行き範囲を前記3Dディスプレイの前記使用可能奥行き範囲内にマッピングするよう前記奥行きマッピング関数を決定するステップであって、前記第1入力変換重み及び前記第2入力変換重みは、互いに異なり、奥行き値の前記突出範囲内の前記第1奥行き値が、前記ディスプレイ奥行きサブ範囲にワープされるよう選択される、ステップとを含み、
    −第2奥行きマップに基づいて表示ビューを生成するために、前記奥行きマッピング関数によって前記第1奥行きマップを前記第2奥行きマップに変換するステップをさらに実行する、デバイス。
  7. −前記ビデオプロセッサは、前記第2奥行きマップに基づいて前記表示ビューを生成するステップを含む、且つ/又は、
    −前記デバイスは、視聴者の左目及び右目のための表示ビューを表示する3Dディスプレイを含む、且つ/又は、
    −前記ビデオプロセッサは、前記3Dビデオデバイスに接続された3Dディスプレイデバイスからディスプレイ能力情報を取得することによって前記ディスプレイ奥行きサブ範囲を決定する、
    請求項6に記載のデバイス。
  8. 前記突出データを引き出すステップは、前記3D画像データの前記突出データを表すメタデータを前記3D画像信号から引き出すステップを含む、請求項6に記載のデバイス。
  9. 前記入力手段は、光学記録担体からビデオ情報を引き出すための光学記録担体ユニットを有する、請求項6に記載のデバイス。
  10. コンピュータプログラムコード手段を含むコンピュータプログラムであって、前記コンピュータプログラムコード手段は、前記コンピュータプログラムがコンピュータ上で動作されたとき、プロセッサに、請求項1乃至5のいずれか一項に記載の方法のステップを実行させる、コンピュータプログラム。
  11. 請求項10に記載のコンピュータプログラムを含むコンピュータ読み取り可能媒体。
JP2014537784A 2011-11-01 2012-10-23 突出ベース視差マッピング Active JP5791818B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201161553984P 2011-11-01 2011-11-01
US61/553,984 2011-11-01
PCT/IB2012/055829 WO2013064938A1 (en) 2011-11-01 2012-10-23 Saliency based disparity mapping

Publications (2)

Publication Number Publication Date
JP2015503258A JP2015503258A (ja) 2015-01-29
JP5791818B2 true JP5791818B2 (ja) 2015-10-07

Family

ID=47358246

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014537784A Active JP5791818B2 (ja) 2011-11-01 2012-10-23 突出ベース視差マッピング

Country Status (9)

Country Link
US (1) US9041709B2 (ja)
EP (1) EP2774378B8 (ja)
JP (1) JP5791818B2 (ja)
CN (1) CN104025585B (ja)
BR (1) BR112014010060A8 (ja)
IN (1) IN2014CN03412A (ja)
RU (1) RU2580439C2 (ja)
TW (1) TWI574544B (ja)
WO (1) WO2013064938A1 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10095953B2 (en) * 2009-11-11 2018-10-09 Disney Enterprises, Inc. Depth modification for display applications
EP2509324A1 (en) * 2011-04-08 2012-10-10 Thomson Licensing Method and apparatus for analyzing stereoscopic or multi-view images
JP2013243626A (ja) * 2012-05-23 2013-12-05 Sony Corp 信号処理装置、信号処理方法、およびプログラム
US20140125763A1 (en) * 2012-11-07 2014-05-08 Robert Nathan Cohen 3d led output device and process for emitting 3d content output for large screen applications and which is visible without 3d glasses
US9232210B2 (en) 2013-07-08 2016-01-05 Nvidia Corporation Mapping sub-portions of three-dimensional (3D) video data to be rendered on a display unit within a comfortable range of perception of a user thereof
US9390508B2 (en) * 2014-03-03 2016-07-12 Nokia Technologies Oy Method, apparatus and computer program product for disparity map estimation of stereo images
JP6415179B2 (ja) * 2014-08-20 2018-10-31 キヤノン株式会社 画像処理装置、画像処理方法、および撮像装置並びにその制御方法
US20220147365A1 (en) * 2015-01-21 2022-05-12 Pure Storage, Inc. Accelerating Segment Metadata Head Scans For Storage System Controller Failover
KR102174258B1 (ko) 2015-11-06 2020-11-04 삼성전자주식회사 무안경 3d 디스플레이 장치 및 그 제어 방법
CN109076200B (zh) * 2016-01-12 2021-04-23 上海科技大学 全景立体视频系统的校准方法和装置
KR101736660B1 (ko) * 2016-01-15 2017-05-17 세종대학교산학협력단 스테레오 3d 내비게이션 장치 및 이를 위한 세일리언시 기반의 카메라 파라미터 조절 방법
EP3252713A1 (en) * 2016-06-01 2017-12-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for performing 3d estimation based on locally determined 3d information hypotheses
JP6869112B2 (ja) * 2017-06-07 2021-05-12 株式会社荏原製作所 ポンプ点検システム
US11391940B2 (en) 2017-03-31 2022-07-19 Ebara Corporation Industrial endoscope, observation method, observation device, underwater machine, pump inspection system, underwater robot control system, and underwater robot control method
US20180322689A1 (en) * 2017-05-05 2018-11-08 University Of Maryland, College Park Visualization and rendering of images to enhance depth perception
TWI628619B (zh) 2017-05-17 2018-07-01 國立交通大學 立體影像產生方法及其裝置
US10776992B2 (en) * 2017-07-05 2020-09-15 Qualcomm Incorporated Asynchronous time warp with depth data
WO2019241785A1 (en) * 2018-06-15 2019-12-19 The Board Of Trustees Of The Leland Stanford Junior University Systems and methods for dancification
CN109600600B (zh) * 2018-10-31 2020-11-03 万维科研有限公司 涉及深度图转换的编码器、编码方法以及三层表达式的存储方法和格式
TWI700670B (zh) * 2019-03-05 2020-08-01 中國鋼鐵股份有限公司 三維深度資訊的轉換方法與電子裝置
CN111818319B (zh) * 2019-04-10 2022-05-24 深圳市视觉动力科技有限公司 提高三维图像显示质量的方法和系统
WO2022018869A1 (ja) * 2020-07-22 2022-01-27 日本電信電話株式会社 マッピング関数調整装置、マッピング関数調整方法およびプログラム
CN114998615B (zh) * 2022-04-28 2024-08-23 南京信息工程大学 一种基于深度学习的协同显著性检测方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7161614B1 (en) 1999-11-26 2007-01-09 Sanyo Electric Co., Ltd. Device and method for converting two-dimensional video to three-dimensional video
JP2001320731A (ja) * 1999-11-26 2001-11-16 Sanyo Electric Co Ltd 2次元映像を3次元映像に変換する装置及びその方法
GB0329312D0 (en) 2003-12-18 2004-01-21 Univ Durham Mapping perceived depth to regions of interest in stereoscopic images
CN101243694B (zh) * 2005-08-19 2010-12-22 皇家飞利浦电子股份有限公司 立体显示装置
WO2011013030A1 (en) * 2009-07-27 2011-02-03 Koninklijke Philips Electronics N.V. Combining 3d video and auxiliary data
JP5444955B2 (ja) * 2009-08-31 2014-03-19 ソニー株式会社 立体画像表示システム、視差変換装置、視差変換方法およびプログラム
US8537200B2 (en) * 2009-10-23 2013-09-17 Qualcomm Incorporated Depth map generation techniques for conversion of 2D video data to 3D video data
CN102598051B (zh) 2009-10-30 2014-10-29 富士胶片株式会社 图像处理装置和图像处理方法
JP2011176800A (ja) * 2010-01-28 2011-09-08 Toshiba Corp 画像処理装置、立体表示装置及び画像処理方法
US8565516B2 (en) * 2010-02-05 2013-10-22 Sony Corporation Image processing apparatus, image processing method, and program
RU2429513C1 (ru) * 2010-04-20 2011-09-20 Закрытое Акционерное Общество "Мегавижн" Трехмерный дисплей
US9485495B2 (en) * 2010-08-09 2016-11-01 Qualcomm Incorporated Autofocus for stereo images
JP5242667B2 (ja) * 2010-12-22 2013-07-24 株式会社東芝 マップ変換方法、マップ変換装置及びマップ変換プログラム

Also Published As

Publication number Publication date
TWI574544B (zh) 2017-03-11
RU2580439C2 (ru) 2016-04-10
US20140313191A1 (en) 2014-10-23
BR112014010060A8 (pt) 2017-06-20
US9041709B2 (en) 2015-05-26
JP2015503258A (ja) 2015-01-29
EP2774378B1 (en) 2015-10-07
WO2013064938A1 (en) 2013-05-10
CN104025585B (zh) 2016-06-01
BR112014010060A2 (pt) 2017-06-13
EP2774378A1 (en) 2014-09-10
CN104025585A (zh) 2014-09-03
IN2014CN03412A (ja) 2015-10-09
TW201330589A (zh) 2013-07-16
EP2774378B8 (en) 2015-11-18
RU2014121937A (ru) 2015-12-10

Similar Documents

Publication Publication Date Title
JP5791818B2 (ja) 突出ベース視差マッピング
CA2723627C (en) System and method for measuring potential eyestrain of stereoscopic motion pictures
JP6073307B2 (ja) ディスプレイ用信号の生成方法及び装置
JP5750505B2 (ja) 立体映像エラー改善方法及び装置
US8711204B2 (en) Stereoscopic editing for video production, post-production and display adaptation
US20150085073A1 (en) Quality metric for processing 3d video
US20130057644A1 (en) Synthesizing views based on image domain warping
TW201432622A (zh) 產生一關於一影像之深度圖
JP2013172190A (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP6715864B2 (ja) 画像に対する深度マップを決定するための方法及び装置
JP2012249038A (ja) 画像信号処理装置、画像信号処理方法
TWI678098B (zh) 三維影像之視差的處理
KR101629414B1 (ko) 휴먼 팩터에 기초한 스테레오스코픽 이미지 추출 방법 및 장치

Legal Events

Date Code Title Description
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20150128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150407

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150707

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150804

R150 Certificate of patent or registration of utility model

Ref document number: 5791818

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250