JP6886253B2 - 複数のユーザのためのレンダリング方法及び装置 - Google Patents

複数のユーザのためのレンダリング方法及び装置 Download PDF

Info

Publication number
JP6886253B2
JP6886253B2 JP2016154404A JP2016154404A JP6886253B2 JP 6886253 B2 JP6886253 B2 JP 6886253B2 JP 2016154404 A JP2016154404 A JP 2016154404A JP 2016154404 A JP2016154404 A JP 2016154404A JP 6886253 B2 JP6886253 B2 JP 6886253B2
Authority
JP
Japan
Prior art keywords
user
image
pixel
mapped
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016154404A
Other languages
English (en)
Other versions
JP2017038367A (ja
Inventor
柱 容 朴
柱 容 朴
東 ▲ぎょん▼ 南
東 ▲ぎょん▼ 南
碩 李
碩 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2017038367A publication Critical patent/JP2017038367A/ja
Application granted granted Critical
Publication of JP6886253B2 publication Critical patent/JP6886253B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/349Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/27Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/144Processing image signals for flicker reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/307Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using fly-eye lenses, e.g. arrangements of circular lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/368Image reproducers using viewer tracking for two or more viewers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/376Image reproducers using viewer tracking for tracking left-right translational head movements, i.e. lateral movements

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、レンダリング方法及び装置に関し、より具体的には、複数のユーザのためのレンダリング方法及び装置に関する。
現在商用化されている多くの3D表示装置は、ユーザの両眼に互いに異なる画像を再生することによって奥行き知覚を与える原理を用いる。このような方式は、ユーザに両眼差の情報を与えるだけで、焦点調節、運動視差などの単眼深さ認識(monocular depth recognition)の要因を伝達することができない。そのため、3次元画像が不自然であり、眼に疲労をもたらし得る。
疲労を感じさせない自然な3次元画像を表示する技術として光線の空間角度(spatio−angular)分布、すなわち、ライトフィールドを再生する3D表示技術がある。ここで、ライトフィールドは、物体から来る光線の位置別又は方向別分布をいう。このようなライトフィールドを任意の面から光学的に再生すると、その後ろに位置するユーザは、実物体がある時のような光線分布を経験するため、自然な物体の3次元画像を見ることができる。
本発明の一態様によれば、3D画像を視聴する第1のユーザの視聴環境を保障する一方で、第2のユーザに発生するクロストークを最小化して第2のユーザにも最大限に円滑に3D画像を提供する。
本発明の一実施形態に係る複数のユーザのためのレンダリング方法は、第1のユーザの両眼の位置及び第2のユーザの両眼の位置をピクセルに対応する視点領域にマッピングするステップと、前記マッピングされた第1のユーザの両眼の位置及び前記マッピングされた第2のユーザの両眼の位置に基づいて、前記ピクセルの値を決定するステップとを含む。ここで、前記ピクセルは、サブピクセルであってもよい。
前記視点領域は、パネルに属した前記ピクセルと光学層に属した光学素子のペアに対応するビューコーン(view cone)を含んでもよい。
前記マッピングするステップは、前記ピクセルと光学層に属する複数の光学素子との間の相対的な位置による繰り返し特性に基づいて、前記第1のユーザの両眼の位置及び前記第2のユーザの両眼の位置を前記視点領域にマッピングするステップを含んでもよい。
前記決定するステップは、前記ピクセルの光線方向が前記第1のユーザに対応する場合、前記第1のユーザの両眼の位置に立体画像が再生されるように前記ピクセルの値を決定するステップと、前記光線方向が前記第2のユーザに対応する場合、前記第2のユーザの両眼のうち少なくとも片方の眼の位置に前記立体画像の左側の画像又は右側の画像が再生されるように前記ピクセルの値を決定するステップとを含んでもよい。
前記光線方向は、前記ピクセル及び光学層に含まれた光学素子によって伝播(propagation)される光線方向を含んでもよい。
前記決定するステップは、前記ピクセルの光線方向が前記マッピングされた第1のユーザの左眼の位置に対応する場合、立体画像の左側の画像に基づいて前記ピクセルの値を決定するステップと、前記光線方向が前記マッピングされた第1のユーザの右眼の位置に対応する場合、前記立体画像の右側の画像に基づいて前記ピクセルの値を決定するステップとを含んでもよい。
前記決定するステップは、前記ピクセルの光線方向が前記マッピングされた第2のユーザの左眼の位置に対応し、前記マッピングされた第2のユーザの左眼の位置が前記マッピングされた第1のユーザの左眼の位置に対応する場合、前記第1のユーザのための立体画像の左側の画像に基づいて前記ピクセルの値を決定するステップと、前記光線方向が前記マッピングされた第2のユーザの左眼の位置に対応し、前記マッピングされた第2のユーザの左眼の位置が前記マッピングされた第1のユーザの右眼の位置に対応する場合、前記立体画像の右側の画像に基づいて前記ピクセルの値を決定するステップとを含んでもよい。
前記決定するステップは、前記ピクセルの光線方向が前記マッピングされた第2のユーザの左眼の位置に対応し、前記マッピングされた第2のユーザの右眼の位置が前記マッピングされた第1のユーザの左眼の位置に対応する場合、前記第1のユーザのための立体画像の左側の画像又は前記左側の画像よりさらに左側の視点の画像に基づいて前記ピクセルの値を決定するステップと、前記光線方向が前記マッピングされた第2のユーザの左眼の位置に対応し、前記マッピングされた第2のユーザの右眼の位置が前記マッピングされた第1のユーザの右眼の位置に対応する場合、前記左側の画像又は前記立体画像の右側の画像に基づいて前記ピクセルの値を決定するステップとを含んでもよい。
前記決定するステップは、前記ピクセルの光線方向が前記マッピングされた第2のユーザの右眼の位置に対応し、前記マッピングされた第2のユーザの右眼の位置が前記マッピングされた第1のユーザの左眼の位置に対応する場合、前記第1のユーザのための立体画像の左側の画像に基づいて前記ピクセルの値を決定するステップと、前記光線方向が前記マッピングされた第2のユーザの右眼の位置に対応し、前記マッピングされた第2のユーザの右眼の位置が前記マッピングされた第1のユーザの右眼の位置に対応する場合、前記立体画像の右側の画像に基づいて前記ピクセルの値を決定するステップとを含んでもよい。
前記決定するステップは、前記ピクセルの光線方向が前記マッピングされた第2のユーザの右眼の位置に対応し、前記マッピングされた第2のユーザの左眼の位置が前記マッピングされた第1のユーザの左眼の位置に対応する場合、前記第1のユーザのための立体画像の左側の画像又は前記立体画像の右側の画像に基づいて前記ピクセルの値を決定するステップと、前記光線方向が前記マッピングされた第2のユーザの右眼の位置に対応し、前記マッピングされた第2のユーザの左眼の位置が前記マッピングされた第1のユーザの右眼の位置に対応する場合、前記右側の画像又は前記右側の画像よりさらに右側の視点の画像に基づいて前記ピクセルの値を決定するステップとを含んでもよい。
前記決定するステップは、前記マッピングされた第1のユーザの両眼の位置及び前記マッピングされた第2のユーザの両眼の位置が前記視点領域内に配置される順序、及び前記マッピングされた第1のユーザの両眼の位置及び前記マッピングされた第2のユーザの両眼の位置の間の距離のうち少なくとも1つに基づいて、前記ピクセルの値を決定するステップを含んでもよい。
前記決定するステップは、前記マッピングされた第1のユーザの両眼の位置及び前記マッピングされた第2のユーザの両眼の位置に基づいて、前記視点領域を複数のサブ視点領域に分割するステップと、前記ピクセルの光線方向に対応するサブ視点領域のコンテンツに基づいて、前記ピクセルの値を決定するステップとを含んでもよい。
前記決定するステップは、前記複数のサブ視点領域の中から前記第1のユーザのための第1のサブ視点領域のコンテンツを決定するステップと、前記第1のサブ視点領域のコンテンツに基づいて、前記複数のサブ視点領域の中から前記第2のユーザのための第2のサブ視点領域のコンテンツを決定するステップとをさらに含んでもよい。
本発明の一実施形態に係る複数のユーザのためのレンダリング方法は、前記第1のユーザの両眼の位置に立体画像が再生されるように第1のピクセルの値を決定するステップと、前記第1のユーザの両眼の位置及び前記第2のユーザの両眼の位置の間の相関関係に基づいて、前記第2のユーザの両眼の位置に前記立体画像に関連する画像が再生されるように前記第1のピクセル以外の第2のピクセルの値を決定するステップとを含む。
前記立体画像に関連する画像は、前記立体画像と、前記立体画像の左側の画像と、前記立体画像の右側の画像と、前記立体画像より左側の視点の立体画像と、前記立体画像より右側の視点の立体画像とのうち少なくとも1つを含んでもよい。
前記第2のピクセルの値を決定するステップは、前記第2のユーザの両眼の位置のうち少なくとも1つに前記立体画像の左側の画像又は右側の画像が再生されるように、前記第2のピクセルの値を決定するステップを含んでもよい。
前記相関関係は、前記第1のユーザの両眼の位置と前記第2のユーザの両眼の位置が予め定められた視点領域にマッピングされる場合、前記マッピングされた位置が配置される順序及び前記マッピングされた位置の間の距離のうち少なくとも1つを含んでもよい。
本発明の一実施形態に係る複数のユーザのためのレンダリング装置は、第1のユーザ及び第2のユーザを撮影するセンサと、前記第1のユーザの両眼の位置及び前記第2のユーザの両眼の位置をピクセルに対応する視点領域にマッピングし、前記マッピングされた第1のユーザの両眼の位置及び前記マッピングされた第2のユーザの両眼の位置に基づいて、前記ピクセルの値を決定するプロセッサとを含む。ここで、前記ピクセルはサブピクセルであってもよい。
前記プロセッサは、前記ピクセルの光線方向が前記マッピングされた第1のユーザの左眼の位置に対応する場合、立体画像の左側の画像に基づいて前記ピクセルの値を決定し、前記光線方向が前記マッピングされた第1のユーザの右眼の位置に対応する場合、前記立体画像の右側の画像に基づいて前記ピクセルの値を決定してもよい。
前記プロセッサは、前記ピクセルの光線方向が前記マッピングされた第2のユーザの左眼の位置に対応し、前記マッピングされた第2のユーザの左眼の位置が前記マッピングされた第1のユーザの左眼の位置に対応する場合、前記第1のユーザのための立体画像の左側の画像に基づいて前記ピクセルの値を決定し、前記光線方向が前記マッピングされた第2のユーザの左眼の位置に対応し、前記マッピングされた第2のユーザの左眼の位置が前記マッピングされた第1のユーザの右眼の位置に対応する場合、前記立体画像の右側の画像に基づいて前記ピクセルの値を決定してもよい。
前記プロセッサは、前記ピクセルの光線方向が前記マッピングされた第2のユーザの左眼の位置に対応し、前記マッピングされた第2のユーザの右眼の位置が前記マッピングされた第1のユーザの左眼の位置に対応する場合、前記第1のユーザのための立体画像の左側の画像又は前記左側の画像よりさらに左側の視点の画像に基づいて前記ピクセルの値を決定し、前記光線方向が前記マッピングされた第2のユーザの左眼の位置に対応し、前記マッピングされた第2のユーザの右眼の位置が前記マッピングされた第1のユーザの右眼の位置に対応する場合、前記左側の画像又は前記立体画像の右側の画像に基づいて前記ピクセルの値を決定してもよい。
前記プロセッサは、前記ピクセルの光線方向が前記マッピングされた第2のユーザの右眼の位置に対応し、前記マッピングされた第2のユーザの右眼の位置が前記マッピングされた第1のユーザの左眼の位置に対応する場合、前記第1のユーザのための立体画像の左側の画像に基づいて前記ピクセルの値を決定し、前記光線方向が前記マッピングされた第2のユーザの右眼の位置に対応し、前記マッピングされた第2のユーザの右眼の位置が前記マッピングされた第1のユーザの右眼の位置に対応する場合、前記立体画像の右側の画像に基づいて前記ピクセルの値を決定してもよい。
前記プロセッサは、前記ピクセルの光線方向が前記マッピングされた第2のユーザの右眼の位置に対応し、前記マッピングされた第2のユーザの左眼の位置が前記マッピングされた第1のユーザの左眼の位置に対応する場合、前記第1のユーザのための立体画像の左側の画像又は前記立体画像の右側の画像に基づいて前記ピクセルの値を決定し、前記光線方向が前記マッピングされた第2のユーザの右眼の位置に対応し、前記マッピングされた第2のユーザの左眼の位置が前記マッピングされた第1のユーザの右眼の位置に対応する場合、前記右側の画像又は前記右側の画像よりさらに右側の視点の画像に基づいて前記ピクセルの値を決定してもよい。
前記プロセッサは、前記マッピングされた第1のユーザの両眼の位置及び前記マッピングされた第2のユーザの両眼の位置が前記視点領域内に配置される順序、及び前記マッピングされた第1のユーザの両眼の位置及び前記マッピングされた第2のユーザの両眼の位置の間の距離のうち少なくとも1つに基づいて、前記ピクセルの値を決定してもよい。
前記プロセッサは、前記マッピングされた第1のユーザの両眼の位置及び前記マッピングされた第2のユーザの両眼の位置に基づいて前記視点領域を複数のサブ視点領域に分割して、前記ピクセルの光線方向に対応するサブ視点領域のコンテンツに基づいて前記ピクセルの値を決定してもよい。
前記プロセッサは、前記複数のサブ視点領域の中から前記第1のユーザのための第1のサブ視点領域のコンテンツを決定し、前記第1のサブ視点領域のコンテンツに基づいて前記複数のサブ視点領域の中から前記第2のユーザのための第2のサブ視点領域のコンテンツを決定してもよい。
3D画像を視聴する第1のユーザの視聴環境を保障する一方で、第2のユーザに発生するクロストークを最小化して第2のユーザにも最大限に円滑に3D画像を提供することができる。
本発明の一実施形態に係るライトフィールドレンダリング装置の動作を説明するための図である。 本発明の一実施形態に係るライトフィールドレンダリング装置の視覚領域が複数のビューアを含む場合を示す図である。 本発明の一実施形態に係るライトフィールドレンダリング方法を説明するための図である。 本発明の一実施形態に係るライトフィールドレンダリング方法を示したフローチャートである。 本発明の一実施形態に係るライトフィールドレンダリング装置がユーザの眼の位置を検出する過程を説明するための図である。 本発明の一実施形態に係るライトフィールドレンダリング装置がユーザの視線をマッピングする過程を説明するための図である。 本発明の一実施形態に係るビューコーンの大きさを決定する方法を説明するための図である。 本発明の一実施形態に係るライトフィールドレンダリング装置が光線方向の範囲を決定する過程を説明するための図である。 本発明の一実施形態に係るライトフィールドレンダリング装置が光線方向の範囲を決定する過程を説明するための図である。 本発明の一実施形態に係るライトフィールドレンダリング装置が光線方向の範囲を決定する過程を説明するための図である。 本発明の一実施形態に係るライトフィールドレンダリング装置がサブ視点領域ごとのコンテンツを決定する過程を説明するための図である。 本発明の一実施形態に係るのライトフィールドレンダリング装置がサブ視点領域ごとのコンテンツを決定する過程を説明するための図である。 本発明の一実施形態に係るライトフィールドレンダリング装置がサブ視点領域ごとのコンテンツを決定する過程を説明するための図である。 本発明の一実施形態に係るライトフィールドレンダリング装置がサブ視点領域ごとのコンテンツを決定する過程を説明するための図である。 本発明の一実施形態に係るライトフィールドレンダリング装置がサブ視点領域ごとのコンテンツを決定する過程を説明するための図である。 本発明の一実施形態に係るライトフィールドレンダリング装置がサブ視点領域ごとのコンテンツを決定する過程を説明するための図である。 本発明の一実施形態に係るライトフィールドレンダリング装置がサブ視点領域ごとのコンテンツを決定する過程を説明するための図である。 本発明の一実施形態に係るライトフィールドレンダリング装置がサブピクセルの値を決定する過程を説明するための図である。 本発明の他の実施形態に係るライトフィールドレンダリング方法を示したフローチャートである。 本発明の他の実施形態に係るライトフィールドレンダリング方法を示したフローチャートである。 本発明の一実施形態に係るライトフィールドレンダリング装置が2つの光学層を含む場合を示す図である。 本発明の一実施形態に係るライトフィールドレンダリング装置のブロック図である。
以下、添付の図面を参照しながら、実施形態を詳細に説明する。各図面に提示された同一の参照符号は同一の部材を示す。下記において説明する本発明の実施形態は、ライトフィールド表示方式(light field display method)のためのレンダリングに用いられる。ライトフィールド表示方式は、3次元画像を表現する裸眼方式であって、例えば、3Dテレビ、3Dモニタ、3Dデジタル情報ディスプレイ(Digital Information Display:DID)、及び3Dモバイル機器などに適用される。
図1は、本発明の一実施形態に係るライトフィールドレンダリング装置の動作を説明するための図である。図1を参照すると、ライトフィールドレンダリング装置100の構成が示されている。
ライトフィールドレンダリング装置100は、一定の空間に存在する点から様々な方向に出力される光をそのまま表現する。ライトフィールドレンダリング装置100は、実物体が一点から様々な方向に光を生成したり、又は反射する原理を用いる。「レンダリング」は、3次元空間上にライトフィールドを生成するために、パネル101に表示される画像を生成する動作であってもよい。例えば、「レンダリング」は、3次元空間上にライトフィールドを生成するために、パネル101に含まれたピクセル又はサブピクセルの値を決定する動作であってもよい。
ライトフィールドレンダリング装置100は、ピクセルを含むパネル101及びピクセルから出力される光が通過する光学層103を含む。パネル101のピクセルを構成するサブピクセルの構造は多様に変形されてもよい。例えば、パネル101は、サブピクセルがストライプパターンで配列されたRGBパネル、又は、サブピクセルがダイヤモンドパターンで配列されたペンタイルパネルなどであってもよい。
ライトフィールドレンダリング装置100は、例えば、ペンタイルパネルに基づいて互いに異なる方向の光線を実現することができる。一般的なRGBパネルは、1つのピクセルに互いに大きさが同一のR(red)サブピクセル、G(green)サブピクセル、及びB(blue)サブピクセルが含まれているサブピクセル構造を有する。一方、ペンタイルパネルに含まれたRサブピクセル、Gサブピクセル、及びBサブピクセルの大きさは互いに異なってもよい。1つのピクセル内において、GサブピクセルとRサブピクセルは対角方向に配置されてもよい。また、1つのピクセル内において、GサブピクセルとBサブピクセルは対角方向に配置されてもよい。1つのピクセル内のサブピクセルの配置は多様に変形されてもよい。また、Rサブピクセル、Gサブピクセル、及びBサブピクセルのそれぞれの大きさ及び形態は多様に変形されてもよい。
光学層103は、レンチキュラレンズ(Lenticular Lens)、パララックスバリア(Parallex Barrier)、レンズアレイ、及びマイクロレンズアレイなどの光学フィルタを含んでもよい。また、光学層103は、方向性バックライトユニット(directional back light unit)を含んでもよい。本発明の実施形態における光学層103は、前述した光学フィルタに限定されることなく、ディスプレイの前面又は後面に配置できる全ての形態の光学層を含んでもよい。
パネル101に含まれたサブピクセルから出力される光線方向は、光学層103を介して決定される。サブピクセルのそれぞれから出力される光は、光学層103を通過しながら特定方向に放射される。このような過程を介して、ライトフィールドレンダリング装置100は、立体画像又は全ての視点画像を表現することができる。ライトフィールドレンダリング装置100の光学的特性は、パネル101に含まれたサブピクセルの光線方向に関連する特性を含んでもよい。
光学層103は、複数の光学素子104,105を含む。それぞれの光学素子は3D画素と呼んでもよい。1つの3D画素は、様々な方向に他の情報を含む光線を出力することができる。例えば、光学層103に含まれた1つの3D画素から15×4方向の光線110が出力されてもよい。ライトフィールドレンダリング装置100は、複数の3D画素を用いて3次元空間上の点を表現することができる。
ここで、パネル101のサブピクセル構造によってパネル101内のサブピクセルの位置及び/又は大きさが変わるため、パネル101のサブピクセル構造によってパネル101内の各サブピクセルから出力される光線方向が変わり得る。
ライトフィールドレンダリング装置100の他の詳細事項は図20を参照して説明する。
図2は、本発明の一実施形態に係るライトフィールドレンダリング装置の視覚領域(viewing area)が複数のビューアを含む場合を示す図である。ビューアは視聴者又はユーザ等と言及されてもよい。以下、説明の便宜のためにサブピクセル単位でレンダリングが行われる本発明の実施形態を説明する。しかし、本発明の実施形態に係るライトフィールドレンドレンダリング装置は、ピクセル単位でレンダリングが行われるように変形されてもよい。この場合、同一のピクセルに含まれたサブピクセルは、実質的に同一の光の進行方向を有するなどの相互関係があり得る。
図2を参照すると、パネル101のサブピクセルのそれぞれの光線方向が光学層103内のいずれか1つの光学素子の中心を通過する方向に向かって、サブピクセルのそれぞれの光線方向に沿って伝播される光が複数のビューア210,230の両眼に到達する状況が示されている。
複数のビューア210,230を考慮する前に、ライトフィールドレンダリング装置の視覚領域内にビューアが1人いる場合、ビューアの両眼に対応する画像は次のように決定してもよい。例えば、サブピクセルの光線方向に沿って伝播される光がビューアの右眼よりユーザの左眼にさらに近くに到達すると判断される場合、当該サブピクセルは、左側の画像に対応すると決定することができる。また、サブピクセルの光線方向に沿って伝播される光がユーザの左眼よりユーザの右眼にさらに近く到達すると判断される場合、当該サブピクセルは、右側の画像に対応すると決定することができる。
ライトフィールドレンダリング装置の視覚領域内に複数のビューア210,230がいて、複数のビューア210,230が独立的に視聴位置を決定すると仮定する。
複数のビューア210,230を含む視覚領域を表現しようとするには、広い視野角とその視野角内における各ビューアの両眼間隔に互いに異なる画像を表現できるように多くのビューの数又は光線の数が必要になる。いずれか1つのサブピクセルで表現するビューの数又は光線の数が多くなれば、結果的にライトフィールドレンダリング装置が表現する1つのビュー画像の解像度が低くなり得る。
また、いずれか1つのサブピクセルで表現するビューの数又は光線の数が多くなれば、複数のビューア210,230のそれぞれの視野角において多くのビュー又は多くの光線の間の干渉によるクロストークが発生し得る。
図3は、本発明の一実施形態に係るライトフィールドレンダリング方法を説明するための図である。図3を参照すると、本発明の一実施形態に係るライトフィールドレンダリング装置(以下、「レンダリング装置」)の視覚領域内に複数のビューア310,330があり、複数のビューア310,330が1つの視点領域でない互いに異なる視点領域315,335にある状況が示されている。レンダリング装置は、ソフトウェアモジュール、ハードウェアモジュール、又は、これらの様々な組み合わせで実現してもよい。
例えば、レンダリング装置は、図1及び図20の構成要素の組む合わせを含んでもよい。本発明の他の実施形態におけるレンダリング装置は、例えば、図20の2010のようなプロセッサ(例えば、特殊目的のプロセッサ)によって実現されてもよい。
レンダリング装置は、レンズを用いて互いに異なる方向の光線を実現することができる。ここで、パネル101は、画像を表現するサブピクセルで構成される。光学層103は、各サブピクセルから放射される光を特定方向に制限する役割をする光学素子の集合である。
本発明の一実施形態に係るレンダリング装置は、ビューアに優先順位を定めて、相対的に優先順位が高い(又は優先順位が最も高い)ビューアに優先的に画像を表現することができる。レンダリング装置は、各サブピクセルから放出される光線と複数ビューアの眼に向かう光線方向との関係を用いてどのビューアのどちらの眼にいかなるコンテンツを見せるようとするのかを決定することによって、複数ビューアに対応したライトフィールドレンダリングを実現することができる。以下、複数のビューアのうち優先順位が最も高いビューアを「第1のユーザ」と呼び、その次の優先順位のビューアを「第2のユーザ」と呼ぶことにする。
ビューアの優先順位は様々な方式で決定されてもよい。例えば、ビューアの優先順位は、ビューアのうちいずれか1人の入力を受信して決定されてもよい。このために、リモコン、スマートフォンなどの外部入力装置による入力、動作、又はジェスチャー認識による入力、音声認識による入力などの様々な方式の入力インターフェースが提供されてもよい。又は、顔認識方式を用いて自動的にビューアの優先順位が決定されてもよい。一例として、ビジョンセンサを介して複数のビューアの顔が認識され、認識されたビューア及び予め登録されたメインユーザのリストに基づいてビューアの優先順位が決定されてもよい。前述した方式は例示的な事項に過ぎず、ビューアの優先順位を決定する方式は多様に変形されてもよい。
複数のユーザがいる場合、レンダリング装置は、第1のユーザ310の左眼を基準として視点領域の幅ほどの領域を定義し、定義された領域内に全てのユーザの眼方向を表示することができる。ここで、第2のユーザ330の眼が第1の視点領域315に隣接する第2の視点領域335に存在すれば、レンダリング装置は、第2のユーザ330の眼の位置を第1の視点領域315に該当する方向に移して表示する。この過程を本明細書では、「視線マッピング過程(eye direction mapping process)」と呼ぶことにする。視線マッピング過程は図6を参照して説明する。
レンダリング装置は、1つの視点領域内にマッピングされた両眼に対する方向範囲の大きさ及び配列順序などを基に両眼に表現する画像(あるいはコンテンツ)を決定する。レンダリング装置は、例えば、両眼方向を基に光線方向の範囲に入射する光線にどのビュー画像(あるいはコンテンツ)を決定するかを決定することができる。この過程を本明細書では「コンテンツ決定過程(content determining process)」と呼ぶことにする。コンテンツ決定過程は図11〜図15を参照して説明する。
コンテンツ決定過程において、隣接する光線方向の範囲の中心方向が一定の大きさに近い場合、レンダリング装置は、互いに隣接する光線方向の範囲が互いに同じ画像(コンテンツ)を表現するように決定する場合がある。これは、隣接する光線方向の範囲の中心方向が一定の大きさに近い場合に互いに異なる画像を表現すことになれば、クロストークが大きく発生し得るからである。ここで、レンダリング装置は、第1のユーザ310が常に指定された3D画像(例えば、2番と3番のぺアの3D画像)を見れるようにすることによって第1のユーザ310のための画像は変更されないようにすることができる。また、レンダリング装置は、第1のユーザ310が指定された3D画像を見るための最小限の光線方向の範囲を定義し、最小限の光線方向の範囲より小さい方向範囲には画像が決定されないようにすることができる。
上述した過程を経て第1のユーザ310が常に指定された3D画像を見ることができるとき、レンダリング装置は、第1のユーザ310に提供される画像(コンテンツ)を表現するための最小限のピクセルリソースを除いた残りのピクセルリソースを第2のユーザ330を含む他のユーザのための画像(コンテンツ)を表現するのに用いることができる。
レンダリング装置は、光学層103とパネル101に含まれたサブピクセルの位置関係によって決定された、サブピクセルから放射される光線方向を含む光線方向の範囲において表現すべき画像(コンテンツ)に対するサブピクセルの値を決定することができる。以下、サブピクセルの値を決定する過程は図16を参照して説明する。
本発明の一実施形態においては、パネルのサブピクセルのそれぞれが提供する視点領域が繰り返されることを利用して高解像度を実現することができる。また、本発明の一実施形態においては、第1のユーザ310と第2のユーザ330のどちらか片方の眼に同じ画像を表現することによって、ユーザ310,330のそれぞれの視野角内における多くのビュー又は多くの光線の間の干渉によるクロストークの発生を防止することができる。
図4は、本発明の一実施形態に係るライトフィールドレンダリング方法を示したフローチャートである。
図4を参照すると、本発明の一実施形態に係るレンダリング装置は、第1のユーザの両眼の位置及び第2のユーザの両眼の位置をディスプレイ領域(例えば、ピクセル)に対応する視点領域にマッピングする(S410)。ここで、視点領域は、パネルに属したピクセルと光学層に属した光学素子のペアに対応するビューコーン(view cone)を含んでもよい。レンダリング装置は、例えば、ピクセルと光学層に属する複数の光学素子の間の相対的な位置による繰り返し特性に基づいて、第1のユーザの両眼の位置及び第2のユーザの両眼の位置を視点領域にマッピングすることができる。
レンダリング装置は、マッピングされた第1のユーザの両眼の位置及びマッピングされた第2のユーザの両眼の位置に基づいて、ディスプレイ領域(例えば、ピクセル)の値を決定する(S420)。レンダリング装置は、例えば、ピクセルの光線方向が第1のユーザに対応する場合、第1のユーザの両眼の位置で立体画像が再生されるようにピクセルの値を決定することができる。また、レンダリング装置は、光線方向が第2のユーザに対応する場合、第2のユーザの両眼のうち少なくとも1つ眼の位置で立体画像の左側の画像又は右側の画像が再生されるようにピクセルの値を決定することができる。ここで、光線方向は、ピクセル及び光学層に含まれた光学素子によって伝播される光線方向を含んでもよい。
上述したようにレンダリング装置は、サブピクセル単位でレンダリングを行ってもよい。この場合、ステップS410及びステップS420に記述された「ピクセル」はサブピクセルとして理解されてもよい。本発明の一実施形態に係るレンダリング装置は、サブピクセルの光線方向がステップS410においてマッピングされたどのユーザのどちらの眼の位置に対応するかによって、例えば、下記の表1のようにサブピクセルの値を決定することができる。
以下、表1において、表示の簡略化のために第1のユーザの左眼を「1L」とし、第1のユーザの右眼を「1R」と表現し、第2のユーザの左眼を「2L」とし、第2のユーザの右眼を「2R」と表現した。また、表1において、マッピングされたユーザの眼の位置関係において用いられた記号
Figure 0006886253
は、当該記号の左側と右側に位置する各ユーザの眼の位置が対応することを示す。第1のユーザの眼の位置と第2のユーザの眼の位置とが画像分離表現(image separation and display)のための最小間隔内に隣接した場合を示す。例えば、
Figure 0006886253
は、i)2Lと1Lとの間の距離、ii)2Lと1Rとの間の距離、iii)2Rと1Lとの間の距離、及びiv)2Rと1Rとの間の距離のうち2Lと1Lとの間の距離が最小の場合を示すことができる。
Figure 0006886253
表1において、サブピクセルの光線方向が、マッピングされた第1のユーザの左眼の位置に対応する場合(光線方向:1L)、レンダリング装置は、立体画像の左側の画像(2ndview)に基づいてサブピクセルの値を決定する。また、光線方向がマッピングされた第1のユーザの右眼の位置に対応する場合(光線方向:1R)、レンダリング装置は、立体画像の右側の画像(3rdview)に基づいてサブピクセルの値を決定する。
サブピクセルの光線方向がマッピングされた第2のユーザの左眼の位置に対応する場合(光線方向:2L)、ユーザの間の眼の位置関係によってサブピクセルの値を決定する。例えば、マッピングされた第2のユーザの左眼の位置がマッピングされた第1のユーザの左眼の位置に対応する場合
Figure 0006886253
レンダリング装置は、第1のユーザのための立体画像の左側の画像(2ndview)に基づいてサブピクセルの値を決定する。ここで、第1のユーザの左眼1Lには、2ndviewが再生されるように保障されなければならないため、第2のユーザの左眼2Lのためのサブピクセルの値は、2ndviewに基づいて決定される。また、マッピングされた第2のユーザの左眼の位置がマッピングされた第1のユーザの右眼の位置に対応する場合
Figure 0006886253
レンダリング装置は、第1のユーザのための立体画像の右側の画像に基づいてサブピクセルの値を決定する。ここで、第1のユーザの右眼1Rには、3rdviewが再生されるように保障されなければならないため、第2のユーザの左眼2Lのためのサブピクセルの値は、3rdviewに基づいて決定される。
また、マッピングされた第2のユーザの右眼の位置がマッピングされた第1のユーザの左眼の位置に対応する場合
Figure 0006886253
レンダリング装置は、第1のユーザのための立体画像の左側の画像又は左側の画像よりさらに左側の視点の画像に基づいてサブピクセルの値を決定する。ここで、第1のユーザの左眼1Lには、2ndviewが再生されるように保障されなければならないため、第2のユーザの右眼2Rにも2ndviewが再生されなければならない。この場合、第2のユーザの左眼2Lのためのサブピクセルの値は、1stview又は2ndviewに基づいて決定される。
一例として、ユーザの間の相対的位置関係によって第2のユーザに立体画像を提供することが可能であれば、第2のユーザの左眼2Lのためのサブピクセルの値は、1stviewに基づいて決定される。この場合、第2のユーザの右眼2Rには2ndviewが再生され、第2のユーザの左眼2Lには1stviewが再生されるため、第2のユーザは立体画像を視聴することができる。他の例として、ユーザの間の相対的位置関係によって第2のユーザに立体画像を提供することが不可能であれば、第2のユーザの左眼2Lのためのサブピクセルの値は2ndviewに基づいて決定される。この場合、第2のユーザの右眼2R及び左眼2Lの両眼に2ndviewが再生されるため、第2のユーザは単画像を視聴することができる。
また、マッピングされた第2のユーザの右眼の位置がマッピングされた第1のユーザの右眼の位置に対応する場合
Figure 0006886253
レンダリング装置は、左側の画像又は立体画像の右側の画像に基づいてサブピクセルの値を決定する。ここで、第1のユーザの右眼1Rには、3rdviewが再生されるように保障されなければならないため、第2のユーザの右眼2Rにも3rdviewが再生されなければならない。この場合、第2のユーザの左眼2Lのためのサブピクセルの値は、2ndview(立体画像)又は3rdview(単画像)に基づいて決定される。
サブピクセルの光線方向がマッピングされた第2のユーザの右眼の位置に対応する場合(光線方向:2R)、ユーザの間の眼の位置関係によってサブピクセルの値を決定する。例えば、マッピングされた第2のユーザの右眼の位置がマッピングされた第1のユーザの左眼の位置に対応する場合
Figure 0006886253
レンダリング装置は、第1のユーザのための立体画像の左の画像(2ndview)に基づいてサブピクセルの値を決定する。また、マッピングされた第2のユーザの右眼の位置がマッピングされた第1のユーザの右眼の位置に対応する場合
Figure 0006886253
レンダリング装置は、立体画像の右側の画像(3rdview)に基づいてサブピクセルの値を決定する。また、マッピングされた第2のユーザの左眼の位置が前記マッピングされた第1のユーザの左眼の位置に対応する場合
Figure 0006886253
レンダリング装置は、第1のユーザのための立体画像の左の画像(2ndview)又は立体画像の右側の画像(3rdview)に基づいてサブピクセルの値を決定する。また、マッピングされた第2のユーザの左眼の位置がマッピングされた第1のユーザの右眼の位置に対応する場合
Figure 0006886253
レンダリング装置は、右側の画像(3rdview)又は右側の画像よりさらに右側の視点の画像(4thview)に基づいてサブピクセルの値を決定する。
本発明の一実施形態に係るサブピクセルの値を決定する方法は、上述したようなユーザの数が2人の場合だけでなく3人以上の場合にも同一に適用することができる。ここで、3人以上のユーザのためのサブピクセルの値は、上述のユーザが2人の場合と同じ方式で決定することができる。
前記及び以下の説明の観点から、レンダリング装置は、i)立体画像から複数の画像のうちの1つ以上の画像、ii)第2のユーザ(例えば、ユーザ630の眼の変換された位置)及び第1のユーザ(例えば、ユーザ510の実際の眼の位置)の間の関係、及びiii)領域の光線方向(ここで、光線方向は、光線が領域からディスプレイに関連する、例えば、光学層103からの光学素子の中心を経て通過する方向)に基づいて領域(例えば、ピクセル又はサブピクセル)の値を決定することができる。
本発明の一実施形態において、光線方向にマッピングされる各ユーザの眼の位置及び各ユーザの眼の間の関係によって発生し得る様々な状況に関しては、図13〜図15を参照する。以下においては、ユーザの両眼の位置をサブピクセルに対応する視点領域でマッピングする前に、図5を参照してユーザの眼の位置を検出する方法を説明する。
図5は、本発明の一実施形態に係るライトフィールドレンダリング装置がユーザの眼の位置を検出する過程を説明するための図である。図5を参照すると、本発明の一実施形態に係るレンダリング装置のパネル101に含まれたサブピクセル102から第1のユーザ510に向かう方向が光学層103に含まれた光学素子104の領域を通過して、第2のユーザ530に向かう方向が光学素子105の領域を通過する状況が示されている。
サブピクセル102は、様々な方向に光を出力してもよい。光が出力される方向は光線方向と呼ぶ。サブピクセル102から出力される光は、光学層103を通過しながら光線方向が量子化される形態で出力されてもよい。例えば、サブピクセル102から出力される光線方向は、光学層103に含まれた光学素子104,105のそれぞれの中心を通過する方向に量子化されてもよい。
ここで、サブピクセル102から第1のユーザ510の左眼1L(513)に向かう第1の方向501と、第1のユーザ510の右眼1R(516)に向かう第2の方向502が光学素子104の領域を通過すると仮定する。また、サブピクセル102から第2のユーザ530の左眼2L(533)に向かう第3の方向503と第2のユーザ530の右眼2R(536)に向かう第4の方向504が光学素子105の領域を通過すると仮定する。
レンダリング装置は、第1のユーザ510の両眼513,516の位置を含む第1の情報及び第2のユーザ530の両眼533,536の位置を含む第2の情報を受信してもよい。レンダリング装置は、例えば、各ユーザの両眼の位置を追跡するセンサからユーザの両眼の位置に関する情報を含む信号を受信することができる。また、レンダリング装置は、サブピクセル102から各ユーザの両眼に向かう方向を各ユーザの眼の位置を用いて決定することができる。
レンダリング装置は、ユーザの両眼に向かう方向に基づいて、パネル101に含まれたサブピクセル102が各ユーザの左眼と右眼のうちどちらの眼に対応するかを決定することができる。
レンダリング装置は、例えば、サブピクセル102の光線方向を算出してもよい。例えば、サブピクセル102から出力された光線は、光学層103内の光学素子104,105の中心を通過する方向に伝播してもよい。レンダリング装置は、パネル101と光学層103の間の距離、パネル101内のサブピクセル102の位置、及び光学層103内の素子のうちサブピクセル102から出力された光線が通過する光学素子104,105の位置のうち少なくとも1つに基づいて、サブピクセル102の光線方向を算出してもよい。以下、サブピクセルから出力された光は、LEDのように自主的に発光するサブピクセルから出力される光だけでなく、LCDのようにバックライトの光を透過させるサブピクセルから出力される光を全て含んでもよい。
サブピクセル102の光線方向によって伝播される光は、第1のユーザ510又は第2のユーザ530の視点に対応してもよい。レンダリング装置は、サブピクセル102の光線方向によって伝播される光が到達する位置に対応するユーザの視点を選択してもよい。
以上、レンダリング装置がサブピクセルの光線方向に基づいてサブピクセルに対応する視点及びサブピクセルに対応する領域を決定する動作方式を説明したが、本発明の実施形態は、レンダリング装置がテーブル(例えば、ルックアップテーブル(Lookup Table:LUT))からサブピクセルに対応する視点及びサブピクセルに対応する領域を取得する動作方式に変形してもよい。
例えば、全ての視点画像を撮影する距離、全ての視点画像を撮影する画角、全ての視点画像を撮影する方向、又は、全ての視点画像のためのカメラパラメータなど、全ての視点画像を撮影する条件が標準化される場合、任意のサブピクセルに対応する視点及び当該サブピクセルに対応する領域は定められてもよい。テーブルは、パネル101のサブピクセルの構造によって、パネル101に含まれたサブピクセルに対応する視点及び領域に関連する情報を格納してもよい。この場合、レンダリング装置は、テーブルを参照することによって、サブピクセルに対応する視点及びサブピクセルに対応する領域を決定することができる。
図6は、本発明の一実施形態に係るライトフィールドレンダリング装置がユーザの視線をマッピングする過程を説明するための図である。
図6を参照すると、サブピクセルから複数のユーザの両眼に向かう方向を1つのビューコーンに対応する方向にマッピングした結果が示されている。
図6において、第1のユーザ510の左眼に向かう第1の方向501と、第1の方向501が光学層103を通過する第1の位置601から1つの光学素子104の幅ほど離れた第2の位置602を定義する。ここで、パネル101のサブピクセル102と光学層103に含まれた光学素子104に対応する方向範囲を視覚領域(例えば、「ビューコーン650」)として定義する。言い換えると、サブピクセル102を中心に第1の位置601を通過する方向501とサブピクセル102を中心に第2の位置602を通過する方向605との間の方向範囲をビューコーン650として定義する。
レンダリング装置は、例えば、光学層103のパターン周期と、光学層103とサブピクセル102が位置するパネル101との間の距離を用いてビューコーンの大きさを決定することができる。レンダリング装置がビューコーンの大きさを決定する方法は図7を参照して説明する。
レンダリング装置は、サブピクセル102から放出された光線が複数のユーザ510,530の眼に向かう方向を算出し、光線が各ユーザの眼に向かう方向を1つのビューコーンに対応する方向にマッピングする。
レンダリング装置は、各サブピクセルから複数のユーザのそれぞれの眼に向かう方向を算出する。ここで、レンダリング装置は、最も優先順位が高いユーザの眼方向(例えば、第1のユーザ510の左眼1L(513)の方向)を基準として1つのビューコーン650に該当する方向範囲を定める。レンダリング装置は、ビューコーン650に該当する方向範囲内にないユーザ(例えば、第2のユーザ530)の眼方向をビューコーン650の方向範囲内にマッピングする。
言い換えると、レンダリング装置は、視覚領域(例えば、図3のビューコーン335)から他の視覚領域(例えば、ビューコーン(図3の315又は図6の650))に第2のユーザの眼の位置を変換させることができる。レンダリング装置は、第2のユーザの変換された眼の位置633,636及び第1のユーザの実際の眼の位置513,516に基づいてサブピクセル102の値をすることができる。
図5において説明したように、第2のユーザ530の左眼2L(533)と右眼2R(536)に伝播される光は、光学素子105の領域を通過したものであるため、ビューコーン650内に存在しないものを見ることができる。この場合、第2のユーザ530の両眼に提供される光が光学素子105の領域を通過する代わりに光学素子104の領域を通過することに変換されれば、第2のユーザ530は、第2のユーザ630によって見える位置に変換される。これと共に、第2のユーザ530の左眼2L(533)の位置は新しい位置2L’(633)に変換され、第2のユーザ530の右眼2R(536)の位置は新しい位置2R’(636)に変換される。また、第3の方向503は新しい第3の方向603に、第4の方向504は新しい第4の方向604に変換される。
このように変換できる理由は、サブピクセル102から光学素子105を通過する光線と第3の方向503、第4の方向504との間の関係が、サブピクセル102から光学素子104を通過する光線と新しい第3の方向603、新しい第4の方向604との間の関係が同じだからである。
レンダリング装置は、サブピクセル102から第1のユーザ510と第2のユーザ530の両眼に向かう方向501,502,503,504をビューコーン650内にマッピングして最終的に方向501,502,603,604を得てもよい。
1つのビューコーンを基準として各ユーザの眼方向をマッピングした後、レンダリング装置は、マッピングされた方向を基準として両眼に見える画像を表現する光線方向の範囲を決定してもよい。光線方向の範囲は、例えば、所望する(又は予め定義された)方向の差ほどの幅を有した範囲として決定することができる。光線方向の範囲を決定する方法は、図8〜図10を参照して説明する。以下、ビューコーン650内にマッピングされた第2のユーザ630の位置を中心にレンダリング装置の動作を説明する。
図7は、本発明の一実施形態に係るビューコーンの大きさを決定する方法を説明するための図である。
図7を参照すると、ビューコーン710及びビューコーン710内における第1のユーザの両眼701,702の位置及び第2のユーザの両眼703,704705,706の位置が示されている。
第1のユーザの両眼701,702は、最適な視聴距離において左眼701と右眼702との間に1IPDの間隔を有する。ここで、IPD(Inter−Pupil Distance)は、両眼の瞳孔中心の間の距離を示す。第2のユーザの両眼703,704,705,706が第1のユーザの両眼の間に位置しない場合においても、第1のユーザのどちらか片方の眼を基準に、最小の分離可能な間隔(minimum separable distance)である0.5IPD以上の差が必要である。「最小の分離可能な距離(間隔)」は、互いに異なるコンテンツの間にクロストークが発生しないようにするために(又はクロストークを減らすために)、所望する最小限の距離(間隔)として定義される。
図7(a)のように、第2のユーザのどちらか片方の眼(左眼L2(703))が第1のユーザの両眼701,702の間の中央に位置する場合、第2のユーザの左眼L2(703)は、第1のユーザの両眼701,702のうちどちらか片方の眼と同様の画像が表現されることになる。
例えば、第2のユーザの左眼L2(703)に第1のユーザの右眼R1(702)と同様の画像が表現されると仮定する。ここで、互いに異なる画像を表現される第1のユーザの左眼L1(701)と第2のユーザの左眼L2(703)には、画像を割り当ててもクロストークが発生しないように(又はクロストークを減らすために)、互いに最小の分離可能な間隔(例えば、0.5IPD)を設定することができる。
例えば、図7(b)のように、ビューコーン710内に第1のユーザの両眼701,702と共に第2のユーザの両眼703,704を位置させようとする場合を説明する。
ここで、第2のユーザの左眼703が第1のユーザの右眼702から0.5IPDよりもう少しさらに右側に離れた所に位置したり、又は、第2のユーザの右眼706が第1のユーザの左眼701よりもう少しさらに左側に離れた所に位置する場合、各ユーザの両眼のそれぞれのためのコンテンツがよく分離され得る。つまり、最適な視聴距離において3IPD以上のビューコーンの大きさを有する場合、レンダリング装置は、2人のユーザのそれぞれのためのコンテンツをよく分離することができる。レンダリング装置は、2人のユーザのためのビューコーン710が最適な視聴距離において3IPD以上の大きさを有するように決定することができる。
図8は、本発明の一実施形態に係るレンダリング装置が光線方向の範囲を決定する過程を説明するための図である。図8を参照すると、レンダリング装置が各眼に向かう方向の間の中間値を境界として光線方向の範囲を決定する方法が示されている。
レンダリング装置は、サブピクセル102から光学素子104を通過して各眼に向かう方向501,502,603,604,605の中間値に該当する方向801,802,803,804を各眼に該当する光線方向の範囲の境界として決定する。
レンダリング装置は、例えば、第1のユーザ510の左眼513のための光線方向の範囲は、方向501〜801の領域と方向804〜605の領域として、第1のユーザ510の右眼516のための光線方向の範囲は、方向801〜802の領域として決定する。また、第2のユーザ630の左眼633のための光線方向の範囲は、方向802〜803の領域として、第2のユーザ630の右眼636のための光線方向の範囲は、方向803〜804の領域として決定する。
以下、サブピクセル102に対応して所望する(又は予め決定した)視点領域(例えば、ビューコーン650)のうち各ユーザの眼のための光線方向の範囲の境界によって決定される一部領域を「サブ視点領域(sub−view area)」と呼ぶことにする。例えば、方向501〜801の領域、方向804〜605の領域、方向801〜802の領域、方向802〜803の領域、方向803〜804の領域などがサブ視点領域に該当する。
図9は、本発明の他の実施形態に係るレンダリング装置が光線方向の範囲を決定する過程を説明するための図である。
図9を参照すると、レンダリング装置が各眼に向かう方向を中心に一定の大きさを有する領域を境界として光線方向の範囲を決定する方法が示されている。
レンダリング装置は、第1のユーザの左眼513に向かう方向501を基準として右側に一定の大きさほど離れた方向901を決定し、方向501と同等に見える方向605を基準として左側に一定の大きさほど離れた方向902を決定する。
ここで、サブピクセル102から放出される光線方向が方向501から方向901の間の領域と方向902から方向605の間の領域に該当する場合、サブピクセル102は、第1のユーザの左眼513に見える画像を表現することになり、方向501から方向901の間の領域と方向902から方向605の間の領域は、第1のユーザの左眼513のための光線方向の範囲と見ることができる。
同様に、レンダリング装置は、第1のユーザの右眼516に向かう方向502を基準として左側に一定の大きさほど離れた方向903を決定し、方向502を基準として左側に一定の大きさほど離れた方向903と右側に一定大きさほど離れた方向904を決定する。
図9において、方向903と方向502のと間の間隔と方向502と方向904のと間の間隔が異なることを確認することができる。これは、方向903と方向502との間の間隔ほどの方向502から右側に離れた方向が、第1のユーザ510の右眼516に向かう方向502と第2のユーザ630の左眼633に向かう方向603との中間に該当する方向よりさらに右側に向かってしまったからである。
レンダリング装置は、眼の間の間隔が所望する(又は予め決定した)大きさほど確保できない場合、両眼に向かう各方向の中間方向を境界として決定してもよい。したがって、方向904は、方向502と方向603との中間方向に表現されてもよい。
同様に、レンダリング装置は、第2のユーザ630の左眼633に向かう方向603を基準として左側と右側への光線方向の範囲の境界をそれぞれ方向904と方向905として決定してもよい。レンダリング装置は、第2のユーザ630の右眼636に向かう方向604を基準として左側と右側への光線方向の範囲の境界をそれぞれ方向906と方向907として決定してもよい。
もし、図9において、ユーザの眼に向かう方向を中心に決定された光線方向の範囲の大きさが十分に大きくなければ、サブピクセル102から放出される光線方向がどのユーザの眼のための光線方向の範囲にも含まれない場合がある。この場合、サブピクセル102から放出される光は、どちらのユーザの眼のための画像表現にも使われない。
図10は、本発明の他の実施形態に係るレンダリング装置が光線方向の範囲を決定する過程を説明するための図である。図10を参照すると、レンダリング装置が一度決定された光線方向の範囲に修正を加える場合が示されている。
光線方向の範囲は、第1のユーザ510の視聴環境を優先するという意味で、一度決定された後にも修正を加えることができる。
レンダリング装置は、第1のユーザ510の左眼513を中心に方向501〜1001の領域、方向1002〜605の領域を最小の表示領域(minimum display area)に設定することができる。ここで、「最小の表示領域」は、許容可能な最小の分離距離内にある領域として定義される。許容可能な最小の分離距離とは、許容可能な範囲のクロストークを発生させる最小距離であって、2つの位置の中央を基準として両側に互いに異なる画像を表現したとき、両側の位置全てに予め指定された一定水準以下のクロストークを発生させる最小距離を意味する。一般的にはクロストークを発生させない最小距離を設定する。
ここで、最小の表示領域(方向1002〜605の領域)は、例えば、図8において設定した方向501〜801の領域と方向804〜605の領域とに該当する光線方向の範囲に含まれる。したがって、レンダリング装置は、光線方向の範囲を修正することができない場合がある。
上述のような方法によって、レンダリング装置は、第1のユーザ510の右眼516を中心に方向1003〜1004の領域を最小の表示領域として設定する。ここで、最小の表示領域(方向1003〜1004の領域)の一部が、例えば、図8において設定した光線方向の範囲を逸脱することになるため、レンダリング装置は、光線方向の範囲を修正することができる。ここで、修正される光線方向の範囲は、第1のユーザ510の右眼516と第2のユーザ630の左眼633の光線方向の範囲であってもよい。
第1のユーザ510の右眼516のための光線方向の範囲は、方向801〜802の領域から方向801〜1004の領域に拡張され、第2のユーザ630の左眼633のための光線方向の範囲は、方向802〜803領域から方向1004〜803領域に縮小されてもよい。
図11は、本発明の一実施形態に係るレンダリング装置がサブ視点領域ごとのコンテンツを決定する過程を説明するための図である。
本発明の一実施形態に係るレンダリング装置は、光線方向の範囲を決定する過程を経て決定された光線方向の範囲情報を用いて各光線方向の範囲にどんな画像を表現するかを決定する。レンダリング装置は、例えば、第1のユーザ510の左眼513と右眼516の光線方向の範囲に所望する(又は予め指定された)立体画像が表現されるように決定してもよい。レンダリング装置は、第1のユーザ510のために必要なサブピクセル以外に残ったリソースを用いて第2のユーザ630のための画像を表現してもよい。
第1のユーザ510の両眼513,516にどんな画像を表現されるようにするかを決定した後、レンダリング装置は、第2のユーザ630の左眼633と右眼636の光線方向の範囲にどんな画像を表現させるかを決定してもよい。より効率的なリソースの利用のために、レンダリング装置は、第2のユーザ630の左眼633と右眼636のうち少なくとも片方の眼が第1のユーザ510の片方の眼で見れるコンテンツと同様のコンテンツを見れるようにしてもよい。
レンダリング装置は、例えば、各光線方向の範囲とサブピクセル102から両眼に向かう方向の関係に基づいて、第2のユーザ630の左眼633と右眼636の光線方向の範囲にどんな画像を表現するかを決定することができる。レンダリング装置が各ユーザの両眼にどんな画像を表現するか決定する具体的な方法を図12〜図15を参照して説明する。
図12は、本発明の他の実施形態に係るレンダリング装置がサブ視点領域ごとのコンテンツを決定する過程を説明するための図である。
図12を参照すると、ビューコーン内における2人のユーザの両眼の位置関係によって各サブ視点領域ごとに表現される画像(コンテンツ)が示されている。
1つのサブピクセルに対する入力画像1210は、1、2、3、4番の4つのビュー画像とする。ここで、4つのビュー画像のそれぞれは、それぞれ1IPD離れた画像であって、隣接した番号の画像を左眼と右眼で視聴したとき、現在の一般的な立体画像のような程度の奥行き感を感じることができる。
本発明の一実施形態においては、各サブピクセルに対して、第1のユーザのビューコーンを基準として第2のユーザの方向及び両眼方向の領域を区分する。また、第1のユーザに常に2番の画像と3番の画像のペアを提供し、第2のユーザには下記において説明する各場合に応じて対応する画像を提供する。
図12に示されたビューコーンにおいては、1つのサブピクセルから放出された光線方向が属する領域の画像をサブピクセルの値で表現することができる。
以下においては、ビューコーン内における第1のユーザの左眼1Lと第1のユーザの右眼1R及び第2のユーザの左眼2Lと第2のユーザの右眼2Rの位置関係によって各ユーザの眼に対応して再生される画像を説明する。
図12(a)は、第2のビューアが3番の画像と4番の画像を視聴する場合を示し、図12(b)は、第2のビューアが2番の画像と3番の画像を視聴する場合を示し、図12(c)は、第2のビューアが1番の画像と2番の画像を視聴する場合を示す。
例えば、図12(a)のように、第2のユーザの左眼2Lと第1のユーザの右眼1Rが近くにあったり、又は第1のユーザの左眼1L、第1のユーザの右眼1R、第2のユーザの左眼2L、第2のユーザの右眼2Rの順に配置されており、第1のユーザの右眼1Rと第2のユーザの左眼2Lとの間隔が第2のユーザの右眼2Rと第1のユーザの左眼1Lとの間隔より小さいとする。この場合、レンダリング装置は、第1のユーザの左眼1Lに2番の画像が、第1のユーザの右眼1Rと第2のユーザの左眼2Lに3番の画像が、第2のユーザの右眼2Rに4番の画像が再生されるようにすることができる。図12において、ビューコーンの右端に点線で表示された「1L」は、ビューコーン領域が繰り返される特徴によってビューコーンの左端にある第1のユーザの左眼1Lと同じ位置にあるといえる。
図12(b)のように、第1のユーザの左眼1Lと第2のユーザの左眼2Lが2番の画像に対応するサブ視点領域内において近くにあり、第1のユーザの右眼1Rと第2のユーザの右眼2Rが3番の画像に対応するサブ視点領域内において近くにあると仮定する。この場合、レンダリング装置は、各ユーザの左眼1L,2Lが2番の立体画像を視聴し、各ユーザの右眼1R,2Rが3番の立体画像を視聴するようにすることができる。
また、図12(c)のように、第1のユーザの左眼1Lと第2のユーザの右眼2Rが2番の画像に対応するサブ視点領域内において近くにあり、第1のユーザの左眼1L、第1のユーザの右眼R1、第2のユーザの左眼2L、第2のユーザの右眼2Rの順に配置されていると仮定する。この場合、レンダリング装置は、第1のユーザの左眼1L及び第2のユーザの右眼2Rにおいて2番の画像が再生され、第1のユーザの右眼R1において3番の画像が、第2のユーザの左眼2Lにおいて1番の画像が再生されるようにすることができる。
以下、図13〜図15においては、図12の(a)、(b)、(c)のような環境において、各ユーザの眼の位置によって視聴距離が類似したり、又は類似しない様々な場合を説明する。
図13〜図15においては、ビューコーンの領域を長方形の幅で表現し、横方向の位置は、ビューコーン内の1つの方向で表現する。また、ビューコーン内に各ユーザの眼が該当する方向を横方向の位置で表現する。本発明の一実施形態に係るレンダリング装置は、ビューコーン内に位置する各ユーザの両眼の間の中心点に境界をひいて、境界の間の領域に適切な視点を決定する。
以下、図13〜図15において、点線で表示された距離は、実線で表示された距離より短く示し、二点鎖線は、最小の分離可能な間隔を示す。
本発明の一実施形態に係るコンテンツ(画像)を決定するための手段(policy)において、第1のユーザの両眼に対応して常に2番の画像と3番の画像が再生されるようにするため、レンダリング装置は、第1のユーザの左眼1Lには2番の画像を決定し、第1のユーザの右眼1Rには3番の画像を決定してもよい。これと共に、レンダリング装置は、なるべく第2のユーザにも3D画像を視聴できるように各サブ視点領域の画像を決定してもよい。
図13は、本発明の他の実施形態に係るレンダリング装置がサブ視点領域ごとの画像を決定する過程を説明するための図である。
図13を参照すると、図12(a)のような環境において、レンダリング装置がユーザの眼の位置によって画像を決定する方法を説明するための様々な場合が示されている。
[視聴距離が類似の場合]
下記の図13(a)及び図13(b)においては、第1のユーザと第2のユーザの視聴距離が類似し、ビューコーン内において、2人のビューアの両眼方向の間の間隔が類似する場合に発生し得る場合を説明する。
図13(a)を参照すると、ビューコーンの右端は、ビューコーン領域が繰り返される特徴によって、ビューコーンの左端にある第1のユーザの左眼1Lと同じ位置にあるといえる。
第2のユーザの眼の位置によって、レンダリング装置は、例えば、第1のユーザの左眼1Lと第2のユーザの右眼2Rとの間の間隔と第1のユーザの右眼1Rと第2のユーザの左眼2Lとの間の間隔のうちどちらが近いかによってサブ視点領域の画像を選択又は決定することができる。
図13(a)において、第1のユーザの右眼1Rと第2のユーザの左眼2Lとの間の間隔がさらに狭いため、レンダリング装置は、第2のユーザの左眼2Lに対して3番の画像を決定し、第2のユーザの右眼2Rに対して4番の画像を決定して、第2のユーザが3番と4番のペアの3D画像を視聴するようにすることができる。
図13(b)を参照すると、第2のユーザの左眼2Lが第1のユーザの両眼の間に移動して第2のユーザの左眼2Lが第1のユーザの右眼1Rの近くにある場合が示されている。この場合、図13(a)と同様に、レンダリング装置は、第2のユーザの左眼2Lに対して3番の画像を決定し、第2のユーザの右眼2Rに対して4番の画像を決定して、第2のユーザが3番と4番のペアの3D画像を視聴するようにすることができる。
[視聴距離が非類似の場合]
上述にて説明した視聴距離が類似の場合とは異なって、2人のユーザが常に類似の視聴距離から視聴するという保障がないため、視聴距離が非類似の場合にレンダリング装置が画像を選択(決定)するという方法が要求される。以下においては、2人のユーザの間の視聴距離が非類似の様々な場合においてレンダリング装置が第2のユーザの画像を決定する方法を説明する。
図13(c)及び図13(d)を参照すると、第2のユーザの左眼2Lが第1のユーザの両眼の間に存在し、第2のユーザの左眼2Lが第1のユーザの右眼1Rの近くにある場合が示されている。ここで、図13(c)は、第2のユーザの右眼2Rは第1のユーザの右眼1Rより右側にあり、第2のユーザの右眼2Rと第1のユーザの右眼1Rとの間隔が最小の分離可能な間隔(二点鎖線)より大きい場合を示し、図13(d)は、第2のユーザの右眼2Rと第1のユーザの左眼1Lとの間隔も最小の分離可能な間隔より大きい場合を示す。
図13(c)及び図13(d)におけるレンダリング装置は、第2のユーザの左眼2Lに対して3番の画像を決定し、第2のユーザの右眼2Rに対して4番の画像を決定して、第2のユーザが3番と4番のペアの3D画像を視聴するようにすることができる。
図13(e)を参照すると、第2のユーザの左眼2Lが第1のユーザの右眼1Rより右側に存在し、第2のユーザの左眼2Lと第1のユーザの右眼1Rとの間の間隔が最小の分離可能な間隔より小さい場合が示されている。また、図13(f)を参照すると、第2のユーザの右眼2Rが第2のユーザの左眼2Lより右側に存在し、第1のユーザの左眼1Lと第2のユーザの右眼2Rとの間の間隔が最小の分離可能な間隔より大きい場合が示されている。図13(e)及び図13(f)におけるレンダリング装置は、第2のユーザの左眼2Lが3番の画像を視聴し、第2のユーザの右眼2Rに対して4番の画像を視聴するようにすることができる。図13(f)のように、第2のユーザの右眼2Rと第1のユーザの左眼1Lとの間の間隔が最小の分離可能な間隔内の場合、レンダリング装置は、第1のユーザの視聴環境を保障するようにするため、第2のユーザの右眼2Rにクロストークが発生し得る。
図13(g)を参照すると、第2のユーザの左眼2Lが第1のユーザの右眼1Rより右側に存在し、第2のユーザの左眼2Lと第1のユーザの右眼1Rとの間の間隔が最小の分離可能な間隔以上の場合が示されている。ここで、第2のユーザの右眼2Rと第2のユーザの左眼2Lとの間隔は最小の分離可能な間隔より大きく、第1のユーザの右眼1Rと第2のユーザの左眼2Lとの間の間隔が第2のユーザの右眼2Rと第1のユーザの左眼1Lとの間の間隔より小さいと仮定する。
この場合、レンダリング装置は、第2のユーザの左眼2Lに対して第1のユーザの右眼1Rと同様の3番の画像を決定し、第2のユーザが3D画像を視聴できるようにするために、第2のユーザの右眼2Rに対して4番の画像を決定することができる。第2のユーザは3番と4番のペアの3D画像を視聴することができる。
図14は、本発明の他の実施形態に係るレンダリング装置がサブ視点領域ごとの画像を決定する過程を説明するための図である。
図14A、図14B、図及び14Cを参照すると、図12(b)のような環境において、レンダリング装置がユーザの眼の位置によって画像を決定する方法を説明するための様々な場合が示されている。
[視聴距離が類似の場合]
図14A(a)を参照すると、第2のユーザの左眼2Lが第1のユーザの両眼1L,1Rの間に位置し、第2のユーザの左眼2Lが第1のユーザの左眼1Lにさらに近くにある場合が示されている。この場合、第2のユーザの左眼2Lが第1のユーザの左眼1Lと隣接するため、レンダリング装置は第2のユーザの左眼2Lに対して第1のユーザの左眼1Lと同様の2番の画像を決定することができる。また、レンダリング装置は、第2のユーザが円滑な3D画像を視聴できるように第2のユーザの右眼2Rに対して3番の画像を決定することができる。この場合、第1のユーザ及び第2のユーザの両方が2番の画像及び3番の画像を視聴することができる。
図14A(b)を参照すると、第2のユーザの右眼2Rが第1のユーザの両眼の間に位置し、第1のユーザの左眼1Lより第1のユーザの右眼1Rにさらに近くにある場合が示されている。この場合、第2のユーザの右眼2Rは、第1のユーザの右眼1Rに隣接するため、レンダリング装置は、第2のユーザの右眼2Rに対して第1のユーザの右眼1Rと同様の3番の画像を決定することができる。ここで、レンダリング装置は第2のユーザの左眼2Lに対して2番の画像を決定することができる。
[視聴距離が非類似の場合]
以下、図14A(c)〜図14A(h)においては、第2のユーザの左眼2Lが第1のユーザの左眼1Lと画像分離表現のための最小間隔内に存在する場合にレンダリング装置が第2のユーザの右眼2Rの位置によって画像を決定する過程を説明する。
図14A(c)を参照すると、第2のユーザの右眼2Rが第2のユーザの左眼2Lと第1のユーザの左眼1Lとの間に存在する場合が示されている。レンダリング装置は、このように分離表現可能な最小間隔内にあるユーザの眼が基本的に同じ画像を表現するようにすることができる。レンダリング装置は、第2のユーザの左眼2Lと右眼2Rに対して全て2番の画像を決定する。第2のユーザは2Dの2番の画像を視聴することができる。
図14A(d)を参照すると、第2のユーザの右眼2Rが第1のユーザの左眼1Lと右眼1Rとの間に位置し、第1のユーザの左眼1Lにさらに近い場合が示されている。この場合、第2のユーザの両眼2L,2Rが全て第1のユーザの左眼1Lに近いため、レンダリング装置は第2のユーザの両眼に対して全て2番の画像を決定することができる。
図14A(e)を参照すると、第2のユーザの右眼2Rが第1のユーザの左眼1Lと右眼1Rとの間に位置し、第1のユーザの右眼1Rにさらに近い場合が示されている。ここで、第2のユーザの左眼2Lは第1のユーザの左眼1Lに近く、第2のユーザの右眼2Rは第1のユーザの右眼1Rのさらに近くにある。したがって、レンダリング装置は、第2のユーザの左眼に対して2番の画像を、右眼に対して3番の画像を決定することができる。第2のユーザは第1のユーザと同様の2、3番のペアの3D画像を視聴することができる。
図14A(f)を参照すると、第2のユーザの右眼2Rが第1のユーザの右眼1Rと第2のユーザの左眼2Lとの間にあり、第1のユーザの右眼1Rにさらに近い場合が示されている。この場合、レンダリング装置は、第2のユーザの左眼2Lに2番の画像を、右眼2Rに3番の画像を決定することができる。第2のユーザは第1のユーザと同様の2、3番のペアの3D画像を視聴することができる。
図14A(g)を参照すると、第2のユーザの右眼2Rが第1のユーザの右眼1Rと第2のユーザの左眼2Lとの間にある場合が示されている。ここで、第2のユーザの右眼2Rは、第2のユーザの左眼2Lにさらに近いが、第2のユーザの右眼2Rと第2のユーザの左眼2Lとの間の間隔が画像分離表現のための最小間隔より大きい。この場合、第2のユーザの両眼2L,2Rは、分離表現が可能であるため、レンダリング装置は、第2のユーザの左眼2Lに対して2番の画像を、右眼2Rに対して3番の画像を決定することができる。第2のユーザは第1のユーザと同様の2、3番のペアの3D画像を視聴することができる。
図14A(h)を参照すると、第2のユーザの右眼2Rが第1のユーザの右眼1Rと第2のユーザの左眼2Lとの間にあり、第1のユーザの右眼1Rより第2のユーザの左眼2Lにさらに近く、第2のユーザの左眼2Lと第2のユーザの右眼2Rとの間隔が分離表現のための最小間隔より小さい場合が示されている。この場合、第2のユーザの両眼2L,2Rは分離表現が不可能であるため、両眼に対して同一の画像を決定してから、欠陥(artifact)を最小化した画像を表現する。したがって、レンダリング装置は、第2のユーザの両眼2L,2Rに対して全て2番の画像を決定する。第2のユーザは2Dの2番の画像を視聴することができる。
以下、図14A(i)〜図14A(m)においては、第2のユーザの左眼2Lが第1のユーザの両眼1L,1Rの間に存在し、第1のユーザの右眼1Rより第1のユーザの左眼1Lにさらに近くにある場合にレンダリング装置が第2のユーザの右眼2Rの位置によって画像を決定する過程を説明する。
図14A(i)を参照すると、第2のユーザの右眼2Rが第2のユーザの左眼2Lと第1のユーザの右眼1Rとの間に存在し、第1のユーザの右眼1Rより第2のユーザの左眼2Lにさらに近い場合が示されている。この場合、第2のユーザの左眼2Lは第1のユーザの左眼1Lにさらに近いため、レンダリング装置は第2のユーザの左眼2Lに対して2番の画像を決定することができる。また、第2のユーザの右眼2Rは第2のユーザの左眼2Lにさらに近いため、レンダリング装置は第2のユーザの右眼2Rに対してもまた、2番の画像を決定することができる。
ただし、図14A(i)において、第2のユーザの右眼2Rと第1のユーザの右眼1Rとの間隔が最小の分離可能な間隔より小さい場合、レンダリング装置は、第1のユーザの右眼1Rを優先的にビューコーン内の表現範囲を決定してもよい。したがって、図14A(i)において第1のユーザの右眼1Rと第2のユーザの右眼2Rとの間の2番と3番の画像の境界が中間ではなく片方に偏る理由はそのせいである。図14A(i)においてビューコーンの大きさを見せるバー(Bar)上に突出した四角形の幅は、第1のユーザの右眼1Rの中心から左方向に確保すべき最小範囲を表示する。
図14A(j)を参照すると、第2のユーザの右眼2Rが第2のユーザの左眼2Lと第1のユーザの右眼1Rとの間に存在し、第2のユーザの左眼2Lより第1のユーザの右眼1Rにさらに近くにある場合が示されている。この場合、レンダリング装置は、第2のユーザが第1のユーザと同様の2、3番のペアの3D画像を視聴するようにすることができる。但し、第2のユーザの左眼2Lと右眼2Rとの間の間隔が最小の分離可能な間隔より小さい場合、第2のユーザは一定量のクロストークが含まれた3D画像を視聴することになる。
図14A(k)を参照すると、第2のユーザの右眼2Rが第1のユーザの右眼1Rより右側に存在し、第2のユーザの右眼2Rと第1のユーザの左眼1Lとの間の間隔が最小の分離可能な間隔より大きい場合が示されている。ここで、レンダリング装置は、第2のユーザが第1のユーザと同様の2、3番のペアの3D画像を視聴するようにすることができる。
図14A(l)を参照すると、第2のユーザの右眼2Rが第1のユーザの右眼1Rより右側に存在し、第2のユーザの右眼2Rと第1のユーザの左眼1Lとの間隔が最小の分離可能な間隔より小さい場合が示されている。ここで、レンダリング装置は、第2のユーザの両眼2L,2Rに対して全て2番の画像を決定することができる。
図14A(m)を参照すると、第2のユーザの右眼2Rが第1のユーザの左眼1Lと第2のユーザの左眼2Lとの間に存在する場合が示されている。ここで、レンダリング装置は、第2のユーザの両眼2L,2Rに対して全て2番の画像を決定することができる。
以下、図14B(a)〜図14B(d)においては、第2のユーザの左眼2Lが第1のユーザの両眼1L,1Rの間に存在し、第1のユーザの左眼1Lより第1のユーザの右眼1Rにさらに近くにある場合にレンダリング装置が第2のユーザの右眼2Rの位置によって画像を決定する過程を説明する。
図14B(a)を参照すると、第2のユーザの右眼2Rが第1のユーザの左眼1Lと第1のユーザの右眼1Rとの間に存在する場合が示されている。ここで、レンダリング装置は、第2のユーザの両眼2L,2Rが全て3番の画像を視聴するようにすることができる。
図14B(b)を参照すると、第2のユーザの右眼2Rが第1のユーザの右眼1Rより右側にあるが、第2のユーザの右眼2Rと第1のユーザの右眼1Rとの間の間隔が最小の分離可能な間隔より小さい場合が示されている。ここで、レンダリング装置は、第2のユーザの両眼2L,2Rに対して全て3番の画像を決定することができる。
図14B(c)を参照すると、第2のユーザの右眼2Rが第1のユーザの右眼1Rより右側に存在し、第2のユーザの右眼2Rと第1のユーザの左眼1Lとの間隔が最小の分離可能な間隔より小さい場合が示されている。この場合、第2のユーザの右眼2Rには、第1のユーザの左眼1Lと同様の2番の画像が表現されなければならない。レンダリング装置は、第2のユーザの左眼2Lに対して2番の画像を決定して第2のユーザの両眼が2D画像を視聴するようにすることができる。ここで、第2のユーザの左眼2Lと第1のユーザの右眼1Rとの間の間隔が最小の分離可能な間隔より小さければ、レンダリング装置は、第1のユーザの右眼1Rの視聴環境を保障しなければならないため、第2のユーザの左眼2Lにクロストークが発生し得る。
図14B(d)を参照すると、第2のユーザの右眼2Rが第1のユーザの左眼1Lと第2のユーザの左眼2Lとの間にある場合が示されている。この場合、レンダリング装置は、第2のユーザの両眼が2番の画像を視聴するように画像を決定することができる。ここで、第2のユーザの左眼2Lと第1のユーザの右眼1Rとの間の間隔が最小の分離可能な間隔より小さければ、図14B(c)と同様に第2のユーザの左眼2Lにクロストークが発生し得る。
以下、図14B(e)〜図14B(h)においては、第2のユーザの左眼2Lが第1のユーザの右眼1Rより右側に存在し、第1のユーザの右眼1Rと第2のユーザの左眼2Lとの間の間隔が最小の分離可能な間隔より小さい場合にレンダリング装置が第2のユーザの右眼2Rの位置によって画像を決定する過程を説明する。
図14B(e)を参照すると、第2のユーザの右眼2Rが第2のユーザの左眼2Lより右側に存在し、第2のユーザの右眼2Rと第2のユーザの左眼2Lとの間隔が最小の分離可能な間隔より小さい場合が示されている。この場合、レンダリング装置は、第2のユーザの両眼2L,2Rに対して全て3番の画像を決定して第2のユーザが2Dの3番の画像を視聴するようにすることができる。
図14B(f)、(g)を参照すると、第2のユーザの右眼2Rが第1のユーザの両眼1L,1Rの間に存在する場合が示されている。この場合、レンダリング装置は、第2のユーザの左眼2Lに対して第1のユーザの右眼1Rと同様の3番の画像を決定するが、第2のユーザの右眼2Rに対しては2番の画像を決定できないため、3番の画像を決定することができる。ここで、第1のユーザの視聴環境が保障されなければならないため、第1のユーザの左眼1Lと第2のユーザの右眼2Rとの間の間隔が最小の分離可能な間隔より小さければ、図14B(f)のような場合、第2のユーザの右眼2Rにクロストークが発生し得る。
図14B(h)を参照すると、第2のユーザの右眼2Rが第1のユーザの右眼1Rと第2のユーザの左眼2Lとの間に位置する場合が示されている。この場合、レンダリング装置は、第2のユーザの両眼に対して全て3番の画像を決定して第2のユーザが2Dの3番の画像を視聴するようにすることができる。
以下、図14B(i)〜図14B(k)においては、第2のユーザの左眼2Lが第1のユーザの右眼1Rより右側に存在し、第1のユーザの右眼1Rと第2のユーザの左眼2Lとの間の間隔が最小の分離可能な間隔より大きい場合にレンダリング装置が第2のユーザの右眼2Rの位置によって画像を決定する過程を説明する。
図14B(i)を参照すると、第2のユーザの右眼2Rと第2のユーザの左眼2Lとの間の間隔が最小の分離可能な間隔より小さい場合が示されている。この場合、レンダリング装置は、第2のユーザの左眼2Lと第1のユーザの左眼1Lとの間の間隔と、第1のユーザの右眼1Rと第2のユーザの右眼2Rとの間の間隔とを比較して第2のユーザの右眼2Rに前記間隔がさらに小さい側の画像を決定することができる。図14B(i)においては、第1のユーザの右眼1Rと第2のユーザの右眼2Rとの間の間隔が第2のユーザの左眼2Lと第1のユーザの左眼1Lとの間の間隔よりさらに小さい。したがって、レンダリング装置は、第1のユーザの右眼1Rに決定された3番の画像を第2のユーザの両眼に対して決定して第2のユーザが2Dの3番の画像を視聴するようにすることができる。
図14B(j)を参照すると、第2のユーザの右眼2Rが第1のユーザの両眼1L,1Rの間に位置し、第2のユーザの右眼2Rと第1のユーザの左眼1Lとの間隔が第2のユーザの右眼2Rと第1のユーザの右眼1Rとの間隔より大きい場合が示されている。この場合、レンダリング装置は、第2のユーザの右眼2Rに対して、第1のユーザの右眼1Rに該当する3番の画像を決定し、3D表現のために、第2のユーザの左眼2Lに対して2番の画像を決定することができる。第2のユーザは、第1のユーザと同様の2、3番のペアの3D画像を視聴することができる。
図14B(k)を参照すると、第2のユーザの右眼2Rが第1のユーザの右眼1Rと第2のユーザの左眼2Lとの間に位置する場合が示されている。図14B(k)において、第1のユーザの右眼1Rと第2のユーザの右眼2Rとの間の間隔が第2のユーザの右眼2Rと第1のユーザの左眼1Lとの間の間隔より近い。したがって、レンダリング装置は、第2のユーザの右眼2Rに対して第1のユーザの右眼1Rと同様の3番の画像を決定することができる。もし、第2のユーザの右眼2Rと第2のユーザの左眼2Lとの間の間隔が最小の分離可能な間隔より大きければ、レンダリング装置は、3D表現のために、第2のユーザの左眼2Lに対して2番の画像を決定してもよい。
図14B(k)においては、第2のユーザの右眼2Rと第2のユーザの左眼2Lとの間の間隔が最小の分離可能な間隔より小さいため、レンダリング装置は、第2のユーザの左眼2Lに対して3番の画像を決定し、第2のユーザが2Dの3番の画像を視聴するようにすることができる。
以下、図14C(a)〜図14C(d)においては、第2のユーザの左眼2Lが第1のユーザの右眼1Rより右側に存在し、第2のユーザの左眼2Lと第1のユーザの右眼1Rとの間隔より第2のユーザの左眼2Lと第1のユーザの左眼1Lとの間隔がさらに近く、第2のユーザの左眼2Lと第1のユーザの左眼1Lとの間の間隔が最小の分離可能な間隔以上である場合にレンダリング装置が第2のユーザの右眼2Rの位置によって画像を決定する過程を説明する。
図14C(a)を参照すると、第2のユーザの右眼2Rが第2のユーザの左眼2Lと第1のユーザの左眼1Lとの間に存在し、第2のユーザの左眼2Lと第2のユーザの右眼2Rとの間の間隔が最小の分離可能な間隔以下である場合が示されている。
この場合、第2のユーザの左眼2Lが第1のユーザの左眼1Lにさらに近いため、レンダリング装置は、第2のユーザの左眼2Lに第1のユーザの左眼1Lと同様の2番の画像を決定することができる。また、レンダリング装置は、第2のユーザの左眼2Lとの間隔が最小の分離可能な間隔より小さい第2のユーザの右眼2Rに対しても同様の2番の画像を決定することができる。第2のユーザは2Dの2番の画像を視聴することができる。
図14C(b)を参照すると、第2のユーザの右眼2Rが第1のユーザの左眼1Lと第1のユーザの右眼1Rとの間に存在し、第2のユーザの右眼2Rと第1のユーザの左眼1Lとの間の間隔が第2のユーザの右眼2Rと第1のユーザの右眼1Rとの間の間隔より大きい場合が示されている。この場合、レンダリング装置は、第2のユーザの右眼2Rに対して第1のユーザの右眼1Rと同様の3番の画像を決定し、第2のユーザの左眼2Lに対して2番の画像を決定して、第2のユーザが2、3番のペアの3D画像を視聴するようにすることができる。
図14C(c)を参照すると、第2のユーザの右眼2Rが第1のユーザの右眼1Rと第2のユーザの左眼2Lとの間に存在し、第2のユーザの右眼2Rと第1のユーザの右眼1Rとの間の間隔が第2のユーザの右眼2Rと第2のユーザの左眼2Lとの間の間隔より小さい場合が示されている。この場合、レンダリング装置は、第2のユーザの右眼2Rに対して第1のユーザの右眼1Rと同様の3番の画像を決定し、第2のユーザの左眼2Lに対しては2番の画像を決定することができる。第2のユーザは2、3番のペアの3D画像を視聴することができる。
図14C(d)を参照すると、第2のユーザの右眼2Rが第1のユーザの右眼1Rと第2のユーザの左眼2Lとの間に存在し、第2のユーザの右眼2Rと第2のユーザの左眼2Lとの間の間隔が最小の分離可能な間隔より小さい場合が示されている。この場合、レンダリング装置は、第2のユーザの両眼に対して2番の画像を決定することができる。第2のユーザは2Dの2番の画像を視聴することができる。
以下、図14C(e)〜図14C(j)においては、第2のユーザの左眼2Lが第1のユーザの右眼1Rより右側に存在し、第1のユーザの左眼1Lと第2のユーザの左眼2Lとの間の間隔が最小の分離可能な間隔より小さい場合にレンダリング装置が第2のユーザの右眼2Rの位置によって画像を決定する過程を説明する。
図14C(e)を参照すると、第2のユーザの右眼2Rが第2のユーザの左眼2Lと第1のユーザの左眼1Lとの間にある場合が示されている。この場合、レンダリング装置は、第2のユーザの両眼に対する2番の画像を決定することができる。第2のユーザは2番の2D画像を視聴することができる。
図14C(f)を参照すると、第2のユーザの右眼2Rが第1のユーザの左眼1Lと第1のユーザの右眼1Rとの間に存在し、第2のユーザの右眼2Rと第1のユーザの右眼1Rとの間の間隔より第2のユーザの右眼2Rと第1のユーザの左眼1Lとの間の間隔がさらに小さい場合が示されている。この場合、第2のユーザの両眼が全て第1のユーザの左眼1Lにさらに近いため、レンダリング装置は、第2のユーザの両眼に対して2番の画像を決定する。第2のユーザは2Dの2番の画像を視聴することができる。
図14C(g)を参照すると、第2のユーザの右眼2Rが第1のユーザの左眼1Lと第1のユーザの右眼1Rとの間に存在し、第2のユーザの右眼2Rと第1のユーザの左眼1Lとの間の間隔が第2のユーザの右眼2Rと第1のユーザの右眼1Rとの間の間隔よりもさらに大きい場合が示されている。この場合、第2のユーザの右眼2Rは、第1のユーザの右眼1Rにさらに近いため、レンダリング装置は、第2のユーザの右眼2Rに対して3番の画像を決定することができる。また、第2のユーザの左眼2Lは、第1のユーザの左眼1Lにさらに近いため、レンダリング装置は、第2のユーザの左眼2Lに対する2番の画像を決定することができる。第2のユーザは第1のユーザと同様の2、3番のペアの3D画像を視聴することができる。
図14C(h)を参照すると、第2のユーザの右眼2Rが第1のユーザの右眼1Rと第2のユーザの左眼2Lとの間に存在し、第2のユーザの右眼2Rと第1のユーザの右眼1Rとの間の間隔が第2のユーザの右眼2Rと第2のユーザの左眼2Lとの間の間隔よりさらに小さい場合が示されている。この場合、レンダリング装置は、第2のユーザの右眼2Rに対して第1のユーザの右眼1Rと同様の3番の画像を決定し、第2のユーザの左眼2Lに対して第1のユーザの左眼1Lと同様の2番の画像を決定することができる。第2のユーザは第1のユーザと同様の2、3番のペアの3D画像を視聴することができる。
図14C(i)を参照すると、第2のユーザの右眼2Rが第1のユーザの右眼1Rと第2のユーザの左眼2Lとの間に存在し、第2のユーザの右眼2Rと第2のユーザの左眼2Lとの間隔が第2のユーザの右眼2Rと第1のユーザの右眼1Rとの間の間隔よりさらに小さいが、その間隔が最小の分離可能な間隔よりは大きい場合が示されている。この場合、レンダリング装置は、第2のユーザの右眼2Rに対しては第1のユーザの右眼1Rと同様の3番の画像を、第2のユーザの左眼2Lに対しては第1のユーザの左眼1Lと同様の2番の画像を決定することができる。第2のユーザは第1のユーザと同様の2、3番のペアの3D画像を視聴することができる。
図14C(j)を参照すると、第2のユーザの右眼2Rが第1のユーザの右眼1Rと第2のユーザの左眼2Lとの間に存在し、第2のユーザの右眼2Rと第2のユーザの左眼2Lとの間の間隔が最小の分離可能な間隔より小さい場合が示されている。この場合、レンダリング装置は、第2のユーザの両眼に対して第1のユーザの左眼1Lと同様の2番の画像を決定することができる。第2のユーザは2Dの2番の画像を視聴することができる。
図15は、本発明の他の実施形態に係るレンダリング装置がサブ視点領域ごとの画像を決定する過程を説明するための図である。
図15を参照すると、図12(c)のような環境において、レンダリング装置がユーザの眼の位置によって画像を決定する方法を説明するための様々な場合が示されている。
以下、図15(a)及び図15(b)においては、第1のユーザと第2のユーザとの視聴距離が類似して、ビューコーン内における2人のビューアの両眼方向の間の間隔が類似する場合に発生し得る場合を説明する。
[視聴距離が類似の場合]
図15(a)を参照すると、第2のユーザの右眼2Rがビューコーンの右端にあるため、左端にある第1のユーザの左眼1Lと同じ位置にあるといえる。ここで、レンダリング装置は、第1のユーザの両眼が2、3番の画像を視聴するようにする。レンダリング装置は、第2のユーザの右眼2Rに対して第1のユーザの左眼1Lと同様の2番の画像を決定することができる。
そうすると、第2のユーザの左眼2Lに対してどの画像を表現するかが残ることになる。ここで、レンダリング装置が第2のユーザの左眼2Lに対して1番の画像を決定すれば、第2のユーザは1、2番のペアの3D画像を視聴することができる。もし、レンダリング装置が第2のユーザの左眼2Lに対して2番の画像を決定すれば、第2のユーザは2番の画像を2Dで視聴してもよい。
図15(b)を参照すると、第2のユーザの右眼2Rと第1のユーザの左眼1Lとの間の間隔が第1のユーザの右眼1Rと第2のユーザの左眼2Lとの間の間隔より小さい場合が示されている。レンダリング装置は、第2のユーザの右眼2Rに対して2番の画像を決定し、第2のユーザの左眼2Lに対しては1番の画像を決定することができる。
図15(c)を参照すると、第2のユーザの右眼2Rが第1のユーザの両眼の間に位置し、第2のユーザの右眼2Rが第1のユーザの右眼1Rより左眼1Lにさらに近い場合が示されている。この場合、レンダリング装置は第2のユーザの右眼2Rに第1のユーザの左眼1Lと同様の2番の画像を決定することができる。レンダリング装置は第2のユーザの左眼2Lに対して1番の画像を決定することができる。第2のユーザは1、2番のペアの3D画像を視聴することができる。
[視聴距離が非類似の場合]
以下、図15(d)〜図15(e)においては、第2のユーザの左眼2Lが第1のユーザの右眼1Rより右側に存在し、第1のユーザの右眼1Rと第2のユーザの左眼2Lとの間の間隔が最小の分離可能な間隔より小さい場合にレンダリング装置が第2のユーザの右眼2Rの位置によって画像を決定する過程を説明する。
図15(d)を参照すると、第2のユーザの右眼2Rが第1のユーザの左眼1Lより左側に存在し、第1のユーザの左眼1Lとの間隔が最小の分離可能な間隔より小さく、第2のユーザの左眼2Lと第1のユーザの右眼1Rとの間の間隔より第2のユーザの右眼2Rと第1のユーザの左眼1Lとの間の間隔が小さい場合が示されている。この場合、第2のユーザの右眼2Rが第1のユーザの左眼1Lと同様の2番の画像を表現しなければならないため、レンダリング装置は、第2のユーザの左眼2Lに対して1番の画像を決定することができる。ここで、第1のユーザの視聴環境が保障されなければならないため、第2のユーザの左眼2Lにおいてはクロストークが発生し得る。
図15(e)を参照すると、第2のユーザの右眼2Rが第1のユーザの左眼1Lより右側に存在し、第2のユーザの右眼2Rと第1のユーザの左眼1Lとの間隔が第1のユーザの右眼1Rと第2のユーザの左眼2Lとの間の間隔より小さい場合が示されている。この場合、レンダリング装置は、第2のユーザの左眼2Lと第1のユーザの右眼1Rとの間の間隔と、第2のユーザの右眼2Rと第1のユーザの左眼1Lとの間隔とを比較して第2のユーザの右眼2Rのための画像を決定することができる。
ここで、第2のユーザの右眼2Rと第1のユーザの左眼1Lとの間の間隔が第1のユーザの右眼1Rと第2のユーザの左眼2Lとの間の間隔よりさらに小さい場合、レンダリング装置は、第2のユーザの右眼2Rに対して2番の画像を決定することができる。また、レンダリング装置は、3D表現のために、第2のユーザの左眼2Lに対しては1番の画像を決定することができる。ここで、第1のユーザの視聴環境を保障するために、第2のユーザの左眼2Lにおいてクロストークが発生し得る。
以下、図15(f)〜図15(g)においては、第2のユーザの左眼2Lが第1のユーザの右眼1Rより右側に存在し、第1のユーザの右眼1Rと第2のユーザの左眼2Lとの間の間隔が最小の分離可能な間隔より大きい場合にレンダリング装置が第2のユーザの右眼2Rの位置によって画像を決定する過程を説明する。
図15(f)を参照すると、第1のユーザの右眼1Rと第2のユーザの左眼2Lとの間の間隔が第2のユーザの右眼2Rと第1のユーザの左眼1Lとの間の間隔より大きい場合が示されている。この場合、レンダリング装置は、第2のユーザの右眼2Rに対して第1のユーザの左眼1Lと同様の2番の画像を決定し、3D表現のために、第2のユーザの左眼2Lに対して1番の画像を決定することができる。第2のユーザは1、2番のペアの3D画像を視聴することができる。
図15(g)を参照すると、第1のユーザの両眼1L,1Rの間に第2のユーザの右眼2Rが位置し、第2のユーザの右眼2Rと第1のユーザの左眼1Lとの間の間隔が第2のユーザの右眼2Rと第1のユーザの右眼1Rとの間の間隔より小さい場合が示されている。この場合、レンダリング装置は、第2のユーザの右眼2Rに対して、第1のユーザの左眼1Lに該当する2番の画像を決定し、3D表現のために、第2のユーザの左眼2Lに対して1番の画像を決定することができる。第2のユーザは1、2番のペアの3D画像を視聴することができる。
以下、図15(h)〜図15(i)においては、第2のユーザの左眼2Lが第1のユーザの右眼1Rより右側に存在し、第2のユーザの左眼2Lと第1のユーザの右眼1Rとの間隔より第2のユーザの左眼2Lと第1のユーザの左眼1Lとの間隔がさらに近く、第2のユーザの左眼2Lと第1のユーザの左眼1Lとの間の間隔が最小の分離可能な間隔より大きい場合にレンダリング装置が第2のユーザの右眼2Rの位置によって画像を決定する過程を説明する。
図15(h)を参照すると、第2のユーザの右眼2Rが第2のユーザの左眼2Lと第1のユーザの左眼1Lとの間に存在し、第2のユーザの左眼2Lとの間隔が最小の分離可能な間隔より大きい場合が示されている。この場合、第2のユーザの左眼2Lと右眼2Rに表現する画像が分離可能であるため、レンダリング装置は、第2のユーザの右眼2Rに対して第1のユーザの左眼1Lと同様の2番の画像を決定し、第2のユーザの左眼2Lに対して1番の画像を決定することができる。第2のユーザは1、2番のペアの3D画像を視聴することができる。
図15(i)を参照すると、第2のユーザの右眼2Rが第1のユーザの両眼1L,1Rの間に存在し、第2のユーザの右眼2Rと第1のユーザの左眼1Lとの間の間隔が第2のユーザの右眼2Rと第1のユーザの右眼1Rとの間隔より小さい場合が示されている。この場合、レンダリング装置は、第2のユーザの右眼2Rに対して第1のユーザの左眼1Lと同様の2番の画像を決定し、第2のユーザの左眼2Lに対しては1番の画像を決定することができる。第2のユーザは1、2番のペアの3D画像を視聴することができる。
図16は、本発明の一実施形態に係るレンダリング装置がサブピクセルの値を決定する過程を説明するための図である。図16を参照すると、サブピクセル102の光線方向1610が示されている。
レンダリング装置は、サブピクセル102から放出された量子化された光線方向のうち全ての視点画像を構成する視点に対応する光線方向をサブピクセル102の光線方向として決定してもよい。レンダリング装置は、サブピクセルの光線方向に対応するサブ視点領域のコンテンツに基づいて、サブピクセルの値を決定してもよい。
レンダリング装置は、サブピクセル102の光線方向の範囲に対応する複数のサブ視点領域のうち光線方向1610が属したサブ視点領域に対応するコンテンツを決定してもよい。
例えば、図16においては、第2のユーザの左眼633に向かう方向603が光線方向の範囲の境界に該当する方向1004に非常に近いため、第1のユーザ510の右眼516に表現される画像と第2のユーザの左眼633に表現される画像が異なる場合、第2のユーザの左眼633にクロストークを発生させる可能性が高い。
もし、第1のユーザ510の右眼516と第2のユーザの左眼633に対して同じ画像を提供すると同時に、第2のユーザの左眼633と右眼636に対して適切な立体画像を提供できれば、レンダリング装置は、第2のユーザ630に対して欠陥が少ない画像を提供することができる。したがって、レンダリング装置は、第1のユーザ510の右眼516と第2のユーザの左眼633が同じ画像を見れるようにコンテンツを設定することができる。
ユーザの両眼に対する光線方向の範囲と両眼に表現するコンテンツが決定されれば、レンダリング装置は、最終的にサブピクセル102から放出された光線方向1610に対応する光がどちらの眼のための画像を表現するかを決定することができる。
これは、上述にて決定された光線方向の範囲の中から光線方向1610を含むサブ視点領域を選択することによって決定されてもよい。図16における光線方向1610は、第2のユーザ630の右眼636のための光線方向の範囲に属しているため、サブピクセル102は、第2のユーザ630の右眼636に対して見える画像を表現するように決定することができる。
この過程において、サブピクセル102から放出された光線が属した光線方向が決定される場合、レンダリング装置は、コンテンツを決定する過程において、光線方向に属したユーザの眼に対してだけコンテンツを決定することができる。
レンダリング装置は、上述のような過程をパネル101に属する全てのサブピクセルに対して行って第1のユーザ510に優先的に3D画像を提供し、第2のユーザ630に対しても最大限に円滑に3D画像を提供できるようにする。
図17は、本発明の他の実施形態に係るライトフィールドレンダリング方法を示したフローチャートである。図17を参照すると、本発明の一実施形態に係るレンダリング装置は、第1のユーザの両眼の位置及び第2のユーザの両眼の位置をピクセルに対応する視点領域にマッピングする(S1710)。ここで、「両眼の位置をピクセルに対応する視点領域にマッピングする」とは、ユーザの両眼の位置を、処理しようとするいずれか1つのピクセルを基準とする1つのビューコーンに該当する視点領域にマッピングするという意味として理解されてもよい。また、サブピクセル単位でレンダリングが行われる場合、図17において記述した「ピクセル」はサブピクセルとして理解されてもよい。
レンダリング装置は、ステップS1710において、マッピングされた第1のユーザの両眼の位置及びマッピングされた第2のユーザの両眼の位置に基づいて、視点領域を複数のサブ視点領域に分割する(S1720)。レンダリング装置は、複数のサブ視点領域の中から第1のユーザのための第1のサブ視点領域のコンテンツを決定する(S1730)。
レンダリング装置は、第1のサブ視点領域のコンテンツに基づいて、複数のサブ視点領域の中から第2のユーザのための第2のサブ視点領域のコンテンツを決定する(S1740)。レンダリング装置は、ピクセルの光線方向に対応するサブ視点領域のコンテンツに基づいて、ピクセルの値を決定する(S1750)。
図18は、本発明の他の実施形態に係るライトフィールドレンダリング方法を示したフローチャートである。図18を参照すると、本発明の一実施形態に係るレンダリング装置は、第1のユーザの両眼の位置に基づいて、第1のユーザが立体画像を視聴するように第1のピクセルの値を決定する(S1810)。
レンダリング装置は、第1のユーザの両眼の位置及び第2のユーザの両眼の位置の間の相関関係に基づいて、第2のユーザが立体画像に関連する画像を視聴するように第1のピクセル以外の第2のピクセルの値を決定する(S1820)。ここで、相関関係は、例えば、第1のユーザの両眼の位置と第2のユーザの両眼の位置が予め決定した視点領域にマッピングされる場合、マッピングされた位置が配置される順序及びマッピングされた位置の間の距離などを含んでもよい。
一例として、立体画像に関連する画像は立体画像であってもよい。この場合、第2のユーザは第1のユーザが視聴する立体画像と同一の立体画像を視聴することができる。他の例として、立体画像に関連する画像は立体画像の左側の画像であってもよい。この場合、第2のユーザは第1のユーザが視聴する立体画像の左の画像に該当する単画像を視聴する。また他の例として、立体画像に関連する画像は立体画像の右側の画像であってもよい。この場合、第2のユーザは第1のユーザが視聴する立体画像の右側の画像に該当する単画像を視聴することができる。
また他の例として、立体画像に関連する画像は立体画像より左側の視点の立体画像であってもよい。この場合、第2のユーザの右眼に対しては、第1のユーザが視聴する立体画像の左側の画像が再生され、第2のユーザの左眼に対しては、第1のユーザが視聴する立体画像の左側の画像よりさらに左側の視点の画像が再生され得る。また他の例として、立体画像に関連する画像は立体画像より右側の視点の立体画像であってもよい。この場合、第2のユーザの左眼に対しては、第1のユーザが視聴する立体画像の右側の画像が再生され、第2のユーザの右眼に対しては、第1のユーザが視聴する立体画像の右側の画像よりさらに右側の視点の画像が再生され得る。
ステップS1820において、レンダリング装置は、例えば、第2のユーザの両眼の位置のうち少なくとも1つに立体画像の左側の画像又は右側の画像が再生されるように、第2のピクセルの値を決定する。本発明の実施形態は、ライトフィールドレンダリング装置で複数のユーザの両眼の位置に合うように画像を表現するレンダリングアルゴリズムを提供してもよい。
サブピクセル単位でレンダリングが行われる場合、図18において記述した「ピクセル」はサブピクセルとして理解されてもよい。
図19は、本発明の一実施形態に係るライトフィールドレンダリング装置の光学層がディスプレイの後面に位置する場合を示す図である。
図19を参照すると、光学層のパララックスバリア(Parallax Barrier)1910が透過型パネル1930の後面に位置するライトフィールドレンダリング装置が示されている。図1のパネル101に対する光学層103と同様に、透過型パネル1930に対する後面のパララックスバリア1910は、光学層のユニット位置1911とパネル1930のサブピクセル1931の位置関係を用いてパネル1930のサブピクセル1931から放出される光の方向を制限することができる。
この場合、レンダリング装置は、パララックスバリア1910に含まれたいずれか1つのユニット位置1911の光線方向と対応するパネル1930のサブピクセル1931を通過する光線方向1950が属したサブ視点領域に対応するコンテンツをユーザの両眼のうちいずれか1つに対応するように決定することができる。
図20は、本発明の一実施形態に係るレンダリング装置のブロック図である。
図20を参照すると、本発明の一実施形態に係るレンダリング装置2000は、プロセッサ2010、センサ2020、及びメモリ2030を含む。プロセッサ2010、センサ2020、及びメモリ2030は、バス2040を介して通信する。
センサ2020は、第1のユーザ及び第2のユーザを撮影する。センサ2020は、例えば、画像センサであってもよい。プロセッサ2010は、第1のユーザの両眼の位置及び第2のユーザの両眼の位置をサブピクセルに対応する視点領域にマッピングし、マッピングされた第1のユーザの両眼の位置及びマッピングされた第2のユーザの両眼の位置に基づいて、サブピクセルの値を決定する。
少なくとも1つの本発明の実施形態によれば、プロセッサ2010は、第1のユーザに対する画像を表示するディスプレイの領域に関連する第1の視覚領域を決定する。
プロセッサ2010は、第2の視覚領域から第1の視覚領域に第2のユーザの眼の位置を変換する。
プロセッサ2010は、第2のユーザの変換された眼の位置及び第1のユーザの実際の眼の位置に基づいて領域の値を決定する。
プロセッサ2010は、領域が画像の対応する部分を表示するように決定された値を有するように画像をレンダリングする。
少なくとも1つの本発明の実施形態によれば、画像は、複数のビュー画像を含む立体画像であり、プロセッサ2010は、i)複数のビュー画像のうち少なくとも1つの画像、ii)変換された位置及び実際の位置の間の関係、及びiii)領域の光線方向(光線方向は、光線がディスプレイに関連する光学素子の中心を介して領域から通過する方向)に基づいて領域の値を決定する。
領域はピクセルであってもよく、第1の視覚領域はピクセルの第1のビューコーンであってもよい。第2の視覚領域はピクセルの第2のビューコーンであってもよい。
そうでなければ、領域はピクセルのサブピクセルであってもよく、第1の視覚領域はサブピクセルの第1のビューコーンであってもよい。第2の視覚領域はサブピクセルの第2のビューコーンであってもよい。
プロセッサ2010は、図1〜図19において上述した少なくとも1つの方法又は少なくとも1つの方法に対応するアルゴリズムを行ってもよい。図に示さなかったが、レンダリング装置2000はメモリをさらに含んでもよい。メモリはプロセッサ2010で決定されたサブピクセルの値を格納してもよい。メモリは揮発性メモリ又は非揮発性メモリであってもよい。
プロセッサ2010はプログラムを実行して、電子システムを制御する。プロセッサ2010によって実行されるプログラムコード(又は前記記述した動作及びアルゴリズムに対応するコンピュータ読み取り可能な命令)は、メモリに格納されてもよい。言い換えると、プロセッサ2010は、特殊目的プロセッサであってもよい。レンダリング装置2000は、入出力装置(図示せず)を介して外部装置(例えば、パーソナルコンピュータ又はネットワーク)に接続され、データを交換してもよい。レンダリング装置2000は、テレビ、スマートテレビなどの様々な電子システムを含んでもよい。
プロセッサ2010がセンサ2020及びメモリ2030と共に装置内にあると示しているが、本発明の実施形態はこれに限定されない。
例えば、プロセッサ2010は、バス2040を介してセンサ2020及びメモリ2030を含む外部装置とのインターフェースのための適切なデータインターフェース(ユニバーサルシリアルバスインターフェース(Universal Serial Bus interface)、高精細度マルチメディアインターフェース(High−Definition Multimedia Interface)など)を有したドングルに接続される別途の装置で実現してもよい。
また、センサ2020が外部装置の場合、プロセッサ2010及びメモリ2030はドングル内に実現されてもよい。
上述した実施形態は、ハードウェア構成要素、ソフトウェア構成要素、及び/又はハードウェア構成要素及びソフトウェア構成要素の組み合わせで具現される。
例えば、本実施形態で説明した装置、方法及び構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ(digital signal processor)、マイクロコンピュータ、FPGA(field programmable gate array)、PLU(programmable logic unit)、マイクロプロセッサー、又は命令(instruction)を実行して応答する異なる装置のように、1つ以上の汎用コンピュータ又は特殊眼的コンピュータを用いて具現される。処理装置は、オペレーティングシステム(OS)及び前記オペレーティングシステム上で行われる1つ以上のソフトウェアアプリケーションを実行する。また、処理装置は、ソフトウェアの実行に応答してデータをアクセス、格納、操作、処理、及び生成する。理解の便宜のために、処理装置は1つが使用されるものとして説明する場合もあるが、当該技術分野で通常の知識を有する者は、処理装置が複数の処理要素(processing element)及び/又は複数類型の処理要素を含むことが分かる。例えば、処理装置は、複数のプロセッサ又は1つのプロセッサ及び1つのコントローラを含む。また、並列プロセッサ(parallel processor)のような、他の処理構成も可能である。
ソフトウェアは、コンピュータプログラム、コード、命令、又はこれらのうちの1つ以上の組み合わせを含み、希望通りに動作するように処理装置を構成し、独立的又は結合的に処理装置に命令する。ソフトウェア及び/又はデータは、処理装置によって解釈され、処理装置に命令又はデータを提供するためのあらゆる類型の機械、構成要素、物理的装置、仮想装置、コンピュータ格納媒体又は装置、或いは伝達される信号波を介して永久的又は一時的に具現化される。ソフトウェアは、ネットワークに接続されたコンピュータシステム上に分散され、分散された方法で格納されるか又は実行される。ソフトウェア及びデータは1つ以上のコンピュータ読み取り可能な記録媒体に格納される。
本実施形態による方法は、多様なコンピュータ手段を介して実施されるプログラム命令の形態で具現され、コンピュータ読み取り可能な記録媒体に記録される。記録媒体は、プログラム命令、データファイル、データ構造などを単独又は組み合わせて含む。前記記録媒体及びプログラム命令は、本発明の眼的のために特別に設計して構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり使用可能なものであってもよい。コンピュータ読取可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、フロプティカルディスクのような磁気−光媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置を含んでもよい。プログラム命令の例としては、コンパイラによって生成されるような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行され得る高級言語コードを含む。上述のハードウェア装置は、本発明の動作を行うために1つ以上のソフトウェアモジュールとして作動するように構成してもよく、その逆も同様である。
上述したように、実施形態が限定された図面によって説明されたが、当技術分野における通常の知識を有する者であれば、前記の記載に基づいて様々な技術的修正及び変形が適用可能である。一例として、説明された技術が説明された方法と異なる順序で行われたり、及び/又は説明されたシステム、構造、装置、回路などの構成要素が説明された方法と異なる形態で結合又は組み合わせたり、他の構成要素又は均等物によって代替、置換されても適切な結果が達成され得る。したがって、本発明の範囲は、開示された実施形態に限定されて定められるものではなく、特許請求の範囲及び特許請求の範囲と均等なものなどによって定められるものである。
100:ライトフィールドレンダリング装置
101:パネル
103;光学層
104、105:複数の光漢元素
110:光線

Claims (30)

  1. 複数のユーザのためのレンダリング方法であって、
    第1のユーザの両眼の位置及び第2のユーザの両眼の位置をピクセルに対応する視点領域にマッピングするステップと、
    前記マッピングされた第1のユーザの両眼の位置及び前記マッピングされた第2のユーザの両眼の位置に基づいて、前記ピクセルの値を決定するステップと、
    を含み、前記第1のユーザの優先順位は、前記第2のユーザの優先順位よりも高く、
    前記ピクセルの値を決定するステップは、
    前記マッピングされた第1のユーザの両眼の位置に基づいて、第1のピクセルリソースを用いて前記第1のユーザのためのステレオ映像を表示し、前記ピクセルの値のうち、第1のピクセルリソースに対応するピクセルの値を第1の値として決定するステップと、
    前記マッピングされた第1のユーザの両眼の位置と、前記マッピングされた第2のユーザの両眼の位置とに基づいて、前記第1のピクセルリソース以外の残りのピクセルリソースを用いて、前記第2のユーザに対する映像を表示し、前記残りのピクセルリソースに対応するピクセルの値を第2の値として決定するステップと、
    を含む、レンダリング方法。
  2. 前記視点領域は、パネルに属した前記ピクセルと光学層に属した光学素子のペアに対応するビューコーンを含む、請求項1に記載のレンダリング方法。
  3. 前記マッピングするステップは、前記ピクセルと光学層に属する複数の光学素子との間の相対的な位置による繰り返し特性に基づいて、前記第1のユーザの両眼の位置及び前記第2のユーザの両眼の位置を前記視点領域にマッピングするステップを含む、請求項1又は2に記載のレンダリング方法。
  4. 前記決定するステップは、
    前記ピクセルの光線方向が前記第1のユーザに対応する場合、前記第1のユーザの両眼の位置に立体画像が再生されるように前記ピクセルの値を決定するステップと、
    前記光線方向が前記第2のユーザに対応する場合、前記第2のユーザの両眼のうち少なくとも片方の眼の位置に前記立体画像の左側の画像又は右側の画像が再生されるように前記ピクセルの値を決定するステップと、
    を含む、請求項1ないし3のうち何れか1項に記載のレンダリング方法。
  5. 前記光線方向は、前記ピクセル及び光学層に含まれた光学素子によって伝播される光線方向を含む、請求項4に記載のレンダリング方法。
  6. 前記決定するステップは、
    前記ピクセルの光線方向が前記マッピングされた第1のユーザの左眼の位置に対応する場合、立体画像の左側の画像に基づいて前記ピクセルの値を決定するステップと、
    前記光線方向が前記マッピングされた第1のユーザの右眼の位置に対応する場合、前記立体画像の右側の画像に基づいて前記ピクセルの値を決定するステップと、
    を含む、請求項1ないし3のうち何れか1項に記載のレンダリング方法。
  7. 前記決定するステップは
    前記ピクセルの光線方向が前記マッピングされた第2のユーザの左眼の位置に対応し、前記マッピングされた第2のユーザの左眼の位置が前記マッピングされた第1のユーザの左眼の位置に対応する場合、前記第1のユーザのための立体画像の左側の画像に基づいて前記ピクセルの値を決定するステップと、
    前記光線方向が前記マッピングされた第2のユーザの左眼の位置に対応し、前記マッピングされた第2のユーザの左眼の位置が前記マッピングされた第1のユーザの右眼の位置に対応する場合、前記立体画像の右側の画像に基づいて前記ピクセルの値を決定するステップと、
    を含む、請求項1ないし3のうち何れか1項に記載のレンダリング方法。
  8. 前記決定するステップは、
    前記ピクセルの光線方向が前記マッピングされた第2のユーザの左眼の位置に対応し、前記マッピングされた第2のユーザの右眼の位置が前記マッピングされた第1のユーザの左眼の位置に対応する場合、前記第1のユーザのための立体画像の左側の画像又は前記左側の画像よりさらに左側の視点の画像に基づいて前記ピクセルの値を決定するステップと、
    前記光線方向が前記マッピングされた第2のユーザの左眼の位置に対応し、前記マッピングされた第2のユーザの右眼の位置が前記マッピングされた第1のユーザの右眼の位置に対応する場合、前記左側の画像又は前記立体画像の右側の画像に基づいて前記ピクセルの値を決定するステップと、
    を含む、請求項1ないし3のうち何れか1項に記載のレンダリング方法。
  9. 前記決定するステップは、
    前記ピクセルの光線方向が前記マッピングされた第2のユーザの右眼の位置に対応し、前記マッピングされた第2のユーザの右眼の位置が前記マッピングされた第1のユーザの左眼の位置に対応する場合、前記第1のユーザのための立体画像の左側の画像に基づいて前記ピクセルの値を決定するステップと、
    前記光線方向が前記マッピングされた第2のユーザの右眼の位置に対応し、前記マッピングされた第2のユーザの右眼の位置が前記マッピングされた第1のユーザの右眼の位置に対応する場合、前記立体画像の右側の画像に基づいて前記ピクセルの値を決定するステップと、
    を含む、請求項1ないし3のうち何れか1項に記載のレンダリング方法。
  10. 前記決定するステップは、
    前記ピクセルの光線方向が前記マッピングされた第2のユーザの右眼の位置に対応し、前記マッピングされた第2のユーザの左眼の位置が前記マッピングされた第1のユーザの左眼の位置に対応する場合、前記第1のユーザのための立体画像の左側の画像又は前記立体画像の右側の画像に基づいて前記ピクセルの値を決定するステップと、
    前記光線方向が前記マッピングされた第2のユーザの右眼の位置に対応し、前記マッピングされた第2のユーザの左眼の位置が前記マッピングされた第1のユーザの右眼の位置に対応する場合、前記右側の画像又は前記右側の画像よりさらに右側の視点の画像に基づいて前記ピクセルの値を決定するステップと、
    を含む、請求項1ないし3のうち何れか1項に記載のレンダリング方法。
  11. 前記決定するステップは、前記マッピングされた第1のユーザの両眼の位置及び前記マッピングされた第2のユーザの両眼の位置が前記視点領域内に配置される順序、及び前記マッピングされた第1のユーザの両眼の位置及び前記マッピングされた第2のユーザの両眼の位置の間の距離のうち少なくとも1つに基づいて、前記ピクセルの値を決定するステップを含む、請求項1ないし3のうち何れか1項に記載のレンダリング方法。
  12. 前記決定するステップは、
    前記マッピングされた第1のユーザの両眼の位置及び前記マッピングされた第2のユーザの両眼の位置に基づいて、前記視点領域を複数のサブ視点領域に分割するステップと、
    前記ピクセルの光線方向に対応するサブ視点領域のコンテンツに基づいて、前記ピクセルの値を決定するステップと、
    を含む、請求項1ないし3のうち何れか1項に記載のレンダリング方法。
  13. 前記決定するステップは、
    前記複数のサブ視点領域の中から前記第1のユーザのための第1のサブ視点領域のコンテンツを決定するステップと、
    前記第1のサブ視点領域のコンテンツに基づいて、前記複数のサブ視点領域の中から前記第2のユーザのための第2のサブ視点領域のコンテンツを決定するステップと、
    をさらに含む、請求項12に記載のレンダリング方法。
  14. 複数のユーザのためのレンダリング方法であって、
    第1のユーザの両眼の位置に立体画像が再生されるように第1のピクセルの値を決定するステップと、
    前記第1のユーザの両眼の位置及び第2のユーザの両眼の位置の間の相関関係に基づいて、前記第2のユーザの両眼の位置に前記立体画像に関連する画像が再生されるように前記第1のピクセル以外の第2のピクセルの値を決定するステップと、
    を含み、前記第1のユーザの優先順位は、前記第2のユーザの優先順位よりも高く、
    前記第1のピクセルの値を決定するステップは、
    前記第1のユーザの両眼の位置に基づいて、第1のピクセルリソースを用いて前記第1のユーザのためのステレオ映像を表示し、前記第1のピクセルリソースに対応するピクセルの値を第1のピクセルの値として決定するステップを含み、
    前記第2のピクセルの値を決定するステップは、
    前記第1のユーザの両眼の位置と、前記第2のユーザの両眼の位置との相関関係に基づいて、前記第1のピクセルリソース以外の残りのピクセルリソースを用いて、前記第2のユーザに対する映像を表示し、前記残りのピクセルリソースに対応するピクセルの値を第2のピクセルの値として決定するステップを含む、レンダリング方法。
  15. 前記立体画像に関連する画像は、
    前記立体画像と、
    前記立体画像の左側の画像と、
    前記立体画像の右側の画像と、
    前記立体画像より左側の視点の立体画像と、
    前記立体画像より右側の視点の立体画像と、
    のうち少なくとも1つを含む、請求項14に記載のレンダリング方法。
  16. 前記第2のピクセルの値を決定するステップは、前記第2のユーザの両眼の位置のうち少なくとも1つに前記立体画像の左側の画像又は右側の画像が再生されるように、前記第2のピクセルの値を決定するステップを含む、請求項14又は15に記載のレンダリング方法。
  17. 前記相関関係は、前記第1のユーザの両眼の位置と前記第2のユーザの両眼の位置が予め決定した視点領域にマッピングされる場合、前記マッピングされた位置が配置される順序及び前記マッピングされた位置の間の距離のうち少なくとも1つを含む、請求項14ないし16のうちの何れか1項に記載のレンダリング方法。
  18. 請求項1ないし請求項17のうちいずれか1項に記載のレンダリング方法をレンダリング装置のコンピュータに実行させるコンピュータプログラム。
  19. 複数のユーザのためのレンダリング装置であって、
    第1のユーザ及び第2のユーザを撮影するセンサと、
    前記第1のユーザの両眼の位置及び前記第2のユーザの両眼の位置をピクセルに対応する視点領域にマッピングし、前記マッピングされた第1のユーザの 両眼の位置及び前記マッピングされた第2のユーザの両眼の位置に基づいて、前記ピクセルの値を決定するプロセッサと、
    を含み、前記第1のユーザの優先順位は、前記第2のユーザの優先順位よりも高く、
    前記プロセッサは、
    前記マッピングされた第1のユーザの両眼の位置に基づいて、第1のピクセルリソースを用いて前記第1のユーザのためのステレオ映像を表示し、前記ピクセルの値のうち、第1のピクセルリソースに対応するピクセルの値を第1の値として決定し、
    前記マッピングされた第1のユーザの両眼の位置と、前記マッピングされた第2のユーザの両眼の位置とに基づいて、前記第1のピクセルリソース以外の残りのピクセルリソースを用いて、前記第2のユーザに対する映像を表示し、前記残りのピクセルリソースに対応するピクセルの値を第2の値として決定する、レンダリング装置。
  20. 前記プロセッサは、
    前記ピクセルの光線方向が前記マッピングされた第1のユーザの左眼の位置に対応する場合、立体画像の左側の画像に基づいて前記ピクセルの値を決定し、
    前記光線方向が前記マッピングされた第1のユーザの右眼の位置に対応する場合、前記立体画像の右側の画像に基づいて前記ピクセルの値を決定する、請求項19に記載のレンダリング装置。
  21. 前記プロセッサは、
    前記ピクセルの光線方向が前記マッピングされた第2のユーザの左眼の位置に対応し、前記マッピングされた第2のユーザの左眼の位置が前記マッピングされた第1のユーザの左眼の位置に対応する場合、前記第1のユーザのための立体画像の左側の画像に基づいて前記ピクセルの値を決定し、
    前記光線方向が前記マッピングされた第2のユーザの左眼の位置に対応し、前記マッピングされた第2のユーザの左眼の位置が前記マッピングされた第1のユーザの右眼の位置に対応する場合、前記立体画像の右側の画像に基づいて前記ピクセルの値を決定する、請求項19に記載のレンダリング装置。
  22. 前記プロセッサは、
    前記ピクセルの光線方向が前記マッピングされた第2のユーザの左眼の位置に対応し、前記マッピングされた第2のユーザの右眼の位置が前記マッピングされた第1のユーザの左眼の位置に対応する場合、前記第1のユーザのための立体画像の左側の画像又は前記左側の画像よりさらに左側の視点の画像に基づいて前記ピクセルの値を決定し、
    前記光線方向が前記マッピングされた第2のユーザの左眼の位置に対応し、前記マッピングされた第2のユーザの右眼の位置が前記マッピングされた第1のユーザの右眼の位置に対応する場合、前記左側の画像又は前記立体画像の右側の画像に基づいて前記ピクセルの値を決定する、請求項19に記載のレンダリング装置。
  23. 前記プロセッサは、
    前記ピクセルの光線方向が前記マッピングされた第2のユーザの右眼の位置に対応し、前記マッピングされた第2のユーザの右眼の位置が前記マッピングされた第1のユーザの左眼の位置に対応する場合、前記第1のユーザのための立体画像の左側の画像に基づいて前記ピクセルの値を決定し、
    前記光線方向が前記マッピングされた第2のユーザの右眼の位置に対応し、前記マッピングされた第2のユーザの右眼の位置が前記マッピングされた第1のユーザの右眼の位置に対応する場合、前記立体画像の右側の画像に基づいて前記ピクセルの値を決定する、請求項19に記載のレンダリング装置。
  24. 前記プロセッサは、
    前記ピクセルの光線方向が前記マッピングされた第2のユーザの右眼の位置に対応し、前記マッピングされた第2のユーザの左眼の位置が前記マッピングされた第1のユーザの左眼の位置に対応する場合、前記第1のユーザのための立体画像の左側の画像又は前記立体画像の右側の画像に基づいて前記ピクセルの値を決定し、
    前記光線方向が前記マッピングされた第2のユーザの右眼の位置に対応し、前記マッピングされた第2のユーザの左眼の位置が前記マッピングされた第1のユーザの右眼の位置に対応する場合、前記右側の画像又は前記右側の画像よりさらに右側の視点の画像に基づいて前記ピクセルの値を決定する、請求項19に記載のレンダリング装置。
  25. 前記プロセッサは、前記マッピングされた第1のユーザの両眼の位置及び前記マッピングされた第2のユーザの両眼の位置が前記視点領域内に配置される順序、及び前記マッピングされた第1のユーザの両眼の位置及び前記マッピングされた第2のユーザの両眼の位置の間の距離のうち少なくとも1つに基づいて、前記ピクセルの値を決定する、請求項19に記載のレンダリング装置。
  26. 前記プロセッサは、前記マッピングされた第1のユーザの両眼の位置及び前記マッピングされた第2のユーザの両眼の位置に基づいて前記視点領域を複数のサブ視点領域に分割して、前記ピクセルの光線方向に対応するサブ視点領域のコンテンツに基づいて前記ピクセルの値を決定する、請求項19に記載のレンダリング装置。
  27. 前記プロセッサは、前記複数のサブ視点領域の中から前記第1のユーザのための第1のサブ視点領域のコンテンツを決定し、前記第1のサブ視点領域のコンテンツに基づいて前記複数のサブ視点領域の中から前記第2のユーザのための第2のサブ視点領域のコンテンツを決定する、請求項26に記載のレンダリング装置。
  28. プロセッサと、
    前記プロセッサによって実行されるコンピュータ読み取り可能な命令を含むメモリと、
    を含み、
    前記プロセッサは、
    第1のユーザに画像を見せるためのディスプレイの領域に関連する第1の視覚領域を決定し、
    第2のユーザの眼の位置を第2の視覚領域から前記第1の視覚領域に変換し、
    前記第2のユーザの眼の変換された位置及び前記第1のユーザの実際の眼の位置に基づいて領域のピクセルの値を決定し、前記第1のユーザの優先順位は、前記第2のユーザの優先順位よりも高く、
    前記プロセッサは、
    前記第1のユーザの実際の眼の位置に基づいて、第1のピクセルリソースを用いて前記第1のユーザに対するステレオ映像を表示し、前記領域のピクセルの値のうち、第1のピクセルリソースに対応するピクセルの値を第1の値として決定し、
    前記第2のユーザの眼の変換された位置と、前記第1のユーザの実際の眼の位置とに基づいて、前記第1のピクセルリソース以外の残りのピクセルリソースを用いて、前記領域のピクセルの値のうち、残りのピクセルリソースに対応するピクセルの値を第2の値として決定する、装置。
  29. 前記コンピュータ読み取り可能な命令は、前記プロセッサによって実行されるとき、前記プロセッサに前記画像をレンダリングして前記領域が前記画像の一部に対応する部分を表示するように決定された値を有するようにする、請求項28に記載の装置。
  30. 前記画像は、複数のビュー画像及び前記コンピュータ読み取り可能な命令を含む立体画像であり、
    前記プロセッサによって実行されるとき、前記プロセッサに立体画像から複数の画像のうちの1つ以上の画像、変換された位置及び実際の位置の間の関係、及び領域の光線方向に基づいて領域の値を決定するようにし、
    前記光線方向は、
    ディスプレイに関連する光学素子の中心を介して前記領域から光線が通過する方向である、請求項28に記載の装置。
JP2016154404A 2015-08-07 2016-08-05 複数のユーザのためのレンダリング方法及び装置 Active JP6886253B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2015-0111746 2015-08-07
KR1020150111746A KR102415502B1 (ko) 2015-08-07 2015-08-07 복수의 사용자를 위한 라이트 필드 렌더링 방법 및 장치

Publications (2)

Publication Number Publication Date
JP2017038367A JP2017038367A (ja) 2017-02-16
JP6886253B2 true JP6886253B2 (ja) 2021-06-16

Family

ID=55967014

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016154404A Active JP6886253B2 (ja) 2015-08-07 2016-08-05 複数のユーザのためのレンダリング方法及び装置

Country Status (5)

Country Link
US (1) US10397541B2 (ja)
EP (1) EP3128752B1 (ja)
JP (1) JP6886253B2 (ja)
KR (1) KR102415502B1 (ja)
CN (1) CN106454307B (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101594839B1 (ko) * 2014-09-12 2016-02-17 고려대학교 산학협력단 전두엽 활성 게임 제공 방법 및 장치
KR102415502B1 (ko) * 2015-08-07 2022-07-01 삼성전자주식회사 복수의 사용자를 위한 라이트 필드 렌더링 방법 및 장치
EP3443735B1 (en) 2016-04-12 2024-09-18 Quidient, LLC Quotidian scene reconstruction engine
JP7099444B2 (ja) * 2017-04-03 2022-07-12 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム
JP2018185437A (ja) * 2017-04-26 2018-11-22 京セラ株式会社 3次元表示装置、3次元表示システム、ヘッドアップディスプレイシステム、および移動体
US20190124313A1 (en) * 2017-10-19 2019-04-25 Intel Corporation Three dimensional glasses free light field display using eye location
US10298921B1 (en) 2018-02-27 2019-05-21 Looking Glass Factory, Inc. Superstereoscopic display with enhanced off-angle separation
CA3097202A1 (en) 2018-05-02 2019-11-07 Quidient, Llc A codec for processing scenes of almost unlimited detail
CN108848359B (zh) * 2018-06-19 2021-09-10 明基智能科技(上海)有限公司 影像显示系统及影像显示方法
EP3817379B1 (en) * 2018-06-26 2024-03-13 Kyocera Corporation Three-dimensional display device and three-dimensional display method
WO2020087261A1 (zh) * 2018-10-30 2020-05-07 京东方科技集团股份有限公司 光场显示方法、装置、设备和记录介质
CN112929636B (zh) * 2019-12-05 2024-09-10 北京芯海视界三维科技有限公司 3d显示设备、3d图像显示方法
CN112929644A (zh) * 2019-12-05 2021-06-08 北京芯海视界三维科技有限公司 多视点裸眼3d显示屏、多视点裸眼3d显示设备
CN113138734A (zh) * 2020-01-20 2021-07-20 北京芯海视界三维科技有限公司 用于显示的方法、装置和产品
WO2021237065A1 (en) * 2020-05-21 2021-11-25 Looking Glass Factory, Inc. System and method for holographic image display
CN111624784B (zh) * 2020-06-23 2022-10-18 京东方科技集团股份有限公司 一种光场显示装置
US11415935B2 (en) 2020-06-23 2022-08-16 Looking Glass Factory, Inc. System and method for holographic communication
US11388388B2 (en) 2020-12-01 2022-07-12 Looking Glass Factory, Inc. System and method for processing three dimensional images
CN112801921B (zh) * 2021-03-30 2022-05-03 深圳市立体通科技有限公司 3d图像处理优化方法、装置、存储介质和电子设备
CN113177434A (zh) * 2021-03-30 2021-07-27 青岛小鸟看看科技有限公司 基于单眼球追踪的虚拟现实系统注视渲染方法、系统
CN113093402B (zh) * 2021-04-16 2022-12-02 业成科技(成都)有限公司 立体显示器及其制造方法与立体显示系统
WO2023199765A1 (ja) * 2022-04-12 2023-10-19 公立大学法人大阪 立体表示装置

Family Cites Families (78)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01317091A (ja) * 1988-06-17 1989-12-21 Nippon Hoso Kyokai <Nhk> 多方向立体映像装置
JPH0389794A (ja) * 1989-09-01 1991-04-15 Nippon Telegr & Teleph Corp <Ntt> 多人数用三次元表示方式
JPH0583746A (ja) * 1991-09-19 1993-04-02 Nippon Telegr & Teleph Corp <Ntt> 3次元表示装置
US5973700A (en) * 1992-09-16 1999-10-26 Eastman Kodak Company Method and apparatus for optimizing the resolution of images which have an apparent depth
JPH06148763A (ja) 1992-11-12 1994-05-27 Hitachi Ltd 多人数観測用レンチキュラ立体表示方式
DE4312918A1 (de) 1993-04-14 1994-10-20 Hertz Inst Heinrich Wiedergabeeinrichtung
GB2296617A (en) 1994-12-29 1996-07-03 Sharp Kk Observer tracking autosteroscopic display
FI974321A0 (fi) * 1997-11-25 1997-11-25 Jenny Ja Antti Wihurin Rahasto Multipel heparinglykosaminoglykan och en proteoglykan innehaollande dessa
JP2001145129A (ja) * 1999-11-17 2001-05-25 Mixed Reality Systems Laboratory Inc 立体画像表示装置
KR20040026693A (ko) * 2001-07-27 2004-03-31 코닌클리케 필립스 일렉트로닉스 엔.브이. 관찰자 추적 시스템을 구비한 오토스테레오스코픽 이미지디스플레이
DE10359403B4 (de) * 2003-12-18 2005-12-15 Seereal Technologies Gmbh Autostereoskopisches Multi-User-Display
EP1776837A1 (de) * 2004-08-10 2007-04-25 SeeReal Technologies GmbH Sweet-spot-bildtrenneinrichtung für autostereoskopische multi-user-displays
JP5006587B2 (ja) * 2006-07-05 2012-08-22 株式会社エヌ・ティ・ティ・ドコモ 画像提示装置および画像提示方法
DE102007055026B4 (de) * 2007-11-15 2011-04-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zum autostereoskopischen Darstellen von Bildinformationen
US20090282429A1 (en) 2008-05-07 2009-11-12 Sony Ericsson Mobile Communications Ab Viewer tracking for displaying three dimensional views
KR101502603B1 (ko) * 2008-09-22 2015-03-13 삼성전자주식회사 입체 영상 표시 장치 및 그 방법
TWI387316B (zh) * 2008-11-18 2013-02-21 Ind Tech Res Inst 立體影像顯示裝置與立體影像顯示方法
KR101615111B1 (ko) * 2009-06-16 2016-04-25 삼성전자주식회사 다시점 영상 표시 장치 및 방법
WO2011055276A1 (en) * 2009-11-03 2011-05-12 Koninklijke Philips Electronics N.V. Autostereoscopic display device
KR101629479B1 (ko) 2009-11-04 2016-06-10 삼성전자주식회사 능동 부화소 렌더링 방식 고밀도 다시점 영상 표시 시스템 및 방법
EP2508005B1 (en) 2009-11-30 2015-05-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method for displaying image information and autostereoscopic screen
US8358335B2 (en) * 2009-11-30 2013-01-22 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Method for displaying image information and autostereoscopic screen
US8704877B2 (en) * 2010-02-01 2014-04-22 Eldon Technology Limited Systems and methods for presenting three-dimensional content using apertures
US8687051B2 (en) * 2010-03-03 2014-04-01 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Screen and method for representing picture information
US8633972B2 (en) * 2010-03-03 2014-01-21 Fraunhofer-Geselschaft zur Foerderung der angewandten Forschung e.V. Method for displaying image information and autostereoscopic screen
JP5462672B2 (ja) * 2010-03-16 2014-04-02 株式会社ジャパンディスプレイ 表示装置及び電子機器
CN102449534B (zh) * 2010-04-21 2014-07-02 松下电器产业株式会社 立体影像显示装置、立体影像显示方法
US9319663B2 (en) * 2010-05-21 2016-04-19 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E. V. Image display using matrix screen and periodic grating having a fixed period
US20110310003A1 (en) * 2010-05-21 2011-12-22 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. Image display device and method of displaying images
JP5494283B2 (ja) * 2010-06-24 2014-05-14 ソニー株式会社 立体表示装置及び立体表示装置の制御方法
JP5494284B2 (ja) * 2010-06-24 2014-05-14 ソニー株式会社 立体表示装置及び立体表示装置の制御方法
JP5364666B2 (ja) * 2010-09-13 2013-12-11 株式会社東芝 立体画像表示装置、方法およびプログラム
WO2012070103A1 (ja) * 2010-11-22 2012-05-31 株式会社 東芝 立体画像表示装置および方法
KR101993565B1 (ko) * 2010-12-22 2019-06-26 시리얼 테크놀로지즈 에스.에이. 관찰자 트래킹을 위한 조합된 광변조 장치
JP5732888B2 (ja) * 2011-02-14 2015-06-10 ソニー株式会社 表示装置及び表示方法
JP2012222386A (ja) * 2011-04-04 2012-11-12 Sony Corp 表示制御装置および方法、並びにプログラム
JP2012222549A (ja) * 2011-04-07 2012-11-12 Panasonic Corp 映像表示装置および映像表示方法
JP2013005135A (ja) * 2011-06-15 2013-01-07 Sony Corp 画像処理装置および方法、並びにプログラム
JP5132804B1 (ja) * 2011-08-31 2013-01-30 株式会社東芝 映像処理装置および映像処理方法
JP5134714B1 (ja) * 2011-08-31 2013-01-30 株式会社東芝 映像処理装置
JP5032694B1 (ja) * 2011-08-31 2012-09-26 株式会社東芝 映像処理装置および映像処理方法
JP5127967B1 (ja) * 2011-08-31 2013-01-23 株式会社東芝 映像処理装置および映像処理方法
JP5100875B1 (ja) 2011-08-31 2012-12-19 株式会社東芝 視域調整装置、映像処理装置および視域調整方法
JP5050120B1 (ja) * 2011-08-31 2012-10-17 株式会社東芝 立体画像表示装置
EP2587814A1 (en) * 2011-10-25 2013-05-01 Telefonaktiebolaget L M Ericsson AB (Publ) Depth adaptation for multi-view system
KR101953686B1 (ko) 2011-11-30 2019-05-23 삼성전자주식회사 부화소를 렌더링하는 영상 처리 장치 및 방법
WO2013094192A1 (ja) * 2011-12-19 2013-06-27 パナソニック株式会社 表示装置
KR101322910B1 (ko) 2011-12-23 2013-10-29 한국과학기술연구원 다수의 관찰자에 적용가능한 동적 시역 확장을 이용한 다시점 3차원 영상표시장치 및 그 방법
JP2013138272A (ja) * 2011-12-27 2013-07-11 Toshiba Corp 表示装置及び制御方法
JP5422684B2 (ja) 2012-02-10 2014-02-19 株式会社東芝 立体画像決定装置、立体画像決定方法、および立体画像表示装置
GB2499426A (en) * 2012-02-16 2013-08-21 Dimenco B V Autostereoscopic display device with viewer tracking system
CA2867221A1 (en) * 2012-03-15 2013-09-19 Collin Rickey Morris Multi-conduit coiled tubing assembly
KR101911250B1 (ko) * 2012-03-19 2018-10-24 엘지전자 주식회사 입체영상 처리 장치 및 다시점 영상을 디스플레이하기 위한 스윗 스포트의 위치를 조절하는 방법
CN104185987B (zh) * 2012-03-27 2017-03-08 皇家飞利浦有限公司 具有位置追踪的多用户自动立体显示
KR101924058B1 (ko) * 2012-04-03 2018-11-30 엘지전자 주식회사 영상표시장치 및 그 동작방법
KR101958447B1 (ko) * 2012-05-16 2019-03-15 삼성디스플레이 주식회사 입체 영상 표시 장치 및 그 표시 방법
JP5860144B2 (ja) * 2012-06-04 2016-02-16 株式会社Pfu 情報処理装置、方法およびプログラム
WO2014027218A1 (en) * 2012-08-14 2014-02-20 Aselsan Elektronik Sanayi Ve Ticaret Anonim Sirketi A sighting device
JP2013055665A (ja) 2012-09-18 2013-03-21 Toshiba Corp 視域調整装置、映像処理装置および視域調整方法
EP2720464B1 (en) * 2012-10-11 2018-01-10 Sony Mobile Communications Inc. Generating image information
US9674510B2 (en) * 2012-11-21 2017-06-06 Elwha Llc Pulsed projection system for 3D video
US9596446B2 (en) * 2013-02-06 2017-03-14 Koninklijke Philips N.V. Method of encoding a video data signal for use with a multi-view stereoscopic display device
WO2014136144A1 (ja) * 2013-03-07 2014-09-12 パナソニック株式会社 映像表示装置および映像表示方法
JP6238532B2 (ja) * 2013-03-11 2017-11-29 キヤノン株式会社 画像表示装置及び画像表示方法
JP2015037282A (ja) * 2013-08-15 2015-02-23 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2015046693A (ja) * 2013-08-27 2015-03-12 キヤノン株式会社 画像処理装置、制御方法及びプログラム
JP2015046694A (ja) * 2013-08-27 2015-03-12 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2015046695A (ja) * 2013-08-27 2015-03-12 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP6443654B2 (ja) * 2013-09-26 2018-12-26 Tianma Japan株式会社 立体画像表示装置、端末装置、立体画像表示方法、及びそのプログラム
KR102140080B1 (ko) * 2013-09-27 2020-07-31 삼성전자주식회사 다시점 영상 디스플레이 장치 및 제어 방법
KR20150057064A (ko) * 2013-11-18 2015-05-28 엘지전자 주식회사 전자 다바이스 및 그 제어방법
US20150145977A1 (en) * 2013-11-22 2015-05-28 Samsung Display Co., Ltd. Compensation technique for viewer position in autostereoscopic displays
WO2015152776A1 (en) * 2014-04-02 2015-10-08 Telefonaktiebolaget L M Ericsson (Publ) Multi-view display control
CN104010179B (zh) * 2014-06-12 2015-03-04 山东大学 基于立体多画的多用户聚类与视点计算系统及方法
TWI556624B (zh) * 2014-07-18 2016-11-01 友達光電股份有限公司 影像顯示方法以及影像顯示裝置
CN104155824B (zh) * 2014-08-08 2018-03-30 京东方科技集团股份有限公司 一种主动式光栅、裸眼3d显示装置及显示方法
CN104317120A (zh) * 2014-10-27 2015-01-28 中国科学院自动化研究所 一种供多人观看的自由视点真三维显示系统及方法
KR102415502B1 (ko) * 2015-08-07 2022-07-01 삼성전자주식회사 복수의 사용자를 위한 라이트 필드 렌더링 방법 및 장치

Also Published As

Publication number Publication date
JP2017038367A (ja) 2017-02-16
EP3128752A1 (en) 2017-02-08
EP3128752B1 (en) 2019-06-12
CN106454307B (zh) 2020-12-08
CN106454307A (zh) 2017-02-22
US20170041596A1 (en) 2017-02-09
US10397541B2 (en) 2019-08-27
KR102415502B1 (ko) 2022-07-01
KR20170017587A (ko) 2017-02-15

Similar Documents

Publication Publication Date Title
JP6886253B2 (ja) 複数のユーザのためのレンダリング方法及び装置
CN109495734B (zh) 用于自动立体三维显示器的图像处理方法和设备
US8294754B2 (en) Metadata generating method and apparatus and image processing method and apparatus using metadata
KR102240568B1 (ko) 영상 처리 방법 및 장치
KR101944911B1 (ko) 영상 처리 방법 및 영상 처리 장치
US9270981B2 (en) Apparatus and method for adaptively rendering subpixel
KR102121389B1 (ko) 무안경 3d 디스플레이 장치 및 그 제어 방법
JP2019062532A (ja) 映像レンダリング方法及び装置
US11363250B2 (en) Augmented 3D entertainment systems
KR101975246B1 (ko) 다시점 영상 디스플레이 장치 및 그 제어 방법
JP6717576B2 (ja) 映像レンダリング装置及び方法
JP2015069210A (ja) 多視点映像を提供するディスプレイ装置及び方法
CN111308704A (zh) 三维显示设备和方法
US20150234196A1 (en) Image display apparatus, lenticular lens, and image display method
CN108107595B (zh) 三维显示设备
US20160163093A1 (en) Method and apparatus for generating image
JP2011064814A (ja) 表示装置、表示方法、および、プログラム
US20160241846A1 (en) Method and device for processing image
TW201325202A (zh) 三維影像處理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190723

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200821

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210427

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210514

R150 Certificate of patent or registration of utility model

Ref document number: 6886253

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250