JP6886253B2 - 複数のユーザのためのレンダリング方法及び装置 - Google Patents
複数のユーザのためのレンダリング方法及び装置 Download PDFInfo
- Publication number
- JP6886253B2 JP6886253B2 JP2016154404A JP2016154404A JP6886253B2 JP 6886253 B2 JP6886253 B2 JP 6886253B2 JP 2016154404 A JP2016154404 A JP 2016154404A JP 2016154404 A JP2016154404 A JP 2016154404A JP 6886253 B2 JP6886253 B2 JP 6886253B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- image
- pixel
- mapped
- eye
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000009877 rendering Methods 0.000 title claims description 285
- 238000000034 method Methods 0.000 title claims description 121
- 230000003287 optical effect Effects 0.000 claims description 73
- 230000000007 visual effect Effects 0.000 claims description 19
- 238000013507 mapping Methods 0.000 claims description 16
- 230000000644 propagated effect Effects 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 2
- 230000003252 repetitive effect Effects 0.000 claims description 2
- 230000008569 process Effects 0.000 description 49
- 238000010586 diagram Methods 0.000 description 18
- 238000000926 separation method Methods 0.000 description 5
- 230000004888 barrier function Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000001902 propagating effect Effects 0.000 description 3
- 230000004308 accommodation Effects 0.000 description 1
- 208000003464 asthenopia Diseases 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 229910003460 diamond Inorganic materials 0.000 description 1
- 239000010432 diamond Substances 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/349—Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/398—Synchronisation thereof; Control thereof
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
- G02B30/20—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
- G02B30/26—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
- G02B30/27—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/144—Processing image signals for flicker reduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
- H04N13/305—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
- H04N13/307—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using fly-eye lenses, e.g. arrangements of circular lenses
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
- H04N13/31—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/368—Image reproducers using viewer tracking for two or more viewers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/376—Image reproducers using viewer tracking for tracking left-right translational head movements, i.e. lateral movements
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Controls And Circuits For Display Device (AREA)
Description
センサ2020は、第1のユーザ及び第2のユーザを撮影する。センサ2020は、例えば、画像センサであってもよい。プロセッサ2010は、第1のユーザの両眼の位置及び第2のユーザの両眼の位置をサブピクセルに対応する視点領域にマッピングし、マッピングされた第1のユーザの両眼の位置及びマッピングされた第2のユーザの両眼の位置に基づいて、サブピクセルの値を決定する。
プロセッサ2010は、図1〜図19において上述した少なくとも1つの方法又は少なくとも1つの方法に対応するアルゴリズムを行ってもよい。図に示さなかったが、レンダリング装置2000はメモリをさらに含んでもよい。メモリはプロセッサ2010で決定されたサブピクセルの値を格納してもよい。メモリは揮発性メモリ又は非揮発性メモリであってもよい。
例えば、本実施形態で説明した装置、方法及び構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ(digital signal processor)、マイクロコンピュータ、FPGA(field programmable gate array)、PLU(programmable logic unit)、マイクロプロセッサー、又は命令(instruction)を実行して応答する異なる装置のように、1つ以上の汎用コンピュータ又は特殊眼的コンピュータを用いて具現される。処理装置は、オペレーティングシステム(OS)及び前記オペレーティングシステム上で行われる1つ以上のソフトウェアアプリケーションを実行する。また、処理装置は、ソフトウェアの実行に応答してデータをアクセス、格納、操作、処理、及び生成する。理解の便宜のために、処理装置は1つが使用されるものとして説明する場合もあるが、当該技術分野で通常の知識を有する者は、処理装置が複数の処理要素(processing element)及び/又は複数類型の処理要素を含むことが分かる。例えば、処理装置は、複数のプロセッサ又は1つのプロセッサ及び1つのコントローラを含む。また、並列プロセッサ(parallel processor)のような、他の処理構成も可能である。
101:パネル
103;光学層
104、105:複数の光漢元素
110:光線
Claims (30)
- 複数のユーザのためのレンダリング方法であって、
第1のユーザの両眼の位置及び第2のユーザの両眼の位置をピクセルに対応する視点領域にマッピングするステップと、
前記マッピングされた第1のユーザの両眼の位置及び前記マッピングされた第2のユーザの両眼の位置に基づいて、前記ピクセルの値を決定するステップと、
を含み、前記第1のユーザの優先順位は、前記第2のユーザの優先順位よりも高く、
前記ピクセルの値を決定するステップは、
前記マッピングされた第1のユーザの両眼の位置に基づいて、第1のピクセルリソースを用いて前記第1のユーザのためのステレオ映像を表示し、前記ピクセルの値のうち、第1のピクセルリソースに対応するピクセルの値を第1の値として決定するステップと、
前記マッピングされた第1のユーザの両眼の位置と、前記マッピングされた第2のユーザの両眼の位置とに基づいて、前記第1のピクセルリソース以外の残りのピクセルリソースを用いて、前記第2のユーザに対する映像を表示し、前記残りのピクセルリソースに対応するピクセルの値を第2の値として決定するステップと、
を含む、レンダリング方法。 - 前記視点領域は、パネルに属した前記ピクセルと光学層に属した光学素子のペアに対応するビューコーンを含む、請求項1に記載のレンダリング方法。
- 前記マッピングするステップは、前記ピクセルと光学層に属する複数の光学素子との間の相対的な位置による繰り返し特性に基づいて、前記第1のユーザの両眼の位置及び前記第2のユーザの両眼の位置を前記視点領域にマッピングするステップを含む、請求項1又は2に記載のレンダリング方法。
- 前記決定するステップは、
前記ピクセルの光線方向が前記第1のユーザに対応する場合、前記第1のユーザの両眼の位置に立体画像が再生されるように前記ピクセルの値を決定するステップと、
前記光線方向が前記第2のユーザに対応する場合、前記第2のユーザの両眼のうち少なくとも片方の眼の位置に前記立体画像の左側の画像又は右側の画像が再生されるように前記ピクセルの値を決定するステップと、
を含む、請求項1ないし3のうち何れか1項に記載のレンダリング方法。 - 前記光線方向は、前記ピクセル及び光学層に含まれた光学素子によって伝播される光線方向を含む、請求項4に記載のレンダリング方法。
- 前記決定するステップは、
前記ピクセルの光線方向が前記マッピングされた第1のユーザの左眼の位置に対応する場合、立体画像の左側の画像に基づいて前記ピクセルの値を決定するステップと、
前記光線方向が前記マッピングされた第1のユーザの右眼の位置に対応する場合、前記立体画像の右側の画像に基づいて前記ピクセルの値を決定するステップと、
を含む、請求項1ないし3のうち何れか1項に記載のレンダリング方法。 - 前記決定するステップは
前記ピクセルの光線方向が前記マッピングされた第2のユーザの左眼の位置に対応し、前記マッピングされた第2のユーザの左眼の位置が前記マッピングされた第1のユーザの左眼の位置に対応する場合、前記第1のユーザのための立体画像の左側の画像に基づいて前記ピクセルの値を決定するステップと、
前記光線方向が前記マッピングされた第2のユーザの左眼の位置に対応し、前記マッピングされた第2のユーザの左眼の位置が前記マッピングされた第1のユーザの右眼の位置に対応する場合、前記立体画像の右側の画像に基づいて前記ピクセルの値を決定するステップと、
を含む、請求項1ないし3のうち何れか1項に記載のレンダリング方法。 - 前記決定するステップは、
前記ピクセルの光線方向が前記マッピングされた第2のユーザの左眼の位置に対応し、前記マッピングされた第2のユーザの右眼の位置が前記マッピングされた第1のユーザの左眼の位置に対応する場合、前記第1のユーザのための立体画像の左側の画像又は前記左側の画像よりさらに左側の視点の画像に基づいて前記ピクセルの値を決定するステップと、
前記光線方向が前記マッピングされた第2のユーザの左眼の位置に対応し、前記マッピングされた第2のユーザの右眼の位置が前記マッピングされた第1のユーザの右眼の位置に対応する場合、前記左側の画像又は前記立体画像の右側の画像に基づいて前記ピクセルの値を決定するステップと、
を含む、請求項1ないし3のうち何れか1項に記載のレンダリング方法。 - 前記決定するステップは、
前記ピクセルの光線方向が前記マッピングされた第2のユーザの右眼の位置に対応し、前記マッピングされた第2のユーザの右眼の位置が前記マッピングされた第1のユーザの左眼の位置に対応する場合、前記第1のユーザのための立体画像の左側の画像に基づいて前記ピクセルの値を決定するステップと、
前記光線方向が前記マッピングされた第2のユーザの右眼の位置に対応し、前記マッピングされた第2のユーザの右眼の位置が前記マッピングされた第1のユーザの右眼の位置に対応する場合、前記立体画像の右側の画像に基づいて前記ピクセルの値を決定するステップと、
を含む、請求項1ないし3のうち何れか1項に記載のレンダリング方法。 - 前記決定するステップは、
前記ピクセルの光線方向が前記マッピングされた第2のユーザの右眼の位置に対応し、前記マッピングされた第2のユーザの左眼の位置が前記マッピングされた第1のユーザの左眼の位置に対応する場合、前記第1のユーザのための立体画像の左側の画像又は前記立体画像の右側の画像に基づいて前記ピクセルの値を決定するステップと、
前記光線方向が前記マッピングされた第2のユーザの右眼の位置に対応し、前記マッピングされた第2のユーザの左眼の位置が前記マッピングされた第1のユーザの右眼の位置に対応する場合、前記右側の画像又は前記右側の画像よりさらに右側の視点の画像に基づいて前記ピクセルの値を決定するステップと、
を含む、請求項1ないし3のうち何れか1項に記載のレンダリング方法。 - 前記決定するステップは、前記マッピングされた第1のユーザの両眼の位置及び前記マッピングされた第2のユーザの両眼の位置が前記視点領域内に配置される順序、及び前記マッピングされた第1のユーザの両眼の位置及び前記マッピングされた第2のユーザの両眼の位置の間の距離のうち少なくとも1つに基づいて、前記ピクセルの値を決定するステップを含む、請求項1ないし3のうち何れか1項に記載のレンダリング方法。
- 前記決定するステップは、
前記マッピングされた第1のユーザの両眼の位置及び前記マッピングされた第2のユーザの両眼の位置に基づいて、前記視点領域を複数のサブ視点領域に分割するステップと、
前記ピクセルの光線方向に対応するサブ視点領域のコンテンツに基づいて、前記ピクセルの値を決定するステップと、
を含む、請求項1ないし3のうち何れか1項に記載のレンダリング方法。 - 前記決定するステップは、
前記複数のサブ視点領域の中から前記第1のユーザのための第1のサブ視点領域のコンテンツを決定するステップと、
前記第1のサブ視点領域のコンテンツに基づいて、前記複数のサブ視点領域の中から前記第2のユーザのための第2のサブ視点領域のコンテンツを決定するステップと、
をさらに含む、請求項12に記載のレンダリング方法。 - 複数のユーザのためのレンダリング方法であって、
第1のユーザの両眼の位置に立体画像が再生されるように第1のピクセルの値を決定するステップと、
前記第1のユーザの両眼の位置及び第2のユーザの両眼の位置の間の相関関係に基づいて、前記第2のユーザの両眼の位置に前記立体画像に関連する画像が再生されるように前記第1のピクセル以外の第2のピクセルの値を決定するステップと、
を含み、前記第1のユーザの優先順位は、前記第2のユーザの優先順位よりも高く、
前記第1のピクセルの値を決定するステップは、
前記第1のユーザの両眼の位置に基づいて、第1のピクセルリソースを用いて前記第1のユーザのためのステレオ映像を表示し、前記第1のピクセルリソースに対応するピクセルの値を第1のピクセルの値として決定するステップを含み、
前記第2のピクセルの値を決定するステップは、
前記第1のユーザの両眼の位置と、前記第2のユーザの両眼の位置との相関関係に基づいて、前記第1のピクセルリソース以外の残りのピクセルリソースを用いて、前記第2のユーザに対する映像を表示し、前記残りのピクセルリソースに対応するピクセルの値を第2のピクセルの値として決定するステップを含む、レンダリング方法。 - 前記立体画像に関連する画像は、
前記立体画像と、
前記立体画像の左側の画像と、
前記立体画像の右側の画像と、
前記立体画像より左側の視点の立体画像と、
前記立体画像より右側の視点の立体画像と、
のうち少なくとも1つを含む、請求項14に記載のレンダリング方法。 - 前記第2のピクセルの値を決定するステップは、前記第2のユーザの両眼の位置のうち少なくとも1つに前記立体画像の左側の画像又は右側の画像が再生されるように、前記第2のピクセルの値を決定するステップを含む、請求項14又は15に記載のレンダリング方法。
- 前記相関関係は、前記第1のユーザの両眼の位置と前記第2のユーザの両眼の位置が予め決定した視点領域にマッピングされる場合、前記マッピングされた位置が配置される順序及び前記マッピングされた位置の間の距離のうち少なくとも1つを含む、請求項14ないし16のうちの何れか1項に記載のレンダリング方法。
- 請求項1ないし請求項17のうちいずれか1項に記載のレンダリング方法をレンダリング装置のコンピュータに実行させるコンピュータプログラム。
- 複数のユーザのためのレンダリング装置であって、
第1のユーザ及び第2のユーザを撮影するセンサと、
前記第1のユーザの両眼の位置及び前記第2のユーザの両眼の位置をピクセルに対応する視点領域にマッピングし、前記マッピングされた第1のユーザの 両眼の位置及び前記マッピングされた第2のユーザの両眼の位置に基づいて、前記ピクセルの値を決定するプロセッサと、
を含み、前記第1のユーザの優先順位は、前記第2のユーザの優先順位よりも高く、
前記プロセッサは、
前記マッピングされた第1のユーザの両眼の位置に基づいて、第1のピクセルリソースを用いて前記第1のユーザのためのステレオ映像を表示し、前記ピクセルの値のうち、第1のピクセルリソースに対応するピクセルの値を第1の値として決定し、
前記マッピングされた第1のユーザの両眼の位置と、前記マッピングされた第2のユーザの両眼の位置とに基づいて、前記第1のピクセルリソース以外の残りのピクセルリソースを用いて、前記第2のユーザに対する映像を表示し、前記残りのピクセルリソースに対応するピクセルの値を第2の値として決定する、レンダリング装置。 - 前記プロセッサは、
前記ピクセルの光線方向が前記マッピングされた第1のユーザの左眼の位置に対応する場合、立体画像の左側の画像に基づいて前記ピクセルの値を決定し、
前記光線方向が前記マッピングされた第1のユーザの右眼の位置に対応する場合、前記立体画像の右側の画像に基づいて前記ピクセルの値を決定する、請求項19に記載のレンダリング装置。 - 前記プロセッサは、
前記ピクセルの光線方向が前記マッピングされた第2のユーザの左眼の位置に対応し、前記マッピングされた第2のユーザの左眼の位置が前記マッピングされた第1のユーザの左眼の位置に対応する場合、前記第1のユーザのための立体画像の左側の画像に基づいて前記ピクセルの値を決定し、
前記光線方向が前記マッピングされた第2のユーザの左眼の位置に対応し、前記マッピングされた第2のユーザの左眼の位置が前記マッピングされた第1のユーザの右眼の位置に対応する場合、前記立体画像の右側の画像に基づいて前記ピクセルの値を決定する、請求項19に記載のレンダリング装置。 - 前記プロセッサは、
前記ピクセルの光線方向が前記マッピングされた第2のユーザの左眼の位置に対応し、前記マッピングされた第2のユーザの右眼の位置が前記マッピングされた第1のユーザの左眼の位置に対応する場合、前記第1のユーザのための立体画像の左側の画像又は前記左側の画像よりさらに左側の視点の画像に基づいて前記ピクセルの値を決定し、
前記光線方向が前記マッピングされた第2のユーザの左眼の位置に対応し、前記マッピングされた第2のユーザの右眼の位置が前記マッピングされた第1のユーザの右眼の位置に対応する場合、前記左側の画像又は前記立体画像の右側の画像に基づいて前記ピクセルの値を決定する、請求項19に記載のレンダリング装置。 - 前記プロセッサは、
前記ピクセルの光線方向が前記マッピングされた第2のユーザの右眼の位置に対応し、前記マッピングされた第2のユーザの右眼の位置が前記マッピングされた第1のユーザの左眼の位置に対応する場合、前記第1のユーザのための立体画像の左側の画像に基づいて前記ピクセルの値を決定し、
前記光線方向が前記マッピングされた第2のユーザの右眼の位置に対応し、前記マッピングされた第2のユーザの右眼の位置が前記マッピングされた第1のユーザの右眼の位置に対応する場合、前記立体画像の右側の画像に基づいて前記ピクセルの値を決定する、請求項19に記載のレンダリング装置。 - 前記プロセッサは、
前記ピクセルの光線方向が前記マッピングされた第2のユーザの右眼の位置に対応し、前記マッピングされた第2のユーザの左眼の位置が前記マッピングされた第1のユーザの左眼の位置に対応する場合、前記第1のユーザのための立体画像の左側の画像又は前記立体画像の右側の画像に基づいて前記ピクセルの値を決定し、
前記光線方向が前記マッピングされた第2のユーザの右眼の位置に対応し、前記マッピングされた第2のユーザの左眼の位置が前記マッピングされた第1のユーザの右眼の位置に対応する場合、前記右側の画像又は前記右側の画像よりさらに右側の視点の画像に基づいて前記ピクセルの値を決定する、請求項19に記載のレンダリング装置。 - 前記プロセッサは、前記マッピングされた第1のユーザの両眼の位置及び前記マッピングされた第2のユーザの両眼の位置が前記視点領域内に配置される順序、及び前記マッピングされた第1のユーザの両眼の位置及び前記マッピングされた第2のユーザの両眼の位置の間の距離のうち少なくとも1つに基づいて、前記ピクセルの値を決定する、請求項19に記載のレンダリング装置。
- 前記プロセッサは、前記マッピングされた第1のユーザの両眼の位置及び前記マッピングされた第2のユーザの両眼の位置に基づいて前記視点領域を複数のサブ視点領域に分割して、前記ピクセルの光線方向に対応するサブ視点領域のコンテンツに基づいて前記ピクセルの値を決定する、請求項19に記載のレンダリング装置。
- 前記プロセッサは、前記複数のサブ視点領域の中から前記第1のユーザのための第1のサブ視点領域のコンテンツを決定し、前記第1のサブ視点領域のコンテンツに基づいて前記複数のサブ視点領域の中から前記第2のユーザのための第2のサブ視点領域のコンテンツを決定する、請求項26に記載のレンダリング装置。
- プロセッサと、
前記プロセッサによって実行されるコンピュータ読み取り可能な命令を含むメモリと、
を含み、
前記プロセッサは、
第1のユーザに画像を見せるためのディスプレイの領域に関連する第1の視覚領域を決定し、
第2のユーザの眼の位置を第2の視覚領域から前記第1の視覚領域に変換し、
前記第2のユーザの眼の変換された位置及び前記第1のユーザの実際の眼の位置に基づいて領域のピクセルの値を決定し、前記第1のユーザの優先順位は、前記第2のユーザの優先順位よりも高く、
前記プロセッサは、
前記第1のユーザの実際の眼の位置に基づいて、第1のピクセルリソースを用いて前記第1のユーザに対するステレオ映像を表示し、前記領域のピクセルの値のうち、第1のピクセルリソースに対応するピクセルの値を第1の値として決定し、
前記第2のユーザの眼の変換された位置と、前記第1のユーザの実際の眼の位置とに基づいて、前記第1のピクセルリソース以外の残りのピクセルリソースを用いて、前記領域のピクセルの値のうち、残りのピクセルリソースに対応するピクセルの値を第2の値として決定する、装置。 - 前記コンピュータ読み取り可能な命令は、前記プロセッサによって実行されるとき、前記プロセッサに前記画像をレンダリングして前記領域が前記画像の一部に対応する部分を表示するように決定された値を有するようにする、請求項28に記載の装置。
- 前記画像は、複数のビュー画像及び前記コンピュータ読み取り可能な命令を含む立体画像であり、
前記プロセッサによって実行されるとき、前記プロセッサに立体画像から複数の画像のうちの1つ以上の画像、変換された位置及び実際の位置の間の関係、及び領域の光線方向に基づいて領域の値を決定するようにし、
前記光線方向は、
ディスプレイに関連する光学素子の中心を介して前記領域から光線が通過する方向である、請求項28に記載の装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2015-0111746 | 2015-08-07 | ||
KR1020150111746A KR102415502B1 (ko) | 2015-08-07 | 2015-08-07 | 복수의 사용자를 위한 라이트 필드 렌더링 방법 및 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017038367A JP2017038367A (ja) | 2017-02-16 |
JP6886253B2 true JP6886253B2 (ja) | 2021-06-16 |
Family
ID=55967014
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016154404A Active JP6886253B2 (ja) | 2015-08-07 | 2016-08-05 | 複数のユーザのためのレンダリング方法及び装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10397541B2 (ja) |
EP (1) | EP3128752B1 (ja) |
JP (1) | JP6886253B2 (ja) |
KR (1) | KR102415502B1 (ja) |
CN (1) | CN106454307B (ja) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101594839B1 (ko) * | 2014-09-12 | 2016-02-17 | 고려대학교 산학협력단 | 전두엽 활성 게임 제공 방법 및 장치 |
KR102415502B1 (ko) * | 2015-08-07 | 2022-07-01 | 삼성전자주식회사 | 복수의 사용자를 위한 라이트 필드 렌더링 방법 및 장치 |
EP3443735B1 (en) | 2016-04-12 | 2024-09-18 | Quidient, LLC | Quotidian scene reconstruction engine |
JP7099444B2 (ja) * | 2017-04-03 | 2022-07-12 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP2018185437A (ja) * | 2017-04-26 | 2018-11-22 | 京セラ株式会社 | 3次元表示装置、3次元表示システム、ヘッドアップディスプレイシステム、および移動体 |
US20190124313A1 (en) * | 2017-10-19 | 2019-04-25 | Intel Corporation | Three dimensional glasses free light field display using eye location |
US10298921B1 (en) | 2018-02-27 | 2019-05-21 | Looking Glass Factory, Inc. | Superstereoscopic display with enhanced off-angle separation |
CA3097202A1 (en) | 2018-05-02 | 2019-11-07 | Quidient, Llc | A codec for processing scenes of almost unlimited detail |
CN108848359B (zh) * | 2018-06-19 | 2021-09-10 | 明基智能科技(上海)有限公司 | 影像显示系统及影像显示方法 |
EP3817379B1 (en) * | 2018-06-26 | 2024-03-13 | Kyocera Corporation | Three-dimensional display device and three-dimensional display method |
WO2020087261A1 (zh) * | 2018-10-30 | 2020-05-07 | 京东方科技集团股份有限公司 | 光场显示方法、装置、设备和记录介质 |
CN112929636B (zh) * | 2019-12-05 | 2024-09-10 | 北京芯海视界三维科技有限公司 | 3d显示设备、3d图像显示方法 |
CN112929644A (zh) * | 2019-12-05 | 2021-06-08 | 北京芯海视界三维科技有限公司 | 多视点裸眼3d显示屏、多视点裸眼3d显示设备 |
CN113138734A (zh) * | 2020-01-20 | 2021-07-20 | 北京芯海视界三维科技有限公司 | 用于显示的方法、装置和产品 |
WO2021237065A1 (en) * | 2020-05-21 | 2021-11-25 | Looking Glass Factory, Inc. | System and method for holographic image display |
CN111624784B (zh) * | 2020-06-23 | 2022-10-18 | 京东方科技集团股份有限公司 | 一种光场显示装置 |
US11415935B2 (en) | 2020-06-23 | 2022-08-16 | Looking Glass Factory, Inc. | System and method for holographic communication |
US11388388B2 (en) | 2020-12-01 | 2022-07-12 | Looking Glass Factory, Inc. | System and method for processing three dimensional images |
CN112801921B (zh) * | 2021-03-30 | 2022-05-03 | 深圳市立体通科技有限公司 | 3d图像处理优化方法、装置、存储介质和电子设备 |
CN113177434A (zh) * | 2021-03-30 | 2021-07-27 | 青岛小鸟看看科技有限公司 | 基于单眼球追踪的虚拟现实系统注视渲染方法、系统 |
CN113093402B (zh) * | 2021-04-16 | 2022-12-02 | 业成科技(成都)有限公司 | 立体显示器及其制造方法与立体显示系统 |
WO2023199765A1 (ja) * | 2022-04-12 | 2023-10-19 | 公立大学法人大阪 | 立体表示装置 |
Family Cites Families (78)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01317091A (ja) * | 1988-06-17 | 1989-12-21 | Nippon Hoso Kyokai <Nhk> | 多方向立体映像装置 |
JPH0389794A (ja) * | 1989-09-01 | 1991-04-15 | Nippon Telegr & Teleph Corp <Ntt> | 多人数用三次元表示方式 |
JPH0583746A (ja) * | 1991-09-19 | 1993-04-02 | Nippon Telegr & Teleph Corp <Ntt> | 3次元表示装置 |
US5973700A (en) * | 1992-09-16 | 1999-10-26 | Eastman Kodak Company | Method and apparatus for optimizing the resolution of images which have an apparent depth |
JPH06148763A (ja) | 1992-11-12 | 1994-05-27 | Hitachi Ltd | 多人数観測用レンチキュラ立体表示方式 |
DE4312918A1 (de) | 1993-04-14 | 1994-10-20 | Hertz Inst Heinrich | Wiedergabeeinrichtung |
GB2296617A (en) | 1994-12-29 | 1996-07-03 | Sharp Kk | Observer tracking autosteroscopic display |
FI974321A0 (fi) * | 1997-11-25 | 1997-11-25 | Jenny Ja Antti Wihurin Rahasto | Multipel heparinglykosaminoglykan och en proteoglykan innehaollande dessa |
JP2001145129A (ja) * | 1999-11-17 | 2001-05-25 | Mixed Reality Systems Laboratory Inc | 立体画像表示装置 |
KR20040026693A (ko) * | 2001-07-27 | 2004-03-31 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 관찰자 추적 시스템을 구비한 오토스테레오스코픽 이미지디스플레이 |
DE10359403B4 (de) * | 2003-12-18 | 2005-12-15 | Seereal Technologies Gmbh | Autostereoskopisches Multi-User-Display |
EP1776837A1 (de) * | 2004-08-10 | 2007-04-25 | SeeReal Technologies GmbH | Sweet-spot-bildtrenneinrichtung für autostereoskopische multi-user-displays |
JP5006587B2 (ja) * | 2006-07-05 | 2012-08-22 | 株式会社エヌ・ティ・ティ・ドコモ | 画像提示装置および画像提示方法 |
DE102007055026B4 (de) * | 2007-11-15 | 2011-04-28 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren und Vorrichtung zum autostereoskopischen Darstellen von Bildinformationen |
US20090282429A1 (en) | 2008-05-07 | 2009-11-12 | Sony Ericsson Mobile Communications Ab | Viewer tracking for displaying three dimensional views |
KR101502603B1 (ko) * | 2008-09-22 | 2015-03-13 | 삼성전자주식회사 | 입체 영상 표시 장치 및 그 방법 |
TWI387316B (zh) * | 2008-11-18 | 2013-02-21 | Ind Tech Res Inst | 立體影像顯示裝置與立體影像顯示方法 |
KR101615111B1 (ko) * | 2009-06-16 | 2016-04-25 | 삼성전자주식회사 | 다시점 영상 표시 장치 및 방법 |
WO2011055276A1 (en) * | 2009-11-03 | 2011-05-12 | Koninklijke Philips Electronics N.V. | Autostereoscopic display device |
KR101629479B1 (ko) | 2009-11-04 | 2016-06-10 | 삼성전자주식회사 | 능동 부화소 렌더링 방식 고밀도 다시점 영상 표시 시스템 및 방법 |
EP2508005B1 (en) | 2009-11-30 | 2015-05-13 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Method for displaying image information and autostereoscopic screen |
US8358335B2 (en) * | 2009-11-30 | 2013-01-22 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Method for displaying image information and autostereoscopic screen |
US8704877B2 (en) * | 2010-02-01 | 2014-04-22 | Eldon Technology Limited | Systems and methods for presenting three-dimensional content using apertures |
US8687051B2 (en) * | 2010-03-03 | 2014-04-01 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Screen and method for representing picture information |
US8633972B2 (en) * | 2010-03-03 | 2014-01-21 | Fraunhofer-Geselschaft zur Foerderung der angewandten Forschung e.V. | Method for displaying image information and autostereoscopic screen |
JP5462672B2 (ja) * | 2010-03-16 | 2014-04-02 | 株式会社ジャパンディスプレイ | 表示装置及び電子機器 |
CN102449534B (zh) * | 2010-04-21 | 2014-07-02 | 松下电器产业株式会社 | 立体影像显示装置、立体影像显示方法 |
US9319663B2 (en) * | 2010-05-21 | 2016-04-19 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E. V. | Image display using matrix screen and periodic grating having a fixed period |
US20110310003A1 (en) * | 2010-05-21 | 2011-12-22 | Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. | Image display device and method of displaying images |
JP5494283B2 (ja) * | 2010-06-24 | 2014-05-14 | ソニー株式会社 | 立体表示装置及び立体表示装置の制御方法 |
JP5494284B2 (ja) * | 2010-06-24 | 2014-05-14 | ソニー株式会社 | 立体表示装置及び立体表示装置の制御方法 |
JP5364666B2 (ja) * | 2010-09-13 | 2013-12-11 | 株式会社東芝 | 立体画像表示装置、方法およびプログラム |
WO2012070103A1 (ja) * | 2010-11-22 | 2012-05-31 | 株式会社 東芝 | 立体画像表示装置および方法 |
KR101993565B1 (ko) * | 2010-12-22 | 2019-06-26 | 시리얼 테크놀로지즈 에스.에이. | 관찰자 트래킹을 위한 조합된 광변조 장치 |
JP5732888B2 (ja) * | 2011-02-14 | 2015-06-10 | ソニー株式会社 | 表示装置及び表示方法 |
JP2012222386A (ja) * | 2011-04-04 | 2012-11-12 | Sony Corp | 表示制御装置および方法、並びにプログラム |
JP2012222549A (ja) * | 2011-04-07 | 2012-11-12 | Panasonic Corp | 映像表示装置および映像表示方法 |
JP2013005135A (ja) * | 2011-06-15 | 2013-01-07 | Sony Corp | 画像処理装置および方法、並びにプログラム |
JP5132804B1 (ja) * | 2011-08-31 | 2013-01-30 | 株式会社東芝 | 映像処理装置および映像処理方法 |
JP5134714B1 (ja) * | 2011-08-31 | 2013-01-30 | 株式会社東芝 | 映像処理装置 |
JP5032694B1 (ja) * | 2011-08-31 | 2012-09-26 | 株式会社東芝 | 映像処理装置および映像処理方法 |
JP5127967B1 (ja) * | 2011-08-31 | 2013-01-23 | 株式会社東芝 | 映像処理装置および映像処理方法 |
JP5100875B1 (ja) | 2011-08-31 | 2012-12-19 | 株式会社東芝 | 視域調整装置、映像処理装置および視域調整方法 |
JP5050120B1 (ja) * | 2011-08-31 | 2012-10-17 | 株式会社東芝 | 立体画像表示装置 |
EP2587814A1 (en) * | 2011-10-25 | 2013-05-01 | Telefonaktiebolaget L M Ericsson AB (Publ) | Depth adaptation for multi-view system |
KR101953686B1 (ko) | 2011-11-30 | 2019-05-23 | 삼성전자주식회사 | 부화소를 렌더링하는 영상 처리 장치 및 방법 |
WO2013094192A1 (ja) * | 2011-12-19 | 2013-06-27 | パナソニック株式会社 | 表示装置 |
KR101322910B1 (ko) | 2011-12-23 | 2013-10-29 | 한국과학기술연구원 | 다수의 관찰자에 적용가능한 동적 시역 확장을 이용한 다시점 3차원 영상표시장치 및 그 방법 |
JP2013138272A (ja) * | 2011-12-27 | 2013-07-11 | Toshiba Corp | 表示装置及び制御方法 |
JP5422684B2 (ja) | 2012-02-10 | 2014-02-19 | 株式会社東芝 | 立体画像決定装置、立体画像決定方法、および立体画像表示装置 |
GB2499426A (en) * | 2012-02-16 | 2013-08-21 | Dimenco B V | Autostereoscopic display device with viewer tracking system |
CA2867221A1 (en) * | 2012-03-15 | 2013-09-19 | Collin Rickey Morris | Multi-conduit coiled tubing assembly |
KR101911250B1 (ko) * | 2012-03-19 | 2018-10-24 | 엘지전자 주식회사 | 입체영상 처리 장치 및 다시점 영상을 디스플레이하기 위한 스윗 스포트의 위치를 조절하는 방법 |
CN104185987B (zh) * | 2012-03-27 | 2017-03-08 | 皇家飞利浦有限公司 | 具有位置追踪的多用户自动立体显示 |
KR101924058B1 (ko) * | 2012-04-03 | 2018-11-30 | 엘지전자 주식회사 | 영상표시장치 및 그 동작방법 |
KR101958447B1 (ko) * | 2012-05-16 | 2019-03-15 | 삼성디스플레이 주식회사 | 입체 영상 표시 장치 및 그 표시 방법 |
JP5860144B2 (ja) * | 2012-06-04 | 2016-02-16 | 株式会社Pfu | 情報処理装置、方法およびプログラム |
WO2014027218A1 (en) * | 2012-08-14 | 2014-02-20 | Aselsan Elektronik Sanayi Ve Ticaret Anonim Sirketi | A sighting device |
JP2013055665A (ja) | 2012-09-18 | 2013-03-21 | Toshiba Corp | 視域調整装置、映像処理装置および視域調整方法 |
EP2720464B1 (en) * | 2012-10-11 | 2018-01-10 | Sony Mobile Communications Inc. | Generating image information |
US9674510B2 (en) * | 2012-11-21 | 2017-06-06 | Elwha Llc | Pulsed projection system for 3D video |
US9596446B2 (en) * | 2013-02-06 | 2017-03-14 | Koninklijke Philips N.V. | Method of encoding a video data signal for use with a multi-view stereoscopic display device |
WO2014136144A1 (ja) * | 2013-03-07 | 2014-09-12 | パナソニック株式会社 | 映像表示装置および映像表示方法 |
JP6238532B2 (ja) * | 2013-03-11 | 2017-11-29 | キヤノン株式会社 | 画像表示装置及び画像表示方法 |
JP2015037282A (ja) * | 2013-08-15 | 2015-02-23 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP2015046693A (ja) * | 2013-08-27 | 2015-03-12 | キヤノン株式会社 | 画像処理装置、制御方法及びプログラム |
JP2015046694A (ja) * | 2013-08-27 | 2015-03-12 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP2015046695A (ja) * | 2013-08-27 | 2015-03-12 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP6443654B2 (ja) * | 2013-09-26 | 2018-12-26 | Tianma Japan株式会社 | 立体画像表示装置、端末装置、立体画像表示方法、及びそのプログラム |
KR102140080B1 (ko) * | 2013-09-27 | 2020-07-31 | 삼성전자주식회사 | 다시점 영상 디스플레이 장치 및 제어 방법 |
KR20150057064A (ko) * | 2013-11-18 | 2015-05-28 | 엘지전자 주식회사 | 전자 다바이스 및 그 제어방법 |
US20150145977A1 (en) * | 2013-11-22 | 2015-05-28 | Samsung Display Co., Ltd. | Compensation technique for viewer position in autostereoscopic displays |
WO2015152776A1 (en) * | 2014-04-02 | 2015-10-08 | Telefonaktiebolaget L M Ericsson (Publ) | Multi-view display control |
CN104010179B (zh) * | 2014-06-12 | 2015-03-04 | 山东大学 | 基于立体多画的多用户聚类与视点计算系统及方法 |
TWI556624B (zh) * | 2014-07-18 | 2016-11-01 | 友達光電股份有限公司 | 影像顯示方法以及影像顯示裝置 |
CN104155824B (zh) * | 2014-08-08 | 2018-03-30 | 京东方科技集团股份有限公司 | 一种主动式光栅、裸眼3d显示装置及显示方法 |
CN104317120A (zh) * | 2014-10-27 | 2015-01-28 | 中国科学院自动化研究所 | 一种供多人观看的自由视点真三维显示系统及方法 |
KR102415502B1 (ko) * | 2015-08-07 | 2022-07-01 | 삼성전자주식회사 | 복수의 사용자를 위한 라이트 필드 렌더링 방법 및 장치 |
-
2015
- 2015-08-07 KR KR1020150111746A patent/KR102415502B1/ko active IP Right Grant
-
2016
- 2016-02-11 US US15/041,584 patent/US10397541B2/en active Active
- 2016-04-19 EP EP16166077.4A patent/EP3128752B1/en active Active
- 2016-05-10 CN CN201610305593.1A patent/CN106454307B/zh active Active
- 2016-08-05 JP JP2016154404A patent/JP6886253B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017038367A (ja) | 2017-02-16 |
EP3128752A1 (en) | 2017-02-08 |
EP3128752B1 (en) | 2019-06-12 |
CN106454307B (zh) | 2020-12-08 |
CN106454307A (zh) | 2017-02-22 |
US20170041596A1 (en) | 2017-02-09 |
US10397541B2 (en) | 2019-08-27 |
KR102415502B1 (ko) | 2022-07-01 |
KR20170017587A (ko) | 2017-02-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6886253B2 (ja) | 複数のユーザのためのレンダリング方法及び装置 | |
CN109495734B (zh) | 用于自动立体三维显示器的图像处理方法和设备 | |
US8294754B2 (en) | Metadata generating method and apparatus and image processing method and apparatus using metadata | |
KR102240568B1 (ko) | 영상 처리 방법 및 장치 | |
KR101944911B1 (ko) | 영상 처리 방법 및 영상 처리 장치 | |
US9270981B2 (en) | Apparatus and method for adaptively rendering subpixel | |
KR102121389B1 (ko) | 무안경 3d 디스플레이 장치 및 그 제어 방법 | |
JP2019062532A (ja) | 映像レンダリング方法及び装置 | |
US11363250B2 (en) | Augmented 3D entertainment systems | |
KR101975246B1 (ko) | 다시점 영상 디스플레이 장치 및 그 제어 방법 | |
JP6717576B2 (ja) | 映像レンダリング装置及び方法 | |
JP2015069210A (ja) | 多視点映像を提供するディスプレイ装置及び方法 | |
CN111308704A (zh) | 三维显示设备和方法 | |
US20150234196A1 (en) | Image display apparatus, lenticular lens, and image display method | |
CN108107595B (zh) | 三维显示设备 | |
US20160163093A1 (en) | Method and apparatus for generating image | |
JP2011064814A (ja) | 表示装置、表示方法、および、プログラム | |
US20160241846A1 (en) | Method and device for processing image | |
TW201325202A (zh) | 三維影像處理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190723 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200821 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200901 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201130 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210427 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210514 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6886253 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |