JP2019510991A - 適応焦点面を有して仮想現実をレンダリングする構成 - Google Patents
適応焦点面を有して仮想現実をレンダリングする構成 Download PDFInfo
- Publication number
- JP2019510991A JP2019510991A JP2018534138A JP2018534138A JP2019510991A JP 2019510991 A JP2019510991 A JP 2019510991A JP 2018534138 A JP2018534138 A JP 2018534138A JP 2018534138 A JP2018534138 A JP 2018534138A JP 2019510991 A JP2019510991 A JP 2019510991A
- Authority
- JP
- Japan
- Prior art keywords
- virtual reality
- processor
- field
- pixels
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003044 adaptive effect Effects 0.000 title description 37
- 238000009877 rendering Methods 0.000 title description 10
- 210000001747 pupil Anatomy 0.000 claims abstract description 32
- 238000000034 method Methods 0.000 claims description 48
- 239000002131 composite material Substances 0.000 claims description 36
- 230000000694 effects Effects 0.000 claims description 14
- 210000003128 head Anatomy 0.000 claims description 10
- 230000000007 visual effect Effects 0.000 claims description 6
- 230000004438 eyesight Effects 0.000 abstract description 2
- 230000010344 pupil dilation Effects 0.000 description 22
- 238000012545 processing Methods 0.000 description 11
- 238000004590 computer program Methods 0.000 description 8
- 239000011521 glass Substances 0.000 description 5
- 206010027646 Miosis Diseases 0.000 description 3
- 230000008602 contraction Effects 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000011960 computer-aided design Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000005043 peripheral vision Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0075—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for altering, e.g. increasing, the depth of field or depth of focus
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/383—Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
上記の実施形態に加えて、以下の付記を開示する。
(付記1)
仮想現実装置(102)であって、
仮想現実表示スクリーン(203)と、
仮想現実表示(203)において注目のオブジェクト(207)を決定するようユーザの1つ以上の目の注視方向を追跡する視標追跡システム(204)と、
プロセッサ(401)と、
命令の組を有するメモリ(403)と
を有し、
前記命令の組は、前記プロセッサ(401)によって実行される場合に、当該仮想現実装置(102)に、
前記仮想現実表示(203)によって表示されている仮想現実イメージの輝度に基づき前記1つ以上の目の1つ以上の瞳孔寸法を推定させ、
前記推定された1つ以上の瞳孔寸法に基づき焦点面(206)を決定させ、
前記焦点面(206)に基づき合成被写界深度を生成させ、
前記仮想現実表示(203)の1つ以上のピクセルが前記合成被写界深度の外にあることに基づき該1つ以上のピクセルにブラー効果を適用させる、
仮想現実装置(102)。
(付記2)
前記プロセッサ(401)は、更に、当該仮想現実装置(102)に、
前記仮想現実イメージに関連するフレームデータを解析することによって該仮想現実イメージの輝度を決定させる、
付記1に記載の仮想現実装置(102)。
(付記3)
前記プロセッサ(401)は、更に、当該仮想現実装置(102)に、
前記仮想現実表示(203)の1つ以上のピクセルが前記合成被写界深度の中にあることに基づき該1つ以上のピクセルから前のブラー効果を取り除かせる、
付記1に記載の仮想現実装置(102)。
(付記4)
前記視標追跡システム(204)は、1つ以上の画像捕捉デバイスを有する、
付記1に記載の仮想現実装置(102)。
(付記5)
前記視標追跡システム(204)は、前記仮想現実表示(203)においてピクセル座標により前記注視方向を追跡する、
付記1に記載の仮想現実装置(102)。
(付記6)
前記仮想現実イメージは、現実世界の景色の捕捉された立体イメージである、
付記1に記載の仮想現実装置(102)。
(付記7)
当該仮想現実装置(102)をユーザの頭部に取り付ける取付デバイスを更に有する
付記1に記載の仮想現実装置(102)。
(付記8)
前記合成被写界深度の外にある1つ以上のピクセルは、前記合成被写界深度の外にあり且つ注目のオブジェクト(207)の前にある前景オブジェクト(210)に対応する、
付記1に記載の仮想現実装置(102)。
(付記9)
前記合成被写界深度の外にある1つ以上のピクセルは、前記合成被写界深度の外にあり且つ注目のオブジェクト(207)の後ろにある背景オブジェクト(211)に対応する、
付記1に記載の仮想現実装置(102)。
(付記10)
前記プロセッサ(401)は、更に、当該仮想現実装置(102)に、
前記仮想現実イメージのパノラマビューを供給させる、
付記1に記載の仮想現実装置(102)。
(付記11)
視標追跡システム(204)により、仮想現実装置(102)の仮想現実表示(203)において注目のオブジェクト(207)を決定するようユーザの1つ以上の目の注視方向を追跡することと、
プロセッサ(401)により、前記仮想現実表示(203)によって表示されている仮想現実イメージの輝度に基づき前記1つ以上の目の1つ以上の瞳孔寸法を推定することと、
前記プロセッサ(401)により、前記推定された1つ以上の瞳孔寸法に基づき焦点面(206)を決定することと、
前記プロセッサ(401)により、前記焦点面(206)に基づき合成被写界深度を生成することと、
前記プロセッサ(401)により、前記仮想現実表示(203)の1つ以上のピクセルが前記合成被写界深度の外にあることに基づき該1つ以上のピクセルにブラー効果を適用することと
を有する方法。
(付記12)
前記プロセッサ(401)により、前記仮想現実イメージに関連するフレームデータを解析することによって該仮想現実イメージの輝度を決定することを更に有する
付記11に記載の方法。
(付記13)
前記プロセッサ(401)により、前記仮想現実表示(203)の1つ以上のピクセルが前記合成被写界深度の中にあることに基づき該1つ以上のピクセルから前のブラー効果を取り除くことを更に有する
付記11に記載の方法。
(付記14)
前記視標追跡システム(204)は、1つ以上の画像捕捉デバイスを有する、
付記11に記載の方法。
(付記15)
前記視標追跡システム(204)により、前記仮想現実表示(203)においてピクセル座標により前記注視方向を追跡することを更に有する
付記11に記載の方法。
(付記16)
前記仮想現実イメージは、現実世界の景色の捕捉された立体イメージである、
付記11に記載の方法。
(付記17)
前記仮想現実装置(102)は、該仮想現実装置(102)をユーザの頭部に取り付ける取付デバイスを有する、
付記11に記載の方法。
(付記18)
前記合成被写界深度の外にある1つ以上のピクセルは、前記合成被写界深度の外にあり且つ注目のオブジェクト(207)の前にある前景オブジェクト(210)に対応する、
付記11に記載の方法。
(付記19)
前記合成被写界深度の外にある1つ以上のピクセルは、前記合成被写界深度の外にあり且つ注目のオブジェクト(207)の後ろにある背景オブジェクト(211)に対応する、
付記11に記載の方法。
(付記20)
前記仮想現実イメージのパノラマビューを供給することを更に有する
付記11に記載の方法。
(付記21)
視標追跡システム(204)により、仮想現実装置(102)の仮想現実表示(203)において注目のオブジェクト(207)を決定するようユーザの1つ以上の目の注視方向を追跡することと、
プロセッサ(401)により、前記仮想現実表示(203)によって表示されている仮想現実イメージの輝度に基づき前記1つ以上の目の1つ以上の瞳孔寸法を推定することと、
前記プロセッサ(401)により、前記推定された1つ以上の瞳孔寸法に基づき焦点面(206)を決定することと、
前記プロセッサ(401)により、前記焦点面(206)に基づき合成被写界深度を生成することと、
前記プロセッサ(401)により、前記仮想現実表示(203)の1つ以上のピクセルが前記合成被写界深度の外にあることに基づき該1つ以上のピクセルにブラー効果を適用することと
を有する方法を実施するためのコンピュータ実行可能プログラム命令を記憶している非一時的なコンピュータ可読媒体。
(付記22)
前記プロセッサ(401)により、前記仮想現実イメージに関連するフレームデータを解析することによって該仮想現実イメージの輝度を決定することを更に有する
付記21に記載の非一時的なコンピュータ可読媒体。
(付記23)
前記プロセッサ(401)により、前記仮想現実表示(203)の1つ以上のピクセルが前記合成被写界深度の中にあることに基づき該1つ以上のピクセルから前のブラー効果を取り除くことを更に有する
付記21に記載の非一時的なコンピュータ可読媒体。
(付記24)
前記視標追跡システム(204)は、1つ以上の画像捕捉デバイスを有する、
付記21に記載の非一時的なコンピュータ可読媒体。
(付記25)
前記視標追跡システム(204)により、前記仮想現実表示(203)においてピクセル座標により前記注視方向を追跡することを更に有する
付記21に記載の非一時的なコンピュータ可読媒体。
(付記26)
前記仮想現実イメージは、現実世界の景色の捕捉された立体イメージである、
付記21に記載の非一時的なコンピュータ可読媒体。
(付記27)
前記仮想現実装置(102)は、該仮想現実装置(102)をユーザの頭部に取り付ける取付デバイスを有する、
付記21に記載の非一時的なコンピュータ可読媒体。
(付記28)
前記合成被写界深度の外にある1つ以上のピクセルは、前記合成被写界深度の外にあり且つ注目のオブジェクト(207)の前にある前景オブジェクト(210)に対応する、
付記21に記載の非一時的なコンピュータ可読媒体。
(付記29)
前記合成被写界深度の外にある1つ以上のピクセルは、前記合成被写界深度の外にあり且つ注目のオブジェクト(207)の後ろにある背景オブジェクト(211)に対応する、
付記21に記載の非一時的なコンピュータ可読媒体。
(付記30)
前記仮想現実イメージのパノラマビューを供給することを更に有する
付記21に記載の非一時的なコンピュータ可読媒体。
Claims (30)
- 仮想現実装置(102)であって、
仮想現実表示スクリーン(203)と、
仮想現実表示(203)において注目のオブジェクト(207)を決定するようユーザの1つ以上の目の注視方向を追跡する視標追跡システム(204)と、
プロセッサ(401)と、
命令の組を有するメモリ(403)と
を有し、
前記命令の組は、前記プロセッサ(401)によって実行される場合に、当該仮想現実装置(102)に、
前記仮想現実表示(203)によって表示されている仮想現実イメージの輝度に基づき前記1つ以上の目の1つ以上の瞳孔寸法を推定させ、
前記推定された1つ以上の瞳孔寸法に基づき焦点面(206)を決定させ、
前記焦点面(206)に基づき合成被写界深度を生成させ、
前記仮想現実表示(203)の1つ以上のピクセルが前記合成被写界深度の外にあることに基づき該1つ以上のピクセルにブラー効果を適用させる、
仮想現実装置(102)。 - 前記プロセッサ(401)は、更に、当該仮想現実装置(102)に、
前記仮想現実イメージに関連するフレームデータを解析することによって該仮想現実イメージの輝度を決定させる、
請求項1に記載の仮想現実装置(102)。 - 前記プロセッサ(401)は、更に、当該仮想現実装置(102)に、
前記仮想現実表示(203)の1つ以上のピクセルが前記合成被写界深度の中にあることに基づき該1つ以上のピクセルから前のブラー効果を取り除かせる、
請求項1に記載の仮想現実装置(102)。 - 前記視標追跡システム(204)は、1つ以上の画像捕捉デバイスを有する、
請求項1に記載の仮想現実装置(102)。 - 前記視標追跡システム(204)は、前記仮想現実表示(203)においてピクセル座標により前記注視方向を追跡する、
請求項1に記載の仮想現実装置(102)。 - 前記仮想現実イメージは、現実世界の景色の捕捉された立体イメージである、
請求項1に記載の仮想現実装置(102)。 - 当該仮想現実装置(102)をユーザの頭部に取り付ける取付デバイスを更に有する
請求項1に記載の仮想現実装置(102)。 - 前記合成被写界深度の外にある1つ以上のピクセルは、前記合成被写界深度の外にあり且つ注目のオブジェクト(207)の前にある前景オブジェクト(210)に対応する、
請求項1に記載の仮想現実装置(102)。 - 前記合成被写界深度の外にある1つ以上のピクセルは、前記合成被写界深度の外にあり且つ注目のオブジェクト(207)の後ろにある背景オブジェクト(211)に対応する、
請求項1に記載の仮想現実装置(102)。 - 前記プロセッサ(401)は、更に、当該仮想現実装置(102)に、
前記仮想現実イメージのパノラマビューを供給させる、
請求項1に記載の仮想現実装置(102)。 - 視標追跡システム(204)により、仮想現実装置(102)の仮想現実表示(203)において注目のオブジェクト(207)を決定するようユーザの1つ以上の目の注視方向を追跡することと、
プロセッサ(401)により、前記仮想現実表示(203)によって表示されている仮想現実イメージの輝度に基づき前記1つ以上の目の1つ以上の瞳孔寸法を推定することと、
前記プロセッサ(401)により、前記推定された1つ以上の瞳孔寸法に基づき焦点面(206)を決定することと、
前記プロセッサ(401)により、前記焦点面(206)に基づき合成被写界深度を生成することと、
前記プロセッサ(401)により、前記仮想現実表示(203)の1つ以上のピクセルが前記合成被写界深度の外にあることに基づき該1つ以上のピクセルにブラー効果を適用することと
を有する方法。 - 前記プロセッサ(401)により、前記仮想現実イメージに関連するフレームデータを解析することによって該仮想現実イメージの輝度を決定することを更に有する
請求項11に記載の方法。 - 前記プロセッサ(401)により、前記仮想現実表示(203)の1つ以上のピクセルが前記合成被写界深度の中にあることに基づき該1つ以上のピクセルから前のブラー効果を取り除くことを更に有する
請求項11に記載の方法。 - 前記視標追跡システム(204)は、1つ以上の画像捕捉デバイスを有する、
請求項11に記載の方法。 - 前記視標追跡システム(204)により、前記仮想現実表示(203)においてピクセル座標により前記注視方向を追跡することを更に有する
請求項11に記載の方法。 - 前記仮想現実イメージは、現実世界の景色の捕捉された立体イメージである、
請求項11に記載の方法。 - 前記仮想現実装置(102)は、該仮想現実装置(102)をユーザの頭部に取り付ける取付デバイスを有する、
請求項11に記載の方法。 - 前記合成被写界深度の外にある1つ以上のピクセルは、前記合成被写界深度の外にあり且つ注目のオブジェクト(207)の前にある前景オブジェクト(210)に対応する、
請求項11に記載の方法。 - 前記合成被写界深度の外にある1つ以上のピクセルは、前記合成被写界深度の外にあり且つ注目のオブジェクト(207)の後ろにある背景オブジェクト(211)に対応する、
請求項11に記載の方法。 - 前記仮想現実イメージのパノラマビューを供給することを更に有する
請求項11に記載の方法。 - 視標追跡システム(204)により、仮想現実装置(102)の仮想現実表示(203)において注目のオブジェクト(207)を決定するようユーザの1つ以上の目の注視方向を追跡することと、
プロセッサ(401)により、前記仮想現実表示(203)によって表示されている仮想現実イメージの輝度に基づき前記1つ以上の目の1つ以上の瞳孔寸法を推定することと、
前記プロセッサ(401)により、前記推定された1つ以上の瞳孔寸法に基づき焦点面(206)を決定することと、
前記プロセッサ(401)により、前記焦点面(206)に基づき合成被写界深度を生成することと、
前記プロセッサ(401)により、前記仮想現実表示(203)の1つ以上のピクセルが前記合成被写界深度の外にあることに基づき該1つ以上のピクセルにブラー効果を適用することと
を有する方法を実施するためのコンピュータ実行可能プログラム命令を記憶している非一時的なコンピュータ可読媒体。 - 前記プロセッサ(401)により、前記仮想現実イメージに関連するフレームデータを解析することによって該仮想現実イメージの輝度を決定することを更に有する
請求項21に記載の非一時的なコンピュータ可読媒体。 - 前記プロセッサ(401)により、前記仮想現実表示(203)の1つ以上のピクセルが前記合成被写界深度の中にあることに基づき該1つ以上のピクセルから前のブラー効果を取り除くことを更に有する
請求項21に記載の非一時的なコンピュータ可読媒体。 - 前記視標追跡システム(204)は、1つ以上の画像捕捉デバイスを有する、
請求項21に記載の非一時的なコンピュータ可読媒体。 - 前記視標追跡システム(204)により、前記仮想現実表示(203)においてピクセル座標により前記注視方向を追跡することを更に有する
請求項21に記載の非一時的なコンピュータ可読媒体。 - 前記仮想現実イメージは、現実世界の景色の捕捉された立体イメージである、
請求項21に記載の非一時的なコンピュータ可読媒体。 - 前記仮想現実装置(102)は、該仮想現実装置(102)をユーザの頭部に取り付ける取付デバイスを有する、
請求項21に記載の非一時的なコンピュータ可読媒体。 - 前記合成被写界深度の外にある1つ以上のピクセルは、前記合成被写界深度の外にあり且つ注目のオブジェクト(207)の前にある前景オブジェクト(210)に対応する、
請求項21に記載の非一時的なコンピュータ可読媒体。 - 前記合成被写界深度の外にある1つ以上のピクセルは、前記合成被写界深度の外にあり且つ注目のオブジェクト(207)の後ろにある背景オブジェクト(211)に対応する、
請求項21に記載の非一時的なコンピュータ可読媒体。 - 前記仮想現実イメージのパノラマビューを供給することを更に有する
請求項21に記載の非一時的なコンピュータ可読媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562273833P | 2015-12-31 | 2015-12-31 | |
US62/273,833 | 2015-12-31 | ||
PCT/EP2016/082428 WO2017114755A1 (en) | 2015-12-31 | 2016-12-22 | Configuration for rendering virtual reality with an adaptive focal plane |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019510991A true JP2019510991A (ja) | 2019-04-18 |
JP2019510991A5 JP2019510991A5 (ja) | 2020-01-23 |
Family
ID=57681595
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018534138A Pending JP2019510991A (ja) | 2015-12-31 | 2016-12-22 | 適応焦点面を有して仮想現実をレンダリングする構成 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10713760B2 (ja) |
EP (1) | EP3398004B1 (ja) |
JP (1) | JP2019510991A (ja) |
KR (1) | KR20180099703A (ja) |
CN (1) | CN108885339B (ja) |
WO (1) | WO2017114755A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9699433B2 (en) * | 2013-01-24 | 2017-07-04 | Yuchen Zhou | Method and apparatus to produce re-focusable vision with detecting re-focusing event from human eye |
WO2019086635A1 (en) * | 2017-11-03 | 2019-05-09 | United Screens Gmbh | Display system, mobile device and method for providing three-dimensional views |
CN107958478B (zh) * | 2017-12-15 | 2022-05-03 | 歌尔光学科技有限公司 | 虚拟现实场景中物体的渲染方法和虚拟现实头戴设备 |
CN108134928A (zh) * | 2017-12-26 | 2018-06-08 | 深圳Tcl新技术有限公司 | Vr显示方法和装置 |
CN111869222B (zh) * | 2018-03-22 | 2022-05-17 | 华为技术有限公司 | 基于http的dash客户端网元、方法及介质 |
CN111757089A (zh) * | 2019-03-29 | 2020-10-09 | 托比股份公司 | 利用眼睛的瞳孔增强调节来渲染图像的方法和系统 |
WO2020209491A1 (en) | 2019-04-11 | 2020-10-15 | Samsung Electronics Co., Ltd. | Head-mounted display device and operating method of the same |
CN110084879B (zh) * | 2019-04-28 | 2023-06-27 | 网易(杭州)网络有限公司 | 虚拟场景中的对象处理方法、装置、介质及电子设备 |
CN112258612B (zh) * | 2019-08-01 | 2022-04-22 | 北京灵医灵科技有限公司 | 一种基于断层图像的虚拟解剖对象观察方法和系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000354257A (ja) * | 1999-06-10 | 2000-12-19 | Sony Corp | 画像処理装置、画像処理方法、およびプログラム提供媒体 |
JP2004005567A (ja) * | 2002-04-09 | 2004-01-08 | Sony Computer Entertainment America Inc | コンピュータディスプレイ画像を生成する方法ならびに画像データを生成するコンピュータ処理システムおよびグラフィックスプロセッサ |
JP2006195084A (ja) * | 2005-01-12 | 2006-07-27 | Sharp Corp | 表示装置 |
US20120113107A1 (en) * | 2010-11-05 | 2012-05-10 | Jun Woo Jang | Image display device and driving method for thereof |
US20130335404A1 (en) * | 2012-06-15 | 2013-12-19 | Jeff Westerinen | Depth of field control for see-thru display |
JP2015164235A (ja) * | 2012-06-19 | 2015-09-10 | シャープ株式会社 | 画像処理装置、方法、プログラム、および記録媒体 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE69323115T2 (de) * | 1992-06-02 | 1999-08-05 | Canon K.K., Tokio/Tokyo | Optisches gerät mit Blickrichtungserfassung |
US20110228051A1 (en) * | 2010-03-17 | 2011-09-22 | Goksel Dedeoglu | Stereoscopic Viewing Comfort Through Gaze Estimation |
JP5529660B2 (ja) * | 2010-07-20 | 2014-06-25 | パナソニック株式会社 | 瞳孔検出装置及び瞳孔検出方法 |
US8625200B2 (en) * | 2010-10-21 | 2014-01-07 | Lockheed Martin Corporation | Head-mounted display apparatus employing one or more reflective optical surfaces |
US9323325B2 (en) | 2011-08-30 | 2016-04-26 | Microsoft Technology Licensing, Llc | Enhancing an object of interest in a see-through, mixed reality display device |
JP2015504616A (ja) * | 2011-09-26 | 2015-02-12 | マイクロソフト コーポレーション | 透過近眼式ディスプレイのセンサ入力に基づく映像表示修正 |
JP5572647B2 (ja) * | 2012-02-17 | 2014-08-13 | 任天堂株式会社 | 表示制御プログラム、表示制御装置、表示制御システム、および表示制御方法 |
IL221863A (en) * | 2012-09-10 | 2014-01-30 | Elbit Systems Ltd | Digital video photography system when analyzing and displaying |
DE102013212374A1 (de) * | 2013-06-27 | 2014-12-31 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Anpassen einer Darstellung eines Bildes auf einem Bildschirm |
TWI516804B (zh) * | 2014-01-02 | 2016-01-11 | 廣達電腦股份有限公司 | 頭戴式顯示裝置及其背光調整方法 |
US10007350B1 (en) * | 2014-06-26 | 2018-06-26 | Leap Motion, Inc. | Integrated gestural interaction and multi-user collaboration in immersive virtual reality environments |
GB2533553B (en) * | 2014-12-15 | 2020-09-09 | Sony Interactive Entertainment Inc | Image processing method and apparatus |
GB2536650A (en) * | 2015-03-24 | 2016-09-28 | Augmedics Ltd | Method and system for combining video-based and optic-based augmented reality in a near eye display |
CN105244008B (zh) * | 2015-11-09 | 2017-12-15 | 深圳市华星光电技术有限公司 | 一种显示设备及其亮度调节方法 |
-
2016
- 2016-12-22 US US16/066,310 patent/US10713760B2/en active Active
- 2016-12-22 EP EP16819930.5A patent/EP3398004B1/en active Active
- 2016-12-22 CN CN201680077396.7A patent/CN108885339B/zh active Active
- 2016-12-22 JP JP2018534138A patent/JP2019510991A/ja active Pending
- 2016-12-22 WO PCT/EP2016/082428 patent/WO2017114755A1/en active Application Filing
- 2016-12-22 KR KR1020187018759A patent/KR20180099703A/ko unknown
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000354257A (ja) * | 1999-06-10 | 2000-12-19 | Sony Corp | 画像処理装置、画像処理方法、およびプログラム提供媒体 |
JP2004005567A (ja) * | 2002-04-09 | 2004-01-08 | Sony Computer Entertainment America Inc | コンピュータディスプレイ画像を生成する方法ならびに画像データを生成するコンピュータ処理システムおよびグラフィックスプロセッサ |
JP2006195084A (ja) * | 2005-01-12 | 2006-07-27 | Sharp Corp | 表示装置 |
US20120113107A1 (en) * | 2010-11-05 | 2012-05-10 | Jun Woo Jang | Image display device and driving method for thereof |
US20130335404A1 (en) * | 2012-06-15 | 2013-12-19 | Jeff Westerinen | Depth of field control for see-thru display |
JP2015164235A (ja) * | 2012-06-19 | 2015-09-10 | シャープ株式会社 | 画像処理装置、方法、プログラム、および記録媒体 |
Also Published As
Publication number | Publication date |
---|---|
EP3398004A1 (en) | 2018-11-07 |
WO2017114755A1 (en) | 2017-07-06 |
CN108885339A (zh) | 2018-11-23 |
KR20180099703A (ko) | 2018-09-05 |
CN108885339B (zh) | 2021-09-28 |
US20190012771A1 (en) | 2019-01-10 |
US10713760B2 (en) | 2020-07-14 |
EP3398004B1 (en) | 2021-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108885339B (zh) | 用于使用自适应焦平面渲染虚拟现实的配置 | |
US10948726B2 (en) | IPD correction and reprojection for accurate mixed reality object placement | |
JP6759371B2 (ja) | 3dプレノプティックビデオ画像を作成するためのシステムおよび方法 | |
JP6747504B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US11010958B2 (en) | Method and system for generating an image of a subject in a scene | |
EP3035681B1 (en) | Image processing method and apparatus | |
JP2024059761A (ja) | 仮想現実および拡張現実ディスプレイシステムのための連続時間ワーピングおよび両眼時間ワーピングおよび方法 | |
US20150138069A1 (en) | Methods, systems, and computer readable media for unified scene acquisition and pose tracking in a wearable display | |
US9342861B2 (en) | Alternate viewpoint rendering | |
JP2019510991A5 (ja) | ||
JP2023551864A (ja) | 自動立体テレプレゼンスシステムのための3次元(3d)顔特徴追跡 | |
JP6017144B2 (ja) | 画像処理装置および方法、プログラム、並びに記録媒体 | |
JP6685241B2 (ja) | 立体視ビデオ生成 | |
KR20200117685A (ko) | 가상 객체 인식 방법, 상기 가상 객체를 이용한 증강 현실 콘텐츠 제공 방법 및 이를 위한 증강 방송 시스템 | |
JP6490107B2 (ja) | 立体視ビデオズーミング | |
KR101939243B1 (ko) | 입체 깊이 조정 및 초점 조정 | |
US20240078743A1 (en) | Stereo Depth Markers | |
US20220232201A1 (en) | Image generation system and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180703 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191204 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191204 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201020 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210518 |