WO2022131009A1 - 立体表示用コントローラ - Google Patents
立体表示用コントローラ Download PDFInfo
- Publication number
- WO2022131009A1 WO2022131009A1 PCT/JP2021/044310 JP2021044310W WO2022131009A1 WO 2022131009 A1 WO2022131009 A1 WO 2022131009A1 JP 2021044310 W JP2021044310 W JP 2021044310W WO 2022131009 A1 WO2022131009 A1 WO 2022131009A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- control means
- image
- stereoscopic display
- display controller
- eye
- Prior art date
Links
- 238000000034 method Methods 0.000 claims abstract description 65
- 230000008569 process Effects 0.000 claims abstract description 64
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 30
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 30
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 9
- 238000012937 correction Methods 0.000 claims description 21
- 230000008859 change Effects 0.000 claims description 13
- 239000002131 composite material Substances 0.000 claims description 4
- 230000004044 response Effects 0.000 claims description 4
- 238000002156 mixing Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 abstract description 31
- 230000006870 function Effects 0.000 description 70
- 238000001514 detection method Methods 0.000 description 36
- 238000003384 imaging method Methods 0.000 description 29
- 239000000203 mixture Substances 0.000 description 22
- 239000000872 buffer Substances 0.000 description 11
- 239000004973 liquid crystal related substance Substances 0.000 description 10
- 238000010586 diagram Methods 0.000 description 5
- 238000002474 experimental method Methods 0.000 description 5
- 239000000758 substrate Substances 0.000 description 5
- 230000004888 barrier function Effects 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 4
- 238000001914 filtration Methods 0.000 description 4
- 239000011521 glass Substances 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 238000005401 electroluminescence Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 210000001747 pupil Anatomy 0.000 description 3
- 238000012952 Resampling Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000004931 aggregating effect Effects 0.000 description 1
- 239000011230 binding agent Substances 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/383—Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
- H04N13/31—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
- G02B30/20—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
- G02B30/22—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
- H04N13/117—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/398—Synchronisation thereof; Control thereof
Definitions
- the control means 4 is configured to be able to execute the first compositing process corresponding to the frame period of the parallax image.
- the control means 4 is configured to be able to execute the second synthesis process in response to the input of the viewpoint position to the input unit 2.
- the control means 4 may have a composition table 5 for image composition of the left image and the right image.
- the control means 4 can be configured to be able to generate a parallax image by synthesizing the left image and the right image with reference to the composition table 5.
- the control means 4 can be configured to be able to update the correction table 6 corresponding to the viewpoint position when the viewpoint position is input.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
図1は、本開示の立体表示コントローラの構成を示すブロック図である。本実施形態の立体表示用コントローラ1は、表示装置2と、入力部3と、制御手段4と、を含む。表示装置2は、視差画像を表示可能に構成される。入力部3は、利用者の視点位置を入力可能に構成される。制御手段4は、左画像および右画像を混合して視差画像に合成する合成処理を実行可能に構成される。合成処理は、第1合成処理および第2合成処理を含む。制御手段4は、表示装置2に向けて視差画像を出力可能に構成される。制御手段4は、視差画像のフレーム周期に対応して、第1合成処理を実行可能に構成される。制御手段4は、入力部2への視点位置の入力に対応して第2合成処理を実行可能に構成される。
制御手段4は、入力部3によって入力された、眼の位置(実測位置)を示す位置データと、当該位置データを取得した順をメモリに記憶するように構成される。メモリには、所定の撮像時間間隔で撮像された複数の撮像画像それぞれに基づく眼の実測位置が順次記憶される。メモリには、当該実測位置に眼が位置した順を合わせて記憶してよい。所定の撮像時間間隔は、検出装置11の性能及び設計により適宜設定されうる、一の撮像画像と、当該一の撮像画像とが撮像される時間の間隔である。
制御手段4は、メモリに記憶されている位置データを、例えば、ローパスフィルタを用いてフィルタリングするように構成されうる。制御手段4は、眼の位置の単位時間当たりの変化量が大きい位置データをフィルタリングしうる。制御手段4は、眼の位置の検出精度が低い位置データから実効的な位置データをフィルタリングにより抽出しうる。制御手段4は、予測関数を算出する際に、当該予測関数の精度をフィルタリングによって高めうる。制御手段4は、時刻に対する変化が小さい、具体的には、位置の変化の周波数が所定値より低い位置データのみを抽出するようにフィルタリングしてよい。所定値は、実験等により定められた、所望の精度を実現するために要求される位置の変化の周波数の最大値である。
制御手段4は、メモリに記憶されている複数の位置データを用いて、未来の位置を予想位置として出力するように構成される。ここでいう未来とは、当該メモリに記憶された複数の位置データに対する未来をいう。制御手段4は、ローパスフィルタを用いてフィルタリング処理された複数の位置データを用いうる。制御手段4は、新しい複数の位置情報を用いて予測位置を出力するように構成されうる。制御手段4は、メモリに記憶されている位置データのうち、例えば、記憶時期の新しい複数の位置データと、表示への反映時間とに基づいて予測関数を算出するように構成されうる。制御手段4は、記憶時期の新しさを撮像時刻に基づいて判断するように構成されうる。制御手段4は、眼の実測位置と、取得部3によって位置データが取得された取得時刻と、予め実験等により見込まれている所定の反映時間とに基づいて、予測関数を算出するように構成されうる。
制御手段4は、所定の出力時間間隔で、予測関数において、現時点に所定時間を加算した時刻に対応する、眼の予測位置を出力するように構成される。所定時間は、制御手段4が表示制御を開始してから、表示装置2に画像が表示されるまでに要すると見込まれる時間である表示処理時間に基づく時間である。所定の出力時間間隔は、所定の撮像時間間隔より短い時間間隔であってよい。
制御手段4は、予測関数を評価し、当該評価に基づいて修正してよい。具体的には、制御手段4は、予測関数に基づいて出力された眼の予測位置と、当該予測位置に対応する、実際に撮像された撮像画像から検出された眼の実測位置とを比較してよい。制御手段4は、記録された撮像時刻に基づいて、予測位置と実測位置とを対応させうる。制御手段4は、撮像時間間隔に基づいて、予測位置と実測位置とを対応させうる。制御手段4は、比較の結果に基づいて予測関数を修正してよい。制御手段4は、以降の予測処理において、修正された予測関数を用いて眼の位置を出力し、当該修正後の予測関数を用いた眼の予測位置に基づいて表示装置2に画像を表示させてよい。
(3)制御手段4は、3D画凹合成部は読み出し許可されている画像のバッファ画像を合成する。
(4)制御手段4は、インデックス入力およびバッファ切換え連絡時に画像合成処理を実施する。
(5)制御手段4は、転送が終わると、バッファ7,8の切換えを歪み補正部6に連絡する。
(6)バッファ切換え時のシングルバッファの書き換えは、Vブランク期間にできるようにする。Vブランク期間は、2ms程度まで伸ばせる。
(8)3D画像合成部13は、画像合成H/Wを2系統使用し、瞳位置検出結果に合わせた合成処理を実行する。瞳位置とインデックス(位相)との情報は、検出装置11から3D画像合成部13に同時に送られてくる。その都度、歪み補正部6は、左画像または右画像を歪み補正テーブル5を更新し、3D画像合成処理を実行し、合成画像出力部12から表示装置2に出力する。そして次のフレームの画像データ処理が始まり、(3D画像合成処理部13の画像合成処理にかかる時間分)前に3D画像合成処理を実行するように第2制御手段4bから3D画像合成部13に指示がくるので、次のフレームの画像データで3D画像合成処理を行う。
制御手段4は、取得部3が位置データの取得に失敗すると、メモリに記憶された複数の位置データを用いて、現在時刻の予測位置を出力するように構成されうる。制御手段4は、メモリに記憶された複数の位置データを用いて、現在時刻における眼の位置を予測するための予測関数を算出するように構成されうる。現在時刻における眼の位置を予測するための予測関数は、第1予測関数と称されうる。制御手段4は、第1予測関数に基づいて、現在時刻の予測位置を出力するように構成されうる。
制御手段4は、現在時刻の予測位置を含む複数の位置データを用いて、未来時刻における眼の予測位置を出力するように構成される。ここでいう未来時刻とは、現在時刻より後の時刻をいう。制御手段4は、メモリに記憶された複数の位置データを用いて、現在時刻における眼の位置を予測するための予測関数を算出するように構成されうる。未来時刻における眼の位置を予測するための予測関数は、第2予測関数と称されうる。制御手段4は、第2予測関数に基づいて、未来時刻の予測位置を出力するように構成されうる。
制御手段4は、表示装置2が所定の周波数で画像を更新するように定められた表示時間間隔で、直近に出力された予測位置に基づく可視領域5aに対応して各サブピクセルPに画像を表示させる制御を開始するように構成される。制御手段4による表示の制御がそれぞれ開始されてから表示処理時間後に、表示装置2に予測位置に基づく画像が表示され、更新される。
制御手段4は、第2予測関数を評価し、当該評価に基づいて、第2予測関数を修正してよい。制御手段4は、第2予測関数に基づいて出力された眼の予測位置と、当該予測位置に対応する、実際に撮像された撮像画像から検出された眼の実測位置とを比較してよい。制御手段4は、記録された撮像時刻に基づいて、予測位置と実測位置とを対応させうる。制御手段4は、撮像時間間隔に基づいて、予測位置と実測位置とを対応させうる。制御手段4は、比較の結果に基づいて第2予測関数を修正してよい。制御手段4は、以降の予測処理において、修正された第2予測関数を用いて眼の位置を出力し、当該修正後の第2予測関数を用いた眼の予測位置に基づいて表示装置2に画像を表示させてよい。
2 表示装置
4 制御手段
4a 第1制御手段
4b 第2制御手段
5 合成テーブル
6 歪み補正部
9 表示制御部
7,8 バッファ
11 検出装置
12 合成画像出力部
13 3D画像合成部
R 右眼用画像
L 左眼用画像
Claims (11)
- 視差画像を表示可能に構成される表示装置と、
利用者の視点位置を入力可能に構成される入力部と、
左画像および右画像を混合して視差画像に合成する合成処理であって、第1合成処理および第2合成処理を含む合成処理を実行可能に構成される制御手段と、を含み、
前記制御手段は、前記表示装置に向けて前記視差画像を出力可能に構成され、
前記制御手段は、
前記視差画像のフレーム周期に対応して、前記第1合成処理を実行可能に構成され、
前記入力部への視点位置の入力に対応して前記第2合成処理を実行可能に構成される、立体表示用コントローラ。 - 請求項1に記載の立体表示用コントローラであって、
前記制御手段は、1つのフレームを表示する際に、1回の前記第1合成処理と、少なくとも1回の前記第2合成処理とを実行可能に構成される、立体表示用コントローラ。 - 請求項1に記載の立体表示用コントローラであって、
前記制御手段は、1つのフレームを表示する際に、複数回の前記第2合成処理を実行可能に構成される、立体表示用コントローラ。 - 請求項1~3のいずれか1項に記載の立体表示用コントローラであって、
前記制御手段は、前記左画像および前記右画像を画像合成するための合成テーブルを有し、前記左画像および前記右画像を前記合成テーブルを参照して画像合成し、視差画像を生成可能に構成される、立体表示用コントローラ。 - 請求項3に記載の前記立体表示用コントローラであって、
前記制御手段は、前記視点位置の入力があると、当該視点位置に対応させて前記合成テーブルを更新可能に構成される、立体表示用コントローラ。 - 請求項1~5のいずれか1項に記載の立体表示用コントローラであって、
前記制御手段は、前記左画像および前記右画像の歪を補正する補正処理を実行可能に構成される、立体表示用コントローラ。 - 請求項4に記載の立体表示用コントローラであって、
制御手段は、第1制御手段と、第2制御手段とを含み、
前記第1制御手段は、前記合成処理を実行可能に構成され、
前記第2制御手段は、前記補正処理を実行可能に構成される、立体表示用コントローラ。 - 請求項7に記載の立体表示用コントローラであって、
前記第2制御手段は、前記左画像および前記右画像の歪を補正するための補正テーブルを有し、前記補正処理を、前記補正テーブルを参照して補正可能に構成される、立体表示用コントローラ。 - 請求項8に記載の立体表示用コントローラであって、
前記制御手段は、前記視点位置の入力があると、当該視点位置に対応させて前記補正テーブルを更新する、立体表示用コントローラ。 - 請求項1~9のいずれか1項に記載の立体表示用コントローラであって、
前記視点位置の入力周期は、前記フレーム周期よりも短い、立体表示用コントローラ。 - 請求項1~10のいずれか1項に記載の立体表示用コントローラであって、
前記制御手段は、前記視点位置の単位時間あたりの変化量に基づいて前記視点位置の予測値を算出し、算出された前記視点位置の予測値に基づいて、前記第2合成処理を実行する、立体表示用コントローラ。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP21906372.4A EP4262199A4 (en) | 2020-12-14 | 2021-12-02 | STEREOSCOPIC DISPLAY CONTROLLER |
CN202180083271.6A CN116569096A (zh) | 2020-12-14 | 2021-12-02 | 立体显示用控制器 |
US18/266,681 US20240048682A1 (en) | 2020-12-14 | 2021-12-02 | Stereoscopic display controller |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020-207140 | 2020-12-14 | ||
JP2020207140A JP2022094223A (ja) | 2020-12-14 | 2020-12-14 | 立体表示用コントローラ |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2022131009A1 true WO2022131009A1 (ja) | 2022-06-23 |
Family
ID=82057607
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2021/044310 WO2022131009A1 (ja) | 2020-12-14 | 2021-12-02 | 立体表示用コントローラ |
Country Status (5)
Country | Link |
---|---|
US (1) | US20240048682A1 (ja) |
EP (1) | EP4262199A4 (ja) |
JP (1) | JP2022094223A (ja) |
CN (1) | CN116569096A (ja) |
WO (1) | WO2022131009A1 (ja) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005175973A (ja) * | 2003-12-12 | 2005-06-30 | Canon Inc | 立体表示装置 |
US20140300536A1 (en) * | 2013-04-09 | 2014-10-09 | Lg Display Co., Ltd. | Stereoscopic image display device and eye-tracking method thereof |
JP2015231114A (ja) * | 2014-06-04 | 2015-12-21 | 日本電信電話株式会社 | 映像表示装置 |
JP2016116221A (ja) * | 2014-12-10 | 2016-06-23 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 3d表示のための装置及び方法 |
WO2017212720A1 (ja) * | 2016-06-08 | 2017-12-14 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成装置および画像生成方法 |
JP2019015823A (ja) | 2017-07-05 | 2019-01-31 | 京セラ株式会社 | 3次元投影装置、3次元投影システム、および移動体 |
JP2019023710A (ja) * | 2017-07-25 | 2019-02-14 | 三菱電機株式会社 | 表示装置 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101729556B1 (ko) * | 2010-08-09 | 2017-04-24 | 엘지전자 주식회사 | 입체영상 디스플레이 시스템, 입체영상 디스플레이 장치 및 입체영상 디스플레이 방법, 그리고 위치 추적 장치 |
JP5693246B2 (ja) * | 2011-01-07 | 2015-04-01 | キヤノン株式会社 | 立体映像表示装置 |
JP6329343B2 (ja) * | 2013-06-13 | 2018-05-23 | 任天堂株式会社 | 画像処理システム、画像処理装置、画像処理プログラム、および画像処理方法 |
US9942474B2 (en) * | 2015-04-17 | 2018-04-10 | Fotonation Cayman Limited | Systems and methods for performing high speed video capture and depth estimation using array cameras |
JP6646361B2 (ja) * | 2015-04-27 | 2020-02-14 | ソニーセミコンダクタソリューションズ株式会社 | 画像処理装置、撮像装置、画像処理方法およびプログラム |
US20170289529A1 (en) * | 2016-03-29 | 2017-10-05 | Google Inc. | Anaglyph head mounted display |
US11348208B2 (en) * | 2018-03-08 | 2022-05-31 | Sony Corporation | Signal processing apparatus and signal processing method |
WO2019244944A1 (ja) * | 2018-06-19 | 2019-12-26 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 三次元再構成方法および三次元再構成装置 |
CN112655016A (zh) * | 2018-09-11 | 2021-04-13 | 索尼公司 | 信息处理设备、信息处理方法和程序 |
US12075022B2 (en) * | 2019-12-19 | 2024-08-27 | Sony Group Corporation | Image processing device and image processing method |
-
2020
- 2020-12-14 JP JP2020207140A patent/JP2022094223A/ja active Pending
-
2021
- 2021-12-02 WO PCT/JP2021/044310 patent/WO2022131009A1/ja active Application Filing
- 2021-12-02 US US18/266,681 patent/US20240048682A1/en active Pending
- 2021-12-02 CN CN202180083271.6A patent/CN116569096A/zh active Pending
- 2021-12-02 EP EP21906372.4A patent/EP4262199A4/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005175973A (ja) * | 2003-12-12 | 2005-06-30 | Canon Inc | 立体表示装置 |
US20140300536A1 (en) * | 2013-04-09 | 2014-10-09 | Lg Display Co., Ltd. | Stereoscopic image display device and eye-tracking method thereof |
JP2015231114A (ja) * | 2014-06-04 | 2015-12-21 | 日本電信電話株式会社 | 映像表示装置 |
JP2016116221A (ja) * | 2014-12-10 | 2016-06-23 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 3d表示のための装置及び方法 |
WO2017212720A1 (ja) * | 2016-06-08 | 2017-12-14 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成装置および画像生成方法 |
JP2019015823A (ja) | 2017-07-05 | 2019-01-31 | 京セラ株式会社 | 3次元投影装置、3次元投影システム、および移動体 |
JP2019023710A (ja) * | 2017-07-25 | 2019-02-14 | 三菱電機株式会社 | 表示装置 |
Non-Patent Citations (1)
Title |
---|
See also references of EP4262199A4 |
Also Published As
Publication number | Publication date |
---|---|
US20240048682A1 (en) | 2024-02-08 |
CN116569096A (zh) | 2023-08-08 |
JP2022094223A (ja) | 2022-06-24 |
EP4262199A1 (en) | 2023-10-18 |
EP4262199A4 (en) | 2024-04-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021065826A1 (ja) | 3次元表示装置、3次元表示システム、ヘッドアップディスプレイ、および移動体 | |
JP2020017935A (ja) | 表示装置、表示システムおよび移動体 | |
CN112889274B (zh) | 三维显示装置、平视显示器、移动体以及程序 | |
WO2022131009A1 (ja) | 立体表示用コントローラ | |
WO2021106689A1 (ja) | ヘッドアップディスプレイシステム及び移動体 | |
US11961429B2 (en) | Head-up display, head-up display system, and movable body | |
WO2020090629A1 (ja) | 画像表示装置、画像表示システム、及び移動体 | |
JP7061943B2 (ja) | 3次元表示装置、3次元表示システム、ヘッドアップディスプレイシステム、および移動体 | |
EP2811454B1 (en) | Image transformation | |
CN112997110B (zh) | 图像显示装置、图像显示系统以及移动体 | |
JP7178413B2 (ja) | 画像表示装置、画像表示システム、及び移動体 | |
WO2020031977A1 (ja) | 画像表示装置、画像表示システム、及び移動体 | |
WO2020256154A1 (ja) | 3次元表示装置、3次元表示システム、および移動体 | |
JP2021056255A (ja) | パララックスバリア、3次元表示装置、3次元表示システム、ヘッドアップディスプレイ、および移動体 | |
JP2024119860A (ja) | 虚像表示装置、移動体、虚像表示装置の駆動方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 21906372 Country of ref document: EP Kind code of ref document: A1 |
|
WWE | Wipo information: entry into national phase |
Ref document number: 202180083271.6 Country of ref document: CN |
|
WWE | Wipo information: entry into national phase |
Ref document number: 18266681 Country of ref document: US |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
ENP | Entry into the national phase |
Ref document number: 2021906372 Country of ref document: EP Effective date: 20230714 |