JP7403862B2 - 浮遊画像システム - Google Patents

浮遊画像システム Download PDF

Info

Publication number
JP7403862B2
JP7403862B2 JP2022000565A JP2022000565A JP7403862B2 JP 7403862 B2 JP7403862 B2 JP 7403862B2 JP 2022000565 A JP2022000565 A JP 2022000565A JP 2022000565 A JP2022000565 A JP 2022000565A JP 7403862 B2 JP7403862 B2 JP 7403862B2
Authority
JP
Japan
Prior art keywords
floating image
display device
image display
floating
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022000565A
Other languages
English (en)
Other versions
JP2022106294A (ja
Inventor
鈞翔 楊
志宏 丁
凱傑 張
Original Assignee
幻景▲ケイ▼動股▲フン▼有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 幻景▲ケイ▼動股▲フン▼有限公司 filed Critical 幻景▲ケイ▼動股▲フン▼有限公司
Publication of JP2022106294A publication Critical patent/JP2022106294A/ja
Application granted granted Critical
Publication of JP7403862B2 publication Critical patent/JP7403862B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/50Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels
    • G02B30/56Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels by projecting aerial or floating images
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/0006Arrays
    • G02B3/0037Arrays characterized by the distribution or form of lenses
    • G02B3/0056Arrays characterized by the distribution or form of lenses arranged along two different directions in a plane, e.g. honeycomb arrangement of lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/307Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using fly-eye lenses, e.g. arrangements of circular lenses

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)
  • Vehicle Body Suspensions (AREA)
  • Adjustment Of Camera Lenses (AREA)
  • Digital Computer Display Output (AREA)

Description

本発明は、浮遊画像システムに関し、特に平面画像情報及び立体浮遊画像情報を同時に表示する浮遊画像システムに関する。
従来の映像表示装置は、主に2次元の平面表示装置である。近年、ユーザーにより良い視覚体験を提供するために、表示装置の解像度が向上しているが、表示装置から提供される画像情報は、依然として一定の角度で表示される。
そのため、マルチアングル背景の浮遊画像システムの提供は、この業界が取り組むべき最重要課題の一つとなっている。
本発明が解決しようとする課題は既存の技術の不足に対し次のような浮遊画像システムを提供することである。
上記技術的課題を解決するために、本発明に採用された技術的手段の一つは、次のような浮遊画像システムを提供することである。浮遊画像システムは、コントローラと、前記コントローラに電気的に接続される第1の浮遊画像表示装置と、脱着可能に第1の浮遊画像表示装置に接続されると共に、前記コントローラに電気的に接続される第2の浮遊画像表示装置とを含む。前記第1の浮遊画像表示装置及び前記第2の浮遊画像表示装置はそれぞれ、複数の第1の浮遊画像情報及び複数の第2の浮遊画像情報を提供することによって、統合浮遊画像情報を共同表示する。
本発明による有益の効果の1つとしては、本発明に適用される浮遊画像システムは、1つの浮遊画像表示装置または複数の浮遊画像表示装置によって、平面画像情報の背景情報及び立体浮遊画像情報を同時に表示することができるため、ユーザーエクスペリエンスを高めるリッチなビジュアル環境を提供することができる。
本発明にかかる1の実施形態の浮遊画像システムを示す模式図である。 第1の浮遊画像表示装置及び第2の浮遊画像表示装置が統合浮遊画像情報を共同表示すること示す模式図である。 第1の浮遊画像情報及び第2の浮遊画像情報を示す模式図である。 本発明にかかる浮遊画像表示システムを示す他の模式図である。 本発明にかかる浮遊画像表示システムを示す他の模式図である。 本発明にかかる浮遊画像表示システムを示す他の模式図である。 本発明第2の実施形態の浮遊画像システムを示す模式図である。 本発明第2の実施形態の浮遊画像システムを示す他の模式図である。 本発明にかかる1の浮遊画像表示装置を示す模式図である。 本発明にかかる1の浮遊画像表示装置を示す分解模式図である。 本発明にかかる1の浮遊画像表示装置のレンズアレイが整合的に配列されることを示す模式図である。 本発明にかかる1の浮遊画像表示装置のレンズアレイが千鳥に配列されることを示す模式図である。 本発明にかかる1の浮遊画像表示装置において単一のレンズのフォーカスの状況を示す模式図である。 第1の浮遊画像表示装置または第2の浮遊画像表示装置の浮遊画像情報とオブジェクトとが対話する状況を示す模式図である。 第1の浮遊画像表示装置または第2の浮遊画像表示装置の浮遊画像情報とオブジェクトとが対話する状況を示す他の模式図である。 第1の浮遊画像表示装置または第2の浮遊画像表示装置の浮遊画像情報とオブジェクトとが対話する状況を示す他の模式図である。 第1の浮遊画像表示装置または第2の浮遊画像表示装置の浮遊画像情報とオブジェクトとが対話する状況を示す他の模式図である。
発明の特徴及び技術内容がより一層分かるように、以下本発明に関する詳細な説明と添付図面を参照する。しかし、提供される添付図面は参考と説明のために提供するものに過ぎず、本発明の特許請求の範囲を制限するためのものではない。
下記より、具体的な実施例で本発明が開示する実施形態を説明する。当業者は本明細書の公開内容により本発明のメリット及び効果を理解し得る。本発明は他の異なる実施形態により実行又は応用できる。本明細書における各細節も様々な観点又は応用に基づいて、本発明の精神逸脱しない限りに、均等の変形と変更を行うことができる。また、本発明の図面は簡単で模式的に説明するためのものであり、実際的な寸法を示すものではない。以下の実施形態において、さらに本発明に係る技術事項を説明するが、公開された内容は本発明を限定するものではない。また、本明細書に用いられる「又は」という用語は、実際の状況に応じて、関連する項目中の何れか一つ又は複数の組合せを含み得る。
[第1の実施形態]
図1、図2及び図3を参照されたい。図1は本発明にかかる1の実施形態の浮遊画像システムを示す模式図である。図2は第1の浮遊画像表示装置及び第2の浮遊画像表示装置が統合浮遊画像情報を共同表示すること示す模式図である。図3は第1の浮遊画像表示装置及び第2の浮遊画像表示装置がそれぞれ第1の浮遊画像情報及び第2の浮遊画像情報を表示する状況を示す模式図である。
本実施形態において、浮遊画像システム1はコントローラ11、記憶モジュール12、通信モジュール13、第1の浮遊画像表示装置14、第2の浮遊画像表示装置15、環境検知装置16、電源モジュール17、及び視線追跡センサー18を含む。
コントローラ11は、接続記憶モジュール12、通信モジュール13、第1の浮遊画像表示装置14、第2の浮遊画像表示装置15、環境検知装置16、電源モジュール17及び視線追跡センサー18に電気的に接続される。
第2の浮遊画像表示装置15は脱着可能に第1の浮遊画像表示装置14に接続される。即ち、第1の浮遊画像表示装置14と第2の浮遊画像表示装置15は別々に作動してもよいし、協働するように作動してもよい。第1の浮遊画像表示装置14は第2の浮遊画像表示装置15の一方側に接続される。本実施形態において、第1の浮遊画像表示装置14は、接続モジュール19を介して第2の浮遊画像表示装置14と接続する。接続モジュール19としては蝶番(hinge)が挙げられる。他の実施形態において、両方の協働をさらに最適化するために、第1の浮遊画像表示装置14は、第2の浮遊画像表示装置15に電気的に接続されてもよい。
接続モジュール19は、第1の浮遊画像表示装置14と第2の浮遊画像表示装置15との間に配置される。第1の浮遊画像表示装置14と第2の浮遊画像表示装置15とは角度θをなす。
本実施形態において、第1の浮遊画像表示装置14が第2の浮遊画像表示装置15に接続すると、第1の浮遊画像表示装置14と第2の浮遊画像表示装置15はそれぞれ複数の第1の浮遊画像情報G1及び複数の第2の浮遊画像情報G2を提供することによって、統合浮遊画像情報GINを共同表示する。複数の第1の浮遊画像情報G1、複数の第2の浮遊画像情報G2及び統合浮遊画像情報GINはいずれも立体な浮遊画像情報である。即ち、ユーザーはいかなる視角からもそれらの浮遊画像情報を見ることができる。
即ち、第1の浮遊画像表示装置14及び第2の浮遊画像表示装置15は別々に複数の浮遊画像情報を表示することが可能であるが、一方、第1の浮遊画像表示装置14及び第2の浮遊画像表示装置15は、複数の浮遊画像情報をそれぞれ提供することで、統合浮遊画像情報GINを共同表示することも可能である。
また、本実施形態において、第1の浮遊画像表示装置14は複数の第1の浮遊画像情報G1を第1の浮遊画像表示装置14における第1の側方の空間で表示させる。第2の浮遊画像表示装置15も、複数の第2の浮遊画像情報を前記第2の浮遊画像情報G2表示装置15における第1の側方の空間で表示させる。即ち、統合浮遊画像情報GINは、第1の浮遊画像表示装置14と第2の浮遊画像表示装置15との間の空間に表示される。
本実施形態において、環境検知装置16は、第1の浮遊画像表示装置14の第2の側方に配置される。環境検知装置16は、第1の浮遊画像表示装置14における第2の側方における複数の第1の環境画像情報EIN1を検知するために用いられる。
他の実施形態において、第1の浮遊画像表示装置14の第2の側方における複数の第1の環境画像情報、或いは第2の浮遊画像表示装置15の第2の側方における複数の第2の環境画像情報を検知するために、環境検知装置16は第1の浮遊画像表示装置14の第2の側方、或いは第2の浮遊画像表示装置15の第2の側方に設けられる。本実施形態において、第1の浮遊画像表示装置14における第1の側方と第2の側方とは互いに反対する側である。また、第2の浮遊画像表示装置15における第1の側方と第2の側方とは互いに反対する側である。第2の浮遊画像表示装置15における第2の側方は下方であり、第2の浮遊画像表示装置15における第1の側方は上方である。環境検知装置16は第1の環境画像情報または第2の環境画像情報をコントローラ11に送信する。
コントローラ11は、複数の第1の環境画像情報EIN1に基づいて複数の第1の環境画像調整情報MEIN1を第1の浮遊画像表示装置14における第1の側方にある第1の表示モジュール141に表示させる。
他の実施形態において、コントローラ11は、複数の第2の環境画像情報EIN2に基づいて複数の第2の環境画像調整情報MEIN2を第2の浮遊画像表示装置15における第1の側方の第2の表示モジュール151で表示させる。
また、第1の環境画像調整情報MEIN1及び第2の環境画像調整情報MEIN2は、所定の平面画像情報または立体視画像情報(深度情報に関わる画像情報)を計算して得られるものであってもよい。
視線追跡センサー18は、第1の浮遊画像表示装置14の第1の側方、或いは第2の浮遊画像表示装置15の第1の側方に設けられ、ユーザー視線信号を検知するために用いられる。本実施形態において、視線追跡センサー18は第1の浮遊画像表示装置14の第1の側方に配置される。視線追跡センサー18はカメラユニットであってもよい。視線追跡センサー18が検知するユーザー視線信号は、ユーザーの瞳の位置及び視線の角度を含む。
コントローラ11はユーザー視線信号に基づいて、第1の表示モジュール141で表示する複数の第1の環境画像調整情報MEIN1、又は第2の表示モジュール151で表示する複数の第2の環境画像調整情報MEIN2を調整するように構成される。
また、浮遊画像システム1におけるコントローラ11は、通信モジュールを介してサーバー9に通信接続される。浮遊画像システム1におけるコントローラ11は、複数の第1の浮遊画像情報G1、第2の浮遊画像情報G2、統合浮遊画像情報GIN、複数の第1の環境画像情報EIN1、複数の第2の環境画像情報EIN2、複数の第1の環境画像調整情報MEIN1、及び複数の第2の環境画像調整情報MEIN2に対し計算を行うために、それらの情報をサーバー9に送信してもよい。即ち、浮遊画像システム1における複数の第1の環境画像調整情報MEIN1及び複数の第2の環境画像調整情報MEIN2は、ユーザーの視線角度に応じて調整することが可能である。この場合、ユーザーの視線角度から見る環境と、複数の第1の環境画像調整情報MEIN1と、複数の第2の環境画像調整情報MEIN2とは互いに絡み合っている。即ち、ユーザーどの方向を見ていても、複数の第1の環境画像調整情報MEIN1及び複数の第2の環境画像調整情報MEIN2は、その視角の画像情報を表示するのである。ユーザーは第1の浮遊画像表示装置14及び第2の浮遊画像表示装置15によって視野が遮られることを感じることはない。その代わり、ユーザーは、第1の浮遊画像表示装置14および第2の浮遊画像表示装置15を通して、その背後の環境も見ることができるので、視界が開けた、または透明な印象を与えることができる。
電源モジュール17は、コントローラ11、記憶モジュール12、通信モジュール13、第1の浮遊画像表示装置14、第2の浮遊画像表示装置15、環境検知装置16及び視線追跡センサー18に電力を給電するために用いられる。
なかでも、複数の第1の浮遊画像情報G1、第2の浮遊画像情報G2、統合浮遊画像情報GIN、複数の第1の環境画像情報EIN1、複数の第2の環境画像情報EIN2、複数の第1の環境画像調整情報MEIN1及び複数の第2の環境画像調整情報MEIN2は、記憶モジュール12またはサーバー9に格納される。
ユーザー視線信号は、環境画像情報の表現に直接影響する。すなわち、ユーザーは、統合浮遊画像情報GINを浮遊画像システム1の左側または右側から見た場合、第1の環境画像調整情報を見る感覚は視点に応じて異なる。また、第2の浮遊画像表示装置15が複数の第2の環境画像調整情報MEIN2も提供する場合、ユーザーは統合浮遊画像情報GINを異なる角度で見ることができ、異なる角度から見る第2の環境画像調整情報による視聴体験を得ることが可能である。
コントローラ11は、中央処理装置(CPU)、グラフィックス処理装置(GPU)、特定用途向け集積回路(ASIC)またはマイクロプロセッサ(MCU)である。
記憶モジュール12は、フラッシュメモリ、ROM、プログラマブルROM、電気的書替え可能ROM、消去可能プログラマブルROM、または電気的消去可能プログラマブルROMである。
通信モジュール13は有線通信ユニット(図示せず)、及び無線通信ユニット(図示せず)を含む。有線通信ユニット(図示せず)は、独立してサーバー9と通信し、サーバー9からの制御信号やサーバー9のデータベースからのデータを受信するように設定することも可能である。通信モジュール13が無線通信ユニットである場合、通信モジュール13としては、Wi-Fi(登録商標)通信ユニット、Bluetooth(登録商標)通信ユニット、Zigbee(登録商標)通信ユニット、LoRa通信ユニット、Sigfox(登録商標)通信ユニットまたはNB-IoT通信ユニットであることが挙げられる。
環境検知装置16は、少なくとも1つの画像取得ユニットを備えている。環境検知装置16は、可視画像取得ユニット、赤外線画像取得ユニット、または熱画像取得ユニットであってもよい。他の実施形態では、環境検知装置16は、光学センサー、画像取得モジュール、タイマー、ジャイロセンサー、多次元加速度センサー、または臭気センサーで構成されてもよい。
電源モジュール17は、直流-直流変換器、交流-直流変換器であってもよい。また、電源モジュール17は、電池ユニット(図示せず)を含んでもよい。電池ユニット(図示せず)としては、リチウムイオン電池、リチウムマンガン電池、リチウムポリマー電池、またはニッケル水素電池が挙げられる。
視線追跡センサー18は、画像取得ユニットである。視線追跡センサー18は、可視画像取得ユニット、赤外線画像取得ユニット、又は熱感画像取得ユニットであってもよい。
また、浮遊画像システム1はマイクMP、及びスピーカーSPを含む。マイクMP及びスピーカーSPは接続コントローラ11に電気的に接続される。ユーザーは、マイクMP及びスピーカーSPを介し、音声制御信号を用いて、第1の浮遊画像情報G1、第2の浮遊画像情報G2又は統合浮遊画像情報GINに対し制御または対話を行うことができる。
また、コントローラ11、記憶モジュール12、通信モジュール13、第1の浮遊画像表示装置14、第2の浮遊画像表示装置15、環境検知装置16、電源モジュール17、視線追跡センサー18、マイクMP及びスピーカーSPは、ケーシング(図示せず)に配置されてもよい。
他の実施形態において、コントローラ11、記憶モジュール12、通信モジュール13、環境検知装置16、電源モジュール17、視線追跡センサー18、マイクMP及びスピーカーSPは、第1の浮遊画像表示装置14または第2の浮遊画像表示装置15に配置されてもよい。即ち、第1の浮遊画像表示装置14または第2の浮遊画像表示装置15のいずれも独立して平面画像情報または立体浮遊画像情報を処理することができる。第1の浮遊画像表示装置14と第2の浮遊画像表示装置15が電気的に接続された場合、第1の浮遊画像表示装置14と第2の浮遊画像表示装置15に搭載された各種コンポーネントは、リソースを共有し、互いに協調して動作することが可能である。
完全な三次元画像を表示する前に、コンピュータアルゴリズムは完全な画像を異なるブロックに分割し、計算後、各ブロックの画像を形成し、第1の浮遊画像表示装置の表示ユニットが発した光を空間に集光してブロックを形成し、異なるブロックの画像を合成して完全な立体視画像を形成する。第1の浮遊画像表示装置14のディスプレイは完全な立体視画像の一部を表示し、第2の浮遊画像表示装置15のディスプレイはこの完全な立体視画像の別の一部を表示し、上記2つを合成して完全な立体視画像とすることができる。
図4、図5及び図6を参照されたい。本実施形態において、浮遊画像表示システム1は、複数の浮遊画像表示装置を介して、例えば、図4、図5及び図6に示した方式で接続されてもよい。
例えば、図4に示すように、第1の浮遊画像表示装置14及び第2の浮遊画像表示装置15のそれぞれの両側方に浮遊画像表示装置FD01、FD02を脱着可能に配置してもよい。
図5に示すように、浮遊画像表示装置FD01、FD02、FD03は、互いに脱着可能に横方向に沿って接続されている。
図6は、6つの浮遊画像表示装置FD01、FD02、FD03、FD04、FD05、FD06を用いて、表示用の空間を構築する。6つの浮遊画像表示装置がそれぞれ各自の浮遊画像情報を表示するか、或いは複数の浮遊画像表示装置が相俟って複数の統合浮遊画像情報を共同表示するようにしてもよい。他の実施形態において、浮遊画像システム1は、複数の浮遊画像表示装置を様々な接続方式で組み合わせることによって、多種の浮遊画像情報を提供することが可能である。
この実施形態では、浮動画像システム1が完全な浮動立体視画像を表示する前に、コントローラ11はまずこの完全な画像をコンピュータアルゴリズムに従って異なるブロックに分割し、計算後に各ブロックの画像を区画するようになる。第1の浮遊画像表示装置14の表示ユニットまたは第2の浮遊画像表示装置15の複数の表示ユニットから複数の光線が供給され、空間に集光してブロックを形成し、異なるブロックの画像を合成して完全な浮遊立体視画像を形成することができる。すなわち、第1の浮遊画像表示装置14は、完全な統合浮遊画像情報GINの一部を表示する。第2の浮遊画像表示装置15は、統合浮遊画像情報GINの別の部分を表示し、上記2つを組み合わせて、完全な統合浮遊画像情報GINにするようになる。
さらに、コントローラ11は、第1の浮遊画像表示装置14と第2の浮遊画像表示装置15との間の角度に応じて、コンピュータアルゴリズム、第1の浮遊画像表示装置14の複数の表示ユニット、及び第2の浮遊画像表示装置15の複数の表示ユニットを調整し、空間内の集光を集光するために適切な角度で光を供給することによって、統合浮遊画像情報GINを形成するようにする。
[第2の実施形態]
図7及び図8を参照されたい。図7は、本発明に係る第2の実施形態の浮遊画像システムを示す模式図である。図8は、本発明に係る第2の実施形態の浮遊画像システムを示す他の模式図である。
本実施形態において、浮遊画像システム3は、コントローラ31、記憶モジュール32、通信モジュール33、第1の浮遊画像表示装置34、環境検知装置36、電源モジュール37、及び視線追跡センサー38を含む。コントローラ31は、接続記憶モジュール32、通信モジュール33、第1の浮遊画像表示装置34、環境検知装置36、電源モジュール37及び視線追跡センサー38に電気的に接続される。
浮遊画像システム3と浮遊画像システム1とは同様であるが、それらの相違点は主に、浮遊画像システム3における第1の浮遊画像表示装置34が折り畳み可能な表示装置である点にある。即ち、第1の浮遊画像表示装置34的表示モジュールとケーシングとの構造設計によって、第1の浮遊画像表示装置34を2つの表示領域となるように折り畳むことができる。即ち、第1の浮遊画像表示装置34を折り畳んだ時、第1の浮遊画像表示装置34は、少なくとも第1の浮遊画像表示領域34-1、及び第2の浮遊画像表示領域34-2を含むようになる。第1の浮遊画像表示領域34-1と第2の浮遊画像表示領域34-2とは隣り合って配置される。即ち、第1の浮遊画像表示装置34は2つの表示領域を形成するように折り畳まれた。第1の浮遊画像表示領域34-1及び第2の浮遊画像表示領域34-2の間に表示角度αが形成される。表示角度αは、0度~179度であってもよい。他の実施形態において、表示角度αは鈍角であってもよい。
第1の浮遊画像表示装置34における第1の浮遊画像表示領域34-1及び第2の浮遊画像表示領域34-2はそれぞれ異なる浮遊画像情報を表示することができる。第1の浮遊画像表示領域34-1及び第2の浮遊画像表示領域34-2もそれぞれ、複数の第1の浮遊画像情報及び複数の第2の浮遊画像情報を提供することによって、統合浮遊画像情報GINを共同表示することが可能である。
図8に示すように、第1の浮遊画像表示装置34は、3つの表示領域を形成するように折り畳まれることができるように構成される。即ち、図8において、第1の浮遊画像表示装置34は、第1の浮遊画像表示領域34-1、第2の浮遊画像表示領域34-2及び第3の浮遊画像表示領域34-3を含む。第1の浮遊画像表示領域34-1、第2の浮遊画像表示領域34-2及び第3の浮遊画像表示領域34-3は互いに隣り合って配置される。同様的に、第1の浮遊画像表示領域34-1、第2の浮遊画像表示領域34-2及び第3の浮遊画像表示領域34-3はそれぞれ、複数の浮遊画像情報を提供する。第1の浮遊画像表示領域34-1、第2の浮遊画像表示領域34-2及び第3の浮遊画像表示領域34-3もそれぞれ、第1の浮遊画像情報、第2の浮遊画像情報及び第3の浮遊画像情報を提供することによって、統合浮遊画像情報GINを共同表示することができる。
図9、図10、図11、図12及び図13を参照されたい。図9は、本発明にかかる1の浮遊画像表示装置を示す模式図である。図10は、本発明にかかる1の浮遊画像表示装置を示す分解模式図である。図11は、本発明にかかる1の浮遊画像表示装置のレンズアレイが整合的に配列されることを示す模式図である。図12は、本発明にかかる1の浮遊画像表示装置におけるレンズアレイが千鳥に配列されることを示す模式図である。図13は、本発明にかかる1の浮遊画像表示装置における単一のレンズフォーカスの状況を示す模式図である。
第1の浮遊画像表示装置14及び第2の浮遊画像表示装置15の構成と機能は同様であるため、第1の浮遊画像表示装置14の実施例のみを詳しく説明し、第2の浮遊画像表示装置15の構造や機能についての説明は繰り返さない。
第1の浮遊画像表示装置14は、第1の表示モジュール141、レンズアレイ層142、及び微小構造層143を含む。このように、表示画像を変えることで、立体視画像の角度を変え、別の角度から立体視をすることができる。
さらに、微小構造層143は、動的光学部品層である。すなわち、微小構造層143は、微小構造機能モード及び非微小構造機能モードを有する。微小構造層143は、制御信号に従って、微小構造機能モードまたは非微小構造機能モードに調整することができる。微小構造層143を微小構造機能モードに切り替えると、光の角度方向を変える。微小構造層143が非微小構造機能モードに切り替えられると、第1の浮遊画像表示装置14は平面画像情報の表示に用いられ、第1の浮遊画像表示装置14の側方の空間に浮かぶ立体画像情報を表示しないようになる。しかし、本実施形態では、第1の浮遊画像表示装置14は、平面画像情報及び浮遊画像情報の両方を表示することが可能である。
微小構造層143は液晶レンズアレイ層(LiquidLensLayer)であって、複数の微小構成液晶レンズを含む。レンズアレイ層も、液晶レンズアレイ層(LiquidLensLayer)複数の光学調整液晶レンズを含む。即ち、第1の浮遊画像表示装置14は少なくとも2層の液晶レンズアレイ層を含む表示装置である。他の実施形態において、光線を調整するために、第1の浮遊画像表示装置14はさらに多い層の液晶レンズアレイ層を含むように構成されてもよい。また、他の実施形態において、第1の浮遊画像表示装置14は、光線を調整するために、異なる領域に第1の浮遊画像表示装置14を配置するようにしてもよい。また、レンズアレイ層142は、第1の構成レンズアレイ層(図示せず)、及び第2の構成レンズアレイ層(図示せず)を含む。第1の構成レンズアレイ層(図示せず)は光フィールドを変調するためにレンズ構成を有し、一方、第2の構成レンズアレイ層(図示せず)はレンズ構成を有しない。
レンズアレイ層142は、第2の層(中間層)に配置することで、ライトフィールドを規制する効果がある。集光レンズは、立体物に当てる光の角度をコントロールできるため、角度を変えて立体像をユーザーに見せることで、奥行き感を演出することができる。異なる集光レンズは、オブジェクトに関わる各点の角度を与えることができ、異なるレンズからの光が空中で収束し、奥行き情報を持つ点を形成し、空間内の点を示す情報は異なる光の角度に分割して異なるレンズのピクセルに記録する。集光レンズの曲率は、レンズの材質によって決まり、第1層にあるフラットパネルディスプレイ141と組み合わせて、立体画像の高さ、視野角範囲、鮮明度を決定することになる。表示面1411に表示された未構成の画像は、レンズアレイ層142を通してレンズの上面ではなく、レンズの上方の空間に焦点を当てる。他の実施形態では、微小構造層は含まれなくてもよい。
第1の表示モジュール141は、通用のフラットパネルディスプレイであってもよい。第1の表示モジュール141は画像を表示するために用いられる表示面1411を有する。レンズアレイ層142は、第1の表示モジュール141の近傍にある表示面1411に配置される。即ち、レンズアレイ層142は第1の表示モジュール141の上方に配置される。レンズアレイ層142は、第1の表示モジュール141の表示面1411に接触してもよい。レンズアレイ層142は、第1の表示モジュール141の表示面1411と間隔をあけて配置されてもよいし、第1の表示モジュール141における表示面1411とレンズアレイ層142との間に配置された中間層であってもよい。
第1の表示モジュール141は、最下層に配置されてもよく、それは光再生が未だされていない平面画像を表示する役割を果たす。また、レンズアレイ層142のレンズアレイを介して光は再分配・合成されることで、再構成された立体画像を表示するようになる。第1層の第1の表示モジュール141は、対象画像を表示できればよいので、携帯電話、フラットパネル、フラットスクリーンなど、どのようなハードウェア構成であってもよく、ディスプレイ1の種類や構成は限定されるものではない。また、第1の表示モジュール141は、自発光型ディスプレイであってもよい。
レンズアレイ層142は、最上層に配置し、光場を調節する効果を有する。レンズアレイ層142は、立体物の光角を調節し、元々再構成されていない平面画像を再分配して再構成し、視聴者に立体画像を見ることができるようにする。
レンズアレイ層142は、光学特性の良い材料で作られており、レンズアレイ層142の材料は、特に限定されない。レンズアレイ層142は、基部1421及び複数のレンズ1422を含む。複数のレンズ1422は、基部1421の一面に配置される。即ち、複数のレンズ1422は基部1421における第1の表示モジュール141から離れる一面に配置される。レンズアレイ層142の配列及び構造は上記の例に制限されない。複数のレンズ1422は焦点を当てる機能を有する。表示面1411は未だ再構築されていない画像はレンズアレイ層142によって、統合された画像を再構成し、立体視画像を形成する。
第1の表示モジュール141は、アルゴリズムの適用が可能であれば、どのような構成であってもよく、すなわち、第1の表示モジュール141は、図画像計算ユニット1412を有する。ディスプレイ1で使用される画像は、画像アルゴリズム計算の対象となり、この計算は、レンズアレイの構造と連動して、その光が通るさまざまな経路を予測し、画像の相対的な位置を計算する。
本発明のレンズアレイ層142は,ディスプレイの効果に大きな関連性を有する。図9に示すように、レンズアレイは、隣接する2つの列のそれぞれのレンズ1422が互いに整合的に配列するように、矩形パターンで配置されてもよい。図10に示すように、レンズアレイはまた、レンズ1422の2つの隣接する列の各々が千鳥状に配置されるように、六角形のパターンで配置されてもよい。
レンズアレイ層142上の微細構造は集光レンズである。この微細レンズの仕様は、材料の屈折率n値によって集光能力が決まり、使用できる光の波長範囲は300nmから1100nmである。小型レンズ1枚の焦点距離は図11のようになり、レンズメーカーの公式:1/f=(n-1)(1/R1-1/R2)に準拠する。ここで、R1、R2はレンズの両側の曲率半径、fはレンズの焦点距離、nはレンズの屈折率である。また、レンズの直径は、表示デバイスの画素サイズに合わせて、100umから5mmまで幅広く対応する。他の実施形態において、レンズアレイ層142の微小構造は、本発明において限定されることなく、非球面レンズまたは上記レンズメーカーの数式とは異なる光学特性を有する厚膜レンズであってもよい。他の実施形態では、レンズアレイ層142はまた、いかなる微小構造も含まなくてもよい。
図14、図15、図16及び図17を参照されたい。図14は、第1の浮遊画像表示装置または第2の浮遊画像表示装置による浮遊画像情報とオブジェクトとが対話することを示す模式図である。図15は、第1の浮遊画像表示装置または第2の浮遊画像表示装置による浮遊画像情報とオブジェクトとが対話することを示す他の模式図である。図16は、第1の浮遊画像表示装置または第2の浮遊画像表示装置による浮遊画像情報とオブジェクトとが対話することを示す他の模式図である。図17は、第1の浮遊画像表示装置または第2の浮遊画像表示装置による浮遊画像情報とオブジェクトとが対話することを示す他の模式図である。
ユーザーは、指、電子対話用手袋ECL、電子対話用手袋PTを用いて、第1の浮遊画像情報G1、第2の浮遊画像情報G2、または統合浮遊画像情報GINと対話することができる。
すなわち、第1の浮遊画像表示装置14のセンサー149は、オブジェクトOB(ユーザの手)の所定の検出点の座標、例えばユーザーの人差し指、電子対話用手袋ECLの所定の座標、ペン型対話部材PTのペン先の所定の座標の少なくとも1つを検出するために使用することができる。センサー149は、オブジェクトOBの所定の検出点の軌跡を所定時間にわたって連続的に記録する。センサー149は、オブジェクトOBの所定の検出点の軌跡の複数の座標を、所定期間、コントローラ11に送信する。コントローラ11は、ユーザーの人差し指、電子対話用手袋ECLの所定座標、又はペン型対話部材のペン先の所定座標の少なくとも一方に基づいて、第1の浮遊画像情報G1の対話ステータスを決定する。本実施形態では、センサー149は、3Dセンサー、光学センサー、赤外線センサー、2軸カメラセンサー、またはレーダセンサーである。
同様に、第2の浮遊画像表示装置15に表示される第2の浮遊画像情報G2、第1の浮遊画像表示装置14及び第2の浮遊画像表示装置15が共同表示する統合浮遊画像情報GINは、指、或いは、電子対話用手袋ECL、ペン型対話部材P等で対話を行うことによって次に表示する画像を決めるようになる。
さらに言えば、ユーザーは、第1の浮遊画像表示装置14、第2の浮遊画像表示装置15、または第1の浮遊画像表示装置14及び第2の浮遊画像表示装置15によって、空中に浮かぶ線、平面及び立体画像を表示してもよい。
図14、図15、図16及び図17に示すように、ユーザーは手(オブジェクト)OB、ペン型対話部材PT、電子対話用手袋ECLによって、第1の浮遊画像表示装置14における側方の空間において複数の軌跡PH1-PHNを描くことが可能である。また、それらの軌跡をさらに、移動、調整または接続することによって、第1の浮遊画像情報G1を構築するようにしてもよい。
また、第1の浮遊画像表示装置14はさらにプログラムを含んでもよい。プログラムは複数の立体機能トリガーFBNに対応した複数の機能処理プロセスを含む。複数の立体機能トリガーFBNは、第1の表示モジュール141を介して、第1の浮遊画像情報G1と同じように、第1の浮遊画像表示装置14における側方の空間で表示される。
ユーザーは、着色、ズーム、素材の調整など、複数の立体機能トリガーFBNの中から1つを選択して、第1の浮遊画像情報G1の一部または全部の領域を編集することができる。
つまり、平面領域、立体領域、あるいは複数の軌跡で形成された領域全体を、ユーザーが選択的に処理することができる。先の実施形態と同様に、第1の浮遊画像情報G1は、第1の浮遊画像表示装置14の一側方の空間に分解図として表示させることが可能である。
さらに、第1の浮遊画像表示装置14は、コントローラ11及び通信モジュールを介してサーバー9に接続することができる。サーバーは、第1の浮遊画像情報G1の多数の軌跡の算出を負担できる。本実施形態では、平面画像情報及び立体画像情報の算出を、第1の浮遊画像表示装置14及びコントローラ11で処理し、又はクラウドコンピューティング用のリモートのサーバー9で処理し、算出した平面画像情報及び立体画像情報をコントローラ11に送信するようにしてもよい。
[実施形態の有益效果]
本発明の有益な効果の1つは、本発明によって提供される浮遊画像システムが、単一の浮遊画像表示装置または複数の浮遊画像表示装置によって、背景に平面画像情報を表示すると同時に立体画像情報を表示することができ、豊かな視覚環境を作り出すことができ、ユーザー体験を効果的に高めることができることである。
以上に開示された内容は本発明の好ましい実施形態に過ぎず、これにより本発明の特許請求の範囲を制限するものではない。そのため、本発明の明細書及び添付図面の内容に基づき為された等価の技術変形は、全て本発明の特許請求の範囲に含まれるものとする。
1、3:浮遊画像システム
11、31:コントローラ
12、32:記憶モジュール
13、33:通信モジュール
14、34:第1の浮遊画像表示装置
15:第2の浮遊画像表示装置
16:接続モジュール
17、37:電源モジュール
18、38:視線追跡センサー
19:接続モジュール
MP:マイク
SP:スピーカー
GIN:統合浮遊画像情報
EIN1:第1の環境画像情報
EIN2:第2の環境画像情報
MEIN1:第1の環境画像調整情報
MEIN2:第2の環境画像調整情報
141:第1の表示モジュール
151:第2の表示モジュール
149:センサー
G1:第1の浮遊画像情報
G2第2の浮遊画像情報
PT:ペン型対話部材
PH1-PHN:軌跡
FBN:立体機能トリガー
OB:オブジェクト
ECL:電子対話用手袋
142:レンズアレイ層
143:微小構造層
1421、1422:レンズ
1411:表示面
9:サーバー
FD01、FD02、FD03、FD04、FD05、FD06:浮遊画像表示装置
34-1:第1の浮遊画像表示領域
34-2:第2の浮遊画像表示領域
34-3:第3の浮遊画像表示領域
1412:図画像計算ユニット

Claims (10)

  1. コントローラと、
    前記コントローラに電気的に接続される第1の浮遊画像表示装置と、
    前記コントローラに電気的に接続されると共に、脱着可能に前記第1の浮遊画像表示装置に接続する、第2の浮遊画像表示装置と、
    を備え、
    前記第1の浮遊画像表示装置と前記第2の浮遊画像表示装置はそれぞれ、複数の第1の浮遊画像情報及び複数の第2の浮遊画像情報を提供することによって、統合浮遊画像情報を共同表示し、
    前記第1の浮遊画像表示装置は、複数の第1の浮遊画像情報を前記第1の浮遊画像表示装置における第1の側方の空間で表示させ、前記第2の浮遊画像表示装置は、複数の第2の浮遊画像情報を前記第2の浮遊画像表示装置における第1の側方の空間に表示させ、統合浮遊画像は、前記第1の浮遊画像表示装置と前記第2の浮遊画像表示装置との間の空間で表示され、
    前記第1の浮遊画像表示装置における第2の側方複数の第1の環境画像情報、或いは前記第2の浮遊画像表示装置における第2の側方複数の第2の環境画像情報を検知する環境検知装置をさらに備え、前記環境検知装置は前記コントローラに接続し、前記第1の環境画像情報及び前記第2の環境画像情報のいずれも前記コントローラに送信される、
    ことを特徴とする浮遊画像システム。
  2. 前記第1の浮遊画像表示装置と前記第2の浮遊画像表示装置との間に配置される接続モジュールをさらに備え、前記第1の浮遊画像表示装置は、前記接続モジュールを介して前記第2の浮遊画像表示装置に接続され、前記第1の浮遊画像表示装置と前記第2の浮遊画像表示装置とは所定の角度をなす、請求項1に記載の浮遊画像システム。
  3. 前記コントローラは、前記複数の第1の環境画像情報に基づいて、複数の第1の環境画像調整情報を前記第1の浮遊画像表示装置における前記第1の側方にある第1の表示モジュールで表示させる、請求項1に記載の浮遊画像システム。
  4. 前記コントローラは、前記複数の第2の環境画像情報に基づいて、複数の第2の環境画像調整情報を前記第2の浮遊画像表示装置における前記第1の側方にある第2の表示モジュールで表示させる、請求項3に記載の浮遊画像システム。
  5. 前記第1の浮遊画像表示装置における前記第1の側方、或いは前記第2の浮遊画像表示装置における前記第1の側方に配置され、ユーザー視線信号を検知するために用いられる、視線追跡センサーをさらに備える、請求項4に記載の浮遊画像システム。
  6. 前記視線追跡センサーが検知する前記ユーザー視線信号は、ユーザーの瞳の位置及び視線の角度を含む、請求項5に記載の浮遊画像システム。
  7. 前記コントローラは、前記ユーザー視線信号に基づいて、前記第1の表示モジュールで表示された前記複数の第1の環境画像調整情報、或いは前記第2の表示モジュールで表示された前記複数の第2の環境画像調整情報を調整する、請求項6に記載の浮遊画像システム。
  8. 前記コントローラは、サーバーに通信接続され、前記浮遊画像システムにおける前記コントローラは、前記複数の第1の浮遊画像情報、前記第2の浮遊画像情報、前記統合浮遊画像情報、前記複数の第1の環境画像情報、前記複数の第2の環境画像情報、前記複数の第1の環境画像調整情報及び前記複数の第2の環境画像調整情報を前記サーバーに送信して前記サーバーで計算を行う、請求項7に記載の浮遊画像システム。
  9. 前記コントローラに電気的に接続される記憶モジュールと、
    前記コントローラに電気的に接続される通信モジュールと、
    前記コントローラ、前記記憶モジュール、前記通信モジュール、前記第1の浮遊画像表示装置、前記第2の浮遊画像表示装置、前記環境検知装置及び前記視線追跡センサーに給電するために、前記コントローラに電気的に接続される電源モジュールと、
    をさらに備え、
    前記複数の第1の浮遊画像情報、前記第2の浮遊画像情報、前記統合浮遊画像情報、前記複数の第1の環境画像情報、前記複数の第2の環境画像情報、前記複数の第1の環境画像調整情報及び前記複数の第2の環境画像調整情報は、前記記憶モジュールに記憶され、
    前記コントローラは、前記通信モジュールを介して、前記サーバーに通信接続する、請求項8に記載の浮遊画像システム。
  10. 前記浮遊画像システムは、オブジェクトの立体座標値を検知することによって、前記オブジェクトと、前記浮遊画像システムで表示された前記複数の第1の浮遊画像情報、前記複数の第2の浮遊画像情報または前記統合浮遊画像情報との対話を可能にする、請求項1に記載の浮遊画像システム。
JP2022000565A 2021-01-06 2022-01-05 浮遊画像システム Active JP7403862B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW110100367 2021-01-06
TW110100367A TWI782384B (zh) 2021-01-06 2021-01-06 浮空影像系統

Publications (2)

Publication Number Publication Date
JP2022106294A JP2022106294A (ja) 2022-07-19
JP7403862B2 true JP7403862B2 (ja) 2023-12-25

Family

ID=82219210

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022000565A Active JP7403862B2 (ja) 2021-01-06 2022-01-05 浮遊画像システム

Country Status (3)

Country Link
US (1) US11448898B2 (ja)
JP (1) JP7403862B2 (ja)
TW (1) TWI782384B (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008041313A1 (fr) 2006-10-02 2008-04-10 Pioneer Corporation Dispositif d'affichage d'images
US20150220299A1 (en) 2014-02-06 2015-08-06 Samsung Electronics Co., Ltd. Electronic device and method for controlling displays

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2180365B1 (en) * 2007-07-30 2015-10-07 National Institute of Information and Communication Technology Multi-viewpoint floating image display
US9179140B2 (en) * 2010-10-19 2015-11-03 Mitsubishi Electric Corporation 3dimension stereoscopic display device
TWM412432U (en) * 2011-04-22 2011-09-21 Yuan-Hong Li Holographic image superposition device
TWI585464B (zh) * 2014-03-20 2017-06-01 深圳創銳思科技有限公司 擴增顯示裝置及擴增顯示系統
CN204143073U (zh) * 2014-06-11 2015-02-04 深圳创锐思科技有限公司 显示设备及显示系统
CN106228922A (zh) * 2016-07-26 2016-12-14 江苏前景信息科技有限公司 多视角三维地景立体数字化全息沙盘系统
TWI634350B (zh) * 2016-08-10 2018-09-01 群睿股份有限公司 影像顯示方法
CN108267861B (zh) * 2017-01-03 2020-08-04 京东方科技集团股份有限公司 显示设备及其操作方法、显示系统
CN106842882B (zh) * 2017-04-02 2022-03-18 浙江工业大学 一种自身可见的全息显示装置
TWI665905B (zh) * 2017-10-27 2019-07-11 群睿股份有限公司 立體影像產生方法、成像方法與系統
TWI661391B (zh) * 2018-01-12 2019-06-01 群睿股份有限公司 立體影像調整方法與顯示裝置
TWI700516B (zh) * 2019-06-10 2020-08-01 幻景啟動股份有限公司 互動式立體顯示裝置與互動感應方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008041313A1 (fr) 2006-10-02 2008-04-10 Pioneer Corporation Dispositif d'affichage d'images
US20150220299A1 (en) 2014-02-06 2015-08-06 Samsung Electronics Co., Ltd. Electronic device and method for controlling displays

Also Published As

Publication number Publication date
JP2022106294A (ja) 2022-07-19
TW202227880A (zh) 2022-07-16
US11448898B2 (en) 2022-09-20
TWI782384B (zh) 2022-11-01
US20220214560A1 (en) 2022-07-07

Similar Documents

Publication Publication Date Title
US11782193B1 (en) Liquid lens structure with adjustable optical power
US9986228B2 (en) Trackable glasses system that provides multiple views of a shared display
RU2643222C2 (ru) Устройство, способ и система обеспечения увеличенного дисплея с использованием шлема-дисплея
US10534173B2 (en) Display with a tunable mask for augmented reality
CN103733247B (zh) 在各显示设备查看模式之间进行改变
US20170109562A1 (en) Methods and Devices for Eye Tracking Based on Depth Sensing
US20210183132A1 (en) Intelligent Stylus Beam and Assisted Probabilistic Input to Element Mapping in 2D and 3D Graphical User Interfaces
US20110012830A1 (en) Stereo image interaction system
US10652525B2 (en) Quad view display system
CN116126170A (zh) 显示装置及控制装置
WO2011011029A1 (en) Display to determine gestures
JP3245276U (ja) 浮遊立体画像表示システム
US20230060453A1 (en) Electronic device and operation method thereof
JP7403862B2 (ja) 浮遊画像システム
US11726328B2 (en) Accommodation adjustable and magnification corrective optical system
TWI654448B (zh) 影像顯示裝置
US20220256137A1 (en) Position calculation system
CN114827566B (zh) 浮空三维影像显示系统
CN114882813B (zh) 浮空图像系统
US9098115B2 (en) Physical object for intuitive navigation in a three-dimensional space
TW202236080A (zh) 物件互動的系統與方法
Järvenpää et al. Compact near-to-eye display with integrated gaze tracker
US20240103626A1 (en) Haptic ring
US11703618B1 (en) Display device including lens array with independently operable array sections
TWI761976B (zh) 互動系統

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230411

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231206

R150 Certificate of patent or registration of utility model

Ref document number: 7403862

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150