JP7105173B2 - 3次元表示装置、ヘッドアップディスプレイ、移動体、およびプログラム - Google Patents

3次元表示装置、ヘッドアップディスプレイ、移動体、およびプログラム Download PDF

Info

Publication number
JP7105173B2
JP7105173B2 JP2018207539A JP2018207539A JP7105173B2 JP 7105173 B2 JP7105173 B2 JP 7105173B2 JP 2018207539 A JP2018207539 A JP 2018207539A JP 2018207539 A JP2018207539 A JP 2018207539A JP 7105173 B2 JP7105173 B2 JP 7105173B2
Authority
JP
Japan
Prior art keywords
controller
image
display
display panel
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018207539A
Other languages
English (en)
Other versions
JP2020072455A (ja
Inventor
薫 草深
直 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2018207539A priority Critical patent/JP7105173B2/ja
Priority to EP19878667.5A priority patent/EP3876530B1/en
Priority to PCT/JP2019/042125 priority patent/WO2020090712A1/ja
Priority to US17/284,945 priority patent/US11442269B2/en
Priority to CN201980069275.1A priority patent/CN112889274B/zh
Publication of JP2020072455A publication Critical patent/JP2020072455A/ja
Application granted granted Critical
Publication of JP7105173B2 publication Critical patent/JP7105173B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/373Image reproducers using viewer tracking for tracking forward-backward translational head movements, i.e. longitudinal movements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/211Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays producing three-dimensional [3D] effects, e.g. stereoscopic images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/27Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/30Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/376Image reproducers using viewer tracking for tracking left-right translational head movements, i.e. lateral movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/378Image reproducers using viewer tracking for tracking rotational head movements around an axis perpendicular to the screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/38Image reproducers using viewer tracking for tracking vertical translational head movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/149Instrument input by detecting viewing direction not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/29Holographic features
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/33Illumination features
    • B60K2360/334Projection means
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0136Head-up displays characterised by optical features comprising binocular systems with a single image source for both eyes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Instrument Panels (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本開示は、3次元表示装置、ヘッドアップディスプレイ、移動体、およびプログラムに関する。
従来、眼鏡を用いずに3次元表示を行うために、表示パネルから出射された光の一部を右眼に到達させ、表示パネルから出射された光の他の一部を左眼に到達させる光学素子を備える3次元表示装置が知られている(特許文献1参照)。
特開2001-166259号公報
利用者の両眼それぞれに適切に画像光が到達し、利用者が3次元表示装置よって表示された3次元画像または該3次元画像の虚像を適切に視認することが望まれている。
本開示は、利用者が3次元画像または該3次元画像の虚像を適切に視認することができる3次元表示装置、ヘッドアップディスプレイシステム、通信機器、移動体、およびプログラムを提供する。
本開示の3次元表示装置は、表示パネルと、光学素子と、通信モジュールと、コントローラとを備える。前記表示パネルは、移動体に搭載され、視差画像を表示する。前記光学素子は、前記表示パネルからの画像光の伝播方向を規定する。前記通信モジュールは、前記移動体の運動のパラメータを示すモーション信号を受信する。前記コントローラは、前記モーション信号が示す前記パラメータに基づいて、前記表示パネルに前記視差画像を表示させる。前記コントローラは、高さ方向における利用者の眼の位置に基づいて、前記視差画像を表示させる。
また、本開示の3次元表示装置は、表示パネルと、光学素子と、通信モジュールと、コントローラとを備える。前記表示パネルは、移動体に搭載され、視差画像を表示する。前記光学素子は、前記表示パネルからの画像光の伝播方向を規定する。前記通信モジュールは、前記移動体の運動のパラメータを示すモーション信号を受信する。前記コントローラは、前記モーション信号が示す前記パラメータに基づいて、前記表示パネルに前記視差画像を表示させる。前記コントローラは、前記運動のパラメータの変化量が大きいほど、前記視差画像を構成する、利用者の第1眼に視認させるための第1画像および前記利用者の第2眼に視認させるための、前記第1画像に対して視差を有する第2画像それぞれを表示させる、前記表示パネルにおける位置を大きく変更する。
また、本開示の3次元表示装置は、表示パネルと、光学素子と、通信モジュールと、コントローラとを備える。前記表示パネルは、移動体に搭載され、視差画像を表示する。前記光学素子は、前記表示パネルからの画像光の伝播方向を規定する。前記通信モジュールは、前記移動体の運動のパラメータを示すモーション信号を受信する。前記コントローラは、前記モーション信号が示す前記パラメータに基づいて、前記表示パネルに前記視差画像を表示させる。前記コントローラは、利用者の高さ方向と重力方向とのずれに基づいて前記表示パネルに前記視差画像を表示させる。
本開示のヘッドアップディスプレイは、3次元表示装置と、光学部材とを備える。前記3次元表示装置は、表示パネルと、光学素子と、通信モジュールと、コントローラとを備える。前記表示パネルは、移動体に搭載され、視差画像を表示する。前記光学素子は、前記表示パネルからの画像光の伝播方向を規定する。前記通信モジュールは、前記移動体の運動のパラメータを示すモーション信号を受信する。前記コントローラは、前記モーション信号が示す前記パラメータに基づいて、前記表示パネルに前記視差画像を表示させる。前記コントローラは、高さ方向における利用者の眼の位置に基づいて、前記視差画像を表示させる。前記光学部材は、前記3次元表示装置から射出された画像光を反射させて、利用者の眼に到達させる。
本開示の移動体は、ヘッドアップディスプレイを備える。ヘッドアップディスプレイは、3次元表示装置と、光学部材とを備える。前記3次元表示装置は、表示パネルと、光学素子と、通信モジュールと、コントローラとを備える。前記表示パネルは、視差画像を表示する。前記光学素子は、前記表示パネルからの画像光の伝播方向を規定する。前記通信モジュールは、前記移動体の運動のパラメータを示すモーション信号を受信する。前記コントローラは、前記モーション信号が示す前記パラメータに基づいて、前記表示パネルに前記視差画像を表示させる。前記コントローラは、高さ方向における利用者の眼の位置に基づいて、前記視差画像を表示させる。前記光学部材は、前記3次元表示装置から射出された画像光を反射させて、利用者の眼に到達させる。
本開示のプログラムは、移動体に搭載された3次元表示装置が実行するためのプログラムである。前記3次元表示装置は、表示パネルと、光学素子と、通信モジュールと、コントローラとを備える。前記光学素子は、前記表示パネルから射出された画像光の伝播方向を規定する。前記コントローラは、前記通信モジュールに、前記移動体の運動のパラメータを示すモーション信号を受信させる。前記コントローラは、前記パラメータに基づいて、前記表示パネルに視差画像を表示させる。前記コントローラは、高さ方向における利用者の眼の位置に基づいて、前記視差画像を表示させる。
本開示の一実施形態によれば、利用者が3次元画像または該3次元画像の虚像を適切に視認することが可能となる。
移動体に搭載された通信ヘッドアップディスプレイシステムの例を示す図である。 図1に示す通信ヘッドアップディスプレイシステムの概略構成を示す図である。 図2に示す表示パネルを奥行方向から見た例を示す図である。 図2に示すパララックスバリアを奥行方向から見た例を示す図である。 図1に示す虚像と利用者の眼との関係を説明するための図である。 図6(a)は、利用者の眼の位置の水平方向への変化を示す図であり、図6(b)は、図6(a)に示す利用者より背の低い利用者の眼の位置の水平方向への変化を示す図である。 変化前後における眼間方向の眼の位置と可視領域との関係を示す図である。 高さ方向が重力方向に対してずれている場合の眼の位置の変化を説明するための図である。 図9(a)は、利用者の眼の位置の前後方向への変化を示す図であり、図9(b)は図9(a)に示す利用者より背の低い利用者の眼の位置の前後方向への変化を示す図である。 変化前後における前後方向の眼の位置と可視領域との関係を示す図である。 推定方式を用いたコントローラの処理フローの一例を示すフローチャートである。 実測検証方式を用いたコントローラの処理フローの一例を示すフローチャートである。 利用者が表示パネルを直接視認する場合の、3次元表示装置と利用者の眼との位置関係を示す図である。 光学素子をレンチキュラレンズとした場合の3次元表示装置の概略構成図である。
以下、本開示の一実施形態について、図面を参照して説明する。なお、以下の説明で用いられる図は模式的なものであり、図面上の寸法比率等は現実のものとは必ずしも一致していない。
図1に示すように、本開示の一実施形態にかかる通信ヘッドアップディスプレイ(HUD:Head Up Display)システム100は、移動体20に搭載されてよい。
本開示における「移動体」には、車両、船舶、航空機を含む。本開示における「車両」には、自動車および産業車両を含むが、これに限られず、鉄道車両および生活車両、滑走路を走行する固定翼機を含めてよい。自動車は、乗用車、トラック、バス、二輪車、およびトロリーバス等を含むがこれに限られず、道路上を走行する他の車両を含んでよい。産業車両は、農業および建設向けの産業車両を含む。産業車両には、フォークリフト、およびゴルフカートを含むがこれに限られない。農業向けの産業車両には、トラクター、耕耘機、移植機、バインダー、コンバイン、および芝刈り機を含むが、これに限られない。建設向けの産業車両には、ブルドーザー、スクレーバー、ショベルカー、クレーン車、ダンプカー、およびロードローラを含むが、これに限られない。車両は、人力で走行するものを含む。なお、車両の分類は、上述に限られない。例えば、自動車には、道路を走行可能な産業車両を含んでよく、複数の分類に同じ車両が含まれてよい。本開示における船舶には、マリンジェット、ボート、タンカーを含む。本開示における航空機には、固定翼機、回転翼機を含む。
通信HUDシステム100は、撮像装置1と、ヘッドアップディスプレイ(HUD:Head Up Display)2とを備えうる。
撮像装置1は、撮像範囲に利用者の顔が含まれるように配置される。通信HUDシステム100が移動体20に搭載される場合、撮像装置1は、ルームミラーに取り付けられてよい。撮像装置1は、インスツルメントパネル内の、例えばクラスタに取り付けられてよい。撮像装置1は、センターパネルに取り付けられてよい。撮像装置1は、ステアリングホイールの支持部に取り付けられてよい。
図2に示すように、撮像装置1は、撮像光学系11と、撮像素子12と、第1通信モジュール13とを含む。
撮像光学系11は、1つ以上のレンズを含んで構成される。撮像光学系11は、光軸が撮像素子12の撮像面に垂直となるように配置されている。撮像光学系11は、被写体から入射した光を撮像素子12において被写体像として結像させる。
撮像素子12は、例えばCCD(Charge Coupled Device)撮像素子またはCMOS(Complementary Metal Oxide Semiconductor)撮像素子を含んでよい。撮像素子12は、撮像光学系11によって結像された像を変換することによって撮像画像を生成する。
第1通信モジュール13は、HUD2と通信可能である。具体的には、第1通信モジュール13は、撮像素子12によって生成された撮像画像をHUD2に送信する。第1通信モジュール13とHUD2との通信において用いられる通信方式は、近距離近距離無線通信規格または携帯電話網へ接続する無線通信規格であってよいし、有線通信規格であってよい。近距離の無線通信規格は、例えば、WiFi(登録商標)、Bluetooth(登録商標)、赤外線、NFC(Near Field Communication)、等を含んでよい。携帯電話網へ接続する無線通信規格は、例えば、LTE(Long Term Evolution)、第4世代移動通信システムまたは第5世代移動通信システム等を含んでよい。
図1に示したように、HUD2は、反射器3と、光学部材4と、3次元表示装置5とを含みうる。
反射器3は、3次元表示装置5から射出された画像光を、光学部材4の所定領域に向けて反射させる。所定領域は、該所定領域で反射した画像光が利用者の眼の方に向かう領域である。所定領域は、光学部材4に対する利用者の眼の方向、および光学部材4への画像光の入射方向によって定まりうる。反射器3は、1つ以上の反射素子を含む。
反射素子それぞれは、ミラーであってよい。反射素子がミラーである場合、例えば、ミラーは凹面鏡としてよい。図1において、反射器3は、1つのミラーとして表示している。しかし、これに限られず、反射器3は、1つ以上のミラーとして構成してよい。
光学部材4は、3次元表示装置5から射出され、反射器3によって反射された画像光を、利用者の左眼(第1眼)および右眼(第2眼)に向けて反射させる。例えば、移動体20のウインドシールドは、光学部材4として兼用されてよい。したがって、HUD2は、光路Lに沿って、3次元表示装置5から射出された光を、利用者の左眼および右眼まで進行させる。利用者は、光路Lに沿って到達した光を虚像Vとして視認しうる。
図2に示したように、3次元表示装置5は、照射器51と、表示パネル52と、光学素子としてのパララックスバリア53と、第2通信モジュール54と、コントローラ55と、メモリ56とを含むことができる。HUD2が移動体20に搭載される構成において、3次元表示装置5は、移動体20のダッシュボードに収容されてよい。
照射器51は、表示パネル52を面的に照射しうる。照射器51は、光源、導光板、拡散板、拡散シート等を含んでよい。照射器51は、光源により照射光を出射し、導光板、拡散板、拡散シート等により照射光を表示パネル52の面方向に均一化する。そして、照射器51は均一化された光を表示パネル52の方に出射しうる。
表示パネル52は、例えば透過型の液晶表示パネルなどの表示パネルを採用しうる。表示パネル52としては、透過型の液晶パネルに限られず、有機EL等他の表示パネルを使用しうる。表示パネル52として、自発光型の表示パネルを使用した場合、3次元表示装置5は照射器51を備えなくてよい。表示パネル52を液晶パネルとして説明する。
図3に示すように、表示パネル52は、面状に形成されたアクティブエリアA上に複数の区画領域を有する。アクティブエリアAは、視差画像を表示する。視差画像は、後述する左眼画像(第1画像)と左眼画像に対して視差を有する右眼画像(第2画像)とを含む。区画領域は、第1方向および第1方向に直交する第2方向に区画された領域である。第1方向および第2方向に直交する方向は第3方向と称される。第1方向は水平方向と称されてよい。第2方向は鉛直方向と称されてよい。第3方向は奥行方向と称されてよい。しかし、第1方向、第2方向、および第3方向はそれぞれこれらに限られない。図2から図4、図13、および図14において、第1方向はx軸方向として表され、第2方向はy軸方向として表され、第3方向はz軸方向として表される。図1、図5から図10において、利用者の左眼および右眼を通る直線に沿う方向である眼間方向はu軸方向として表され、利用者の前後方向はv軸方向として表され、ならびにu軸方向およびv軸方向に垂直な高さ方向はw軸方向として表される。
区画領域の各々には、1つのサブピクセルが対応する。したがって、アクティブエリアAは、水平方向および鉛直方向に沿って格子状に配列された複数のサブピクセルを備える。
各サブピクセルは、R(Red),G(Green),B(Blue)のいずれかの色に対応し、R,G,Bの3つのサブピクセルを一組として1ピクセルを構成することができる。1ピクセルは、1画素と称されうる。表示パネル52としては、透過型の液晶パネルに限られず、有機EL等他の表示パネルを使用しうる。表示パネル52として、自発光型の表示パネルを使用した場合、3次元表示装置5は照射器51を備えなくてよい。
アクティブエリアAに配列された複数のサブピクセルはサブピクセル群Pgを構成する。サブピクセル群Pgは、水平方向に繰り返して配列される。サブピクセル群Pgは、鉛直方向に同じ位置に配列すること、および、ずらして配列することができる。例えば、サブピクセル群Pgは、鉛直方向においては、水平方向に1サブピクセル分ずれた位置に隣接して繰り返して配列することができる。サブピクセル群Pgは、所定の行および列のサブピクセルを含む。具体的には、サブピクセル群Pgは、鉛直方向にb個(b行)、水平方向に2×n個(2×n列)、連続して配列された(2×n×b)個のサブピクセルP1~P(2×n×b)を含む。図3に示す例では、n=6、b=1である。アクティブエリアAには、鉛直方向に1個、水平方向に12個、連続して配列された12個のサブピクセルP1~P12を含むサブピクセル群Pgが配置される。図3に示す例では、一部のサブピクセル群Pgに符号を付している。
サブピクセル群Pgは、後述するコントローラ55が画像を表示させるための制御を行う最小単位である。サブピクセル群Pgに含まれる各サブピクセルは、識別情報P1~P(2×n×b)で識別される。全てのサブピクセル群Pgの同じ識別情報を有するサブピクセルP1~P(2×n×b)は、コントローラ55によって同時に制御される。例えば、コントローラ55は、サブピクセルP1に表示させる画像を左眼画像から右眼画像に切り替える場合、全てのサブピクセル群PgにおけるサブピクセルP1に表示させる画像を左眼画像から右眼画像に同時的に切り替えられる。
パララックスバリア53は、図2に示したように、アクティブエリアAに沿う平面により形成され、アクティブエリアAから所定距離、離れて配置される。パララックスバリア53は、表示パネル52に対して照射器51の反対側に位置してよい。パララックスバリア53は、表示パネル52の照射器51側に位置してよい。
パララックスバリア53は、図4に示すように、面内の所定方向に伸びる複数の帯状領域である透光領域531ごとに、サブピクセルから射出される画像光の伝播方向を規定する。具体的には、パララックスバリア53は、複数の、画像光を減光させる減光領域532を有する。複数の減光領域532は、互いに隣接する該減光領域532の間の透光領域531を画定する。透光領域531は、減光領域532に比べて光透過率が高い。減光領域532は、透光領域531に比べて光透過率が低い。透光領域531と減光領域532とは、アクティブエリアAに沿う所定方向に延び、所定方向と直交する方向に繰り返し交互に配列される。所定方向は、例えばサブピクセルの対角線に沿う方向である。所定方向は、例えば、第1方向にa個のサブピクセルを横切る間に、第2方向にb個のサブピクセルを横切る方向(a,bは互いの素の正の整数)としうる。また、所定方向は、第2方向としてもよい。
パララックスバリア53は、アクティブエリアAに配列されたサブピクセルから射出された画像光の伝播方向を規定する。これによって、アクティブエリアAの一部のサブピクセルから出射した画像光は、透光領域531を透過し、反射器3および光学部材4を介して利用者の左眼に伝播する。パララックスバリア53は、他の一部のサブピクセルから出射した画像光の伝播方向を規定する。これによって、アクティブエリアAの一部のサブピクセルから出射した画像光は、透光領域531を透過し、反射器3および光学部材4を介して利用者の右眼に伝播する。
図5に示すように、利用者の各眼それぞれが視認可能な、アクティブエリアAの虚像である第1虚像V1における領域が定まる。以降において、利用者の左眼の位置に伝播する画像光によって左眼が視認しうる第1虚像V1内の領域は左可視領域VaL(第1可視領域)と称される。利用者の右眼の位置に伝播する画像光によって右眼が視認しうる第1虚像V1内の領域は右可視領域VaR(第2可視領域)と称される。
利用者は、見かけ上、パララックスバリア53の虚像である第2虚像V2を介して第1虚像V1を視認するかのごとく画像を認識する。
第2通信モジュール54は、移動体20のECU(Engine Control UnitまたはElectric Control Unit)と通信可能である。第2通信モジュール54は、CAN(Controller Area Network)(登録商標)、LIN(Local Interconnect Network)、車載Ethernet(登録商標)等の車両内のネットワークを介してECUと通信してよい。第2通信モジュール54は、ECUからモーション信号を受信してよい。モーション信号は、移動体20の運動を表すパラメータを示す信号である。運動のパラメータは、加速度および角加速度の少なくとも1つを含む。
第2通信モジュール54は、撮像装置1の第1通信モジュール13と通信可能である。第2通信モジュール54による第1通信モジュール13との通信において用いられる通信方式は、第1通信モジュール13で用いられる通信方式と同じであってよい。
コントローラ55は、HUD2の各構成要素に接続され、各構成要素を制御しうる。コントローラ55によって制御される構成要素は、照射器51、表示パネル52、および第2通信モジュール54を含む。コントローラ55は、1つ以上のプロセッサを含んでよい。プロセッサは、特定のプログラムを読み込ませて特定の機能を実行する汎用のプロセッサ、および特定の処理に特化した専用のプロセッサを含んでよい。専用のプロセッサは、ASICを含んでよい。プロセッサは、PLDを含んでよい。PLDは、FPGAを含んでよい。コントローラ55は、1つまたは複数のプロセッサが協働するSoC、およびSiPのいずれかであってよい。
メモリ56は、例えばRAM(Random Access Memory)およびROM(Read Only Memory)など、任意の記憶デバイスにより構成される。メモリ56は、コントローラ55によって処理された各種情報を記憶する。メモリ56は、例えば、設定時の利用者の眼の位置を記憶する。メモリ56は、設定時に利用者の左眼が視認しうる虚像サブピクセルに対応する、アクティブエリアA上の左表示サブピクセルを記憶する。メモリ56は、設定時に利用者の右眼が視認しうる視認しうる虚像サブピクセルに対応する、アクティブエリアA上の右表示サブピクセルを記憶する。左表示サブピクセルは、左眼画像を表示するサブピクセルである。右表示サブピクセルは、右眼画像を表示するサブピクセルである。
ここで、コントローラ55について詳細に説明する。利用者に適切な3次元画像を視認させるために、表示パネル52のアクティブエリアAの各サブピクセルに右眼画像および左眼画像のいずれを表示させるかは、利用者の眼の位置に応じて異なる。HUD2の利用開始前の設定モードにおいて、コントローラ55が、利用者の眼の位置に基づいて各サブピクセルに表示させる画像を設定することによって、利用者は設定時の位置において適切に3次元画像を視認することができる。
しかし、移動体20の走行中において、移動体20の加速度および角加速度、ならびに加速度および角加速度の変化に応じて、移動体20に搭乗している利用者の眼の位置および姿勢は変化する。例えば、移動体20がカーブしている道路を走行している場合に、利用者には遠心力がかかる。遠心力が一定である場合、利用者の姿勢は変わらずに保たれる。遠心力の変化が大きいほど、利用者の位置および姿勢は大きく変化する。遠心力が一定の値となるまで緩やかに変化する場合、利用者の位置の変化は少なく、遠心力が一定の値に近づいて変化が少なくなると、利用者の位置および姿勢の変化は収束する。遠心力が一定の値となるまで急に変化する場合、利用者の位置の変化は大きく、該変化に伴う揺れ戻しを起こしながら利用者の位置および姿勢の変化は収束する。
そこで、コントローラ55は、モーション信号が示す、移動体20の運動のパラメータに基づいて、表示パネル52に視差画像を表示させる。具体的には、コントローラ55は、表示パネルの一部のサブピクセルに左眼画像を表示させ、表示パネルの異なる一部のサブピクセルに右眼画像を表示させてよい。そのために、コントローラ55は、移動体20の加速度または角加速度に基づいて、利用者に適切な3次元画像を視認させるように各サブピクセルに表示させる視差画像を判定する。以降において、コントローラ55が、加速度または角加速度に基づいて各サブピクセルに各サブピクセルに表示させる視差画像を判定するための推定方式および実測検証方式それぞれについて説明する。
<<推定方式>>
<設定モード>
(眼の位置の判定)
コントローラ55は、通常モードでの表示パネル52への画像の表示を行う前に、反射器3の位置および姿勢に基づいて、利用者の眼の位置を推定する。
具体的には、コントローラ55は、3次元表示装置5から射出された画像光が利用者の眼に到達するように任意の方法で反射器3の位置および姿勢を設定する。例えば、コントローラ55は、表示パネル52に任意のテスト用画像を表示させた状態で、第2通信モジュール54が反射器3を駆動するための駆動信号を送信するよう制御する。反射器3は、駆動信号を受信して、該駆動信号に基づいて位置および姿勢を変更する。利用者は、テスト用画像を視認したときに、第1調整が完了したことを示す情報を3次元表示装置5に入力する。コントローラ55は、第1調整が完了したことを示す情報が入力されたときの反射器3の位置および姿勢を、通常モードにおいて設定する反射器3の位置および姿勢と判定する。
コントローラ55は、通常モードにおいて設定する反射器3の位置および姿勢に基づいて、反射器3への画像光の入射方向、ならびに光学部材4の位置および姿勢を用いて利用者の眼の位置を推定する。コントローラ55は、設定モードにおいて推定した利用者の眼の位置(設定時の眼の位置)をメモリ56に記憶させる。
(画像の判定)
コントローラ55は、移動体20に加速度および角加速度がかかっていない状態で、利用者に3次元画像を視認させるために各サブピクセルに表示させる画像を判定する。
例えば、コントローラ55は、表示パネル52に左眼および右眼それぞれに視認させるための第1較正用画像および第2較正用画像を含む較正用画像を表示させる。第1較正用画像は、例えば、輝度が最高輝度に近い所定値より高い白画像であってよい。第2較正用画像は、例えば、輝度が最低輝度に近い所定値より低い黒画像であってよい。
図3を参照して説明すると、コントローラ55は、(2×n)個(図3の例では、n=6)のサブピクセルを含むサブピクセル群Pgにおいて水平方向に連続するn個のサブピクセルに第1較正用画像を表示させる。コントローラ55は、水平方向に連続する残りのn個のサブピクセルに第2較正用画像を表示させる。コントローラ55は、パララックスバリア53の延在方向に対応する方向に第1較正用画像および第2較正用画像それぞれを連続して表示させる。図3に示す例では、コントローラ55は、サブピクセルP1からP6に第1較正用画像を表示させ、サブピクセルP7からP12に第2較正用画像を表示させる。
コントローラ55は、第1較正用画像および第2較正用画像を1サブピクセルずつ水平方向にずらして順に表示させる。図3に示す例では、コントローラ55は、サブピクセルP2からP7に第1較正用画像を表示させ、サブピクセルP8からP12、およびP1に第2較正用画像を表示させる。コントローラ55は、その後、サブピクセルP3からP8に第1較正用画像を表示させ、サブピクセルP9からP12、P1、およびP2に第2較正用画像を表示させる。このようにして、コントローラ55は、12パターンの較正用画像を順に表示させる。
利用者は、コントローラ55が、複数の較正用画像を順に表示させている間に、左眼で第1較正用画像の虚像のみを視認し、右眼で第2較正用画像の虚像のみを視認すると、第2調整が完了したことを示す情報を3次元表示装置5に入力する。コントローラ55は、第2調整が完了したことを示す情報が入力されたときに第1較正用画像を表示していたサブピクセルを左表示サブピクセルと判定し、第2較正用画像を表示していたサブピクセルを右表示サブピクセルと判定してよい。
コントローラ55は、左表示サブピクセルおよび右表示サブピクセルを判定すると、左表示サブピクセルに左眼画像を表示し、右表示サブピクセルに右眼画像を表示させる。これにより、利用者の左眼が左眼画像の虚像を視認し、右眼が右眼画像の虚像を視認する。上述したように、左眼画像および右眼画像は互いに視差を有する視差画像であるため、利用者は3次元画像の虚像を視認する。
<通常モード>
(眼間方向における眼の位置の変化の推定)
移動体20の眼間方向の加速度および加速度の変化(時間当たりの変化量および変化の方向)に応じて、図6(a)に示すように、移動体20に搭乗する利用者U1の眼の位置が眼間方向に変化する。そこで、コントローラ55は、第2通信モジュール54がECUから受信したモーション信号が示す眼間方向の加速度を取得する。コントローラ55は、眼間方向の加速度の変化を算出する。コントローラ55は、眼間方向の加速度および加速度の変化に基づいて、眼間方向における眼の位置の変化(変化量および変化の方向)を推定する。例えば、コントローラ55は、眼間方向の加速度および加速度の変化と眼間方向の眼の位置との対応を示すテーブルを用いて眼間方向の眼の位置を推定してよい。コントローラ55は、眼間方向の加速度および加速度の変化から眼間方向の眼の位置を算出するための変換式を用いて眼間方向の眼の位置を推定してよい。
コントローラ55は、眼の位置の変化に基づいて、表示パネル52に視差画像を表示させる。具体的には、コントローラ55は、眼の位置の変化と、メモリ56に記憶されている設定時の眼の位置および設定時の左表示サブピクセルおよび右表示サブピクセルに基づいて、変化後の左表示サブピクセルおよび右表示サブピクセルを判定する。具体的には、コントローラ55は、変化後に左眼が視認しうる虚像サブピクセルVPに対応するサブピクセルPを左表示サブピクセルと判定する。コントローラ55は、変化後に右眼が視認しうる虚像サブピクセルVPに対応するサブピクセルPを右表示サブピクセルと判定する。コントローラ55は、左表示サブピクセルと判定されたサブピクセルに左眼画像を表示させる。コントローラ55は、右表示サブピクセルと判定されたサブピクセルに右眼画像を表示させる。
図7に示す例では、コントローラ55は、設定時の眼の位置(変化前の眼の位置)に基づいて、左可視領域VaLの虚像サブピクセルVP3からVP8に対応するサブピクセルP3からP8を左表示サブピクセルと判定して左眼画像を表示させていた。コントローラ55は、右可視領域VaRの虚像サブピクセルVP9からVP12、VP1、およびVP2に対応するサブピクセルP9からP12、P1、およびP2を右表示サブピクセルと判定して右眼画像を表示させていた。変化後において、コントローラ55は、左可視領域VaL’の虚像サブピクセルVP4からVP9に対応するサブピクセルP4からP9を左表示サブピクセルと判定して左眼画像を表示させる。コントローラ55は、変化後の右可視領域VaR’の虚像サブピクセルVP10からVP12、およびVP1からVP3に対応するサブピクセルP10からP12、およびP1からP3を右表示サブピクセルと判定して右眼画像を表示させる。
コントローラ55は、眼間方向の加速度および加速度の変化に加えて、設定モードで判定した高さ方向の眼の位置に基づいて眼の位置の変化量を推定してよい。利用者が着座している状態にある場合、図6に示すように、着座面からの眼の位置が高いほど、利用者の眼の位置が眼間方向に変化する量は大きい。図6(a)に示す、利用者U1の着座面からの眼の位置の高さvE1は、図6(b)に示す、利用者U2の着座面からの眼の位置の高さvE2より高い。この場合、移動体20における同一の加速度および加速度の変化に対して、利用者U1の眼間方向の眼の位置の変化量ΔuE1は、利用者U2の眼間方向の眼の位置の変化量ΔuE2より大きい。したがって、コントローラ55は、高さ方向の眼の位置が高いほど、加速度に基づく眼間方向の眼の位置の変化量を大きく推定してよい。
コントローラ55は、眼間方向の加速度および加速度の変化に加えて、重力方向と高さ方向とのずれに基づいて、眼の位置の変化量を推定してよい。例えば、図8に示すように、移動体20が位置する路面が水平面に対して傾いている場合、重力方向と高さ方向(v軸方向)は一致していない。重力方向は、重力Gのかかる方向である。この場合、利用者の眼間方向には、重力Gの眼間方向(u軸方向)に対する成分Guと、眼間方向の加速度および加速度の変化に基づく力との合計が加わる。したがって、重力の眼間方向に対する成分Guの向きと、加速度および加速度の変化に基づく力FAとの向きが同じである場合、利用者には、重力方向と高さ方向とが一致している場合に比べて大きい力FA+Guが加えられる。これにより、利用者の眼の位置は大きく変化しやすい。重力の眼間方向に対する成分Guの向きと、加速度および加速度の変化に基づく力FBとの向きが逆である場合、利用者には、重力方向と高さ方向とが一致している場合に比べて小さい力がFB-Guが加えられる。これにより、利用者の眼の位置は小さく変化しやすい。
したがって、コントローラ55は、重力の眼間方向の成分の向きと、眼間方向の加速度および加速度の変化に基づく力との向きが同じである場合、重力方向と高さ方向とが一致している場合に比べて、左眼画像および左右眼画像を表示させる位置を大きく変化させる。コントローラ55は、重力の眼間方向の成分の向きと、眼間方向の加速度および角加速度の変化に基づく力との向きが逆である場合、重力方向と高さ方向とが一致している場合に比べて、左眼画像および右眼画像を表示させる位置を小さく変化させる。
(前後方向における眼の位置の変化の推定)
移動体20の前後方向の加速度および加速度の変化に応じて、図9(a)に示すように、移動体20に搭乗する利用者U1の眼の位置は、前後方向に変化する。そこで、コントローラ55は、前後方向における眼の位置の変化に基づいて、各サブピクセルに表示させる画像を判定する。
具体的には、コントローラ55は、第2通信モジュール54がECUから受信したモーション信号が示す前後方向の加速度を取得する。コントローラ55は、前後方向の加速度の変化を算出する。コントローラ55は、前後方向の加速度および加速度の変化に基づいて、眼の位置が、設定時の眼の位置から前後方向の眼の位置の変化ΔVdを推定する。例えば、コントローラ55は、前後方向の加速度および加速度の変化と前後方向の眼の位置との対応を示すテーブルを用いて前後方向の眼の位置を推定してよい。コントローラ55は、前後方向の加速度および加速度の変化か前後方向の眼の位置を算出するための変換式を用いて前後方向の眼の位置を推定してよい。
図10に示すように、眼の位置が前方向に変化したときの変化ΔVdが長くなるほど、左可視領域VaL’であって右可視領域VaR’である領域が広くなる。当該領域に含まれる虚像サブピクセルVPに対応するサブピクセルPに左眼画像が表示されると、利用者の右眼は左眼画像の虚像を視認する。当該領域に含まれる虚像サブピクセルVPに対応するサブピクセルPに右眼画像が表示されると、利用者の左眼は右眼画像の虚像を視認する。したがって、クロストークが発生し、利用者は適切に3次元画像を視認することができない。
このようなクロストークを低減させるために、コントローラ55は、例えば、左眼でも右眼でも視認しうる虚像サブピクセルVPに対応するサブピクセルPを黒表示サブピクセルと判定して黒画像を表示させてよい。黒画像は、例えば、黒色のような、所定輝度を有する画像である。所定輝度は、サブピクセルPの表示可能な階調レベルのうち、最も低い階調の輝度またはこれに準じる階調の輝度に対応する値とすることができる。コントローラ55は、例えば、左眼が視認し、右眼が視認しえない虚像サブピクセルVPに対応するサブピクセルPを左表示サブピクセルと判定し、左眼画像を表示させてよい。コントローラ55は、例えば、左眼が視認せず、右眼が視認しうる虚像サブピクセルVPに対応するサブピクセルPを右表示サブピクセルと判定し、左眼画像を表示させてよい。これにより、利用者の左眼は右眼画像を視認せず、右眼は左眼画像を視認しないため、クロストークの発生が低減されうる。
図10に示す例では、コントローラ55は、設定時(変化前)における眼の位置に基づいて、左眼が視認しうる虚像サブピクセルVP3からVP8に対応するサブピクセルP3からP8に左眼画像を表示させていた。コントローラ55は、右眼が視認しうる虚像サブピクセルVP9からVP12、VP1、およびVP2に対応するサブピクセルP9からP12、P1、およびP2に右眼画像を表示させていた。眼の位置が変化すると、左眼が視認しうる虚像サブピクセルVPは、虚像サブピクセルVP4からVP9となる。このときに、右眼が視認しうる虚像サブピクセルVPは、虚像サブピクセルVP8からVP12、VP1、およびVP2となる。すなわち、虚像サブピクセルVP8およびVP9は、左眼も右眼も視認しうるサブピクセルとなる。コントローラ55は、虚像サブピクセルVP8およびVP9に対応するサブピクセルP8およびP9を黒表示サブピクセルとして黒画像を表示させてよい。コントローラ55は、虚像サブピクセルVP4からVP7に対応するサブピクセルP4からP7を左表示サブピクセルと判定して左眼画像を表示させてよい。コントローラ55は、虚像サブピクセルVP10からVP12、VP1、およびVP2に対応するサブピクセルP10からP12、P1、およびP2を右表示サブピクセルと判定して右眼画像を表示させてよい。
コントローラ55は、加速度に加えて、設定モードで判定した高さ方向の眼の位置に基づいて眼の位置の変化量を推定してもよい。利用者が着座している状態にある場合、図9に示すように、着座面からの眼の位置が高いほど、利用者の眼の位置が前後方向に変化する量は大きい。図9(a)に示す、利用者U1の着座面からの眼の位置の高さvE1は、図9(b)に示す、利用者U2の着座面からの眼の位置の高さvE2より高い。この場合、同一の移動体20の加速度および加速度の変化に対して、前後方向において、利用者U1の眼の位置の変化量ΔwE1は、利用者U2の眼の位置の変化量ΔwE2より大きい。したがって、コントローラ55は、高さ方向の眼の位置が高いほど、加速度に基づく眼間方向の眼の位置の変化量を大きく推定してよい。
コントローラ55は、加速度に加えて、あるいは加速度の代わりに、角加速度に基づいて眼の位置の変化量を推定してよい。
(画像の表示)
コントローラ55は、眼間方向および前後方向における眼の位置の変化に基づいて、設定時の眼の位置、設定時の左表示サブピクセルおよび右表示サブピクセル、ならびに3次元表示装置5の特性を用いて、各サブピクセルに表示させる画像を判定する。コントローラ55は、判定に基づいて表示パネル52に画像を表示させる。
<<実測検証方式>>
<設定モード>
コントローラ55は、推定方式と同じく、設定時における左眼および右眼の位置、ならびに左表示サブピクセルおよび右表示サブピクセルを判定する。
<通常モード>
(眼間方向における眼の位置の変化の推定)
コントローラ55は、撮像装置1に撮像画像を生成させる。具体的には、コントローラ55は、撮像制御信号を生成し、第2通信モジュール54が撮像制御信号を撮像装置1に送信するよう制御する。コントローラ55は、撮像制御信号を受信した撮像装置1によって生成された撮像画像を取得する。コントローラ55が撮像装置1に撮像画像を生成させるタイミングは任意であってよい。例えば、コントローラ55は、所定の時間間隔で撮像装置1に撮像画像を生成させてよい。例えば、コントローラ55は、加速度が閾値以上であると判定した場合に、撮像装置1に撮像画像を生成させてよい。閾値は、加速度が該閾値以上である場合の利用者の眼の変化が、上述したテーブルまたは変換式によって推定される眼の変化と一致しない可能性が高いと見込まれる値の最低値である。閾値は、予めの実験等によって定められてよい。
コントローラ55は、撮像画像に基づいて利用者の眼の位置を推定する。例えば、コントローラ55は、撮像素子12によって生成された単一の撮像画像に含まれる所定の物体の像と、眼の像との位置関係に基づいて、実空間における眼の位置を推定してよい。所定の物体は、移動体20に対して固定して取付けられている物体であって、例えば、運転席のヘッドレスト、サイドウィンドウのフレーム等である。
コントローラ55は、撮像素子12によって生成された単一の撮像画像における利用者の体の少なくとも一部の像および所定の物体の像の位置と、実空間における所定の物体の位置に基づいて、実空間における眼の位置を推定してよい。身体の一部は、例えば、頭の頂部、肩、耳等であってよい。
コントローラ55は、推定方式と同じく、眼間方向の加速度および加速度の変化に基づいて、利用者の眼の位置の変化を推定する。
コントローラ55は、撮像画像に基づいて推定した眼の位置の設定時の眼の位置からの変化と、眼間方向の加速度および加速度の変化に基づいて推定した眼の位置の変化との差分を算出する。コントローラ55は、差分を用いて、眼間方向の加速度および加速度の変化と眼の位置の変化との対応関係を較正する。具体的には、コントローラ55は、差分に基づいて、眼間方向の加速度および加速度の変化と眼の位置の変化との対応を示すテーブルを較正してよい。コントローラ55は、差分に基づいて、眼間方向の加速度および加速度の変化から眼の位置の変化を算出するための変換式を較正してよい。
その後、コントローラ55は、次に対応関係が較正されるまで、較正された対応関係を用いて、推定方式と同じく、眼間方向の加速度に基づいて前後方向の眼の位置を判定する。
(前後方向における眼の位置の変化の推定)
コントローラ55は、第2通信モジュール54がECUから受信したモーション信号が示す前後方向の加速度を取得する。コントローラ55は、前後方向の加速度に基づいて前後方向の加速度の変化を算出する。コントローラ55は、前後方向の加速度および加速度の変化に基づいて前後方向における眼の位置の変化を抽出する。
コントローラ55は、撮像装置1によって生成された撮像画像を取得し、撮像画像に基づいて利用者の眼の位置を推定する。
コントローラ55は、撮像画像に基づいて推定した眼の位置の設定時からの変化と、前後方向の加速度および加速度の変化に基づいて推定した眼の位置の変化との差分を算出する。コントローラ55は、差分を用いて、前後方向の加速度および加速度の変化と眼の位置の変化との対応関係を較正する。具体的には、コントローラ55は、差分に基づいて、前後方向の加速度および加速度の変化と眼の位置の変化との対応を示すテーブルを較正してよい。コントローラ55は、差分に基づいて、前後方向の加速度および加速度の変化から眼の位置の変化を算出するための変換式を較正してよい。
その後、コントローラ55は、次に対応関係が較正されるまで、較正された対応関係を用いて、推定方式と同じく、前後方向の加速度に基づいて前後方向の眼の位置を判定する。
(画像の表示)
コントローラ55は、推定方式と同じく、眼間方向および前後方向における眼の位置の変化に基づいて、表示パネル52に画像を表示させる。
<<推定方式を用いた処理フロー>>
続いて、コントローラ55が推定方式を用いて実行する通常モードでの処理について、図11を参照して詳細に説明する。コントローラ55は、通常モードでの処理を開始する前に、実空間における利用者の眼の位置(設定時の眼の位置)、ならびに左表示サブピクセルおよび右表示サブピクセルを判定している。コントローラ55は、利用者の眼の位置、ならびに左表示サブピクセルおよび右表示サブピクセルをメモリ56に記憶させている。コントローラ55は、通常モードでの処理を開始するための開始指示がHUD2に入力されると処理を開始する。
まず、コントローラ55は、第2通信モジュール54がECUから受信したモーション信号が示す眼間方向の加速度を取得する(ステップS11)。
ステップS11で眼間方向の加速度が取得されると、コントローラ55は、眼間方向の加速度の変化を算出する(ステップS12)。
ステップS12で加速度の変化が算出されると、コントローラ55は、眼間方向の加速度および加速度の変化に基づいて、眼間方向における眼の位置の変化を推定する(ステップS13)。
次に、コントローラ55は、第2通信モジュール54がECUから受信したモーション信号が示す前後方向の加速度を取得する(ステップS14)。
ステップS14で前後方向の加速度が取得されると、コントローラ55は、前後方向の加速度の変化を算出する(ステップS15)。
ステップS15で前後方向の加速度の変化が算出されると、コントローラ55は、前後方向の加速度および加速度の変化に基づいて、前後方向における眼の位置の変化を推定する(ステップS16)。
コントローラ55は、眼間方向および前後方向の眼の位置の変化に基づいて、メモリ56に記憶されている設定時の眼の位置、ならびに設定時の左表示サブピクセルおよび右表示サブピクセルを用いて、表示パネル52に画像を表示させる(ステップS17)。
<<実測検証方式を用いた処理フロー>>
続いて、コントローラ55が実測検証方式を用いて実行する通常モードでの処理について、図12を参照して詳細に説明する。コントローラ55は、通常モードでの処理を開始する前に、実空間における利用者の眼の位置(設定時の眼の位置)を推定し、ならびに左表示サブピクセルおよび右表示サブピクセルを判定している。コントローラ55は、利用者の眼の位置、ならびに左表示サブピクセルおよび右表示サブピクセルをメモリ56に記憶させている。コントローラ55は、通常モードでの処理を開始するための開始指示がHUD2に入力されると処理を開始する。
まず、コントローラ55は、第2通信モジュール54がECUから受信したモーション信号が示す眼間方向の加速度を取得する(ステップS21)。
ステップS21で眼間方向の加速度が取得されると、コントローラ55は、眼間方向の加速度の変化を算出する(ステップS22)。
ステップS22で眼間方向の加速度の変化が算出されると、コントローラ55は、眼間方向の加速度および加速度の変化に基づいて眼間方向における眼の位置の変化を推定する(ステップS23)。
コントローラ55は、第1通信モジュール54がECUから受信したモーション信号が示す前後方向の加速度を取得する(ステップS24)。
ステップS24で前後方向の加速度が取得されると、コントローラ55は、前後方向の加速度の変化を算出する(ステップS25)。
ステップS25で前後方向の加速度の変化が算出されると、コントローラ55は、前後方向の加速度および速度の変化に基づいて前後方向における眼の位置の変化を推定する(ステップS26)。
コントローラ55は、撮像装置1に撮像画像を生成させるタイミングであるか否かを判定する(ステップS27)。
コントローラ55は、ステップS27で、撮像装置1に撮像画像を生成させるタイミングであると判定すると、撮像装置1に撮像画像を生成させて該撮像画像を取得する(ステップS28)。
コントローラ55は、撮像画像に基づいて眼間方向および前後方向における眼の位置の変化を推定する(ステップS29)。
コントローラ55は、ステップS23で推定した眼間方向の眼の位置の変化と、ステップS29で推定した眼間方向の眼の位置の変化との差分を用いて、眼間方向の加速度および加速度の変化と眼の位置の変化との対応関係を較正する。コントローラ55は、ステップS26で推定した前後方向の眼の位置の変化と、ステップS29で推定した前後方向の眼の位置の変化との差分を用いて、前後方向の加速度および加速度の変化と眼の位置の変化との対応関係を較正する(ステップS30)。
ステップS30で対応関係が較正されると、コントローラ55は、加速度および加速度の変化に基づいて、較正された対応関係を用いて利用者の眼の位置を判定する。コントローラ55は、利用者の眼の位置に基づいて表示パネル52に画像を表示させる。ステップS27で撮像画像を生成させるタイミングでないと判定された場合、コントローラ55は、加速度および加速度の変化に基づいて、既に設定または較正されている対応関係に基づいて利用者の眼の位置を判定する。コントローラ55は、利用者の眼の位置に基づいて表示パネル52に画像を表示させる(ステップS31)。
本実施形態に係る3次元表示装置5として、コンピュータ等の情報処理装置が採用可能である。このような情報処理装置は、実施形態に係る3次元表示装置5の各機能を実現する処理内容を記述したプログラムを、情報処理装置のメモリに格納し、情報処理装置のコントローラによって当該プログラムを読み出して実行させることで実現可能である。
以上説明したように、本実施形態では、3次元表示装置5は、移動体20の運動のパラメータを示すモーション信号を受信し、モーション信号が示すパラメータに基づいて、表示パネル52に視差画像を表示させる。このため、3次元表示装置5は、移動体20の動作に伴う、利用者の眼の位置の変化を推定して、該変化に基づいて、利用者が3次元画像を適切に視認するように、視差画像を表示することができる。3次元表示装置5は、撮像画像に基づいてではなく、運動のパラメータに基づいて視差画像を表示するため、撮像画像に対する処理負荷が低減されうる。
本実施形態では、3次元表示装置5は、高さ方向における利用者の眼の位置に基づいて視差画像を表示する。例えば、利用者が着座した状態にある場合、運動のパラメータの変化が同一であっても、眼の位置は、高さ方向に高いほど眼間方向に対して大きく変化する。すなわち、眼間方向の眼の位置は、運動のパラメータだけでなく、高さ方向における眼の位置によって変化する。したがって、3次元表示装置5は、高さ方向における眼の位置に応じて視差画像を表示することによって、利用者に3次元画像をより適切に視認させることができる。
コントローラ55は、画像光を反射させる反射器3の位置および姿勢に基づいて、高さ方向における利用者の眼の位置を推定する。このため、通信HUDシステム100は、例えば、眼の位置を推定するために利用者の眼を撮像する撮像装置を設ける必要がない。したがって、3次元表示装置5は、簡易な構成により利用者に適切に3次元画像を視認させることができる。
本実施形態では、3次元表示装置5は、利用者の高さ方向と重力方向とのずれに基づいて表示パネル52に視差画像を表示させる。重力方向と高さ方向とがずれている場合、重力Gの眼間方向の成分Guが発生する。この場合、利用者には、移動体20の動作に基づく眼間方向の力だけでなく、重力Gの眼間方向の成分Guが加わる。これにより、利用者の眼の位置の変化は、移動体20の動作に基づく眼間方向の力だけが加わった場合の変化とは異なる。3次元表示装置5は、利用者の高さ方向と重力方向とのずれに基づいて、重力Gの眼間方向の成分Guにも基づいて眼間方向における正確に眼の位置を推定することができる。したがって、3次元表示装置5は、より正確な眼の位置に基づいて、表示パネル52に視差画像を表示させるため、利用者はより適切に3次元画像を視認することができる。
上述の実施形態は代表的な例として説明したが、本発明の趣旨および範囲内で、多くの変更および置換ができることは当業者に明らかである。したがって、本発明は、上述の実施形態によって制限するものと解するべきではなく、特許請求の範囲から逸脱することなく、種々の変形および変更が可能である。例えば、実施形態および実施例に記載の複数の構成ブロックを1つに組合せたり、あるいは1つの構成ブロックを分割したりすることが可能である。
例えば、上述の実施形態では、コントローラ55は、ステップS11からステップS13を行った後、ステップS14からステップS16を行ったが、この限りではない。例えば、コントローラ55は、ステップS14からステップS16を行った後、ステップS11からステップS13を行ってもよい。コントローラ55は、ステップS11からステップS13と、ステップS14からステップS16とを並行して行ってもよい。
例えば、上述の実施形態では、コントローラ55は、ステップS21からステップS23を行った後、ステップS24からステップS26を行ったが、この限りではない。例えば、コントローラ55は、ステップS24からステップS26を行った後、ステップS21からステップS23を行ってもよい。コントローラ55は、ステップS21からステップS23と、ステップS24からステップS26とを並行して行ってもよい。
例えば、上述の実施形態では、図13に示すように、3次元表示装置5は、表示パネル52から射出した画像光がパララックスバリア53の透光領域531を透過して、反射器3および光学部材4を介さずに、直接、利用者の眼に到達するように、配置されてもよい。このような構成においては、コントローラ55は、利用者の左眼が直接、視認する、アクティブエリアA上サブピクセルを左表示サブピクセルとする。コントローラ55は、利用者の右眼が直接、視認する右可視領域52aRに含まれるサブピクセルを右表示サブピクセルとする。
例えば、上述の実施形態では、光学素子がパララックスバリア53であるとしたが、これに限られない。例えば、図14に示すように、光学素子は、レンチキュラレンズ57であってもよい。この場合、レンチキュラレンズ57は、垂直方向に延びるシリンドリカルレンズ571を、平面上に水平方向に配列して構成される。レンチキュラレンズ57は、パララックスバリア53と同様に、一部のサブピクセルを出射した画像光を、利用者の左眼の位置に伝搬させ、他の一部のサブピクセルを出射した画像光を、利用者の右眼の位置に伝搬させる。
1 撮像装置
2 ヘッドアップディスプレイ
3 反射器
4 光学部材
5 3次元表示装置
11 撮像光学系
12 撮像素子
13 第1通信モジュール
20 移動体
51 照射器
52 表示パネル
53 パララックスバリア
54 第2通信モジュール
55 コントローラ
531 透光領域
532 減光領域
A アクティブエリア
V1 第1虚像
V2 第2虚像
VaL 左可視領域
VaR 右可視領域
VbL 左減光領域
VbR 右減光領域
53aL 左可視領域
53aR 右可視領域
100 通信ヘッドアップディスプレイシステム

Claims (10)

  1. 移動体に搭載された、視差画像を表示する表示パネルと、
    前記表示パネルから射出された画像光の伝播方向を規定する光学素子と、
    前記移動体の運動のパラメータを示すモーション信号を受信する通信モジュールと、
    前記モーション信号が示す前記パラメータに基づいて、前記表示パネルに前記視差画像を表示させるコントローラと、
    を備え
    前記コントローラは、高さ方向における利用者の眼の位置に基づいて、前記視差画像を表示させ る3次元表示装置。
  2. 前記コントローラは、前記パラメータの時間当たりの変化量に基づいて、前記視差画像を表示させる、請求項1に記載の3次元表示装置。
  3. 前記コントローラは、前記パラメータの大きさに基づいて、前記視差画像を表示させる、請求項1または2に記載の3次元表示装置。
  4. 前記コントローラは、前記モーション信号が示す加速度および角加速度の少なくとも1つに基づいて、前記視差画像を表示させる、請求項1から3のいずれか一項に記載の3次元表示装置。
  5. 前記コントローラは、前記画像光を反射させる反射器の位置および姿勢に基づいて、前記高さ方向における前記利用者の眼の位置を推定する請求項1~4のいずれか一項に記載の3次元表示装置。
  6. 移動体に搭載された、視差画像を表示する表示パネルと、
    前記表示パネルから射出された画像光の伝播方向を規定する光学素子と、
    前記移動体の運動のパラメータを示すモーション信号を受信する通信モジュールと、
    前記モーション信号が示す前記パラメータに基づいて、前記表示パネルに前記視差画像を表示させるコントローラと、
    を備え、
    前記コントローラは、前記運動のパラメータの変化量が大きいほど、前記視差画像を構成する、利用者の第1眼に視認させるための第1画像および前記利用者の第2眼に視認させるための、前記第1画像に対して視差を有する第2画像それぞれを表示させる、前記表示パネルにおける位置を大きく変更する3次元表示装置。
  7. 移動体に搭載された、視差画像を表示する表示パネルと、
    前記表示パネルから射出された画像光の伝播方向を規定する光学素子と、
    前記移動体の運動のパラメータを示すモーション信号を受信する通信モジュールと、
    前記モーション信号が示す前記パラメータに基づいて、前記表示パネルに前記視差画像を表示させるコントローラと、
    を備え、
    前記コントローラは、利用者の高さ方向と重力方向とのずれに基づいて前記表示パネルに前記視差画像を表示させる3次元表示装置。
  8. 移動体に搭載された、視差画像を表示する表示パネルと、前記表示パネルから射出された画像光の伝播方向を規定する光学素子と、前記移動体の運動のパラメータを示すモーション信号を受信する通信モジュールと、前記モーション信号が示す前記パラメータに基づいて、前記表示パネルに前記視差画像を表示させるコントローラと、を含み、前記コントローラは、高さ方向における利用者の眼の位置に基づいて、前記視差画像を表示させる3次元表示装置と、
    前記3次元表示装置から射出された画像光を反射させて、利用者の眼に到達させる光学部材と、
    を備えるヘッドアップディスプレイ。
  9. ヘッドアップディスプレイを備える移動体であって、
    視差画像を表示する表示パネルと、前記表示パネルからの画像光の伝播方向を規定する光学素子と、前記移動体の運動のパラメータを示すモーション信号を受信する通信モジュールと、前記モーション信号が示す前記パラメータに基づいて、前記表示パネルに前記視差画像を表示させるコントローラと、を有し、前記コントローラは、高さ方向における利用者の眼の位置に基づいて、前記視差画像を表示させる3次元表示装置と、
    前記3次元表示装置から射出された画像光を反射させて、利用者の眼に到達させる光学部材と、
    を含むヘッドアップディスプレイを備える移動体。
  10. 表示パネルと、前記表示パネルから射出された画像光の伝播方向を規定する光学素子と、通信モジュールと、コントローラとを備える、移動体に搭載された3次元表示装置が実行するためのプログラムであって、
    前記コントローラが、
    前記通信モジュールに、前記移動体の運動のパラメータを示すモーション信号を受信させ、
    前記パラメータに基づいて、前記表示パネルに視差画像を表示させ
    高さ方向における利用者の眼の位置に基づいて、前記視差画像を表示させ
    ためのプログラム。
JP2018207539A 2018-11-02 2018-11-02 3次元表示装置、ヘッドアップディスプレイ、移動体、およびプログラム Active JP7105173B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2018207539A JP7105173B2 (ja) 2018-11-02 2018-11-02 3次元表示装置、ヘッドアップディスプレイ、移動体、およびプログラム
EP19878667.5A EP3876530B1 (en) 2018-11-02 2019-10-28 3d display device, head-up display, moving body, and program
PCT/JP2019/042125 WO2020090712A1 (ja) 2018-11-02 2019-10-28 3次元表示装置、ヘッドアップディスプレイ、移動体、およびプログラム
US17/284,945 US11442269B2 (en) 2018-11-02 2019-10-28 3D display device, head-up display, moving body, and program
CN201980069275.1A CN112889274B (zh) 2018-11-02 2019-10-28 三维显示装置、平视显示器、移动体以及程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018207539A JP7105173B2 (ja) 2018-11-02 2018-11-02 3次元表示装置、ヘッドアップディスプレイ、移動体、およびプログラム

Publications (2)

Publication Number Publication Date
JP2020072455A JP2020072455A (ja) 2020-05-07
JP7105173B2 true JP7105173B2 (ja) 2022-07-22

Family

ID=70462055

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018207539A Active JP7105173B2 (ja) 2018-11-02 2018-11-02 3次元表示装置、ヘッドアップディスプレイ、移動体、およびプログラム

Country Status (5)

Country Link
US (1) US11442269B2 (ja)
EP (1) EP3876530B1 (ja)
JP (1) JP7105173B2 (ja)
CN (1) CN112889274B (ja)
WO (1) WO2020090712A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113424096A (zh) * 2019-02-12 2021-09-21 赛伊视觉公司 全息平视显示装置
CN116194823A (zh) * 2020-07-22 2023-05-30 京瓷株式会社 三维显示装置、平视显示器以及移动体
JP7536693B2 (ja) 2020-07-22 2024-08-20 京セラ株式会社 3次元表示装置、ヘッドアップディスプレイおよび移動体

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010061689A1 (ja) 2008-11-26 2010-06-03 日本電気株式会社 表示装置、端末装置および表示方法
JP2011244465A (ja) 2011-06-29 2011-12-01 Mitsubishi Electric Corp 画像表示システム
JP2014050062A (ja) 2012-09-04 2014-03-17 Nippon Seiki Co Ltd 立体表示装置及びその表示方法
JP2015215505A (ja) 2014-05-12 2015-12-03 パナソニックIpマネジメント株式会社 表示装置、および表示方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5883739A (en) * 1993-10-04 1999-03-16 Honda Giken Kogyo Kabushiki Kaisha Information display device for vehicle
JP3668116B2 (ja) 1999-09-24 2005-07-06 三洋電機株式会社 眼鏡無し立体映像表示装置
EP1087627A3 (en) 1999-09-24 2004-02-18 SANYO ELECTRIC Co., Ltd. Autostereoscopic image display device
DE112010005945B4 (de) * 2010-10-19 2018-06-21 Mitsubishi Electric Corporation Stereoskopische Dreidimensionen-Anzeigevorrichtung
JP6289498B2 (ja) 2012-12-14 2018-03-07 ビステオン グローバル テクノロジーズ インコーポレイテッド 車両内の3次元ディスプレイの角度を自動的に調整するためのシステム及び方法
KR102071693B1 (ko) * 2014-02-07 2020-01-30 엘지전자 주식회사 헤드 업 디스플레이 장치
JP6688854B2 (ja) 2014-02-13 2020-04-28 ソニーセミコンダクタソリューションズ株式会社 撮像装置
DE112015002814B4 (de) * 2014-06-13 2022-04-07 Mitsubishi Electric Corporation Anzeigevorrichtung für virtuelle Bilder
JP6485732B2 (ja) * 2014-12-10 2019-03-20 株式会社リコー 情報提供装置、情報提供方法及び情報提供用制御プログラム
EP3093194B1 (en) * 2015-04-24 2021-09-22 Ricoh Company, Ltd. Information provision device
CN111258068B (zh) * 2015-10-09 2022-03-01 麦克赛尔株式会社 平视显示装置
CN107870421A (zh) * 2016-09-27 2018-04-03 上海蔚兰动力科技有限公司 抬头显示装置的可调式反射器及包含其的抬头显示装置
CN107870420A (zh) * 2016-09-27 2018-04-03 上海蔚兰动力科技有限公司 抬头显示装置的可调式反射器及包含其的抬头显示装置
CN108459411A (zh) * 2017-02-20 2018-08-28 上海蔚兰动力科技有限公司 抬头显示器与运输工具
WO2018199185A1 (ja) * 2017-04-26 2018-11-01 京セラ株式会社 表示装置、表示システム、および移動体
DE112017007685B4 (de) * 2017-07-24 2021-07-15 Mitsubishi Electric Corporation Anzeigesteuervorrichtung, Anzeigesystem und Anzeigesteuerverfahren
EP3761630B1 (en) * 2018-02-27 2024-09-04 Canon Kabushiki Kaisha Imaging device, imaging system, and mobile object
JP7301880B2 (ja) * 2018-05-04 2023-07-03 ハーマン インターナショナル インダストリーズ インコーポレイテッド ミラーレスヘッドアップディスプレイ
CN109703466B (zh) * 2019-01-03 2022-04-12 京东方科技集团股份有限公司 抬头显示装置、驱动方法、车辆及电子设备

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010061689A1 (ja) 2008-11-26 2010-06-03 日本電気株式会社 表示装置、端末装置および表示方法
JP2011244465A (ja) 2011-06-29 2011-12-01 Mitsubishi Electric Corp 画像表示システム
JP2014050062A (ja) 2012-09-04 2014-03-17 Nippon Seiki Co Ltd 立体表示装置及びその表示方法
JP2015215505A (ja) 2014-05-12 2015-12-03 パナソニックIpマネジメント株式会社 表示装置、および表示方法

Also Published As

Publication number Publication date
JP2020072455A (ja) 2020-05-07
EP3876530B1 (en) 2024-03-27
US20210356740A1 (en) 2021-11-18
EP3876530A4 (en) 2022-05-18
EP3876530A1 (en) 2021-09-08
CN112889274A (zh) 2021-06-01
CN112889274B (zh) 2023-11-21
US11442269B2 (en) 2022-09-13
WO2020090712A1 (ja) 2020-05-07

Similar Documents

Publication Publication Date Title
JP7105173B2 (ja) 3次元表示装置、ヘッドアップディスプレイ、移動体、およびプログラム
JP7207954B2 (ja) 3次元表示装置、ヘッドアップディスプレイシステム、移動体、およびプログラム
WO2020095731A1 (ja) 3次元表示装置、3次元表示システム、ヘッドアップディスプレイ、及び移動体
WO2021106664A1 (ja) ヘッドアップディスプレイ、ヘッドアップディスプレイシステム及び移動体
WO2021065427A1 (ja) カメラ、ヘッドアップディスプレイシステム、及び移動体
JP7284053B2 (ja) ヘッドアップディスプレイ、ヘッドアップディスプレイシステム、移動体及びヘッドアップディスプレイの設計方法
WO2020196052A1 (ja) 画像表示モジュール、画像表示システム、移動体、画像表示方法及び画像表示プログラム
JP7034052B2 (ja) 無線通信ヘッドアップディスプレイシステム、無線通信機器、移動体、およびプログラム
JP7105174B2 (ja) 通信ヘッドアップディスプレイシステム、通信機器、移動体、およびプログラム
JP7337153B2 (ja) ヘッドアップディスプレイシステムおよび移動体
WO2022149599A1 (ja) 3次元表示装置
JP7332449B2 (ja) ヘッドアップディスプレイモジュール、ヘッドアップディスプレイシステム及び移動体
JP7189228B2 (ja) 画像表示装置、画像表示システム、及び移動体

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200808

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220330

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220711

R150 Certificate of patent or registration of utility model

Ref document number: 7105173

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150