JP2022022078A - Three-dimensional display device, head-up display, and movable body - Google Patents

Three-dimensional display device, head-up display, and movable body Download PDF

Info

Publication number
JP2022022078A
JP2022022078A JP2021045097A JP2021045097A JP2022022078A JP 2022022078 A JP2022022078 A JP 2022022078A JP 2021045097 A JP2021045097 A JP 2021045097A JP 2021045097 A JP2021045097 A JP 2021045097A JP 2022022078 A JP2022022078 A JP 2022022078A
Authority
JP
Japan
Prior art keywords
image
user
display device
control unit
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021045097A
Other languages
Japanese (ja)
Inventor
薫 草深
Kaoru Kusafuka
昭典 佐藤
Akinori Sato
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to US18/016,844 priority Critical patent/US20230291888A1/en
Priority to EP21846379.2A priority patent/EP4187310A1/en
Priority to CN202180061408.8A priority patent/CN116194823A/en
Priority to PCT/JP2021/026664 priority patent/WO2022019215A1/en
Publication of JP2022022078A publication Critical patent/JP2022022078A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a three-dimensional display device that allows a user to appropriately visually recognize a three-dimensional image.SOLUTION: A three-dimensional display device 1 comprises a display panel 5, a barrier unit 6, a detection unit 2, and a control unit 7. The display panel 5 displays a parallax image including a first image and a second image having parallax with respect to the first image. The barrier unit 6 defines a direction of travel of image light of the parallax image and provides parallax to a first eye and a second eye of a user. The detection unit 2 picks up an image of the face of the user who visually recognizes the parallax image. The control unit 7 composes the first image and the second image different from each other to create a first reference image based on an index defining the arrangement of the first image and the second image displayed on the display panel 5, and displays the first reference image on the display panel 5. The control unit 7 adjusts the index based on the image of the face of the user picked up by the detection unit 2 and on which the first reference image is projected.SELECTED DRAWING: Figure 1

Description

本開示は、3次元表示装置、ヘッドアップディスプレイおよび移動体に関する。 The present disclosure relates to a three-dimensional display device, a head-up display and a moving body.

従来、眼鏡を用いずに3次元表示を行うために、表示パネルから出射された光の一部を右眼に到達させ、表示パネルから出射された光の他の一部を左眼に到達させる光学素子を備える3次元表示装置が知られている(例えば、特許文献1を参照)。 Conventionally, in order to perform a three-dimensional display without using glasses, a part of the light emitted from the display panel reaches the right eye, and the other part of the light emitted from the display panel reaches the left eye. A three-dimensional display device including an optical element is known (see, for example, Patent Document 1).

特開2001-166259号公報Japanese Unexamined Patent Publication No. 2001-166259

上述のような3次元表示装置においては、利用者に3次元画像を適切に視認させることが求められる。 In the above-mentioned three-dimensional display device, it is required for the user to appropriately visually recognize the three-dimensional image.

本開示の一実施形態に係る3次元表示装置は、表示パネルと、バリア部と、検出部と、制御部とを備える。前記表示パネルは、第1画像と前記第1画像に対して視差を有する第2画像とを含む視差画像を表示するように構成される。前記バリア部は、前記視差画像の画像光の進行方向を規定することによって、利用者の第1眼および第2眼に視差を与えるように構成される。前記検出部は、前記視差画像を視認している前記利用者の顔を撮像するように構成される。前記制御部は、前記表示パネルに表示する前記第1画像および前記第2画像の並びを規定する所定のインデックスに基づいて、互いに異なる前記第1画像と前記第2画像とを合成して第1基準画像を生成し、前記第1基準画像を前記表示パネルに表示させる。前記制御部は、前記第1基準画像が投影されている、前記検出部によって撮像された前記利用者の顔の像に基づいて、前記インデックスを調整する。 The three-dimensional display device according to the embodiment of the present disclosure includes a display panel, a barrier unit, a detection unit, and a control unit. The display panel is configured to display a parallax image including a first image and a second image having parallax with respect to the first image. The barrier portion is configured to give parallax to the first eye and the second eye of the user by defining the traveling direction of the image light of the parallax image. The detection unit is configured to capture the face of the user who is visually recognizing the parallax image. The control unit synthesizes the first image and the second image that are different from each other based on a predetermined index that defines the arrangement of the first image and the second image displayed on the display panel, and first. A reference image is generated, and the first reference image is displayed on the display panel. The control unit adjusts the index based on the image of the user's face imaged by the detection unit on which the first reference image is projected.

本開示の一実施形態に係るヘッドアップディスプレイは、表示パネルと、バリア部と、光学部材と、検出部と、制御部とを備える。前記表示パネルは、第1画像と前記第1画像に対して視差を有する第2画像とを含む視差画像を表示するように構成される。前記バリア部は、前記視差画像の画像光の進行方向を規定することによって、利用者の第1眼および第2眼に視差を与えるように構成される。前記光学部材は、前記表示パネルから出射される前記画像光を、前記利用者に虚像として視認させるように構成される。前記検出部は、前記視差画像を視認している前記利用者の顔を撮像するように構成される。前記制御部は、前記表示パネルに表示する前記第1画像および前記第2画像の並びを規定する所定のインデックスに基づいて、互いに異なる前記第1画像と前記第2画像とを合成して第1基準画像を生成し、前記第1基準画像を前記表示パネルに表示させる。前記制御部は、前記第1基準画像が投影されている、前記検出部によって撮像された前記利用者の顔の像に基づいて、前記インデックスを調整する。 The head-up display according to the embodiment of the present disclosure includes a display panel, a barrier unit, an optical member, a detection unit, and a control unit. The display panel is configured to display a parallax image including a first image and a second image having parallax with respect to the first image. The barrier portion is configured to give parallax to the first eye and the second eye of the user by defining the traveling direction of the image light of the parallax image. The optical member is configured to make the user visually recognize the image light emitted from the display panel as a virtual image. The detection unit is configured to capture the face of the user who is visually recognizing the parallax image. The control unit synthesizes the first image and the second image that are different from each other based on a predetermined index that defines the arrangement of the first image and the second image displayed on the display panel, and first. A reference image is generated, and the first reference image is displayed on the display panel. The control unit adjusts the index based on the image of the user's face imaged by the detection unit on which the first reference image is projected.

本開示の一実施形態に係る移動体は、ヘッドアップディスプレイを備える。前記ヘッドアップディスプレイは、表示パネルと、バリア部と、光学部材と、検出部と、制御部とを備える。前記表示パネルは、第1画像と前記第1画像に対して視差を有する第2画像とを含む視差画像を表示するように構成される。前記バリア部は、前記視差画像の画像光の進行方向を規定することによって、利用者の第1眼および第2眼に視差を与えるように構成される。前記光学部材は、前記表示パネルから出射される前記画像光を、前記利用者に虚像として視認させるように構成される。前記検出部は、前記視差画像を視認している前記利用者の顔を撮像するように構成される。前記制御部は、前記表示パネルに表示する前記第1画像および前記第2画像の並びを規定する所定のインデックスに基づいて、互いに異なる前記第1画像と前記第2画像とを合成して第1基準画像を生成し、前記第1基準画像を前記表示パネルに表示させる。前記制御部は、前記第1基準画像が投影されている、前記検出部によって撮像された前記利用者の顔の像に基づいて、前記インデックスを調整する。 The mobile body according to the embodiment of the present disclosure includes a head-up display. The head-up display includes a display panel, a barrier unit, an optical member, a detection unit, and a control unit. The display panel is configured to display a parallax image including a first image and a second image having parallax with respect to the first image. The barrier portion is configured to give parallax to the first eye and the second eye of the user by defining the traveling direction of the image light of the parallax image. The optical member is configured to make the user visually recognize the image light emitted from the display panel as a virtual image. The detection unit is configured to capture the face of the user who is visually recognizing the parallax image. The control unit synthesizes the first image and the second image that are different from each other based on a predetermined index that defines the arrangement of the first image and the second image displayed on the display panel, and first. A reference image is generated, and the first reference image is displayed on the display panel. The control unit adjusts the index based on the image of the user's face imaged by the detection unit on which the first reference image is projected.

本開示の一実施形態に係る3次元表示装置、ヘッドアップディスプレイおよび移動体によれば、利用者に3次元画像を適切に視認させることができる。 According to the three-dimensional display device, the head-up display, and the moving body according to the embodiment of the present disclosure, the user can appropriately visually recognize the three-dimensional image.

本開示の一実施形態に係る3次元表示装置を上下方向から見た例を示す図である。It is a figure which shows the example which looked at the 3D display device which concerns on one Embodiment of this disclosure from the vertical direction. 図1に示す3次元表示装置の表示パネルを奥行方向から見た例を示す図である。It is a figure which shows the example which looked at the display panel of the 3D display device shown in FIG. 1 from the depth direction. 図1に示す3次元表示装置のバリア部を奥行方向から見た例を示す図である。It is a figure which shows the example which looked at the barrier part of the 3D display device shown in FIG. 1 from the depth direction. 図1に示す3次元表示装置の表示パネルにおける左可視領域を説明するための図である。It is a figure for demonstrating the left visible region in the display panel of the 3D display apparatus shown in FIG. 図1に示す3次元表示装置の表示パネルにおける右可視領域を説明するための図である。It is a figure for demonstrating the right visible area in the display panel of the 3D display apparatus shown in FIG. 左眼の位置および右眼の位置を識別するための情報を説明するための図である。It is a figure for demonstrating the information for identifying the position of a left eye and the position of a right eye. 眼間距離が標準距離である場合における、左眼および右眼の位置と、各サブピクセルに表示させる画像との対応を示す画像テーブルの例を示す図である。It is a figure which shows the example of the image table which shows the correspondence between the position of the left eye and the right eye, and the image to be displayed in each subpixel when the distance between eyes is a standard distance. インデックスを調整するために用いられる基準画像の例を示す図である。It is a figure which shows the example of the reference image used for adjusting an index. 検出部によって撮像される、基準画像が投影されている利用者の像の例を示す図である。It is a figure which shows the example of the image of the user which the reference image is projected, which is imaged by the detection unit. 原点補正を説明するための図である。It is a figure for demonstrating origin correction. インデックスを調整するための処理の一例を説明するフローチャートである。It is a flowchart explaining an example of the process for adjusting an index. 図1に示す3次元表示システムにおける両眼可視領域を説明するための図である。It is a figure for demonstrating the binocular visible region in the 3D display system shown in FIG. 検出部によって撮像される、基準画像が投影されている利用者の像の例を示す図である。It is a figure which shows the example of the image of the user which the reference image is projected, which is imaged by the detection unit. 眼間距離の補正処理を説明するための図である。It is a figure for demonstrating the correction process of the inter-eye distance. 本開示の一実施形態に係るヘッドアップディスプレイを示す図である。It is a figure which shows the head-up display which concerns on one Embodiment of this disclosure. 本開示の一実施形態に係る移動体を示す図である。It is a figure which shows the moving body which concerns on one Embodiment of this disclosure.

以下、本開示の実施形態について、図面を参照しながら説明がされる。なお、以下の説明で用いられる図は模式的なものである。図面上の寸法比率等は現実のものとは必ずしも一致していない。 Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. The figures used in the following description are schematic. The dimensional ratios on the drawings do not always match the actual ones.

図1は、本開示の一実施形態に係る3次元表示装置を上下方向から見た例を示す図である。本実施形態に係る3次元表示装置1は、表示パネル5と、バリア部6と、検出部2と、制御部7とを含んで構成される。 FIG. 1 is a diagram showing an example of a three-dimensional display device according to an embodiment of the present disclosure viewed from above and below. The three-dimensional display device 1 according to the present embodiment includes a display panel 5, a barrier unit 6, a detection unit 2, and a control unit 7.

検出部2は、利用者の顔を撮像するように構成されている。検出部2は、3次元表示装置1が表示する3次元画像を視認している利用者の顔を撮像するように構成されている。検出部2は、利用者の左眼15Lの位置および右眼15Rの位置を検出し、制御部7に出力してよい。検出部2は、例えば、カメラを備えてよい。検出部2は、カメラによって利用者の顔を撮像してよい。検出部2は、カメラによって撮像された利用者の顔の像から、左眼15Lの位置および右眼15Rの位置を検出してよい。検出部2は、1つのカメラの撮影画像から、左眼15Lおよび右眼15Rの位置を3次元空間の座標として検出してよい。検出部2は、2個以上のカメラの撮像画像から、左眼15Lの位置および右眼15Rの位置を3次元空間の座標として検出してよい。検出部2は、カメラの撮像画像から、利用者の顔に投影された3次元画像を検出してよい。左眼15Lは、第1眼とも称される。右眼15Rは、第2眼とも称される。左眼15Lと右眼15Rとを区別しない場合、左眼15Lおよび右眼15Rは、眼15と総称される。 The detection unit 2 is configured to capture an image of the user's face. The detection unit 2 is configured to capture the face of the user who is visually recognizing the three-dimensional image displayed by the three-dimensional display device 1. The detection unit 2 may detect the position of the left eye 15L and the position of the right eye 15R of the user and output the position to the control unit 7. The detection unit 2 may include, for example, a camera. The detection unit 2 may take an image of the user's face with a camera. The detection unit 2 may detect the position of the left eye 15L and the position of the right eye 15R from the image of the user's face captured by the camera. The detection unit 2 may detect the positions of the left eye 15L and the right eye 15R as the coordinates in the three-dimensional space from the captured image of one camera. The detection unit 2 may detect the position of the left eye 15L and the position of the right eye 15R as the coordinates in the three-dimensional space from the images captured by two or more cameras. The detection unit 2 may detect a three-dimensional image projected on the user's face from the image captured by the camera. The left eye 15L is also referred to as the first eye. The right eye 15R is also referred to as the second eye. When the left eye 15L and the right eye 15R are not distinguished, the left eye 15L and the right eye 15R are collectively referred to as the eye 15.

検出部2は、可視光カメラまたは赤外線カメラを備えてよい。検出部2は、可視光カメラおよび赤外線カメラの両方を備えてよい。検出部2は、可視光カメラおよび赤外線カメラの両方の機能を有してよい。検出部2は、例えば電荷結合素子(Charge Coupled Device;CCD)または相補型金属酸化物半導体(Complementary Metal Oxide Semiconductor;CMOS)イメージセンサを含んでよい。 The detection unit 2 may include a visible light camera or an infrared camera. The detection unit 2 may include both a visible light camera and an infrared camera. The detection unit 2 may have the functions of both a visible light camera and an infrared camera. The detection unit 2 may include, for example, a Charge Coupled Device (CCD) or a Complementary Metal Oxide Semiconductor (CMOS) image sensor.

検出部2は、カメラを備えず、装置外のカメラに接続されていてよい。検出部2は、装置外のカメラからの信号を入力する入力端子を備えてよい。装置外のカメラは、入力端子に直接的に接続されてよい。装置外のカメラは、共有のネットワークを介して入力端子に間接的に接続されてよい。カメラを備えない検出部2は、カメラが映像信号を入力する入力端子を備えてよい。カメラを備えない検出部2は、入力端子に入力された映像信号から左眼および右眼の位置を検出してよい。 The detection unit 2 may not be provided with a camera and may be connected to a camera outside the device. The detection unit 2 may include an input terminal for inputting a signal from a camera outside the device. Cameras outside the device may be directly connected to the input terminals. Cameras outside the device may be indirectly connected to the input terminals via a shared network. The detection unit 2 without a camera may include an input terminal for inputting a video signal by the camera. The detection unit 2 without a camera may detect the positions of the left eye and the right eye from the video signal input to the input terminal.

検出部2は、例えば、センサを備えてよい。センサは、超音波センサまたは光センサ等であってよい。検出部2は、センサによって利用者の頭部の位置を検出し、頭部の位置に基づいて左眼15Lおよび右眼15Rの位置を検出してよい。検出部2は、1個または2個以上のセンサによって、左眼15Lおよび右眼15Rの位置を3次元空間の座標値として検出してよい。 The detection unit 2 may include, for example, a sensor. The sensor may be an ultrasonic sensor, an optical sensor, or the like. The detection unit 2 may detect the position of the user's head by a sensor and detect the positions of the left eye 15L and the right eye 15R based on the position of the head. The detection unit 2 may detect the positions of the left eye 15L and the right eye 15R as coordinate values in three-dimensional space by one or two or more sensors.

3次元表示装置1は、検出部2を備えなくてよい。3次元表示装置1が検出部2を備えない場合、3次元表示装置1は、装置外の検出装置からの信号を入力する入力端子を備えてよい。装置外の検出装置は、入力端子に接続されてよい。装置外の検出装置は、入力端子に対する伝送信号として、電気信号および光信号を用いてよい。装置外の検出装置は、共有の通信ネットワークを介して入力端子に間接的に接続されてよい。3次元表示装置1には、装置外の検出装置から取得した左眼および右眼の位置を示す位置座標が入力される構成であってよい。 The three-dimensional display device 1 does not have to include the detection unit 2. When the three-dimensional display device 1 does not include the detection unit 2, the three-dimensional display device 1 may include an input terminal for inputting a signal from a detection device outside the device. A detection device outside the device may be connected to an input terminal. The detection device outside the device may use an electric signal and an optical signal as a transmission signal to the input terminal. The detection device outside the device may be indirectly connected to the input terminal via a shared communication network. The three-dimensional display device 1 may be configured to input position coordinates indicating the positions of the left eye and the right eye acquired from a detection device outside the device.

検出部2は、利用者の眼15の位置を検出する機能を有してよい。検出部2は、眼15の位置を検出する機能を有さなくてよい。3次元表示装置1は、制御部7が眼15の位置を検出するように構成されてよいし、眼15の位置を検出し、制御部7に出力する位置取得部3を有してよい。 The detection unit 2 may have a function of detecting the position of the user's eye 15. The detection unit 2 does not have to have a function of detecting the position of the eye 15. The three-dimensional display device 1 may be configured such that the control unit 7 detects the position of the eye 15, or may have a position acquisition unit 3 that detects the position of the eye 15 and outputs the position to the control unit 7.

表示パネル5は、左眼画像(第1画像)と左眼画像に対して視差を有する右眼画像(第2画像)とを含む視差画像を表示する。左眼画像は、利用者の第1眼15Lに投影する画像であり、右眼画像は、利用者の第2眼15Rに投影する画像である。視差画像は、混合画像とも称される。バリア部6は、表示パネル5から出射される画像光の進行方向を規定する光学素子である。バリア部6は、視差バリアとも称される。制御部7は、第1画像と第2画像とを合成して、視差画像を生成する。制御部7は、検出部2によって検出された、第1眼15Lの位置および第2眼15Rの位置の少なくとも一方に基づいて、第1画像と第2画像とを合成してよい。 The display panel 5 displays a parallax image including a left eye image (first image) and a right eye image (second image) having a parallax with respect to the left eye image. The left eye image is an image projected on the user's first eye 15L, and the right eye image is an image projected on the user's second eye 15R. The parallax image is also referred to as a mixed image. The barrier unit 6 is an optical element that defines the traveling direction of the image light emitted from the display panel 5. The barrier portion 6 is also referred to as a parallax barrier. The control unit 7 combines the first image and the second image to generate a parallax image. The control unit 7 may synthesize the first image and the second image based on at least one of the position of the first eye 15L and the position of the second eye 15R detected by the detection unit 2.

制御部7は、生成した視差画像を表示パネル5に表示させる。表示パネル5は、複数の表示領域をアクティブエリア内に有してよい。複数の表示領域の各々には、複数の基準インデックスのいずれかが対応してよい。基準インデックスは、単に、インデックスとも称される。制御部7は、複数の表示領域の各々に表示する視差画像を、該表示領域の基準インデックスを基準にして合成する。 The control unit 7 displays the generated parallax image on the display panel 5. The display panel 5 may have a plurality of display areas in the active area. Each of the plurality of display areas may correspond to any of a plurality of reference indexes. The reference index is also simply referred to as an index. The control unit 7 synthesizes the parallax images to be displayed in each of the plurality of display areas with reference to the reference index of the display areas.

表示パネル5は、透過型の表示パネルであってよいし、自発光型の表示パネルであってよい。透過型の表示パネルとしては、例えば液晶表示パネルを使用しうる。自発光型の表示パネルとしては、例えば発光ダイオード(Light Emitting Diode;LED)素子、有機エレクトロルミネッセンス(Organic Electro Luminescence;OEL)素子、有機発光ダイオード(Organic Light Emitting Diode;OLED)素子、半導体レーザ(Laser Diode;LD)素子等の自発光素子を含む表示パネルを使用しうる。本実施形態では、表示パネル5として、液晶表示パネルを使用する。 The display panel 5 may be a transmissive display panel or a self-luminous display panel. As the transmissive display panel, for example, a liquid crystal display panel can be used. Examples of the self-luminous display panel include a light emitting diode (LED) element, an organic electro luminescence (OEL) element, an organic light emitting diode (OLED) element, and a semiconductor laser (Laser). A display panel including a self-luminous element such as a Diode; LD) element can be used. In this embodiment, a liquid crystal display panel is used as the display panel 5.

表示パネル5が透過型の表示パネルである場合、3次元表示装置1は照射器4を含んで構成される。照射器4は、表示パネル5に光を面的に照射しうる。照射器4は、光源、導光板、拡散板および拡散シート等を含んで構成されてよい。照射器4は、光源により照射光を出射し、導光板、拡散板および拡散シート等により照射光を表示パネル5の面方向に均一化しうる。照射器4は、均一化された光を表示パネル5に向かって出射しうる。 When the display panel 5 is a transmissive display panel, the three-dimensional display device 1 includes an irradiator 4. The irradiator 4 can irradiate the display panel 5 with light in a plane. The irradiator 4 may be configured to include a light source, a light guide plate, a diffusion plate, a diffusion sheet, and the like. The irradiator 4 emits irradiation light by a light source, and the irradiation light can be made uniform in the surface direction of the display panel 5 by a light guide plate, a diffusion plate, a diffusion sheet, or the like. The irradiator 4 may emit uniformed light toward the display panel 5.

照射器4は、可視光を射出する可視光光源を含んで構成される。可視光光源は、例えばLED素子、冷陰極蛍光ランプ、ハロゲンランプまたはキセノンランプであってよい。照射器4は、赤外光を射出する赤外光光源を含んで構成されてよい。赤外光光源は、例えば赤外線LED素子であってよい。3次元表示装置1は、可視光光源と赤外光光源とを別個に駆動するように構成されてよい。3次元表示装置1が可視光光源および赤外光光源を駆動する場合、3次元表示装置1が表示する3次元画像は、可視光成分および赤外光成分を含む。3次元表示装置1が赤外光光源のみを駆動する場合、3次元表示装置1が表示する3次元画像は、赤外光成分のみを含む。検出部2が赤外線カメラを備える、または、検出部2が赤外線カメラの機能を有する場合、検出部2は、利用者の顔に投影された3次元画像の赤外光成分を検出しうる。 The irradiator 4 includes a visible light source that emits visible light. The visible light source may be, for example, an LED element, a cold cathode fluorescent lamp, a halogen lamp or a xenon lamp. The irradiator 4 may be configured to include an infrared light source that emits infrared light. The infrared light source may be, for example, an infrared LED element. The three-dimensional display device 1 may be configured to drive the visible light source and the infrared light source separately. When the three-dimensional display device 1 drives a visible light source and an infrared light source, the three-dimensional image displayed by the three-dimensional display device 1 includes a visible light component and an infrared light component. When the three-dimensional display device 1 drives only an infrared light source, the three-dimensional image displayed by the three-dimensional display device 1 contains only an infrared light component. When the detection unit 2 includes an infrared camera or the detection unit 2 has the function of an infrared camera, the detection unit 2 can detect the infrared light component of the three-dimensional image projected on the user's face.

照射器4は、複数の赤外線LED素子を含んで構成されてよい。複数の赤外線LED素子は、照射器4の全体に分散して配置されてよいし、照射器4の一部に偏って配置されてよい。照射器4は、その光射出面の中央部に可視光光源が配置され、可視光光源の周囲を取り囲むように複数の赤外線LED素子が配置されている構成であってよい。 The irradiator 4 may be configured to include a plurality of infrared LED elements. The plurality of infrared LED elements may be dispersedly arranged in the entire irradiator 4, or may be unevenly arranged in a part of the irradiator 4. The irradiator 4 may have a configuration in which a visible light light source is arranged at the center of the light emitting surface thereof, and a plurality of infrared LED elements are arranged so as to surround the periphery of the visible light light source.

表示パネル5は、例えば図2に示すように、面状に形成されたアクティブエリア51上に複数の区画領域を有する。アクティブエリア51は、視差画像を表示する。視差画像は、第1画像と第1画像に対して視差を有する第2画像とを含む。区画領域は、格子状のブラックマトリックス52により第1方向および第1方向に直交する第2方向に区画された領域である。第1方向および第2方向に直交する方向は第3方向と称される。第1方向は水平方向と称されてよい。第2方向は上下方向と称されてよい。第3方向は奥行方向と称されてよい。第1方向、第2方向、および第3方向はそれぞれこれらに限られない。図面において、第1方向はx軸方向として表され、第2方向はy軸方向として表され、第3方向はz軸方向として表される。 As shown in FIG. 2, for example, the display panel 5 has a plurality of compartmentalized areas on the active area 51 formed in a planar shape. The active area 51 displays a parallax image. The parallax image includes a first image and a second image having a parallax with respect to the first image. The compartmentalized area is a region partitioned by a grid-like black matrix 52 in a first direction and a second direction orthogonal to the first direction. The direction orthogonal to the first direction and the second direction is referred to as a third direction. The first direction may be referred to as the horizontal direction. The second direction may be referred to as the vertical direction. The third direction may be referred to as the depth direction. The first direction, the second direction, and the third direction are not limited to these, respectively. In the drawings, the first direction is represented as the x-axis direction, the second direction is represented as the y-axis direction, and the third direction is represented as the z-axis direction.

区画領域の各々には、1つのサブピクセルが対応する。したがって、アクティブエリア51は、水平方向および上下方向に沿って格子状に配列された複数のサブピクセルを備える。 One subpixel corresponds to each of the compartment areas. Therefore, the active area 51 includes a plurality of sub-pixels arranged in a grid pattern along the horizontal direction and the vertical direction.

各サブピクセルは、赤(R)、緑(G)、青(B)のいずれかの色に対応し、R,G,Bの3つのサブピクセルを一組として1ピクセルを構成することができる。1ピクセルは、1画素と称されうる。水平方向は、例えば、1ピクセルを構成する複数のサブピクセルが並ぶ方向である。上下方向は、例えば、同じ色のサブピクセルが並ぶ方向である。 Each sub-pixel corresponds to any of the colors red (R), green (G), and blue (B), and one pixel can be composed of three sub-pixels R, G, and B as a set. .. One pixel can be referred to as one pixel. The horizontal direction is, for example, a direction in which a plurality of subpixels constituting one pixel are arranged. The vertical direction is, for example, the direction in which subpixels of the same color are lined up.

上述のようにアクティブエリア51に配列された複数のサブピクセルは、サブピクセル群Pgを構成する。サブピクセル群Pgは、水平方向に繰り返して配列される。サブピクセル群Pgは、上下方向においては、水平方向に1サブピクセル分ずれた位置に隣接して繰り返して配列される。サブピクセル群Pgは、所定の行および列のサブピクセルを含む。具体的には、サブピクセル群Pgは、上下方向にb個(b行)、水平方向に2×n個(n列)、連続して配列された(2×n×b)個のサブピクセルP1~Pk(k=2×n×b)を含む。図2に示す例では、n=6、b=1である。アクティブエリア51には、上下方向に1個、水平方向に12個、連続して配列された12個のサブピクセルP1~P12を含むサブピクセル群Pgが配置される。図2に示す例では、一部のサブピクセル群Pgに符号を付している。 A plurality of sub-pixels arranged in the active area 51 as described above constitute a sub-pixel group Pg. The subpixel group Pg is repeatedly arranged in the horizontal direction. The sub-pixel group Pg is repeatedly arranged adjacent to a position shifted by one sub-pixel in the horizontal direction in the vertical direction. The subpixel group Pg includes subpixels in a predetermined row and column. Specifically, the subpixel group Pg has b (b rows) in the vertical direction, 2 × n (n columns) in the horizontal direction, and (2 × n × b) subpixels arranged continuously. Includes P1 to Pk (k = 2 × n × b). In the example shown in FIG. 2, n = 6 and b = 1. In the active area 51, a subpixel group Pg including 12 subpixels P1 to P12 arranged in succession, one in the vertical direction and 12 in the horizontal direction, is arranged. In the example shown in FIG. 2, some subpixel groups Pg are coded.

サブピクセル群Pgは、制御部7が画像を表示するための制御を行う最小単位である。全てのサブピクセル群Pgの同じ識別情報を有するサブピクセルP1~Pk(k=2×n×b)は、制御部7によって同時に制御される。例えば、制御部7は、サブピクセルP1に表示させる画像を左眼画像から右眼画像に切換える場合、全てのサブピクセル群PgにおけるサブピクセルP1に表示させる画像を左眼画像から右眼画像に同時的に切換えうる。 The sub-pixel group Pg is the smallest unit in which the control unit 7 controls to display an image. The sub-pixels P1 to Pk (k = 2 × n × b) having the same identification information of all the sub-pixel groups Pg are simultaneously controlled by the control unit 7. For example, when the control unit 7 switches the image to be displayed on the subpixel P1 from the left eye image to the right eye image, the control unit 7 simultaneously changes the image to be displayed on the subpixel P1 in all the subpixel group Pg from the left eye image to the right eye image. Can be switched.

(視差バリア)
バリア部6は、図1に示したように、アクティブエリア51に沿う平面により形成される。バリア部6は、アクティブエリア51から所定距離(ギャップ)gだけ離れて配置されてよい。バリア部6は、表示パネル5に対して照射器4の反対側に位置してよい。バリア部6は、表示パネル5の照射器4側に位置してよい。
(Parallax barrier)
As shown in FIG. 1, the barrier portion 6 is formed by a plane along the active area 51. The barrier portion 6 may be arranged at a distance of a predetermined distance (gap) g from the active area 51. The barrier portion 6 may be located on the opposite side of the irradiator 4 with respect to the display panel 5. The barrier portion 6 may be located on the irradiator 4 side of the display panel 5.

バリア部6は、表示パネル5から出射される画像光の進行方向に移動可能に構成されてよい。言い換えれば、バリア部6は、図1に示す第3方向に移動可能に構成されてよい。3次元表示装置1は、バリア部6を第3方向に駆動する駆動部11を備えてよい。駆動部11は、制御部7によって制御されてよい。駆動部11は、モータまたは圧電素子等によってバリア部6を第3方向に駆動してよい。駆動部11は、バリア部6を第3方向の正方向に駆動してよいし、バリア部6を第3方向の負方向に駆動してよい。 The barrier portion 6 may be configured to be movable in the traveling direction of the image light emitted from the display panel 5. In other words, the barrier portion 6 may be configured to be movable in the third direction shown in FIG. The three-dimensional display device 1 may include a drive unit 11 that drives the barrier unit 6 in the third direction. The drive unit 11 may be controlled by the control unit 7. The drive unit 11 may drive the barrier unit 6 in the third direction by a motor, a piezoelectric element, or the like. The drive unit 11 may drive the barrier unit 6 in the positive direction in the third direction, or may drive the barrier unit 6 in the negative direction in the third direction.

バリア部6は、図3に示すように、面内の所定方向に伸びる複数の帯状領域である透光領域62ごとに、サブピクセルから出射される画像光の伝播方向である光線方向を規定する。所定方向は、上下方向と0度でない所定角度をなす方向である。図1に示したように、バリア部6がアクティブエリア51に配列されたサブピクセルから出射された画像光を規定することによって、利用者の眼15が視認可能なアクティブエリア51上の領域が定まる。以降において、利用者の眼15の位置に伝播する画像光を出射するアクティブエリア51内の領域は可視領域51aと称される。利用者の左眼15Lの位置に伝播する画像光を出射するアクティブエリア51内の領域は左可視領域51aL(第1可視領域)と称される。利用者の右眼15Rの位置に伝播する画像光を出射するアクティブエリア51内の領域は右可視領域51aR(第2可視領域)と称される。 As shown in FIG. 3, the barrier portion 6 defines the light ray direction, which is the propagation direction of the image light emitted from the subpixel, for each of the translucent regions 62, which are a plurality of strip-shaped regions extending in a predetermined direction in the plane. .. The predetermined direction is a direction forming a predetermined angle other than 0 degrees with the vertical direction. As shown in FIG. 1, by defining the image light emitted from the sub-pixels arranged in the active area 51 by the barrier portion 6, the area on the active area 51 visible to the user's eyes 15 is determined. .. Hereinafter, the area in the active area 51 that emits the image light propagating to the position of the user's eye 15 is referred to as a visible area 51a. The area in the active area 51 that emits the image light propagating to the position of the user's left eye 15L is referred to as the left visible area 51aL (first visible area). The area in the active area 51 that emits the image light propagating to the position of the user's right eye 15R is referred to as the right visible area 51aR (second visible area).

バリア部6は、図3に示されるように、複数の、画像光を遮光する遮光領域61を有する。複数の遮光領域61は、互いに隣接する該遮光領域61の間の透光領域62を画定する。透光領域62は、遮光領域61に比べて光透過率が高い。言い換えれば、遮光領域61は、透光領域62に比べて光透過率が低い。 As shown in FIG. 3, the barrier portion 6 has a plurality of light-shielding regions 61 that block image light. The plurality of light-shielding regions 61 define a light-transmitting region 62 between the light-shielding regions 61 adjacent to each other. The light-transmitting region 62 has a higher light transmittance than the light-shielding region 61. In other words, the light-shielding region 61 has a lower light transmittance than the light-transmitting region 62.

透光領域62は、バリア部6に入射する光を透過させる部分である。透光領域62は、第1所定値以上の透過率で光を透過させてよい。第1所定値は、例えば、略100%の値であってよいし、100%未満の値であってよい。第1所定値の値は、アクティブエリア51から出射される画像光が良好に視認できる範囲の値であれば100%以下であってよく、例えば、80%または50%等としうる。遮光領域61は、バリア部6に入射する光を遮って殆ど透過させない部分である。言い換えれば、遮光領域61は、表示パネル5のアクティブエリア51に表示される画像が、利用者の眼に到達することを遮る。遮光領域61は、第2所定値以下の透過率で光を遮ってよい。第2所定値は、例えば、略0%の値であってよいし、0%より大きい値であってよい。第2所定値は、0.5%、1%または3%等の0%に近い値であってよい。第1所定値は、第2所定値よりも数倍以上、例えば、10倍以上大きい値としうる。 The translucent region 62 is a portion that transmits light incident on the barrier portion 6. The light transmitting region 62 may transmit light with a transmittance of a first predetermined value or more. The first predetermined value may be, for example, a value of approximately 100% or a value of less than 100%. The value of the first predetermined value may be 100% or less as long as the image light emitted from the active area 51 is in a range where the image light can be clearly seen, and may be, for example, 80% or 50%. The light-shielding region 61 is a portion that blocks the light incident on the barrier portion 6 and hardly transmits it. In other words, the shading area 61 blocks the image displayed in the active area 51 of the display panel 5 from reaching the user's eyes. The light-shielding region 61 may block light with a transmittance of a second predetermined value or less. The second predetermined value may be, for example, a value of approximately 0% or a value larger than 0%. The second predetermined value may be a value close to 0% such as 0.5%, 1% or 3%. The first predetermined value may be several times or more, for example, 10 times or more larger than the second predetermined value.

透光領域62と遮光領域61とは、アクティブエリア51に沿う所定方向に延び、所定方向と直交する方向に繰り返し交互に配列される。透光領域62は、サブピクセルから出射される画像光の光線方向を規定する。 The translucent region 62 and the light-shielding region 61 extend in a predetermined direction along the active area 51, and are repeatedly and alternately arranged in a direction orthogonal to the predetermined direction. The translucent region 62 defines the light ray direction of the image light emitted from the subpixel.

図1に示したように、透光領域62の水平方向における配置間隔であるバリアピッチBp、アクティブエリア51とバリア部6との間のギャップgは、適視距離dおよび標準距離E0を用いた次の式(1)および式(2)が成り立つように規定される。 As shown in FIG. 1, the barrier pitch Bp, which is the horizontal arrangement interval of the translucent region 62, and the gap g between the active area 51 and the barrier portion 6 are the appropriate viewing distance d and the standard distance E0. It is specified that the following equations (1) and (2) hold.

E0:d=(n×Hp):g …(1) E0: d = (n × Hp): g ... (1)

d:Bp=(d+g):(2×n×Hp) …(2) d: Bp = (d + g): (2 × n × Hp)… (2)

適視距離dは、可視領域51aの水平方向の長さがサブピクセルn個分となるような利用者の右眼および左眼のそれぞれとバリア部6との間の距離である。右眼と左眼とを通る直線の方向(眼間方向)は水平方向である。標準距離E0は利用者の眼間距離Eの標準である。標準距離E0は、例えば、産業技術総合研究所の研究によって算出された値である61.1mm~64.4mmであってよい。Hpは、図2に示すような、サブピクセルの水平方向の長さである。 The suitable viewing distance d is a distance between each of the user's right eye and left eye and the barrier portion 6 such that the horizontal length of the visible region 51a is equivalent to n subpixels. The direction of the straight line passing through the right eye and the left eye (inter-eye direction) is the horizontal direction. The standard distance E0 is the standard of the user's inter-eye distance E. The standard distance E0 may be, for example, 61.1 mm to 64.4 mm, which is a value calculated by research by the National Institute of Advanced Industrial Science and Technology. Hp is the horizontal length of the subpixel as shown in FIG.

バリア部6は、第2所定値未満の透過率を有するフィルムまたは板状部材によって構成されてよい。この場合、遮光領域61は、該フィルムまたは板状部材によって構成される。透光領域62は、フィルムまたは板状部材に設けられた開口によって構成される。フィルムは、樹脂によって構成されてよいし、他の材料によって構成されてよい。板状部材は、樹脂または金属等によって構成されてよいし、他の材料によって構成されてよい。バリア部6は、フィルムまたは板状部材に限られず、他の種類の部材によって構成されてよい。バリア部6は、基材が遮光性を有してよいし、基材に遮光性を有する添加物が含有されてよい。 The barrier portion 6 may be composed of a film or a plate-shaped member having a transmittance of less than the second predetermined value. In this case, the light-shielding region 61 is composed of the film or plate-shaped member. The translucent region 62 is composed of openings provided in the film or plate-like member. The film may be made of resin or may be made of other materials. The plate-shaped member may be made of resin, metal, or the like, or may be made of other materials. The barrier portion 6 is not limited to the film or plate-shaped member, and may be composed of other types of members. In the barrier portion 6, the base material may have a light-shielding property, or the base material may contain an additive having a light-shielding property.

バリア部6は、液晶シャッタによって構成されてよい。液晶シャッタは、印加する電圧に応じて光の透過率を制御しうる。液晶シャッタは、複数の画素によって構成され、各画素における光の透過率を制御してよい。液晶シャッタは、光の透過率が高い領域または光の透過率が低い領域を任意の形状に形成しうる。バリア部6が液晶シャッタによって構成される場合、透光領域62は、第1所定値以上の透過率を有する領域としてよい。バリア部6が液晶シャッタによって構成される場合、遮光領域61は、第2所定値以下の透過率を有する領域としてよい。 The barrier portion 6 may be configured by a liquid crystal shutter. The liquid crystal shutter can control the light transmittance according to the applied voltage. The liquid crystal shutter is composed of a plurality of pixels, and the transmittance of light in each pixel may be controlled. The liquid crystal shutter can form a region having a high light transmittance or a region having a low light transmittance into an arbitrary shape. When the barrier portion 6 is composed of a liquid crystal shutter, the translucent region 62 may be a region having a transmittance of a first predetermined value or more. When the barrier portion 6 is composed of a liquid crystal shutter, the light-shielding region 61 may be a region having a transmittance of a second predetermined value or less.

上述のように構成されることによって、バリア部6は、アクティブエリア51の一部のサブピクセルから出射した画像光を、透光領域62を通過させ利用者の右眼に伝播させうる。バリア部6は、他の一部のサブピクセルから出射した画像光を、透光領域62を通過させ利用者の左眼に伝播させうる。 By being configured as described above, the barrier unit 6 can allow the image light emitted from a part of the subpixels of the active area 51 to pass through the translucent region 62 and propagate to the user's right eye. The barrier unit 6 can allow the image light emitted from some of the other sub-pixels to pass through the translucent region 62 and propagate to the left eye of the user.

(視差画像)
利用者によって視認される画像について、図4および図5を参照して詳細に説明する。図4に示す左可視領域51aLは、上述のように、バリア部6の透光領域62を通過した画像光が利用者の左眼15Lに到達することによって、利用者の左眼15Lが視認するアクティブエリア51上の領域である。左不可視領域51bLは、バリア部6の遮光領域61によって画像光が遮られることによって、利用者の左眼15Lが視認することのできない領域である。左可視領域51aLには、サブピクセルP1の半分と、サブピクセルP2~P6の全体と、サブピクセルP7の半分とが含まれる。
(Parallax image)
The image visually recognized by the user will be described in detail with reference to FIGS. 4 and 5. As described above, the left visible region 51aL shown in FIG. 4 is visually recognized by the user's left eye 15L when the image light that has passed through the translucent region 62 of the barrier portion 6 reaches the user's left eye 15L. It is an area on the active area 51. The left invisible region 51bL is an region that cannot be visually recognized by the user's left eye 15L because the image light is blocked by the light-shielding region 61 of the barrier portion 6. The left visible region 51aL includes half of subpixel P1, the whole of subpixels P2 to P6, and half of subpixel P7.

図5に示す右可視領域51aRは、バリア部6の透光領域62を透過した他の一部のサブピクセルからの画像光が利用者の右眼15Rに到達することによって、利用者の右眼15Rが視認するアクティブエリア51上の領域である。右不可視領域51bRは、バリア部6の遮光領域61によって画像光が遮られることによって、利用者の右眼15Rが視認することのできない領域である。右可視領域51aRには、サブピクセルP7の半分と、サブピクセルP8~P12の全体と、サブピクセルP1の半分とが含まれる。 The right visible region 51aR shown in FIG. 5 is the user's right eye when the image light from some other subpixels transmitted through the translucent region 62 of the barrier portion 6 reaches the user's right eye 15R. It is an area on the active area 51 visually recognized by the 15R. The right invisible region 51bR is a region that cannot be visually recognized by the user's right eye 15R because the image light is blocked by the light-shielding region 61 of the barrier portion 6. The right visible region 51aR includes half of subpixel P7, the whole of subpixels P8 to P12, and half of subpixel P1.

サブピクセルP1~P6に左眼画像が表示され、サブピクセルP7~P12に右眼画像が表示されると、左眼15Lおよび右眼15Rは左眼画像および右眼画像をそれぞれ視認する。左眼画像および右眼画像は互いに視差を有する視差画像である。具体的には、左眼15Lは、サブピクセルP1に表示された左眼画像の半分と、サブピクセルP2~P6に表示された左眼画像の全体と、サブピクセルP7に表示された右眼画像の半分とを視認する。右眼15Rは、サブピクセルP7に表示された右眼画像の半分と、サブピクセルP8~P12に表示された右眼画像の全体と、サブピクセルP1に表示された左眼画像の半分とを視認する。図4および図5において、左眼画像を表示するサブピクセルには符号「L」が付され、右眼画像を表示するサブピクセルには符号「R」が付されている。 When the left eye image is displayed on the sub-pixels P1 to P6 and the right eye image is displayed on the sub-pixels P7 to P12, the left eye 15L and the right eye 15R visually recognize the left eye image and the right eye image, respectively. The left eye image and the right eye image are parallax images having parallax with each other. Specifically, the left eye 15L is half of the left eye image displayed on the subpixel P1, the entire left eye image displayed on the subpixels P2 to P6, and the right eye image displayed on the subpixel P7. Visualize half of. The right eye 15R visually recognizes half of the right eye image displayed on the subpixel P7, the entire right eye image displayed on the subpixels P8 to P12, and half of the left eye image displayed on the subpixel P1. do. In FIGS. 4 and 5, the subpixels displaying the left-eye image are designated by the reference numeral “L”, and the subpixels displaying the right-eye image are designated by the reference numeral “R”.

この状態において、利用者の左眼15Lが視認する左眼画像の領域は最大となり、右眼画像の面積は最小となる。利用者の右眼15Rが視認する右眼画像の領域は最大となり、左眼画像の面積は最小となる。したがって、利用者は、クロストークが最も低減された状態で3次元画像を視認する。 In this state, the area of the left eye image visually recognized by the user's left eye 15L is the maximum, and the area of the right eye image is the minimum. The area of the right eye image visually recognized by the user's right eye 15R is the maximum, and the area of the left eye image is the minimum. Therefore, the user visually recognizes the three-dimensional image in the state where the crosstalk is most reduced.

上述のように構成された3次元表示装置1において、互いに視差を有する左眼画像と右眼画像とが左可視領域51aLおよび右可視領域51aRのそれぞれに含まれるサブピクセルに表示されると、眼間距離Eが標準距離E0である利用者は3次元画像を適切に視認しうる。上述の構成では、左眼15Lによって半分以上が視認されるサブピクセルに左眼画像が表示され、右眼15Rによって半分以上が視認されるサブピクセルに右眼画像が表示される。これに限られず、左眼画像および右眼画像を表示させるサブピクセルは、アクティブエリア51、バリア部6等の設計に応じて、クロストークが最小になるように左可視領域51aLおよび右可視領域51aRに基づいて適宜判定されてよい。例えば、バリア部6の開口率等に応じて、左眼15Lによって所定割合以上が視認されるサブピクセルに左眼画像を表示させ、右眼15Rによって所定割合以上が視認されるサブピクセルに右眼画像を表示させてよい。 In the three-dimensional display device 1 configured as described above, when the left eye image and the right eye image having a difference in distance from each other are displayed in the subpixels included in the left visible region 51aL and the right visible region 51aR, the eye. A user whose distance E is a standard distance E0 can appropriately visually recognize a three-dimensional image. In the above configuration, the left eye image is displayed in the subpixel in which more than half is visually recognized by the left eye 15L, and the right eye image is displayed in the subpixel in which more than half is visually recognized by the right eye 15R. Not limited to this, the subpixels that display the left eye image and the right eye image are the left visible area 51aL and the right visible area 51aR so that the crosstalk is minimized according to the design of the active area 51, the barrier portion 6, and the like. It may be determined as appropriate based on. For example, the left eye image is displayed on a subpixel in which a predetermined ratio or more is visually recognized by the left eye 15L according to the aperture ratio of the barrier portion 6, and the right eye is displayed on the subpixel in which a predetermined ratio or more is visually recognized by the right eye 15R. The image may be displayed.

(制御部の構成)
制御部7は、3次元表示装置1の各構成要素に接続され、各構成要素を制御しうる。制御部7によって制御される構成要素は、検出部2、表示パネル5および駆動部11を含んでよい。3次元表示装置1は、表示パネル5および駆動部11を制御する制御部7とは別に、検出部2を制御する制御部を備えてよい。制御部7は、例えばプロセッサとして構成される。制御部7は、1つ以上のプロセッサを含んでよい。プロセッサは、特定のプログラムを読み込んで特定の機能を実行する汎用のプロセッサ、および特定の処理に特化した専用プロセッサを含んでよい。専用プロセッサは、特定用途向けIC(Application Specific Integrated Circuit;ASIC)を含んでよい。プロセッサは、例えばプログラマブルロジックデバイス(Programmable Logic Device;PLD)を含んでよい。プログラマブルロジックデバイスは、FPGA(Field-Programmable Gate Array)を含んでよい。制御部7は、1つまたは複数のプロセッサが協働するSoC(System-on a-Chip)、およびSiP(System In a Package)のいずれかであってよい。制御部7は、メモリ8を備え、メモリ8に各種情報、または3次元表示装置1の各構成要素を動作させるためのプログラム等を格納してよい。メモリ8は、例えば半導体メモリ等によって構成されてよい。メモリ8は、制御部7のワークメモリとして機能してよい。メモリ8は、例えばRAM(Random Access Memory)、およびROM(Read Only Memory)等、任意の記憶デバイスにより構成される。メモリ8は、後述する第1テーブルを記憶してよい。
(Structure of control unit)
The control unit 7 is connected to each component of the three-dimensional display device 1 and can control each component. The components controlled by the control unit 7 may include a detection unit 2, a display panel 5, and a drive unit 11. The three-dimensional display device 1 may include a control unit that controls the detection unit 2 in addition to the control unit 7 that controls the display panel 5 and the drive unit 11. The control unit 7 is configured as, for example, a processor. The control unit 7 may include one or more processors. The processor may include a general-purpose processor that reads a specific program and performs a specific function, and a dedicated processor specialized for a specific process. The dedicated processor may include an application specific integrated circuit (ASIC). The processor may include, for example, a Programmable Logic Device (PLD). The programmable logic device may include an FPGA (Field-Programmable Gate Array). The control unit 7 may be either a SoC (System-on a-Chip) in which one or a plurality of processors cooperate, or a SiP (System In a Package). The control unit 7 includes a memory 8, and may store various information, a program for operating each component of the three-dimensional display device 1, and the like in the memory 8. The memory 8 may be configured by, for example, a semiconductor memory or the like. The memory 8 may function as a work memory of the control unit 7. The memory 8 is composed of an arbitrary storage device such as a RAM (Random Access Memory) and a ROM (Read Only Memory). The memory 8 may store the first table described later.

(インデックスの調整)
図6に示すように、右眼15Rおよび左眼15Lの水平方向における位置はそれぞれ情報0~11で識別される。眼間距離Eが標準距離E0である場合の右眼15Rの位置を識別する情報は、左眼15Lの位置を識別する情報と同一に付されている。
(Index adjustment)
As shown in FIG. 6, the positions of the right eye 15R and the left eye 15L in the horizontal direction are identified by information 0 to 11, respectively. The information for identifying the position of the right eye 15R when the inter-eye distance E is the standard distance E0 is attached in the same manner as the information for identifying the position of the left eye 15L.

図7に示すように、第1テーブルには、眼間距離Eが標準距離E0である場合の左眼15Lおよび右眼15Rの位置と、左可視領域51aLおよび右可視領域51aRそれぞれに所定割合以上が含まれる左サブピクセルおよび右サブピクセルとが対応して記憶されている。図7に示す例では、列方向に眼15の位置を識別する情報0~11が示され、行方向にはサブピクセルを識別する情報P1~P12が示されている。眼15の位置を識別する情報は、インデックスまたは基準インデックスと称される。第1テーブルには、眼15が各位置にあるときに、各サブピクセルが左サブピクセルであるか、右サブピクセルであるかが示されている。図7では、左サブピクセルに「左」が示され、右サブピクセルに「右」が示されている。図6を参照して説明したように、眼間距離Eが標準距離E0であるとき、左眼15Lが「0」で示す位置にある場合、右眼15Rは「0」で示す位置にある。この場合、図7に示す例では、サブピクセルP1~P6が左サブピクセルであり、サブピクセルP7~P12が右サブピクセルであることが示されている。左眼15Lが「1」で示す位置にある場合、右眼15Rは「1」で示す位置にある。この場合、サブピクセルP2~P7が左サブピクセルであり、P1、およびP8~P12が右サブピクセルであることが示されている。制御部7は、インデックス0~11のいずれかを選択する。制御部7は、選択したインデックスに対応する、サブピクセルを識別する情報P1~P12に基づいて、表示パネル5の表示面に表示する左眼画像および右眼画像の並びを規定する。 As shown in FIG. 7, in the first table, the positions of the left eye 15L and the right eye 15R when the intereye distance E is the standard distance E0, and a predetermined ratio or more in each of the left visible region 51aL and the right visible region 51aR. The left subpixel and the right subpixel containing are stored correspondingly. In the example shown in FIG. 7, the information 0 to 11 for identifying the position of the eye 15 is shown in the column direction, and the information P1 to P12 for identifying the subpixel is shown in the row direction. The information that identifies the position of the eye 15 is referred to as an index or reference index. The first table shows whether each subpixel is a left subpixel or a right subpixel when the eye 15 is in each position. In FIG. 7, the left subpixel is indicated by "left" and the right subpixel is indicated by "right". As described with reference to FIG. 6, when the intereye distance E is the standard distance E0, when the left eye 15L is in the position indicated by “0”, the right eye 15R is in the position indicated by “0”. In this case, in the example shown in FIG. 7, it is shown that the subpixels P1 to P6 are the left subpixels and the subpixels P7 to P12 are the right subpixels. When the left eye 15L is in the position indicated by "1", the right eye 15R is in the position indicated by "1". In this case, it is shown that the subpixels P2 to P7 are the left subpixels, and P1 and P8 to P12 are the right subpixels. The control unit 7 selects any of the indexes 0 to 11. The control unit 7 defines the arrangement of the left-eye image and the right-eye image to be displayed on the display surface of the display panel 5 based on the information P1 to P12 that identify the subpixels corresponding to the selected index.

制御部7は、検出部2または位置取得部3によって検出された左眼15Lの位置または右眼15Rの位置、および第1テーブルに記憶されているインデックスに基づいて、第1画像と第2画像とを合成し、視差画像を生成する。制御部7は、左眼15Lの位置または右眼15Rの位置、およびインデックスに基づいて、表示パネル5の表示面に表示する第1画像および第2画像の並びを調整してよい。これにより、眼間距離Eが標準距離E0である利用者は、3次元画像を適切に視認しうる。 The control unit 7 has a first image and a second image based on the position of the left eye 15L or the position of the right eye 15R detected by the detection unit 2 or the position acquisition unit 3, and the index stored in the first table. And are combined to generate a parallax image. The control unit 7 may adjust the arrangement of the first image and the second image displayed on the display surface of the display panel 5 based on the position of the left eye 15L or the position of the right eye 15R and the index. As a result, the user whose inter-eye distance E is the standard distance E0 can appropriately visually recognize the three-dimensional image.

利用者の眼15の位置は、第1方向(水平方向)において移動しうる。制御部7が、インデックスを第1テーブルに記憶されたインデックス0~11のいずれかに固定し、固定されたインデックスに基づいて、視差画像を生成する場合、利用者が視認する3次元画像にクロストークが発生することがある。 The position of the user's eyes 15 can move in the first direction (horizontal direction). When the control unit 7 fixes the index to any of the indexes 0 to 11 stored in the first table and generates a parallax image based on the fixed index, it crosses the three-dimensional image visually recognized by the user. Talk may occur.

本実施形態の3次元表示装置1は、制御部7がインデックスを調整するように構成されている。制御部7は、インデックスの調整を行う場合、インデックス調整用の視差画像を生成し、生成したインデックス調整用の視差画像を表示パネルに表示させる。インデックス調整用の視差画像は、基準画像とも称される。 The three-dimensional display device 1 of the present embodiment is configured such that the control unit 7 adjusts the index. When adjusting the index, the control unit 7 generates a parallax image for index adjustment and displays the generated parallax image for index adjustment on the display panel. The parallax image for index adjustment is also referred to as a reference image.

基準画像は、互いに異なる第1画像および第2画像を合成した画像である。基準画像を構成する第1画像および第2画像は、色が互いに異なる単色画像であってよい。基準画像を構成する第1画像および第2画像は、一方(第1画像)が黒色画像であり、他方(第2画像)が白色画像であってよい。この場合、基準画像は、図8に示すような、白色領域と黒色領域とが交互に周期的に並ぶ縞画像となる。基準画像は、可視光画像であってよいし、赤外光画像であってよい。可視光画像は、白黒の縞画像であってよいし、カラーの縞画像であってよい。赤外光画像は、画像光の波長が互いに異なる第1画像と第2画像とを合成した縞画像であってよい。 The reference image is an image obtained by synthesizing a first image and a second image that are different from each other. The first image and the second image constituting the reference image may be monochromatic images having different colors from each other. One of the first image and the second image constituting the reference image may be a black image and the other (second image) may be a white image. In this case, the reference image is a striped image in which white regions and black regions are alternately and periodically arranged, as shown in FIG. The reference image may be a visible light image or an infrared light image. The visible light image may be a black-and-white striped image or a color striped image. The infrared light image may be a fringe image obtained by synthesizing a first image and a second image having different wavelengths of image light.

制御部7は、所定のインデックスに基づいて、互いに異なる第1画像および第2画像を合成し、基準画像を生成する。所定のインデックスは、第1テーブルに記憶されているインデックス0~11のいずれかであってよい。基準画像は、右眼15Rが第1テーブルにおける「0」で示す位置にあると仮定して合成した画像であってよいし、左眼15Lおよび右眼15Rの両方が第1テーブルにおける「0」で示す位置にあると仮定して合成した画像であってよい。所定のインデックスに基づいて生成された基準画像は、第1基準画像14とも称される。制御部7は、生成した第1基準画像14を表示パネル5に表示させる。図8は、表示パネル5に表示された基準画像を奥行方向から見た例を示している。表示パネル5に表示された第1基準画像14は、バリア部6および光学素子等を介して、利用者の左眼15Lおよび右眼15Rに伝播される。第1基準画像14は、利用者の顔に投影される。 The control unit 7 synthesizes a first image and a second image different from each other based on a predetermined index to generate a reference image. The predetermined index may be any of indexes 0 to 11 stored in the first table. The reference image may be a composite image assuming that the right eye 15R is in the position indicated by "0" in the first table, and both the left eye 15L and the right eye 15R are "0" in the first table. The image may be a composite image assuming that it is in the position indicated by. The reference image generated based on the predetermined index is also referred to as the first reference image 14. The control unit 7 displays the generated first reference image 14 on the display panel 5. FIG. 8 shows an example of the reference image displayed on the display panel 5 viewed from the depth direction. The first reference image 14 displayed on the display panel 5 is propagated to the user's left eye 15L and right eye 15R via the barrier portion 6 and the optical element. The first reference image 14 is projected on the user's face.

制御部7は、検出部2を制御し、第1基準画像14が投影されている利用者の顔を撮像させる。図9は、検出部2によって撮像された画像の一例を示す図である。以下、検出部2によって撮像された画像は、第1検出画像12とも称される。図9は、図8に示す第1基準画像14を用いる場合の第1検出画像12の一例を示している。図9に示すように、第1検出画像12は、利用者の左眼15Lおよび右眼15Rならびに利用者の顔に投影された第1基準画像14を含む。利用者の顔に投影された第1基準画像14は、例えば図9に示すように、第1検出画像12における縞状パターンを形成しうる。縞状パターンは、濃淡パターンとも称される。 The control unit 7 controls the detection unit 2 to capture the face of the user on which the first reference image 14 is projected. FIG. 9 is a diagram showing an example of an image captured by the detection unit 2. Hereinafter, the image captured by the detection unit 2 is also referred to as the first detection image 12. FIG. 9 shows an example of the first detected image 12 when the first reference image 14 shown in FIG. 8 is used. As shown in FIG. 9, the first detected image 12 includes the user's left eye 15L and right eye 15R, and the first reference image 14 projected on the user's face. The first reference image 14 projected on the user's face can form a striped pattern in the first detected image 12, for example, as shown in FIG. The striped pattern is also referred to as a shading pattern.

以下、3次元表示装置1が第1検出画像12に基づいて行うインデックスの調整について説明する。検出部2は、左眼15Lの位置および右眼15Rの位置の少なくとも一方と、濃淡パターンの位置とを検出する。以下では、検出部2が右眼15Rの位置を検出するものとする。濃淡パターンの位置とは、濃淡パターンの輝度値分布であってよい。濃淡パターンは、高輝度領域12aと低輝度領域12bとを含む。高輝度領域12aは、濃淡パターンにおける明るさが明るい帯状領域であり、低輝度領域12bは、濃淡パターンにおける明るさが暗い帯状領域である。 Hereinafter, the index adjustment performed by the three-dimensional display device 1 based on the first detected image 12 will be described. The detection unit 2 detects at least one of the position of the left eye 15L and the position of the right eye 15R, and the position of the shading pattern. In the following, it is assumed that the detection unit 2 detects the position of the right eye 15R. The position of the shading pattern may be the luminance value distribution of the shading pattern. The shading pattern includes a high-luminance region 12a and a low-luminance region 12b. The high-luminance region 12a is a band-shaped region where the brightness in the shade pattern is bright, and the low-luminance region 12b is a band-shaped region where the brightness in the shade pattern is dark.

第1基準画像14が利用者の眼15の位置に応じた適切なインデックスに基づいて生成されている場合、第1検出画像12において、高輝度領域12aと右眼15Rとが重なる。高輝度領域12aと右眼15Rとが重ならないことは、第1基準画像14を生成するために用いたインデックスが、利用者の眼15の実際の位置に応じた適切なインデックスでないことを意味する。 When the first reference image 14 is generated based on an appropriate index according to the position of the user's eye 15, the high-luminance region 12a and the right eye 15R overlap in the first detection image 12. The fact that the high-luminance region 12a and the right eye 15R do not overlap means that the index used to generate the first reference image 14 is not an appropriate index according to the actual position of the user's eye 15. ..

制御部7は、第1検出画像12に基づいて、インデックスの調整を行う。以下では、第1基準画像14を生成するために用いられたインデックスが「0」であったとする。 The control unit 7 adjusts the index based on the first detected image 12. In the following, it is assumed that the index used to generate the first reference image 14 is “0”.

制御部7は、第1方向(水平方向)における右眼15Rの位置と高輝度領域12aの位置とのずれ量Ddをインデックスのずれ量として検出する。高輝度領域12aの位置とは、第1方向において輝度値が最も高くなる、高輝度領域12a内の位置であってよい。例えば、第1方向における右眼15Rの位置と高輝度領域12aの位置とのずれ量Ddがサブピクセル3個分である場合、インデックスのずれ量は「+3」となり、制御部7は、インデックスを「0」から「3」に変更する。第1方向における右眼15Rの位置と高輝度領域12aの位置とのずれ量Ddがサブピクセル6個分である場合、インデックスの変化量は「+6」となり、制御部7は、インデックスを「0」から「6」に変更する。このようにして、制御部7は、第1基準画像14が投影されている利用者の顔の像に基づいて、インデックスを調整することができる。 The control unit 7 detects the deviation amount Dd between the position of the right eye 15R and the position of the high-luminance region 12a in the first direction (horizontal direction) as the deviation amount of the index. The position of the high-luminance region 12a may be a position within the high-luminance region 12a where the luminance value is highest in the first direction. For example, when the deviation amount Dd between the position of the right eye 15R and the position of the high-luminance region 12a in the first direction is three subpixels, the deviation amount of the index is “+3”, and the control unit 7 sets the index. Change from "0" to "3". When the amount of deviation Dd between the position of the right eye 15R and the position of the high-luminance region 12a in the first direction is six subpixels, the amount of change in the index is "+6", and the control unit 7 sets the index to "0". To "6". In this way, the control unit 7 can adjust the index based on the image of the user's face on which the first reference image 14 is projected.

3次元表示装置1によれば、インデックスの調整が、第1基準画像14が投影されている利用者の顔の像に基づいて行われることから、利用者の主観的な判断を排除した調整を行うことができる。したがって、3次元表示装置1は、利用者に3次元画像を適切に視認させることができる。 According to the three-dimensional display device 1, since the index adjustment is performed based on the image of the user's face on which the first reference image 14 is projected, the adjustment excluding the user's subjective judgment is performed. It can be carried out. Therefore, the three-dimensional display device 1 can appropriately make the user visually recognize the three-dimensional image.

3次元表示装置1は、インデックスを調整するにあたって、利用者の判断を必要としない。したがって、3次元表示装置1によれば、利用者に煩わしさを感じさせることなく、インデックスの調整を複数回繰り返すことが可能になり、インデックスの調整精度を向上させることができる。 The three-dimensional display device 1 does not require the user's judgment in adjusting the index. Therefore, according to the three-dimensional display device 1, the index adjustment can be repeated a plurality of times without causing the user to feel annoyed, and the index adjustment accuracy can be improved.

制御部7は、第1方向における左眼15Lの位置と低輝度領域12bの位置とのずれ量に基づいて、インデックスを調整してよい。これにより、外部から到来する光の影響等により濃淡パターンにおける高輝度領域12aの判別が困難である場合であっても、第1基準画像14が投影されている利用者の顔の像に基づいて、インデックスを調整することができる。 The control unit 7 may adjust the index based on the amount of deviation between the position of the left eye 15L and the position of the low-luminance region 12b in the first direction. As a result, even when it is difficult to discriminate the high-luminance region 12a in the shading pattern due to the influence of light coming from the outside, etc., based on the image of the user's face on which the first reference image 14 is projected. , The index can be adjusted.

制御部7は、濃淡パターンにおける高輝度領域12aの判別が困難であると判断した場合、白色画像である左眼画像と黒色画像である右眼画像とを合成した基準画像を生成してよい。白色画像である左眼画像と黒色画像である右眼画像とを合成した基準画像は、反転基準画像とも称される。制御部7は、検出部2によって撮像された、反転基準画像を視認している利用者の顔の像に基づいて、インデックスを調整してよい。制御部7は、右眼15Rの位置と、利用者の顔に投影された反転基準画像に含まれる濃淡パターンの低輝度領域の位置とのずれ量に基づいて、インデックスを調整してよい。これにより、外部から到来する光の影響等により濃淡パターンの高輝度領域12aの判別が困難である場合であっても、反転基準画像が投影されている利用者の顔の像に基づいて、インデックスを調整することができる。 When the control unit 7 determines that it is difficult to discriminate the high-luminance region 12a in the shading pattern, the control unit 7 may generate a reference image in which the left eye image which is a white image and the right eye image which is a black image are combined. A reference image obtained by synthesizing a left eye image which is a white image and a right eye image which is a black image is also referred to as an inversion reference image. The control unit 7 may adjust the index based on the image of the face of the user who is visually recognizing the inversion reference image captured by the detection unit 2. The control unit 7 may adjust the index based on the amount of deviation between the position of the right eye 15R and the position of the low-luminance region of the shading pattern included in the inversion reference image projected on the user's face. As a result, even when it is difficult to discriminate the high-luminance region 12a of the shading pattern due to the influence of light coming from the outside, the index is based on the image of the user's face on which the inversion reference image is projected. Can be adjusted.

3次元表示装置1は、インデックスの調整を夜間に行うように構成されてよい。これにより、外部から到来する光の影響等によって、利用者の眼15の位置、または利用者の顔に投影された第1基準画像14が検出しにくくなる虞を低減できる。夜間は、例えば、日没から日の出までの時間帯であってよい。夜間は、時間帯によらず、周囲の明るさが暗い環境であってよい。 The three-dimensional display device 1 may be configured to adjust the index at night. As a result, it is possible to reduce the possibility that the position of the user's eye 15 or the first reference image 14 projected on the user's face becomes difficult to detect due to the influence of light coming from the outside. The night may be, for example, a time zone from sunset to sunrise. At night, the surrounding brightness may be dark regardless of the time of day.

3次元表示装置1は、上述のようにインデックスを調整した後に、インデックスの再調整を行うように構成されてよい。制御部7は、インデックスの再調整を行う際、調整したインデックスに基づいて、互いに異なる第1画像および第2画像を合成し、第2基準画像を生成する。制御部7は、第2基準画像を表示パネル5に表示させる。表示パネル5に表示された第2基準画像は、バリア部6および光学素子等を介して、利用者の左眼15Lおよび右眼15Rに伝播される。第2基準画像は、利用者の顔に投影される。制御部7は、検出部2を制御し、第2基準画像が投影されている利用者の顔を撮像させる。検出部2によって撮像される、第2基準画像が投影されている利用者の顔の像は、図9に示す第1検出画像12と同様であるが、利用者の眼15の位置および濃淡パターンの位置は、図9に示す第1検出画像12と異なってよい。3次元表示装置1がインデックスを再調整するために行う処理は、インデックスを調整するために行った処理と同様であるので、詳細な説明を省略する。 The three-dimensional display device 1 may be configured to readjust the index after adjusting the index as described above. When the index is readjusted, the control unit 7 synthesizes a first image and a second image different from each other based on the adjusted index to generate a second reference image. The control unit 7 displays the second reference image on the display panel 5. The second reference image displayed on the display panel 5 is propagated to the user's left eye 15L and right eye 15R via the barrier unit 6, the optical element, and the like. The second reference image is projected on the user's face. The control unit 7 controls the detection unit 2 to capture the face of the user on which the second reference image is projected. The image of the user's face on which the second reference image is projected, which is captured by the detection unit 2, is the same as that of the first detection image 12 shown in FIG. 9, but the position and shading pattern of the user's eyes 15 The position of may be different from that of the first detection image 12 shown in FIG. Since the process performed by the three-dimensional display device 1 for readjusting the index is the same as the process performed for adjusting the index, detailed description thereof will be omitted.

3次元表示装置1は、インデックスの再調整を行うことから、インデックスの調整精度を向上させることができる。したがって、3次元表示装置1は、利用者に3次元画像を適切に視認させることができる。3次元表示装置1によれば、インデックスの調整を複数回繰り返すことが可能になり、インデックスの調整精度を向上させることができる。 Since the three-dimensional display device 1 readjusts the index, the accuracy of index adjustment can be improved. Therefore, the three-dimensional display device 1 can appropriately make the user visually recognize the three-dimensional image. According to the three-dimensional display device 1, the index adjustment can be repeated a plurality of times, and the index adjustment accuracy can be improved.

3次元表示装置1は、インデックスの調整を行っている時だけ基準画像を表示すればよい。3次元表示装置1は、インデックスの調整を行っていない時、3次元表示装置1を搭載した車両、船舶、航空機等の移動体に関する各種情報を表示してよい。3次元表示装置1は、各種情報を示す連続画像のフレーム間に基準画像を表示させ、該基準画像が投影された利用者の顔を検出部2に撮像させてもよい。これにより、3次元表示装置1は、移動体に関する各種情報を表示させながら、インデックスの調整を繰り返して行うことができる。その結果、3次元表示装置1は、利用者の眼15の位置に応じた適切なインデックスを常に使用できるため、利用者に3次元画像を適切に視認させることができる。 The three-dimensional display device 1 may display the reference image only when the index is being adjusted. When the index is not adjusted, the three-dimensional display device 1 may display various information about a moving body such as a vehicle, a ship, or an aircraft equipped with the three-dimensional display device 1. The three-dimensional display device 1 may display a reference image between frames of continuous images showing various information, and have the detection unit 2 capture the face of the user on which the reference image is projected. As a result, the three-dimensional display device 1 can repeatedly adjust the index while displaying various information about the moving body. As a result, the three-dimensional display device 1 can always use an appropriate index according to the position of the user's eye 15, so that the user can appropriately visually recognize the three-dimensional image.

3次元表示装置1では、検出部2が左眼15Lの位置および右眼15Rの位置の少なくとも一方と濃淡パターンの位置とを検出しているが、検出部2は、左眼15Lの位置および右眼15Rの位置の少なくとも一方と濃淡パターンの位置とを検出しなくてよい。この場合、3次元表示装置1は、位置取得部3が、左眼15Lの位置および右眼15Rの位置の少なくとも一方と濃淡パターンの位置とを検出するように構成されてよい。 In the three-dimensional display device 1, the detection unit 2 detects at least one of the position of the left eye 15L and the position of the right eye 15R and the position of the shading pattern, but the detection unit 2 detects the position of the left eye 15L and the right. It is not necessary to detect at least one of the positions of the eye 15R and the position of the shading pattern. In this case, the three-dimensional display device 1 may be configured such that the position acquisition unit 3 detects at least one of the position of the left eye 15L and the position of the right eye 15R and the position of the shading pattern.

表示パネル5は、インデックスが互いに異なる複数の表示領域をアクティブエリア51内に有してよい。制御部7は、アクティブエリア51の中央部に位置する表示領域のインデックスを上述のように調整し、該表示領域のインデックスと同期して、他の表示領域のインデックスを調整してよい。 The display panel 5 may have a plurality of display areas having different indexes in the active area 51. The control unit 7 may adjust the index of the display area located in the central portion of the active area 51 as described above, and adjust the index of another display area in synchronization with the index of the display area.

3次元表示装置1は、第1検出画像12を補正し、補正された第1検出画像12に基づいて、インデックスを調整するように構成されてよい。第1検出画像12の補正は、利用者の顔の反射率に基づいて行われてよい。以下、第1検出画像12の補正、および、補正された第1検出画像12を用いたインデックスの調整について説明する。 The three-dimensional display device 1 may be configured to correct the first detected image 12 and adjust the index based on the corrected first detected image 12. The correction of the first detected image 12 may be performed based on the reflectance of the user's face. Hereinafter, the correction of the first detected image 12 and the adjustment of the index using the corrected first detected image 12 will be described.

制御部7は、第1基準画像14を表示パネル5に表示させるより前の時点において、試験画像を表示パネル5に表示させる。試験画像は、単色画像であってよい。単色画像は、白色画像であってよい。試験画像は、例えば、白色の第1画像と白色の第2画像とを合成することによって生成されてよい。制御部7は、第1基準画像14を生成する前に試験画像を表示パネル5に表示させてよいし、第1基準画像14を生成した後に試験画像を表示パネル5に表示させてよい。 The control unit 7 causes the display panel 5 to display the test image at a time point before the first reference image 14 is displayed on the display panel 5. The test image may be a monochromatic image. The monochromatic image may be a white image. The test image may be generated, for example, by synthesizing a white first image and a white second image. The control unit 7 may display the test image on the display panel 5 before generating the first reference image 14, or may display the test image on the display panel 5 after generating the first reference image 14.

制御部7は、検出部2に試験画像が投影されている利用者の顔の像を撮像させる。検出部2は、撮像して得られた反射率測定用画像(以下、単に、測定用画像ともいう)に基づいて、利用者の顔の反射率を測定する。利用者の顔の反射率は、表示パネル5に表示された試験画像の輝度値と、測定用画像の各画素の輝度値とに基づいて、測定用画像の画素毎に測定することができる。検出部2は、測定用画像に基づいて、左眼15Lの位置および右眼15Rの位置の少なくとも一方を検出する。以下では、検出部2が右眼15Rの位置を検出するものとする。 The control unit 7 causes the detection unit 2 to capture an image of the user's face on which the test image is projected. The detection unit 2 measures the reflectance of the user's face based on the reflectance measurement image (hereinafter, also simply referred to as a measurement image) obtained by imaging. The reflectance of the user's face can be measured for each pixel of the measurement image based on the luminance value of the test image displayed on the display panel 5 and the luminance value of each pixel of the measurement image. The detection unit 2 detects at least one of the position of the left eye 15L and the position of the right eye 15R based on the measurement image. In the following, it is assumed that the detection unit 2 detects the position of the right eye 15R.

制御部7は、検出部2が利用者の顔の反射率および右眼15Rの位置を検出した後、表示パネル5に第1基準画像14を表示させる。制御部7は、検出部2に第1基準画像14が投影されている利用者の顔を撮像させ、第1検出画像12を得る。制御部7は、第1検出画像12における各画素の輝度値を、測定用画像から測定された該画素の反射率で除算して、第1検出画像12を補正する。 The control unit 7 causes the display panel 5 to display the first reference image 14 after the detection unit 2 detects the reflectance of the user's face and the position of the right eye 15R. The control unit 7 causes the detection unit 2 to image the face of the user on which the first reference image 14 is projected, and obtains the first detection image 12. The control unit 7 corrects the first detected image 12 by dividing the luminance value of each pixel in the first detected image 12 by the reflectance of the pixel measured from the measurement image.

補正された第1検出画像12は、利用者の顔の反射率の影響が低減された画像である。補正された第1検出画像12は、実質的に、利用者の顔を含まず、濃淡パターンのみを含む画像でありうる。検出部2は、補正された第1検出画像12に基づいて、濃淡パターンの高輝度領域12aの位置を検出する。補正された第2検出画像13は利用者の顔の反射率の影響が低減された画像であるため、高輝度領域12aの位置を補正された第2検出画像13から検出することで、高輝度領域12aの位置を精度よく検出することができる。 The corrected first detection image 12 is an image in which the influence of the reflectance of the user's face is reduced. The corrected first detection image 12 may be an image that does not substantially include the user's face and contains only the shading pattern. The detection unit 2 detects the position of the high-luminance region 12a of the shading pattern based on the corrected first detection image 12. Since the corrected second detection image 13 is an image in which the influence of the reflectance of the user's face is reduced, the position of the high-luminance region 12a is detected from the corrected second detection image 13 to obtain high brightness. The position of the region 12a can be detected with high accuracy.

インデックスの調整を行うためには、第1方向(x軸方向)における右眼15Rの位置と高輝度領域12aの位置とのずれ量Ddが、サブピクセルの何個分に相当するかを決定する必要がある。右眼15Rの位置および高輝度領域12aの位置は、検出部2が備えるカメラの原点を基準とする座標で表現されているため、上記決定を行うためには、先ず、右眼15Rの座標および高輝度領域12aの座標を、表示パネル5の原点を基準とする座標に変換する必要がある。該座標変換は、原点補正とも称される。図10は、原点補正を説明するための図である。表示パネル5の原点O5は、高輝度領域12aに位置している。カメラの原点O2は、図10中に示す位置にあるとする。制御部7は、原点O2を基準とする右眼15Rの座標および高輝度領域12aの座標(「x」と総称する)を、原点O5を基準とする座標x+xd-xeに変換する。ここで、xdは、x軸方向における右眼15Rと高輝度領域12aとの距離であり、xeは、原点O2を基準とする右眼15Rのx座標である。制御部7は、上記の原点補正を利用して、ずれ量Ddがサブピクセルの何個分に相当するかを決定し、該決定に基づいて、インデックスを調整する。 In order to adjust the index, it is determined how many sub-pixels the deviation amount Dd between the position of the right eye 15R and the position of the high-luminance region 12a in the first direction (x-axis direction) corresponds to. There is a need. Since the position of the right eye 15R and the position of the high-luminance region 12a are represented by the coordinates with respect to the origin of the camera included in the detection unit 2, in order to make the above determination, first, the coordinates of the right eye 15R and the position are expressed. It is necessary to convert the coordinates of the high-luminance region 12a into the coordinates with respect to the origin of the display panel 5. The coordinate transformation is also referred to as origin correction. FIG. 10 is a diagram for explaining origin correction. The origin O5 of the display panel 5 is located in the high luminance region 12a. It is assumed that the origin O2 of the camera is at the position shown in FIG. The control unit 7 converts the coordinates of the right eye 15R with respect to the origin O2 and the coordinates of the high-luminance region 12a (collectively referred to as “x”) into the coordinates x + xd-xe with respect to the origin O5. Here, xd is the distance between the right eye 15R and the high-luminance region 12a in the x-axis direction, and xe is the x-coordinate of the right eye 15R with respect to the origin O2. The control unit 7 determines how many sub-pixels the deviation amount Dd corresponds to by using the above-mentioned origin correction, and adjusts the index based on the determination.

上記構成の3次元表示装置1によれば、測定用画像から右眼15Rの位置を検出し、補正された第1検出画像12から高輝度領域12aの位置を検出するため、右眼15Rの位置および高輝度領域12aの位置を精度よく検出することができる。その結果、インデックスを精度よく調整することができる。 According to the three-dimensional display device 1 having the above configuration, the position of the right eye 15R is detected from the measurement image, and the position of the high-luminance region 12a is detected from the corrected first detection image 12. And the position of the high-luminance region 12a can be detected accurately. As a result, the index can be adjusted accurately.

制御部7は、測定用画像に基づいて、左眼15Lの位置を検出してよい。制御部7は、第1方向における、測定用画像から検出した左眼15Lの位置と、補正された第1検出画像12から検出した低輝度領域12bの位置とのずれ量に基づいて、インデックスを調整してよい。 The control unit 7 may detect the position of the left eye 15L based on the measurement image. The control unit 7 calculates an index based on the amount of deviation between the position of the left eye 15L detected from the measurement image and the position of the low-luminance region 12b detected from the corrected first detection image 12 in the first direction. You may adjust.

制御部7は、第1基準画像14の代わりに、反転基準画像を表示パネル5に表示させてよい。制御部7は、検出部2に反転基準画像が投影されている利用者の顔を撮像させ、検出画像を得てよい。制御部7は、検出画像を利用者の顔の反射率を用いて補正し、補正された検出画像に基づいて、右眼の位置と低輝度領域の位置とを検出してよい。制御部7は、第1方向における右眼の位置と低輝度領域の位置とのずれ量に基づいて、インデックスを調整してよい。これにより、外部から到来する光の影響等により濃淡パターンの高輝度領域の判別が困難である場合であっても、反転基準画像が投影されている利用者の顔の像に基づいて、インデックスを調整することができる。 The control unit 7 may display the inversion reference image on the display panel 5 instead of the first reference image 14. The control unit 7 may have the detection unit 2 capture an image of the user's face on which the inversion reference image is projected to obtain a detection image. The control unit 7 may correct the detected image using the reflectance of the user's face, and detect the position of the right eye and the position of the low-luminance region based on the corrected detected image. The control unit 7 may adjust the index based on the amount of deviation between the position of the right eye and the position of the low-luminance region in the first direction. As a result, even when it is difficult to discriminate the high-luminance region of the shading pattern due to the influence of light coming from the outside, the index is indexed based on the image of the user's face on which the inversion reference image is projected. Can be adjusted.

制御部7は、第1基準画像14を生成する前に試験画像を表示パネル5に表示させる場合、利用者の顔の反射率に基づいて、第1画像および第2画像の少なくとも一方の色または輝度を変更してよい。これにより、眼15の位置および濃淡パターンを精度よく検出することが可能となる。 When the control unit 7 displays the test image on the display panel 5 before generating the first reference image 14, at least one color of the first image and the second image or based on the reflectance of the user's face You may change the brightness. This makes it possible to accurately detect the position of the eye 15 and the shading pattern.

図11は、インデックスを調整するための処理の一例を説明するフローチャートである。制御部7は、本フローチャートを開始すると、ステップS1において、試験画像を表示パネル5に表示させ、試験画像が投影されている利用者の顔の像(測定用画像)を検出部2に撮像させる。ステップS2において、制御部7は、測定用画像に基づいて、右眼15Rの位置を検出する。ステップS3において、制御部7は、測定用画像に基づいて、利用者の顔の反射率を測定する。ステップS4において、制御部7は、第1基準画像14を表示パネル5に表示させ、第1基準画像14が投影されている利用者の顔の像(第1検出画像12)を検出部2に撮像させる。ステップS5において、制御部7は、利用者の顔の反射率を用いて第1検出画像12を補正し、補正された第1検出画像12を得る。ステップS6において、制御部7は、補正された第1検出画像12に基づいて、高輝度領域12aの位置を検出する。ステップS7において、制御部7は、ステップS2で検出した右眼15Rの位置と、ステップS6で検出した高輝度領域12aの位置とに基づいて、原点補正を行う。ステップS8において、制御部7は、表示パネル5の原点O5を基準とするずれ量Ddに基づいて、インデックスを調整し、本フローチャートを終了する。 FIG. 11 is a flowchart illustrating an example of a process for adjusting the index. When the control unit 7 starts this flowchart, in step S1, the test image is displayed on the display panel 5, and the detection unit 2 is made to capture an image of the user's face (measurement image) on which the test image is projected. .. In step S2, the control unit 7 detects the position of the right eye 15R based on the measurement image. In step S3, the control unit 7 measures the reflectance of the user's face based on the measurement image. In step S4, the control unit 7 displays the first reference image 14 on the display panel 5, and causes the detection unit 2 to display the image of the user's face (first detection image 12) on which the first reference image 14 is projected. Have an image taken. In step S5, the control unit 7 corrects the first detected image 12 by using the reflectance of the user's face, and obtains the corrected first detected image 12. In step S6, the control unit 7 detects the position of the high-luminance region 12a based on the corrected first detection image 12. In step S7, the control unit 7 corrects the origin based on the position of the right eye 15R detected in step S2 and the position of the high-luminance region 12a detected in step S6. In step S8, the control unit 7 adjusts the index based on the deviation amount Dd with respect to the origin O5 of the display panel 5, and ends this flowchart.

3次元表示装置1は、インデックスの再調整を行う際、第2基準画像が投影されている、検出部2によって撮像された利用者の顔の像を、利用者の顔の反射率を用いて補正し、補正された像に基づいて、インデックスを再調整してよい。 When the index is readjusted, the three-dimensional display device 1 uses the reflectance of the user's face to capture the image of the user's face captured by the detection unit 2 on which the second reference image is projected. It may be corrected and the index may be readjusted based on the corrected image.

(眼間距離の補正)
利用者の眼間距離E1が標準距離E0とは異なる場合、例えば図12に示すように左可視領域51aLの一部が右可視領域51aRの一部と重なった両眼可視領域51aLRが存在することがある。したがって、左可視領域51aLに基づいて左眼画像を表示させるべきと判定された左サブピクセル(第1サブピクセル)であって、右可視領域51aRに基づいて右眼画像を表示させるべきと判定された右サブピクセル(第2サブピクセル)であるサブピクセルが存在することがある。左サブピクセルは、例えば、左可視領域51aLに所定割合(例えば、半分)以上が含まれるサブピクセルである。右サブピクセルは、例えば、右可視領域51aRに所定割合以上が含まれるサブピクセルである。
(Correction of inter-eye distance)
When the inter-eye distance E1 of the user is different from the standard distance E0, for example, as shown in FIG. 12, there is a binocular visible region 51aLR in which a part of the left visible region 51aL overlaps with a part of the right visible region 51aR. There is. Therefore, it is determined that the left subpixel (first subpixel) that is determined to display the left eye image based on the left visible region 51aL and that the right eye image should be displayed based on the right visible region 51aR. There may be subpixels that are the right subpixel (second subpixel). The left subpixel is, for example, a subpixel in which a predetermined ratio (for example, half) or more is included in the left visible region 51aL. The right subpixel is, for example, a subpixel in which a predetermined ratio or more is included in the right visible region 51aR.

左サブピクセルであって右ピクセルであるサブピクセルに右眼画像が表示されると、左眼15Lが視認する右眼画像が増加する。左サブピクセルであって右ピクセルであるサブピクセルに左眼画像が表示されると、右眼15Rが視認する左眼画像が増加する。そのため、重なったサブピクセルに左眼画像および右眼画像のいずれを表示させても、クロストークが増加することがある。制御部7は、標準距離E0と異なる眼間距離E1を有する利用者が、標準距離E0に基づいて構成された3次元表示装置1が表示する3次元画像を視認したときに発生するクロストークを低減すべく、眼間距離の補正を行ってよい。 When the right eye image is displayed in the subpixel which is the left subpixel and is the right pixel, the right eye image visually recognized by the left eye 15L increases. When the left eye image is displayed in the subpixel which is the left subpixel and is the right pixel, the left eye image visually recognized by the right eye 15R increases. Therefore, crosstalk may increase regardless of whether the left-eye image or the right-eye image is displayed on the overlapping subpixels. The control unit 7 causes a cross talk generated when a user having an intereye distance E1 different from the standard distance E0 visually recognizes a three-dimensional image displayed by the three-dimensional display device 1 configured based on the standard distance E0. In order to reduce the distance, the distance between the eyes may be corrected.

制御部7は、眼間距離の補正を行う場合、眼間距離補正用の視差画像を生成し、生成した視差画像を表示パネルに表示させる。眼間距離補正用の視差画像は、所定のインデックスに基づいて合成された第1基準画像14であってよいし、調整したインデックスに基づいて合成された第2基準画像であってよい。眼間距離補正用の視差画像は、第1基準画像および第2基準画像とは異なる画像であってよい。以下では、眼間距離補正用の視差画像が第1基準画像14であるとする。 When correcting the interocular distance, the control unit 7 generates a parallax image for correcting the interocular distance and displays the generated parallax image on the display panel. The parallax image for interocular distance correction may be a first reference image 14 synthesized based on a predetermined index, or may be a second reference image synthesized based on the adjusted index. The parallax image for interocular distance correction may be an image different from the first reference image and the second reference image. In the following, it is assumed that the parallax image for correcting the interocular distance is the first reference image 14.

制御部7は、第1基準画像14を表示パネル5に表示させる。表示パネル5に表示された第1基準画像14は、バリア部6および光学素子等を介して、利用者の左眼15Lおよび右眼15Rに伝播される。第1基準画像14は、利用者の顔に投影される。 The control unit 7 displays the first reference image 14 on the display panel 5. The first reference image 14 displayed on the display panel 5 is propagated to the user's left eye 15L and right eye 15R via the barrier portion 6 and the optical element. The first reference image 14 is projected on the user's face.

制御部7は、検出部2を制御し、第1基準画像14が投影されている利用者の顔を撮像させる。図13は、検出部2によって撮像された画像の一例を示す図である。検出部2によって撮像された画像は、第2検出画像13とも称される。図13に示すように、第2検出画像13は、利用者の左眼15Lおよび右眼15Rならびに利用者の顔に投影された第1基準画像14を含む。利用者の顔に投影された第1基準画像14は、例えば図13に示すように、第2検出画像13における縞状パターンを形成しうる。縞状パターンは、濃淡パターンとも称される。 The control unit 7 controls the detection unit 2 to capture the face of the user on which the first reference image 14 is projected. FIG. 13 is a diagram showing an example of an image captured by the detection unit 2. The image captured by the detection unit 2 is also referred to as a second detection image 13. As shown in FIG. 13, the second detected image 13 includes the user's left eye 15L and right eye 15R, and the first reference image 14 projected on the user's face. The first reference image 14 projected on the user's face can form a striped pattern in the second detected image 13, for example, as shown in FIG. The striped pattern is also referred to as a shading pattern.

以下、3次元表示装置1が第2検出画像13に基づいて行う眼間距離の補正について説明する。検出部2は、左眼15Lの位置および右眼15Rの位置と、濃淡パターンの位置とを検出する。濃淡パターンの位置とは、濃淡パターンの輝度値分布であってよい。濃淡パターンは、高輝度領域13aと低輝度領域13bとを含む。高輝度領域13aは、濃淡パターンにおける明るさが明るい帯状領域であり、低輝度領域13bは、濃淡パターンにおける明るさが暗い帯状領域である。 Hereinafter, the correction of the intereye distance performed by the three-dimensional display device 1 based on the second detected image 13 will be described. The detection unit 2 detects the position of the left eye 15L, the position of the right eye 15R, and the position of the shading pattern. The position of the shading pattern may be the luminance value distribution of the shading pattern. The shading pattern includes a high-luminance region 13a and a low-luminance region 13b. The high-luminance region 13a is a band-shaped region where the brightness in the shading pattern is bright, and the low-luminance region 13b is a band-shaped region where the brightness in the shading pattern is dark.

眼間距離の補正が行われていない3次元表示装置1は、標準距離E0に基づいて構成されている。したがって、利用者の眼間距離E1が標準距離E0である場合、第1方向(水平方向)における高輝度領域13aと低輝度領域13bとの距離が、水平方向における左眼15Lと右眼15Rとの距離に等しくなる。言い換えれば、利用者の眼間距離E1が標準距離E0である場合、隣り合う高輝度領域13a間の水平方向における距離が、水平方向における第1眼15Lと第2眼15Rとの距離の2倍になる。隣り合う高輝度領域13a間の水平方向における距離は、水平距離Dhとも称される。水平方向における第1眼15Lと第2眼15Rとの距離は、水平距離Deとも称される。水平距離Dhは、高輝度領域12aの位置に基づいて算出することができる。水平距離Deは、左眼15Lの位置および右眼15Rの位置に基づいて算出することができる。水平距離Dhが水平距離Deの2倍より大きい場合、利用者の眼間距離E1が標準距離E0より小さいと判断しうる。水平距離Dhが水平距離Deの2倍より小さい場合、利用者の眼間距離E1が標準距離E0より大きいと判断しうる。 The three-dimensional display device 1 in which the inter-eye distance correction is not performed is configured based on the standard distance E0. Therefore, when the inter-eye distance E1 of the user is the standard distance E0, the distance between the high brightness region 13a and the low brightness region 13b in the first direction (horizontal direction) is the left eye 15L and the right eye 15R in the horizontal direction. Is equal to the distance of. In other words, when the inter-eye distance E1 of the user is the standard distance E0, the horizontal distance between the adjacent high-brightness regions 13a is twice the distance between the first eye 15L and the second eye 15R in the horizontal direction. become. The horizontal distance between adjacent high-luminance regions 13a is also referred to as the horizontal distance Dh. The distance between the first eye 15L and the second eye 15R in the horizontal direction is also referred to as the horizontal distance De. The horizontal distance Dh can be calculated based on the position of the high-luminance region 12a. The horizontal distance De can be calculated based on the position of the left eye 15L and the position of the right eye 15R. When the horizontal distance Dh is larger than twice the horizontal distance De, it can be determined that the inter-eye distance E1 of the user is smaller than the standard distance E0. When the horizontal distance Dh is smaller than twice the horizontal distance De, it can be determined that the inter-eye distance E1 of the user is larger than the standard distance E0.

制御部7は、水平距離Dhおよび水平距離Deに基づいて、駆動部11を制御し、バリア部6を第3方向において移動させる。制御部7は、利用者の眼間距離E1が標準距離E0より大きいと判断した場合、例えば図14に示すように、バリア部6を第3方向に沿って移動させ、バリア部6とアクティブエリア51との距離を減少させる。これにより、左可視領域51aLに含まれるサブピクセルから射出される画像光を、眼間距離E1が標準距離E0より大きい利用者の左眼に伝播させ、右可視領域51aRに含まれるサブピクセルから射出される画像光を、眼間距離E1が標準距離E0より大きい利用者の右眼に伝播させることができる。 The control unit 7 controls the drive unit 11 based on the horizontal distance Dh and the horizontal distance De, and moves the barrier unit 6 in the third direction. When the control unit 7 determines that the inter-eye distance E1 of the user is larger than the standard distance E0, the control unit 7 moves the barrier unit 6 along the third direction, for example, as shown in FIG. 14, and the barrier unit 6 and the active area. Reduce the distance to 51. As a result, the image light emitted from the subpixel included in the left visible region 51aL is propagated to the left eye of the user whose intereye distance E1 is larger than the standard distance E0, and is emitted from the subpixel included in the right visible region 51aR. The resulting image light can be propagated to the right eye of the user whose intereye distance E1 is larger than the standard distance E0.

制御部7は、利用者の眼間距離E1が標準距離E0より小さいと判断した場合、バリア部6を第3方向に沿って移動させ、バリア部6とアクティブエリア51との距離を増加させる。これにより、左可視領域51aLに含まれるサブピクセルから射出される画像光を、眼間距離E1が標準距離より小さい利用者の左眼15Lに伝播させ、右可視領域51aRに含まれるサブピクセルから射出される画像光を、眼間距離E1が標準距離E0より小さい利用者の右眼15Rに伝播させることができる。 When the control unit 7 determines that the inter-eye distance E1 of the user is smaller than the standard distance E0, the control unit 7 moves the barrier unit 6 along the third direction to increase the distance between the barrier unit 6 and the active area 51. As a result, the image light emitted from the subpixel included in the left visible region 51aL is propagated to the left eye 15L of the user whose eye distance E1 is smaller than the standard distance, and is emitted from the subpixel included in the right visible region 51aR. The resulting image light can be propagated to the right eye 15R of the user whose intereye distance E1 is smaller than the standard distance E0.

3次元表示装置1によれば、眼間距離の補正が、第1基準画像が投影されている利用者の顔の像に基づいて行われることから、利用者の主観的な判断を排除した補正を行うことができる。したがって、3次元表示装置1は、利用者に3次元画像を適切に視認させることができる。 According to the three-dimensional display device 1, since the correction of the inter-eye distance is performed based on the image of the user's face on which the first reference image is projected, the correction excluding the subjective judgment of the user. It can be performed. Therefore, the three-dimensional display device 1 can appropriately make the user visually recognize the three-dimensional image.

メモリ8は、水平距離Dhと水平距離Deとの比率と、バリア部6の第3方向における移動量との関係が規定された眼間距離補正用のテーブルを記憶してよい。制御部7は、メモリ8に記憶された眼間距離補正用のテーブルを用いて、駆動部11を制御してよい。 The memory 8 may store a table for interocular distance correction in which the relationship between the ratio of the horizontal distance Dh and the horizontal distance De and the amount of movement of the barrier portion 6 in the third direction is defined. The control unit 7 may control the drive unit 11 by using the interocular distance correction table stored in the memory 8.

3次元表示装置1は、眼間距離を補正するにあたって、利用者の判断を必要としない。したがって、3次元表示装置1によれば、利用者に煩わしさを感じさせることなく、眼間距離の補正を複数回繰り返すことが可能になり、眼間距離の補正精度を向上させることができる。 The three-dimensional display device 1 does not require the user's judgment in correcting the intereye distance. Therefore, according to the three-dimensional display device 1, it is possible to repeat the correction of the inter-eye distance a plurality of times without causing the user to feel annoyed, and it is possible to improve the correction accuracy of the inter-eye distance.

3次元表示装置1は、第2検出画像13を補正し、補正された第2検出画像13に基づいて、眼間距離を補正するように構成されてよい。第2検出画像13の補正は、利用者の顔の反射率に基づいて行われてよい。以下、第2検出画像13の補正、および、補正された第2検出画像13を用いた眼間距離の補正について説明する。 The three-dimensional display device 1 may be configured to correct the second detected image 13 and correct the intereye distance based on the corrected second detected image 13. The correction of the second detected image 13 may be performed based on the reflectance of the user's face. Hereinafter, the correction of the second detected image 13 and the correction of the interocular distance using the corrected second detected image 13 will be described.

制御部7は、第1基準画像14を表示パネル5に表示させるより前の時点において、試験画像を表示パネル5に表示させる。試験画像は、単色画像であってよい。単色画像は、白色画像であってよい。試験画像は、例えば、白色の第1画像と白色の第2画像とを合成することによって生成されてよい。制御部7は、第1基準画像14を生成する前に試験画像を表示パネル5に表示させてよいし、第1基準画像14を生成した後に試験画像を表示パネル5に表示させてよい。 The control unit 7 causes the display panel 5 to display the test image at a time point before the first reference image 14 is displayed on the display panel 5. The test image may be a monochromatic image. The monochromatic image may be a white image. The test image may be generated, for example, by synthesizing a white first image and a white second image. The control unit 7 may display the test image on the display panel 5 before generating the first reference image 14, or may display the test image on the display panel 5 after generating the first reference image 14.

制御部7は、検出部2に試験画像が投影されている利用者の顔の像を撮像させて、測定用画像を得る。制御部7は、測定用画像に基づいて、利用者の顔の反射率を測定し、左眼15Lの位置および右眼15Rの位置を検出する。利用者の顔の反射率は、表示パネル5に表示された試験画像の輝度値と、測定用画像の各画素の輝度値とに基づいて、測定用画像の画素毎に測定することができる。制御部7は、インデックスの調整を行った際に測定した反射率をメモリ8に記憶させておき、メモリ8から読み出した反射率を用いてよいし、眼間距離の補正を行う際に、反射率を改めて測定してよい。制御部7は、左眼15Lの位置および右眼15Rの位置に基づいて、水平距離Deを算出する。 The control unit 7 has the detection unit 2 capture an image of the user's face on which the test image is projected to obtain an image for measurement. The control unit 7 measures the reflectance of the user's face based on the measurement image, and detects the position of the left eye 15L and the position of the right eye 15R. The reflectance of the user's face can be measured for each pixel of the measurement image based on the luminance value of the test image displayed on the display panel 5 and the luminance value of each pixel of the measurement image. The control unit 7 may store the reflectance measured when the index is adjusted in the memory 8 and use the reflectance read from the memory 8, or may use the reflectance when correcting the interocular distance. The rate may be measured again. The control unit 7 calculates the horizontal distance De based on the position of the left eye 15L and the position of the right eye 15R.

制御部7は、表示パネル5に第1基準画像14を表示させる。制御部7は、検出部2に第1基準画像14が投影されている利用者の顔を撮像させ、第2検出画像13を得る。制御部7は、第2検出画像13における各画素の輝度値を、測定用画像から測定された該画素の反射率で除算して、第2検出画像13を補正する。制御部7は、補正された第2検出画像13に基づいて、高輝度領域12aの位置を検出し、高輝度領域12aの位置に基づいて、水平距離Dhを算出する。以降の処理は、補正しない第2検出画像13を用いて眼間距離を補正する場合と同様であるので、詳細な説明を省略する。補正された第2検出画像13は、利用者の顔の反射率の影響が低減されているので、濃淡パターンが検出し易くなっている。このため、補正された第2検出画像13を用いることで、眼間距離を精度よく補正することが可能となる。 The control unit 7 causes the display panel 5 to display the first reference image 14. The control unit 7 causes the detection unit 2 to image the face of the user on which the first reference image 14 is projected, and obtains the second detection image 13. The control unit 7 corrects the second detected image 13 by dividing the luminance value of each pixel in the second detected image 13 by the reflectance of the pixel measured from the measurement image. The control unit 7 detects the position of the high-luminance region 12a based on the corrected second detection image 13, and calculates the horizontal distance Dh based on the position of the high-luminance region 12a. Since the subsequent processing is the same as the case where the interocular distance is corrected by using the second detected image 13 which is not corrected, detailed description thereof will be omitted. In the corrected second detection image 13, the influence of the reflectance of the user's face is reduced, so that the shading pattern can be easily detected. Therefore, by using the corrected second detection image 13, it is possible to accurately correct the inter-eye distance.

制御部7は、濃淡パターンにおける低輝度領域13bの判別が困難であると判断した場合、水平方向における隣り合う高輝度領域13a間の距離を水平距離Dhとしてよい。これにより、外部から到来する光の影響等により濃淡パターンにおける低輝度領域13bの判別が困難である場合であっても、第1基準画像が投影されている利用者の顔の像に基づいて、眼間距離を補正することができる。 When the control unit 7 determines that it is difficult to discriminate the low-luminance region 13b in the shading pattern, the distance between adjacent high-luminance regions 13a in the horizontal direction may be set as the horizontal distance Dh. As a result, even when it is difficult to discriminate the low-luminance region 13b in the shading pattern due to the influence of light coming from the outside, etc., based on the image of the user's face on which the first reference image is projected, The distance between the eyes can be corrected.

制御部7は、濃淡パターンにおける低輝度領域13bの判別が困難であると判断した場合、白色画像である左眼画像と黒色画像である右眼画像とを合成した基準画像を生成してよい。白色画像である左眼画像と黒色画像である右眼画像とを合成した基準画像は、反転基準画像とも称される。制御部7は、検出部2によって撮像された、反転基準画像を視認している利用者の顔の像に基づいて、眼間距離を補正してよい。制御部7は、水平方向における隣り合う高輝度領域間の距離と水平距離Deとに基づいて、眼間距離を補正してよい。これにより、外部から到来する光の影響等により濃淡パターンの低輝度領域13bの判別が困難である場合であっても、反転基準画像が投影されている利用者の顔の像に基づいて、眼間距離を補正することができる。 When the control unit 7 determines that it is difficult to discriminate the low-luminance region 13b in the shading pattern, the control unit 7 may generate a reference image in which the left eye image which is a white image and the right eye image which is a black image are combined. A reference image obtained by synthesizing a left eye image which is a white image and a right eye image which is a black image is also referred to as an inversion reference image. The control unit 7 may correct the intereye distance based on the image of the face of the user who is visually recognizing the inversion reference image captured by the detection unit 2. The control unit 7 may correct the inter-eye distance based on the distance between adjacent high-luminance regions in the horizontal direction and the horizontal distance De. As a result, even when it is difficult to discriminate the low-luminance region 13b of the shading pattern due to the influence of light coming from the outside, the eyes are based on the image of the user's face on which the inversion reference image is projected. The distance can be corrected.

3次元表示装置1は、眼間距離の補正を夜間に行うように構成されてよい。これにより、外部から到来する光の影響等によって、利用者の眼15の位置、または利用者の顔に投影された第1基準画像14が検出しにくくなる虞を低減できる。夜間は、例えば、日没から日の出までの時間帯であってよい。夜間は、時間帯によらず、周囲の明るさが暗い環境であってよい。 The three-dimensional display device 1 may be configured to correct the intereye distance at night. As a result, it is possible to reduce the possibility that the position of the user's eye 15 or the first reference image 14 projected on the user's face becomes difficult to detect due to the influence of light coming from the outside. The night may be, for example, a time zone from sunset to sunrise. At night, the surrounding brightness may be dark regardless of the time of day.

3次元表示装置1は、上述のように眼間距離を補正した後に、眼間距離の再補正を行うように構成されてよい。制御部7は、眼間距離の再補正を行う際、互いに異なる第1画像および第2画像を合成し、眼間距離再補正用の視差画像を生成する。制御部7は、生成した視差画像を表示パネルに表示させる。眼間距離再補正用の視差画像は、第1基準画像であってよいし、第2基準画像であってよいし、第1基準画像および第2基準画像とは異なる画像であってよい。以下では、眼間距離再補正用の視差画像が、第2基準画像であるとする。 The three-dimensional display device 1 may be configured to correct the inter-eye distance and then re-correct the inter-eye distance as described above. When re-correcting the inter-eye distance, the control unit 7 synthesizes a first image and a second image different from each other to generate a parallax image for re-correcting the inter-eye distance. The control unit 7 displays the generated parallax image on the display panel. The parallax image for re-correcting the interocular distance may be a first reference image, a second reference image, or an image different from the first reference image and the second reference image. In the following, it is assumed that the parallax image for re-correcting the interocular distance is the second reference image.

表示パネル5に表示された第2基準画像は、バリア部6および光学素子等を介して、利用者の左眼および右眼に伝播される。第2基準画像は、利用者の顔に投影される。制御部7は、検出部2を制御し、第2基準画像が投影されている利用者の顔を撮像させる。検出部2によって撮像される、第2基準画像が投影されている利用者の顔の像は、図13に示す第2検出画像13と同様であるが、利用者の眼15の位置および濃淡パターンの位置は、図13に示す第2検出画像13と異なってよい。3次元表示装置1が眼間距離を再補正するために行う処理は、眼間距離を補正するために行う上述の処理と同様であるので、詳細な説明を省略する。 The second reference image displayed on the display panel 5 is propagated to the left eye and the right eye of the user via the barrier unit 6, the optical element, and the like. The second reference image is projected on the user's face. The control unit 7 controls the detection unit 2 to capture the face of the user on which the second reference image is projected. The image of the user's face on which the second reference image is projected, which is captured by the detection unit 2, is the same as that of the second detection image 13 shown in FIG. 13, but the position and shading pattern of the user's eyes 15 The position of may be different from the second detection image 13 shown in FIG. Since the process performed by the three-dimensional display device 1 for re-correcting the inter-eye distance is the same as the above-mentioned process performed for correcting the inter-eye distance, detailed description thereof will be omitted.

3次元表示装置1は、眼間距離の再補正を行うことから、眼間距離の補正精度を向上させることができる。したがって、3次元表示装置1は、利用者に3次元画像を適切に視認させることができる。3次元表示装置1によれば、眼間距離の補正を複数回繰り返すことが可能になり、眼間距離の補正精度を向上させることができる。 Since the three-dimensional display device 1 re-corrects the inter-eye distance, the accuracy of correcting the inter-eye distance can be improved. Therefore, the three-dimensional display device 1 can appropriately make the user visually recognize the three-dimensional image. According to the three-dimensional display device 1, the correction of the inter-eye distance can be repeated a plurality of times, and the correction accuracy of the inter-eye distance can be improved.

3次元表示装置1は、眼間距離の補正を行っている時だけ基準画像を表示すればよい。3次元表示装置1は、眼間距離の補正を行っていない時、3次元表示装置1を搭載した車両、船舶、航空機等の移動体に関する各種情報を表示してよい。3次元表示装置1は、各種情報を示す連続画像のフレーム間に基準画像を表示させ、該基準画像が投影された利用者の顔を検出部2に撮像させてもよい。これにより、3次元表示装置1は、移動体に関する各種情報を表示させながら、眼間距離の補正を繰り返して行うことができる。その結果、3次元表示装置1は、利用者の眼間距離に応じた3次元画像を常に表示できるため、利用者に3次元画像を適切に視認させることができる。 The three-dimensional display device 1 may display the reference image only when the distance between the eyes is corrected. When the inter-eye distance is not corrected, the three-dimensional display device 1 may display various information about a moving body such as a vehicle, a ship, or an aircraft equipped with the three-dimensional display device 1. The three-dimensional display device 1 may display a reference image between frames of continuous images showing various information, and have the detection unit 2 capture the face of the user on which the reference image is projected. As a result, the three-dimensional display device 1 can repeatedly correct the inter-eye distance while displaying various information about the moving body. As a result, the three-dimensional display device 1 can always display a three-dimensional image according to the distance between the eyes of the user, so that the user can appropriately visually recognize the three-dimensional image.

3次元表示装置1では、検出部2が眼15の位置と濃淡パターンの位置とを検出しているが、検出部2は、眼15の位置と濃淡パターンの位置とを検出しなくてよい。この場合、3次元表示装置1は、制御部7が、眼15の位置と濃淡パターンの位置とを検出するように構成されてよいし、位置取得部3が、眼15の位置と濃淡パターンの位置とを検出し、制御部7に出力するように構成されてよい。 In the three-dimensional display device 1, the detection unit 2 detects the position of the eye 15 and the position of the shading pattern, but the detection unit 2 does not have to detect the position of the eye 15 and the position of the shading pattern. In this case, the three-dimensional display device 1 may be configured such that the control unit 7 detects the position of the eye 15 and the position of the shading pattern, and the position acquisition unit 3 may detect the position of the eye 15 and the shading pattern. It may be configured to detect the position and output it to the control unit 7.

3次元表示装置1は、眼間距離の再補正を行う場合、第2基準画像が投影されている、検出部2によって撮像された利用者の顔の像を、利用者の顔の反射率を用いて補正し、補正された像に基づいて、眼間距離を再補正してよい。 When the three-dimensional display device 1 re-corrects the inter-eye distance, the image of the user's face captured by the detection unit 2 on which the second reference image is projected is used to obtain the reflectance of the user's face. It may be corrected using and the interocular distance may be re-corrected based on the corrected image.

図15に示すように、3次元表示装置1は、ヘッドアップディスプレイ100に搭載されうる。ヘッドアップディスプレイ100は、HUD(Head Up Display)100とも称される。HUD100は、3次元表示装置1と、光学部材110と、被投影面130を有する被投影部材120とを備える。 As shown in FIG. 15, the three-dimensional display device 1 can be mounted on the head-up display 100. The head-up display 100 is also referred to as a HUD (Head Up Display) 100. The HUD 100 includes a three-dimensional display device 1, an optical member 110, and a projected member 120 having a projected surface 130.

HUD100は、3次元表示装置1から射出される画像光を、光学部材110を介して被投影部材120に到達させる。HUD100は、被投影部材120で反射させた画像光を、利用者の第1眼および第2眼に到達させる。言い換えれば、HUD100は、図15において破線で示される光路140に沿って、3次元表示装置1から利用者の第1眼および第2眼まで画像光を進行させる。利用者は、光路140に沿って到達した画像光を、虚像150として視認しうる。 The HUD 100 causes the image light emitted from the three-dimensional display device 1 to reach the projected member 120 via the optical member 110. The HUD 100 causes the image light reflected by the projected member 120 to reach the first eye and the second eye of the user. In other words, the HUD 100 advances the image light from the three-dimensional display device 1 to the first eye and the second eye of the user along the optical path 140 shown by the broken line in FIG. The user can visually recognize the image light that has reached along the optical path 140 as a virtual image 150.

HUD100は、3次元表示装置1のインデックスの調整が、第1基準画像が投影されている利用者の顔の像に基づいて行われることから、利用者の主観的な判断を排除した調整を行うことができる。したがって、HUD100は、利用者に3次元画像を適切に視認させることができる。HUD100は、インデックスを調整するにあたって、利用者の判断を必要としない。したがって、HUD100によれば、利用者に煩わしさを感じさせることなく、インデックスの調整を複数回繰り返すことが可能になり、インデックスの調整精度を向上させることができる。 Since the index of the three-dimensional display device 1 is adjusted based on the image of the user's face on which the first reference image is projected, the HUD100 makes adjustments excluding the user's subjective judgment. be able to. Therefore, the HUD100 can appropriately make the user visually recognize the three-dimensional image. The HUD100 does not require user judgment to adjust the index. Therefore, according to the HUD 100, the index adjustment can be repeated a plurality of times without causing the user to feel annoyed, and the index adjustment accuracy can be improved.

図16に示すように、3次元表示装置1を含むHUD100は、車両、船舶、航空機等の移動体10に搭載されてよい。HUD100は、構成の一部を、該移動体10が備える他の装置、部品と兼用してよい。例えば、移動体10は、ウインドシールドを被投影部材120として兼用してよい。構成の一部を該移動体10が備える他の装置、部品と兼用する場合、他の構成をHUDモジュールまたは3次元表示コンポーネントと呼びうる。HUD100は、移動体10に搭載されてよい。 As shown in FIG. 16, the HUD100 including the three-dimensional display device 1 may be mounted on a moving body 10 such as a vehicle, a ship, or an aircraft. The HUD 100 may use a part of the configuration as other devices and parts included in the moving body 10. For example, the moving body 10 may also use the windshield as the projected member 120. When a part of the configuration is also used as another device or component included in the moving body 10, the other configuration can be referred to as a HUD module or a three-dimensional display component. The HUD 100 may be mounted on the moving body 10.

移動体10は、3次元表示装置1のインデックスの調整が、第1基準画像が投影されている利用者の顔の像に基づいて行われることから、利用者の主観的な判断を排除した調整を行うことができる。したがって、移動体10は、利用者に3次元画像を適切に視認させることができる。移動体10は、インデックスを調整するにあたって、利用者の判断を必要としない。したがって、移動体10によれば、利用者に煩わしさを感じさせることなく、インデックスの調整を複数回繰り返すことが可能になり、インデックスの調整精度を向上させることができる。 Since the index of the three-dimensional display device 1 is adjusted based on the image of the user's face on which the first reference image is projected, the moving body 10 is adjusted excluding the subjective judgment of the user. It can be performed. Therefore, the moving body 10 can appropriately make the user visually recognize the three-dimensional image. The mobile body 10 does not require the user's judgment in adjusting the index. Therefore, according to the mobile body 10, the index adjustment can be repeated a plurality of times without causing the user to feel annoyed, and the index adjustment accuracy can be improved.

本開示における「車両」には、自動車および産業車両を含むが、これに限られず、鉄道車両および生活車両、滑走路を走行する固定翼機を含めてよい。自動車は、乗用車、トラック、バス、二輪車、およびトロリーバス等を含むがこれに限られず、道路上を走行する他の車両を含んでもよい。産業車両は、農業および建設向けの産業車両を含む。産業車両には、フォークリフト、およびゴルフカートを含むが、これに限られない。農業向けの産業車両には、トラクター、耕耘機、移植機、バインダー、コンバイン、および芝刈り機を含むが、これに限られない。建設向けの産業車両には、ブルドーザー、スクレーパー、ショベルカー、クレーン車、ダンプカー、およびロードローラを含むが、これに限られない。車両は、人力で走行するものを含む。なお、車両の分類は、上述に限られない。例えば、自動車には、道路を走行可能な産業車両を含んでよく、複数の分類に同じ車両が含まれてよい。本開示における船舶には、マリンジェット、ボート、タンカーを含む。本開示における航空機には、固定翼機、回転翼機を含む。 "Vehicles" in the present disclosure include, but are not limited to, automobiles and industrial vehicles, and may include railroad vehicles, domestic vehicles, and fixed-wing aircraft traveling on runways. Automobiles include, but are not limited to, passenger cars, trucks, buses, motorcycles, trolleybuses and the like, and may include other vehicles traveling on the road. Industrial vehicles include industrial vehicles for agriculture and construction. Industrial vehicles include, but are not limited to, forklifts and golf carts. Industrial vehicles for agriculture include, but are not limited to, tractors, cultivators, transplanters, binders, combines, and lawnmowers. Industrial vehicles for construction include, but are not limited to, bulldozers, scrapers, excavators, mobile cranes, dump trucks, and road rollers. Vehicles include those that run manually. The classification of vehicles is not limited to the above. For example, an automobile may include an industrial vehicle capable of traveling on a road, and the same vehicle may be included in a plurality of classifications. Vessels in the present disclosure include marine jets, boats and tankers. Aircraft in the present disclosure include fixed-wing aircraft and rotary-wing aircraft.

以上、本開示の実施形態について詳細に説明したが、また、本開示は上述の実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲内において、種々の変更、改良等が可能である。上述の各実施形態をそれぞれ構成する全部または一部を、適宜、矛盾しない範囲で組み合わせ可能であることは、言うまでもない。 Although the embodiments of the present disclosure have been described in detail above, the present disclosure is not limited to the above-described embodiments, and various changes, improvements, etc. may be made without departing from the gist of the present disclosure. It is possible. Needless to say, all or a part of each of the above-described embodiments can be combined as appropriate and within a consistent range.

本開示において「第1」及び「第2」等の記載は、当該構成を区別するための識別子である。本開示における「第1」及び「第2」等の記載で区別された構成は、当該構成における番号を交換することができる。例えば、第1眼は、第2眼と識別子である「第1」と「第2」とを交換することができる。識別子の交換は同時に行われる。識別子の交換後も当該構成は区別される。識別子は削除してよい。識別子を削除した構成は、符号で区別される。本開示における「第1」及び「第2」等の識別子の記載のみに基づいて、当該構成の順序の解釈、小さい番号の識別子が存在することの根拠に利用してはならない。 In the present disclosure, the description of "first", "second" and the like is an identifier for distinguishing the configuration. The configurations distinguished by the descriptions such as "first" and "second" in the present disclosure can exchange numbers in the configurations. For example, the first eye can exchange the identifiers "first" and "second" with the second eye. The exchange of identifiers takes place at the same time. Even after exchanging identifiers, the configuration is distinguished. The identifier may be deleted. Configurations with the identifier removed are distinguished by a code. Based solely on the description of identifiers such as "1st" and "2nd" in the present disclosure, it shall not be used as an interpretation of the order of the configurations or as a basis for the existence of identifiers with smaller numbers.

本開示において、x軸、y軸、及びz軸は、説明の便宜上設けられたものであり、互いに入れ替えられてよい。本開示に係る構成は、x軸、y軸、及びz軸によって構成される直交座標系を用いて説明されてきた。本開示に係る各構成の位置関係は、直交関係にあると限定されるものではない。 In the present disclosure, the x-axis, y-axis, and z-axis are provided for convenience of explanation and may be interchanged with each other. The configuration according to the present disclosure has been described using a Cartesian coordinate system composed of x-axis, y-axis, and z-axis. The positional relationship of each configuration according to the present disclosure is not limited to being orthogonal.

1 3次元表示装置
2 検出部
3 位置取得部
4 照射器
5 表示パネル
51 アクティブエリア
51a 可視領域
51aL 左可視領域
51aR 右可視領域
51bL 左不可視領域
51bR 右不可視領域
51aLR 両眼可視領域
6 バリア部
61 遮光領域
62 透光領域
7 制御部
8 メモリ
10 移動体
11 駆動部
12 第1検出画像
13 第2検出画像
12a,13a 高輝度領域
12b,13b 低輝度領域
14 基準画像(第1基準画像)
15 眼
15L 左眼
15R 右眼
100 ヘッドアップディスプレイ(HUD)
110 光学部材
120 被投影部材
130 被投影面
140 光路
150 虚像
1 3D display device 2 Detection unit 3 Position acquisition unit 4 Irradiator 5 Display panel 51 Active area 51a Visible area 51aL Left visible area 51aR Right visible area 51bL Left invisible area 51bR Right invisible area 51aLR Binocular visible area 6 Barrier part 61 Shading Area 62 Translucent area 7 Control unit 8 Memory 10 Mobile unit 11 Drive unit 12 First detection image 13 Second detection image 12a, 13a High brightness area 12b, 13b Low brightness area 14 Reference image (first reference image)
15 eyes 15L left eye 15R right eye 100 head-up display (HUD)
110 Optical member 120 Projected member 130 Projected surface 140 Optical path 150 Virtual image

Claims (14)

第1画像と前記第1画像に対して視差を有する第2画像とを含む視差画像を表示するように構成される表示パネルと、
前記視差画像の画像光の進行方向を規定することによって、利用者の第1眼および第2眼に視差を与えるように構成されるバリア部と、
前記視差画像を視認している前記利用者の顔を撮像するように構成される検出部と、
制御部と、を備え、
前記制御部は、
前記表示パネルに表示する前記第1画像および前記第2画像の並びを規定する所定のインデックスに基づいて、互いに異なる前記第1画像と前記第2画像とを合成して第1基準画像を生成し、
前記第1基準画像を前記表示パネルに表示させ、
前記第1基準画像が投影されている、前記検出部によって撮像された前記利用者の顔の像に基づいて、前記インデックスを調整する、3次元表示装置。
A display panel configured to display a parallax image including a first image and a second image having parallax with respect to the first image.
A barrier unit configured to give parallax to the first eye and the second eye of the user by defining the traveling direction of the image light of the parallax image.
A detection unit configured to capture the face of the user who is visually recognizing the parallax image, and a detection unit.
With a control unit,
The control unit
Based on a predetermined index that defines the arrangement of the first image and the second image displayed on the display panel, the first image and the second image that are different from each other are combined to generate a first reference image. ,
The first reference image is displayed on the display panel, and the first reference image is displayed on the display panel.
A three-dimensional display device that adjusts the index based on the image of the user's face captured by the detection unit on which the first reference image is projected.
請求項1に記載の3次元表示装置であって、
前記制御部は、前記第1基準画像が投影されている前記利用者の顔の像に基づいて、前記画像光の前記進行方向における前記バリア部の位置を調整する、3次元表示装置。
The three-dimensional display device according to claim 1.
The control unit is a three-dimensional display device that adjusts the position of the barrier unit in the traveling direction of the image light based on the image of the user's face on which the first reference image is projected.
請求項1または2に記載の3次元表示装置であって、
前記第1画像および前記第2画像は、互いに異なる単色画像であり、
前記制御部は、前記検出部によって撮像された前記利用者の顔の像から得られた、前記利用者の第1眼の位置および第2眼の位置の少なくとも一方と、前記利用者の顔に投影されている前記第1基準画像の濃淡パターンとに基づいて、前記インデックスを調整する、3次元表示装置。
The three-dimensional display device according to claim 1 or 2.
The first image and the second image are monochromatic images different from each other, and are different from each other.
The control unit is attached to at least one of the position of the first eye and the position of the second eye of the user obtained from the image of the face of the user captured by the detection unit, and the face of the user. A three-dimensional display device that adjusts the index based on the projected shade pattern of the first reference image.
請求項3に記載の3次元表示装置であって、
前記制御部は、前記検出部によって撮像された前記利用者の顔の像から得られた、前記利用者の第1眼の位置および第2眼の位置と、前記利用者の顔に投影されている前記第1基準画像の濃淡パターンとに基づいて、前記画像光の前記進行方向における前記バリア部の位置を調整する、3次元表示装置。
The three-dimensional display device according to claim 3.
The control unit is projected onto the user's first eye position and second eye position obtained from the image of the user's face captured by the detection unit, and the user's face. A three-dimensional display device that adjusts the position of the barrier portion in the traveling direction of the image light based on the shading pattern of the first reference image.
請求項1~4のいずれか1項に記載の3次元表示装置であって、
前記制御部は、
調整した前記インデックスに基づいて、互いに異なる前記第1画像と前記第2画像とを合成して第2基準画像を生成し、
前記第2基準画像を前記表示パネルに表示させ、
前記第2基準画像が投影されている、前記検出部によって撮像された前記利用者の顔の像に基づいて、前記インデックスを再調整する、3次元表示装置。
The three-dimensional display device according to any one of claims 1 to 4.
The control unit
Based on the adjusted index, the first image and the second image, which are different from each other, are combined to generate a second reference image.
The second reference image is displayed on the display panel, and the second reference image is displayed on the display panel.
A three-dimensional display device that readjusts the index based on the image of the user's face captured by the detection unit on which the second reference image is projected.
請求項5に記載の3次元表示装置であって、
前記制御部は、前記第2基準画像が投影されている前記利用者の顔の像に基づいて、前記画像光の前記進行方向における前記バリア部の位置を再調整する、3次元表示装置。
The three-dimensional display device according to claim 5.
The control unit is a three-dimensional display device that readjusts the position of the barrier unit in the traveling direction of the image light based on the image of the user's face on which the second reference image is projected.
請求項1~6のいずれか1項に記載の3次元表示装置であって、
前記制御部は、前記第1基準画像を前記表示パネルに表示させる前に、単色の試験画像を前記表示パネルに表示させる、3次元表示装置。
The three-dimensional display device according to any one of claims 1 to 6.
The control unit is a three-dimensional display device that displays a monochromatic test image on the display panel before displaying the first reference image on the display panel.
請求項7に記載の3次元表示装置であって、
前記試験画像は、白色の単色画像である、3次元表示装置。
The three-dimensional display device according to claim 7.
The test image is a three-dimensional display device which is a white monochromatic image.
請求項7または8に記載の3次元表示装置であって、
前記制御部は、前記検出部に、前記試験画像が投影されている前記利用者の顔の像を撮像させる、3次元表示装置。
The three-dimensional display device according to claim 7 or 8.
The control unit is a three-dimensional display device that causes the detection unit to capture an image of the user's face on which the test image is projected.
請求項9に記載の3次元表示装置であって、
前記制御部は、前記試験画像が投影されている、前記検出部によって撮像された前記利用者の顔の像に基づいて、前記利用者の顔の反射率を測定する、3次元表示装置。
The three-dimensional display device according to claim 9.
The control unit is a three-dimensional display device that measures the reflectance of the user's face based on the image of the user's face captured by the detection unit on which the test image is projected.
請求項10に記載の3次元表示装置であって、
前記制御部は、前記反射率に基づいて、前記第1基準画像が投影されている、前記検出部によって撮像された前記利用者の顔の像を補正する、3次元表示装置。
The three-dimensional display device according to claim 10.
The control unit is a three-dimensional display device that corrects the image of the user's face captured by the detection unit on which the first reference image is projected based on the reflectance.
請求項11に記載の3次元表示装置であって、
前記制御部は、補正した前記利用者の顔の像に基づいて、前記インデックスを調整する、3次元表示装置。
The three-dimensional display device according to claim 11.
The control unit is a three-dimensional display device that adjusts the index based on the corrected image of the user's face.
第1画像と前記第1画像に対して視差を有する第2画像とを含む視差画像を表示するように構成される表示パネルと、
前記視差画像の画像光の進行方向を規定することによって、利用者の第1眼および第2眼に視差を与えるように構成されるバリア部と、
前記表示パネルから出射される前記画像光を、前記利用者に虚像として視認させるように構成される光学部材と、
前記視差画像を視認している前記利用者の顔を撮像するように構成される検出部と、
制御部と、を備え、
前記制御部は、
前記表示パネルに表示する前記第1画像および前記第2画像の並びを指定するインデックスに基づいて、互いに異なる前記第1画像と前記第2画像とを合成して第1基準画像を生成し、
前記第1基準画像を前記表示パネルに表示させ、
前記第1基準画像が投影されている、前記検出部によって撮像された前記利用者の顔の像に基づいて、前記インデックスを調整する、ヘッドアップディスプレイ。
A display panel configured to display a parallax image including a first image and a second image having parallax with respect to the first image.
A barrier unit configured to give parallax to the first eye and the second eye of the user by defining the traveling direction of the image light of the parallax image.
An optical member configured to make the user visually recognize the image light emitted from the display panel as a virtual image.
A detection unit configured to capture the face of the user who is visually recognizing the parallax image, and a detection unit.
With a control unit,
The control unit
Based on the index that specifies the arrangement of the first image and the second image displayed on the display panel, the first image and the second image that are different from each other are combined to generate a first reference image.
The first reference image is displayed on the display panel, and the first reference image is displayed on the display panel.
A head-up display that adjusts the index based on the image of the user's face captured by the detection unit on which the first reference image is projected.
第1画像と前記第1画像に対して視差を有する第2画像とを含む視差画像を表示するように構成される表示パネルと、
前記視差画像の画像光の進行方向を規定することによって、利用者の第1眼および第2眼に視差を与えるように構成されるバリア部と、
前記表示パネルから出射される前記画像光を、前記利用者に虚像として視認させるように構成される光学部材と、
前記視差画像を視認している前記利用者の顔を撮像するように構成される検出部と、
制御部と、を備え、
前記制御部は、
前記表示パネルに表示する前記第1画像および前記第2画像の並びを指定するインデックスに基づいて、互いに異なる前記第1画像と前記第2画像とを合成して第1基準画像を生成し、
前記第1基準画像を前記表示パネルに表示させ、
前記第1基準画像が投影されている、前記検出部によって撮像された前記利用者の顔の像に基づいて、前記インデックスを調整する、ヘッドアップディスプレイを備える、移動体。
A display panel configured to display a parallax image including a first image and a second image having parallax with respect to the first image.
A barrier unit configured to give parallax to the first eye and the second eye of the user by defining the traveling direction of the image light of the parallax image.
An optical member configured to make the user visually recognize the image light emitted from the display panel as a virtual image.
A detection unit configured to capture the face of the user who is visually recognizing the parallax image, and a detection unit.
With a control unit,
The control unit
Based on the index that specifies the arrangement of the first image and the second image displayed on the display panel, the first image and the second image that are different from each other are combined to generate a first reference image.
The first reference image is displayed on the display panel, and the first reference image is displayed on the display panel.
A mobile body comprising a head-up display that adjusts the index based on the image of the user's face imaged by the detection unit on which the first reference image is projected.
JP2021045097A 2020-07-22 2021-03-18 Three-dimensional display device, head-up display, and movable body Pending JP2022022078A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US18/016,844 US20230291888A1 (en) 2020-07-22 2021-07-15 Three-dimensional display device, head-up display, and movable body
EP21846379.2A EP4187310A1 (en) 2020-07-22 2021-07-15 Three-dimensional display device, head-up display, and mobile object
CN202180061408.8A CN116194823A (en) 2020-07-22 2021-07-15 Three-dimensional display device, head-up display, and moving object
PCT/JP2021/026664 WO2022019215A1 (en) 2020-07-22 2021-07-15 Three-dimensional display device, head-up display, and mobile object

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020125729 2020-07-22
JP2020125729 2020-07-22

Publications (1)

Publication Number Publication Date
JP2022022078A true JP2022022078A (en) 2022-02-03

Family

ID=80220772

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021045097A Pending JP2022022078A (en) 2020-07-22 2021-03-18 Three-dimensional display device, head-up display, and movable body

Country Status (1)

Country Link
JP (1) JP2022022078A (en)

Similar Documents

Publication Publication Date Title
JP6924637B2 (en) 3D display device, 3D display system, mobile body, and 3D display method
JP7129789B2 (en) Head-up displays, head-up display systems, and moving objects
US11616940B2 (en) Three-dimensional display device, three-dimensional display system, head-up display, and mobile object
WO2020130049A1 (en) Three-dimensional display device, head-up display system, and mobile body
WO2020004275A1 (en) Three-dimensional display device, control controller, three-dimensional display method, three-dimensional display system, and moving body
WO2022019215A1 (en) Three-dimensional display device, head-up display, and mobile object
US11874464B2 (en) Head-up display, head-up display system, moving object, and method of designing head-up display
CN113614619B (en) Image display module, image display system, moving object, image display method, and image display program
JP2022022078A (en) Three-dimensional display device, head-up display, and movable body
US20230004002A1 (en) Head-up display, head-up display system, and movable body
JP6668564B1 (en) Head-up display, head-up display system, and moving object
WO2020130048A1 (en) Three-dimensional display device, head-up display system, and moving object
JP7336782B2 (en) 3D display device, 3D display system, head-up display, and moving object
CN114730096A (en) Head-up display system and moving object
WO2022019154A1 (en) Three-dimensional display device
WO2023228887A1 (en) Three-dimensional display device, head-up display system, and mobile body
WO2021220832A1 (en) Interocular distance measurement method and calibration method
WO2022149599A1 (en) Three-dimensional display device
JP2022055171A (en) Three-dimensional display device, three-dimensional display method, three-dimensional display system, and movable body
JP2021057844A (en) Three-dimensional display device, three-dimensional display system, and movable body

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240423