JP2021173933A - 眼間距離測定方法および較正方法 - Google Patents

眼間距離測定方法および較正方法 Download PDF

Info

Publication number
JP2021173933A
JP2021173933A JP2020079551A JP2020079551A JP2021173933A JP 2021173933 A JP2021173933 A JP 2021173933A JP 2020079551 A JP2020079551 A JP 2020079551A JP 2020079551 A JP2020079551 A JP 2020079551A JP 2021173933 A JP2021173933 A JP 2021173933A
Authority
JP
Japan
Prior art keywords
eye
image
user
subpixel
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020079551A
Other languages
English (en)
Other versions
JP7475191B2 (ja
Inventor
薫 草深
Kaoru Kusafuka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2020079551A priority Critical patent/JP7475191B2/ja
Priority claimed from JP2020079551A external-priority patent/JP7475191B2/ja
Priority to CN202180031463.2A priority patent/CN115462067A/zh
Priority to PCT/JP2021/015623 priority patent/WO2021220832A1/ja
Priority to US17/922,076 priority patent/US20230171394A1/en
Priority to EP21795292.8A priority patent/EP4145824A1/en
Publication of JP2021173933A publication Critical patent/JP2021173933A/ja
Application granted granted Critical
Publication of JP7475191B2 publication Critical patent/JP7475191B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/30Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers
    • G02B30/32Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers characterised by the geometry of the parallax barriers, e.g. staggered barriers, slanted parallax arrays or parallax arrays of varying shape or size
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/18Stereoscopic photography by simultaneous viewing
    • G03B35/24Stereoscopic photography by simultaneous viewing using apertured or refractive resolving means on screens or between screen and eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/327Calibration thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/371Image reproducers using viewer tracking for tracking viewers with different interocular distances; for tracking rotational head movements around the vertical axis
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0181Adaptation to the pilot/driver
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Abstract

【課題】 利用者に3次元画像を適切に視認させる。【解決手段】 眼間距離測定方法は、3次元表示装置1により実行される。3次元表示装置1は表示部2とバリア部3と検出部4と制御部5とを備える。表示部2は視差画像を表示するように構成される。バリア部3は利用者の眼に視差を与えるように構成される。検出部4は利用者の顔の位置を検出するように構成される。眼間距離測定方法は、表示ステップと、第1検出ステップと、第2検出ステップと、算出ステップとを含む。表示ステップは表示部2に眼間距離測定用の画像を表示するように構成される。第1検出ステップは、利用者による指示に応じて、利用者の顔の第1位置を検出するように構成される。第2検出ステップは、利用者による指示に応じて、利用者の顔の第2位置を検出するように構成される。算出ステップは、第1位置と前記第2位置とに基づいて、利用者の眼間距離を算出するように構成される。【選択図】 図2

Description

本開示は、眼間距離測定方法、特に3次元表示装置が実行する眼間距離測定方法、および3次元表示装置の較正方法に関する。
従来、眼鏡を用いずに3次元表示を行うために、表示パネルから射出された光の一部を利用者の右眼に到達させ、表示パネルから射出された光の他の一部を利用者の左眼に到達させる光学素子を備える3次元表示装置が知られている(例えば、特許文献1参照)。
特開2001−166259号公報
上述のような3次元表示装置においては、利用者に3次元画像を適切に視認させることが求められる。
本開示の眼間距離測定方法は、3次元表示装置が実行する眼間距離測定方法であり、表示ステップと、第1検出ステップと、第2検出ステップと、算出ステップとを含む。前記3次元表示装置は、表示部と、バリア部と、検出部と、制御部とを備える。前記表示部は、利用者の第1眼および第2眼に対して光学系を介して投影される視差画像を表示するように構成される。前記バリア部は、前記視差画像の画像光の進行方向を規定することによって、前記第1眼および前記第2眼に視差を与えるように構成される。前記検出部は、前記利用者の顔の位置を検出するように構成される。前記表示ステップは、前記表示部の、眼間距離の標準値に基づいて決定された可視領域に、眼間距離測定用の画像を表示する。前記第1検出ステップは、前記利用者による、前記第1眼が視認する画像に基づく指示に応じて、前記利用者の顔の第1位置を検出する。前記第2検出ステップは、前記利用者による、前記第2眼が視認する画像に基づく指示に応じて、前記利用者の顔の第2位置を検出する。前記算出ステップは、前記第1位置と前記第2位置とに基づいて、前記標準値を補正し、前記利用者の眼間距離を算出する。
本開示の較正方法は、3次元表示装置が実行する較正方法であり、表示ステップと、第1検出ステップと、第2検出ステップと、算出ステップと、較正ステップとを含む。前記3次元表示装置は、表示部と、バリア部と、検出部と、制御部とを備える。前記表示部は、利用者の第1眼および第2眼に対して光学系を介して投影される視差画像を表示するように構成される。前記バリア部は、前記視差画像の画像光の進行方向を規定することによって、前記第1眼および前記第2眼に視差を与えるように構成される。前記検出部は、前記利用者の顔の位置を検出するように構成される。前記表示ステップは、前記表示部の、眼間距離の標準値に基づいて決定された可視領域に、眼間距離測定用の画像を表示する。前記第1検出ステップは、前記利用者による、前記第1眼が視認する画像に基づく指示に応じて、前記利用者の顔の第1位置を検出する。前記第2検出ステップは、前記利用者による、前記第2眼が視認する画像に基づく指示に応じて、前記利用者の顔の第2位置を検出する。前記算出ステップは、前記第1位置と前記第2位置とに基づいて、前記標準値を補正し、前記利用者の眼間距離を算出する。前記較正ステップは、前記利用者の眼間距離に基づいて、前記表示部を較正する。
本開示の一実施形態によれば、利用者に3次元画像を適切に視認させることが可能となる。
図1は、3次元表示装置を含むヘッドアップディスプレイを搭載した移動体の例を示す図である。 図2は、3次元表示装置を鉛直方向から見た例を示す図である。 図3は、図1に示す表示部を奥行方向から見た例を示す図である。 図4は、図1に示すバリア部を奥行方向から見た例を示す図である。 図5は、図1に示す表示部における左可視領域を説明するための図である。 図6は、図1に示す表示部における右可視領域を説明するための図である。 図7は、図1に示す3次元表示装置における両眼可視領域を説明するための図である。 図8は、本実施形態の眼間距離測定方法を説明するフローチャートである。 図9は、本実施形態の眼間距離測定方法を説明するための図である。 図10は、本実施形態の較正方法を説明するフローチャートである。 図11は、右眼の位置に応じた、表示部上の右可視領域について詳細に説明するための図である。 図12は、左眼の位置および右眼の位置を識別するための情報を説明するための図である。 図13は、眼間距離が標準値である場合における、左眼および右眼の位置と、各サブピクセルに表示させる画像との対応を示す画像テーブルの例を示す図である。 図14は、左眼の位置および右眼の位置と、両眼可視領域との対応を示す重畳テーブルの例を示す図である。 図15は、本実施形態の較正方法における較正ステップを説明するフローチャートである。
以下、本開示の実施形態について、図面を参照しながら詳細に説明がされる。なお、以下の説明で用いられる図は模式的なものである。図面上の寸法比率等は現実のものとは必ずしも一致していない。
本開示の一実施形態に係る眼間距離測定方法は、3次元表示装置1によって実行されうる。3次元表示装置1は、図1に示すように、移動体10に搭載されてよい。
本開示における「移動体」は、車両、船舶および航空機を含む。本開示における「車両」は、自動車および産業車両を含むが、これらに限られず、鉄道車両、生活車両および滑走路を走行する固定翼機を含んでよい。自動車は、乗用車、トラック、バス、二輪車およびトロリーバス等を含んでよい。自動車は、道路上を走行する他の車両を含んでよい。産業車両は、農業向けの産業車両および建設向けの産業車両を含んでよい。産業車両は、フォークリフトおよびゴルフカートを含んでよい。農業向けの産業車両は、トラクター、耕運機、移植機、バインダー、コンバインおよび芝刈り機を含んでよい。建設向けの産業車両は、ブルドーザー、スクレーバー、ショベルカー、クレーン車、ダンプカーおよびロードローラーを含んでよい。車両は、人力で走行するものを含んでよい。車両の分類は、上述に限られない。例えば、自動車は、道路を走行可能な産業車両を含んでよい。複数の分類に同じ車両が含まれてよい。本開示における「船舶」は、マリンジェット、ボートおよびタンカーを含んでよい。本開示における「航空機」は、固定翼機および回転翼機を含んでよい。
本明細書では、移動体10が、車両、特に乗用車である場合を例として説明する。移動体10は、乗用車に限られず、上に列挙した車両、船舶および航空機のいずれかであってよい。
3次元表示装置1は、図1に示すように、ヘッドアップディスプレイ(HUD:Head Up Display)100に搭載されうる。HUD100は、3次元表示装置1と光学系110と被投影部材120とを備える。HUD100は、3次元表示装置1から射出される画像光を、光学系110を用いて、被投影部材120に到達させるように構成される。被投影部材120は、移動体10のウインドシールドであってよい。HUD100は、被投影部材120で反射させた画像光を、利用者の眼11に到達させるように構成される。HUD100は、破線で示される光路130に沿って、3次元表示装置1から利用者の眼11まで画像光を進行させるように構成される。利用者は、光路130に沿って到達した画像光を、虚像140として視認しうる。
3次元表示装置1は、図2に示すように、表示部2と、バリア部3と、検出部4と、制御部5とを含んで構成される。表示部2は、表示パネルと称されてよい。バリア部3は、パララックスバリアと称されてよい。3次元表示装置1は、取得部6と、照射器7と、メモリ8とを含んで構成されてよい。
3次元表示装置1は、利用者による操作を受け付ける入力部を含んで構成されてよい。利用者による操作は、利用者が3次元表示装置1に対して行う各種の指示を含んでよい。利用者は、入力部を操作することによって、3次元表示装置1に対する指示を行うことができる。入力部は、例えば、操作ボタン、タッチパネル等によって構成されてよい。入力部は、例えば、マイクおよびスピーカー等の音声入出力インターフェースを含み、音声による指示を受け付けるように構成されてよい。
検出部4は、利用者の顔の位置を検出しうる。検出部4は、検出した顔の位置を制御部5に送信しうる。検出部4の位置は、移動体10の内部および外部において任意である。検出部4は、移動体10のダッシュボード内に位置しうる。検出部4は、例えば有線、無線およびCAN(Controller Area Network)等を介して、検出した顔の位置を示す情報を制御部5へ出力してよい。
検出部4は、例えば、カメラを備えてよい。カメラは、例えば、CCD(Charge Coupled Device)撮像素子またはCMOS(Complementary Metal Oxide Semiconductor)撮像素子を含んでよい。検出部4は、単眼カメラまたはステレオカメラであってよい。検出部4は、カメラによって利用者の顔を撮影してよい。検出部4は、利用者の顔全体を撮影しなくてよい。検出部4は、利用者の頭部の位置を特定可能にする、利用者の顔に含まれる特徴点を撮影してよい。特徴点は、利用者の眉、眼、鼻、唇等を含んでよい。
検出部4は、カメラを備えず、装置外のカメラに接続されていてよい。検出部4は、装置外のカメラからの信号を入力する入力端子を備えてよい。装置外のカメラは、入力端子に直接的に接続されてよい。装置外のカメラは、共有のネットワークを介して入力端子に間接的に接続されてよい。カメラを備えない検出部4は、カメラが映像信号を入力する入力端子を備えてよい。カメラを備えない検出部4は、入力端子に入力された映像信号に基づいて利用者の顔の位置を検出してよい。
検出部4は、例えば、センサを備えてよい。センサは、超音波センサまたは光センサ等であってよい。検出部4は、センサによって利用者の顔の位置を検出してよい。
3次元表示装置1は、検出部4を備えなくてよい。この場合、3次元表示装置1は、装置外の検出装置からの信号を入力する入力端子を備えてよい。装置外の検出装置は、入力端子に接続されてよい。装置外の検出装置は、入力端子に対する伝送信号として、電気信号および光信号を用いてよい。装置外の検出装置は、共有のネットワークを介して入力端子に間接的に接続されてよい。3次元表示装置1には、装置外の検出装置から取得した利用者の顔の位置を示す位置座標が入力されてよい。
取得部6は、検出部4によって検出された利用者の顔の位置を取得するように構成される。
照射器7は、表示パネル2を面的に照射しうる。照射器7は、光源、導光板、拡散板、拡散シート等を含んで構成されてよい。照射器7は、光源により照射光を射出し、導光板、拡散板、拡散シート等により照射光を表示パネル2の面方向に均一化するように構成される。照射器7は、均一化された光を表示パネル2に向かって出射しうる。
表示パネル2は、利用者の右眼および左眼に対して光学系110を介して投影される視差画像を表示するように構成される。表示パネル2は、例えば透過型の液晶表示パネルなどの表示パネルを採用しうる。光学系110は、表示パネル2から射出される画像光を利用者の眼に到達させうるように構成される。3次元表示装置1は、光学系110を含んで構成されてよい。光学系110は、1または複数のミラーを含んで構成されてよい。光学系110は、移動体10のウインドシールドを含んで構成されてよい。光学系の位置は、移動体10の内部および外部において任意である。図2に示すように、表示パネル2は、面状に形成されたアクティブエリア21上に複数の区画領域を有する。アクティブエリア21は、混合画像を表示するように構成される。混合画像は、後述する左眼画像と左眼画像に対して視差を有する右眼画像とを含む。混合画像は、後述する、第3画像を含む。区画領域は、格子状のブラックマトリックス22により第1方向および第1方向に直交する第2方向に区画された領域である。第1方向および第2方向に直交する方向は第3方向と称される。第1方向は水平方向と称されてよい。第2方向は鉛直方向と称されてよい。第3方向は奥行方向と称されてよい。しかし、第1方向、第2方向、および第3方向はそれぞれこれらに限られない。図面において、第1方向はx軸方向として表され、第2方向はy軸方向として表され、第3方向はz軸方向として表される。
区画領域の各々には、1つのサブピクセルが対応する。したがって、アクティブエリア21は、水平方向および鉛直方向に沿って格子状に配列された複数のサブピクセルを備える。
各サブピクセルは、R(Red),G(Green),B(Blue)のいずれかの色に対応し、R,G,Bの3つのサブピクセルを一組として1ピクセルを構成することができる。1ピクセルは、1画素と称されうる。水平方向は、例えば、1ピクセルを構成する複数のサブピクセルが並ぶ方向である。鉛直方向は、例えば、同じ色のサブピクセルが並ぶ方向である。表示パネル2としては、透過型の液晶パネルに限られず、有機EL等他の表示パネルを使用しうる。表示パネル2として、自発光型の表示パネルを使用した場合、3次元表示装置1は照射器7を備えなくてよい。
上述のようにアクティブエリア21に配列された複数のサブピクセルはサブピクセル群Pgを構成する。サブピクセル群Pgは、水平方向に繰り返し並ぶ。サブピクセル群Pgは、鉛直方向においては、水平方向に1サブピクセル分ずれた位置に隣接して繰り返し並ぶ。サブピクセル群Pgは、所定の行および列のサブピクセルを含む。具体的には、サブピクセル群Pgは、鉛直方向にb個(b行)、水平方向に2×n個(n列)、連続して配列された(2×n×b)個のサブピクセルP1〜P(2×n×b)を含む。図3に示す例では、n=6、b=1である。アクティブエリア21には、複数のサブピクセル群Pgが並ぶ。サブピクセル群Pgは、鉛直方向に1個、水平方向に12個、連続して並ぶ12個のサブピクセルP1〜P12を含む。図3に示す例では、一部のサブピクセル群Pgに符号を付している。
サブピクセル群Pgは、後述する制御部5が画像を表示するための制御を行う最小単位としうる。全てのサブピクセル群Pgの同じ識別情報を有するサブピクセルP1〜P(2×n×b)は、制御部5によって同時に又は同時期に順次、制御される。例えば、制御部5は、サブピクセルP1に表示させる画像を左眼画像から右眼画像に切り替える場合、全てのサブピクセル群PgにおけるサブピクセルP1に表示させる画像を左眼画像から右眼画像に同時的に切り替えられるように構成される。例えば、制御部5は、サブピクセルP1に表示させる画像を左眼画像から右眼画像に切り替える場合、サブピクセル群PgにおけるサブピクセルP1に表示させる画像を処理する際に、それ以降の切り替えにおいて順次左眼画像から右眼画像に切り替えるように構成される。
パララックスバリア3は、図2に示したように、アクティブエリア21に沿う平面であり、アクティブエリア21から所定距離(ギャップ)g、離れている。パララックスバリア3は、表示パネル2に対して照射器7の反対側に位置してよい。パララックスバリア3は、表示パネル2の照射器7側にあってよい。
パララックスバリア3は、図4に示すように、面内の所定方向に伸びる複数の帯状領域である透光領域32ごとに、サブピクセルから射出される画像光の伝播方向である光線方向を規定するように構成される。所定方向は、鉛直方向と0度でない所定角度をなす方向である。図2に示したように、パララックスバリア3がアクティブエリア21に配列されたサブピクセルから射出された画像光を規定することによって、利用者の眼が視認可能なアクティブエリア21上の領域が定まる。以降において、利用者の眼の位置に伝播する画像光を射出するアクティブエリア21内の領域は可視領域21aと称される。利用者の左眼の位置に伝播する画像光を射出するアクティブエリア21内の領域は左可視領域21aL(第1可視領域)と称される。利用者の右眼の位置に伝播する画像光を射出するアクティブエリア21内の領域は右可視領域21aR(第2可視領域)と称される。
具体的には、図4に示したように、パララックスバリア3は、画像光を遮光する、複数の遮光面31を有するように構成される。複数の遮光面31は、互いに隣接する該遮光面31の間の透光領域32を画定するように構成される。透光領域32は、遮光面31に比べて光透過率が高い。遮光面31は、透光領域32に比べて光透過率が低い。
透光領域32は、パララックスバリア3に入射する光を透過させる部分である。透光領域32は、第1所定値以上の透過率で光を透過させてよい。第1所定値は、例えば略100%であってよいし、100%未満の値であってよい。アクティブエリア21から射出される画像光が良好に視認できる範囲であれば、第1所定値は、100%以下の値、例えば、80%または50%等としうる。遮光面31は、パララックスバリア3に入射する光を遮って殆ど透過させない部分である。言い換えれば、遮光面31は、表示パネル2のアクティブエリア21に表示される画像が、利用者の眼11に到達することを遮る。遮光面31は、第2所定値以下の透過率で光を遮ってよい。第2所定値は、例えば略0%であってよいし、0%より大きく、0.5%、1%または3%等、0%に近い値であってよい。第1所定値は、第2所定値よりも数倍以上、例えば、10倍以上大きい値としうる。
透光領域32と遮光面31とは、アクティブエリア21に沿う所定方向に延び、所定方向と直交する方向に繰り返し交互に配列される。透光領域32は、サブピクセルから射出される画像光の光線方向を規定するように構成される。
図2に示したように、透光領域32の水平方向における配置間隔であるバリアピッチBp、アクティブエリア21とパララックスバリア3との間のギャップgは、適視距離dおよび眼間距離Eの標準値(標準距離)E0を用いた次の式(1)および式(2)が成り立つように規定される。
E0:d=(n×Hp):g 式(1)
d:Bp=(d+g):(2×n×Hp) 式(2)
適視距離dは、可視領域21aの水平方向の長さがサブピクセルn個分となるような利用者の右眼11Rおよび左眼11Lそれぞれとパララックスバリア3との間の距離である。右眼11Rと左眼11Lとを通る直線の方向(眼間方向)は水平方向である。眼間距離Eの標準値E0は、利用者の眼間距離Eの標準である。標準値E0は、例えば、産業技術総合研究所の研究によって算出された値である61.1mm〜64.4mmであってよい。Hpは、図3に示したような、サブピクセルの水平方向の長さである。
パララックスバリア3は、第2所定値未満の透過率を有するフィルムまたは板状部材で構成されてよい。この場合、遮光面31は、当該フィルムまたは板状部材で構成される。透光領域32は、フィルムまたは板状部材に設けられた開口で構成される。フィルムは、樹脂で構成されてよいし、他の材料で構成されてよい。板状部材は、樹脂または金属等で構成されてよいし、他の材料で構成されてよい。パララックスバリア3は、フィルムまたは板状部材に限られず、他の種類の部材で構成されてよい。パララックスバリア3は、基材が遮光性を有してよいし、基材に遮光性を有する添加物が含有されてよい。
パララックスバリア3は、液晶シャッターで構成されてよい。液晶シャッターは、印加する電圧に応じて光の透過率を制御しうる。液晶シャッターは、複数の画素で構成され、各画素における光の透過率を制御してよい。液晶シャッターは、光の透過率が高い領域または光の透過率が低い領域を任意の形状に形成しうる。パララックスバリア3が液晶シャッターで構成される場合、透光領域32は、第1所定値以上の透過率を有する領域としてよい。パララックスバリア3が液晶シャッターで構成される場合、遮光面31は、第2所定値以下の透過率を有する領域としてよい。
このように構成されることによって、パララックスバリア3は、アクティブエリア21の一部のサブピクセルから出射した画像光を、透光領域32を通過させ利用者の右眼11Rに伝搬させるように構成される。パララックスバリア3は、他の一部のサブピクセルから出射した画像光を、透光領域32を通過させ利用者の左眼11Lに伝搬させるように構成される。画像光が利用者の右眼11Rおよび左眼11Lのそれぞれに伝播されることによって、利用者の眼11に視認される画像について、図5および図6を参照して詳細に説明する。
図5に示す左可視領域21aLは、上述のように、パララックスバリア3の透光領域32を透過した画像光が利用者の左眼11Lに到達することによって、利用者の左眼11Lが視認するアクティブエリア21上の領域である。左不可視領域21bLは、パララックスバリア3の遮光面31によって画像光が遮られることによって、利用者の左眼11Lが視認することのできない領域である。左可視領域21aLには、サブピクセルP1の半分と、サブピクセルP2〜P6の全体と、サブピクセルP7の半分とが含まれる。
図6に示す右可視領域21aRは、パララックスバリア3の透光領域32を透過した他の一部のサブピクセルからの画像光が利用者の右眼11Rに到達することによって、利用者の右眼11Rが視認するアクティブエリア21上の領域である。右不可視領域21bRは、パララックスバリア3の遮光面31によって画像光が遮られることによって、利用者の右眼11Rが視認することのできない領域である。右可視領域21aRには、サブピクセルP7の半分と、サブピクセルP8〜P12の全体と、サブピクセルP1の半分とが含まれる。
サブピクセルP1〜P6に左眼画像が表示され、サブピクセルP7〜P12に右眼画像が表示されると、左眼11Lおよび右眼11Rはそれぞれ画像を視認する。右眼画像および左眼画像は互いに視差を有する視差画像である。具体的には、左眼11Lは、サブピクセルP1に表示された左眼画像の半分と、サブピクセルP2〜P6に表示された左眼画像の全体と、サブピクセルP7に表示された右眼画像の半分とを視認する。右眼11Rは、サブピクセルP7に表示された右眼画像の半分と、サブピクセルP8〜P12に表示された右眼画像の全体と、サブピクセルP1に表示された左眼画像の半分とを視認する。図5及び図6において、左眼画像を表示するサブピクセルには符号「L」が付され、右眼画像を表示するサブピクセルには符号「R」が付されている。
この状態において、利用者の左眼11Lが視認する左眼画像の領域は最大となり、右眼画像の面積は最小となる。利用者の右眼11Rが視認する右眼画像の領域は最大となり、左眼画像の面積は最小となる。したがって、利用者は、クロストークが最も低減された状態で3次元画像を視認する。
上述のように構成された3次元表示装置1で、互いに視差を有する左眼画像と右眼画像とが左可視領域21aLおよび右可視領域21aRそれぞれに含まれるサブピクセルに表示されると、眼間距離Eが標準値E0である利用者は3次元画像を適切に視認しうる。上述した構成では、左眼11Lによって半分以上が視認されるサブピクセルに左眼画像が表示され、右眼11Rによって半分以上が視認されるサブピクセルに右眼画像が表示された。これに限られず、左眼画像および右眼画像を表示させるサブピクセルは、アクティブエリア21、パララックスバリア3等の設計に応じて、クロストークが最小になるように左可視領域21aLおよび右可視領域21aRに基づいて適宜判定されてよい。例えば、パララックスバリア3の開口率等に応じて、左眼11Lによって所定割合以上が視認されるサブピクセルに左眼画像を表示させ、右眼11Rによって所定割合以上が視認されるサブピクセルに右眼画像を表示させてよい。
制御部5は、3次元表示装置1の各構成要素に接続され、各構成要素を制御しうる。制御部5によって制御される構成要素は、検出部4および表示パネル2を含む。制御部5は、例えばプロセッサとして構成される。制御部5は、1以上のプロセッサを含んでよい。プロセッサは、特定のプログラムを読み込ませて特定の機能を実行する汎用のプロセッサ、および特定の処理に特化した専用のプロセッサを含んでよい。専用のプロセッサは、特定用途向けIC(ASIC:Application Specific Integrated Circuit)を含んでよい。プロセッサは、プログラマブルロジックデバイス(PLD:Programmable Logic Device)を含んでよい。PLDは、FPGA(Field-Programmable Gate Array)を含んでよい。制御部5は、1つまたは複数のプロセッサが協働するSoC(System-on-a-Chip)、およびSiP(System In a Package)のいずれかであってよい。制御部5は、記憶部を備え、記憶部に各種情報、または3次元表示装置1の各構成要素を動作させるためのプログラム等を格納してよい。記憶部は、例えば半導体メモリ等で構成されてよい。記憶部は、制御部5のワークメモリとして機能してよい。
メモリ8は、例えばRAM(Random Access Memory)およびROM(Read Only Memory)など、任意の記憶デバイスにより構成される。メモリ8は、追って詳細に説明する第1テーブル、第2テーブル、および第3テーブルの1つ以上を記憶する。メモリ8は、追って詳細に説明する第4テーブル、第5テーブル、および第6テーブルの1つ以上を記憶する。
次に、3次元表示装置1が実行する眼間距離測定方法について説明する。
利用者の眼間距離Eが標準値E0とは異なる眼間距離E1である場合、図7に示すように、左可視領域21aLの一部と右可視領域21aRの一部とが重なった両眼可視領域21aLRが存在することがある。したがって、左可視領域21aLに基づいて左眼画像を表示させるべきと判定された左サブピクセル(第1サブピクセル)であって、右可視領域21aRに基づいて右眼画像を表示させるべきと判定された右サブピクセル(第2サブピクセル)であるサブピクセルが存在することがある。左サブピクセルは、例えば、左可視領域21aLに所定割合(例えば、半分)以上が含まれるサブピクセルである。右サブピクセルは、右可視領域21aRに所定割合以上が含まれるサブピクセルである。
このような構成において、左サブピクセルであって右ピクセルであるサブピクセルに右眼画像が表示されると、左眼11Lが視認する右眼画像が増加する。左サブピクセルであって右ピクセルであるサブピクセルに左眼画像が表示されると、右眼11Rが視認する左眼画像が増加する。そのため、重なったサブピクセルに左眼画像および右眼画像のいずれを表示させても、クロストークが増加することがある。そこで、制御部5は、眼間距離E1を有する利用者が、標準値E0に基づいて構成された3次元表示装置1を視認したときに発生するクロストークを低減すべく制御を行う。このような制御を行うためには、利用者の眼間距離E1を測定する必要がある。
<<眼間距離E1の測定>>
3次元表示装置1が実行する眼間距離測定方法は、図8に示すように、表示ステップと、第1検出ステップと、第2検出ステップと、算出ステップとを含む。3次元表示装置1は、例えば、利用者が、入力部を用いて、眼間距離の測定を開始するための操作を行った場合に、眼間距離の測定を開始してよい。
<表示ステップ>
制御部5は、先ず、第3方向におけるトラッキング範囲Δzを決定する。トラッキング範囲は、例えば、利用者の右眼11Rおよび左眼11Lが位置していると推定される、第3方向に沿った範囲であってよい。トラッキング範囲Δzは、移動体10に対して設定されているアイリプスに基づいて決定されてよい。右眼11Rは、第1眼11Rと称されてよい。左眼11Lは、第2眼11Lと称されてよい。
図9に示すように、適視距離dおよび眼間距離Eの標準値E0に合わせて、表示面において、第1サブピクセルに対応する左ドット領域12Lおよび第2サブピクセルに対応する右ドット領域12Rが仮想的に設けられる。右ドット領域12Rおよび左ドット領域12Lは、眼間距離Eが標準値E0である利用者の第1眼11Rおよび第2眼11Lが適視距離dにある場合の、第1眼11Rおよび第2眼11Lのそれぞれの位置であるともいえる。制御部5は、眼間距離Eを標準値E0に維持したまま、第1眼11Rおよび第2眼11Lとパララックスバリア3との間の距離をトラッキング範囲Δz内で変化させたときの、画像光が第1眼11Rおよび第2眼11Lに入射可能となる表示パネル2上の最小範囲(可視領域)21aRmin,21aLminを求める。制御部5は、求めた最小範囲に対応する第1サブピクセルおよび第2サブピクセルに、眼間距離測定用の画像を表示する。眼間距離測定用の画像は、例えば、第1画像と第2画像とから成ってよい。制御部5は、第1画像および第2画像を交互に切り替えて表示してよい。第1画像および第2画像は、例えば、時間的に連続した2つの画像であってよい。第1画像および第2画像は、相互に差分を有してよい。第1画像と第2画像との差分は、利用者が視認しうる程度の差分であってよい。制御部5は、第1画像と第2画像とを、例えば、0.1秒〜0.5秒ごとに切り替えるように制御してよい。
<第1検出ステップ>
第1検出ステップにおいて、3次元表示装置1は、利用者による、第1眼11Rが視認する画像に基づく指示に応じて、利用者の顔の第1位置x1を検出する。利用者は、3次元表示装置1が備える入力部を用いて、3次元表示装置1に対する指示を行うことができる。第1位置x1は、検出部4によって検出されうる。利用者による、第1眼11Rが視認する画像に基づく指示は、第1画像と第2画像との差分が最小となったときに行う指示であってよい。これにより、第1眼11Rと右ドット領域12Rとが光線方向において重なるときの、第1方向(x軸方向)における利用者の頭部の位置を特定することができる。
第1検出ステップにおいて、3次元表示装置1は、利用者に対して、第1眼11Rだけを用いて画像を視認するように促すガイダンスを提示してよい。3次元表示装置1は、利用者に対して、第1眼11Rが視認する第1画像と第2画像との差分が最小となったときに入力部を操作するように促すガイダンスを提示してよい。利用者に対するガイダンスは、音声によるガイダンスであってよいし、画像によるガイダンスであってよい。
<第2検出ステップ>
3次元表示装置1は、第1検出ステップを実行した後、第2検出ステップを実行する。第2検出ステップにおいて、3次元表示装置1は、利用者による、第2眼11Lが視認する画像に基づく指示に応じて、利用者の顔の第2位置x2を検出する。利用者は、3次元表示装置1が備える入力部を用いて、3次元表示装置1に対する指示を行うことができる。第2位置x2は、検出部4によって検出されうる。利用者による、第2眼11Lが視認する画像に基づく指示は、第1画像と第2画像との差分が最小となったときに行う指示であってよい。これにより、第2眼11Lと左ドット領域12Lとが光線方向において重なるときの、第1方向(x軸方向)における利用者の頭部の位置を特定することができる。
利用者の眼間距離E1が標準値E0と異なる場合、利用者は、第2眼11Lが視認する第1画像と第2画像との差分を最小とするために、頭部を第1方向において移動させる必要がある。したがって、第2位置x2は第1位置x1と異なってよい。
3次元表示装置1は、利用者に対して、第2眼11Lだけを用いて画像を視認するように促すガイダンスを提示してよい。3次元表示装置1は、利用者に対して、頭部を第1方向に移動させながら画像を視認するように促すガイダンスを提示してよい。3次元表示装置1は、利用者に対して、第2眼11Lが視認する第1画像と第2画像との差分が最小となったときに入力部を操作するように促すガイダンスを提示してよい。利用者に対するガイダンスは、音声によるガイダンスであってよいし、画像によるガイダンスであってよい。
<算出ステップ>
算出ステップにおいて、3次元表示装置1は、第1位置x1と第2位置x2とに基づいて、利用者の眼間距離E1を算出する。このために、先ず、第1位置x1と第2位置x2とに基づいて、第1方向における利用者の頭部の移動距離Δxを算出する。移動距離Δxは、第2位置x2のx座標から第1位置x1のx座標を減算したものであってよい。利用者の眼間距離E1は、図9に示すように、標準距離E0から移動距離Δxを減算することによって得られる。移動距離Δxを算出する際、利用者の頭部と表示パネル2との距離を適宜設定してよい。
このようにして、利用者の眼間距離E1を測定することができる。測定した眼間距離E1に基づいて、利用者に3次元画像を適切に視認させることが可能になる。本実施形態の眼間距離測定方法によれば、検出部4が備えるカメラは、ステレオカメラでなくてよく、単眼カメラであってよい。これにより、利用者の眼間距離E1を簡易な構成の検出部4を用いて測定しうる。
次に、3次元表示装置1が実行する較正方法について説明する。
<<表示パネルの較正>>
3次元表示装置1が実行する較正方法は、図10に示すように、表示ステップと、第1検出ステップと、第2検出ステップと、算出ステップと、較正ステップとを含む。較正ステップは、利用者の眼間距離E1に基づいて、表示パネル2を較正するステップである。3次元表示装置1は、例えば、利用者が、入力部を用いて、眼間距離の測定を開始するための操作を行った場合に、較正を開始してよい。
3次元表示装置1が実行する較正方法における表示ステップ、第1検出ステップ、第2検出ステップおよび算出ステップは、上記の表示ステップ、第1検出ステップ、第2検出ステップおよび算出ステップとそれぞれ同様であってよい。
<第3サブピクセルの判定>
制御部5は、利用者の眼の水平方向の位置に基づいて第3サブピクセルを判定するように構成される。第3サブピクセルは、左可視領域21aLに所定割合以上が含まれる左サブピクセルであって、右可視領域21aRに所定割合以上が含まれる右サブピクセルである。以下に、第3サブピクセルの判定方法の例を説明する。
(第1例)
制御部5は、検出部4が左眼(右眼)の位置を検出すると、左眼(右眼)の位置と、ギャップg、適視距離d、および透光領域32の位置とに基づいて演算を行うことによって、右可視領域21aRを判定してよい。
例えば、図11に示すように、右眼が「10」で示される位置にある場合、制御部5は、ギャップg、適視距離d、および透光領域32の位置に基づいて演算を行うことによって、右可視領域21aRが右可視領域21aR10であると判定するように構成される。制御部5は、右可視領域21aR10に所定割合以上が含まれる右サブピクセルを判定するように構成される。図11に示す例では、制御部5は、サブピクセルP1〜P6を右サブピクセルと判定してよい。制御部5は、右可視領域21aRに基づいて、右眼が視認する右眼画像が最大となるような任意の方法で右サブピクセルを判定してよい。
右眼が「9」で示される位置にある場合、制御部5は、ギャップg、適視距離d、および透光領域32の位置に基づいて演算を行うことによって、右可視領域21aRが右可視領域21aR9であると判定するように構成される。制御部5は、右可視領域21aR9に所定割合以上が含まれる右サブピクセルを判定するように構成される。図11に示す例では、制御部5は、サブピクセルP12およびP1〜P5を右サブピクセルと判定してよい。
上述したように、バリアピッチBp、ギャップg、および適視距離dは、眼間距離Eが標準値E0である場合に左可視領域21aLと右可視領域21aRとが重ならないように予め構成されている。したがって、従来において、制御部5は、例えば、右眼の位置のみを取得し、左眼の位置に基づいて右可視領域21aRを判定し、右可視領域21aRではない領域を左可視領域21aLと判定していた。本実施形態においては、制御部5は、検出部4によって検出された、利用者の左眼の位置と、バリア開口領域の位置、ギャップg、および適視距離dとに基づいて演算を行うことによって、左可視領域21aLを判定するように構成される。制御部5は、左可視領域21aLに基づいて右眼画像を表示させるべき右サブピクセルを判定してよい。制御部5が左可視領域21aLに基づいて左サブピクセルを判定する方法は、右可視領域21aRに基づいて右サブピクセルを判定する方法と同じである。
制御部5は、左サブピクセルおよび右サブピクセルを判定すると、左サブピクセルであって右サブピクセルである第3サブピクセルを判定するように構成される。
(第2例)
制御部5は、予めメモリ8に記憶されている第1テーブルを用いて第3サブピクセルを判定してよい。本例の説明においては、図12に示すように、右眼および左眼の水平方向における位置はそれぞれ情報0〜11で識別される。眼間距離が標準値である場合の右眼の位置を識別する情報は、左眼の位置を識別する情報と同一に付されている。
図13に示すように第1テーブルには、眼間距離Eが標準値E0である場合の左眼および右眼の位置と、左可視領域21aLおよび右可視領域21aRそれぞれに所定割合以上が含まれる左サブピクセルおよび右サブピクセルとが対応して記憶されている。図13に示す例では、列方向に眼の位置を識別する情報0〜11が示され、行方向にはサブピクセルを識別する情報P1〜P12が示されている。第1テーブルには、眼が各位置にあるときに、各サブピクセルが左サブピクセルであるか、右サブピクセルであるかが示されている。図13では、左サブピクセルに「左」が示され、右サブピクセルに「右」が示されている。図12を参照して説明したように、眼間距離が標準値であるとき、左眼が「0」で示す位置にある場合、右眼は「0」で示す位置にある。この場合、図13に示す例では、サブピクセルP1〜P6が左サブピクセルであり、サブピクセルP7〜P12が右サブピクセルであることが示されている。左眼が「1」で示す位置にある場合、右眼は「1」で示す位置にある。この場合、サブピクセルP2〜P7が左サブピクセルであり、P1、およびP8〜P12が右サブピクセルであることが示されている。
眼間距離Eが標準値E0ではない場合、右眼の位置に基づいて図13の第1テーブルに従い画像を表示させると、左眼に対して左眼画像を表示すべきサブピクセルには、右画像が表示される。具体的には、左眼が「11」で示す位置にあり、右眼が「0」で示す位置にある場合、制御部5が、右眼の位置「0」に基づいてサブピクセルP1〜P6に左眼画像を表示させ、サブピクセルP7〜P12に右眼画像を表示させるように構成される。この場合、第1テーブルに示されるように、左眼の位置「11」に基づいて、サブピクセルP1〜P5、およびP12には、左眼画像が表示されるべきである。したがって、右眼の位置に基づいて各サブピクセルに画像が表示されると、利用者は、サブピクセルP12に表示された右眼画像を視認する。このため、左眼が視認する右眼画像の増加によってクロストークが増加する。
そこで、制御部5は、右眼の位置に基づく右可視領域21aRに所定割合以上が含まれる右サブピクセルであって、かつ左眼の位置に基づく左可視領域21aLに所定割合以上が含まれる左サブピクセルであるサブピクセルを第3サブピクセルと判定するように構成される。
例えば、検出部4によって右眼が「0」に示す位置にあると検出された場合、制御部5は、第1テーブルを用いて、右眼の位置「0」に基づいてサブピクセルP7〜P12を右サブピクセルと判定するように構成される。このとき、左眼が「11」に示す位置にあると検出された場合、制御部5は、第1テーブルを用いて、左眼の位置に基づいてサブピクセルP1〜P5、およびP12を左サブピクセルと判定するように構成される。したがって、制御部5は、第3サブピクセルがサブピクセルP12であると判定する。
(第3例)
制御部5は、予めメモリ8に記憶されている右眼の位置および左眼の位置と第3サブピクセルとの対応を示す第2テーブルを用いて第3サブピクセルを判定してよい。
上述したように、左眼の位置および右眼の位置に基づいて左可視領域21aLおよび右可視領域21aRが判定されうる。そして、左可視領域21aLおよび右可視領域21aRに基づいて、それぞれ左サブピクセルおよび右サブピクセルが判定されうる。さらに、左サブピクセルおよび右サブピクセルに基づいて第3サブピクセルが判定されうる。したがって、図14に示すように、第2テーブルには、左眼の位置および右眼の位置に対応して第3サブピクセルが記憶されうる。
制御部5は、左眼の位置および右眼の位置に対応して第2テーブルに記憶されているサブピクセルを第3サブピクセルと判定するように構成される。図14に示す例では、行方向に左眼の位置を識別する情報である0〜11が示され、列方向に右眼の位置を識別する情報である0〜11が示されている。そして、左眼の位置を識別する情報および右眼の位置を識別する情報に対応して、第3サブピクセルとなるサブピクセルを示す情報が記憶されている。
制御部5は、例えば、検出部4によって左眼が「11」に示す位置にあり、右眼が「0」に示す位置にあると検出されたとするように構成される。この場合、制御部5は、第2テーブルで左眼の位置「11」および右眼の位置「0」に対応するサブピクセルP6が第3サブピクセルであると判定するように構成される。
<第4サブピクセルの判定>
制御部5は、利用者の眼の位置に基づいて第4サブピクセルを判定するように構成される。第4サブピクセルは、左サブピクセルでなく、かつ右サブピクセルでないサブピクセルである。例えば、制御部5は、上記の第1例または第2例のように、左サブピクセルおよび右サブピクセルをそれぞれ判定してよい。制御部5は、左サブピクセルでも右サブピクセルでもないサブピクセルを第4サブピクセルと判定してよい。
上述したように、左眼の位置および右眼の位置に基づいて左可視領域21aLおよび右可視領域21aRが判定されうる。左可視領域21aLおよび右可視領域21aRに基づいてそれぞれ、左サブピクセルおよび右サブピクセルが判定されうる。左サブピクセルおよび右サブピクセルに基づいて第4サブピクセルが判定されうる。このため、メモリ8には、右眼の位置および左眼の位置に対応して第4サブピクセルを示す第3テーブルが記憶されうる。このように、メモリ8に第3テーブルが記憶される構成において、制御部5は、左眼の位置および右眼の位置に対応して第3テーブルに記憶されているサブピクセルを第4サブピクセルと判定してよい。
<画像の表示>
続いて、制御部5は、左サブピクセルであって右サブピクセルではないサブピクセルに左眼画像を表示するように構成される。制御部5は、右サブピクセルあって左サブピクセルではないサブピクセルに右眼画像を表示するように構成される。制御部5は、第3サブピクセルに第3画像を表示するように構成される。
制御部5は、第3サブピクセルに、例えば、黒画像を第3画像として表示してよい。黒画像は、例えば、黒色のような、所定輝度を有する画像である。所定輝度は、サブピクセルの表示可能な階調レベルのうち、最も低い階調の輝度またはこれに準じる階調の輝度に対応する値とすることができる。制御部5は、第3サブピクセルに黒画像を表示してよい。
制御部5は、第3サブピクセルに、例えば、利用者の特性に基づいて、左眼画像および右眼画像のいずれかの画像を第3画像として表示してよい。利用者の特性は、例えば、利用者の利き目に関する特性である。具体的には、制御部5は、予め設定された、あるいは外部から入力された利用者の利き目を示す情報に基づいて、利き目に対応する、左眼画像および右眼画像のいずれかの画像を表示してよい。制御部5は、利用者の利き目が左眼である場合、第3画像として左眼画像を表示し、利用者の利き目が右眼である場合、第3画像として右眼画像を表示してよい。
制御部5は、第3サブピクセルに、左眼画像および右眼画像の輝度値の平均値となる輝度値を有する平均画像を第3画像とし表示してよい。
次に、眼間距離Eが標準値E0でない場合に3次元表示装置1が行う処理の一例について図15を参照して説明する。
制御部5は、利用者の左眼および右眼の位置を示す情報を検出部4から取得する(ステップS1)。
ステップS1で左眼の位置を示す情報が取得されると、制御部5は、左眼の位置に基づいて左可視領域21aLを判定し、左可視領域21aLに基づいて左サブピクセルを判定する(ステップS2)。
ステップS2で左可視領域21aLが判定されると、制御部5は、ステップS1で取得された情報が示す右眼の位置に基づいて右可視領域21aRを判定し、右可視領域21aRに基づいて右サブピクセルを判定する(ステップS3)。
ステップS2およびステップS3でそれぞれ左サブピクセルおよび右サブピクセルが判定されると、制御部5は、左サブピクセルおよび右サブピクセルに基づいて第3サブピクセルを判定する(ステップS4)。制御部5は、ステップS1で取得された右眼および左眼の位置を示す情報に基づいて、第3サブピクセルを判定してもよい。
ステップS4で第3サブピクセルが判定されると、制御部5は、左サブピクセルおよび右サブピクセルに基づいて第4サブピクセルを判定する(ステップS5)。制御部5は、ステップS1で取得された右眼および左眼の位置を示す情報に基づいて第4サブピクセルを判定してもよい。
ステップS5で第4サブピクセルが判定されると、制御部5は、左サブピクセルであって右サブピクセルではないサブピクセルに左眼画像を表示する(ステップS6)。
ステップS6で左眼画像が表示されると、制御部5は、右サブピクセルであって左サブピクセルではないサブピクセルに右眼画像を表示する(ステップS7)。
ステップS7で右眼画像が表示されると、制御部5は、第3サブピクセルに第3画像を表示する(ステップS8)。
ステップS8で第3サブピクセルに第3画像が表示されると、制御部5は、第4サブピクセルに黒画像を表示する(ステップS9)。
以上説明したように、本実施形態では、制御部5は、利用者の眼間距離E1(すなわち、利用者の右眼11Rの位置および左眼11Lの位置)に基づいて、左可視領域21aLおよび右可視領域21aRを判定するように構成される。このため、眼間距離Eが標準距離E0でない場合であっても、右眼11Rおよび左眼11Lがそれぞれ視認する領域が正確に判定される。
本実施形態では、制御部5は、左可視領域21aLおよび右可視領域21aRに基づいて、それぞれ左サブピクセルおよび右サブピクセルを判定するように構成される。制御部5は、左サブピクセルであって右サブピクセルでないサブピクセルに左眼画像を表示し、右サブピクセルであって左サブピクセルでないサブピクセルに右眼画像を表示するように構成される。制御部5は、第3サブピクセルに第3画像を表示するように構成される。したがって、眼間距離Eが標準距離E0でない場合に、利用者の眼11が視認する画像を、クロストークが低減されるように制御することができ、利用者は適切に3次元画像を視認することが可能となる。
本実施形態では、制御部5は、右眼11Rの位置、および右眼11Rから標準距離E0にある場合の左眼11Lの位置と、サブピクセルに表示させるべき画像との対応を示す第1テーブルを用いて、右眼の位置に基づいて右サブピクセルを判定することができる。制御部5は、第1テーブルを用いて、左眼の位置に基づいて左サブピクセルを判定することができる。このため、制御部5は、各眼の位置を示す情報を取得するたびに、各眼の位置と、パララックスバリア3および表示パネル2の構成とに基づいて、左可視領域21aLおよび右可視領域21aRを演算する処理を行わなくてもよい。したがって、制御部5の処理負荷が軽減されうる。
本実施形態では、制御部5は、利用者の特性に基づいて、左眼画像または右眼画像を第3画像として両眼可視領域21aLRに表示することができる。このため、例えば利き目が、利き目に対応する画像のみを視認することによって利用者の違和感が低減されうる。
本実施形態では、制御部5は、左眼画像および右眼画像の輝度値の平均値となる輝度値を有する画像を第3画像とし表示することができる。このため、利用者の左眼は、右眼画像よりは左眼画像の輝度に近い輝度を有する画像を視認する。利用者の右眼は、左眼画像よりは右眼画像の輝度に近い輝度を有する画像を視認する。したがって、左眼が右眼画像を視認する場合、あるいは、右眼が左眼画像を視認する場合に比べて違和感の少ない画像が視認されうる。
本実施形態では、制御部5は、輝度値が所定値以下である黒画像を第3画像として表示することができる。このため、利用者の左眼および右眼のいずれの眼も、異なる眼に対応する画像を視認することを回避することができる。したがって、クロストークが低減されうる。
本実施形態では、3次元表示装置1は、左眼の位置および右眼の位置と第3サブピクセルとの対応を示す第2テーブルを記憶するメモリ8を備えることができる。制御部5は、左眼の位置および右眼の位置に基づいて第2テーブルを用いて第3サブピクセルを判定することができる。このため、制御部5は、各眼の位置を示す情報を取得するたびに、各眼の位置と、パララックスバリア3および表示パネル2の構成とに基づいて、左可視領域21aLおよび右可視領域21aRを演算しなくてもよい。制御部5は、左可視領域21aLおよび右可視領域21aRに基づいて、それぞれ左サブピクセルおよび右サブピクセルを判定する処理を行わなくてもよい。したがって、制御部5の処理負荷が軽減されうる。
本実施形態では、制御部5は、第4サブピクセルに黒画像を表示するように構成される。このため、第4サブピクセルから画像光が射出されない。したがって、第4サブピクセルから射出された画像光がパララックスバリア3を構成する部材等に二次反射されることによって発生した迷光が利用者の眼に到達するのを防ぐことができる。したがって、利用者の左眼および右眼は、迷光によって干渉されることなく、それぞれ左眼画像および右眼画像を明確に視認することができる。
本開示に係る構成は、以上説明した実施形態にのみ限定されるものではなく、幾多の変形又は変更が可能である。例えば、各構成部等に含まれる機能等は論理的に矛盾しないように再配置可能であり、複数の構成部等を1つに組み合わせたり、或いは分割したりすることが可能である。
本開示に係る構成を説明する図は、模式的なものである。図面上の寸法比率等は、現実のものと必ずしも一致しない。
本開示において「第1」及び「第2」等の記載は、当該構成を区別するための識別子である。本開示における「第1」及び「第2」等の記載で区別された構成は、当該構成における番号を交換することができる。例えば、第1眼は、第2眼と識別子である「第1」と「第2」とを交換することができる。識別子の交換は同時に行われる。識別子の交換後も当該構成は区別される。識別子は削除してよい。識別子を削除した構成は、符号で区別される。本開示における「第1」及び「第2」等の識別子の記載のみに基づいて、当該構成の順序の解釈、小さい番号の識別子が存在することの根拠に利用してはならない。
本開示において、x軸、y軸、及びz軸は、説明の便宜上設けられたものであり、互いに入れ替えられてよい。本開示に係る構成は、x軸、y軸、及びz軸によって構成される直交座標系を用いて説明されてきた。本開示に係る各構成の位置関係は、直交関係にあると限定されるものではない。
1 3次元表示装置
2 表示部(表示パネル)
21 アクティブエリア
21a 可視領域
21aL 左可視領域
21bL 左不可視領域
21aL9 右可視領域
21aLR 両眼可視領域
21aR 右可視領域
21aR10 右可視領域
22 ブラックマトリックス
3 バリア部(パララックスバリア)
31 遮光面
32 透光領域
4 検出部
5 制御部
6 取得部
7 照射器
8 メモリ
10 移動体
11 眼
11R 右眼(第1眼)
11L 左眼(第2眼)
12L 左ドット領域
12R 右ドット領域
100 ヘッドアップディスプレイ
110 光学系
120 被投影部材
130 光路
140 虚像

Claims (8)

  1. 利用者の第1眼および第2眼に対して光学系を介して投影される視差画像を表示するように構成される表示部と、前記視差画像の画像光の進行方向を規定することによって、前記第1眼および前記第2眼に視差を与えるように構成されるバリア部と、前記利用者の顔の位置を検出するように構成される検出部と、制御部と、を備える3次元表示装置が実行する眼間距離測定方法であって、
    前記表示部の、眼間距離の標準値に基づいて決定された可視領域に、眼間距離測定用の画像を表示する表示ステップと、
    前記利用者による、前記第1眼が視認する画像に基づく指示に応じて、前記利用者の顔の第1位置を検出する第1検出ステップと、
    前記利用者による、前記第2眼が視認する画像に基づく指示に応じて、前記利用者の顔の第2位置を検出する第2検出ステップと、
    前記第1位置と前記第2位置とに基づいて、前記標準値を補正し、前記利用者の眼間距離を算出する算出ステップと、を含む眼間距離測定方法。
  2. 請求項1に記載の眼間距離測定方法であって、
    前記表示ステップは、前記可視領域に、相互に差分を有する第1画像と第2画像とを交互に切り替えて表示する、眼間距離測定方法。
  3. 請求項2に記載の眼間距離測定方法であって、
    前記第1眼が視認する画像に基づく前記指示は、前記第1眼が視認する前記差分が最小となったときに行う指示である、眼間距離測定方法。
  4. 請求項2または3に記載の眼間距離測定方法であって、
    前記第2眼が視認する画像に基づく前記指示は、前記第2眼が視認する前記差分が最小となったときに行う指示である、眼間距離測定方法。
  5. 利用者の第1眼および第2眼に対して光学系を介して投影される視差画像を表示するように構成される表示部と、前記視差画像の画像光の進行方向を規定することによって、前記第1眼および前記第2眼に視差を与えるように構成されるバリア部と、前記利用者の顔の位置を検出するように構成される検出部と、制御部と、を備える3次元表示装置が実行する較正方法であって、
    前記表示部の、眼間距離の標準値に基づいて決定された可視領域に、眼間距離測定用の画像を表示する表示ステップと、
    前記利用者による、前記第1眼が視認する画像に基づく指示に応じて、前記利用者の顔の第1位置を検出する第1検出ステップと、
    前記利用者による、前記第2眼が視認する画像に基づく指示に応じて、前記利用者の顔の第2位置を検出する第2検出ステップと、
    前記第1位置と前記第2位置とに基づいて、前記標準値を補正し、前記利用者の眼間距離を算出する算出ステップと、
    前記利用者の眼間距離に基づいて、前記表示部を較正する較正ステップと、を含む較正方法。
  6. 請求項5に記載の較正方法であって、
    前記表示ステップは、前記可視領域に、相互に差分を有する第1画像と第2画像とを交互に切り替えて表示する、較正方法。
  7. 請求項6に記載の較正方法であって、
    前記第1眼が視認する画像に基づく前記指示は、前記第1眼が視認する前記差分が最小となったときに行う指示である、較正方法。
  8. 請求項6または7に記載の較正方法であって、
    前記第2眼が視認する画像に基づく前記指示は、前記第2眼が視認する前記差分が最小となったときに行う指示である、較正方法。
JP2020079551A 2020-04-28 2020-04-28 眼間距離測定方法および較正方法 Active JP7475191B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2020079551A JP7475191B2 (ja) 2020-04-28 眼間距離測定方法および較正方法
CN202180031463.2A CN115462067A (zh) 2020-04-28 2021-04-15 眼间距离测量方法以及校正方法
PCT/JP2021/015623 WO2021220832A1 (ja) 2020-04-28 2021-04-15 眼間距離測定方法および較正方法
US17/922,076 US20230171394A1 (en) 2020-04-28 2021-04-15 Interocular distance measurement method and correction method
EP21795292.8A EP4145824A1 (en) 2020-04-28 2021-04-15 Interocular distance measurement method and calibration method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020079551A JP7475191B2 (ja) 2020-04-28 眼間距離測定方法および較正方法

Publications (2)

Publication Number Publication Date
JP2021173933A true JP2021173933A (ja) 2021-11-01
JP7475191B2 JP7475191B2 (ja) 2024-04-26

Family

ID=

Also Published As

Publication number Publication date
US20230171394A1 (en) 2023-06-01
EP4145824A1 (en) 2023-03-08
WO2021220832A1 (ja) 2021-11-04
CN115462067A (zh) 2022-12-09

Similar Documents

Publication Publication Date Title
JP6924637B2 (ja) 3次元表示装置、3次元表示システム、移動体、および3次元表示方法
JP7129789B2 (ja) ヘッドアップディスプレイ、ヘッドアップディスプレイシステム、および移動体
US11616940B2 (en) Three-dimensional display device, three-dimensional display system, head-up display, and mobile object
WO2021066110A1 (ja) 3次元表示装置、コントローラ、3次元表示方法、3次元表示システム、及び、移動体
WO2020004275A1 (ja) 3次元表示装置、制御コントローラ、3次元表示方法、3次元表示システム、および移動体
WO2020130049A1 (ja) 3次元表示装置、ヘッドアップディスプレイシステム、及び移動体
WO2019225400A1 (ja) 画像表示装置、画像表示システム、ヘッドアップディスプレイおよび移動体
JP7188888B2 (ja) 画像表示装置、ヘッドアップディスプレイシステム、および移動体
WO2021220832A1 (ja) 眼間距離測定方法および較正方法
US11874464B2 (en) Head-up display, head-up display system, moving object, and method of designing head-up display
JP7475191B2 (ja) 眼間距離測定方法および較正方法
JP6668564B1 (ja) ヘッドアップディスプレイ、ヘッドアップディスプレイシステム、および移動体
WO2020196052A1 (ja) 画像表示モジュール、画像表示システム、移動体、画像表示方法及び画像表示プログラム
WO2020130048A1 (ja) 3次元表示装置、ヘッドアップディスプレイシステム、及び移動体
JP7336782B2 (ja) 3次元表示装置、3次元表示システム、ヘッドアップディスプレイ、及び移動体
WO2022065355A1 (ja) 3次元表示装置、3次元表示方法、3次元表示システム、および移動体
WO2022019154A1 (ja) 3次元表示装置
WO2021066111A1 (ja) 3次元表示装置、3次元表示システム及び移動体
WO2022019215A1 (ja) 3次元表示装置、ヘッドアップディスプレイおよび移動体
WO2023228887A1 (ja) 3次元表示装置、ヘッドアップディスプレイシステム、及び移動体
JP2022106593A (ja) 3次元表示装置
JP2021056254A (ja) パララックスバリア、3次元表示装置、3次元表示システム、ヘッドアップディスプレイ、および移動体
JP2021056255A (ja) パララックスバリア、3次元表示装置、3次元表示システム、ヘッドアップディスプレイ、および移動体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231221

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240416