JP7035510B2 - 表示システム、及び、表示システムの制御方法 - Google Patents

表示システム、及び、表示システムの制御方法 Download PDF

Info

Publication number
JP7035510B2
JP7035510B2 JP2017246846A JP2017246846A JP7035510B2 JP 7035510 B2 JP7035510 B2 JP 7035510B2 JP 2017246846 A JP2017246846 A JP 2017246846A JP 2017246846 A JP2017246846 A JP 2017246846A JP 7035510 B2 JP7035510 B2 JP 7035510B2
Authority
JP
Japan
Prior art keywords
display
display unit
image
unit
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017246846A
Other languages
English (en)
Other versions
JP2019113693A (ja
Inventor
佑一 國友
一馬 北谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2017246846A priority Critical patent/JP7035510B2/ja
Priority to CN201811560616.9A priority patent/CN109960481B/zh
Priority to US16/229,662 priority patent/US10732918B2/en
Publication of JP2019113693A publication Critical patent/JP2019113693A/ja
Application granted granted Critical
Publication of JP7035510B2 publication Critical patent/JP7035510B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0118Head-up displays characterised by optical features comprising devices for improving the contrast of the display / brillance control visibility
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0626Adjustment of display parameters for control of overall brightness
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0693Calibration of display systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/045Zooming at least part of an image, i.e. enlarging it or shrinking it
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/14Detecting light within display terminals, e.g. using a single or a plurality of photosensors
    • G09G2360/144Detecting light within display terminals, e.g. using a single or a plurality of photosensors the light being ambient light

Description

本発明は、表示システム、及び、表示システムの制御方法関する。
従来、表示装置において、外部装置の表示画像を受信して表示するものが知られている(例えば、特許文献1参照)。特許文献1には、頭部装着型表示装置(Head Mounted Display:HMD)が、複数の装置の表示画面を統合するため、外部装置が送信する表示画像を受信して、表示部に表示する例が記載されている。
特開2015-227919公報
特許文献1に開示された構成は、HMDにより全てを表示することを前提として、外部装置の表示画像をHMDの表示において統合することを可能としている。これに対し、表示装置の表示を、表示装置とは異なる外部装置に合わせて制御する手法について、従来、提案された例はない。
本発明は上記事情に鑑みてなされたものであり、表示装置による表示を外部装置に合わせて制御することを目的とする。
上記課題を解決するため、本発明の表示システムは、第1表示部を有する電子機器と、第2表示部を有する表示装置と、を備え、前記表示装置は、外景を視認可能に構成され、前記外景に重ねて画像を表示する前記第2表示部と、前記電子機器から入力されるデータに基づく画像を前記第2表示部に表示させる表示制御部と、を備え、前記表示装置に対する前記電子機器の前記第1表示部の位置を検出し、前記表示装置に対する前記第1表示部の位置が、前記第2表示部により視認される前記外景の範囲に含まれる場合に、前記第2表示部における表示を調整する。
本発明によれば、電子機器と表示装置との位置関係に対応して、第2表示部における表示を調整するので、表示装置の表示状態を、外部装置である電子機器の位置に合わせて制御できる。
また、本発明は、前記第2表示部は外光を透過させることにより前記外景を視認可能とする透過型の表示部であり、前記表示装置に対する前記第1表示部の位置が、前記第2表示部により視認される前記外景の範囲に含まれる場合に、前記第2表示部の表示領域における画像の表示位置、表示サイズ、及び形状の少なくともいずれかを、前記第2表示部を透過して視認される前記第1表示部に合わせて調整する。
この構成によれば、第2表示部を透過して第1表示部を視認する場合の視認性を、適切に調整できる。
また、本発明は、前記第2表示部は、使用者の頭部に装着され、前記使用者の左眼に向けて画像光を発する左眼用表示部、及び、前記使用者の右眼に向けて画像光を発する右眼用表示部を備え、前記第1表示部が前記第2表示部を透過して視認される前記外景に含まれる場合に、前記第1表示部の位置に対応して、前記第2表示部に表示する画像の輻輳角を調整する。
この構成によれば、使用者が第2表示部の表示画像を視認する距離を、第1表示部の位置に対応して調整することができる。
また、本発明は、前記表示装置に対する前記第1表示部の位置が、前記第2表示部を透過して視認される前記外景に含まれない場合に、前記第2表示部に表示する画像の輻輳角を所定の初期状態とする。
この構成によれば、第2表示部を透過して第1表示部が視認される場合と、視認されない場合とで、第2表示部の表示状態を適切に切り替えることができる。
また、本発明は、前記左眼用表示部及び前記右眼用表示部の表示位置を制御することにより、前記第2表示部に表示する画像の輻輳角を調整する。
この構成によれば、使用者が第2表示部の表示画像を視認する距離を、表示位置を制御することによって容易に調整できる。
また、本発明は、前記第1表示部が、前記第2表示部を透過して視認される前記外景に含まれる場合に、前記第1表示部の位置に対応して、前記左眼用表示部及び前記右眼用表示部における虚像の焦点位置を調整する。
この構成によれば、虚像の焦点位置を調整することによって、使用者が第2表示部の表示画像を視認する距離を調整できる。
また、本発明は、前記電子機器は、前記表示装置において前記第2表示部を透過して視認される前記外景に前記第1表示部が含まれる場合に前記第1表示部の表示を第1表示状態とし、前記表示装置において前記第2表示部を透過して視認される前記外景に前記第1表示部が含まれない場合に前記第1表示部の表示を第2表示状態とする電子機器制御部を備え、前記電子機器制御部は、前記第2表示状態で、前記第1表示部における表示を非表示とする制御、及び、前記第1表示部の輝度を前記第1表示状態より低輝度とする制御のいずれかを実行する。
この構成によれば、電子機器制御部の制御によって、電子機器と表示装置との位置関係に対応して、電子機器の第1表示部の表示状態を制御する。これにより、電子機器と表示装置との位置関係に対応して、電子機器の第1表示部の表示状態を適切に調整できる。
また、本発明は、前記表示装置に対する操作に基づいて前記電子機器の動作を制御する外部操作モード、及び、前記表示装置に対する操作に基づく前記電子機器の動作の制御を行わない通常操作モードを切り替えて実行可能であり、前記外部操作モードにおいて、前記表示装置に対する前記第1表示部の位置に基づき前記第2表示部の表示の制御を実行し、前記通常操作モードにおいて、前記第1表示部における表示を非表示とする制御、及び、前記第1表示部の輝度を前記外部操作モードより低輝度とする制御のいずれかを実行する。
この構成によれば、表示装置に対する操作に基づく電子機器の動作の制御を行わない場合と、電子機器の動作を制御する場合とのそれぞれに対応して、電子機器の位置に応じた第2表示部の表示の制御を行うことができる。
また、本発明は、前記電子機器は、前記表示装置に対する前記第1表示部の位置を求める位置検出部と、前記表示装置に出力するデータを処理する映像処理部と、を備え、前記映像処理部は、前記位置検出部により検出された前記第1表示部の位置が、前記第2表示部により視認される前記外景の範囲に含まれる場合に、前記第2表示部の表示領域における画像の表示位置、表示サイズ、及び形状の少なくともいずれかを、前記第2表示部を透過して視認される前記第1表示部に合わせて調整する。
この構成によれば、電子機器の機能により、表示装置の表示状態を、電子機器の位置に合わせて制御できる。
また、上記課題を解決するため、本発明の表示システムの制御方法は、第1表示部を有する電子機器と、外景を視認可能に構成され、前記外景に重ねて画像を表示する第2表示部を有する表示装置と、を備える表示システムの制御方法であって、前記電子機器から前記表示装置に入力されるデータに基づく画像を前記第2表示部に表示し、前記表示装置に対する前記電子機器の前記第1表示部の位置を検出し、前記表示装置に対する前記第1表示部の位置が、前記第2表示部により視認される前記外景の範囲に含まれる場合に、前記第2表示部における表示を調整する。
本発明によれば、電子機器と表示装置との位置関係に対応して、第2表示部における表示を調整する。これにより、表示装置による表示を、電子機器の位置に合わせて制御できる。
また、上記課題を解決するため、本発明の表示装置は、第1表示部を有する電子機器を対象として、前記第1表示部の位置を検出する位置検出部と、外景を視認可能に構成され、前記外景に重ねて画像を表示する第2表示部と、前記第2表示部に画像を表示させる表示制御部と、を備え、前記表示制御部は、前記位置検出部により検出された前記第1表示部の位置が、前記第2表示部により視認される前記外景の範囲に含まれる場合に、前記第2表示部における表示を調整する。
本発明によれば、電子機器と表示装置との位置関係に対応して、表示装置が、第2表示部における表示を調整する。これにより、表示装置による表示を外部装置である電子機器の位置に合わせて制御できる。
また、上記課題を解決するため、本発明の表示装置の制御方法は、外景を視認可能に構成され、前記外景に重ねて画像を表示する表示部を有する表示装置の制御方法であって、前記表示部に画像を表示させ、表示画面を有する電子機器の前記表示画面の位置を検出し、検出した前記表示画面の位置が、前記表示部により視認される前記外景の範囲に含まれる場合に、前記表示部における表示を調整する。
本発明によれば、電子機器と表示装置との位置関係に対応して、表示装置が、第2表示部における表示を調整する。これにより、表示装置による表示を外部装置である電子機器の位置に合わせて制御できる。
本発明は、上述した表示システム、表示システムの制御方法、表示装置、及び、表示装置の制御方法以外の種々の形態で実現することも可能である。例えば、上記の制御方法をコンピューターにより実行するためのプログラム、上記プログラムを記録した記録媒体、上記プログラムを配信するサーバー装置、上記プログラムを伝送する伝送媒体、上記プログラムを搬送波内に具現化したデータ信号等の形態で実現できる。
表示システムを構成するHMD及びPCの外観図。 HMDの光学系の構成を示す図。 画像表示部を使用者の頭部側から見た要部斜視図。 HMDの表示部と撮像範囲との対応を示す説明図。 表示システムを構成する各部のブロック図。 画像表示部に対するPCの相対位置を求める処理を示す説明図。 表示システムの動作を示すフローチャート。 ホスト機器表示モードにおける表示態様の例を示す図。 HMD表示モードにおける表示態様の例を示す図。 HMD表示モードにおける表示態様の別の例を示す図。 表示システムの動作を示すフローチャート。 第2実施形態における表示システムを構成する各部のブロック図。 第2実施形態における表示システムの動作を示すフローチャート。
[1.第1実施形態]
[1-1.表示システムの構成]
図1は、本発明を適用した第1実施形態に係る表示システム1の構成を示す図である。
表示システム1は、HMD(Head Mounted Display:頭部装着型表示装置)100と、HMD100の外部装置としてのPC(Personal Computer)300と、を備える。
HMD100は、使用者(ユーザー)の頭部に装着された状態で使用者に虚像を視認させる画像表示部20(第2表示部)と、画像表示部20を制御する接続装置10と、を備える表示装置である。接続装置10は、箱形のケース(筐体、あるいは本体ともいえる)に、複数のコネクター11を備える。画像表示部20と接続装置10とは、接続ケーブル40により接続される。
図1の例で、接続装置10は3つのコネクター11A、11B、11Cを備える。以下の説明において、コネクター11A、11B、11Cを区別しない場合はコネクター11と総称する。コネクター11は、通信ケーブルを接続する有線インターフェイスであり、この通信ケーブルにより、接続装置10は外部の装置と接続される。コネクター11A、11B、11Cは、例えば、公知の通信インターフェイス規格に準拠するコネクターであり、同一形状のコネクターであってもよく、異なる種類のコネクターであってもよい。本実施形態では、一例として、コネクター11Aを、HDMI(登録商標)(High Definition Multimedia Interface)規格に準拠したコネクターとする。また、コネクター11Bを、USB(Universal Serial Bus)-TypeCコネクターとする。また、コネクター11Cを、MicroUSBコネクターとする。
図1の例では、接続装置10とPC300とがケーブル2により接続される。ケーブル2は、PC300とコネクター11Aとを接続するHDMIケーブル2A、及び、PC300とコネクター11Bとを接続するUSBケーブル2Bで構成される。この例では、PC300は、映像伝送用のHDMIインターフェイス、及び、データ通信用のUSBインターフェイスにより、接続装置10に接続される。
PC300は、画像を表示する表示部330を備えるコンピューターであり、本発明の電子機器に相当する。PC300は、好ましくは可搬型のコンピューターであり、タブレット型コンピューター、ノート型コンピューター、スマートフォン等が挙げられる。図1のPC300は、平板状の本体の表面に、表示部330(第1表示部、表示画面)を備える。表示部330は、液晶表示パネル、有機EL(Electro Luminescent)表示パネル等の表示パネル331(図5)を備え、表示パネル331の表面に、ユーザーの接触操作を検出するタッチセンサー332(図5)が設けられる。
PC300は、HMD100に対しては外部機器として機能する。外部機器は、表示画面を備え、表示画面に画像を表示する機能を有する電子デバイスであればよく、本実施形態ではあくまで一例としてPC300を示す。
画像表示部20は、使用者の頭部に装着される装着体であり、いわゆる頭部装着型ディスプレイ(HMD)である。つまり、HMD100は、HMD本体としての画像表示部20に、PC300等の外部装置を接続するための接続装置10を繋げた構成である。画像表示部20は、本実施形態では眼鏡形状を有する。画像表示部20は、右保持部21と、左保持部23と、前部フレーム27とを有する本体に、右表示ユニット22(右眼用表示部)、左表示ユニット24(左眼用表示部)、右導光板26、及び左導光板28を備える。
右保持部21及び左保持部23は、それぞれ、前部フレーム27の両端部から後方に延び、眼鏡のテンプル(つる)のように、使用者の頭部に画像表示部20を保持する。ここで、前部フレーム27の両端部のうち、画像表示部20の装着状態において使用者の右側に位置する端部を端部ERとし、使用者の左側に位置する端部を端部ELとする。右保持部21は、前部フレーム27の端部ERから、画像表示部20装着状態において使用者の右側頭部に対応する位置まで延伸して設けられる。左保持部23は、端部ELから、画像表示部20の装着状態において使用者の左側頭部に対応する位置まで延伸して設けられる。
右導光板26及び左導光板28は、前部フレーム27に設けられる。右導光板26は、画像表示部20の装着状態において使用者の右眼の眼前に位置し、右眼に画像を視認させる。左導光板28は、画像表示部20の装着状態において使用者の左眼の眼前に位置し、左眼に画像を視認させる。
前部フレーム27は、右導光板26の一端と左導光板28の一端とを互いに連結した形状を有し、この連結位置は、使用者が画像表示部20を装着する装着状態で、使用者の眉間に対応する。前部フレーム27は、右導光板26と左導光板28との連結位置において、画像表示部20の装着状態で使用者の鼻に当接する鼻当て部を設けてもよい。この場合、鼻当て部と右保持部21及び左保持部23とにより画像表示部20を使用者の頭部に保持できる。また、右保持部21及び左保持部23に、画像表示部20の装着状態において使用者の後頭部に接するベルト(図示略)を連結してもよく、この場合、ベルトによって画像表示部20を使用者の頭部に保持できる。
右表示ユニット22及び左表示ユニット24は、それぞれ、光学ユニット及び周辺回路をユニット化したモジュールである。
右表示ユニット22は、右導光板26による画像の表示に係るユニットであり、右保持部21に設けられ、装着状態において使用者の右側頭部の近傍に位置する。左表示ユニット24は、左導光板28による画像の表示に係るユニットであり、左保持部23に設けられ、装着状態において使用者の左側頭部の近傍に位置する。なお、右表示ユニット22及び左表示ユニット24を総称して単に「表示駆動部」とも呼ぶ。
右導光板26及び左導光板28は、光透過性の樹脂等によって形成される光学部であり、右表示ユニット22及び左表示ユニット24が出力する画像光を、使用者の眼に導く。右導光板26及び左導光板28は、例えばプリズムである。
右導光板26及び左導光板28の表面に、調光板(図示略)を設けてもよい。調光板は、光の波長域により透過率が異なる薄板上の光学素子であり、いわゆる波長フィルターとして機能する。調光板は、例えば、使用者の眼の側とは反対の側である前部フレーム27の表側を覆うように配置される。この調光板の光学特性を適宜選択することによって、可視光、赤外光及び紫外光等の任意の波長域の光の透過率を調整することができ、外部から右導光板26及び左導光板28に入射し、右導光板26及び左導光板28を透過する外光の光量を調整できる。
画像表示部20は、右表示ユニット22及び左表示ユニット24がそれぞれ生成する画像光を、右導光板26及び左導光板28に導き、この画像光によって虚像を使用者に視認させることによって、画像を表示する。使用者の前方から、右導光板26及び左導光板28を透過して外光が使用者の眼に入射する場合、使用者の眼には、虚像を構成する画像光および外光が入射することとなり、虚像の視認性が外光の強さに影響される。このため、例えば前部フレーム27に調光板を装着し、調光板の光学特性を適宜選択あるいは調整することによって、虚像の視認のしやすさを調整できる。典型的な例では、HMD100を装着した使用者が少なくとも外の景色を視認できる程度の光透過性を有する調光板を用いることができる。また、調光板を用いると、右導光板26及び左導光板28を保護し、右導光板26及び左導光板28の損傷や汚れの付着等を抑制する効果が期待できる。調光板は、前部フレーム27、或いは、右導光板26及び左導光板28のそれぞれに対し着脱可能としてもよく、複数種類の調光板を交換して装着可能としてもよく、調光板を省略してもよい。
画像表示部20の右表示ユニット22及び左表示ユニット24は、それぞれ、接続装置10に接続される。HMD100では、左保持部23に接続ケーブル40が接続され、この接続ケーブル40に繋がる配線が画像表示部20内部に敷設され、右表示ユニット22と左表示ユニット24のそれぞれが接続装置10に接続される。
カメラ61は、画像表示部20の前部フレーム27に配設される。カメラ61は、使用者が画像表示部20を装着した状態で視認する外景方向を撮像することが望ましく、前部フレーム27の前面において、右導光板26及び左導光板28を透過する外光を遮らない位置に設けられる。図1の例では、カメラ61が前部フレーム27の端部ER側に配置される。カメラ61は、端部EL側に配置されてもよく、右導光板26と左導光板28との連結部に配置されてもよい。
カメラ61は、CCDやCMOS等の撮像素子及び撮像レンズ等を備えるデジタルカメラであり、本実施形態のカメラ61は単眼カメラであるが、ステレオカメラで構成してもよい。カメラ61は、HMD100の表側方向、換言すれば、HMD100を装着した状態における使用者の視界方向の少なくとも一部の外景を撮像する。外景は、実空間と言い換えることができる。
別の表現では、カメラ61は、使用者の視界と重なる範囲または方向を撮像し、使用者が注視する方向を撮像する。カメラ61の画角の広さは適宜設定可能であるが、本実施形態では、後述するように、使用者が右導光板26及び左導光板28を通して視認する外界を含む。より好ましくは、右導光板26及び左導光板28を透過して視認可能な使用者の視界の全体を撮像できるように、カメラ61の撮像範囲が設定される。
HMD100は、距離センサー64を備える。距離センサー64は、右光学像表示部26と左光学像表示部28との境目部分に配置される。使用者が画像表示部20を装着した状態で、距離センサー64の位置は、水平方向においては使用者の両眼のほぼ中間であり、鉛直方向においては使用者の両眼より上である。
距離センサー64は、予め設定された測定方向に位置する測定対象物までの距離を検出する。本実施形態の距離センサー64の測定方向は、HMD100の表側方向であり、カメラ61の撮像方向と重複する。
図2は、HMD100の光学系の構成を示す要部平面図である。図2には説明のため使用者の左眼LE及び右眼REを図示する。
図2に示すように、右表示ユニット22と左表示ユニット24とは、左右対称に構成される。使用者の右眼REに画像を視認させる構成として、右表示ユニット22は、画像光を発するOLED(Organic Light Emitting Diode)ユニット221を備える。また、OLEDユニット221が発する画像光Lを導くレンズ群等を備えた右光学系251を備える。画像光Lは、右光学系251により右導光板26に導かれる。
OLEDユニット221は、OLEDパネル223と、OLEDパネル223を駆動するOLED駆動回路225とを有する。OLEDパネル223は、有機エレクトロルミネッセンスにより発光してR(赤)、G(緑)、B(青)の色光をそれぞれ発する発光素子を、マトリクス状に配置して構成される、自発光型の表示パネルである。OLEDパネル223は、R、G、Bの素子を1個ずつ含む単位を1画素として、複数の画素を備え、マトリクス状に配置される画素により画像を形成する。
OLED駆動回路225は、接続装置10から入力される画像データに基づき、OLEDパネル223が備える発光素子の選択及び発光素子への通電を実行して、OLEDパネル223の発光素子を発光させる。OLED駆動回路225は、OLEDパネル223の裏面すなわち発光面の裏側に、ボンディング等により固定される。OLED駆動回路225は、例えばOLEDパネル223を駆動する半導体デバイスで構成され、OLEDパネル223の裏面に固定される基板(図示略)に実装されてもよい。この基板には温度センサー217が実装される。
なお、OLEDパネル223は、白色に発光する発光素子をマトリクス状に配置し、R、G、Bの各色に対応するカラーフィルターを重ねて配置する構成であってもよい。また、R、G、Bの色光をそれぞれ放射する発光素子に加え、W(白)の光を発する発光素子を備えるWRGB構成のOLEDパネル223を用いてもよい。
右光学系251は、OLEDパネル223から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、右導光板26に入射する。右導光板26の内部において光を導く光路には、画像光Lを反射する複数の反射面が形成される。画像光Lは、右導光板26の内部で複数回の反射を経て右眼RE側に導かれる。右導光板26には、右眼REの眼前に位置するハーフミラー261(反射面)が形成される。画像光Lは、ハーフミラー261で反射して右眼REに向けて右導光板26から射出され、この画像光Lが右眼REの網膜に像を結び、使用者に画像を視認させる。
また、使用者の左眼LEに画像を視認させる構成として、左表示ユニット24は、画像光を発するOLEDユニット241と、OLEDユニット241が発する画像光Lを導くレンズ群等を備えた左光学系252とを備える。画像光Lは、左光学系252により左導光板28に導かれる。
OLEDユニット241は、OLEDパネル243と、OLEDパネル243を駆動するOLED駆動回路245とを有する。OLEDパネル243は、OLEDパネル223と同様に構成される自発光型の表示パネルである。OLED駆動回路245は、接続装置10から入力される画像データに基づき、OLEDパネル243が備える発光素子の選択及び発光素子への通電を実行して、OLEDパネル243の発光素子を発光させる。OLED駆動回路245は、OLEDパネル243の裏面すなわち発光面の裏側に、ボンディング等により固定される。OLED駆動回路245は、例えばOLEDパネル243を駆動する半導体デバイスで構成され、OLEDパネル243の裏面に固定される基板(図示略)に実装されてもよい。この基板には、温度センサー239が実装される。
左光学系252は、OLEDパネル243から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、左導光板28に入射する。左導光板28は、画像光Lを反射する複数の反射面が形成された光学素子であり、例えばプリズムである。画像光Lは、左導光板28の内部で複数回の反射を経て左眼LE側に導かれる。左導光板28には、左眼LEの眼前に位置するハーフミラー281(反射面)が形成される。画像光Lは、ハーフミラー281で反射して左眼LEに向けて左導光板28から射出され、この画像光Lが左眼LEの網膜に像を結び、使用者に画像を視認させる。
HMD100は、シースルー型の表示装置として機能する。すなわち、使用者の右眼REには、ハーフミラー261で反射した画像光Lと、右導光板26を透過した外光OLとが入射する。また、左眼LEには、ハーフミラー281で反射した画像光Lと、ハーフミラー281を透過した外光OLとが入射する。このように、HMD100は、内部で処理した画像の画像光Lと外光OLとを重ねて使用者の眼に入射させ、使用者にとっては、右導光板26及び左導光板28を透かして外景が見え、この外景に重ねて、画像光Lによる画像が視認される。ハーフミラー261、281は、右表示ユニット22及び左表示ユニット24がそれぞれ出力する画像光を反射して画像を取り出す画像取り出し部であり、表示部と呼ぶこともできる。
なお、左光学系252と左導光板28とを総称して「左導光部」とも呼び、右光学系251と右導光板26とを総称して「右導光部」と呼ぶ。右導光部及び左導光部の構成は上記の例に限定されず、画像光を用いて使用者の眼前に虚像を形成する限りにおいて任意の方式を用いることができ、例えば、回折格子を用いても良いし、半透過反射膜を用いても良い。
図3は、画像表示部20を使用者の頭部側から見た要部斜視図であり、画像表示部20の使用者の頭部に接する側、言い換えれば使用者の右眼RE及び左眼LEに見える側である。別の言い方をすれば、右導光板26及び左導光板28の裏側が見えている。
図3では、使用者の右眼REに画像光を照射するハーフミラー261、及び、左眼LEに画像光を照射するハーフミラー281が、略四角形の領域として見える。また、ハーフミラー261、281を含む右導光板26及び左導光板28の全体が、上述したように外光を透過する。このため、使用者には、右導光板26及び左導光板28の全体を透過して外景が視認され、ハーフミラー261、281の位置に矩形の表示画像が視認される。
図4は、HMD100の画像表示部20と撮像範囲との対応を示す説明図である。
カメラ61は、上記のように画像表示部20において右側の端部に配置され、使用者の両眼が向く方向、すなわち使用者にとって前方を撮像する。
図4には、カメラ61の位置を、使用者の右眼RE及び左眼LEとともに平面視で模式的に示す図である。カメラ61の画角(撮像範囲)をCで示す。なお、図4には水平方向の画角Cを示すが、カメラ61の実際の画角は一般的なデジタルカメラと同様に上下方向にも拡がる。
カメラ61の光軸は、右眼REの視線方向RD及び左眼LEの視線方向LDを含む方向とされる。使用者がHMD100を装着した状態で視認できる外景は、無限遠とは限らない。例えば図4に示すように、使用者が両眼で対象物OBを注視すると、使用者の視線RD、LDは対象物OBに向けられる。この場合、使用者から対象物OBまでの距離は、30cm~10m程度であることが多く、1m~4m程度であることが、より多い。そこで、HMD100について、通常使用時における使用者から対象物OBまでの距離の上限、及び下限の目安を定めてもよい。この目安は調査や実験により求めてもよいし使用者が設定してもよい。カメラ61の光軸、及び画角は、通常使用時における対象物OBまでの距離が、設定された上限の目安に相当する場合、及び、下限の目安に相当する場合に、この対象物OBが画角に含まれるように、設定されることが好ましい。
また、一般に、人間の視野角は水平方向におよそ200度、垂直方向におよそ125度とされ、そのうち情報受容能力に優れる有効視野は水平方向に30度、垂直方向に20度程度である。さらに、人間が注視する注視点が迅速に安定して見える安定注視野は、水平方向に60~90度、垂直方向に45度~70度程度とされている。この場合、注視点が、図4の対象物OBであるとき、視線RD、LDを中心として水平方向に30度、垂直方向に20度程度が有効視野である。また、水平方向に60~90度、垂直方向に45度~70度程度が安定注視野であり、水平方向に約200度、垂直方向に約125度が視野角となる。さらに、使用者が画像表示部20を透過して右導光板26及び左導光板28を透過して視認する実際の視野を、実視野(FOV:Field Of View)と呼ぶことができる。図1及び図2に示す本実施形態の構成で、実視野は、右導光板26及び左導光板28を透過して使用者が視認する実際の視野に相当する。実視野は、視野角及び安定注視野より狭いが、有効視野より広い。
カメラ61の画角Cは、使用者の視野よりも広い範囲を撮像可能であることが好ましく、具体的には、画角Cが、少なくとも使用者の有効視野よりも広いことが好ましい。また、画角Cが、使用者の実視野よりも広いことが、より好ましい。さらに好ましくは、画角Cが、使用者の安定注視野よりも広く、最も好ましくは、画角Cが使用者の両眼の視野角よりも広い。
カメラ61が、撮像レンズとして、いわゆる広角レンズを備え、広い画角を撮像できる構成としてもよい。広角レンズには、超広角レンズ、準広角レンズと呼ばれるレンズを含んでもよいし、単焦点レンズであってもズームレンズであってもよく、複数のレンズからなるレンズ群をカメラ61が備える構成であってもよい。
また、上述のように、本実施形態のカメラ61は、画像表示部20の前部フレーム27において端部ER側に配置されるが、端部EL側に配置されてもよく、右導光板26と左導光板28との連結部に配置されてもよい。この場合、カメラ61の左右方向における位置は図4の位置とは異なり、画角Cは、カメラ61の位置に応じて適宜に設定される。具体的には、カメラ61が端部EL側にある場合、画角Cは図4中の右斜め前を向く。まや、例えばカメラ61が右導光板26と左導光板28との連結部に配置される場合、画角Cは画像表示部20の正面を向く。
使用者が右眼RE及び左眼LEで物体を見る場合、右眼REの視線方向と左眼LEの視線方向とがなす角度により、物体までの距離を知覚し、認識する。この角度は輻輳角と呼ばれ、例えば図4に示す対象物OBを見る場合の輻輳角はPAである。
使用者がハーフミラー261、281に表示される画像を見る場合の輻輳角は、右眼REでハーフミラー261の画像を見る場合の視線方向と、左眼LEでハーフミラー281の画像を見る場合の視線方向との角度である。この場合の輻輳角の大きさは、ハーフミラー261、281における画像の表示位置により決まる。従って、右表示ユニット22及び左表示ユニット24が画像を表示する表示位置を調整することによって、輻輳角を制御して、使用者が視覚により認識する距離感を制御できる。例えば、右表示ユニット22及び左表示ユニット24により表示される画像について、使用者が認識する距離感(視認距離)を調整できる。
また、距離センサー64は、右光学像表示部26と左光学像表示部28との中央において、前方を向いて配置される。
[1-2.表示システムの制御系]
図5は、表示システム1を構成するHMD100及びPC300の構成を示すブロック図である。
上述のように、HMD100は、接続装置10と、画像表示部20とを接続ケーブル40により接続して構成される。
画像表示部20は、上述したように右表示ユニット22及び左表示ユニット24を備える。右表示ユニット22は、表示ユニット基板210を有する。表示ユニット基板210には、接続ケーブル40に接続される接続部211、接続部211を介して接続装置10から入力されるデータを受信する受信部(Rx)213、及び、EEPROM215が実装される。
接続部211は、受信部213、EEPROM215、温度センサー217、カメラ61、距離センサー64、照度センサー65、及びLEDインジケーター67を、接続装置10に接続する。
EEPROM(Electrically Erasable Programmable Read-Only Memory)215は、各種のデータを不揮発的に記憶する。EEPROM215は、例えば、画像表示部20が備えるOLEDユニット221、241の発光特性や表示特性に関するデータ、右表示ユニット22または左表示ユニット24が備えるセンサーの特性に関するデータなどを記憶する。具体的には、OLEDユニット221、241のガンマ補正に係るパラメーター、温度センサー217、239の検出値を補償するデータ等を記憶する。これらのデータは、HMD100の工場出荷時の検査によって生成され、EEPROM215に書き込まれる。EEPROM215が記憶するデータは、制御部120により読取り可能である。
カメラ61は、接続部211を介して入力される信号に従って撮像を実行し、撮像画像データを、接続部211に出力する。
照度センサー65は、図1に示すように、前部フレーム27の端部ERに設けられ、画像表示部20を装着する使用者の前方からの外光を受光するよう配置される。照度センサー65は、受光量(受光強度)に対応する検出値を出力する。
LEDインジケーター67は、図1に示すように、前部フレーム27の端部ERにおいてカメラ61の近傍に配置される。LEDインジケーター67は、カメラ61による撮像を実行中に点灯して、撮像中であることを報知する。
温度センサー217は、温度を検出し、検出温度に対応する電圧値あるいは抵抗値を、検出値として出力する。温度センサー217は、OLEDパネル223(図3)の裏面側に実装される。温度センサー217は、例えばOLED駆動回路225と同一の基板に実装されてもよい。この構成により、温度センサー217は、主としてOLEDパネル223の温度を検出する。
距離センサー64は、距離検出を実行し、検出結果を示す信号を、接続部211を介して接続装置10に出力する。距離センサー64は、例えば、赤外線式深度(Depth)センサー、超音波式距離センサー、TOF(Time Of Flight)式距離センサー、画像検出と音声検出とを組み合わせた距離検出ユニット等を用いることができる。また、ステレオカメラや単眼カメラによるステレオ撮影で得られる画像を処理して距離を検出する構成であってもよい。
図5には1つの距離センサー64を図示するが、図4に示す一対の距離センサー64、64が同時に動作してもよい。また、一対の距離センサー64、64のそれぞれが、接続部211に接続され、独立して動作する構成であってもよい。
受信部213は、接続部211を介して接続装置10から伝送される表示用の画像データを受信し、OLEDユニット221に出力する。
左表示ユニット24は、表示ユニット基板210を有する。表示ユニット基板210には、接続ケーブル40に接続される接続部231、接続部231を介して接続装置10から入力されるデータを受信する受信部(Rx)233が実装される。また、表示ユニット基板210には、6軸センサー235、及び、磁気センサー237が実装される。
接続部231は、受信部233、6軸センサー235、磁気センサー237、及び温度センサー239を、接続装置10に接続する。
6軸センサー235は、3軸加速度センサー、及び、3軸ジャイロ(角速度)センサーを備えるモーションセンサー(慣性センサー)である。6軸センサー235は、上記のセンサーがモジュール化されたIMU(Inertial Measurement Unit)を採用してもよい。磁気センサー237は、例えば、3軸の地磁気センサーである。
温度センサー239は、温度を検出し、検出温度に対応する電圧値あるいは抵抗値を、検出値として出力する。温度センサー239は、OLEDパネル243(図3)の裏面側に実装される。温度センサー239は、例えばOLED駆動回路245と同一の基板に実装されてもよい。この構成により、温度センサー239は、主としてOLEDパネル243の温度を検出する。
また、温度センサー239が、OLEDパネル243或いはOLED駆動回路245に内蔵されてもよい。また、上記基板は半導体基板であってもよい。具体的には、OLEDパネル243が、Si-OLEDとして、OLED駆動回路245等とともに統合半導体チップ上の集積回路として実装される場合、この半導体チップに温度センサー239を実装してもよい。
画像表示部20の各部は、接続ケーブル40により接続装置10から供給される電力により動作する。画像表示部20は、接続ケーブル40により供給される電力の電圧変換や分配をするための電源回路(図示略)を備えてもよい。
接続装置10は、I/F(インターフェイス)部110、制御部120、表示制御部122、センサー制御部124、電源制御部126、不揮発性記憶部130、操作部140、及び、接続部145を備える。取得部としてのI/F部110は、コネクター11A、11B、11Cを備える。また、I/F部110は、コネクター11A、11B、11Cに接続されて、各種通信規格に準拠した通信プロトコルを実行するインターフェイス回路(図示略)を備えてもよい。また、I/F部110は、コネクター11A、11B、11Cを介して給電を受ける構成であってもよい。
I/F部110は、例えば、外部の記憶装置や記憶媒体を接続可能なメモリーカード用インターフェイス等を備えてもよいし、I/F部110を無線通信インターフェイスで構成してもよい。I/F部110は、例えば、コネクター11A、11B、11C及びインターフェイス回路を実装したインターフェイス基板であってもよい。また、接続装置10の制御部120や表示制御部122、センサー制御部124、電源制御部126が接続装置メイン基板(図示略)に実装される構成としてもよい。この場合、接続装置メイン基板にI/F部110のコネクター11A、11B、11C及びインターフェイス回路を実装してもよい。
制御部120は、接続装置10の各部を制御する。制御部120は、CPU(Central Processing Unit)やマイコン等のプロセッサー(図示略)を備える。制御部120は、プロセッサーによりプログラムを実行することによって、ソフトウェアとハードウェアとの協働によりHMD100の各部を制御する。また、制御部120は、プログラムされたハードウェアにより構成されてもよい。制御部120は、プロセッサーとともに、ワークエリアを形成するRAM(Random Access Memory)、制御プログラムを記憶するROM(Read Only Memory)を備えてもよい。また、プロセッサー、RAM、及びROMを統合した半導体デバイスであってもよい。
制御部120には、不揮発性記憶部130、操作部140、及び、接続部145が接続される。
表示制御部122は、I/F部110に入力される画像データや映像データに基づく画像を画像表示部20により表示するための各種処理を実行する。例えば、表示制御部122は、フレームの切り出し、解像度変換(スケーリング)、中間フレーム生成、フレームレート変換等の各種処理を実行する。表示制御部122は、右表示ユニット22のOLEDユニット221、及び、左表示ユニット24のOLEDユニット241の各々に対応する画像データを接続部145に出力する。接続部145に入力された画像データは、接続ケーブル40を介して接続部211、231に伝送される。
表示制御部122は、例えば、I/F部110に入力された映像データが3D(立体)映像データである場合に、3D映像デコードを実行する。3D映像デコードの処理において、表示制御部122は、3D映像データから右眼用のフレームと左眼用のフレームとを生成する。I/F部110に入力される3D映像データの形式は、例えば、サイドバイサイド形式、トップアンドボトム形式、フレームパッキング形式等が挙げられるが、3Dモデルデータであってもよい。
表示制御部122は、I/F部110が備えるコネクター11A、及び、コネクター11Bに接続される。表示制御部122は、コネクター11Aに入力される映像データ、及び、コネクター11Bに入力される映像データを対象として、処理を実行する。また、表示制御部122は、コネクター11A、またはコネクター11Bに接続された装置との間で、映像データの伝送に関する各種制御データを送受信する機能を有していてもよい。
センサー制御部124は、カメラ61、距離センサー64、照度センサー65、温度センサー217、6軸センサー235、磁気センサー237、及び、温度センサー239を制御する。具体的には、センサー制御部124は、制御部120の制御に従って各センサーのサンプリング周期の設定及び初期化を行い、各センサーのサンプリング周期に合わせて、各センサーへの通電、制御データの送信、検出値の取得等を実行する。
また、センサー制御部124は、I/F部110のコネクター11Bに接続され、予め設定されたタイミングで、各センサーから取得した検出値に関するデータをコネクター11Bに出力する。これにより、コネクター11Bに接続された装置は、HMD100の各センサーの検出値や、カメラ61の撮像画像データを取得できる。センサー制御部124が出力するデータは、検出値を含むデジタルデータであってもよい。また、センサー制御部124は、各センサーの検出値をもとに演算処理した結果のデータを出力してもよい。例えば、センサー制御部124は、複数のセンサーの検出値を統合的に処理し、いわゆるセンサーフュージョン処理部として機能する。センサーフュージョンを実行することにより、センサー制御部124は、センサーの検出値から求めたデータ、例えば、画像表示部20の動きの軌跡データや、画像表示部20の相対座標データ等を出力する。センサー制御部124は、コネクター11Bに接続された装置との間で、データの伝送に関する各種制御データを送受信する機能を有していてもよい。
表示制御部122、及び/またはセンサー制御部124は、CPU等のプロセッサーがプログラムを実行することにより、ソフトウェアとハードウェアとの協働により実現されてもよい。すなわち、表示制御部122及びセンサー制御部124は、プロセッサーにより構成され、プログラムを実行することで上記の動作を実行する。この例で、表示制御部122及びセンサー制御部124は、制御部120を構成するプロセッサーがプログラムを実行することで実現されてもよい。言い換えれば、プロセッサーがプログラムを実行することで、制御部120、表示制御部122、及びセンサー制御部124として機能してもよい。ここで、プロセッサーは、コンピューターと言い換えることができる。
また、表示制御部122、及び、センサー制御部124は、DSP(Digital Signal Processor)やFPGA(Field Programmable Gate Array)等、プログラムされたハードウェアにより構成されてもよい。また、表示制御部122及びセンサー制御部124を統合して、SoC(System-on-a-Chip)-FPGAとして構成してもよい。
電源制御部126は、I/F部110が備えるコネクター11B及びコネクター11Cに接続される。電源制御部126は、コネクター11B、11Cから供給される電力に基づき、接続装置10の各部および画像表示部20に対する電源供給を行う。また、電源制御部126は、電圧変換回路(図示略)を内蔵し、異なる電圧を接続装置10及び画像表示部20の各部に供給可能な構成であってもよい。電源制御部126は、ロジック回路や、FPGA等のプログラムされた半導体デバイスで構成されてもよい。また、電源制御部126を表示制御部122、及び/またはセンサー制御部124と共通のハードウェア(プロセッサーを含む)で構成してもよい。
表示制御部122、センサー制御部124及び電源制御部126は、データ処理を行うためのワークメモリーを具備してもよく、制御部120が備えるRAM(図示略)のワークエリアを利用して処理を行ってもよい。
制御部120は、右表示ユニット22が備えるEEPROM215からデータを読み出し、読み出したデータに基づいて、表示制御部122及びセンサー制御部124の動作を設定する。また、制御部120は、操作部140における操作に従って、表示制御部122、センサー制御部124、及び、電源制御部126を含む各部を動作させる。また、制御部120は、表示制御部122、センサー制御部124及び電源制御部126がI/F部110を介して接続された装置を識別し、各装置に適した動作を実行するように、表示制御部122、センサー制御部124及び電源制御部126を制御する。
また、制御部120は、LEDインジケーター67への通電開始及び停止を制御する。例えば、カメラ61が撮像を開始及び終了するタイミングに合わせて、LEDインジケーター67を点灯または点滅させる。
不揮発性記憶部130は、制御部120が処理するデータ等を不揮発的に記憶する記憶装置である。不揮発性記憶部130は、例えば、HDD(Hard Disk Drive)等の磁気的記録装置、或いは、フラッシュメモリー等の半導体記憶素子を用いた記憶装置である。
また、接続装置10は充電可能なバッテリー(図示略)を備え、このバッテリーから接続装置10及び画像表示部20の各部に電力を供給する構成であってもよい。
PC300は、制御部310、不揮発性記憶部320、表示部330、I/F(インターフェイス)部341、及び、通信部345を備える。制御部310(電子機器制御部)は、CPUやマイコン等のプロセッサー(図示略)を備え、このプロセッサーによりプログラムを実行することにより、PC300の各部を制御する。制御部310は、プロセッサー(いわゆるコンピューター)が実行する制御プログラムを不揮発的に記憶するROM、及び、プロセッサーのワークエリアを構成するRAMを備えてもよい。
不揮発性記憶部320は、制御部310により実行されるプログラムや、制御部310が処理するデータを不揮発的に記憶する。不揮発性記憶部130は、例えば、HDD等の磁気的記録装置、或いは、フラッシュメモリー等の半導体記憶素子を用いた記憶装置である。
不揮発性記憶部320は、例えば、映像を含むコンテンツのコンテンツデータ321を記憶する。コンテンツデータ321は、制御部310により処理可能なフォーマットのファイルであり、映像データを含み、音声データを含んでもよい。
また、不揮発性記憶部320は、制御部310が実行する基本制御プログラムとしてのオペレーティングシステム(OS)、OSをプラットフォームとして動作するアプリケーションプログラム等を記憶する。また、不揮発性記憶部320は、アプリケーションプログラムの実行時に処理されるデータや処理結果のデータを記憶する。
表示部330が備える表示パネル331、及び、タッチセンサー332は、制御部310に接続される。表示パネル331は、制御部310の制御に基づき各種画像を表示する。タッチセンサー332は、タッチ操作を検出し、検出した操作を示すデータを制御部310に出力する。タッチセンサー332が出力するデータは、タッチセンサー332における操作位置を示す座標データ等である。
I/F部341は、外部の装置に接続されるインターフェイスであり、本発明の出力部に相当する。I/F部341は、例えば、HDMIインターフェイス、USBインターフェイス等の規格に準拠した通信を実行する。I/F部341は、ケーブル(例えば、ケーブル2)を接続するコネクター(図示略)、及び、コネクターを伝送される信号を処理するインターフェイス回路(図示略)を備える。I/F部341は、コネクター及びインターフェイス回路を有するインターフェイス基板であり、制御部310のプロセッサー等が実装されるメイン基板に接続される。或いは、I/F部341を構成するコネクター及びインターフェイス回路が、PC300のメイン基板に実装される。本実施形態で、I/F部341は、HDMIインターフェイス、及び、USBインターフェイスを備え、HDMIケーブル2A及びUSBケーブル2Bにより、コネクター11A、11Bに接続される。制御部310は、例えば、HDMIケーブル2Aにより映像データを出力し、USBケーブル2Bにより接続装置10からセンサーの出力値に関するデータ等を受信する。I/F部341は、HDMIケーブル2Aによる通信とUSBケーブル2Bによる通信とを独立して実行できる。また、I/F部341は、無線通信インターフェイスであってもよい。この場合、I/F部341は、RF部を含む通信回路を実装したインターフェイス基板、或いは、メイン基板に実装される回路とすることができる。
通信部345は、外部の装置とデータ通信を実行する通信インターフェイスである。通信部345は、ケーブルを接続可能な有線通信インターフェイスであってもよいし、無線通信インターフェイスであってもよい。例えば、Ethernet(登録商標)に対応する有線LANインターフェイスや、IEEE802.11規格に対応する無線LANインターフェイスであってもよい。
制御部310は、上記のようにプログラムを実行することにより、入出力制御部311、検出値取得部312、位置検出部313、及び、画像調整部315として機能する。
入出力制御部311は、使用者による入力を検出する。制御部310は、入出力制御部311が検出する入力に基づき、表示部330に表示する画面の切り替え等の表示制御、アプリケーションプログラムの実行開始や終了等の動作を実行する。また、入出力制御部311は、I/F部341及び通信部345によるデータの入出力を制御する。
制御部310は、入力を検出する処理が異なる2つの動作モードを実行する。すなわち、使用者がPC300に対して行う入力操作を検出するホスト機器表示モード、及び、HMD100に対する操作をPC300への入力操作として検出するHMD表示モードを、切り替えて実行する。ホスト機器表示モードは、本発明の通常操作モードに対応し、HMD表示モードは本発明の外部操作モードに対応する。
ホスト機器表示モードでは、入出力制御部311は、タッチセンサー332から入力されるデータに基づき、ユーザーによる入力を検出する。
HMD表示モードでは、入出力制御部311は、I/F部341に入力されるデータを、HMD100に対する操作を示す操作データとして取得する。操作データは、接続装置10のコネクター11BからUSBインターフェイスを介して出力されるデータである。操作データの実体は、HMD100が備えるセンサーの出力値、または、センサーの出力値を接続装置10が処理したデータである。
検出値取得部312は、I/F部341により接続された接続装置10から、HMD100が備える各センサーの検出値に関するデータを取得する。検出値取得部312は、カメラ61の撮像画像データや、距離センサー64、照度センサー65、EEPROM215、6軸センサー235、磁気センサー237、温度センサー239等の検出値に関するデータを、接続装置10から取得する。検出値取得部312が取得するデータは、センサー制御部124により処理されたデータであり、各センサーの検出値を含むデータや、センサー制御部124により統計的に処理されたデータであってもよい。
位置検出部313は、検出値取得部312により取得されたデータに基づき、HMD100の位置を検出する。より詳細には、位置検出部313は、PC300と画像表示部20との相対位置を検出する。ここで、位置検出部313が検出する相対位置は、画像表示部20とPC300が存在する空間における位置であってもよいし、画像表示部20と表示部330の相対的な向きを含んでもよい。例えば、画像表示部20を基準とした場合の表示部330の位置および/または方向を示す情報であってもよい。また、例えば、PC300を基準とした場合の画像表示部20の位置および/または方向を示す情報であってもよい。また、例えば、画像表示部20及びPC300が存在する空間に設定された三次元座標系における座標を含んでいてもよい。
位置検出部313による位置検出については後述する。
PC300が接続装置10に出力する映像データは、コンテンツデータ321を再生した映像データのほか、PC300が表示部330により表示している画面の映像データとすることができる。この場合、接続装置10は、表示部330と同じ画面を表示し、いわゆるミラーリング表示を行う。
[1-3.表示システムのキャリブレーション]
図6は、画像表示部20に対するPC300の相対位置を求める処理を示す説明図であり、特に、キャリブレーション処理を示す。図7は、表示システム1の動作を示すフローチャートであり、特に、キャリブレーション処理におけるPC300の動作を示す。
図6において、画像表示部20を透過して使用者が視認する視野を符号VRで示し、カメラ61の撮像範囲を符号VCで示す。この例では、撮像範囲VCは視野VRと重複するが、一致していない。撮像範囲VCと視野VRとは、一致してもよいし、撮像範囲VCが視野VRに含まれてもよい。
表示システム1を使用して、図6に示すように、カメラ61の撮像範囲VCにPC300が存在する状態で、キャリブレーションが実行される。
本実施形態では、表示部330に基準点P1が設定され、画像表示部20に基準位置P2が設定される。基準点P1は、使用者が視覚的にまたは認識可能な表示であり、いわゆるマーカーである。PC300は、カメラ61の撮像画像データから基準点P1を画像処理により検出できる。基準位置P2は、画像表示部20において位置の基準として設定され、仮想的な位置であってもよく、基準位置P2を示す表示や物体がなくてもよい。
基準点P1は、明示的に視認される物体や位置であればよく、基準点P1となる表示や物を新たに設ける必要はない。例えば、表示部330の4隅のうちの1点を基準点P1とするなど、表示部330の模様や形状の特定位置を基準点P1としてもよい。
図7は、表示システム1の動作を示すフローチャートであり、キャリブレーションを行うPC300の動作を示す。
キャリブレーションでは、使用者の視野VRにおいて予め設定された位置に基準点P1が位置するように、使用者が、頭部または画像表示部20を動かす(ステップS11)。視野VRにおける設定された位置と基準点P1とが重なったときに、使用者は、位置を確定させるための操作を、画像表示部20またはPC300に対して行う(ステップS12)。例えば、使用者は、画像表示部20の前部フレーム27を叩く操作を行う。この操作は、6軸センサー235により加速度として検出できる。また、画像表示部20がノックセンサー(図示略)を搭載している場合、当該操作をノックセンサーの検出値に基づき検出できる。ステップS12の操作は、タッチセンサー332で検出される操作であってもよい。また、ステップS12では、音声による操作をPC300が検出してもよい。すなわち、PC300がマイクを搭載し、マイクにより集音された音声を制御部310が処理可能な構成において、制御部310は、音声をテキストに変換する音声認識処理、或いは、予め登録されたパターンの音声を検出する音声コマンド検出処理を実行できる。この構成で、制御部310は、ステップS12で、使用者が発する音声を入力操作として検出してもよい。
制御部310は、ステップS12の操作を検出したときのカメラ61の撮像画像データを取得して、カメラ61の撮像画像データにおける基準点P1の位置を求める(ステップS13)。これにより、カメラ61の撮像画像データにおける位置と、画像表示部20を装着した使用者の視野VRにおける位置とが、対応付けられる。従って、カメラ61の撮像画像データにPC300が写っている場合に、この撮像画像データから、視野VRに対するPC300の相対位置を特定できる。
制御部310は、6軸センサー235および磁気センサー237の出力値に関するデータを取得する(ステップS14)。ステップS14で取得されるセンサーの出力値は、基準点P1が視野VRの設定位置に重なる状態における画像表示部20の基準の位置を示す。例えば、6軸センサー235の出力値を積算することにより、画像表示部20が、基準の位置から移動した方向および移動量を求めることができる。また、磁気センサー237の出力値に基づき、画像表示部20の基準の位置に対する画像表示部20の相対的な方向を求めることができる。従って、画像表示部20とPC300との相対位置を求めることができる。
制御部310は、ステップS14で取得した出力値を含むキャリブレーションデータを生成し、不揮発性記憶部320に記憶し(ステップS15)、本処理を終了する。
例えば、ステップS13及びS15は位置検出部313が実行し、ステップS14は検出値取得部312が実行する。
図7に示すキャリブレーションの処理では、PC300の基準点P1と視野VRにおける設定された位置とを合わせて、画像表示部の基準の位置に対する画像表示部の相対的な位置関係を対応づける。この処理で生成されるキャリブレーションデータは、例えば、基準点P1と視野VRとの相対的な位置の基準を示すデータである。このキャリブレーションで、視野VRにおける所定位置と基準点P1とを重ねるだけでなく、ステップS11で、PC300を、画像表示部20から予め設定された距離に配置する手法を採用してもよい。例えば、ステップS11で、PC300を画像表示部20から所定距離だけ離れた位置に置くことをガイドする画像を、画像表示部20により表示してもよい。この画像は、所定距離だけ離れた位置のPC300が視認されるサイズを示す直線、矩形、点などのマーカーとすることができる。使用者は、画像表示部20のマーカーにPC300が重なって見えるようにPC300を自分との相対位置を調整し、その後、基準点P1を所定位置に合わせて、ステップS12の操作を行えばよい。
[1-4.HMDの表示態様]
図8、図9、及び図10は、それぞれ、本実施形態における表示システム1の表示態様の例を示す図である。図8、図9及び図10には、画像表示部20を装着する使用者が画像表示部20を透過して視認できる視野を視野VRで示す。また、これらの図に示す例では、画像表示部20が、使用者が視認可能なように画像を表示する表示領域は、視野VRと同じ大きさ及び位置であり、重複する。本発明は、画像表示部20の表示領域が視野VRより小さい構成にも適用可能である。
図8は、ホスト機器表示モードにおける表示システム1の表示態様を示す。ホスト機器表示モードは、PC300が、タッチセンサー332に対する操作に基づいて各種の動作を実行する動作モードである。ホスト機器表示モードでは、PC300は、ユーザーインターフェイスとして機能する各種画像を、表示部330に表示する。ホスト機器表示モードでは、HMD100は、画像を表示しないか、或いは、表示部330に表示される画面とは異なる画像を表示する。
図8の例では、表示部330に、ユーザーインターフェイスとして、複数のアイコンが配置された画像が表示されている。また、画像表示部20は画像を表示していない。このため、視野VRには画像表示部20の表示画像が視認されないか、表示がオフになっていることを示すアイコン等が表示される。
HMD表示モードでは、HMD100が備えるセンサーにより検出される操作が、PC300に対する入力操作として、PC300により受け付けられる。この場合、PC300は、接続装置10からセンサーの出力値またはセンサーの出力値を処理した結果を含むデータを取得し、取得したデータに基づき処理を行う。このため、HMD表示モードでは、画像表示部20が表示する表示画像201が操作の基準として用いられるため、表示画像201の視認性が、表示部330の表示画像よりも優先される。
図9は、HMD表示モードにおける表示システム1の表示態様を示す。HMD表示モードでは、PC300は、表示部330に表示する画像の画像データを、HDMIケーブル2Aにより出力する。このため、表示部330と、画像表示部20により、同じ画像が表示可能となり、いわゆるミラーリングが行われる。
HMD表示モードにおいて、画像表示部20とPC300との位置関係により、視野VRに表示部330が含まれる場合、使用者には、画像表示部20の表示画像と、表示部330の表示画像とが重なって見える。画像表示部20と表示部330は同じ画像を表示するので、画像表示部20の表示画像と表示部330の表示画像との両方を使用者が視認する必要はなく、例えば、いずれか一方のみを明瞭に視認できれば有用である。
そこで、本実施形態で、表示システム1は、HMD表示モードにおいて、画像表示部20の視野VRに表示部330が含まれるか否かに応じて、表示に係る制御を切り替える。
図9には、画像表示部20が画像を表示する表示領域を符号VAで示す。表示領域VAは、ハーフミラー261、281が発する画像光により使用者に認識される領域であり、実態として図9に示す位置に表示領域が存在することを限定する意図はない。図9の例では、表示領域VAが視野VRのほぼ全体に配置されているが、表示領域VAが視野VRより小さくてもよい。
図9は、HMD表示モードで視野VRに表示部330が含まれる場合の例である。また、図9の例では外景としての表示部330が表示領域VAに重なっている。画像表示部20には、表示部330に表示される画像と同じ表示画像201が表示される。画像表示部20には、表示画像201が、視野VRを透過して外景として視認される表示部330の位置に重なるように表示される。表示画像201は、PC300が接続装置10に出力する映像データに基づき、画像表示部20に表示される画像であり、表示部330の表示画像をミラーリングする画像である。
HMD表示モードにおいて表示部330が視野VRに含まれる場合、PC300は、表示部330の表示状態を、通常の動作状態であるホスト機器表示モードと異なる状態に調整する。具体的には、制御部310が、表示部330の表示輝度を、ホスト機器表示モード低輝度とするか、或いは、表示をオフにする。図9の例では表示部330の表示がオフになっている。図9では、PC300が画像表示部20を透過する外景として視認されるため、PC300を破線で図示している。この制御により、表示部330が表示している画像の視認性が低下しているため、画像表示部20を装着する使用者には、表示部330の表示画像が見えにくい。従って、使用者には、画像表示部20が表示する表示画像201が、良好に視認される。
表示画像201の表示位置が表示部330の位置に合わせてあるため、使用者には、表示画像201が、表示部330に表示された画像のように視認される。
また、HMD表示モードにおいて視野VRに表示部330が含まれる場合に、画像表示部20により表示画像201を表示する場合の輻輳角が、画像表示部20から表示部330までの距離に合わせて調整される。
図10は、HMD表示モードで視野VRに表示部330が含まれない場合の例であり、表示部330は、表示領域VAの外に位置する。画像表示部20には、表示部330が表示する画像と同じ表示画像201が、ミラーリング表示される。表示画像201の表示サイズや位置を表示部330に合わせる必要がないので、表示画像201の表示位置および表示サイズの制限はない。例えば、視認性が高まるように表示領域VAに表示可能な最大サイズ、或いは、初期設定される表示サイズで表示されてもよい。また、表示位置は表示領域VAの中心であってもよい。例えば、表示画像201の表示位置と表示サイズがデフォルト設定されていてもよい。デフォルト設定の一例として、表示領域VAの全体に表示画像201を表示するよう設定される。
表示部330が表示領域VAに重ならない場合、PC300は、表示部330に画像を表示してもよい。この場合、表示部330が画像を表示する表示状態は、ホスト機器表示モードと同様である。また、HMD表示モードにおいて表示部330の表示を常時オフとしてもよい。
視野VRに表示部330が含まれる場合とは、HMD100を装着する使用者が、画像表示部20を透過して、外景としてPC300の表示部330を視認可能である場合を指す。ここで、画像表示部20を透過する右眼RE及び左眼LEの視野、すなわち使用者に見える外景の範囲は、画像表示部20の方向から求めることができる。また、図4に示したように、カメラ61の画角と、画像表示部20を透過して外景を見る場合の右眼RE及び左眼LEの視野との関係が既知である場合、制御部310は、カメラ61の撮像画像データから、表示部330が視野に入っているか否かを判定できる。従って、表示部330が視野VRに含まれるか否かは、上述したキャリブレーションデータと、カメラ61の撮像画像データ等に基づき判定できる。
[1-5.表示システムの動作]
図11は、表示システム1の表示に係る動作を示すフローチャートであり、特に、PC300の動作を示す。本実施形態で、HMD100は、PC300がHDMIケーブル2Aを経由して出力する映像データに基づき画像を表示し、画像表示部20とPC300との相対位置に基づく表示制御をPC300が行う。
図11の動作は、例えば、PC300がケーブル2によって接続装置10に接続されたことを検出したことを条件として、開始される。
まず、PC300において、表示モードとしてHMD表示モードを実行するか、ホスト機器表示モードを実行するかの指示、或いは、識別が行われる(ステップS21)。ステップS21では、使用者のPC300に対する操作によって表示モードが指定され、制御部310が、指定された表示モードを検出する。或いは、ステップS21で、PC300に設定されている表示モードを制御部310が識別してもよい。
また、図11の動作を開始する際に、初期設定として、表示モードとしてHMD表示モードを実行するか、ホスト機器表示モードを実行するかが設定されていてもよい。初期設定は使用者がPC300を操作して設定してもよいし、いわゆるデフォルトの設定であってもよい。
ホスト機器表示モードを実行する場合、制御部310は、タッチセンサー332の操作を検出した検出データを、PC300に対する操作データとする処理を開始する(ステップS22)。制御部310は、ケーブル2による映像データの出力を停止し(ステップS23)、本処理を終了する。なお、ホスト機器表示モードで、PC300は、表示部330の表示画像以外の画像または映像に係る映像データであれば、出力してもよい。例えば、ステップS23で、制御部310は、コンテンツデータ321を再生する映像データを、ケーブル2を介して接続装置10に出力してもよい。
なお、ホスト機器表示モードで、PC300は、ケーブル2により映像データを出力してもよく、この場合、接続装置10の制御部120または表示制御部122が表示を停止すれば、同様の動作を実現できる。この場合、PC300が接続装置10に対し、表示を停止させる制御データを出力してもよく、この制御データを映像データに埋め込んでもよい。或いは、使用者が接続装置10を操作して表示を停止してもよい。
また、ホスト機器表示モードで、制御部310は、ステップS23の後に処理を終了せず、ステップS21に戻ってもよい。また、例えば、ステップS23の実行中や実行に、使用者がHMD表示モードへの切り換えを指示する操作を行った場合に、制御部310は、ステップS24に移行してHMD表示モードを開始してもよい。
HMD表示モードを実行する場合、制御部310は、ケーブル2を介して接続装置10から取得するセンサーの出力値に関するデータを、PC300への操作データとする処理を開始する(ステップS24)。
制御部310は、USBケーブル2Bを介して接続装置10からカメラ61の撮像画像データおよび各センサーの出力値を取得する(ステップS25)。ステップS25で、制御部310は、少なくとも、撮像画像データと、距離センサー64の出力値を取得する。ステップS25は、例えば検出値取得部312が実行する。
制御部310は、カメラ61の撮像画像データに表示部330が含まれるか否かを判定する(ステップS26)。ステップS26で、制御部310は、例えば、撮像画像データからパターンマッチングにより表示部330の画像を検出する。
表示部330が撮像画像データに含まれないと判定した場合(ステップS26;NO)、制御部310は後述するステップS37に移行する。
表示部330が撮像画像データに含まれると判定した場合(ステップS26;YES)、制御部310は、ステップS25で取得したセンサーの出力値に基づいて、表示部330の位置および姿勢を検出する(ステップS27)。ステップS27で、制御部310は、例えば、SLAM(Simultaneous Localization and Mapping)の実行や、距離センサー64の検出値に基づき、画像表示部20と表示部330との相対的な位置を求める。また、制御部310は、撮像画像データで表示部330の基準点P1を検出し、検出した基準点P1の位置から、画像表示部20に対する表示部330の相対位置を求めてもよい。
制御部310は、ステップS27で求めた位置および姿勢に従って、3次元空間における表示部330の位置と姿勢をマッピングする(ステップS28)。表示部330の位置および姿勢は、基準位置P2を原点または基準点とする3次元座標で表される。
制御部310は、表示部330の位置および方向に合わせて表示画像201を3次元空間に配置する(ステップS29)。制御部310は、表示画像201を、表示部330と平行で、表示部330と重なる面となるように、配置する。換言すれば、表示画像201は、画像表示部20を装着する使用者から見て、表示部330に重なる平面となる。制御部310は、画像表示部201の四隅の位置や中心の位置など、表示画像201の位置を特定可能な基準位置について、基準位置P2を原点または基準点とする3次元座標を求める。ここで配置される表示画像201は、表示部330に表示される画像をミラーリングした画像であり、例えば、オペレーティングシステムのユーザーインターフェイスを構成する画像である。
制御部310は、画像表示部20が画像を表示する範囲における表示部330の位置を特定する(ステップS30)。画像表示部20が画像を表示する範囲とは、例えば、図9に示した表示領域VAである。また、この範囲は、HMD100においてはハーフミラー261、281ということもできるが、より詳細には、OLEDユニット221のOLEDパネル223や、OLEDユニット241のOLEDパネル243が画像を形成する領域を指す。
制御部310は、表示画像201の輻輳角および表示サイズを設定する(ステップS31)。ステップS31で、制御部310は、表示画像201が表示部330に重なる平面として視認されるように、画像の輻輳角を設定する。PC300は、画像表示部20の右表示ユニット22により表示される画像の画像データと、左表示ユニット24により表示される画像の画像データとを含む映像データを出力する。制御部310は、右表示ユニット22用の画像における表示画像201の位置と、左表示ユニット24用の画像における表示画像201の位置とを調整することで、使用者の左眼LEと右眼REの輻輳角を調整する。
制御部310は、表示パネル331の表示をオフにするか、或いは、表示輝度を変更する処理を行い(ステップS32)、接続装置10への映像データの出力を開始する(ステップS33)。ステップS32で表示輝度を変更する場合、表示パネル331の表示輝度は、ホスト機器表示モードより低輝度に設定される。
ここで、接続装置10は、I/F部110に入力される映像データを、表示制御部122によりデコードし、右表示ユニット22及び左表示ユニット24によって表示する処理を開始する。
ステップS26~S33は、例えば、画像調整部315が実行する。
表示開始後、制御部310は、視野VRが移動したか否かを判定する(ステップS34)。ここで、視野VRの移動とは、表示部330に対する視野VRの相対的な位置の移動を意味し、PC300に対する画像表示部20の移動に相当する。ステップS34では、画像調整部315が、位置検出部313の検出値に基づき判定を行う。また、以下のステップS35~S40は画像調整部315が実行する。
制御部310は、視野VRが移動していないと判定した場合(ステップS34;NO)、表示を終了するか否かを判定する(ステップS35)。例えば、表示部330に対する操作等により表示終了が指示された場合(ステップS35;YES)、制御部310は接続装置10への映像データの出力を停止して本処理を終了する。一方、表示を継続する場合(ステップS35;NO)、制御部310はステップS33に戻る。
制御部310は、視野VRが移動したと判定した場合(ステップS34;YES)、PC300の位置、より具体的には表示部330の位置が、画像表示部20が画像を表示する範囲外であるか否かを判定する(ステップS36)。ステップS36で、制御部310は、画像表示部20と表示部330との相対的な位置および方向に基づく判定を行う。
表示部330の位置が画像表示部20の表示範囲外であると判定した場合(ステップS36;YES)、制御部310は、表示画像201の輻輳角およびサイズを、デフォルト値に設定する(ステップS37)。例えば、表示画像201は、視認性を優先して、ステップS31で設定されるサイズよりも大きい表示サイズに設定され、輻輳角は、使用者が視認しやすい所定位置とされる。デフォルトで設定される輻輳角は、使用者が画像表示部20の表示画像を見る際の負担や疲労が軽い角度に設定されることが好ましく、例えば、使用者が画像表示部20の表示画像を20m先に位置する画像として認識するような輻輳角である。
制御部310は、表示パネル331の表示輝度をデフォルト値に設定する(ステップS38)。表示輝度のデフォルト値は、例えば、ホスト機器表示モードにおける表示輝度である。その後、制御部310は、ステップS33に戻る。
また、制御部310が、表示部330の位置が画像表示部20の表示範囲外でないと判定した場合(ステップS36;NO)、表示部330は、画像表示部20の表示範囲内にある。この場合、制御部310は、表示部330が画像表示部20の表示範囲の外から範囲内に移動したのか否かを判定する(ステップS39)。
視野VRの移動により、表示部330が画像表示部20の表示範囲外から表示範囲内に入った場合(ステップS39;YES)、制御部310は、接続装置10に出力する映像データの状態を初期化する(ステップS40)。初期化において、制御部310は、接続装置10に出力していた映像データにおける輻輳角やサイズ等を、初期状態に戻す。制御部310は、ステップS27に戻り、映像データの出力を開始するための処理を再度実行する。
ステップS40における初期化の処理は、具体的には、以下の例が挙げられる。第1の例として、ステップS39において表示部330の全体が視野VRに入ったと判定した場合に、以前に実行したステップS29で配置及び処理された表示画像を利用する処理が挙げられる。また、第2の処理として、表示部330の位置に合わせて、ステップS25以後の処理を実行し、新たに表示画像の位置(奥行きを含む)を再設定する処理が挙げられる。これらの他、制御部310が行う処理の具体例は任意である。
また、表示部330が画像表示部20の表示範囲の外から範囲内に移動していない場合(ステップS39;NO)、すなわち、表示部330が画像表示部20の表示範囲内にある状態が継続している場合、制御部310は、ステップS33に戻る。
図7及び図11に示す処理において、表示システム1は、距離センサー64の代わりに、カメラ61の撮像画像データを用いて、距離を検出してもよい。例えば、表示システム1は、不揮発性記憶部130または不揮発性記憶部320に、予め、画像表示部20から被写体までの距離と、カメラ61の撮像画像データに写る被写体の画像の大きさとを対応付けるデータを、参照用データとして記憶する。この場合、制御部310は、カメラ61の撮像画像データにおけるPC300または表示部330の画像の大きさと、参照用データとをもとに、画像表示部20からPC300または表示部330までの距離を算出することができる。
以上説明したように、第1実施形態の表示システム1は、表示システム1は、表示部330を有するPC300と、画像表示部20を有するHMD100と、を備える。HMD100は、外景を視認可能に構成され、外景に重ねて画像を表示する画像表示部20と、PC300から入力されるデータに基づく画像を画像表示部20に表示させる表示制御部122と、を備える。表示システム1は、HMD100に対するPC300の表示部330の位置を検出し、HMD100に対する表示部330の位置が、画像表示部20により視認される外景の範囲に含まれる場合に、画像表示部20における表示を調整する。
これにより、PC300とHMD100との位置関係に対応して、画像表示部20における表示を調整するので、HMD100の表示状態を、外部装置であるPC300の位置に合わせて制御できる。
また、表示システム1において、画像表示部20は外光を透過させることにより外景を視認可能とする透過型の表示部である。表示システム1は、HMD100に対する表示部330の位置が、画像表示部20により視認される外景の範囲に含まれる場合に、画像表示部20の表示領域における画像の表示位置、表示サイズ、及び形状の少なくともいずれかを、画像表示部20を透過して視認される表示部330に合わせて調整する。これにより、画像表示部20を透過して表示部330を視認する場合の視認性を、適切に調整できる。
また、画像表示部20は、使用者の頭部に装着され、使用者の左眼に向けて画像光を発する左表示ユニット24、及び、使用者の右眼に向けて画像光を発する右表示ユニット22を備える。表示システム1において、PC300は、HMD100に対する表示部330の位置が、画像表示部20により視認される外景の範囲に含まれる場合に、表示部330の位置に対応して、画像表示部20に表示する画像の輻輳角を調整する。これにより、使用者が画像表示部20の表示画像を視認する距離を、表示部330の位置に対応して調整することができる。
また、表示システム1は、HMD100に対する表示部330の位置が、画像表示部20を透過して視認される外景に含まれない場合に、画像表示部20に表示する画像の輻輳角を所定の初期状態とする。これにより、画像表示部20を透過して表示部330が視認される場合と、視認されない場合とで、画像表示部20の表示状態を適切に切り替えることができる。
また、表示システム1は、左表示ユニット24及び右表示ユニット22の表示位置を制御することにより、画像表示部20に表示する画像の輻輳角を調整する。これにより、使用者が画像表示部20の表示画像を視認する距離を、表示位置を制御することによって容易に調整できる。
PC300は、制御部310を備え、制御部310は、HMD100において画像表示部20を透過して視認される外景に表示部330が含まれる場合に表示部330の表示を、例えば図9に示した第1表示状態とする。また、制御部310は、HMD100において画像表示部20を透過して視認される外景に表示部330が含まれない場合に、表示部330の表示を、例えば図10に示した第2表示状態とする。制御部310は、第2表示状態で、表示部330における表示を非表示とする制御、及び、表示部330の輝度を第1表示状態より低輝度とする制御のいずれかを実行する。これにより、制御部310の制御によって、PC300とHMD100との位置関係に対応して、PC300の表示部330の表示状態を制御する。従って、PC300とHMD100との位置関係に対応して、PC300の表示部330の表示状態を適切に調整できる。
表示システム1は、HMD100に対する操作に基づいてPC300の動作を制御するHMD表示モード(外部操作モード)、及び、HMD100に対する操作に基づくPC300の動作の制御を行わないホスト機器表示モード(通常操作モード)を切り替えて実行可能である。HMD表示モードにおいて、PC300は、HMD100に対する表示部330の位置に基づき画像表示部20の表示の制御を実行する。また、ホスト機器表示モードにおいて、PC300は、表示部330における表示を非表示とする制御、及び、表示部330の輝度を外部操作モードより低輝度とする制御のいずれかを実行する。これにより、HMD100に対する操作に基づくPC300の動作の制御を行わない場合と、PC300の動作を制御する場合とのそれぞれに対応して、PC300の位置に応じた画像表示部20の表示の制御を行うことができる。
PC300は、HMD100に対する表示部330の位置を求める位置検出部313と、HMD100に出力するデータを処理する画像調整部315と、を備える。画像調整部315は、位置検出部313により検出された表示部330の位置が、画像表示部20により視認される外景の範囲に含まれる場合に、調整を行う。この調整では、画像表示部20の表示領域における画像の表示位置、表示サイズ、及び形状の少なくともいずれかを、画像表示部20を透過して視認される表示部330に合わせて調整する。これにより、PC300の機能により、HMD100の表示状態を、PC300の位置に合わせて制御できる。
上記実施形態では、制御部310が、右眼RE用の画像と左眼LE用の画像とにおける画像の表示位置を調整することで、輻輳角を制御して、画像表示部20の表示画像201について使用者が知覚する視認距離を制御する構成とした。
画像表示部20が、右表示ユニット22及び左表示ユニット24が備える光学系により、使用者が画像表示部20の表示画像について知覚する視認距離を調整可能である場合、この光学系の制御による調整を、輻輳角の制御に代えて行ってもよい。例えば、左表示ユニット24及び右表示ユニット22における虚像の焦点位置を調整する構成であってもよい。つまり、使用者が、表示画像201を、表示部330と同じ位置の画像として知覚するように、光学系を制御してもよい。この場合、虚像の焦点位置を調整することによって、使用者が画像表示部20の表示画像を視認する距離を調整できる。従って、表示画像201が視認される距離を、PC300の表示部330の位置に対応させることができ、HMD100による表示とPC300の表示とを、より適切に協調させることができる。
上記の光学系としては、右眼RE及び左眼LEを結ぶ左右方向に移動可能なレンズを備える構成が挙げられる。この構成では、右表示ユニット22及び左表示ユニット24の各々に、左右方向に移動可能なレンズが配置される。レンズは、例えば、右光学系251とハーフミラー261との間、及び、左光学系252とハーフミラー281との間に配置してもよい。また、右光学系251、左光学系252の内部にレンズを配置してもよい。レンズの位置に対応して、右眼RE及び左眼LEの各々に入射する画像光の位置が左右方向に移動することで、輻輳角を変化させることが可能である。この例では、レンズの移動を制御部120が制御する構成とし、制御部310が、映像データと、レンズ位置を指定する制御データとを接続装置10に出力することで、制御部310が算出した輻輳角を実現できる。
また、画像表示部20が画像光を出力する光学系として、ホログラフィー表示装置を備えてもよい。この場合、画像表示部20は、例えば、光源と、光源からの光を変調する空間光変調器(SLM:Spatial Light Modulator)と、を備える。SLMは、例えば、液晶を利用した反射型空間光位相変調器(LCOS(Liquid Crystal On Silicon)-SLM)を用いることができる。この構成では、接続装置10がSLMに表示データを出力することにより、光源から発せられる参照光がSLMにより変調され、立体像を結像する。この場合、PC300から接続装置10に出力される映像データ、または、PC300が出力する映像データから表示制御部122が生成する表示データを調整することで、画像表示部20が結像する立体像の焦点距離を調整可能である。このため、本実施形態で輻輳角を調整する制御に代えて、ホログラフィー表示装置として構成される画像表示部20において立体像の焦点距離を制御することで、画像表示部20が表示する像を使用者が視認する距離を、調整することができる。
[2.第2実施形態]
図12は、第2実施形態に係る表示システム1Aを構成する各部のブロック図である。
表示システム1Aは、第1実施形態で説明した表示システム1において、HMD100が、接続装置10に代えて、制御装置10Aを備える構成となっている。制御装置10Aは、制御部121を備え、制御部121が、PC300から入力される映像データを処理する。制御部121及び関連する各部の構成を除き、表示システム1Aは、表示システム1と同様の構成部を備える。表示システム1と共通する構成部には同符号を付して説明を省略する。
制御部121は、制御部120(図5)と同様に、CPUやマイコン等のプロセッサー(図示略)を備え、このプロセッサーによりプログラムを実行することによって、ソフトウェアとハードウェアとの協働によりHMD100の各部を制御する。また、制御部121は、プログラムされたハードウェアにより構成されてもよい。
制御部121には、不揮発性記憶部130、操作部140、及び、接続部145が接続される。また、制御部121は、位置検出部123、及び、画像調整部125を備える。位置検出部123は、位置検出部313と同様に、HMD100の位置を検出する。より詳細には、位置検出部123は、画像表示部20が備えるセンサーの出力値に基づき、PC300と画像表示部20との相対位置を検出する。また、例えば、第1実施形態で説明したように、制御部310がカメラ61の撮像画像データから被写体までの距離を求める処理を、制御部121が実行することもできる。
位置検出部123が検出する相対位置は、画像表示部20とPC300が存在する空間における位置であってもよい。また、画像表示部20と表示部330の相対的な向きを含んでもよい。例えば、画像表示部20を基準とした場合の表示部330の位置および/または方向を示す情報であってもよい。また、例えば、PC300を基準とした場合の画像表示部20の位置および/または方向を示す情報であってもよい。また、例えば、画像表示部20及びPC300が存在する空間に設定された三次元座標系における座標を含んでいてもよい。
画像調整部125は、I/F部110に入力され映像データの画像処理を行う。画像調整部125が実行する画像処理は、第1実施形態および第2実施形態で説明した画像調整部315の処理と同様である。
例えば、画像調整部125は、I/F部110に入力される映像データを、HMD100の仕様に合わせて解像度変換(スケーリング)、フレームレート変換、色調補正、データフォーマットの変更等を行う処理である。
また、制御部121は、PC300がホスト機器表示モードであるか、HMD表示モードであるかを判定する。制御部121は、HMD表示モードにおいて、PC300に対してセンサーの出力値に関するデータを出力する。
表示システム1Aは、表示システム1と同様に、図7に示したキャリブレーション処理を実行する。表示システム1Aが図7の動作を実行する場合、ステップS13~S15は位置検出部123が実行する。
また、制御部121は、図11に示した制御部310と同様の動作を実行する。
第2実施形態では、PC300から入力される映像データに基づき、画像調整部125が画像表示部20により画像を表示する。また、画像調整部125は、HMD表示モードにおいて、表示部330が視野VRに含まれる場合と、含まれない場合とに対応して、画像表示部20の表示を制御する。
図13は、第2実施形態における表示システム1Aの動作を示すフローチャートであり、制御部121の動作を示す。
本実施形態で、HMD100は、PC300がHDMIケーブル2Aを経由して出力する映像データに基づき画像を表示し、画像表示部20とPC300との相対位置に基づく表示制御をHMD100が行う。
図13の動作は、例えば、PC300がケーブル2によって接続装置10に接続されたことを検出したことを条件として、開始される。
まず、PC300において、表示モードとしてHMD表示モードを実行するか、ホスト機器表示モードを実行するかの指示、或いは、識別が行われ、制御部121が識別結果を取得する(ステップS51)。
PC300がホスト機器表示モードを実行する場合、制御部121は、画像表示部20による表示をオフにして(ステップS52)、本処理を終了する。
なお、ホスト機器表示モードで、PC300が表示部330の表示画像以外の画像または映像に係る映像データを出力する場合、制御部121は画像表示部20により、映像データに基づく画像を表示してもよい。
PC300がHMD表示モードを実行する場合、制御部121は、カメラ61の撮像画像データおよび接続装置10の各センサーの出力値を取得画像表示部20が備えるセンサーの出力値を取得する(ステップS53)。制御部121は、センサーの出力値に関するデータを、PC300に出力する処理を開始する(ステップS54)。
制御部121は、カメラ61の撮像画像データに表示部330が含まれるか否かを判定する(ステップS55)。表示部330が撮像画像データに含まれないと判定した場合(ステップS55;NO)、制御部121は後述するステップS66に移行する。
表示部330が撮像画像データに含まれると判定した場合(ステップS55;YES)、制御部121は、ステップS53で取得したセンサーの出力値に基づいて、表示部330の位置および姿勢を検出する(ステップS56)。制御部121は、ステップS56で求めた位置および姿勢に従って、3次元空間における表示部330の位置と姿勢をマッピングする(ステップS57)。表示部330の位置および姿勢は、基準位置P2を原点または基準点とする3次元座標で表される。制御部121は、表示部330の位置および方向に合わせて表示画像201を3次元空間に配置する(ステップS58)。
制御部121は、画像表示部20が画像を表示する範囲における表示部330の位置を特定する(ステップS59)。制御部121は、表示画像201の輻輳角および表示サイズを設定する(ステップS60)。ステップS61で、制御部121は、表示画像201が表示部330に重なる平面として視認されるように、画像の輻輳角を設定する。
ステップS55~ステップS60の処理は、図11で説明したPC300によるステップS26~S31の処理と同様である。
制御部121は、PC300に対し、表示パネル331の表示をオフにするか、或いは、表示輝度の変更を指示する(ステップS61)。この指示は、例えば、USBケーブル2Bを介して制御データとして送信される。ステップS62で表示輝度を変更する場合、表示パネル331の表示輝度は、ホスト機器表示モードより低輝度に設定される。
制御部121は、PC300が出力する映像データを取得して、表示を開始する(ステップS62)。ステップS55~S62は、例えば、画像調整部125が実行する。
表示開始後、制御部121は、視野VRが移動したか否かを判定する(ステップS63)。ステップS63では、画像調整部125が、位置検出部123の検出値に基づき判定を行う。また、以下のステップS64~S69は画像調整部125が実行する。また、ステップS63~S66,S68~S69の処理は、図11で説明したPC300によるステップS34~S37,S39~S40の処理と同様である。
制御部121は、視野VRが移動していないと判定した場合(ステップS63;NO)、表示を終了するか否かを判定する(ステップS64)。例えば、HMD100またはPC300に対し表示終了が指示された場合(ステップS64;YES)、制御部121は表示を停止して本処理を終了する。一方、表示を継続する場合(ステップS64;NO)、制御部121はステップS62に戻る。
制御部121は、視野VRが移動したと判定した場合(ステップS63;YES)、PC300の表示部330位置が、画像表示部20が画像を表示する範囲外であるか否かを判定する(ステップS65)。表示部330の位置が画像表示部20の表示範囲外であると判定した場合(ステップS65;YES)、制御部121は、表示画像201の輻輳角およびサイズを、デフォルト値に設定する(ステップS66)。
制御部121は、PC300に対し、表示パネル331の表示輝度をデフォルト値に設定させる指示を行う(ステップS67)。表示輝度のデフォルト値は、例えば、ホスト機器表示モードにおける表示輝度である。その後、制御部121は、ステップS62に戻る。
また、制御部310が、表示部330の位置が画像表示部20の表示範囲外でないと判定した場合(ステップS65;NO)、表示部330は、画像表示部20の表示範囲内にある。この場合、制御部121は、表示部330が画像表示部20の表示範囲の外から範囲内に移動したのか否かを判定する(ステップS68)。
視野VRの移動により、表示部330が画像表示部20の表示範囲外から表示範囲内に入った場合(ステップS68;YES)、制御部121は、映像データに基づく表示状態を初期化する(ステップS69)。初期化において、制御部121は、表示画像201の輻輳角やサイズ等を、初期状態に戻す。制御部121は、ステップS56に戻り、表示を開始するための処理を再度実行する。
また、表示部330が画像表示部20の表示範囲の外から範囲内に移動していない場合(ステップS68;NO)、すなわち、表示部330が画像表示部20の表示範囲内にある状態が継続している場合、制御部121は、ステップS62に戻る。
このように、表示システム1Aでは、HMD100A(表示装置)、表示部330を有するPC300を対象として、表示部330の位置を検出する位置検出部123を備える。また、HMD100Aは、画像表示部20に画像を表示させる画像調整部125(映像処理部)を備える。画像調整部125は、位置検出部123により検出された表示部330の位置が、画像表示部20により視認される外景の範囲に含まれる場合に、画像表示部20における表示を調整する。これにより、PC300とHMD100との位置関係に対応して、HMD100が、画像表示部20における表示を調整する。従って、HMD100による表示を外部装置であるPC300の位置に合わせて制御できる。
また、PC300が、表示部330が表示する画像と同じ画像を、HDMIケーブル2Aによりミラーリングして出力する構成において、HMD100Aが、画像表示部20の表示画像を調整する。すなわち、HMD100Aが、画像表示部20の方向や画像表示部20とPC300との相対位置に対応して、画像表示部20が表示する画像の表示態様を変化させる。
従って、表示システム1Aは、第1実施形態で説明した表示システム1の効果を実現できる。さらに、HMD100Aにおいて映像データを処理可能であることから、PC300に代えて、映像データを出力する汎用機器を接続した場合に、画像表示部20の位置や方向に対応して表示態様を変更できるという利点がある。
なお、本発明は上記各実施形態の構成に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能である。
例えば、上記実施形態において、使用者が表示部を透過して外景を視認する構成は、右導光板261及び左導光板281が外光を透過する構成に限定されない。例えば外景を視認できない状態で画像を表示する表示装置にも適用可能である。具体的には、外景撮影用カメラ61の撮影画像、この撮影画像に基づき生成される画像やCG、予め記憶された映像データや外部から入力される映像データに基づく映像等を表示する表示装置に、本発明を適用できる。この種の表示装置としては、外景を視認できない、いわゆるクローズ型の表示装置を含むことができる。また、上記実施形態で説明したように実空間に重ねて画像を表示するAR表示や、撮影した実空間の画像と仮想画像とを組み合わせるMR(Mixed Reality)表示を用いてもよい。或いは、仮想画像を表示するVR(Virtual Reality)表示といった処理を行わない表示装置にも適用できる。例えば、外部から入力される映像データまたはアナログ映像信号を表示する表示装置も、本発明の適用対象として勿論含まれる。
また、例えば、画像表示部20に代えて、例えば帽子のように装着する画像表示部等の他の方式の画像表示部を採用してもよく、使用者の左眼に対応して画像を表示する表示部と、使用者の右眼に対応して画像を表示する表示部とを備えていればよい。また、本発明の表示装置は、例えば、自動車や飛行機等の車両に搭載されるヘッドマウントディスプレイとして構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたヘッドマウントディスプレイとして構成されてもよい。この場合、使用者の身体に対する位置を位置決めする部分、及び、当該部分に対し位置決めされる部分を装着部とすることができる。
さらに、第2実施形態のHMD100Aは、制御装置10Aと画像表示部20とが一体に構成され、使用者の頭部に装着される構成であってもよい。また、制御装置10Aとして、ノート型コンピューター、タブレット型コンピューター、ゲーム機や携帯型電話機やスマートフォンや携帯型メディアプレーヤーを含む携帯型電子機器、その他の専用機器等を用いてもよい。また、上記実施形態では、接続装置10と画像表示部20とが無線通信回線によって接続される構成であってもよい。
また、表示システム1においてHMD100、100Aに接続される機器は、PC300に限定されない。例えば、据え置き型のテレビ受像器、据え置き型のパーソナルコンピューターのモニターであってもよい。また、PC300に代えて、表示面に画像を投射するプロジェクターを用いてもよく、この場合、プロジェクターが画像を投射する投射面が表示画面に相当する。また、これらの機器以外に、PC300に代えて、可搬型または据え置き型の電子機器を用いることができる。PC300またはPC300に代えて利用される各種の電子機器は、HMD100、100Aに無線接続されてもよい。例えば、コネクター11Aに代えて、Miracast(登録商標)やWirelessHD(登録商標)などの無線映像通信インターフェイスを利用してもよい。また、コネクター11Bに代えて、無線LAN(WiFi(登録商標)を含む)を用いてもよいし、Bluetooth(登録商標)を利用してもよい。
また、ブロック図に示した各機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよく、図に示した通りに独立したハードウェア資源を配置する構成に限定されない。
2…ケーブル、2A…HDMIケーブル、2B…USBケーブル、10…接続装置、10A…制御装置、11、11A、11B、11C…コネクター、20…画像表示部(第2表示部)、22…右表示ユニット(右眼用表示部)、24…左表示ユニット(左眼用表示部)、61…カメラ、64…距離センサー、65…照度センサー、67…LEDインジケーター、100、100A…HMD(表示装置)、110…I/F部、120…制御部、121…制御部、123…位置検出部、124…センサー制御部、125…画像調整部(映像処理部)、126…電源制御部、130…不揮発性記憶部、140…操作部、145…接続部、201…表示画像、217…温度センサー、235…6軸センサー、237…磁気センサー、239…温度センサー、261…ハーフミラー、281…ハーフミラー、300…PC(電子機器)、310…制御部(電子機器制御部)、311…入出力制御部、312…検出値取得部、313…位置検出部、315…画像調整部(映像処理部)、320…不揮発性記憶部、321…コンテンツデータ、330…表示部(第1表示部、表示画面)、331…表示パネル、332…タッチセンサー、341…I/F部、345…通信部、VA…表示領域、VR…視野。

Claims (8)

  1. 第1表示部を有する電子機器と、第2表示部を有する表示装置と、を備え、
    前記表示装置は、
    外景を視認可能に構成され、前記外景に重ねて画像を表示する前記第2表示部と、
    前記電子機器から入力されるデータに基づく画像を前記第2表示部に表示させる表示制御部と、を備え、
    前記表示装置に対する前記電子機器の前記第1表示部の位置を検出し、
    前記表示装置に対する前記第1表示部の位置が、前記第2表示部により視認される前記外景の範囲に含まれる場合に、前記第2表示部における表示を調整し、
    前記表示装置に対する操作に基づいて前記電子機器の動作を制御する外部操作モード、及び、前記表示装置に対する操作に基づく前記電子機器の動作の制御を行わない通常操作モードを切り替えて実行可能であり、
    前記外部操作モードにおいて、前記表示装置に対する前記第1表示部の位置に基づき前記第1表示部の表示の制御を実行し、前記通常操作モードにおいて、前記第1表示部における表示を非表示とする制御、及び、前記第2表示部の輝度を前記外部操作モードより低輝度とする制御のいずれかを実行する、表示システム。
  2. 記第2表示部は、使用者の頭部に装着され、前記使用者の左眼に向けて画像光を発する左眼用表示部、及び、前記使用者の右眼に向けて画像光を発する右眼用表示部を備え、
    記表示装置に対する前記第1表示部の位置が、前記第2表示部により視認される前記外景の範囲に含まれる場合に、前記第2表示部における表示を調整して、前記第2表示部の表示画像が前記第1表示部に重なる平面として視認されるように、前記第1表示部の位置に対応して前記第2表示部に表示する画像の輻輳角を調整する、請求項1記載の表示システム。
  3. 前記第2表示部は外光を透過させることにより前記外景を視認可能とする透過型の表示部であり、
    前記表示装置に対する前記第1表示部の位置が、前記第2表示部により視認される前記外景の範囲に含まれる場合に、前記第2表示部の表示領域における画像の表示位置、表示サイズ、及び形状の少なくともいずれかを、前記第2表示部を透過して視認される前記第1表示部に合わせて調整する、請求項1または2記載の表示システム。
  4. 前記表示装置に対する前記第1表示部の位置が、前記第2表示部を透過して視認される前記外景に含まれない場合に、前記第2表示部に表示する画像の輻輳角を所定の初期状態とする、請求項1から3のいずれか1項に記載の表示システム。
  5. 前記左眼用表示部及び前記右眼用表示部の表示位置を制御することにより、前記第2表示部に表示する画像の輻輳角を調整する、請求項に記載の表示システム。
  6. 前記電子機器は、前記表示装置において前記第2表示部を透過して視認される前記外景に前記第1表示部が含まれる場合に前記第1表示部の表示を第1表示状態とし、前記表示装置において前記第2表示部を透過して視認される前記外景に前記第1表示部が含まれない場合に前記第1表示部の表示を第2表示状態とする電子機器制御部を備え、
    前記電子機器制御部は、前記第2表示状態で、前記第1表示部における表示を非表示とする制御、及び、前記第1表示部の輝度を前記第1表示状態より低輝度とする制御のいずれかを実行する、請求項1からのいずれか1項に記載の表示システム。
  7. 前記電子機器は、
    前記表示装置に対する前記第1表示部の位置を求める位置検出部と、前記表示装置に出力するデータを処理する映像処理部と、を備え、
    前記映像処理部は、前記位置検出部により検出された前記第1表示部の位置が、前記第2表示部により視認される前記外景の範囲に含まれる場合に、前記第2表示部の表示領域における画像の表示位置、表示サイズ、及び形状の少なくともいずれかを、前記第2表示部を透過して視認される前記第1表示部に合わせて調整する、請求項1から6のいずれか1項に記載の表示システム。
  8. 第1表示部を有する電子機器と、外景を視認可能に構成され、前記外景に重ねて画像を表示する第2表示部を有する表示装置と、を備え、前記表示装置に対する操作に基づいて前記電子機器の動作を制御する外部操作モード、及び、前記表示装置に対する操作に基づく前記電子機器の動作の制御を行わない通常操作モードを切り替えて実行可能な表示システムの制御方法であって、
    前記電子機器から前記表示装置に入力されるデータに基づく画像を前記第2表示部に表示し、
    前記表示装置に対する前記電子機器の前記第1表示部の位置を検出し、
    前記表示装置に対する前記第1表示部の位置が、前記第2表示部により視認される前記外景の範囲に含まれる場合に、前記第2表示部における表示を調整し、
    前記外部操作モードにおいて、前記表示装置に対する前記第1表示部の位置に基づき前記第1表示部の表示の制御を実行し、前記通常操作モードにおいて、前記第1表示部における表示を非表示とする制御、及び、前記第2表示部の輝度を前記外部操作モードより低輝度とする制御のいずれかを実行する、表示システムの制御方法。
JP2017246846A 2017-12-22 2017-12-22 表示システム、及び、表示システムの制御方法 Active JP7035510B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017246846A JP7035510B2 (ja) 2017-12-22 2017-12-22 表示システム、及び、表示システムの制御方法
CN201811560616.9A CN109960481B (zh) 2017-12-22 2018-12-20 显示系统及其控制方法
US16/229,662 US10732918B2 (en) 2017-12-22 2018-12-21 Display system, method of controlling display system, and display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017246846A JP7035510B2 (ja) 2017-12-22 2017-12-22 表示システム、及び、表示システムの制御方法

Publications (2)

Publication Number Publication Date
JP2019113693A JP2019113693A (ja) 2019-07-11
JP7035510B2 true JP7035510B2 (ja) 2022-03-15

Family

ID=66950376

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017246846A Active JP7035510B2 (ja) 2017-12-22 2017-12-22 表示システム、及び、表示システムの制御方法

Country Status (3)

Country Link
US (1) US10732918B2 (ja)
JP (1) JP7035510B2 (ja)
CN (1) CN109960481B (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10659772B1 (en) * 2019-04-23 2020-05-19 Disney Enterprises, Inc. Augmented reality system for layering depth on head-mounted displays using external stereo screens
KR20210025967A (ko) * 2019-08-28 2021-03-10 엘지전자 주식회사 이동 단말기 및 이동 단말기를 구비한 전자장치
JP2021043300A (ja) * 2019-09-10 2021-03-18 セイコーエプソン株式会社 表示システム、情報処理装置の制御プログラム、情報処理装置の制御方法、及び表示装置
JP2021105782A (ja) * 2019-12-26 2021-07-26 セイコーエプソン株式会社 表示システム、表示方法、及び、プログラム
JP2021106447A (ja) * 2019-12-26 2021-07-26 セイコーエプソン株式会社 画像表示装置、給電システム及び画像表示装置の給電方法
JP2022086074A (ja) * 2020-11-30 2022-06-09 セイコーエプソン株式会社 虚像表示装置、光学ユニット、虚像表示装置の調整方法及び虚像表示装置の製造方法
WO2023286315A1 (ja) * 2021-07-16 2023-01-19 ソニーグループ株式会社 表示システム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011186856A (ja) 2010-03-09 2011-09-22 Nec Corp ヘッドマウントディスプレイを外部表示装置として使用する携帯端末
US20140191929A1 (en) 2012-07-16 2014-07-10 Lg Electronics Inc. Head mounted display and method of outputting a content using the same in which the same identical content is displayed
US20150015459A1 (en) 2013-07-10 2015-01-15 Lg Electronics Inc. Mobile device, head mounted display and method of controlling therefor
JP2015227919A (ja) 2014-05-30 2015-12-17 セイコーエプソン株式会社 画像表示装置、画像表示装置を制御する方法、コンピュータープログラム、および、画像表示システム
WO2016021252A1 (ja) 2014-08-05 2016-02-11 ソニー株式会社 情報処理装置及び情報処理方法、並びに画像表示システム
JP2016119019A (ja) 2014-12-24 2016-06-30 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理方法、プログラム
JP2017032870A (ja) 2015-08-04 2017-02-09 富士通株式会社 画像投影装置及び画像表示システム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1326122B1 (en) 1993-08-12 2006-09-06 Seiko Epson Corporation Head-mounted image display device and data processing apparatus including the same
JP5237268B2 (ja) * 2007-11-21 2013-07-17 パナソニック株式会社 表示装置
JP2011059435A (ja) 2009-09-10 2011-03-24 Sumitomo Electric Ind Ltd ヘッドマウントディスプレイ
US9217867B2 (en) 2011-03-24 2015-12-22 Seiko Epson Corporation Head-mounted display device and control method for the head-mounted display device
JP5834439B2 (ja) 2011-03-24 2015-12-24 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP2012252091A (ja) * 2011-06-01 2012-12-20 Sony Corp 表示装置
JP5790187B2 (ja) * 2011-06-16 2015-10-07 ソニー株式会社 表示装置
JP6209906B2 (ja) 2013-09-05 2017-10-11 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置を制御する方法、画像表示システム
US10451874B2 (en) 2013-09-25 2019-10-22 Seiko Epson Corporation Image display device, method of controlling image display device, computer program, and image display system
JP6379572B2 (ja) 2014-03-27 2018-08-29 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
US20150348322A1 (en) * 2014-06-02 2015-12-03 Dell Products L.P. Dynamically Composited Information Handling System Augmented Reality at a Primary Display
WO2016017144A1 (en) * 2014-07-31 2016-02-04 Seiko Epson Corporation Display device, control method for display device, and program
US9898868B2 (en) * 2014-11-06 2018-02-20 Seiko Epson Corporation Display device, method of controlling the same, and program
US10162412B2 (en) * 2015-03-27 2018-12-25 Seiko Epson Corporation Display, control method of display, and program
US10645374B2 (en) * 2016-03-04 2020-05-05 Seiko Epson Corporation Head-mounted display device and display control method for head-mounted display device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011186856A (ja) 2010-03-09 2011-09-22 Nec Corp ヘッドマウントディスプレイを外部表示装置として使用する携帯端末
US20140191929A1 (en) 2012-07-16 2014-07-10 Lg Electronics Inc. Head mounted display and method of outputting a content using the same in which the same identical content is displayed
US20150015459A1 (en) 2013-07-10 2015-01-15 Lg Electronics Inc. Mobile device, head mounted display and method of controlling therefor
JP2015227919A (ja) 2014-05-30 2015-12-17 セイコーエプソン株式会社 画像表示装置、画像表示装置を制御する方法、コンピュータープログラム、および、画像表示システム
WO2016021252A1 (ja) 2014-08-05 2016-02-11 ソニー株式会社 情報処理装置及び情報処理方法、並びに画像表示システム
JP2016119019A (ja) 2014-12-24 2016-06-30 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理方法、プログラム
JP2017032870A (ja) 2015-08-04 2017-02-09 富士通株式会社 画像投影装置及び画像表示システム

Also Published As

Publication number Publication date
US20190196771A1 (en) 2019-06-27
JP2019113693A (ja) 2019-07-11
CN109960481A (zh) 2019-07-02
CN109960481B (zh) 2022-08-02
US10732918B2 (en) 2020-08-04

Similar Documents

Publication Publication Date Title
JP7035510B2 (ja) 表示システム、及び、表示システムの制御方法
JP7087481B2 (ja) 頭部装着型表示装置、表示制御方法、およびコンピュータープログラム
CN109960039B (zh) 显示系统、电子设备以及显示方法
US9448625B2 (en) Head-mounted display device, control method for head-mounted display device, and image display system
CN108535868B (zh) 头部佩戴型显示装置及其控制方法
US20180259775A1 (en) Transmission-type display device, display control method, and computer program
JP7047394B2 (ja) 頭部装着型表示装置、表示システム、及び、頭部装着型表示装置の制御方法
US10567730B2 (en) Display device and control method therefor
US20170289533A1 (en) Head mounted display, control method thereof, and computer program
JP7003633B2 (ja) 透過型表示装置、表示制御方法、およびコンピュータープログラム
US10842349B2 (en) Endoscope operation support system
JP2018160735A (ja) 透過型表示装置、表示制御方法、およびコンピュータープログラム
US20200227007A1 (en) Display system, control method of display system, information processing device, and control program of information processing device
US10121409B2 (en) Display device, method of controlling display device, and program
JP7238456B2 (ja) 表示システム、情報処理装置の制御プログラム、及び情報処理装置の制御方法
US10930200B2 (en) Connection device, display device, and control method for the display device
JP2017146726A (ja) 移動支援装置、及び、移動支援方法
JP2017134630A (ja) 表示装置、表示装置の制御方法、及び、プログラム
JP2021057737A (ja) 表示システム、表示制御方法、および、プログラム
JP2021043300A (ja) 表示システム、情報処理装置の制御プログラム、情報処理装置の制御方法、及び表示装置
JP2019114236A (ja) 表示システム、電子機器、及び、表示方法
JP2021047370A (ja) 表示装置、表示装置の制御方法、表示装置の制御プログラム、及び表示システム
JP2018081543A (ja) 表示装置、頭部装着型表示装置、表示装置の制御方法、及び、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201015

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210817

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220214

R150 Certificate of patent or registration of utility model

Ref document number: 7035510

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150