JP2024007643A - 表示システム、制御装置及び表示システムの表示方法 - Google Patents
表示システム、制御装置及び表示システムの表示方法 Download PDFInfo
- Publication number
- JP2024007643A JP2024007643A JP2022108839A JP2022108839A JP2024007643A JP 2024007643 A JP2024007643 A JP 2024007643A JP 2022108839 A JP2022108839 A JP 2022108839A JP 2022108839 A JP2022108839 A JP 2022108839A JP 2024007643 A JP2024007643 A JP 2024007643A
- Authority
- JP
- Japan
- Prior art keywords
- display
- image
- range
- head
- display image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 14
- 238000001514 detection method Methods 0.000 claims abstract description 42
- 210000003128 head Anatomy 0.000 description 35
- 238000012545 processing Methods 0.000 description 34
- 230000003287 optical effect Effects 0.000 description 15
- 239000004973 liquid crystal related substance Substances 0.000 description 14
- 230000015654 memory Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 13
- 230000033001 locomotion Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 8
- 238000003384 imaging method Methods 0.000 description 6
- 238000005259 measurement Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 241000270666 Testudines Species 0.000 description 4
- 239000004065 semiconductor Substances 0.000 description 4
- 238000005401 electroluminescence Methods 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 238000012937 correction Methods 0.000 description 2
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000002834 transmittance Methods 0.000 description 2
- 241000251468 Actinopterygii Species 0.000 description 1
- 241001474374 Blennius Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- QSHDDOUJBYECFT-UHFFFAOYSA-N mercury Chemical compound [Hg] QSHDDOUJBYECFT-UHFFFAOYSA-N 0.000 description 1
- 229910052753 mercury Inorganic materials 0.000 description 1
- 229910001507 metal halide Inorganic materials 0.000 description 1
- 150000005309 metal halides Chemical class 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1423—Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/001—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
- G09G3/002—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0132—Head-up displays characterised by optical features comprising binocular systems
- G02B2027/0134—Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/04—Changes in size, position or resolution of an image
- G09G2340/0442—Handling or displaying different aspect ratios, or changing the aspect ratio
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/04—Changes in size, position or resolution of an image
- G09G2340/045—Zooming at least part of an image, i.e. enlarging it or shrinking it
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/04—Changes in size, position or resolution of an image
- G09G2340/0464—Positioning
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2356/00—Detection of the display position w.r.t. other display screens
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2360/00—Aspects of the architecture of display systems
- G09G2360/04—Display device controller operating with a plurality of display units
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2370/00—Aspects of data communication
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Optics & Photonics (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】頭部装着型表示装置の表示部を通して、表示装置が表示する画像を視認可能な場合に、視認する画像の画質を向上させた表示システムを提供する。【解決手段】プロジェクター100と、HMD200と、使用者UがHMD表示装置210を通して第1表示領域50を視認するときに、HMD表示装置210が第2表示画像を表示する第2表示領域70に重なる第1表示領域50の範囲である第1範囲と、第1範囲に対応する第1表示画像の範囲である第2範囲と、を検出する検出部371と、オブジェクトを含む第1表示画像と、オブジェクトを含む第2表示画像と、を生成する生成部373と、を備える制御装置300と、を有し、制御装置300は、オブジェクトを表示する第2表示領域の位置に対応する第2範囲内の位置に、第1表示領域50とHMD200との距離に対応した表示サイズでオブジェクトを配置して第1表示画像を生成する。【選択図】図4
Description
本発明は、表示システム、制御装置及び表示システムの表示方法に関する。
従来、表示面に画像を表示する表示装置と、使用者の頭部に装着され、使用者に画像を視認させる頭部装着型表示装置とが協同するシステムが知られている。
例えば、特許文献1は、画像を表示する第1の表示装置と、使用者に画像を視認させるとともに外景を透過す表示部を備える透過型の第2の表示装置とを備える表示システムを開示する。第2の表示装置は、第1の表示装置が表示する表示画像のデータを取得するデータ取得部と、表示部を通して表示画像を視認可能なときに、データ取得部が取得したデータに基づき、表示画像の少なくとも一部を表示部により表示する制御部と、を備える。
表示装置が表示する画像のサイズが大きくなると、表示される画像の画質が低下する場合がある。このため、頭部装着型表示装置の表示部を通して、表示装置が表示する画像を視認可能な場合に、視認する画像の画質を向上させたいという要望がある。
本開示は、第1表示画像を第1表示領域に表示する表示装置と、使用者の頭部に装着され、外景を視認可能に第2表示画像を第2表示領域に表示する表示部を備える頭部装着型表示装置と、前記使用者が前記表示部を通して前記第1表示画像を視認するときに、前記第2表示領域が重なる前記第1表示領域の範囲である第1範囲と、前記第1範囲に対応する前記第1表示画像の範囲である第2範囲と、を検出する検出部と、オブジェクトを含む前記第1表示画像と、前記オブジェクトを含む前記第2表示画像と、を生成する生成部と、を備える制御装置と、を有し、前記表示装置により前記オブジェクトを含む前記第1表示画像を表示し、前記頭部装着型表示装置により前記オブジェクトを含む前記第2表示画像を表示し、前記制御装置は、前記オブジェクトを表示する前記第2表示領域の位置に対応する前記第2範囲内の位置に、前記第1表示領域と前記頭部装着型表示装置との距離に対応した表示サイズで前記オブジェクトを配置して前記第1表示画像を生成する、表示システムである。
本開示は、第1表示画像を第1表示領域に表示する表示装置と、使用者の頭部に装着され、外景を視認可能に第2表示画像を第2表示領域に表示する表示部を備える頭部装着型表示装置と、に表示させる画像を制御する制御装置であって、前記使用者が前記表示部を通して前記第1表示画像を視認するときに、前記第2表示領域が重なる前記第1表示領域の範囲である第1範囲と、前記第1範囲に対応する前記第1表示画像の範囲である第2範囲と、を検出する検出部と、オブジェクトを含む前記第1表示画像と、前記オブジェクトを含む前記第2表示画像と、を生成する生成部と、前記オブジェクトを含む前記第1表示画像を前記表示装置に送信し、前記オブジェクトを含む前記第2表示画像を前記頭部装着型表示装置に送信する送信部と、を備え、前記生成部は、前記オブジェクトを表示する前記第2表示領域の位置に対応する前記第2範囲内の位置に、前記第1表示領域と前記頭部装着型表示装置との距離に対応した表示サイズで前記オブジェクトを配置して前記第1表示画像を生成する、制御装置である。
本開示は、第1表示画像を第1表示領域に表示する表示装置と、使用者の頭部に装着され、外景を視認可能に第2表示画像を第2表示領域に表示する表示部を備える頭部装着型表示装置と、を備える表示システムの表示方法であって、前記使用者が前記表示部を通して前記第1表示領域を視認するときに、前記使用者が前記表示部を通して前記第1表示画像を視認するときに、前記第2表示領域が重なる前記第1表示領域の範囲である第1範囲と、前記第1範囲に対応する前記第1表示画像の範囲である第2範囲と、を検出するステップと、オブジェクトを含む前記第1表示画像と、前記オブジェクトを含む前記第2表示画像と、を生成するステップと、前記オブジェクトを含む前記第1表示画像を前記表示装置に送信し、前記オブジェクトを含む前記第2表示画像を前記頭部装着型表示装置に送信するステップと、を含み、前記生成するステップは、前記オブジェクトを表示する前記第2表示領域の位置に対応する前記第2範囲内の位置に、前記第1表示領域と前記頭部装着型表示装置との距離に対応した表示サイズで前記オブジェクトを配置して前記第1表示画像を生成する、表示システムの表示方法である。
[1.表示システムのシステム構成]
以下、本発明の実施形態について図面を参照しながら説明する。
図1は、表示システム1の概略構成を示す図である。
表示システム1は、プロジェクター100と、頭部装着型表示装置200と、制御装置300と、を備える。以下では、頭部装着型表示装置200をHMD(Head Mounted Display)200と表記する。
以下、本発明の実施形態について図面を参照しながら説明する。
図1は、表示システム1の概略構成を示す図である。
表示システム1は、プロジェクター100と、頭部装着型表示装置200と、制御装置300と、を備える。以下では、頭部装着型表示装置200をHMD(Head Mounted Display)200と表記する。
制御装置300は、プロジェクター100及び頭部装着型表示装置200とデータ通信可能に接続される。図1には、制御装置300とプロジェクター100とを有線接続し、制御装置300とHMD200とを無線接続した例を示すが、制御装置300とプロジェクター100とを無線接続してもよい。
図1には、プロジェクター100、HMD200及び制御装置300を1台ずつ示すが、プロジェクター100、HMD200及び制御装置300の台数は任意である。
例えば、表示システム1が複数のHMD200を備え、これら複数のHMD200を、複数の使用者Uの各々に装着させる構成であってもよい。
例えば、表示システム1が複数のHMD200を備え、これら複数のHMD200を、複数の使用者Uの各々に装着させる構成であってもよい。
プロジェクター100は、制御装置300から供給される画像データに基づいて画像光を生成し、生成した画像光を投写面10に投写する。これにより投写面10には、画像データに対応した画像が表示される。プロジェクター100が投写面10に表示する画像を第1表示画像という。また、プロジェクター100により第1表示画像が表示される投写面10の領域を第1表示領域50という。投写面10は、幕状のスクリーンであってもよいし、建造物の外壁や室内の壁面、設置物の平面等を投写面10としてもよい。また、投写面10は、平面に限らず、曲面や凹凸を有する面であってもよい。
HMD200は、使用者Uの頭部に装着されるHMD表示装置210と、このHMD表示装置210を制御するHMD制御装置230と備える。HMD200は、HMD表示装置210を頭部に装着した使用者Uに画像を視認させるとともに、外景も直接視認可能な光学透過型の表示装置である。HMD表示装置210は、表示部に相当する。HMD200は、制御装置300から受信した画像データに基づく画像をHMD表示装置210により表示する。HMD表示装置210が使用者に視認させる画像を第2表示画像という。
HMD制御装置230は、HMD200のために専用に設けられた装置であってもよいし、HMD表示装置210に接続した接続装置を介して、スマートフォン等の外部装置を接続する構成であってもよい。接続装置を介して外部装置を接続する構成の場合、接続装置は、HMD表示装置210が備える各種センサーを動作させたり、外部装置から入力される画像データに基づき、HMD表示装置210に画像を表示させたりする処理を実行する。
制御装置300は、プロジェクター100に表示させる第1表示画像を生成し、HMD200に表示させる第2表示画像を生成する。
制御装置300は、プロジェクター100やHMD200からセンサーデータを受信する。制御装置300は、受信したセンサーデータに基づいて第1表示画像や第2表示画像を生成する。制御装置300は、生成した第1表示画像をプロジェクター100に送信し、生成した第2表示画像をHMD200に送信する。
制御装置300は、プロジェクター100やHMD200からセンサーデータを受信する。制御装置300は、受信したセンサーデータに基づいて第1表示画像や第2表示画像を生成する。制御装置300は、生成した第1表示画像をプロジェクター100に送信し、生成した第2表示画像をHMD200に送信する。
[2.プロジェクターの構成]
図2は、プロジェクター100の構成を示すブロック構成図である。
図2を参照しながらプロジェクター100の構成について説明する。
プロジェクター100は、第1有線インターフェイス110、プロジェクターカメラ120、LiDAR(Light Detection And Ranging)130、画像処理部140、フレームメモリー145、投写部150及び第1制御部160を備える。以下、インターフェイスをI/Fと略記する。
図2は、プロジェクター100の構成を示すブロック構成図である。
図2を参照しながらプロジェクター100の構成について説明する。
プロジェクター100は、第1有線インターフェイス110、プロジェクターカメラ120、LiDAR(Light Detection And Ranging)130、画像処理部140、フレームメモリー145、投写部150及び第1制御部160を備える。以下、インターフェイスをI/Fと略記する。
第1有線I/F110は、所定の通信規格に準拠したコネクター及びインターフェイス回路を備え、ケーブルを介して接続された制御装置300とデータの送受信を行う。第1有線I/F110は、画像データを受信すると、受信した画像データを第1制御部160に出力する。
プロジェクターカメラ120は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子及び撮像レンズ等を備えるデジタルカメラである。プロジェクターカメラ120は、単眼カメラであってもよいし、ステレオカメラであってもよい。
プロジェクターカメラ120は、撮像画像を生成し、生成した撮像画像を第1制御部160に出力する。
プロジェクターカメラ120は、撮像画像を生成し、生成した撮像画像を第1制御部160に出力する。
LiDAR130は、レーザー光等の検出光を射出し、この検出光を射出してから反射光が受光されるまでの時間に基づいて、当該反射光を生じた物体までの距離を検出する。
画像処理部140には、第1有線I/F110が受信した第1表示画像が第1制御部160から入力される。画像処理部140は、入力された第1表示画像をフレームメモリー145に展開する。画像処理部140は、フレームメモリー145に展開した第1表示画像に対して、例えば、解像度変換処理又はリサイズ処理、歪曲収差の補正、形状補正処理、デジタルズーム処理、画像の色合いや輝度の調整等の画像処理を行う。画像処理部140は、上記のうち複数の画像処理を組み合わせて実行することも勿論可能である。画像処理部140は、画像処理が終了すると、フレームメモリー145に展開された第1表示画像に対応した表示信号を生成し、生成した表示信号を投写部150に出力する。
画像処理部140及びフレームメモリー145は、例えば、集積回路により構成される。集積回路には、LSI(Large Scale Integrated Circuit)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field-Programmable Gate Array)、SoC(System-on-a-chip)等が含まれる。また、集積回路の構成の一部にアナログ回路が含まれていてもよく、第1制御部160と集積回路とが組み合わされた構成であってもよい。
投写部150は、光源151、光変調装置153及び光学ユニット157を備える。
光源151は、超高圧水銀ランプやメタルハライドランプ等の放電型の光源ランプ、又は発光ダイオードや半導体レーザー等の固体光源を備える。光源151が射出した光は、光変調装置153に入射される。
光変調装置153は、光源151が射出した光を変調する光変調素子として、一対の透明基板間に液晶が封入された透過型の液晶パネル155を備える。液晶パネル155は、マトリクス状に配列された複数の画素を備える。光変調装置153は、画像処理部140から入力される表示信号に対応した駆動電圧を液晶パネル155の各画素に印加し、各画素の光透過率を画像データに対応した透過率に変更する。光源151から射出された光が液晶パネル155を透過することで光源151が射出した光が変調され、第1表示画像に対応した画像光が生成される。
光変調装置153が備える光変調素子は、透過型の液晶パネル155に限定されず、例えば、反射型の液晶パネルでもよいし、DMD(Digital Micromirror Device)でもよい。
光学ユニット157は、不図示の投写レンズ等を備え、光変調装置153により変調された画像光を投写面10に拡大投写する。これにより投写面10の第1表示領域50には、画像光に対応した画像である第1表示画像が表示される。
第1制御部160は、第1記憶部170と、第1プロセッサー180とを備えるコンピューター装置である。
第1記憶部170は、ROM(Read Only Memory)やRAM(Random Access Memory)等の半導体メモリーを備える。
第1記憶部170は、第1プロセッサー180が実行するプログラムや、第1プロセッサー180により処理される各種データを不揮発的に記憶する。例えば、第1記憶部170は、第1プロセッサー180が実行するファームウェア等の制御プログラム171や、キャリブレーションデータ173を記憶する。また、第1記憶部170は、制御プログラム171の実行時に処理されるデータや処理結果のデータを記憶する。
第1記憶部170は、第1プロセッサー180が実行するプログラムや、第1プロセッサー180により処理される各種データを不揮発的に記憶する。例えば、第1記憶部170は、第1プロセッサー180が実行するファームウェア等の制御プログラム171や、キャリブレーションデータ173を記憶する。また、第1記憶部170は、制御プログラム171の実行時に処理されるデータや処理結果のデータを記憶する。
キャリブレーションデータ173は、投写面10に表示される第1表示画像と、投写面10をプロジェクターカメラ120により撮像した撮像画像での第1表示画像とを対応づけるデータである。
キャリブレーションデータ173は、以下の方法により生成される。
まず、プロジェクター100は、予め用意されたパターン画像を液晶パネル155に展開して画像光を生成し、生成した画像光を投写面10に投写する。パターン画像は、予め設定された画像パターンを有する画像である。例えば、パターン画像は、パターン画像の全面に一定の間隔でドットを形成した画像である。
キャリブレーションデータ173は、以下の方法により生成される。
まず、プロジェクター100は、予め用意されたパターン画像を液晶パネル155に展開して画像光を生成し、生成した画像光を投写面10に投写する。パターン画像は、予め設定された画像パターンを有する画像である。例えば、パターン画像は、パターン画像の全面に一定の間隔でドットを形成した画像である。
次に、プロジェクター100は、投写面10をプロジェクターカメラ120で撮像して撮像画像を生成する。プロジェクター100は、生成した撮像画像を解析して、パターン画像に含まれる各ドットの位置を特定する。その後、プロジェクター100は、撮像画像の各ドットの位置と、液晶パネル155に展開したパターン画像の各ドットの位置を対応づけることでキャリブレーションデータ173を生成する。
第1プロセッサー180は、1以上のCPU(Central Processing Unit)、マイコン又はDSP(Digital Signal Processor)等により構成される。第1プロセッサー180は、プログラムを実行することによりプロジェクター100の各部を制御する。第1プロセッサー180は、第1プロセッサー180及び第1記憶部170を統合したSoCにより構成してもよい。
第1制御部160は、制御装置300からの指示によりプロジェクターカメラ120に撮像を実行させたり、LiDAR130に測定を実行させたりする。第1制御部160は、プロジェクターカメラ120の撮像画像や、LiDAR130の測定結果を示すセンサーデータを制御装置300に送信する。
[3.HMDの構成]
次に、図3を参照しながらHMD200の構成について説明する。
HMD表示装置210は、図1に示すように眼鏡形状の部材である。HMD表示装置210は、右保持部21と、左保持部23と、前部フレーム27とを有する本体に、右表示部22、左表示部24、右導光板26及び左導光板28を備える。また、HMD表示装置210には、センサーとして、外側カメラ211、内側カメラ213、地磁気センサー215、6軸センサー217及び距離センサー219が搭載される。
次に、図3を参照しながらHMD200の構成について説明する。
HMD表示装置210は、図1に示すように眼鏡形状の部材である。HMD表示装置210は、右保持部21と、左保持部23と、前部フレーム27とを有する本体に、右表示部22、左表示部24、右導光板26及び左導光板28を備える。また、HMD表示装置210には、センサーとして、外側カメラ211、内側カメラ213、地磁気センサー215、6軸センサー217及び距離センサー219が搭載される。
右保持部21及び左保持部23は、前部フレーム27の両端部から後方に延び、使用者Uの頭部にHMD表示装置210を保持する。
前部フレーム27は、右導光板26の一端と左導光板28の一端とを互いに連結した形状を有し、この連結位置は、使用者UがHMD表示装置210を装着する装着状態で、使用者Uの眉間に対応する。
前部フレーム27は、右導光板26の一端と左導光板28の一端とを互いに連結した形状を有し、この連結位置は、使用者UがHMD表示装置210を装着する装着状態で、使用者Uの眉間に対応する。
右表示部22及び左表示部24は、それぞれ、光学ユニット及び周辺回路をユニット化したモジュールである。右表示部22は、右導光板26により画像を表示させ、左表示部24は左導光板28により画像を表示させる。右表示部22は右保持部21に取り付けられ、左表示部24は左保持部23に取り付けられる。
右表示部22は、右眼に画像を視認させる構成として、画像光を発する右OLED(Organic Light Emitting Diode)ユニットや、右OLEDユニットが発する画像光を右導光板26に導く右光学系を備える。左表示部24は、左眼に画像を視認させる構成として、画像光を発する左OLEDユニットや、左OLEDユニットが発する画像光を左導光板28に導く左光学系を備える。右OLEDユニット、左OLEDユニット、右光学系及び左光学系の図示は省略する。使用者Uは、右導光板26及び左導光板28により導かれた画像光である第2表示画像を視認する。また、HMD表示装置210を頭部に装着した使用者Uの視野範囲のうち、HMD表示装置210によって第2表示画像を表示可能な領域を第2表示領域70という。
外側カメラ211は、前部フレーム27において、右導光板26及び左導光板28を透過する外光を遮らない位置に設けられる。外側カメラ211は、CCDやCMOS等の撮像素子及び撮像レンズ等を備えるデジタルカメラであり、単眼カメラであってもよいし、ステレオカメラであってもよい。外側カメラ211の画角は、HMD表示装置210を装着した使用者Uが右導光板26及び左導光板28を透過して視認する外景の範囲の少なくとも一部を含む。
内側カメラ213は、HMD表示装置210において、使用者Uの顔に対向して配置され、使用者Uの右眼及び左眼を撮像する。HMD200は、内側カメラ213の撮像画像を解析して右眼の視線の方向、及び左眼の視線の方向を特定する。
地磁気センサー215は、X軸方向、Y軸方向及びZ軸方向における磁界を検出する3軸のセンサーである。X軸、Y軸及びZ軸は、図1に示すように相互に直交する3軸方向であり、Z軸方向が鉛直方向に対応し、X軸方向が使用者Uの頭部の左右方向に対応し、Y軸方向が使用者Uの頭部の前後方向に対応する。
6軸センサー217は、3軸加速度センサー及び3軸ジャイロセンサーを備えるモーションセンサーである。6軸センサー217は、上記のセンサーがモジュール化されたIMUを採用してもよい。
地磁気センサー215及び6軸センサー217及びは、例えば、50msec等の所定の周期毎にサンプリングを実行し、検出結果を示すアナログ電圧値を出力する。出力された電圧値は、A/D変換器によってデジタル信号に変換され、第2制御部240に出力される。
地磁気センサー215及び6軸センサー217及びは、例えば、50msec等の所定の周期毎にサンプリングを実行し、検出結果を示すアナログ電圧値を出力する。出力された電圧値は、A/D変換器によってデジタル信号に変換され、第2制御部240に出力される。
距離センサー219は、使用者Uの前方に位置する対象物までの距離を検出する。対象物は、実空間に存在する現実の物体や構造物である。距離センサー219は、例えば、光反射式距離センサーであってもよい。具体的には、LEDやレーザーダイオード等の光源と、光源が発する光が対象物に反射する反射光を受光する受光部とを有するセンサーが挙げられる。また、距離センサー219は、超音波式の距離センサーであってもよい。すなわち、距離センサー219は、超音波を発する音源と、対象物で反射する超音波を受信する検出部とを備える構成であってもよい。また、距離センサー219は、測域センサーとも呼ばれるレーザーレンジスキャナーであってもよい。
次に、HMD制御装置230について説明する。
HMD制御装置230は、第1無線I/F231、操作部233及び第2制御部240を備える。また、HMD制御装置230には、不図示のオーディオコネクターを介してヘッドセット220が接続される。
HMD制御装置230は、第1無線I/F231、操作部233及び第2制御部240を備える。また、HMD制御装置230には、不図示のオーディオコネクターを介してヘッドセット220が接続される。
ヘッドセット220は、ステレオヘッドホンを構成する右イヤホン及び左イヤホンと、マイクとを備える。右イヤホン及び左イヤホンは、第2制御部240から入力される音声信号に基づく音声を出力する。また、マイクは、音声を集音して音声信号を生成し、生成した音声信号を第2制御部240に出力する。
第1無線I/F231は、例えば、BluetoothやWi-Fi等の規格に対応した通信回路を備える無線通信デバイスである。Bluetooth及びWi-Fiは、登録商標である。第1無線I/F231は、制御装置300に無線接続し、制御装置300との間で相互にデータ通信を行う。
操作部233は、ボタンやスイッチ等を備え、使用者Uの操作を受け付ける受付部である。操作部233は、受け付けた操作に対応した操作信号をHMD制御装置230に出力する。
第2制御部240は、第2記憶部250及び第2プロセッサー260を備える。
第2記憶部250は、ROMやRAMを備える。また、第2記憶部250は、ROMやRAMに加えてフラッシュメモリー等の不揮発性メモリーを備える構成であってもよい。
第2記憶部250は、第2プロセッサー260が実行するプログラムや、第2プロセッサー260により処理される各種データを不揮発的に記憶する。例えば、第2記憶部250は、第2プロセッサー260が実行する基本制御プログラムとしてのオペレーティングシステム、及び、オペレーティングシステム上で動作するアプリケーションプログラム等を記憶する。また、第2プロセッサー260は、アプリケーションプログラムの実行時に処理されるデータや処理結果のデータを記憶する。
第2記憶部250は、第2プロセッサー260が実行するプログラムや、第2プロセッサー260により処理される各種データを不揮発的に記憶する。例えば、第2記憶部250は、第2プロセッサー260が実行する基本制御プログラムとしてのオペレーティングシステム、及び、オペレーティングシステム上で動作するアプリケーションプログラム等を記憶する。また、第2プロセッサー260は、アプリケーションプログラムの実行時に処理されるデータや処理結果のデータを記憶する。
第2プロセッサー260は、1以上のCPU、マイコン又はDSP等により構成され、プログラムを実行することによりHMD制御装置230の各部を制御する。第2プロセッサー260は、第2プロセッサー260及び第2記憶部250を統合したSoCであってもよい。
第2制御部240は、制御装置300からの指示により外側カメラ211及び内側カメラ213に撮像を実行させたり、地磁気センサー215、6軸センサー217及び距離センサー219に測定を実行させたりする。第2制御部240は、外側カメラ211及び内側カメラ213の撮像画像や、地磁気センサー215、6軸センサー217及び距離センサー219の測定結果を示すセンサーデータを制御装置300に送信する。
[4.制御装置の構成]
次に、図4を参照しながら制御装置300の構成について説明する。図4は、制御装置300の構成を示すブロック構成図である。
制御装置300は、いわゆるコンピューター装置であり、ノート型や、デスクトップ型、タブレット型等のコンピューターが用いられる。
次に、図4を参照しながら制御装置300の構成について説明する。図4は、制御装置300の構成を示すブロック構成図である。
制御装置300は、いわゆるコンピューター装置であり、ノート型や、デスクトップ型、タブレット型等のコンピューターが用いられる。
制御装置300は、第2有線I/F310、第2無線I/F320、操作部330、表示部340及び第3制御部350を備える。
第2有線I/F310は、送信部に相当し、所定の通信規格に準拠したコネクター及びインターフェイス回路を備え、ケーブルを介して接続されたプロジェクター100とデータの送受信を行う。
第2無線I/F320は、送信部に相当し、BluetoothやWi-Fi等の無線通信プロトコルに対応し、HMD200に無線接続してHMD200との間で相互にデータ通信を行う。
操作部330は、マウスやキーボード等の入力デバイスを備え、使用者の操作を受け付ける。操作部330は、入力デバイスにより受け付けた操作に対応した操作信号を第3制御部350に出力する。
表示部340は、例えば、液晶パネルや有機EL(Electro-Luminescence)パネル等の表示パネルを備え、第3制御部350が生成した表示画像を表示パネルに表示させる。表示パネルの図示は省略する。
第3制御部350は、第3記憶部360と、第3プロセッサー370と、を備えるコンピューター装置である。
第3記憶部360は、ROM等の不揮発性のメモリーと、RAM等の揮発性のメモリーとを備える。また、第3記憶部360は、HDD(Hard Disk Drive)やSSD(Solid State Drive)等の補助記憶装置を備える構成であってもよい。
第3記憶部360は、第3プロセッサー370が実行する制御プログラム361や、第3プロセッサー370により処理される各種データを不揮発的に記憶する。例えば、第3記憶部360は、第3プロセッサー370が実行する基本制御プログラムとしてのオペレーティングシステム、及び、オペレーティングシステム上で動作するアプリケーションプログラム等を制御プログラム361として記憶する。アプリケーションプログラムには、プロジェクター100及びHMD200の表示を制御するアプリケーションプログラムが含まれる。以下、アプリケーションプログラムをAPPと表記する。また、第3記憶部360は、制御プログラム261の実行時に処理されるデータや処理結果のデータを記憶する。
第3プロセッサー370は、1以上のCPU、マイコン又はDSP等により構成され、プログラムを実行することにより制御装置300の各部を制御する。第3プロセッサー370は、第3プロセッサー370及び第3記憶部360を統合したSoCにより構成してもよい。第3プロセッサー370は、機能的構成として、検出部371及び生成部373を備える。これらの機能的構成は、第3プロセッサー370が、制御プログラム361に従った演算を行うことで実現される機能である。
第3制御部350は、第1表示画像及び第2表示画像を生成する。
第1表示画像は、プロジェクター100に投写させる画像である。第2表示画像は、HMD200に表示させる画像である。本実施形態では、HMD200が表示する第2表示画像は、使用者UがHMD表示装置210を通して投写面10の第1表示領域50を視認するときに表示される画像であるとして説明する。
第1表示画像は、プロジェクター100に投写させる画像である。第2表示画像は、HMD200に表示させる画像である。本実施形態では、HMD200が表示する第2表示画像は、使用者UがHMD表示装置210を通して投写面10の第1表示領域50を視認するときに表示される画像であるとして説明する。
まず、検出部371は、HMD200の第2表示領域70の少なくとも一部が、投写面10の少なくとも一部に重なるか否かを判定する。例えば、検出部371は、外側カメラ211の撮像画像の所定範囲内からプロジェクター100により表示された第1表示画像を検出した場合に、HMD200の第2表示領域70少なくとも一部が、投写面10の少なくとも一部に重なったと判定する。
所定範囲は、外側カメラ211が撮像した撮像画像において、HMD表示装置210が第2表示画像を表示する範囲に対応する。外側カメラ211は、HMD表示装置210に固定され、外側カメラ211の画角は、一定に設定される。このため、外側カメラ211の撮像画像において、HMD表示装置210が第2表示画像を表示する範囲は一定の範囲となる。
所定範囲は、外側カメラ211が撮像した撮像画像において、HMD表示装置210が第2表示画像を表示する範囲に対応する。外側カメラ211は、HMD表示装置210に固定され、外側カメラ211の画角は、一定に設定される。このため、外側カメラ211の撮像画像において、HMD表示装置210が第2表示画像を表示する範囲は一定の範囲となる。
第3制御部350は、HMD200の第2表示領域70の少なくとも一部が、投写面10の少なくとも一部に重なると検出部371が判定した場合、HMD表示装置210が表示する第2表示画像を、プロジェクター100が投写面10に表示する第1表示画像に重ねる。つまり、使用者Uから見た場合、HMD表示装置210が表示する第2表示画像と、投写面10に表示される第1表示画像の一部とが重なって1つの画像として視認される。HMD表示装置210が表示する第2表示画像の大きさは、プロジェクター100が投写面10に表示する第1表示画像の大きさよりも小さい。このため、HMD表示装置210が表示する第2表示画像が、投写面10に表示される第1表示画像の一部と重なる。
検出部371は、HMD表示装置210の第2表示領域70が投写面10に重なる範囲を判定する。検出部371は、HMD200から受信したセンサーデータに基づき、HMD200と投写面10との距離と、HMD200に対する投写面10の角度と、を検出する。また、検出部371は、これらに加えて使用者Uの頭部の向きを検出してもよい。検出部371は、検出したHMD200と投写面10との距離、及び、HMD200に対する投写面10の角度に基づき、第2表示領域70が投写面10に重なる範囲を判定する。また、検出部371は、検出したHMD200と投写面10との距離と、HMD200に対する投写面10の角度とに加えて、使用者Uの頭部の向きに基づき、第2表示領域70が投写面10に重なる範囲を判定してもよい。以下では、第2表示領域70が重なる投写面10の範囲を、第1範囲という。
検出部371は、まず、HMD200から投写面10までの距離を求める。
HMD200の位置として、例えば、HMD200に搭載された距離センサー219の位置を用いる。検出部371は、距離センサー219が測定したセンサーデータに基づき、HMD200から投写面10までの距離を求める。
HMD200の位置として、例えば、HMD200に搭載された距離センサー219の位置を用いる。検出部371は、距離センサー219が測定したセンサーデータに基づき、HMD200から投写面10までの距離を求める。
図5は、HMD200に対する投写面10の角度θを示す図である。
次に、検出部371は、HMD200に対する投写面10の角度θを求める。
第3制御部350は、距離センサー219が測定したセンサーデータに基づき、HMD200に対する投写面10の角度θを求める。HMD表示装置210が備える距離センサー219の位置を位置Aとし、投写面10の縦方向及び横方向の中心を位置Bとする。また、位置Aを始点とする投写面10の法線に水平な線分が、投写面10と交差する位置を位置Cとする。この場合、HMD200に対する投写面10の角度θ、すなわち、距離センサー219に対する投写面10の角度θは、位置Aから位置C及び位置Bを見込む角度である。
次に、検出部371は、HMD200に対する投写面10の角度θを求める。
第3制御部350は、距離センサー219が測定したセンサーデータに基づき、HMD200に対する投写面10の角度θを求める。HMD表示装置210が備える距離センサー219の位置を位置Aとし、投写面10の縦方向及び横方向の中心を位置Bとする。また、位置Aを始点とする投写面10の法線に水平な線分が、投写面10と交差する位置を位置Cとする。この場合、HMD200に対する投写面10の角度θ、すなわち、距離センサー219に対する投写面10の角度θは、位置Aから位置C及び位置Bを見込む角度である。
また、検出部371は、6軸センサー217や地磁気センサー215の測定結果に基づき、使用者Uの頭部が向く方向である方位角を検出する。さらに、検出部371は、6軸センサー217に含まれるジャイロセンサーの測定結果に基づき、使用者Uの頭部のZ軸まわりの回転角であるヨー角や、頭部の回転速度を示す角速度を検出する。
検出部371は、HMD200と投写面10との距離と、HMD200に対する投写面10の角度と、に基づき、第2表示領域70が重なる投写面10の範囲である第1範囲を決定する。また、頭部の向きを加えて第1範囲を検出してもよい。
検出部371は、第2表示領域70が投写面10の範囲である第1範囲を決定すると、次に、第2範囲を検出する。第2範囲は、第1範囲に対応する第1表示画像の範囲である。すなわち、第2範囲は、第1範囲に表示される第1表示画像の範囲である。
検出部371は、キャリブレーションデータ173に基づき、第1範囲に表示される第1表示画像の範囲である第2範囲を検出する。
検出部371は、キャリブレーションデータ173に基づき、第1範囲に表示される第1表示画像の範囲である第2範囲を検出する。
生成部373は、第1表示画像及び第2表示画像を生成する。第1表示画像は、例えば、第3記憶部360に記憶した画像を再生したものであってもよいし、第2無線I/F320により受信した画像であってもよい。また、第1表示画像は、静止画像であってもよいし、動画像であってもよい。
また、生成部373は、検出部371が検出した第2範囲に対応する画像を第1表示画像から切り出して第2表示画像を生成する。
また、生成部373は、検出部371が検出した第2範囲に対応する画像を第1表示画像から切り出して第2表示画像を生成する。
第3制御部350は、第1表示画像をプロジェクター100に送信し、第2表示画像をHMD200に送信する。
図6及び図7は、HMD200の第2表示領域70が投写面10の第1表示領域50に重なった状態で使用者Uが視認する画像の例を示す図である。
図6に示す画像の例では、魚の画像51や、海藻の画像52、亀の画像53及び竜の落とし子の画像54が、プロジェクター100により第1表示画像として第1表示領域50に表示される。また、亀の画像71が、HMD200により第2表示画像として第2表示領域70に表示される。
プロジェクター100が投写面10に表示する亀の画像53と、HMD200が第2表示領域70に表示する亀の画像71とは、使用者Uには重なって1つの画像として視認される。
図6に示す画像の例では、魚の画像51や、海藻の画像52、亀の画像53及び竜の落とし子の画像54が、プロジェクター100により第1表示画像として第1表示領域50に表示される。また、亀の画像71が、HMD200により第2表示画像として第2表示領域70に表示される。
プロジェクター100が投写面10に表示する亀の画像53と、HMD200が第2表示領域70に表示する亀の画像71とは、使用者Uには重なって1つの画像として視認される。
図7に示す画像の例では、ピッチャーの画像55が、プロジェクター100により第1表示画像として第1表示領域50に表示される。また、ピッチャーの画像の一部73と、ボールの画像75とが、HMD200により第2表示画像として第2表示領域70に表示される。ピッチャーの画像の一部73は、図7に破線で示す第2表示領域70内の画像である。
プロジェクター100が投写面10に表示するピッチャーの画像55と、HMD200が第2表示領域70に表示するピッチャーの画像の一部73とは、使用者Uには重なって1つの画像として視認される。
また、プロジェクター100によりピッチャーの画像55を表示し、HMD200は、ピッチャーの画像の一部73を表示することなく、ボールの画像75だけを第2表示領域70に表示してもよい。
プロジェクター100が投写面10に表示するピッチャーの画像55と、HMD200が第2表示領域70に表示するピッチャーの画像の一部73とは、使用者Uには重なって1つの画像として視認される。
また、プロジェクター100によりピッチャーの画像55を表示し、HMD200は、ピッチャーの画像の一部73を表示することなく、ボールの画像75だけを第2表示領域70に表示してもよい。
HMD200が第2表示領域70に表示するボールの画像75は3次元画像であり、使用者Uには立体的に視認される。
第3制御部350は、使用者Uに認識させる画像の位置を計算し、その位置に仮想的な画像が見えるように、両眼視の視差を演算し、視差を有する右左の画像をHMD20に送信する。HMD200の右表示部22は、右導光板26を介して使用者Uの右眼に視認させる画像を出力する。同様に、左表示部24は、左導光板28を介して使用者Uの左眼に視認させる画像を出力する。これにより、HMD200は、ピッチャーにより投じられたボールの画像75を、バッターである不図示の使用者Uの方向に向かって飛んでくるように表示する。使用者Uの腕にハプティクスデバイスを事前に装着し、使用者Uがバットを振ることで、使用者Uはボールを打ったような感覚が得られる。
第3制御部350は、使用者Uに認識させる画像の位置を計算し、その位置に仮想的な画像が見えるように、両眼視の視差を演算し、視差を有する右左の画像をHMD20に送信する。HMD200の右表示部22は、右導光板26を介して使用者Uの右眼に視認させる画像を出力する。同様に、左表示部24は、左導光板28を介して使用者Uの左眼に視認させる画像を出力する。これにより、HMD200は、ピッチャーにより投じられたボールの画像75を、バッターである不図示の使用者Uの方向に向かって飛んでくるように表示する。使用者Uの腕にハプティクスデバイスを事前に装着し、使用者Uがバットを振ることで、使用者Uはボールを打ったような感覚が得られる。
図8及び図9は、HMD200の第2表示領域70が第1表示領域50に重なった状態で使用者Uが視認する画像の例を示す図である。
図8及び図9には、プロジェクター100及びHMD200により同一のオブジェクトを表示させた画像の例を示す。図8に示す画像は、使用者Uが頭部を回転する前に使用者Uが視認する画像を示す図である。図9に示す画像は、使用者Uが頭部を右方向に回転させた後に使用者Uが視認する画像を示す図である。
図8及び図9には、プロジェクター100及びHMD200により同一のオブジェクトを表示させた画像の例を示す。図8に示す画像は、使用者Uが頭部を回転する前に使用者Uが視認する画像を示す図である。図9に示す画像は、使用者Uが頭部を右方向に回転させた後に使用者Uが視認する画像を示す図である。
図8及び図9には、プロジェクター100がオブジェクトとして表示する自転車の画像57と、HMD200がオブジェクトとして表示する自転車の画像77とを示す。使用者Uには、自転車の画像57と、自転車の画像77とは重なって1つの画像として視認される。
オブジェクトは、使用者UがHMD表示装置210を通して投写面10の第1表示領域50を視認する場合、第1表示画像及び第2表示画像に含まれる画像である。また、オブジェクトは、第2表示画像では、使用者Uの頭部の動きによらず第2表示領域70の一定の位置に表示される。さらに、オブジェクトは、第1表示領域では、使用者Uの頭部の動きに対応して第1表示領域50を移動する画像である。
HMD200が表示する自転車の画像77は、使用者Uが頭部を左方向又は右方向に回転させても第2表示領域70の同一の位置に表示される。プロジェクター100が表示する自転車の画像57は、使用者Uの頭部の動きに合わせて第1表示領域50を移動する。つまり、プロジェクター100が表示する第1表示画像では、HMD200が第2表示領域70に表示する自転車の画像77と重なる第1表示領域50内の位置に、自転車の画像57を表示する。
オブジェクトは、使用者UがHMD表示装置210を通して投写面10の第1表示領域50を視認する場合、第1表示画像及び第2表示画像に含まれる画像である。また、オブジェクトは、第2表示画像では、使用者Uの頭部の動きによらず第2表示領域70の一定の位置に表示される。さらに、オブジェクトは、第1表示領域では、使用者Uの頭部の動きに対応して第1表示領域50を移動する画像である。
HMD200が表示する自転車の画像77は、使用者Uが頭部を左方向又は右方向に回転させても第2表示領域70の同一の位置に表示される。プロジェクター100が表示する自転車の画像57は、使用者Uの頭部の動きに合わせて第1表示領域50を移動する。つまり、プロジェクター100が表示する第1表示画像では、HMD200が第2表示領域70に表示する自転車の画像77と重なる第1表示領域50内の位置に、自転車の画像57を表示する。
ここで、第1表示領域に表示されるオブジェクトの移動速度について説明する。
第1表示領域50に表示される自転車の画像57の移動速度は、HMD200と投写面10との距離と、使用者Uの頭部の回転速度である角速度と、によって変更される。
投写面10が、HMD200から第1距離R1の位置と、HMD200から第2距離R2の位置とに配置されていると仮定する。第1距離R1は、第2距離R2よりも短い。
プロジェクター100が表示する自転車の画像57は、使用者Uから見て、第2表示領域70に表示される自転車の画像77に重なるように表示される。このため、使用者Uが同じ角度だけ頭部を回転させても、第2距離R2に配置された投写面10でのオブジェクトの移動距離は、第1距離R1に配置された投写面10でのオブジェクトの移動距離よりも大きい。つまり、第2距離R2に配置された投写面10でのオブジェクトの移動速度は、第1距離R1に配置された投写面10でのオブジェクトの移動速度よりも速い。このため、第1表示領域50に表示される自転車の画像57の移動速度は、HMD200と投写面10との距離と、使用者Uの頭部の回転速度である角速度とに基づいて変更される。
第1表示領域50に表示される自転車の画像57の移動速度は、HMD200と投写面10との距離と、使用者Uの頭部の回転速度である角速度と、によって変更される。
投写面10が、HMD200から第1距離R1の位置と、HMD200から第2距離R2の位置とに配置されていると仮定する。第1距離R1は、第2距離R2よりも短い。
プロジェクター100が表示する自転車の画像57は、使用者Uから見て、第2表示領域70に表示される自転車の画像77に重なるように表示される。このため、使用者Uが同じ角度だけ頭部を回転させても、第2距離R2に配置された投写面10でのオブジェクトの移動距離は、第1距離R1に配置された投写面10でのオブジェクトの移動距離よりも大きい。つまり、第2距離R2に配置された投写面10でのオブジェクトの移動速度は、第1距離R1に配置された投写面10でのオブジェクトの移動速度よりも速い。このため、第1表示領域50に表示される自転車の画像57の移動速度は、HMD200と投写面10との距離と、使用者Uの頭部の回転速度である角速度とに基づいて変更される。
また、第2距離R2に配置された投写面10に表示されるオブジェクトの大きさは、第1距離R1に配置された投写面10に表示されるオブジェクトの大きさよりも大きく表示される。投写面10に表示されるオブジェクトは、HMD200が第2表示領域70に表示するオブジェクトの表示サイズに一致させる必要がある。このため、検出部371は、HMD200からの距離が近い第1距離R1の位置に配置した投写面10に表示するオブジェクトよりも、HMD200からの距離が遠い第2距離R2の位置に配置した投写面10に表示するオブジェクトの表示サイズを大きくする。
検出部371は、HMD200から受信する角速度の情報により使用者Uの頭部が左方向又は右方向に回転したことを検出すると、第1表示画像におけるオブジェクトの表示位置を変更する。検出部371は、HMD200から受信するセンサーデータに含まれる角速度の情報と、HMD200と投写面10との距離とに基づいて、第1表示画像におけるオブジェクトの表示位置を変更する。
検出部371は、HMD200から受信する角速度の情報と、HMD200と投写面10との距離の情報とに基づき、オブジェクトを移動させる移動方向及び移動量を求める。
検出部371は、HMD200から受信する角速度の情報と、HMD200と投写面10との距離の情報とに基づき、オブジェクトを移動させる移動方向及び移動量を求める。
生成部373は、検出部371が求めた移動方向及び移動量に対応した第1表示画像の位置にオブジェクトを表示させる。第3制御部350は、生成した第2表示画像をHMD200に送信し、第1表示画像をプロジェクター100に送信する。
また、プロジェクター100が画像光を投写する投写面10の第1表示領域50の範囲は、プロジェクター100と投写面10との距離と、プロジェクター100に対する投写面10の角度と、に基づいて決定してもよい。
プロジェクター100と投写面10との距離は、プロジェクター100の光学ユニット157が備える投写レンズから投写面10までの距離である。また、投写面10は、投写面10の縦方向及び横方向の中心の位置である。
プロジェクター100が備えるLiDAR130により、LiDAR130から投写面10までの距離と、LiDAR130に対する投写面10の角度とは測定可能である。また、LiDAR130に代えて、プロジェクターカメラ120の撮像画像に基づいて、プロジェクター100と投写面10との距離と、プロジェクター100に対する投写面10の角度とを検出してもよい。
LiDAR130と投写レンズとの距離や、LiDAR130の位置を基準とした投写レンズの方位等の情報は、設定データとして第3記憶部360に記憶させておく。
プロジェクター100と投写面10との距離は、プロジェクター100の光学ユニット157が備える投写レンズから投写面10までの距離である。また、投写面10は、投写面10の縦方向及び横方向の中心の位置である。
プロジェクター100が備えるLiDAR130により、LiDAR130から投写面10までの距離と、LiDAR130に対する投写面10の角度とは測定可能である。また、LiDAR130に代えて、プロジェクターカメラ120の撮像画像に基づいて、プロジェクター100と投写面10との距離と、プロジェクター100に対する投写面10の角度とを検出してもよい。
LiDAR130と投写レンズとの距離や、LiDAR130の位置を基準とした投写レンズの方位等の情報は、設定データとして第3記憶部360に記憶させておく。
[5.制御装置の動作]
図10及び図11は、制御装置300の動作を示すフローチャートである。
図10及び図11に示すフローチャートを参照しながら制御装置300の動作を説明する。
第3制御部350は、アプリが選択されると、選択されたアプリを起動する(ステップS1)。ここでは、プロジェクター100及びHMD200の表示を制御するアプリが選択された場合について説明する。
図10及び図11は、制御装置300の動作を示すフローチャートである。
図10及び図11に示すフローチャートを参照しながら制御装置300の動作を説明する。
第3制御部350は、アプリが選択されると、選択されたアプリを起動する(ステップS1)。ここでは、プロジェクター100及びHMD200の表示を制御するアプリが選択された場合について説明する。
次に、第3制御部350は、第1表示画像を選択する操作を受け付けたか否かを判定する(ステップS2)。第3制御部350は、第1表示画像を選択する操作を受け付けていない場合(ステップS2/NO)、第1表示画像を選択する操作を受け付けるまで待機する。
第3制御部350は、第1表示画像を選択する操作を受け付けると(ステップS2/YES)、受け付けた操作により選択された第1表示画像をプロジェクター100に送信する(ステップS3)。
次に、第3制御部350は、センサーデータの取得要求をHMD200に送信し(ステップS4)、HMD200からセンサーデータを受信したか否かを判定する(ステップS5)。第3制御部350は、HMD200からセンサーデータを受信していない場合(ステップS5/NO)、センサーデータを受信するまで待機する。
第3制御部350は、HMD200からセンサーデータを受信すると(ステップS5/YES)、センサーデータに含まれる外側カメラ211の撮像画像を取得する。第3制御部350は、取得した撮像画像を解析して、撮像画像の所定範囲から第1表示画像を検出したか否かを判定する(ステップS6)。
第3制御部350は、撮像画像の所定範囲から第1表示画像を検出できなかった場合(ステップS6/NO)、表示終了の操作を受け付けたか否かを判定する(ステップS8)。第3制御部350は、表示終了の操作を受け付けていない場合(ステップS8/NO)、ステップS3の処理に戻る。また、第3制御部350は、表示終了の操作を受け付けた場合(ステップS8/YES)、この処理フローを終了する。
第3制御部350は、撮像画像の所定範囲から第1表示画像を検出した場合(ステップS6/YES)、HMD200の第2表示領域70が投写面10に重なると判定する。この場合、第3制御部350は、ステップS5で取得したセンサーデータに基づき、使用者Uの頭部の向きを検出し(ステップS9)、HMD200と投写面10との距離を検出する(ステップS10)。また、第3制御部350は、ステップS6で取得したセンサーデータに基づき、HMD200と投写面10との角度θを検出する(ステップS11)。
次に、第3制御部350は、検出した使用者Uの頭部の向きと、HMD200と投写面10との距離と、HMD200に対する投写面10の角度と、に基づき、第1表示領域50が重なる投写面10の範囲である第1範囲を決定する(ステップS12)。
次に、第3制御部350は、決定した投写面10の第1範囲に対応する範囲の第1表示画像をキャリブレーションデータ173に基づいて切り出す(ステップS13)。次に、第3制御部350は、第1表示画像をプロジェクター100に送信し(ステップS14)、第1表示画像から切り出した画像である第2表示画像をHMD200に送信する(ステップS15)。
次に、第3制御部350は、HMD200から受信したセンサーデータに含まれる角速度の情報を取得する(ステップS16)。第3制御部350は、取得した角速度の情報に基づいて使用者Uの頭部の回転を検出したか否かを判定する(ステップS17)。
第3制御部350は、使用者Uの頭部の回転を検出していない場合(ステップS17/NO)、第1表示画像のプロジェクター100への送信を継続し(ステップS19)、第2表示画像のHMD200への送信を継続する(ステップS20)。その後、第3制御部350は、表示終了の操作を受け付けたか否かを判定する(ステップS21)。第3制御部350は、表示終了の操作を受け付けていない場合(ステップS21/NO)、ステップS16の処理に戻る。また、第3制御部350は、表示終了の操作を受け付けた場合(ステップS21/YES)、この処理フローを終了する。
また、第3制御部350は、使用者Uの頭部の回転を検出した場合(ステップS17/YES)、外側カメラ211の撮像画像を取得し、取得した撮像画像を解析する。第3制御部350は、撮像画像の所定範囲から第1表示画像を検出したか否かを判定する(ステップS18)。
第3制御部350は、撮像画像の所定範囲から第1表示画像を検出できなかった場合(ステップS18/NO)、HMD200の第2表示領域70が投写面10に重ならないと判定し、ステップS19の処理に移行する。
また、第3制御部350は、撮像画像の所定範囲から第1表示画像を検出した場合(ステップS18/YES)、HMD200の第2表示領域70が投写面10に重なると判定する。この場合、第3制御部350は、ステップS16で取得した角速度の情報と、ステップS10で検出した投写面10との距離の情報とに基づき、オブジェクトを移動させる移動方向及び移動量を算出する(ステップS22)。
次に、第3制御部350は、ステップS22で算出した第1範囲の移動方向及び移動量に基づいてオブジェクトの表示位置を移動させて第1表示画像を生成する(ステップS23)。第3制御部350は、生成した第1表示画像をプロジェクター100に送信する(ステップS24)。また、第3制御部350は、第2表示画像をHMD200に送信する(ステップS25)。この第2表示画像に含まれるオブジェクトの表示位置は、ステップS15でHMD200に送信した第2表示画像に含まれるオブジェクトの表示位置と同一の位置である。第3制御部350は、第2表示画像をHMD200に送信すると、ステップS16の処理に戻る。
[6.本開示のまとめ]
以下、本開示のまとめを付記する。
(付記1)
第1表示画像を第1表示領域に表示する表示装置と、
使用者の頭部に装着され、外景を視認可能に第2表示画像を第2表示領域に表示する表示部を備える頭部装着型表示装置と、
前記使用者が前記表示部を通して前記第1表示画像を視認するときに、前記第2表示領域が重なる前記第1表示領域の範囲である第1範囲と、前記第1範囲に対応する前記第1表示画像の範囲である第2範囲と、を検出する検出部と、
オブジェクトを含む前記第1表示画像と、前記オブジェクトを含む前記第2表示画像と、を生成する生成部と、
を備える制御装置と、を有し、
前記表示装置により前記オブジェクトを含む前記第1表示画像を表示し、
前記頭部装着型表示装置により前記オブジェクトを含む前記第2表示画像を表示し、
前記制御装置は、
前記オブジェクトを表示する前記第2表示領域の位置に対応する前記第2範囲内の位置に、前記第1表示領域と前記頭部装着型表示装置との距離に対応した表示サイズで前記オブジェクトを配置して前記第1表示画像を生成する、表示システム。
以下、本開示のまとめを付記する。
(付記1)
第1表示画像を第1表示領域に表示する表示装置と、
使用者の頭部に装着され、外景を視認可能に第2表示画像を第2表示領域に表示する表示部を備える頭部装着型表示装置と、
前記使用者が前記表示部を通して前記第1表示画像を視認するときに、前記第2表示領域が重なる前記第1表示領域の範囲である第1範囲と、前記第1範囲に対応する前記第1表示画像の範囲である第2範囲と、を検出する検出部と、
オブジェクトを含む前記第1表示画像と、前記オブジェクトを含む前記第2表示画像と、を生成する生成部と、
を備える制御装置と、を有し、
前記表示装置により前記オブジェクトを含む前記第1表示画像を表示し、
前記頭部装着型表示装置により前記オブジェクトを含む前記第2表示画像を表示し、
前記制御装置は、
前記オブジェクトを表示する前記第2表示領域の位置に対応する前記第2範囲内の位置に、前記第1表示領域と前記頭部装着型表示装置との距離に対応した表示サイズで前記オブジェクトを配置して前記第1表示画像を生成する、表示システム。
この構成によれば、使用者が表示部を通して第1表示領域を視認するときに、表示装置が表示するオブジェクトと、頭部装着型表示装置が表示するオブジェクトとが重なって視認される。このため、表示装置が表示する第1表示画像の画質が低くても、頭部装着型表示装置が表示する第2表示画像に含まれるオブジェクトを視認することで、使用者が視認するオブジェクトの画質を向上させることができる。
(付記2)
前記制御装置は、
前記使用者の前記頭部の体軸まわりの回転の角速度を示す情報と、
前記表示装置が前記第1表示画像を表示する表示面と、前記頭部装着型表示装置との距離を示す情報とを取得し、
前記生成部は、
前記角速度を示す情報と、前記距離を示す情報と、に基づいて、前記オブジェクトの表示位置を変更した前記第1表示画像を生成する、付記1記載の表示システム。
前記制御装置は、
前記使用者の前記頭部の体軸まわりの回転の角速度を示す情報と、
前記表示装置が前記第1表示画像を表示する表示面と、前記頭部装着型表示装置との距離を示す情報とを取得し、
前記生成部は、
前記角速度を示す情報と、前記距離を示す情報と、に基づいて、前記オブジェクトの表示位置を変更した前記第1表示画像を生成する、付記1記載の表示システム。
この構成によれば、使用者が表示部を通して第1表示領域を視認するときに、使用者が頭部を回転させても、使用者に、表示装置が表示するオブジェクトと、頭部装着型表示装置が表示するオブジェクトとを重ねて視認させることができる。このため、表示装置が表示する第1表示画像の画質が低くても、頭部装着型表示装置が表示する第2表示画像に含まれるオブジェクトを視認することで、使用者が視認するオブジェクトの画質を向上させることができる。
(付記3)
前記表示面と前記頭部装着型表示装置との距離が第1距離である場合に、前記第1表示画像に表示する前記オブジェクトの表示サイズよりも、前記表示面と前記頭部装着型表示装置との距離が第1距離よりも大きい第2距離である場合に、前記第1表示画像に表示する前記オブジェクトの表示サイズが大きくなるように、前記第1表示画像に含まれる前記オブジェクトの表示サイズを変更する、付記2記載の表示システム。
前記表示面と前記頭部装着型表示装置との距離が第1距離である場合に、前記第1表示画像に表示する前記オブジェクトの表示サイズよりも、前記表示面と前記頭部装着型表示装置との距離が第1距離よりも大きい第2距離である場合に、前記第1表示画像に表示する前記オブジェクトの表示サイズが大きくなるように、前記第1表示画像に含まれる前記オブジェクトの表示サイズを変更する、付記2記載の表示システム。
この構成によれば、使用者が表示部を通して第1表示領域を視認するときに、使用者が視認する、表示装置が表示するオブジェクトと、頭部装着型表示装置が表示するオブジェクトとの表示サイズを一致させることができる。このため、使用者に、オブジェクトを違和感なく視認させることができる。
(付記4)
前記検出部は、
前記第1表示領域と前記表示部との距離と、前記表示部に対する前記第1表示領域の角度と、に基づいて前記第1範囲を検出する、付記1から3のいずれか一項に記載の表示システム。
前記検出部は、
前記第1表示領域と前記表示部との距離と、前記表示部に対する前記第1表示領域の角度と、に基づいて前記第1範囲を検出する、付記1から3のいずれか一項に記載の表示システム。
この構成によれば、第1範囲の検出精度を向上させることができる。
(付記5)
前記検出部は、
前記表示面と前記表示装置との距離と、前記表示装置に対する前記表示面の角度と、に基づいて、前記表示面の前記第1表示領域を検出する、付記2又は3記載の表示システム。
前記検出部は、
前記表示面と前記表示装置との距離と、前記表示装置に対する前記表示面の角度と、に基づいて、前記表示面の前記第1表示領域を検出する、付記2又は3記載の表示システム。
この構成によれば、表示装置が第1表示画像を表示する第1表示領域を精度よく検出することができる。
(付記6)
第1表示画像を第1表示領域に表示する表示装置と、
使用者の頭部に装着され、外景を視認可能に第2表示画像を第2表示領域に表示する表示部を備える頭部装着型表示装置と、に表示させる画像を制御する制御装置であって、
前記使用者が前記表示部を通して前記第1表示画像を視認するときに、前記第2表示領域が重なる前記第1表示領域の範囲である第1範囲と、前記第1範囲に対応する前記第1表示画像の範囲である第2範囲と、を検出する検出部と、
オブジェクトを含む前記第1表示画像と、前記オブジェクトを含む前記第2表示画像と、を生成する生成部と、
前記オブジェクトを含む前記第1表示画像を前記表示装置に送信し、前記オブジェクトを含む前記第2表示画像を前記頭部装着型表示装置に送信する送信部と、
を備え、
前記生成部は、前記オブジェクトを表示する前記第2表示領域の位置に対応する前記第2範囲内の位置に、前記第1表示領域と前記頭部装着型表示装置との距離に対応した表示サイズで前記オブジェクトを配置して前記第1表示画像を生成する、制御装置。
第1表示画像を第1表示領域に表示する表示装置と、
使用者の頭部に装着され、外景を視認可能に第2表示画像を第2表示領域に表示する表示部を備える頭部装着型表示装置と、に表示させる画像を制御する制御装置であって、
前記使用者が前記表示部を通して前記第1表示画像を視認するときに、前記第2表示領域が重なる前記第1表示領域の範囲である第1範囲と、前記第1範囲に対応する前記第1表示画像の範囲である第2範囲と、を検出する検出部と、
オブジェクトを含む前記第1表示画像と、前記オブジェクトを含む前記第2表示画像と、を生成する生成部と、
前記オブジェクトを含む前記第1表示画像を前記表示装置に送信し、前記オブジェクトを含む前記第2表示画像を前記頭部装着型表示装置に送信する送信部と、
を備え、
前記生成部は、前記オブジェクトを表示する前記第2表示領域の位置に対応する前記第2範囲内の位置に、前記第1表示領域と前記頭部装着型表示装置との距離に対応した表示サイズで前記オブジェクトを配置して前記第1表示画像を生成する、制御装置。
この構成によれば、使用者が表示部を通して第1表示領域を視認するときに、表示装置が表示するオブジェクトと、頭部装着型表示装置が表示するオブジェクトとが重なって視認される。このため、第1表示画像の画質が低くても、頭部装着型表示装置が表示する第2表示画像に含まれるオブジェクトを視認することで、使用者が視認するオブジェクトの画質を向上させることができる。
(付記7)
第1表示画像を第1表示領域に表示する表示装置と、
使用者の頭部に装着され、外景を視認可能に第2表示画像を第2表示領域に表示する表示部を備える頭部装着型表示装置と、を備える表示システムの表示方法であって、
前記使用者が前記表示部を通して前記第1表示領域を視認するときに、前記使用者が前記表示部を通して前記第1表示画像を視認するときに、前記第2表示領域が重なる前記第1表示領域の範囲である第1範囲と、前記第1範囲に対応する前記第1表示画像の範囲である第2範囲と、を検出するステップと、
オブジェクトを含む前記第1表示画像と、前記オブジェクトを含む前記第2表示画像と、を生成するステップと、
前記オブジェクトを含む前記第1表示画像を前記表示装置に送信し、前記オブジェクトを含む前記第2表示画像を前記頭部装着型表示装置に送信するステップと、
を含み、
前記生成するステップは、
前記オブジェクトを表示する前記第2表示領域の位置に対応する前記第2範囲内の位置に、前記第1表示領域と前記頭部装着型表示装置との距離に対応した表示サイズで前記オブジェクトを配置して前記第1表示画像を生成する、表示システムの表示方法。
第1表示画像を第1表示領域に表示する表示装置と、
使用者の頭部に装着され、外景を視認可能に第2表示画像を第2表示領域に表示する表示部を備える頭部装着型表示装置と、を備える表示システムの表示方法であって、
前記使用者が前記表示部を通して前記第1表示領域を視認するときに、前記使用者が前記表示部を通して前記第1表示画像を視認するときに、前記第2表示領域が重なる前記第1表示領域の範囲である第1範囲と、前記第1範囲に対応する前記第1表示画像の範囲である第2範囲と、を検出するステップと、
オブジェクトを含む前記第1表示画像と、前記オブジェクトを含む前記第2表示画像と、を生成するステップと、
前記オブジェクトを含む前記第1表示画像を前記表示装置に送信し、前記オブジェクトを含む前記第2表示画像を前記頭部装着型表示装置に送信するステップと、
を含み、
前記生成するステップは、
前記オブジェクトを表示する前記第2表示領域の位置に対応する前記第2範囲内の位置に、前記第1表示領域と前記頭部装着型表示装置との距離に対応した表示サイズで前記オブジェクトを配置して前記第1表示画像を生成する、表示システムの表示方法。
この構成によれば、使用者が表示部を通して第1表示領域を視認するときに、表示装置が表示するオブジェクトと、頭部装着型表示装置が表示するオブジェクトとが重なって視認される。このため、第1表示画像の画質が低くても、頭部装着型表示装置が表示する第2表示画像に含まれるオブジェクトを視認することで、使用者が視認するオブジェクトの画質を向上させることができる。
本発明は上記各実施形態で説明した構成に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能である。
例えば、図2に示すプロジェクター100、図3に示すHMD200及び図4に示す制御装置300の各機能部は、ハードウェアとソフトウェアとの協働により実現される機能的構成を示すものであって、具体的な実装形態は特に制限されない。従って、必ずしも各機能部に個別に対応するハードウェアが実装される必要はなく、一つのプロセッサーがプログラムを実行することで複数の機能部の機能を実現する構成とすることも勿論可能である。また、上記実施形態においてソフトウェアで実現されている機能の一部をハードウェアで実現してもよく、また、ハードウェアで実現されている機能の一部をソフトウェアで実現してもよい。
例えば、図2に示すプロジェクター100、図3に示すHMD200及び図4に示す制御装置300の各機能部は、ハードウェアとソフトウェアとの協働により実現される機能的構成を示すものであって、具体的な実装形態は特に制限されない。従って、必ずしも各機能部に個別に対応するハードウェアが実装される必要はなく、一つのプロセッサーがプログラムを実行することで複数の機能部の機能を実現する構成とすることも勿論可能である。また、上記実施形態においてソフトウェアで実現されている機能の一部をハードウェアで実現してもよく、また、ハードウェアで実現されている機能の一部をソフトウェアで実現してもよい。
また、上述した表示システムの表示方法を、制御装置300に搭載されたコンピューターを用いて実現する場合、このコンピューターに実行させるプログラムを記録媒体の態様で構成することも可能である。また、コンピューターに実行させるプログラムは、プログラムを伝送する伝送媒体の態様で構成することも可能である。記録媒体には、磁気的、光学的記録媒体又は半導体メモリーデバイスを用いることができる。具体的には、フレキシブルディスク、HDD、CD-ROM(Compact Disc Read-Only Memory)、DVD(Digital Versatile Disc)、Blu-ray Disc、光磁気ディスク、フラッシュメモリー、カード型記録媒体等の可搬型、或いは固定式の記録媒体が挙げられる。また、上記記録媒体は、サーバー装置が備える内部記憶装置であるRAM、ROM、HDD等の不揮発性記憶装置であってもよい。Blu-rayは、登録商標である。
また、図10及び図11に示すフローチャートの処理単位は、第3制御部350の処理を理解容易にするために、主な処理内容に応じて分割したものであり、図10及び図11のフローチャートに示す処理単位の分割の仕方や名称によって本発明が制限されることはない。また、第3制御部350の処理は、処理内容に応じて、さらに多くの処理単位に分割することもできるし、1つの処理単位がさらに多くの処理を含むように分割することもできる。また、上記のフローチャートの処理順序も、図示した例に限られるものではない。
また、上述した実施形態では、表示装置としてプロジェクター100を用いる構成を例示したが、表示装置はプロジェクター100に限定されない。例えば、液晶表示パネルに画像を表示する液晶表示装置や、有機ELパネルに画像を表示する表示装置など、モニター若しくは液晶テレビ等の自発光型の表示装置であってもよい。
また、上述した実施形態では、プロジェクター100、HMD200及び制御装置300がそれぞれ別体である表示システム1を例示したが、この表示システム1に限定されない。例えば、プロジェクター100が制御装置300を内蔵する構成であってもよいし、HMD200が制御装置300を内蔵する構成であってもよい。つまり、プロジェクター100の第1制御部160、又はHMD200のHMD制御装置230を制御装置300として動作させる構成であってもよい。
また、HMD表示装置210の光学系の構成は任意であり、使用者Uの眼の前方に位置して使用者Uの視界の一部又は全部に重なる光学部材を用いてもよい。或いは、レーザー光等を走査させて画像光とする走査方式の光学系を採用してもよい。或いは、光学部材の内部で画像光を導光させるものに限らず、使用者Uの眼に向けて画像光を屈折又は反射させて導く機能のみを有するものであってもよい。
また、内側カメラ63の撮像画像から使用者Uの視線方向と、使用者Uが注視する注視点の奥行き方向の位置とを検出してもよい。第3制御部350は、使用者Uの両眼の視線方向として、左眼の視線方向と右眼の視線方向とのそれぞれを検出する。第3制御部350は、左眼の視線方向と右眼の視線方向とが交差する点から、注視点の奥行き方向の位置を検出する。左眼の視線方向と、右眼の視線方向とが交差する点が、注視点の奥行き方向の位置に対応する。第3制御部350は、検出した注視点の奥行き方向の位置に基づき、使用者Uに認識させる画像の奥行き方向の位置を算出し、算出した奥行き方向の位置に仮想的な画像が見えるように、両眼視の視差を演算し、視差を有する右左の画像をHMD20に送信する。
1…表示システム、10…投写面、21…右保持部、22…右表示部、23…左保持部、24…左表示部、26…右導光板、27…前部フレーム、28…左導光板、50…第1表示領域、70…第2表示領域、100…プロジェクター、110…第1有線I/F、120…プロジェクターカメラ、130…LiDAR、140…画像処理部、145…フレームメモリー、150…投写部、151…光源、153…光変調装置、155…液晶パネル、157…光学ユニット、160…第1制御部、170…第1記憶部、171…制御プログラム、173…キャリブレーションデータ、180…第1プロセッサー、200…頭部装着型表示装置、210…HMD表示装置、211…外側カメラ、213…内側カメラ、215…地磁気センサー、217…6軸センサー、219…距離センサー、220…ヘッドセット、230…HMD制御装置、231…第1無線I/F、233…操作部、240…第2制御部、250…第2記憶部、260…第2プロセッサー、261…制御プログラム、300…制御装置、310…第2有線I/F、320…第2無線I/F、330…操作部、340…表示部、350…第3制御部、360…第3記憶部、361…制御プログラム、370…第3プロセッサー、371…検出部、373…生成部。
Claims (7)
- 第1表示画像を第1表示領域に表示する表示装置と、
使用者の頭部に装着され、外景を視認可能に第2表示画像を第2表示領域に表示する表示部を備える頭部装着型表示装置と、
前記使用者が前記表示部を通して前記第1表示画像を視認するときに、前記第2表示領域が重なる前記第1表示領域の範囲である第1範囲と、前記第1範囲に対応する前記第1表示画像の範囲である第2範囲と、を検出する検出部と、
オブジェクトを含む前記第1表示画像と、前記オブジェクトを含む前記第2表示画像と、を生成する生成部と、
を備える制御装置と、を有し、
前記表示装置により前記オブジェクトを含む前記第1表示画像を表示し、
前記頭部装着型表示装置により前記オブジェクトを含む前記第2表示画像を表示し、
前記制御装置は、
前記オブジェクトを表示する前記第2表示領域の位置に対応する前記第2範囲内の位置に、前記第1表示領域と前記頭部装着型表示装置との距離に対応した表示サイズで前記オブジェクトを配置して前記第1表示画像を生成する、表示システム。 - 前記制御装置は、
前記使用者の前記頭部の体軸まわりの回転の角速度を示す情報と、
前記表示装置が前記第1表示画像を表示する表示面と、前記頭部装着型表示装置との距離を示す情報とを取得し、
前記生成部は、
前記角速度を示す情報と、前記距離を示す情報と、に基づいて、前記オブジェクトの表示位置を変更した前記第1表示画像を生成する、請求項1記載の表示システム。 - 前記表示面と前記頭部装着型表示装置との距離が第1距離である場合に、前記第1表示画像に表示する前記オブジェクトの表示サイズよりも、前記表示面と前記頭部装着型表示装置との距離が第1距離よりも大きい第2距離である場合に、前記第1表示画像に表示する前記オブジェクトの表示サイズが大きくなるように、前記第1表示画像に含まれる前記オブジェクトの表示サイズを変更する、請求項2記載の表示システム。
- 前記検出部は、
前記第1表示領域と前記表示部との距離と、前記表示部に対する前記第1表示領域の角度と、に基づいて前記第1範囲を検出する、請求項1から3のいずれか一項に記載の表示システム。 - 前記検出部は、
前記表示面と前記表示装置との距離と、前記表示装置に対する前記表示面の角度と、に基づいて、前記表示面の前記第1表示領域を検出する、請求項2又は3記載の表示システム。 - 第1表示画像を第1表示領域に表示する表示装置と、
使用者の頭部に装着され、外景を視認可能に第2表示画像を第2表示領域に表示する表示部を備える頭部装着型表示装置と、に表示させる画像を制御する制御装置であって、
前記使用者が前記表示部を通して前記第1表示画像を視認するときに、前記第2表示領域が重なる前記第1表示領域の範囲である第1範囲と、前記第1範囲に対応する前記第1表示画像の範囲である第2範囲と、を検出する検出部と、
オブジェクトを含む前記第1表示画像と、前記オブジェクトを含む前記第2表示画像と、を生成する生成部と、
前記オブジェクトを含む前記第1表示画像を前記表示装置に送信し、前記オブジェクトを含む前記第2表示画像を前記頭部装着型表示装置に送信する送信部と、
を備え、
前記生成部は、前記オブジェクトを表示する前記第2表示領域の位置に対応する前記第2範囲内の位置に、前記第1表示領域と前記頭部装着型表示装置との距離に対応した表示サイズで前記オブジェクトを配置して前記第1表示画像を生成する、制御装置。 - 第1表示画像を第1表示領域に表示する表示装置と、
使用者の頭部に装着され、外景を視認可能に第2表示画像を第2表示領域に表示する表示部を備える頭部装着型表示装置と、を備える表示システムの表示方法であって、
前記使用者が前記表示部を通して前記第1表示領域を視認するときに、前記使用者が前記表示部を通して前記第1表示画像を視認するときに、前記第2表示領域が重なる前記第1表示領域の範囲である第1範囲と、前記第1範囲に対応する前記第1表示画像の範囲である第2範囲と、を検出するステップと、
オブジェクトを含む前記第1表示画像と、前記オブジェクトを含む前記第2表示画像と、を生成するステップと、
前記オブジェクトを含む前記第1表示画像を前記表示装置に送信し、前記オブジェクトを含む前記第2表示画像を前記頭部装着型表示装置に送信するステップと、
を含み、
前記生成するステップは、
前記オブジェクトを表示する前記第2表示領域の位置に対応する前記第2範囲内の位置に、前記第1表示領域と前記頭部装着型表示装置との距離に対応した表示サイズで前記オブジェクトを配置して前記第1表示画像を生成する、表示システムの表示方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022108839A JP2024007643A (ja) | 2022-07-06 | 2022-07-06 | 表示システム、制御装置及び表示システムの表示方法 |
US18/346,775 US20240013689A1 (en) | 2022-07-06 | 2023-07-03 | Display system, control device, and display method of display system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022108839A JP2024007643A (ja) | 2022-07-06 | 2022-07-06 | 表示システム、制御装置及び表示システムの表示方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024007643A true JP2024007643A (ja) | 2024-01-19 |
Family
ID=89431748
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022108839A Pending JP2024007643A (ja) | 2022-07-06 | 2022-07-06 | 表示システム、制御装置及び表示システムの表示方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20240013689A1 (ja) |
JP (1) | JP2024007643A (ja) |
-
2022
- 2022-07-06 JP JP2022108839A patent/JP2024007643A/ja active Pending
-
2023
- 2023-07-03 US US18/346,775 patent/US20240013689A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20240013689A1 (en) | 2024-01-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9898868B2 (en) | Display device, method of controlling the same, and program | |
US10635182B2 (en) | Head mounted display device and control method for head mounted display device | |
US11127380B2 (en) | Content stabilization for head-mounted displays | |
JP6770536B2 (ja) | 仮想画像生成システムにおけるテキストをより効率的に表示するための技法 | |
JP7087481B2 (ja) | 頭部装着型表示装置、表示制御方法、およびコンピュータープログラム | |
US20190227694A1 (en) | Device for providing augmented reality service, and method of operating the same | |
US20170324899A1 (en) | Image pickup apparatus, head-mounted display apparatus, information processing system and information processing method | |
CN108139806A (zh) | 相对于可穿戴设备跟踪穿戴者的眼睛 | |
KR20150093831A (ko) | 혼합 현실 환경에 대한 직접 상호작용 시스템 | |
JP2015536514A (ja) | Imuを用いた直接ホログラム操作 | |
US20170289533A1 (en) | Head mounted display, control method thereof, and computer program | |
JP2018151851A (ja) | 透過型表示装置、表示制御方法、およびコンピュータープログラム | |
US9846305B2 (en) | Head mounted display, method for controlling head mounted display, and computer program | |
JP2018142857A (ja) | 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 | |
US20190227642A1 (en) | Head-mounted display apparatus and method of controlling head-mounted display apparatus | |
JP7218376B2 (ja) | 視線追跡方法および装置 | |
JP2019082891A (ja) | 頭部装着型表示装置、表示制御方法、およびコンピュータープログラム | |
JP2018055589A (ja) | プログラム、物体の追跡方法、表示装置 | |
WO2011136213A1 (ja) | 表示装置 | |
CN112384883A (zh) | 可穿戴设备及其控制方法 | |
US11579449B2 (en) | Systems and methods for providing mixed-reality experiences under low light conditions | |
US20210063746A1 (en) | Information processing apparatus, information processing method, and program | |
JP2018042004A (ja) | 表示装置、頭部装着型表示装置、及び、表示装置の制御方法 | |
JP2024007643A (ja) | 表示システム、制御装置及び表示システムの表示方法 | |
JP2017079389A (ja) | 表示装置、表示装置の制御方法、及び、プログラム |