JP2021068145A - 頭部装着型表示装置の動作方法および頭部装着型表示装置 - Google Patents

頭部装着型表示装置の動作方法および頭部装着型表示装置 Download PDF

Info

Publication number
JP2021068145A
JP2021068145A JP2019192542A JP2019192542A JP2021068145A JP 2021068145 A JP2021068145 A JP 2021068145A JP 2019192542 A JP2019192542 A JP 2019192542A JP 2019192542 A JP2019192542 A JP 2019192542A JP 2021068145 A JP2021068145 A JP 2021068145A
Authority
JP
Japan
Prior art keywords
image
unit
display
light
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2019192542A
Other languages
English (en)
Inventor
裕介 工藤
Yusuke Kudo
裕介 工藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2019192542A priority Critical patent/JP2021068145A/ja
Priority to US17/078,226 priority patent/US11189249B2/en
Publication of JP2021068145A publication Critical patent/JP2021068145A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • G06F3/1438Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display using more than one graphics controller
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0606Manual adjustment
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/14Detecting light within display terminals, e.g. using a single or a plurality of photosensors
    • G09G2360/144Detecting light within display terminals, e.g. using a single or a plurality of photosensors the light being ambient light

Abstract

【課題】ユーザーの視界に表れる表示画像の位置によって、オブジェクト画像が見え難くなることを抑止可能な技術を提供する。【解決手段】ユーザーの視界に表れる外景を表す外景光を透過し、オブジェクトを示すオブジェクト画像を表示する表示部を備える頭部装着型表示装置の動作方法は、前記外景の特定領域を撮像装置が撮像することによって生成される撮像データを受け、前記撮像データに基づいて、前記表示部において前記特定領域が表示される特定表示範囲を推定し、前記推定の結果に基づいて、前記表示部における前記オブジェクト画像の位置を決定することを含む。【選択図】図10

Description

本発明は、頭部装着型表示装置の動作方法および頭部装着型表示装置に関する。
特許文献1には、表示装置の一例であるプロジェクターを操作可能なPC(Personal Computer)が記載されている。特許文献1に記載されているPCは、プロジェクターを操作するための操作画面を表示する。
また、ユーザーの視界に表れる外景を透過し、オブジェクトを示すオブジェクト画像を表示する表示部を、備える頭部装着型表示装置も知られている。
特開2019−110407号公報
プロジェクターを操作するための装置として、特許文献1に記載されているPCの代わりに、頭部装着型表示装置が用いられる場合、頭部装着型表示装置は、特許文献1に記載されている操作画面を、オブジェクト画像として使用する。
このような状況において、頭部装着型表示装置のユーザーが、プロジェクターが表示面に表示している表示画像を見る場合、当該ユーザーの視界に表れる表示画像の位置によっては、オブジェクト画像が見え難くなるおそれがある。
本発明に係る頭部装着型表示装置の動作方法の一態様は、ユーザーの視界に表れる外景を表す外景光を透過し、オブジェクトを示すオブジェクト画像を表示する表示部を、備える頭部装着型表示装置の動作方法であって、前記外景の特定領域を撮像装置が撮像することによって生成される撮像データを受け、前記撮像データに基づいて、前記表示部において前記特定領域が表示される特定表示範囲を推定し、前記推定の結果に基づいて、前記表示部における前記オブジェクト画像の位置を決定することを含む。
本発明に係る頭部装着型表示装置の一態様は、ユーザーの視界に表れる外景を表す外景光を透過し、オブジェクトを示すオブジェクト画像を表示する表示部を、備える頭部装着型表示装置であって、前記外景の特定領域を撮像装置が撮像することによって生成される撮像データを受ける撮像データ受信部と、前記撮像データに基づいて、前記表示部において前記特定領域が表示される特定表示範囲を推定する推定部と、前記推定の結果に基づいて、前記表示部における前記オブジェクト画像の位置を決定する決定部と、を含む。
第1実施形態に係る表示システム1000を示す図である。 プロジェクター1の一例を示す図である。 本体30が備える光学系の構成を示す模式図である。 制御装置39の一例を示す図である。 表示画像A1の一例を示す図である。 右画像QRの一例を示す図である。 第1重畳画像T1の一例を示す図である。 右画像QRの比較例である比較画像Hを示す図である。 右画像QRの代わりに比較画像Hが用いられた場合に生成される第1重畳画像T1aの例を示す図である。 HMD3における表示の制御動作を示すフローチャートである。 HMD3によるプロジェクター1の制御動作を示すフローチャートである。 第1重畳画像T1の例を示す図である。 マーカーKの他の例を示す図である。 マーカーKのさらに他の例を示す図である。 操作画像Rの他の例を含む右画像QRを示す図である。 表示画像A1が、図15に示す右画像QRに重畳されている第1重畳画像の一例を示す図である。 図15に示す図の比較例である比較画像H1を示す図である。 図15に示す図の代わりに比較画像H1が用いられた場合に生成される第1重畳画像の例を示す図である。
A:第1実施形態
A1:表示システム1000の概要
図1は、第1実施形態に係る表示システム1000を示す図である。表示システム1000は、プロジェクター1と、HMD(Head Mounted Display)3と、を含む。プロジェクター1は、表示装置、さらに言えば、操作対象の表示装置の一例である。表示装置は、プロジェクターに限らず、ディスプレイ、例えば、FPD(Flat Panel Display)でもよい。FPDは、例えば、液晶ディスプレイ、プラズマディスプレイまたは有機EL(Electro Luminescence)ディスプレイである。
プロジェクター1は、画像を投射面4に投射することによって、当該画像を投射面4に表示する。例えば、プロジェクター1は、表示画像A1を投射面4に投射することによって、表示画像A1を投射面4に表示する。表示画像A1は、表示対象の画像の一例である。
表示画像A1は、マーカーKを含む。マーカーKは、表示画像A1の外縁A1aを表す枠状の形状を有する。マーカーKは、外縁A1aから離れていてもよい。マーカーKは、外縁A1aよりも内側に位置する部分を有する。マーカーKは、表示画像A1が位置する範囲を特定するために使用される。マーカーKは、例えば、ユーザーBが知覚可能な態様で示される。
投射面4は、例えばスクリーンである。投射面4は、スクリーンに限らず、例えば、壁の一部分、扉またはホワイトボードでもよい。投射面4は、表示面および特定領域の一例である。
HMD3は、頭部装着型表示装置である。HMD3は、ユーザーBに装着される。HMD3は、プロジェクター1を制御する。
A2.プロジェクター1の一例
図2は、プロジェクター1の一例を示す図である。プロジェクター1は、操作部11と、第1通信部12と、投射部13と、第1記憶部14と、第1処理部15とを含む。
操作部11は、例えば、各種の操作ボタン、操作キーまたはタッチパネルである。操作部11は、プロジェクター1の筐体に設けられている。操作部11は、ユーザーBの入力操作を受け取る。
第1通信部12は、有線または無線で、HMD3、具体的には、後述の図4に示す第2通信部391と通信する。第1通信部12は、例えば、無線LAN(Local Area Network)で第2通信部391と通信する。第1通信部12と第2通信部391との無線通信の通信方式は、無線LANに限らず、他の通信方式、例えば、Bluetoothでもよい。Bluetoothは登録商標である。
投射部13は、投射面4に表示画像A1を投射することによって投射面4に表示画像A1を表示する。投射部13は、画像処理部131と、フレームメモリー132と、ライトバルブ駆動部133と、光源134と、赤色用液晶ライトバルブ135Rと、緑色用液晶ライトバルブ135Gと、青色用液晶ライトバルブ135Bと、投射光学系136と、を含む。以下、赤色用液晶ライトバルブ135Rと、緑色用液晶ライトバルブ135Gと、青色用液晶ライトバルブ135Bとを相互に区別する必要がない場合、これらを「液晶ライトバルブ135」と称する。
画像処理部131は、単数または複数のイメージプロセッサー等の回路によって構成される。画像処理部131は、例えば、第1処理部15から画像データを受け取る。画像処理部131は、不図示の画像供給装置から画像データを受け取ってもよい。画像供給装置は、例えば、PCである。画像供給装置は、PCに限らず、例えば、タブレット端末、スマートフォン、ビデオ再生装置、DVD(Digital Versatile Disc)プレーヤー、ブルーレイディスクプレーヤー、ハードディスクレコーダー、テレビチューナー装置またはビデオゲーム機でもよい。
画像処理部131は、画像データをフレームメモリー132に展開する。フレームメモリー132は、例えば、RAM(Random Access Memory)等の記憶装置によって構成される。画像処理部131は、フレームメモリー132に展開された画像データに画像処理を施すことによって画像信号を生成する。
画像処理部131が実行する画像処理は、例えば、投射部13が投射する画像の台形歪みを補正する幾何補正処理を包含する。画像処理部131は、幾何補正処理に加えて、他の画像処理、例えば、解像度変換処理を実行してもよい。解像度変換処理では、画像処理部131は、画像データの解像度を、例えば液晶ライトバルブ135の解像度に変換する。他の画像処理は、解像度変換処理に限らない。他の画像処理は、例えば、画像供給装置から提供される画像データが示す画像にOSD(On Screen Display)画像を重畳するOSD処理でもよい。
ライトバルブ駆動部133は、例えば、ドライバー等の回路で構成される。ライトバルブ駆動部133は、画像処理部131から提供される画像信号に基づいて、駆動電圧を生成する。ライトバルブ駆動部133は、駆動電圧を液晶ライトバルブ135に印加することによって、液晶ライトバルブ135を駆動する。
光源134は、例えば、LED(light emitting diode)である。光源134は、LEDに限らず、例えば、キセノンランプ、超高圧水銀ランプ、またはレーザー光源でもよい。光源134は、光を射出する。光源134から出射された光は、不図示のインテグレーター光学系に入射する。インテグレーター光学系は、光源134から出射された光における輝度分布のばらつきを低減する。光源134から出射された光は、インテグレーター光学系を通った後、不図示の色分離光学系によって光の3原色である赤色、緑色、青色の色光成分に分離される。赤色の色光成分は、赤色用液晶ライトバルブ135Rに入射する。緑色の色光成分は、緑色用液晶ライトバルブ135Gに入射する。青色の色光成分は、青色用液晶ライトバルブ135Bに入射する。
液晶ライトバルブ135は、一対の透明基板間に液晶が存在する液晶パネル等によって構成される。液晶ライトバルブ135は、マトリクス状に位置する複数の画素135pを含む矩形の画素領域135aを有する。液晶ライトバルブ135では、液晶に対して画素135pごとに、画像信号に基づく駆動電圧が印加される。ライトバルブ駆動部133が、駆動電圧を各画素135pに印加すると、各画素135pは、駆動電圧に基づく光透過率に設定される。光源134から出射される光は、画素領域135aを通ることで変調される。このため、画像信号に基づく画像が色光ごとに形成される。液晶ライトバルブ135は、光変調装置の一例である。
各色の画像は、図示しない色合成光学系によって画素135pごとに合成される。よって、カラー画像が生成される。カラー画像は、投射光学系136を介して投射される。投射光学系136は、不図示のレンズシフト機構によって移動される。投射光学系136の移動によって、投射面4における表示画像A1の位置が移動される。投射光学系136の移動によって、投射面4における表示画像A1の位置が移動する機能は「レンズシフト機能」と称さ得る。
第1記憶部14は、第1処理部15が読み取り可能な記録媒体である。第1記憶部14は、例えば、不揮発性メモリーと揮発性メモリーとを含む。不揮発性メモリーは、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable Read Only Memory)またはEEPROM(Electrically Erasable Programmable Read Only Memory)である。揮発性メモリーは、例えば、RAMである。
第1記憶部14は、第1処理部15によって実行される制御プログラムと、第1処理部15が使用する各種のデータと、を記憶する。
第1処理部15は、例えば、単数または複数のプロセッサーによって構成される。一例を挙げると、第1処理部15は、単数または複数のCPU(Central Processing Unit)によって構成される。第1処理部15の機能の一部または全部は、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)等の回路によって実現されてもよい。第1処理部15は、各種の処理を並列的または逐次的に実行する。第1処理部15は、第1記憶部14から制御プログラムを読み取る。第1処理部15は、第1記憶部14から読み取られた制御プログラムを実行することによって種々の動作を実行する。
A3.HMD3の一例
図1に戻って、HMD3は、本体30と、操作入力部300と、を含む。操作入力部300は、接続コード3000を介して本体30と電気的に接続する。操作入力部300は、有線ではなく無線で本体30と電気的に接続してもよい。操作入力部300は、例えば、携帯型の操作パネルである。操作入力部300は、ユーザーBの操作を受ける。操作入力部300は、ユーザーBの操作に基づく操作データを、本体30に出力する。
本体30は、ユーザーBの頭部Cに装着される眼鏡型ウェラブル装置である。本体30は、眼鏡型ウェラブル装置に限らない。本体30は、ユーザーBの頭部Cに装着される装置であればよい。
A4.本体30の一例
図3は、本体30が備える光学系の構成を示す模式図である。以下、図1および図3を参照して、本体30について説明する。本体30は、右保持部31と、左保持部32と、フレーム33と、右表示ユニット34と、右導光板35と、左表示ユニット36と、左導光板37と、カメラ38と、制御装置39と、を有する。
右保持部31は、フレーム33の右端部33aから本体30の後方に延伸する。左保持部32は、フレーム33の左端部33bから本体30の後方に延伸する。
右表示ユニット34は、右目用の画像光NRを出力する。以下、右目用の画像光NRを「右画像光NR」と称する。後述する図6に例示されるように、右画像光NRが示す右画像QRは、第1操作画像R1と第2操作画像R2を含む。以下、第1操作画像R1と第2操作画像R2を相互に区別する必要がない場合、これらを「操作画像R」と称する。右画像QRおよび操作画像Rは、それぞれ、図6に示す画像に限らず適宜変更可能である。
第1操作画像R1は、第1操作部E1と、第2操作部E2と、第3操作部E3と、を示す。第2操作画像R2は、第4操作部F1と、第5操作部F2と、第6操作部F3と、第7操作部F4と、を示す。第1操作部E1と、第2操作部E2と、第3操作部E3と、第4操作部F1と、第5操作部F2と、第6操作部F3と、第7操作部F4との詳細については後述する。第1操作部E1と、第2操作部E2と、第3操作部E3と、第4操作部F1と、第5操作部F2と、第6操作部F3と、第7操作部F4とを相互に区別する必要がない場合、これらを「操作部E」と称する。
操作部Eは、プロジェクター1に対する操作を受ける。操作部Eの形状は、図6に示される形状に限らず適宜変更可能である。操作部Eの数は、図6に示される数に限らず適宜変更可能である。操作部Eは、オブジェクトの一例である。操作画像Rは、オブジェクト画像の一例である。
右表示ユニット34は、図3に例示されるように、右画像出力部34aと、右光学系34bと、を含む。右画像出力部34aは、例えば、OLED(Organic Light Emitting Diode)である。OLEDは、有機ELディスプレイとも称される。右画像出力部34aは、OLEDに限らず、例えば、バックライト付きの液晶ディスプレイ、または、プラズマディスプレイでもよい。右画像出力部34aは、右画像光NRを出力する。右光学系34bは、右画像出力部34aから出力される右画像光NRを並行状態の光束にするコリメートレンズを有する。右画像光NRは、並行状態の光束にされた後、右導光板35へ出力される。
右導光板35は、例えば、プリズムである。右導光板35は、表示部の一例である。右導光板35は、ユーザーBの視界に表れる外景を表す外景光を透過し、オブジェクトを示すオブジェクト画像を表示する。
右導光板35は、右画像光NRをユーザーBの右眼D1に導く。右導光板35は、さらに、第1外景光M1をユーザーBの右眼D1に導く。第1外景光M1は、ユーザーBの視界に表れる外景を表す。第1外景光M1が表す外景は、「右画像光NRがユーザーBの右眼D1に入射されていない状況においてユーザーBの右眼D1の視界に映る風景」とも称され得る。また、第1外景光M1が表す外景は、「右画像光NRがユーザーBの右眼D1に入射されていない状況においてユーザーBの右眼D1の視界に映る景色」とも称され得る。右導光板35は、右画像光NRを第1外景光M1と重ねることによって第1重畳光P1を生成する。右導光板35は、第1重畳光P1をユーザーBの右眼D1に導く。第1重畳光P1は、後述する図7に例示されるような第1重畳画像T1を示す。
左表示ユニット36は、左目用の画像光NLを出力する。以下、左目用の画像光NLを「左画像光NL」と称する。左画像光NLが示す左画像QLは、右画像QRに対して両眼視差に基づく変更を施すことによって生成される画像である。よって、右画像光NRがユーザーBの右眼D1に入射され、左画像光NLがユーザーBの左眼D2に入射されると、ユーザーBは、右画像QRに含まれる操作画像Rと、左画像QLに含まれる操作画像Rとを、共通の操作画像Rとして視認する。
左表示ユニット36は、左画像出力部36aと、左光学系36bと、を含む。左画像出力部36aは、例えば、OLEDである。左画像出力部36aは、OLEDに限らず、例えば、バックライト付きの液晶ディスプレイ、または、プラズマディスプレイでもよい。左画像出力部36aは、左画像光NLを出力する。左光学系36bは、左画像出力部36aから出力される左画像光NLを並行状態の光束にするコリメートレンズを有する。左画像光NLは、並行状態の光束にされた後、左導光板37へ出力される。
左導光板37は、例えば、プリズムである。左導光板37は、表示部の他の例である。左導光板37は、ユーザーBの視界に表れる外景を表す外景光を透過し、オブジェクトを示すオブジェクト画像を表示する。
左導光板37は、左画像光NLをユーザーBの左眼D2に導く。左導光板37は、さらに、第2外景光M2をユーザーBの左眼D2に導く。第2外景光M2は、ユーザーBの視界に表れる外景を表す。第2外景光M2が表す外景は、「左画像光NLがユーザーBの左眼D2に入射されていない状況においてユーザーBの左眼D2の視界に映る風景」とも称され得る。また、第2外景光M2が表す外景は、「左画像光NLがユーザーBの左眼D2に入射されていない状況においてユーザーBの左眼D2の視界に映る景色」とも称され得る。左導光板37は、左画像光NLを第2外景光M2と重ねることによって第2重畳光P2を生成する。左導光板37は、第2重畳光P2をユーザーBの左眼D2に導く。
このため、ユーザーBは、本体30を装着する場合、外景と右画像光NRと左画像光NLとを視認可能である。
図1に示されるカメラ38は、撮像装置の一例である。カメラ38は、レンズ等の受光光学系と、受光光学系によって集光される光を電気信号に変換する撮像素子と、を含む。撮像素子は、例えば、赤外領域および可視光領域の光を受光するCCD(Charge Coupled Device)イメージセンサーである。撮像素子は、CCDイメージセンサーに限らず、例えば、赤外領域および可視光領域の光を受光するCMOS(Complementary Metal Oxide Semiconductor)イメージセンサーでもよい。
カメラ38は、フレーム33に設けられる。カメラ38は、本体30の前方を撮像対象領域とする。このため、本体30が眼鏡のようにユーザーBに装着される場合、カメラ38は、ユーザーBの視界の少なくとも一部を撮像対象領域とする。このため、カメラ38は、右導光板35および左導光板37を透過してユーザーBによって視認される外景の特定領域を撮像する。
カメラ38は、撮像対象領域を撮像することによって撮像データを生成する。撮像データは、撮像対象領域を表す撮像画像を示す。本実施形態では、撮像画像の中心が、ユーザーBの視界の中心と一致するように、カメラ38がフレーム33に配置されている。カメラ38は、右導光板35と右保持部31との間に位置する。カメラ38の位置は、右導光板35と右保持部31との間に限らない。例えば、カメラ38の位置は、右導光板35と左導光板37との間、または、左導光板37と左保持部32との間でもよい。また、カメラ38は、右保持部31に設けられてもよいし、左保持部32に設けられてもよい。このような位置にカメラ38が配置される場合でも、撮像画像の中心が、ユーザーBの視界の中心と一致することが望ましい。なお、撮像画像の中心が、ユーザーBの視界の中心と異なってもよい。
また、カメラ38は、HMD3に含まれなくてもよい。この場合、外部装置となるカメラ38は、例えば、HMD3に装着される。
制御装置39は、左保持部32に設けられる。制御装置39は、左保持部32ではなく、フレーム33に設けられてもよい。また、制御装置39は、右保持部31に設けられてもよい。制御装置39は、カメラ38から撮像データを受ける。制御装置39は、操作入力部300から操作データを受ける。制御装置39は、撮像データと操作データとを用いて、プロジェクター1を制御する。
A5.制御装置39の一例
図4は、制御装置39の一例を示す図である。制御装置39は、第2通信部391と、第2記憶部392と、第2処理部393と、を含む。
第2通信部391は、プロジェクター1と通信する。具体的には、第2通信部391は、第1通信部12と通信する。
第2記憶部392は、第2処理部393が読み取り可能な記録媒体である。第2記憶部392は、例えば、不揮発性メモリーと揮発性メモリーとを含む。
第2記憶部392は、第2処理部393によって実行される制御プログラムと、第2処理部393が使用する各種のデータと、を記憶する。第2記憶部392に記憶される制御プログラムは「アプリケーションプログラム」または「アプリケーションソフトウェア」とも称され得る。
第2処理部393は、例えば、単数または複数のプロセッサーによって構成される。一例を挙げると、第2処理部393は、単数または複数のCPUによって構成される。第2処理部393の機能の一部または全部は、DSP、ASIC、PLD、FPGA等の回路によって実現されてもよい。第2処理部393は、各種の処理を並列的または逐次的に実行する。
第2処理部393は、第2記憶部392から制御プログラムを読み取る。第2処理部393は、第2記憶部392から読み取られた制御プログラムを実行することによって、撮像データ受信部394と、推定部395と、決定部396と、表示制御部397と、操作制御部398と、を実現する。
撮像データ受信部394は、カメラ38から画像データを受ける。撮像データ受信部394は、例えば、画像レシーバーまたは画像受信回路等の回路によって構成されてもよい。撮像データ受信部394は、画像データが入力される入力端子によって構成されてもよい。
推定部395は、撮像データに基づいて、ユーザーBの視界において、具体的には、右導光板35と左導光板37との各々において、表示画像A1が位置する範囲を推定する。
例えば、推定部395は、以下のように、右導光板35と左導光板37との各々において表示画像A1が位置する範囲を推定する。表示画像A1が位置する範囲は、特定表示範囲の一例である。
なお、推定部395は、例えば、プロセッサーまたは推定回路等の回路によって構成されてもよい。
決定部396は、推定部395が実行する推定の結果に基づいて、右導光板35における操作画像Rの位置と、左導光板37における操作画像Rの位置と、を決定する。
例えば、決定部396は、推定部395が実行する推定の結果に基づいて、右画像QRにおける操作画像Rの位置と、左画像QLにおける操作画像Rの位置と、を決定する。
なお、決定部396は、例えば、プロセッサーまたは決定回路等の回路によって構成されてもよい。
表示制御部397は、右画像出力部34aと、左画像出力部36aと、を制御する。表示制御部397は、右画像QRを示す右画像データを生成する。右画像QRでは、決定部396が決定した位置に操作画像Rが位置する。表示制御部397は、右画像データを右画像出力部34aに出力する。右画像出力部34aは、右画像データによって示される右画像QRを示す右画像光NRを出力する。
表示制御部397は、左画像QLを示す左画像データを生成する。左画像QLでは、決定部396が決定した位置に操作画像Rが位置する。表示制御部397は、左画像データを左画像出力部36aに出力する。左画像出力部36aは、左画像データによって示される左画像QLを示す左画像光NLを出力する。なお、表示制御部397は、例えば、表示コントローラーまたは表示制御回路等の回路によって構成されてもよい。
操作制御部398は、第2通信部391を用いてプロジェクター1を制御する。操作制御部398は、操作入力部300から操作データを受ける。操作制御部398は、第2通信部391に、操作データに基づく操作信号をプロジェクター1へ送信させる。例えば、操作部Eとして、画像の明るさを調整するための操作部が用いられている状況において、操作データが、操作部Eに対する操作を示す場合、操作制御部398は、第2通信部391に、画像の明るさを調整する操作信号をプロジェクター1へ送信させる。換言すると、第2通信部391は、操作データに基づく操作信号をプロジェクター1に送信する。
操作制御部398は、例えば、プロセッサーまたは操作制御回路等の回路によって構成されてもよい。
A6.表示画像A1の一例
図5は、表示画像A1の一例を示す図である。表示画像A1は、格子画像A2とマーカーKとを含む。格子画像A2は、表示画像A1における操作対象部分を指定するために用いられる。例えば、格子画像A2における交点A3が、ユーザーBによって、操作対象部分として指定される。
A7.右画像QRの一例
図6は、右画像QRの一例を示す図である。図6に示す右画像QRでは、右画像QRの理解を容易にするために、領域A4が示されている。なお、実際の右画像QRには、領域A4は示されない。領域A4は、第1重畳画像T1において表示画像A1と重なる。操作画像Rは、右画像QRのうち、領域A4とは異なる領域に位置する。また、右画像QRは、表示画像A1を表す操作部Eを有しない。
第1操作部E1は、図5に示す格子画像A2を緑色にする操作を受ける。第2操作部E2は、格子画像A2を赤色にする操作を受ける。第3操作部E3は、格子画像A2を青色にする操作を受ける。第4操作部F1は、操作対象部分を上に移動することによって表示画像A1の形状を変更する操作を受ける。第5操作部F2は、操作対象部分を下に移動することによって表示画像A1の形状を変更する操作を受ける。第6操作部F3は、操作対象部分を右に移動することによって表示画像A1の形状を変更する操作を受ける。第7操作部F4は、操作対象部分を左に移動することによって表示画像A1の形状を変更する操作を受ける。
A8.第1重畳画像の一例
図7は、第1重畳画像T1の一例を示す図である。図7に示す第1重畳画像T1では、図5に示す表示画像A1が、図6に示す右画像QRに重畳されている。図7では、説明の簡略化のため、マーカーKが省略されている。第1重畳画像T1では、操作画像Rは、表示画像A1と重ならない。
A9.比較例
図8は、右画像QRの比較例である比較画像Hを示す図である。比較画像Hは、表示画像A1を表す追加の操作部Jを有する点、および、領域A4に画像、具体的には追加の操作部Jが位置する点において、右画像QRと異なる。図9は、右画像QRの代わりに比較画像Hが用いられた場合に生成される第1重畳画像T1aの例を示す図である。図9に例示されるように、第1重畳画像T1aでは、追加の操作部Jが表示画像A1と重なってしまう。
A10.HMD3における表示の制御
図10は、HMD3における表示の制御動作を示すフローチャートである。以下、ユーザーBが本体30を頭部Cに装着しているとする。ユーザーBが、プロジェクター1を操作するために操作開始指示を操作入力部300に入力すると、第2処理部393は、第2記憶部392から制御プログラムを読み取り、当該制御プログラムを実行する。このため、第2処理部393は、撮像データ受信部394と、推定部395と、決定部396と、表示制御部397と、操作制御部398とを実現する。
ステップS101では、操作制御部398は、カメラ38に撮像を開始させる。ユーザーBが本体30を頭部Cに装着しているため、カメラ38は、ユーザーBの視界の少なくとも一部を撮像対象領域とする。カメラ38は、撮像データを制御装置39に送信する。
続いて、ステップS102において撮像データ受信部394は、カメラ38から撮像データを受信する。撮像データ受信部394は、撮像データを推定部395に出力する。
続いて、ステップS103において推定部395は、撮像データがマーカーKを表すか否かを判断する。なお、ステップS103では、推定部395は、撮像データがマーカーKを表す状況が1秒以上継続するか否かを判断してもよい。この場合、例えば、ユーザーBが頭部Cの向きを変えている間に偶然に撮像された画像に含まれるマーカーKを除外することが可能になる。よって、ユーザーBが意図的に目視しているマーカーKが存在するか否かを判断可能になる。ここで、1秒は所定時間の一例である。所定時間は1秒より長くてもよい。所定時間は1秒より短くてもよい。
ステップS103において撮像データがマーカーKを表す場合、ステップS104において推定部395は、撮像データが示す撮像画像において、マーカーKの位置する範囲を第1範囲として特定する。
続いて、ステップS105において推定部395は、ユーザーBの視界において、具体的には、右導光板35と左導光板37との各々において、表示画像A1が位置する範囲を推定する。
例えばステップS105では、推定部395は、まず、撮像画像のうち第1範囲によって囲まれる範囲を第2範囲として特定する。
続いて、推定部395は、撮像画像のうち、第1範囲と第2範囲とを加算することによって特定される範囲を、撮像画像において表示画像A1が位置する範囲として特定する。
続いて、推定部395は、撮像画像において表示画像A1が位置する範囲を、右導光板35と左導光板37との各々において表示画像A1が位置する範囲と推定する。この場合、推定部395は、撮像画像が示される範囲を、ユーザーBの視界とみなす。
推定部395は、推定の結果を決定部396に出力する。
続いて、ステップS106において決定部396は、操作画像Rの位置を決定する。
例えばステップS106では、決定部396は、右画像QRにおける操作画像Rの位置と、左画像QLにおける操作画像Rの位置と、を決定する。
一例を挙げると、決定部396は、OLED等で構成される右画像出力部34aの画像出力領域を、ユーザーBの視界とみなす。右画像出力部34aの画像出力領域は、右画像出力部34aにおける画素領域である。
そして、決定部396は、推定部395による推定の結果を、すなわち、ユーザーBの視界において表示画像A1が位置する範囲を、表示画像領域として、右画像出力部34aの画像出力領域に設定する。
続いて、決定部396は、右画像出力部34aの画像出力領域のうち、表示画像領域とは異なる領域を、候補領域として決定する。
続いて、決定部396は、候補領域に含まれる位置を、右画像QRにおける操作画像Rの位置として決定する。
さらに言えば、決定部396は、候補領域のうち、表示画像領域を基準に予め規定される位置を、右画像QRにおける操作画像Rの位置として決定する。
なお、表示画像領域を基準に予め規定される位置を示す位置規定情報が、例えば、第2記憶部392に、操作画像Rごとに予め記憶されていてもよい。この場合、決定部396は、位置規定情報を用いて、表示画像領域を基準に予め規定される位置を、右画像QRにおける操作画像Rの位置として、操作画像Rごとに決定する。
決定部396は、左画像QLにおける操作画像Rの位置を、左画像QLにおける操作画像Rの位置と同様に決定する。
決定部396は、決定の結果を表示制御部397に出力する。
続いて、表示制御部397は、右画像QRを示す右画像データを生成する。右画像QRには、決定部396が決定した位置に操作画像Rが位置する。
さらに、表示制御部397は、左画像QLを示す左画像データを生成する。左画像QLには、決定部396が決定した位置に操作画像Rが位置する。
表示制御部397は、右画像データを右画像出力部34aに出力する。表示制御部397は、左画像データを左画像出力部36aに出力する。
続いて、ステップS107において、右画像出力部34aは、右画像データによって示される右画像QRを表す右画像光NRを出力する。さらに、ステップS107では、左画像出力部36aは、左画像データによって示される左画像QLを表す左画像光NLを出力する。
右画像光NRは、右光学系34bを介して右導光板35に入射する。右導光板35は、右画像光NRを第1外景光M1に重畳することによって第1重畳光P1を生成する。右導光板35は、第1重畳光P1をユーザーBの右眼D1に向けて射出する。
左画像光NLは、左光学系36bを介して左導光板37に入射する。左導光板37は、左画像光NLを第2外景光M2に重畳することによって第2重畳光P2を生成する。左導光板37は、第2重畳光P2をユーザーBの左眼D2に向けて射出する。
このため、ユーザーBは、第1重畳光P1と第2重畳光P2によって、表示画像A1と操作部Eとを視認する。例えば、ユーザーBは、図7に例示されるような、画像を視認する。
続いて、ステップS108において操作入力部300が終了指示を受けない場合、処理がステップS102に戻る。
一方、ステップS108において操作入力部300が終了指示を受ける場合、ステップS109において操作制御部398は、カメラ38に撮像を終了させる。
なお、ステップS103において撮像データがマーカーKを表さない場合、処理はステップS108に進む。
A11.プロジェクター1の制御
図11は、HMD3によるプロジェクター1の制御動作を示すフローチャートである。右画像出力部34aが右画像光NRを出力し、左画像出力部36aが左画像光NLを出力している状況において、操作入力部300が、ユーザーBによる操作部Eへの操作を受けると、操作入力部300は、ユーザーBによって操作された操作部Eを特定するための操作データを本体30に出力する。
ステップS201において操作制御部398が、操作入力部300から操作データを受けると、ステップS202において操作制御部398は、操作データに基づく操作信号をプロジェクター1に送信する。
例えば、図6に示す第2操作部E2が操作データよって特定される場合、操作制御部398は、図5に示す格子画像A2を赤色にすることを指示する操作信号をプロジェクター1に送信する。
プロジェクター1では、第1通信部12が操作信号を受信すると、第1処理部15は、操作信号が示す指示にしたがって、赤色の格子画像A2が含まれる表示画像A1を示す画像データを投射部13に出力する。このため、投射部13は、赤色の格子画像A2が含まれる表示画像A1を投射面4に投射する。
A12.第1実施形態についてのまとめ
上述の本実施形態に係るHMD3の動作方法およびHMD3は以下の態様を含む。
右導光板35は、ユーザーBの視界に表れる外景を透過する。右導光板35は、さらに、操作部Eを示す操作画像Rを表示する。撮像データ受信部394は、カメラ38が投射面4に表示される表示画像A1を撮像することによって生成する撮像データを受ける。推定部395は、撮像データに基づいて、右導光板35において表示画像A1が位置する範囲を推定する。決定部396は、推定部395が実行する推定の結果に基づいて、右導光板35における操作画像Rの位置を決定する。
この態様によれば、表示画像A1の位置によって、操作画像Rの位置が決定される。このため、表示画像A1によって、操作画像Rが見え難くなることを抑制できる。
決定部396は、右導光板35における操作画像Rの位置として、表示画像A1が位置する範囲と重ならない位置を決定する。
この態様によれば、操作画像Rは表示画像A1と重ならない。このため、表示画像A1によって操作画像Rが見え難くなることを抑制できる。
表示画像A1は、マーカーKを含む。推定部395は 撮像データに表されるマーカーKの位置に基づいて、右導光板35における表示画像A1が位置する範囲を推定する。
この態様によれば、マーカーKを用いることによって、表示画像A1が位置する範囲を容易に推定することが可能になる。
表示画像A1は、プロジェクター1によって投射面4に表示される。右画像QRに示される操作部Eは、プロジェクター1に対する操作を受ける。
この態様によれば、ユーザーBは、プロジェクター1によって実際に投射面4に表示される表示画像A1を見ながら、操作部Eを容易に利用できるため、プロジェクター1を容易に操作できる。
B.変形例
以上に例示した実施形態の変形の態様を以下に例示する。以下の例示から任意に選択された2個以上の態様を、相互に矛盾しない範囲において適宜に併合してもよい。
B1.第1変形例
第1実施形態において、決定部396は、右導光板35に対する表示画像A1の占める割合が閾値に満たない場合、右導光板35における操作画像Rの位置として、表示画像A1が位置する範囲と重ならない位置を決定してもよい。
閾値は、例えば、固定値である。固定値の一例として「0.7」が挙げられる。固定値は「0.7」に限らない。固定値は、「0.7」より大きくてもよいし、「0.7」より小さくてもよい。閾値として固定値が用いられる場合、決定部396は、操作画像Rが右画像QRおよび左画像QLの各々に納まるように、操作画像Rの大きさを変更してもよい。
なお、閾値は、固定値でなくてもよい。例えば、閾値は、ユーザーBの視界に対してデフォルトの操作画像Rが占める割合でもよい。この場合、操作画像Rをデフォルトの大きさとしても、操作画像Rの全体をユーザーBに視認させることができる。
この態様によれば、表示画像A1と重なることなく、操作画像Rを例えば視認可能な大きさでユーザーBに視認させることができる。
また、第1変形例において、右導光板35に対する表示画像A1の占める割合が閾値以上である場合、決定部396は、右導光板35における操作画像Rの位置として、右導光板35における操作画像Rの少なくとも一部が表示画像A1の位置する範囲と重なる位置を決定してもよい。
図12は、決定部396が、右導光板35における操作画像Rの位置として、右導光板35における操作画像Rの少なくとも一部が表示画像A1の位置する範囲と重なる位置を決定した場合の第1重畳画像T1の例を示す図である。
この場合、操作画像Rが小さくなり過ぎることを抑制できる。
B2.第2変形例
第1実施形態および第1変形例において、マーカーKは点滅してもよい。具体的には、プロジェクター1は、表示画像A1においてマーカーKを点滅させてもよい。この時、マーカーKが表示されていない期間に、画像供給装置から画像処理部131が受け取った画像データに応じた画像を、プロジェクター1が表示するようにしてもよい。この場合、推定部395は、撮像データに表される点灯中のマーカーKの位置に基づいて、ユーザーBの視界において表示画像A1が位置する範囲を推定する。
この態様によれば、ユーザーBにとっては不要なマーカーKが間欠的に表示されなくなっても、表示画像A1が位置する範囲を推定することが可能になる。
ここで、マーカーKの点滅は、60Hz以上の周波数、例えば120Hzの周波数を有することが望ましい。人は、60Hz以上の周波数を有する輝度の変化を認識できない。このため、マーカーKの点滅が、60Hz以上の周波数を有する場合、マーカーKの点滅がユーザーBに視認されることなく、推定部395は、表示画像A1が位置する範囲を推定できる。
また、マーカーKが点滅しているため、マーカーKが点滅しない構成に比べて、マーカーKを目立ち難くすることができる。
B3.第3変形例
第1実施形態および第1〜第2変形例において、マーカーKは赤外光によって示されてもよい。この場合、推定部395は、撮像データに表される赤外光の位置に基づいて、表示画像A1が位置する範囲を推定する。
この態様によれば、ユーザーBにとっては不要なマーカーKがユーザーBに視認されない。さらに、推定部395は、ユーザーBには視認されない赤外光を用いて、ユーザーBの視界において表示画像A1が位置する範囲を推定できる。この態様では、カメラ38は、可視光を透過せずに赤外光を透過する赤外光フィルターを介して撮像を行うことが好ましい。
B4.第4変形例
第1実施形態および第1〜第3変形例において、マーカーKの形状は、図5に示す形状に限らない。
図13は、マーカーKの他の例を示す図である。図13に示すマーカーKは、L字型の4つのマーカーK1〜K4によって構成される。マーカーK1〜K4は、それぞれ、赤等の第1色を有する。マーカーK1〜K4の外縁部分には、第1色とは異なる第2色の枠が設けられている。第1色が赤である場合、第2色は、例えば黒である。第1色と第2色との組合せは、赤と黒の組合せに限らず適宜変更可能である。
マーカーK1〜K4は、それぞれ、第1色の部分と第2色の部分とによって識別可能である。このため、表示画像A1のうち、マーカーK1〜K4のいずれとも異なる部分が、第1色であっても、推定部395は、第2色の枠によって、マーカーK1〜K4の各々を識別できる。また、表示画像A1のうち、マーカーK1〜K4のいずれとも異なる部分が、第2色であっても、推定部395は、第1色の部分によって、マーカーK1〜K4の各々を識別できる。なお、第2色の枠は省略されてもよい。
マーカーK1〜K4は、表示画像A1の4つの角に1つずつ配置されている。この場合、推定部395は、まず、撮像データに示されるマーカーK1〜K4の各々の位置、例えば、重心位置を特定する。続いて、推定部395は、マーカーK1〜K4の各々の位置を頂点とする四角形を、表示画像A1として決定する。なお、推定部395は、当該四角形を所定数倍することによって生成される四角形を、表示画像A1として決定してもよい。所定数倍は、例えば、1.05倍である。所定数倍は、1.05倍に限らず適宜変更可能である。
図14は、マーカーKのさらに他の例を示す図である。図14に示すマーカーKは、矩形の4つのマーカーL1〜L4によって構成される。マーカーL1〜L4は、それぞれ、第1色を有する。マーカーL1〜L4の外縁部分には、第2色の枠が設けられている。マーカーL1〜L4は、それぞれ、第1色の部分と第2色の部分とによって識別可能である。なお、第2色の枠は省略されてもよい。
マーカーL1〜L4は、表示画像A1の4つの角に1つずつ配置されている。この場合、推定部395は、まず、撮像データに示されるマーカーL1〜L4の各々の位置、例えば、重心位置を特定する。続いて、推定部395は、マーカーL1〜L4の各々の位置を頂点とする四角形を、表示画像A1として決定する。推定部395は、当該四角形を所定数倍することによって生成される四角形を、表示画像A1として決定してもよい。
B5.第5変形例
第1実施形態および第1〜第4変形例において、操作画像Rは、図6に示す形状に限らない。
図15は、操作画像Rの他の例を含む右画像QRを示す図である。図15に示す右画像QRは、第2操作画像R2と、第3操作画像R3と、を示す。第3操作画像R3は、プロジェクター1におけるレンズシフト機能によって表示画像A1を移動できる範囲F5を示す。
図16は、表示画像A1が、図15に示す右画像QRに重畳されている第1重畳画像の一例を示す図である。図16に示す例においても、操作画像Rは、表示画像A1と重ならない。
図17は、図15に示す図の比較例である比較画像H1を示す図である。比較画像H1は、表示画像A1を表す追加の操作部J1を有する点、および、領域A4に画像、具体的には追加の操作部Jが位置する点において、図15に示す図と異なる。
図18は、図15に示す図の代わりに比較画像H1が用いられた場合に生成される第1重畳画像の例を示す図である。図18に例示され第1重畳画像では、追加の操作部J1が表示画像A1と重なる。
B6.第6変形例
第1実施形態および第1〜第5変形例において、制御装置39は、本体30とは異なる装置、例えばPCに設けられてもよい。この場合、本体30の軽量化を図ることができる。
B7.第7変形例
第1実施形態および第1〜第6変形例において、プロジェクター1における光変調装置の一例として液晶ライトバルブ135が用いられたが、光変調装置は液晶ライトバルブに限らず適宜変更可能である。例えば、光変調装置は、3枚の反射型の液晶パネルを用いた構成であってもよい。また、光変調装置は、1枚の液晶パネルを用いた方式、3枚のデジタルミラーデバイス(DMD)を用いた方式、1枚のデジタルミラーデバイスを用いた方式等の構成であってもよい。光変調装置として1枚のみの液晶パネルまたはDMDが用いられる場合、色分離光学系および色合成光学系に相当する部材は不要である。また、液晶パネルおよびDMD以外にも、光源134が発した光を変調可能な構成は、光変調装置として採用できる。
B8.第8変形例
第1実施形態および第1〜第7変形例において、表示装置としてFPDが用いられる場合、FPDは、電子黒板または電子会議システムに用いられているFPDでもよい。
1…プロジェクター、3…HMD、30…本体、38…カメラ、39…制御装置、300…操作入力部、391…第2通信部、392…第2記憶部、393…第2処理部、394…撮像データ受信部、395…推定部、396…決定部、397…表示制御部、398…操作制御部、1000…表示システム。

Claims (10)

  1. ユーザーの視界に表れる外景を表す外景光を透過し、オブジェクトを示すオブジェクト画像を表示する表示部を備える頭部装着型表示装置の動作方法であって、
    前記外景の特定領域を撮像装置が撮像することによって生成される撮像データを受け、
    前記撮像データに基づいて、前記表示部において前記特定領域が表示される特定表示範囲を推定し、
    前記推定の結果に基づいて、前記表示部における前記オブジェクト画像の位置を決定する、
    ことを含む頭部装着型表示装置の動作方法。
  2. 前記表示部における前記オブジェクト画像の位置を、前記特定表示範囲と重ならない位置に決定する、
    請求項1に記載の頭部装着型表示装置の動作方法。
  3. 前記表示部に対する前記特定表示範囲の占める割合が閾値に満たない場合、前記表示部における前記オブジェクト画像の位置を、前記特定表示範囲と重ならない位置に決定する、
    請求項1に記載の頭部装着型表示装置の動作方法。
  4. 前記表示部に対する前記特定表示範囲の占める割合が前記閾値以上である場合、前記表示部における前記オブジェクト画像の位置を、前記表示部における前記オブジェクト画像の少なくとも一部が前記特定表示範囲と重なる位置に決定する、
    請求項3に記載の頭部装着型表示装置の動作方法。
  5. 前記特定領域には、マーカーを示す光が投射され、
    前記撮像データに基づく撮像画像における前記マーカーの位置に基づいて、前記表示部における前記特定表示範囲の位置を推定する、
    請求項1から4のいずれか1項に記載の頭部装着型表示装置の動作方法。
  6. 前記マーカーは点滅する、
    請求項5に記載の頭部装着型表示装置の動作方法。
  7. 前記マーカーの点滅は、60Hz以上の周波数を有する、
    請求項6に記載の頭部装着型表示装置の動作方法。
  8. 前記マーカーは、赤外光によって示される、
    請求項5に記載の頭部装着型表示装置の動作方法。
  9. 前記特定領域には、操作対象の表示装置によって、表示対象の画像を表す光が投射され、
    前記オブジェクトは、前記操作対象の表示装置に対する操作を受ける操作部である、
    請求項1から8のいずれか1項に記載の頭部装着型表示装置の動作方法。
  10. ユーザーの視界に表れる外景を表す外景光を透過し、オブジェクトを示すオブジェクト画像を表示する表示部を、備える頭部装着型表示装置であって、
    前記外景の特定領域を撮像装置が撮像することによって生成される撮像データを受ける撮像データ受信部と、
    前記撮像データに基づいて、前記表示部において前記特定領域が表示される特定表示範囲を推定する推定部と、
    前記推定の結果に基づいて、前記表示部における前記オブジェクト画像の位置を決定する決定部と、
    を含む頭部装着型表示装置。
JP2019192542A 2019-10-23 2019-10-23 頭部装着型表示装置の動作方法および頭部装着型表示装置 Withdrawn JP2021068145A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019192542A JP2021068145A (ja) 2019-10-23 2019-10-23 頭部装着型表示装置の動作方法および頭部装着型表示装置
US17/078,226 US11189249B2 (en) 2019-10-23 2020-10-23 Operation method for head-mounted display device and head-mounted display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019192542A JP2021068145A (ja) 2019-10-23 2019-10-23 頭部装着型表示装置の動作方法および頭部装着型表示装置

Publications (1)

Publication Number Publication Date
JP2021068145A true JP2021068145A (ja) 2021-04-30

Family

ID=75586004

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019192542A Withdrawn JP2021068145A (ja) 2019-10-23 2019-10-23 頭部装着型表示装置の動作方法および頭部装着型表示装置

Country Status (2)

Country Link
US (1) US11189249B2 (ja)
JP (1) JP2021068145A (ja)

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002176602A (ja) * 2000-09-07 2002-06-21 Thomson Licensing Sa 自動集束のためのセンサ信号処理
JP2002314938A (ja) * 2001-02-28 2002-10-25 Eastman Kodak Co ディジタル動画の画像データに対するコピー・プロテクト
JP2005062748A (ja) * 2003-08-20 2005-03-10 Nippon Telegr & Teleph Corp <Ntt> 情報提示装置および情報提示装置の使用方法
JP2006099466A (ja) * 2004-09-29 2006-04-13 Fuji Xerox Co Ltd 情報処理装置、情報処理方法およびプログラム
JP2006232009A (ja) * 2005-02-23 2006-09-07 Honda Motor Co Ltd 車両用被認識装置
JP2012233962A (ja) * 2011-04-28 2012-11-29 Konica Minolta Holdings Inc 投影システム、投影装置、投影方法、および制御プログラム
JP2014174507A (ja) * 2013-03-13 2014-09-22 Nec Corp 拡張現実表示装置及び情報端末並びにマルチディスプレイシステム、プログラム
US8957916B1 (en) * 2012-03-23 2015-02-17 Google Inc. Display method
JP2015097054A (ja) * 2013-11-15 2015-05-21 コニカミノルタ株式会社 表示制御装置およびプログラム、余白作成方法
JP2016140637A (ja) * 2015-02-04 2016-08-08 学校法人常翔学園 知覚閾値測定装置、知覚閾値測定方法及び知覚閾値測定プログラム
JP2016161611A (ja) * 2015-02-27 2016-09-05 セイコーエプソン株式会社 表示システム、及び表示制御方法
JP2017032870A (ja) * 2015-08-04 2017-02-09 富士通株式会社 画像投影装置及び画像表示システム
JP2019148682A (ja) * 2018-02-27 2019-09-05 セイコーエプソン株式会社 画像表示システム、画像表示装置及び画像表示システムの制御方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6387825B2 (ja) 2014-12-26 2018-09-12 セイコーエプソン株式会社 表示システム、及び、情報表示方法
US10424117B2 (en) * 2015-12-02 2019-09-24 Seiko Epson Corporation Controlling a display of a head-mounted display device
JP7096664B2 (ja) 2017-12-15 2022-07-06 キヤノン株式会社 投写制御装置およびその制御方法、ならびに投写システム
EP3499881B1 (en) 2017-12-15 2021-05-05 Canon Kabushiki Kaisha Projection control apparatus and control method thereof, and projection system
JP7059619B2 (ja) 2017-12-22 2022-04-26 セイコーエプソン株式会社 処理装置、表示システム、及びプログラム
JP6590050B2 (ja) 2018-08-16 2019-10-16 セイコーエプソン株式会社 表示装置、表示システム、表示装置の制御方法、及び、プログラム

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002176602A (ja) * 2000-09-07 2002-06-21 Thomson Licensing Sa 自動集束のためのセンサ信号処理
JP2002314938A (ja) * 2001-02-28 2002-10-25 Eastman Kodak Co ディジタル動画の画像データに対するコピー・プロテクト
JP2005062748A (ja) * 2003-08-20 2005-03-10 Nippon Telegr & Teleph Corp <Ntt> 情報提示装置および情報提示装置の使用方法
JP2006099466A (ja) * 2004-09-29 2006-04-13 Fuji Xerox Co Ltd 情報処理装置、情報処理方法およびプログラム
JP2006232009A (ja) * 2005-02-23 2006-09-07 Honda Motor Co Ltd 車両用被認識装置
JP2012233962A (ja) * 2011-04-28 2012-11-29 Konica Minolta Holdings Inc 投影システム、投影装置、投影方法、および制御プログラム
US8957916B1 (en) * 2012-03-23 2015-02-17 Google Inc. Display method
JP2014174507A (ja) * 2013-03-13 2014-09-22 Nec Corp 拡張現実表示装置及び情報端末並びにマルチディスプレイシステム、プログラム
JP2015097054A (ja) * 2013-11-15 2015-05-21 コニカミノルタ株式会社 表示制御装置およびプログラム、余白作成方法
JP2016140637A (ja) * 2015-02-04 2016-08-08 学校法人常翔学園 知覚閾値測定装置、知覚閾値測定方法及び知覚閾値測定プログラム
JP2016161611A (ja) * 2015-02-27 2016-09-05 セイコーエプソン株式会社 表示システム、及び表示制御方法
JP2017032870A (ja) * 2015-08-04 2017-02-09 富士通株式会社 画像投影装置及び画像表示システム
JP2019148682A (ja) * 2018-02-27 2019-09-05 セイコーエプソン株式会社 画像表示システム、画像表示装置及び画像表示システムの制御方法

Also Published As

Publication number Publication date
US20210125585A1 (en) 2021-04-29
US11189249B2 (en) 2021-11-30

Similar Documents

Publication Publication Date Title
US7357517B2 (en) Projector, method of controlling the projector, program for controlling the projector, and recording medium storing the program
JP7022323B2 (ja) 画像表示システム、画像表示装置及び画像表示システムの制御方法
JP7338404B2 (ja) 表示システムの制御方法および制御装置
US9892536B2 (en) Image display device and image adjustment method of image display device
JP7363380B2 (ja) 表示システムの制御方法および制御装置
JP6500889B2 (ja) プロジェクターおよびプロジェクターの制御方法
JP2020005094A (ja) プロジェクターおよびプロジェクターの制御方法
US10638100B2 (en) Projector, multi-projection system, and method for controlling projector
US9830723B2 (en) Both-direction display method and both-direction display apparatus
JP7251095B2 (ja) 位置検出装置、表示装置、表示システム、及び、位置検出方法
US9881363B2 (en) Image processing device, projector and image processing method for correcting a displayed image
JP6323061B2 (ja) プロジェクター、およびプロジェクターの制御方法
JP6883256B2 (ja) 投影装置
JP2021068145A (ja) 頭部装着型表示装置の動作方法および頭部装着型表示装置
JP7310535B2 (ja) 表示装置の制御方法および制御装置
WO2016147236A1 (ja) 照明装置
JP2023043372A (ja) 画像表示方法、及び、プロジェクター
JP2020136909A (ja) 投写画像の調整方法、及び投写装置
JP5703732B2 (ja) 立体画像表示装置および立体画像表示システム
JP2018205478A (ja) 表示装置および表示装置の制御方法
JP2010256753A (ja) プロジェクター
JP2017198779A (ja) 投影型表示装置及びその制御方法
JP2020182049A (ja) 音出力制御方法および表示システム
JP2021136492A (ja) 電子機器の動作方法および電子機器
JP2020191045A (ja) 指示体、表示システムおよび動作方法

Legal Events

Date Code Title Description
RD07 Notification of extinguishment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7427

Effective date: 20200811

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210915

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20211102

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220524

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230228

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20230501