JP2016149587A - ヘッドマウントディスプレイ、およびその制御方法と制御プログラム - Google Patents

ヘッドマウントディスプレイ、およびその制御方法と制御プログラム Download PDF

Info

Publication number
JP2016149587A
JP2016149587A JP2015023895A JP2015023895A JP2016149587A JP 2016149587 A JP2016149587 A JP 2016149587A JP 2015023895 A JP2015023895 A JP 2015023895A JP 2015023895 A JP2015023895 A JP 2015023895A JP 2016149587 A JP2016149587 A JP 2016149587A
Authority
JP
Japan
Prior art keywords
head
control unit
mounted display
sensor
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2015023895A
Other languages
English (en)
Inventor
智弘 小川
Tomohiro Ogawa
智弘 小川
将 井上
Susumu Inoue
将 井上
剛 木本
Takeshi Kimoto
剛 木本
松井 徹
Toru Matsui
徹 松井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2015023895A priority Critical patent/JP2016149587A/ja
Priority to US15/000,548 priority patent/US20160216792A1/en
Publication of JP2016149587A publication Critical patent/JP2016149587A/ja
Withdrawn legal-status Critical Current

Links

Images

Abstract

【課題】操作しやすいヘッドマウントディスプレイを提供する。【解決手段】ユーザーの頭部に対する位置の変化を検出するセンサー群40と、位置の変化が検出されると、所定処理を実行する制御部と、を備えるヘッドマウントディスプレイスマートグラス1を構成する。ヘッドマウントディスプレイは眼鏡形状を有しており、センサーは、ブリッジに設けられた中央タッチセンサー42を含む。センサーはタッチセンサーとモーションセンサーとを含む。制御部は、タッチセンサーが接触を検出した場合であってモーションセンサーが動きを検出した場合に、所定処理を実行する、【選択図】図1

Description

本発明は、ヘッドマウントディスプレイ、ヘッドマウントディスプレイの制御方法および制御プログラムに関する。
従来、眼鏡型のヘッドマウントディスプレイ(所謂スマートグラス)が知られている(例えば特許文献1)。
特開2014−174790号公報
スマートグラスの操作方法として、従来はスマートグラスとは別体のタッチパッドに対して操作を行う方法や、特許文献1に記載されているように指先にタッチセンサーを装着した状態で指と指とを合わせる等のジェスチャーをする方法等があった。しかし従来の操作方法では、直観的な操作がしづらいという問題があった。
本発明のある態様は、操作しやすいヘッドマウントディスプレイを提供することを一つの目的とする。また、本発明の他の態様は、拡張現実機能のためのキャリブレーションを開始しやすいヘッドマウントディスプレイを提供することを他の目的とする。
上記目的を達成するためのヘッドマウントディスプレイは、ユーザーの頭部に対する位置の変化を検出するセンサーと、前記位置の変化を検出すると、所定処理を実行する制御部と、を備える。
ヘッドマウントディスプレイがユーザーの頭部に対する位置の変化を検出するセンサーを備えていることから、ユーザーがその頭部に対するヘッドマウントディスプレイの位置を変化させたことを検出することができ、検出に応じて制御部が所定処理を実行することができる。よって、所定処理を実行させるための操作が容易なヘッドマウントディスプレイが提供され得る。ここでいう所定処理は、拡張現実機能のためのキャリブレーション、またはその際に伴われる画像または画面の遷移を含み得る。
制御部は、センサー出力に基づいて頭部に対する位置の変化を検出した場合に、それまで行っていた処理内容を変化させ、その結果として例えば表示部の画像を変化させることができる。表示部に表示される画像の変化は、様々な態様の処理内容の変化の結果として生じうる。例えば、位置変化を検出するまでに制御部が実行していた処理自体の中断や中止や切り換え(中断または中止して新たな処理を起動する)等の結果生ずる場合もあれば、位置変化を検出するまでに実行していた処理そのものは継続し処理対象データを切り換えた結果生ずる場合もある。また、表示部に表示される画像の変化態様は、表示部に表示される画像全体を変化させる態様や、一部を変化させる態様等様々な態様を含む。
なお、センサーはヘッドマウントディスプレイに対して相対的に固定されており、センサーがユーザーの頭部に対する位置の変化を検出した場合、ヘッドマウントディスプレイ自身もユーザーの頭部に対する位置が変化したことを示している。また、制御部は、単独のセンサーの出力に基づいて位置変化の有無を判定してもよいし、複数種類のセンサーの出力に基づいて位置変化の有無を判定してもよい。
さらに、上記目的を達成するためのヘッドマウントディスプレイは、眼鏡形状を有していてもよく、その場合に前記センサーは、ブリッジに設けられたタッチセンサーを含んでもよい。なお、ブリッジは眼鏡における二つのレンズの間に位置し二つのレンズを連結する部位に相当する部分である。ヘッドマウントディスプレイが眼鏡形状を有している場合に表示部は、二つのレンズ相当部分のそれぞれに設けられてもよいし、片方のレンズ相当部分のみに設けられてもよい。レンズ相当部分は、眼鏡におけるレンズの部位に相当する部分である。
ブリッジにタッチセンサーが設けられている場合、当該タッチセンサーに指等を接触させた状態でブリッジを押し上げる等してユーザーがヘッドマウントディスプレイの頭部に対する位置を変化させたことをヘッドマウントディスプレイが検出することができ、位置の変化を検出したことに応じて所定処理を実行することができる。
さらに、上記目的を達成するためのヘッドマウントディスプレイが眼鏡形状を有している場合、前記センサーは、テンプルに設けられたタッチセンサーを含んでもよい。なおテンプルは、眼鏡においてレンズ部分と接続し耳に掛け持たせるために延伸した部位に相当する部分であり、「つる」や「アーム」等とも呼ばれる。タッチセンサーは両方のテンプルに設けられてもよいし、片方のテンプルにのみ設けられていてもよい。
テンプルにタッチセンサーが設けられた眼鏡型のヘッドマウントディスプレイは、テンプルに触ってヘッドマウントディスプレイの頭部に対する位置を変化させたことを検出することができ、位置の変化を検出したことに応じて所定処理を実行することができる。
さらに、上記目的を達成するためのヘッドマウントディスプレイにおいて、前記センサーは、タッチセンサーとモーションセンサーとを含んでもよい。そして、前記制御部は、前記タッチセンサーが接触を検出した場合であって前記モーションセンサーが動きを検出した場合に、前記所定処理を実行してもよい。
本構成の場合、ヘッドマウントディスプレイはユーザーがヘッドマウントディスプレイに接触しながら頭部に対する位置を変化させる動作を、モーションセンサーと、ユーザーの接触部分に設けられたタッチセンサーとで検出することができる。そして、位置の変化を検出したことに応じて所定処理を実行することができる。なお仮にモーションセンサーだけで位置の変化を検出しようとすると、例えばユーザーが歩いたり単に頭部を上下に動かしたりしたことと、意図的にヘッドマウントディスプレイの位置を調整する動作とを区別しづらい。本構成のようにタッチセンサーとモーションセンサーとを組み合わせることで、これらを区別しやすくなり、誤動作を防止できる。
なお、本構成の場合、タッチセンサーはヘッドマウントディスプレイのどこに配置されていてもよいが、例えばヘッドマウントディスプレイが眼鏡形状を有している場合は上述したようにブリッジやテンプルに配置されていてもよい。もちろんそれ以外の部分、例えば眼鏡のレンズ相当部分に設けられてもよいし、レンズ相当部分を支持する枠部(フレーム)に設けられてもよい。また、モーションセンサーに関しても、ヘッドマウントディスプレイのどこに配置されてもよいが、例えば、位置を変化させる動作によってヘッドマウントディスプレイの中でも変位が大きい部分に設けられてもよい。モーションセンサーは、ヘッドマウントディスプレイの動きを検出することができればどのようなセンサーであってもよいが、例えば加速度センサーやジャイロセンサー等を想定してよい。
さらに、上記目的を達成するためのヘッドマウントディスプレイにおいて、前記制御部は、前記位置の変化を検出すると、再生中のコンテンツを切り換えてもよい。
再生中のコンテンツとは例えば、スライドショー中の静止画像であってもよいし、音楽であってもよいし、動画像であってもよい。再生処理は継続するがコンテンツ(再生処理対象データ)を切り換えるという所定処理を制御部は実行する。ヘッドマウントディスプレイの頭部に対する位置を変化させる動作と、再生中のコンテンツの切り換えとを対応付けることにより、直観的な指示入力方法をユーザーに提供することができる。
また、前記制御部は、前記位置の変化を検出すると、拡張現実機能のキャリブレーション処理を開始してもよい。
ユーザーが拡張現実機能ためのキャリブレーションを行いたい場合に、ユーザーがヘッドマウントディスプレイの頭部に対する位置を調整してからキャリブレーションを開始することが考えられる。この位置調整の動作と、キャリブレーション処理の開始とを対応付けることにより、本構成のヘッドマウントディスプレイはユーザーに直感的で簡易なキャリブレーションの開始指示の入力方法を提供することができる。
また、眼前に画像を表示する表示部をさらに備えた場合に前記制御部は、前記位置の変化を検出すると、前記表示部にホーム画面を示す画像を表示させてもよい。
すなわち本構成の場合、ユーザーは、ヘッドマウントディスプレイの頭部に対する位置を変化させるという簡易な動作を行うことで、表示部においてホーム画面への切り換えを行うことができる。なおホーム画面とは、全ての操作の基本となる画面を意味する。例えば、ヘッドマウントディスプレイに電源が投入されオペレーティングシステムが起動した後であって、ユーザーの指示に応じて何らかの処理を行う前に表示される画面を想定してよい。
なお、上述のように、ユーザーの頭部に対するヘッドマウントディスプレイの位置の変化を検出すると所定処理を実行する手法は、ヘッドマウントディスプレイの制御方法の発明や制御プログラムの発明としても成立する。また請求項に記載された各部の機能は、構成自体で機能が特定されるハードウェア資源、プログラムにより機能が特定されるハードウェア資源、又はそれらの組み合わせにより実現される。また、これら各部の機能は、各々が物理的に互いに独立したハードウェア資源で実現されるものに限定されない。
スマートグラスを示す外観図。 スマートグラスを示すブロック図。 頭部に対する装着体の位置を変化させる動作を説明する図。 頭部に対する装着体の位置を変化させる動作を説明する図。
以下、本発明の実施の形態を添付図面を参照しながら以下の順に説明する。尚、各図において対応する構成要素には同一の符号が付され、重複する説明は省略される。
1.第一実施形態:
1−1.構成:
図1は、本発明にかかるヘッドマウントディスプレイ(Head Mounted Display、HMD)としてのスマートグラス1の外観構成を示す説明図である。図2は、スマートグラス1の構成を機能的に示すブロック図である。本実施形態のスマートグラス1は、ユーザーが、表示部に表示された画像(表示画像)を視認すると同時に外景も直接視認可能な光学透過型のHMDである。
スマートグラス1は、ユーザーの頭部に装着された状態においてユーザーに表示画像を視認させる装着体200と、装着体200を制御するコントローラー100と、を備えている。装着体200は、本実施形態では眼鏡形状を有している。装着体200は、眼鏡のレンズに相当する部分である表示部30と、表示部30の縁を支持する枠部33と、枠部33と接続し装着時にユーザーの耳に掛け持たれる保持部50と、表示駆動部20と、装着状態においてユーザーの頭部に対する位置の変化を検出するセンサー群40と、外景撮像カメラ61とを含む。なお、本明細書において「上下左右」は、装着体200をユーザーの頭部に装着した状態において当該ユーザーにとっての上下左右を意味する。
表示部30は右光学像表示部31および左光学像表示部32を含む。右光学像表示部31および左光学像表示部32は、それぞれ、ユーザーが装着体200を装着した際にユーザーの右および左の眼前に位置するように配置されている。右光学像表示部31および左光学像表示部32は縁が枠部33に固定されている。保持部50は右保持部51および左保持部52を含む。右保持部51および左保持部52は、眼鏡のテンプルのようにして、ユーザーの頭部に装着体200を保持させる。表示駆動部20は右表示駆動部21および左表示駆動部22を含む。右表示駆動部21と左表示駆動部22とは、保持部50の内側、すなわち保持部50の、ユーザーが装着体200を装着した際のユーザーの頭部側に配置されている。
右表示駆動部21は、光源として機能する右バックライト(BL)制御部211および右BL212と、表示素子として機能する右LCD制御部213および右LCD214と、右投写光学系215と、を含んでいる。右投写光学系215は、右LCD214から射出された画像光を並行状態の光束にするコリメートレンズによって構成される。右光学像表示部31は、右導光板310と、図示しない調光板とを含んでいる。右導光板310は、右投写光学系215から出力された画像光を、所定の光路に沿って反射させつつユーザーの右眼REに導く。
左表示駆動部22は、光源として機能する左バックライト(BL)制御部221および左BL222と、表示素子として機能する左LCD制御部223および左LCD224と、左投写光学系225と、を含んでいる。左投写光学系225は、左LCD224から射出された画像光を並行状態の光束にするコリメートレンズによって構成される。左光学像表示部32は左導光板320と図示しない調光板とを含む。左導光板320は、左投写光学系225から出力された画像光を、所定の光路に沿って反射させつつユーザーの左眼LEに導く。
右導光板310および左導光板320は、光透過性の樹脂材料等によって形成されている。調光板は、薄板状の光学素子であり、ユーザーの眼の側とは反対の側である装着体200の表側を覆うように配置されている。調光板は、導光板310,320を保護し、導光板310,320の損傷や汚れの付着等を抑制する。また、調光板の光透過率を調整することによって、ユーザーの眼に入る外光量を調整して表示画像の視認のしやすさを調整できる。なお、調光板は省略可能である。
センサー群40は、加速度センサー(モーションセンサー)41と中央タッチセンサー42と右タッチセンサー43と左タッチセンサー44とを含む。加速度センサー41および中央タッチセンサー42は、ユーザーが装着体200を装着した際のユーザーの眉間に対応する位置(眼鏡のブリッジに相当する部分)に配置されている。加速度センサー41は枠部33のブリッジ相当部分に内蔵されている。中央タッチセンサー42は、枠部33のブリッジ相当部分の表面であってユーザーの眉間側とは反対側の表面に設けられている。右タッチセンサー43および左タッチセンサー44はそれぞれ、右保持部51および左保持部52の先端部の上側(頭頂部側)の位置に設けられている。
中央タッチセンサー42が指等の接触を検出した場合、接触を検出したことを示す信号を制御部10に出力する。また、右タッチセンサー43,左タッチセンサー44においても同様に、指等の接触を検出した場合、各センサーからそれぞれ、接触を検出したことを示す信号が制御部10に出力される。本実施形態においては、各タッチセンサーは手の指先程度の大きさのオブジェクトの接触の有無を少なくとも検出できればよい。加速度センサー41は、本実施形態においては3軸の加速度センサーが採用される。なお、後述するように装着時における上下方向の加速度を少なくとも検出できればよいため、当該方向の加速度を検出する1軸の加速度センサーが採用されてもよい。
外景撮像カメラ61は、右光学像表示部31の右側における枠部33に設けられている。外景撮像カメラ61は、外部の景色である外景を撮像し、外景画像を取得する。本実施形態における外景撮像カメラは、単眼カメラであるが、左光学像表示部32の左側にも同様にカメラが備えられステレオカメラとして構成されてもよい。
装着体200はさらに、装着体200をコントローラー100に接続するための接続部70を有している。接続部70は、コントローラー100に接続される本体コード78と、本体コード78から分岐した右コード72および左コード74と、連結部材76と、を含んでいる。右コード72は、右保持部51の先端から右保持部51の筐体内に挿入され、右表示駆動部21や外景撮像カメラ61や右タッチセンサー43や中央タッチセンサー42や加速度センサー41等に接続されている。左コード74は、左保持部52の先端から左保持部52の筐体内に挿入され、左表示駆動部22や左タッチセンサー44に接続されている。連結部材76は、本体コード78と、右コード72および左コード74と、の分岐点に設けられ、イヤホンプラグ80を接続するためのジャックを有している。イヤホンプラグ80からは、右イヤホン81および左イヤホン82が延伸している。装着体200とコントローラー100とは、接続部70を介して各種信号の伝送を行なう。本体コード78における連結部材76とは反対側の端部にはコネクターが設けられており、コントローラー100に対して脱着可能である。
コントローラー100は、スマートグラス1を制御するための装置である。コントローラー100は、制御部10と、電源11と、操作部12と、通信I/F部13と、を含んでいる。制御部10は、CPU,RAM,ROM,不揮発性メモリー等を含み、ROMや不揮発性メモリーに記録された後述する各種プログラムを、RAM等を用いてCPUが実行することによってスマートグラス1を制御する。
操作部12は、決定キー121、タッチパッド124、方向キー126、電源スイッチ128等を含む。決定キー121は、押下操作されると、コントローラー100で行われた操作内容を決定する信号を出力するキーである。タッチパッド124は、タッチパッド124の操作面上でのユーザーの指等の操作を検出して、検出内容に応じた信号を出力する。方向キー126は、上下左右方向に対応するキーへの押下操作がなされると、検出内容に応じた信号を出力するキーである。電源スイッチ128は、スイッチのスライド操作がなされると、スマートグラス1の電源投入状態を切り換えるスイッチである。
通信I/F部13は、コンテンツサーバー、テレビ、パーソナルコンピューター等の外部の機器との間で有線通信(例えばUSB等)または無線通信(例えばWi-Fi(登録商標)、Bluetooth(登録商標)等)を行なうためのインターフェース回路を備えている。外部の機器から取得した音声データや映像データ等のコンテンツデータは、不揮発性メモリーに記録される。
制御部10は次に述べる表示制御プログラムや画像処理プログラム、音声処理プログラム、指示受付プログラム、撮像制御プログラム、画像解析プログラムをはじめとする様々なプログラムを実行することができる。表示制御プログラムは、左右の表示駆動部21,22のそれぞれによる画像光の生成および射出を制御する機能を制御部10に実現させる。具体的には、右LCD制御部213による右LCD214の駆動ON/OFF、右BL制御部211による右BL212の駆動ON/OFF、左LCD制御部223による左LCD224の駆動ON/OFF、左BL制御部221による左BL222の駆動ON/OFFなど、を個別に制御する機能を実現させる。
画像処理プログラムは、表示対象データに含まれる画像信号に基づいて右目用画像データと左目用画像データを生成し、右表示駆動部21と左表示駆動部22にそれぞれ送信する機能を制御部10に実現させる。音声処理プログラムは、再生対象データに含まれる音声信号を取得し、取得した音声信号を図示しない増幅器によって増幅させ、左右のイヤホン81,82内の図示しないスピーカーに供給する機能を制御部10に実現させる。
指示受付プログラムは、操作部12に対する操作に対する操作がなされたことを示す情報を取得した場合やセンサー群40の出力に基づいて装着体200のユーザーの頭部に対する位置変化が検出された場合に、当該操作に応じた処理を実行させる機能や、位置変化に応じて処理内容を変化させる機能を制御部10に実現させる。撮像制御プログラムは、外景撮像カメラ61に外景を撮像させ、撮像の結果得られた外景を示す画像データを取得する機能を制御部10に実現させる。画像解析プログラムは、入力画像(例えば外景撮像カメラ61によって撮像された画像)を解析し、入力画像内に含まれる対象物の有無や対象物の位置や大きさ等を検出する機能を制御部10に実現させる。
また、制御部10は、不揮発性メモリーに記録されたコンテンツデータを再生するアプリケーションプログラム(再生APP)や、拡張現実(Augmented Reality:AR)機能を実現するアプリケーションプログラム(AR−APP)を実行することができる。制御部10は、再生APPや、オペレーティングシステム(OS)、表示制御プログラム、画像処理プログラム、音声処理プログラム、指示受付プログラム等を実行することにより、コンテンツデータの再生を含むユーザーの指示に応じた所定の処理を行うことができる。また、制御部10は、AR−APPや、OS、表示制御プログラム、画像処理プログラム、指示受付プログラム、撮像制御プログラム等を実行することにより、表示部30を通して視認される外景に含まれる所定の物体に対応付けて視認できるように文字や図形等を表示部30に表示させる拡張現実機能を実現することができる。また、AR−APPは当該機能のためのキャリブレーション処理をユーザーの指示に応じて制御部10に実施させる機能も有する。
1−2:位置変化を伴う動作と、当該動作に応じた処理:
次に、ユーザーが装着体200の頭部に対する位置を変化させる動作とその場合の制御部10による制御内容について説明する。
まず、例えば複数の楽曲を含む再生リストにおける任意の楽曲の再生時に上述の位置変化を伴う動作がなされた場合の制御部10の制御内容について説明する。図3は、装着体200を装着したユーザーの頭部を右側方から見た図である。接続部70や左右のイヤホン81,82やコントローラー100は図3では図示を省略している。右タッチセンサー43および左タッチセンサー44(図3においては不図示)はそれぞれ、右保持部51および左保持部52(図3においては不図示)の先端部の上側(頭頂部側)に設けられている。左右の保持部の先端部とは、保持部の枠部33から離れた位置にある端部であって、保持部がユーザーの耳に掛け持たれている状態においてユーザーの耳に接触する部分よりも枠部33から遠ざかる方向に位置する部分である。先端部は当該状態においては通常耳に接触しない。
図3に示すように、ユーザーが右保持部51の先端部に設けられた右タッチセンサー43に指を接触させた状態で先端部を耳に近づけるように押し下げる(矢印A)と、右保持部51の耳との接触部分を支点として、てこの原理によってブリッジ部分が鼻から離れて持ち上げられる(矢印B)。ブリッジ部分には加速度センサー41が設けられておりブリッジ部分の矢印B方向への加速度を検出することができる。なお図3では図示されていないが、右タッチセンサー43に対する上述の押し下げとともに左タッチセンサー44に対しても同様の押し下げが行われてもよい。また、左タッチセンサー44に対してのみ押し下げが行われてもよい。
任意の楽曲を再生中、制御部10は表示部30に曲名等の文字情報や楽曲に対応する画像等を表示する。制御部10は、任意の楽曲を再生中に、右タッチセンサー43および左タッチセンサー44の少なくともいずれか一方に対する接触が検出され、かつ、加速度センサー41が予め決められた閾値以上の矢印Bに示す方向の加速度を検出した場合に、図3に示す動作が行われたと判断し、再生中の楽曲を停止し、次の曲の再生を開始する。次の楽曲の再生開始に伴って制御部10は当該次の楽曲に対応する文字情報や画像を表示部30に表示する。次に再生が開始される曲は再生モード等に応じて異なりうる。例えば再生モードが通常再生モードであれば、再生リストで決められた順番にしたがって次の楽曲の再生が開始される。また例えば再生モードがシャッフル再生モードであれば、次の楽曲として再生リストに含まれる楽曲がランダムで選ばれ、選ばれた楽曲の再生が開始される。なお、上述の閾値は、上述の動作がなされた場合のブリッジ部分における加速度を製品開発時に測定し実測値に基づいて決定されてもよいし、ユーザーがカスタマイズできてもよい。
このように、コントローラー100の操作部12に対して操作を行わなくても、図3に示す簡易な動作を行うことによってユーザーは容易に再生中のコンテンツの切り換え指示をスマートグラス1に対して入力することができる。また、装着体200の頭部に対する位置を変化させる動作と、再生中のコンテンツの切り換えとを結びつけることで、ユーザーの感覚に合致した直観的に操作しやすいスマートグラスを実現できる。
次に、装着体200の頭部に対する位置を変化させる上述とは別の動作が行われた場合の制御部10の制御内容について説明する。図4は、装着体200を装着したユーザーの頭部を正面側から見た図であって、ユーザーがブリッジ部分に設けられた中央タッチセンサー42に触れた状態で装着体200を押し上げる動作を行っている様子を示している。なお、図4において接続部70や左右のイヤホン81,82やコントローラー100は図示を省略されている。制御部10は中央タッチセンサー42に対する接触を検出すると、当該動作がなされるまで行われていた処理を一時中断して、AR機能のキャリブレーション処理を開始する。当該キャリブレーション処理が行われる場合、キャリブレーション用画像が表示部30に表示されることになるため、動作がなされる前と後とでは表示部30の表示内容が変化する。
なお、AR機能のためのキャリブレーション処理では、眼間距離に応じた表示位置調整処理やARオブジェクトと実物体との位置合わせ処理等が行われる。図4に示す動作に応じてこの両方の処理が行われてもよいし、どちらか一方の処理だけ行われてもよい。
眼間距離に応じた表示位置調整処理ではまず、制御部10が右LCD214と左LCD224に同一のキャリブレーション用画像を表示させる。ユーザーは左右の目を介してキャリブレーション用画像を視認することができる。ユーザーは、二つのキャリブレーション用画像が一致して視認できるように、表示された二つのキャリブレーション用画像の少なくとも一方が他方に対して相対移動するように操作部12のタッチパッド124や方向キー126を介して指示を与える。二つのキャリブレーション用画像を一致して視認できたタイミングで、ユーザーは操作部12の決定キー121等を介して通知する。制御部10はその通知に応じて当該タイミングでの二つのキャリブレーション用画像のLCDに対する位置に基づき、画像のLCD上での表示位置を調整する。
ARオブジェクトと実物体との位置合わせ処理ではまず、制御部10が表示駆動部20を制御して表示部30にキャリブレーション用画像を表示させる。当該表示と合わせて制御部10は、キャリブレーション用画像に対応した参照実物体を、外景撮像カメラ61を介して認識し、追跡する。この状態でユーザーが操作部12を介してキャリブレーション用画像の位置を表示部30上で移動させる。そして、キャリブレーション用画像と参照実物体とが重なる(位置、大きさ、向きの少なくとも一つがほぼ一致する)ようにユーザーが知覚したタイミングで操作部12を介して制御部10に通知する。制御部10はその通知に応じて当該タイミングでの参照実物体の撮像画像における位置とキャリブレーション用画像の表示部30上での位置とに対応したパラメーターを取得する。そしてAR表示時においては、当該パラメーターに基づきARオブジェクトの表示位置が調整される。なお、ARオブジェクトと実物体との位置合わせ処理は、眼間距離に応じた表示位置の調整処理が終了した状態で行われることが望ましい。
ユーザーがARのキャリブレーションを行いたい場合、ユーザーが装着体200の装着具合が快適になるように頭部に対する位置を調整してからキャリブレーションを開始することが考えられる。本実施形態の場合、この位置調整の動作と、キャリブレーション処理の開始とが対応付けられていることにより、ユーザーは直感的で簡易な方法でキャリブレーションの開始指示の入力することができる。ここで、装着具合に快適さをもたらす位置関係の範囲には若干の幅があり得るから、頭部に対する位置を調整したとしても、前回のキャリブレーションを行ったときの位置関係が完全に再現されないことがあり得る。また、ユーザーが装着具合の快適さを感じる頭部とヘッドマウントディスプレイとの間の位置関係は、ユーザーの姿勢、見る対象が手元にあるか遠方にあるか、などによって変わり得る。本実施形態では、これらの観点からも、ユーザーがその頭部に対する装着体200の位置を変えた場合に、キャリブレーションが開始される。
なお、装着体200の頭部に対する位置が変化するような動作は、図3や図4に示した動作以外にも様々な態様が考えられる。再生中のコンテンツを切り換えたくない場合や、キャリブレーション処理を開始させたくない場合であって、装着具合が快適となるように装着体200の頭部に対する位置を調整したい場合は、図3や図4に示した動作とは別の動作を行うようにすればよい。そうすることによって、意図せずコンテンツが切り換えられることや、キャリブレーション処理が開始されること等の煩わしい状況を回避できる。
また、装着体200の装着具合を修正する等のために装着体200のいずれかの部分を触って頭部に対する位置を変化させることは通常よく行われることであり、上述したような動作は奇異でない。したがって、ユーザーは周囲の違和感を与えることなく上述の動作を行ってスマートグラス1に対する所望の指示を入力することができる。
2.他の実施形態:
尚、本発明の技術的範囲は、上述した実施例に限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。例えば、上記実施形態で説明した特定の動作と所定処理との対応づけは一例であって、他にも様々な実施形態が考えられる。例えば上記実施形態では、ブリッジ部分を押し上げる動作が行われた場合にARのキャリブレーション処理が行われることを説明したが、当該動作が行われた場合に制御部10は表示部30の表示内容をホーム画面の表示に切り換えるようにしてもよい。例えば、中央タッチセンサー42に対する接触が検出される前は起動中のアプリケーションの画面が表示されていた場合、制御部10は接触検出後には当該アプリケーションの画面からホーム画面の表示に切り換えるようにしてもよい。この結果、コントローラー100の操作部12を操作しなくてもユーザーは簡易な方法でホーム画面への表示の切り換えを行うことができる。
さらに、上記実施形態では、保持部(テンプル)に設けられたタッチセンサーが指などの接触を検出し、かつ、ブリッジに設けられた加速度センサーが加速度を検出した場合に、制御部10が再生中のコンテンツを切り換える等の所定処理を実行する態様を説明したが、保持部に設けられたタッチセンサーが指などの接触を検出した場合に、加速度センサーの出力に関わらず所定処理を実行する態様であってもよい。また、上記実施形態では、中央タッチセンサー42に対する接触を検出した場合にARのキャリブレーション処理開始等の所定処理を実行する態様を説明したが、中央タッチセンサー42に対する接触を検出したことに加えて、加速度センサー41による上向き(ユーザーの顎から頭頂部に向かう向き)の加速度を検出した場合に所定処理を実行してもよい。
さらに、上記実施形態ではブリッジ部分の眉間側とは反対側に設けられた中央タッチセンサー42への接触を検出した場合に、所定処理を実行する態様を説明したが、ブリッジ部分に設けられるタッチセンサーは例えば鼻と接触するノーズパッドに相当する部分に設けられてもよい。その場合、ノーズパッドに相当する部分に設けられたタッチセンサーが、当該タッチセンサーが鼻から離れたことを検出した場合に、制御部10はブリッジを押し上げる動作が行われたと判定し、所定処理を実行してもよい。
さらに、タッチセンサーやモーションセンサーが設けられる位置は、眼鏡の掛け心地を調整するために一般的に行われる動作を参考にすると、他にも様々な態様が考えられる。例えば、タッチセンサーは、保持部(テンプル)において耳との接触部分よりも枠部33側に設けられてもよい。この場合、モーションセンサーとタッチセンサーの出力に基づいて、制御部10はユーザーが保持部の耳より枠部33側を触りながら装着体200の位置を調整する動作を検出することができる。また、タッチセンサーは、枠部33において右光学像表示部31または左光学像表示部32の上側または下側に位置する部分に設けられてもよい。この場合、モーションセンサーとタッチセンサーの出力に基づいて、例えばユーザーが枠部33における右光学像表示部31の下側の部分を人差し指で押し上げる動作をしたことを制御部10は検出することができる。また例えば、モーションセンサーとタッチセンサーの出力に基づいて制御部10は、枠部33における右光学像表示部31の上側の部分と下側の部分とを人差し指と親指とで挟んで上に持ち上げつつ頭部側に押す等の動作を検出することができる。なお、モーションセンサーは、ブリッジ部分に限らず、例えば枠部33の左右いずれかの端であってもよいし、保持部に設けられてもよい。また、モーションセンサーとしては加速度センサー以外にもジャイロセンサーや地磁気センサーが採用されてもよい。
また、上記実施形態では、HMDの一例として眼鏡型のHMDを挙げたが、本発明は眼鏡型以外のHMDにももちろん適用することができる。
1…スマートグラス、10…制御部、11…電源、12…操作部、13…通信I/F部、20…表示駆動部、21…右表示駆動部、22…左表示駆動部、30…表示部、31…右光学像表示部、32…左光学像表示部、33…枠部、40…センサー群、41…加速度センサー、42…中央タッチセンサー、43…右タッチセンサー、44…左タッチセンサー、50…保持部、51…右保持部、52…左保持部、61…外景撮像カメラ、70…接続部、72…右コード、74…左コード、76…連結部材、78…本体コード、80…イヤホンプラグ、81…右イヤホン、82…左イヤホン、100…コントローラー、121…決定キー、124…タッチパッド、126…方向キー、128…電源スイッチ、200…装着体、211…右BL制御部、212…右BL、213…右LCD制御部、214…右LCD、215…右投写光学系、221…左BL制御部、222…左BL、223…左LCD制御部、224…左LCD、225…左投写光学系、310…右導光板、320…左導光板

Claims (9)

  1. ユーザーの頭部に対する位置の変化を検出するセンサーと、
    前記位置の変化が検出されると、所定処理を実行する制御部と、
    を備えるヘッドマウントディスプレイ。
  2. 前記ヘッドマウントディスプレイは眼鏡形状を有しており、
    前記センサーは、ブリッジに設けられたタッチセンサーを含む、
    請求項1に記載のヘッドマウントディスプレイ。
  3. 前記ヘッドマウントディスプレイは眼鏡形状を有しており、
    前記センサーは、テンプルに設けられたタッチセンサーを含む、
    請求項1に記載のヘッドマウントディスプレイ。
  4. 前記センサーはタッチセンサーとモーションセンサーとを含み、
    前記制御部は、前記タッチセンサーが接触を検出した場合であって前記モーションセンサーが動きを検出した場合に、前記所定処理を実行する、
    請求項1に記載のヘッドマウントディスプレイ。
  5. 前記制御部は、前記位置の変化を検出すると、再生中のコンテンツを切り換える、
    請求項1〜請求項4のいずれかに記載のヘッドマウントディスプレイ。
  6. 前記制御部は、前記位置の変化を検出すると、拡張現実機能のキャリブレーション処理を開始する、
    請求項1〜請求項4のいずれかに記載のヘッドマウントディスプレイ。
  7. 眼前に画像を表示する表示部をさらに備え、
    前記制御部は、前記位置の変化を検出すると、前記表示部にホーム画面を示す画像を表示させる、
    請求項1〜請求項4のいずれかに記載のヘッドマウントディスプレイ。
  8. ユーザーの頭部に対する位置の変化を検出するセンサーと、
    制御部と、を備えるヘッドマウントディスプレイにおいて、
    前記制御部が、前記位置の変化が検出されると、所定処理を実行することを含む制御方法。
  9. ユーザーの頭部に対する位置の変化を検出するセンサーと、
    制御部と、を備えるヘッドマウントディスプレイにおいて、
    前記位置の変化が検出されると、所定処理を実行する機能を前記制御部に実現させる制御プログラム。
JP2015023895A 2015-01-26 2015-02-10 ヘッドマウントディスプレイ、およびその制御方法と制御プログラム Withdrawn JP2016149587A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015023895A JP2016149587A (ja) 2015-02-10 2015-02-10 ヘッドマウントディスプレイ、およびその制御方法と制御プログラム
US15/000,548 US20160216792A1 (en) 2015-01-26 2016-01-19 Head mounted display, and control method and control program for head mounted display

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015023895A JP2016149587A (ja) 2015-02-10 2015-02-10 ヘッドマウントディスプレイ、およびその制御方法と制御プログラム

Publications (1)

Publication Number Publication Date
JP2016149587A true JP2016149587A (ja) 2016-08-18

Family

ID=56688031

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015023895A Withdrawn JP2016149587A (ja) 2015-01-26 2015-02-10 ヘッドマウントディスプレイ、およびその制御方法と制御プログラム

Country Status (1)

Country Link
JP (1) JP2016149587A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018079301A1 (ja) * 2016-10-25 2018-05-03 ソニー株式会社 情報処理装置、方法及びプログラム
JP2018078448A (ja) * 2016-11-09 2018-05-17 セイコーエプソン株式会社 プログラム、頭部装着型表示装置
US10778893B2 (en) 2017-12-22 2020-09-15 Seiko Epson Corporation Detection device, display device and detection method
US10852548B2 (en) 2018-08-27 2020-12-01 Dynabook Inc. Electronic device, wearable device, and setting method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH095666A (ja) * 1995-06-15 1997-01-10 Olympus Optical Co Ltd 頭部装着型映像表示装置
JP2006135884A (ja) * 2004-11-09 2006-05-25 Konica Minolta Photo Imaging Inc 映像表示装置
JP2013232744A (ja) * 2012-04-27 2013-11-14 Bi2−Vision株式会社 ディスプレイシステム、ディスプレイ調整システム、ディスプレイ調整方法、およびプログラム
JP2014110474A (ja) * 2012-11-30 2014-06-12 Olympus Corp 頭部装着型装置
JP2014137522A (ja) * 2013-01-18 2014-07-28 Olympus Corp 眼鏡型操作デバイス、眼鏡型操作システム及び電子機器

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH095666A (ja) * 1995-06-15 1997-01-10 Olympus Optical Co Ltd 頭部装着型映像表示装置
JP2006135884A (ja) * 2004-11-09 2006-05-25 Konica Minolta Photo Imaging Inc 映像表示装置
JP2013232744A (ja) * 2012-04-27 2013-11-14 Bi2−Vision株式会社 ディスプレイシステム、ディスプレイ調整システム、ディスプレイ調整方法、およびプログラム
JP2014110474A (ja) * 2012-11-30 2014-06-12 Olympus Corp 頭部装着型装置
JP2014137522A (ja) * 2013-01-18 2014-07-28 Olympus Corp 眼鏡型操作デバイス、眼鏡型操作システム及び電子機器

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
楡木崇史、太田高志: "AR技術を用いた体感型の魚観察コンテンツ", 第73回(平成23年)全国大会講演論文集(4) インタフェース コンピュータと人間社会, vol. 2011巻1号, JPN6018039500, 2 March 2011 (2011-03-02), JP, pages 291 - 292, ISSN: 0003894370 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018079301A1 (ja) * 2016-10-25 2018-05-03 ソニー株式会社 情報処理装置、方法及びプログラム
JPWO2018079301A1 (ja) * 2016-10-25 2019-09-12 ソニー株式会社 情報処理装置、方法及びプログラム
US10712831B2 (en) 2016-10-25 2020-07-14 Sony Corporation Information processing apparatus, method, and program
JP7135859B2 (ja) 2016-10-25 2022-09-13 ソニーグループ株式会社 情報処理装置、方法及びプログラム
JP2018078448A (ja) * 2016-11-09 2018-05-17 セイコーエプソン株式会社 プログラム、頭部装着型表示装置
US10778893B2 (en) 2017-12-22 2020-09-15 Seiko Epson Corporation Detection device, display device and detection method
US10852548B2 (en) 2018-08-27 2020-12-01 Dynabook Inc. Electronic device, wearable device, and setting method

Similar Documents

Publication Publication Date Title
US20160216792A1 (en) Head mounted display, and control method and control program for head mounted display
US9804682B2 (en) Systems and methods for performing multi-touch operations on a head-mountable device
US10133407B2 (en) Display apparatus, display system, method for controlling display apparatus, and program
US10635182B2 (en) Head mounted display device and control method for head mounted display device
JP6337418B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP6089705B2 (ja) 表示装置、および、表示装置の制御方法
JP6277673B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
US20160165220A1 (en) Display apparatus and method of controlling display apparatus
JP6318596B2 (ja) 情報処理装置および情報処理装置の制御方法
JP2018142857A (ja) 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
JP6094305B2 (ja) 頭部装着型表示装置、および、頭部装着型表示装置の制御方法
US20190227642A1 (en) Head-mounted display apparatus and method of controlling head-mounted display apparatus
US20170090557A1 (en) Systems and Devices for Implementing a Side-Mounted Optical Sensor
KR102579034B1 (ko) 영상 출력 모듈의 아래에 영상이 출력되는 방향에 대해 지정된 각도로 배치된 반 투명 부재를 포함하는 전자 장치
JP6303274B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP2016149587A (ja) ヘッドマウントディスプレイ、およびその制御方法と制御プログラム
KR20210156613A (ko) 증강 현실 글라스 및 그 동작 방법
KR20200112837A (ko) 정보 처리 장치, 정보 처리 방법 및 프로그램
JP2017182228A (ja) 入力装置、入力方法、コンピュータープログラム
US11693477B2 (en) Lens clip for receiving user lens and head mounted electronic device for detecting whether user lens is inserted into lens clip
JP6638392B2 (ja) 表示装置、表示システム、表示装置の制御方法、及び、プログラム
JP6740613B2 (ja) 表示装置、表示装置の制御方法、及び、プログラム
JP2018042004A (ja) 表示装置、頭部装着型表示装置、及び、表示装置の制御方法
JP2016139174A (ja) ヘッドマウントディスプレイ、ヘッドマウントディスプレイの制御方法および制御プログラム
US20180260068A1 (en) Input device, input control method, and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180116

RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20180905

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181009

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181107

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20181210