JP2016126588A - 表示システム、プログラム、サーバー装置、及び、表示装置の制御方法 - Google Patents

表示システム、プログラム、サーバー装置、及び、表示装置の制御方法 Download PDF

Info

Publication number
JP2016126588A
JP2016126588A JP2015000749A JP2015000749A JP2016126588A JP 2016126588 A JP2016126588 A JP 2016126588A JP 2015000749 A JP2015000749 A JP 2015000749A JP 2015000749 A JP2015000749 A JP 2015000749A JP 2016126588 A JP2016126588 A JP 2016126588A
Authority
JP
Japan
Prior art keywords
display
unit
display device
head
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015000749A
Other languages
English (en)
Other versions
JP6459516B2 (ja
Inventor
小林 伸一
Shinichi Kobayashi
伸一 小林
高野 正秀
Masahide Takano
正秀 高野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2015000749A priority Critical patent/JP6459516B2/ja
Priority to US14/976,761 priority patent/US20160196693A1/en
Priority to CN201511030028.0A priority patent/CN105759422B/zh
Priority to EP16150303.2A priority patent/EP3043237A1/en
Publication of JP2016126588A publication Critical patent/JP2016126588A/ja
Application granted granted Critical
Publication of JP6459516B2 publication Critical patent/JP6459516B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

【課題】使用者の頭部に装着される表示装置を、より直感的な入力操作により制御できる表示システム、及び、表示装置の制御方法を提供する。
【解決手段】頭部装着型表示装置100は、使用者の頭部に装着される表示部を有する頭部装着型表示装置100と、表示部とは別体として構成される操作デバイス3とを備える。操作デバイス3は、使用者の操作を受け付ける操作部を備える。頭部装着型表示装置100は、画像表示部20の表示を制御する制御部を備え、制御部は、操作デバイス3の操作に基づき、画像表示部20で表示する画面を遷移させる処理を含む表示制御を行う。
【選択図】図1

Description

本発明は、表示装置を備える表示システム、プログラム、サーバー装置、及び、表示装置の制御方法に関する。
従来、使用者が頭部に装着して使用するヘッドマウントディスプレイ(Head Mounted Display:HMD)等の表示装置に対する入力操作の方法として、手指に装置を装着し、この装置により手指の動きを検出する方法が提案された(例えば、特許文献1、2参照)。特許文献1には、指に装着される装置を利用してテキスト入力を行う構成が開示されている。また、特許文献2には、HMDと指に装着される発光体とを用いて、マウスと同等の操作を行う構成が開示されている。
特開2000−284886号公報 特開2000−29619号公報
HMDにおいてテキスト入力やマウスと同等の入力操作を行う場合、誤入力があると、使用者の意図に反した結果を招く。このため、使用者は、入力される文字、或いは、指示位置を示すカーソルを注視して、正確で誤りの無いように操作を行う。このため、使用者には、表示装置の表示に注視して慎重に操作することが求められ、より直感的な操作でHMDを制御できる方法が望まれていた。
本発明は上記事情に鑑みてなされたものであり、使用者の頭部に装着される表示装置を、より直感的な入力操作により制御できる表示システム、及び、表示装置の制御方法を提供することを目的とする。
上記目的を達成するために、本発明の表示システムは、使用者の頭部に装着される表示部を有する表示装置と、前記表示部とは別体として構成される操作デバイスとを備え、前記操作デバイスは、前記使用者の操作を受け付ける操作部を備え、前記表示装置は、前記表示部の表示を制御する制御部を備え、前記制御部は、前記操作デバイスの操作に基づき、前記表示部により表示する画面を遷移させる処理を含む表示制御を行うこと、を特徴とする。
本発明によれば、使用者の頭部に装着される表示装置に対し、表示装置とは別体の操作デバイスを操作し、画面を遷移させるので、より直感的な入力操作により表示装置を制御できる。
本発明は、上記表示システムにおいて、前記操作デバイスは、前記操作部が受け付けた操作を示すデータを前記表示装置に送信する通信部を備え、前記表示装置の前記制御部は、前記操作デバイスから送信されるデータに基づき、前記操作デバイスの操作を検出すること、を特徴とする。
本発明によれば、操作デバイスにおける操作を、表示装置において確実に検出できる。また、操作の検出に係る表示装置の負荷を軽減できる。
本発明は、上記表示システムにおいて、前記操作デバイスは、前記使用者の身体に装着される装着部を有すること、を特徴とする。
本発明によれば、使用者の身体に装着される操作デバイスを用いて、より直感的な入力操作を行い、表示装置を制御できる。
本発明は、上記表示システムにおいて、前記操作デバイスが有する前記操作部は、回転を伴う操作を検出し、前記表示装置の前記制御部は、前記操作デバイスから回転を伴う操作を示すデータが送信された場合に、前記操作の回転方向に対応して、前記表示部により表示する画面を遷移させること、を特徴とする。
本発明によれば、回転を伴う操作により、回転方向に対応して表示される画面が遷移するので、より直感的な操作を実現できる。また、操作の方向と画面の遷移の方向とが対応するため、例えば手探りの操作を行うことが可能となる。
本発明は、上記表示システムにおいて、前記表示装置の前記制御部は、前記操作デバイスから送信されるデータに基づき、前記表示部により表示する画像の拡大、縮小或いは回転のいずれかを含む表示制御を行うこと、を特徴とする。
本発明によれば、直感的な操作により表示装置が表示する画像の表示制御が可能となる。
本発明は、上記表示システムにおいて、前記表示装置の前記制御部は、前記操作デバイスと前記表示装置との相対位置を求め、求めた相対位置に基づき前記表示部の表示を制御すること、を特徴とする。
本発明によれば、操作デバイスと表示装置との相対位置に対応して表示を制御できる。
本発明は、上記表示システムにおいて、前記表示装置は撮像部を備え、前記制御部は、前記撮像部の撮像画像に基づいて、前記操作デバイスと前記表示装置との相対位置を求めること、を特徴とする。
本発明によれば、操作デバイスと表示装置との相対位置を速やかに求めることができる。
本発明は、上記表示システムにおいて、前記操作デバイスが有する前記操作部は、前記操作デバイスの動きを操作として検出すること、を特徴とする。
本発明によれば、操作デバイスを動かすことで表示装置に対する操作を行える。
本発明は、上記表示システムにおいて、前記表示部は、外景を透過して前記使用者に視認させる透過型の表示部であること、を特徴とする。
本発明によれば、使用者が外景を見ながら操作デバイスを操作して、表示装置の表示を制御できる。表示装置のみを注視せず、直感的に操作できるため、外景を見ながら表示装置を使用する場合に好適である。
本発明は、上記表示システムにおいて、前記表示装置は、前記操作デバイスに出力用のデータを送信し、前記操作デバイスは、前記表示装置が送信する出力用のデータを前記通信部で受信し、受信した出力用のデータを出力すること、を特徴とする。
本発明によれば、操作デバイスを、データを出力する装置として利用できる。
本発明は、上記表示システムにおいて、前記操作デバイスは撮像部を備え、前記撮像部の撮像画像を含むデータを前記通信部により前記表示装置に送信すること、を特徴とする。
本発明によれば、表示装置とは別体の操作デバイスで撮像を行い、撮像画像を表示装置で表示できる。
本発明は、上記表示システムにおいて、前記表示装置の前記制御部は、前記操作デバイスから撮像画像を含むデータを受信し、受信したデータに基づいて、前記操作デバイスと前記表示装置との相対位置を求めること、を特徴とする。
本発明によれば、操作デバイスと表示装置との相対位置を速やかに求めることができる。
また、上記目的を達成するために、本発明は、使用者の頭部に装着される表示部を有する表示装置を制御するコンピューターが実行可能なプログラムであって、前記表示部とは別体として構成される操作デバイスが前記使用者の操作を受け付けた場合に、前記操作デバイスの操作に基づき、前記表示部により表示する画面を遷移させる処理を含む表示制御を行うこと、を特徴とする。
本発明によれば、使用者の頭部に装着される表示装置に対し、表示装置とは別体の操作デバイスを操作し、画面を遷移させるので、より直感的な入力操作により表示装置を制御できる。
また、上記目的を達成するために、本発明のサーバー装置は、通信回線に接続され、上記のプログラムを前記通信回線により送信すること、を特徴とする。
本発明によれば、使用者の頭部に装着される表示装置に対し、表示装置とは別体の操作デバイスを操作し、画面を遷移させるので、より直感的な入力操作により表示装置を制御できる。
また、上記目的を達成するために、本発明の表示装置の制御方法は、使用者の頭部に装着される表示部を有する表示装置を、前記表示部とは別体として構成される操作デバイスを用いて制御する制御方法において、前記操作デバイスにより前記使用者の操作を受け付け、受け付けた操作を示すデータを前記表示部に送信し、前記表示装置により、前記操作デバイスから送信されるデータに基づき、前記表示部により表示する画面を他の画面に遷移させる処理を含む表示制御を行うこと、を特徴とする。
本発明によれば、使用者の頭部に装着される表示装置に対し、表示装置とは別体の操作デバイスを操作し、画面を遷移させるので、より直感的な入力操作により表示装置を制御できる。
本発明は、頭部装着型表示装置以外の種々の形態で実現することも可能である。例えば、頭部装着型表示装置の制御方法、頭部装着型表示装置を有する情報システム、頭部装着型表示装置の制御方法および前記情報システムを実現するためのコンピュータープログラム、そのコンピュータープログラムを記録した記録媒体、および、コンピュータープログラムを配信するためのサーバー装置、そのコンピュータープログラムを含み搬送波内に具現化されたデータ信号等の形態で実現できる。
実施形態に係る表示システムの概略構成を示す説明図。 操作デバイスの構成を示す説明図。 操作デバイスの機能ブロック図。 頭部装着型表示装置の機能ブロック図。 操作デバイスの動作を示すフローチャート。 頭部装着型表示装置の動作を示すフローチャート。 頭部装着型表示装置の動作を示すフローチャート。 設定用のAR表示の例を示す説明図。 操作デバイスの操作に応じて実行される処理の例を示す図。 操作デバイスの操作に応じて実行される処理の別の例を示す図。 頭部装着型表示装置の動作の別の例を示すフローチャート。
[システム構成]
図1は、本発明を適用した実施形態に係る表示システム1の概略構成を示す図である。
表示システム1は、使用者の身体に装着される頭部装着型表示装置(HMD)100、及び、操作デバイス3を備える。
頭部装着型表示装置100は、図1に示すように、使用者の頭部に装着される画像表示部20を有する。頭部装着型表示装置100は、使用者の頭部に装着された状態で使用者に虚像を視認させる画像表示部20(表示部)と、画像表示部20を制御する制御装置10と、を備えている。画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状のフレーム2(本体)を有する。また、制御装置10は、使用者が頭部装着型表示装置100を操作するコントローラーとしても機能する。制御装置10は、使用者の衣服のポケットに収容され、或いは、使用者の腰のベルトに取り付けられる。
また、操作デバイス3は、使用者の身体に装着可能な、いわゆるウェアラブルデバイスであり、本実施形態では使用者の腕に装着される腕時計状の形状とする。
[操作デバイスの構成]
図2は、操作デバイス3の構成を示す説明図であり、図2(A)は操作デバイス3の要部正面図であり、(B)及び(C)はLCD303の表示例を示す図である。また、図3は操作デバイス3の機能ブロック図である。これら図1〜図3を参照して操作デバイス3の構成を説明する。
操作デバイス3は、腕時計のバンドと同様の形状であるバンド部300を有する。バンド部300は、図示しないバックル等の固定部を有し、例えば使用者の前腕部に巻き付けて固定できる。操作デバイス3のバンド部300には、時計の文字盤に相当する位置に、略円盤状の平面部300Aが形成される。平面部300Aには、ベゼル301、LCD303、ボタン305、リュウズ型操作子307、複数のボタン309、及び光学部310が設けられる。
ベゼル301は、リング形状の操作子であり、平面部300Aの周縁部に配置される。ベゼル301は、バンド部300に対して円周方向に回転可能に設けられる。操作デバイス3は、後述するように、ベゼル301の回転方向、及び回転量を検出する機構を備える。また、ベゼル301を回転可能にバンド部300に指示する機構は、回転に応じてさせる際にノッチ音を発生する記憶を備えてもよい。
LCD303は、文字や画像を表示するLCD(Liquid Crystal Display:液晶ディスプレイ)である。LCD303の表面には図3に示すタッチパネル304が重畳して配置される。
ボタン305は、ベゼル301の外側に配置される押しボタン式スイッチである。ボタン305は、例えば図1、図2(A)に示すように、装着状態において、使用者から見てベゼル301の下方に位置する。ボタン305は、後述するリュウズ型操作子307やボタン309に比べて大型であり、手探りでも操作が可能である。
リュウズ型操作子307は、腕時計の竜頭を模した形状の操作子であり、図中矢印で示すように回転させることが可能である。操作デバイス3は、使用者がリュウズ型操作子307を回転させた場合に、リュウズ型操作子307の回転方向、及び回転量を検出する機構を備える。また、リュウズ型操作子307を回転可能にバンド部300に指示する機構は、回転に応じてさせる際にノッチ音を発生する記憶を備えてもよい。
ボタン309は、平面部300Aの外周部に設けられた押しボタン式のスイッチである。ボタン309の数について特に制限はなく、本実施形態では4つのボタン309を設けた例を示す。
ボタン309には異なる機能を割り当てることが可能であり、各々のボタン309に割り当てられた機能を、LCD303に表示できる。
図2(B)は、LCD303に、ボタン309の機能を表示する例を示す。この例では、4つのボタン309に割り当てられた機能をそれぞれ示す機能表示331、332、333、334がLCD303に表示される。機能表示331、332、333、334の表示位置は、機能表示の対象のボタン309の位置に対応する。例えばLCD303の右上部に表示された機能表示331は、平面部300Aの右上に位置するボタン309に割り当てられた機能を示す。
さらに、LCD303には、ベゼル301を回転させることで選択可能な機能を表示できる。図2(C)は、LCD303にベゼル301の操作に割り当てられた機能を表示する例を示す。この例では、ベゼル301を回転させることで選択可能な4つの機能をそれぞれ示す機能表示341、342、343、344がLCD303に表示される。機能表示341、342、343、344の表示位置は、ベゼル301の回転位置に対応する。すなわち、ベゼル301を回転させると、機能表示341、342、343、及び344が、順に切り替えて選択される。例えば、ベゼル301を時計回り(CW)に回転させると、機能表示341、342、343、及び344が、順に切り替えて選択される。
また、機能表示345はボタン305に割り当てられた機能を示し、図2(C)の例では「決定」機能である。ベゼル301の回転により、機能表示341、342、343、及び344のいずれかが選択された状態で、ボタン305が操作されると、機能表示341、342、343、及び344の選択が決定される。そして、ベゼル301の回転で選択された機能が実行される。
ボタン309に割り当てられる機能、及び、ベゼル301の回転により選択される機能は、一通りに限定されず、より多数の機能を切り替えて割り当てることが可能である。この場合、操作デバイス3において、機能を切り替えることが可能な構成とすることができる。この場合、機能の切り替えに伴って、LCD303の機能表示331、332、333、334、或いは機能表示341、342、343、344が切り替わる構成としてもよい。
光学部310は、2つのカメラ311(撮像部)、及び、LED313を備える。カメラ311は、CCDやCMOS等の撮像素子及び撮像レンズ等を備えるデジタルカメラである。操作デバイス3が有する2つのカメラ311の撮像範囲は、それぞれ異なる範囲であってもよいし、同一の範囲であってもよい。本実施形態では、2つのカメラ311で、操作デバイス3を装着た利用者の両眼を撮像し、撮像画像に基づき使用者の目線を検出可能である。従って、2つのカメラ311の一方は、平面部300Aを正面視する使用者の右眼を撮像し、他方は左眼を撮像できる構成である。
LED(Light Emitting Diode)313は、赤外光を発する赤外LEDである。LED313は、カメラ311で撮像をする場合の照明として利用される。また、操作デバイス3は、LED313を点灯あるいは点滅させることで、光信号を送信できる。
図3には操作デバイス3の制御系の構成を示す。
操作デバイス3は、操作デバイス3の各部を制御する制御部350を備える。制御部350は、図示しないCPU、ROM、RAM等を備え、ROMに記憶したプログラムを実行することにより、操作デバイス3の機能を実現する。
制御部350には、通信用の機能部として、無線通信部361(通信部)及びNFC(Near Field Communication)部362を備える。無線通信部361は、無線LAN(WiFi(登録商標))、Miracast(登録商標)、Bluetooth(登録商標)等の規格に準じた無線データ通信を実行する。NFC部362は、NFC規格に準拠した近距離無線通信を実行する。
制御部350には、LCD303、タッチパネル304、2つのカメラ311、及びLED313が接続される。制御部350は、LCD303を制御して画像や文字を表示させる。また、タッチパネル304は、LCD303の表面に重畳して配置され、LCD303の表面における接触操作を検出する。タッチパネル304は、例えば、静電容量式または感圧式のセンサーを用いることができる。制御部350は、タッチパネル304により接触操作を検出し、操作位置を特定する。タッチパネル304は、1点の接触操作を検出してもよいし、複数の点における操作を同時に検出可能な、いわゆるマルチタッチ操作に対応してもよい。
制御部350は、2つのカメラ311をそれぞれ制御して、撮像を実行させて撮像画像データを生成する。また、制御部350は、LED313に流れる電流をON/OFFして、LED313を任意のタイミングで点灯、或いは点滅させる。
制御部350には、マイク365、ボタン操作部366、回転検出部367、9軸センサー368、バイブレーター369、及び、スピーカー370が接続される。マイク365は、例えばモノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであってもよいし、無指向性のマイクであってもよい。マイク365が指向性を有する場合、マイク365は、例えば平面部300A(図2)またはその近傍で、平面部300Aの正面方向の音を集音する。また、マイク365は、使用者の身体に接触する骨伝導型のマイクであってもよい。制御部350は、マイク365が集音した音声のアナログ音声信号を取得してディジタル音声データを生成する。
ボタン操作部366は、ボタン305、及び、ボタン309の操作を検出し、操作されたボタンに対応する操作信号を制御部350に出力する。回転検出部367は、ベゼル301の回転、及び、リュウズ型操作子307の回転を検出する。回転検出部367は、ベゼル301の回転方向と回転量を示す信号を制御部350に出力し、リュウズ型操作子307についても同様に回転方向と回転量を示す信号を制御部350に出力する。ここで、回転検出部367は、ベゼル301が所定量回転する毎に、回転方向を示す信号を出力してもよい。この場合、回転検出部367の出力信号を制御部350がカウントすることで、制御部350が回転量を取得でき、回転検出部367が回転量を積算する必要がない。リュウズ型操作子307の回転操作についても同様に、リュウズ型操作子307が所定量回転する毎に、回転検出部367が回転方向を示す信号を出力してもよい。
9軸センサー368は、慣性センサーを備えたユニットであり、本実施形態では、3軸の加速度センサー、3軸の角速度センサー、及び、3軸の磁気センサーを具備する。9軸センサー368が検出を行う軸は、例えば、平面部300Aを含む平面内における上下方向、左右方向、及び平面部300Aを含む平面に直交する方向に沿って設定できる。
バイブレーター369は、制御部350の制御に従って回転するモーター(図示略)を備える。このモーターの回転軸には錘が偏心して取り付けられ、モーターの回転に伴い操作デバイス3を振動させる。スピーカー370は、制御部350が出力する音声信号に基づき音声を出力する。
制御部350を含む操作デバイス3の各部には、一次電池または二次電池を有する電源部360から電源が供給される。電源部360は、二次電池とともに、二次電池への充電を制御する回路を備えてもよい。
制御部350は、プログラムを実行することにより、操作検出部351、出力制御部352、撮像制御部353、通信制御部354、及び音声処理部355の各部の機能を実現する。
操作検出部351は、ボタン操作部366及び回転検出部367から入力される信号に基づき、操作デバイス3が備える操作子の操作を検出し、操作内容を特定する。具体的には、操作検出部351は、ボタン305、リュウズ型操作子307、及びボタン309の操作を検出する。また、操作検出部351は、9軸センサー368から入力される信号に基づいて、操作デバイス3を振る、動かす等の操作を検出する。さらに、操作検出部351は、タッチパネル304から入力される信号に基づき、LCD303に対する接触操作を検出し、操作位置を特定する。ここで、操作検出部351は、操作位置においてLCD303が表示する画像を特定することにより、操作位置に割り当てられる機能を特定することも可能である。
出力制御部352は、通信制御部354が無線通信部361やNFC部362により受信するデータ、又は、操作検出部351が検出する操作に対応して、出力を実行する。出力制御部352は、LCD303に文字や画像を表示する。また、出力制御部352は、バイブレーター369のモーターを動作させて操作デバイス3を振動させる。
撮像制御部353は、カメラ311を制御して撮像を実行させ、撮像画像データを取得する。
通信制御部354は、無線通信部361またはNFC部362により、外部の機器とデータを送受信する。通信制御部354は、無線通信部361により頭部装着型表示装置100とデータ通信を実行できる。また、通信制御部354は、NFC部362により、近接通信が可能な機器を検出した場合に、この機器とデータを送受信する。また、通信制御部354は、LED313を点滅させて、光信号によりデータを送信できる。この場合、通信制御部354は、カメラ311により光信号を検出して受信する構成としてもよい。
音声処理部355は、マイク365が集音した音声のディジタル音声データを生成して、必要に応じて解析を行う。例えば、音声処理部355は、マイク365が集音した使用者の音声を解析し、操作を指示する音声を検出した場合に、操作検出部351に対して操作の指示を出力してもよい。この場合、使用者は操作デバイス3を音声により操作できる。また、音声処理部355は、スピーカー370に音声信号を出力して音声を出力させる。
制御部350は、操作デバイス3の動作モードとして、時計モードと、UIモードとを含む複数の動作モードを実行でこる。時計モードは、制御部350により現在時刻を計時し、LCD303に現在時刻を表示する動作モードである。時計モードは操作デバイス3を時計として動作させるので、消費電力が小さいという利点がある。UIモードは、操作デバイス3を、頭部装着型表示装置100を操作するユーザーインターフェイス(UI)として機能させる動作モードである。UIモードでは、操作デバイス3に対する操作に基づき、操作デバイス3が頭部装着型表示装置100にデータを送信し、このデータに従って頭部装着型表示装置100が動作する。時計モードからUIモードへの切り替え、及び、UIモードから時計モードへの切り替えは、後述するように、制御部350の制御により行われる。
[頭部装着型表示装置の構成]
頭部装着型表示装置100において、画像表示部20のフレーム2は、右保持部21及び左保持部23を有する。右保持部21は、右光学像表示部26の他端である端部ERから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。同様に、左保持部23は、左光学像表示部28の他端である端部ELから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。右保持部21は使用者の頭部において右耳またはその近傍に当接し、左保持部23は使用者の左耳またはその近傍に当接して、使用者の頭部に画像表示部20を保持する。
フレーム2には、右保持部21と、右表示駆動部22と、左保持部23と、左表示駆動部24と、右光学像表示部26と、左光学像表示部28と、カメラ61(撮像部)と、マイク63とが設けられる。
右光学像表示部26及び左光学像表示部28は、それぞれ、使用者が画像表示部20を装着した際に使用者の右及び左の眼前に位置するように配置されている。右光学像表示部26の一端と左光学像表示部28の一端とは、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置で、互いに連結されている。
右保持部21は、右光学像表示部26の他端である端部ERから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。同様に、左保持部23は、左光学像表示部28の他端である端部ELから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。右保持部21及び左保持部23は、眼鏡のテンプル(つる)のようにして、使用者の頭部に画像表示部20を保持する。
右表示駆動部22と左表示駆動部24とは、使用者が画像表示部20を装着した際の使用者の頭部に対向する側に配置されている。なお、右表示駆動部22及び左表示駆動部24を総称して単に「表示駆動部」とも呼び、右光学像表示部26及び左光学像表示部28を総称して単に「光学像表示部」とも呼ぶ。
表示駆動部22,24は、液晶ディスプレイ241,242(Liquid Crystal Display、以下「LCD241,242」と呼ぶ)、投写光学系251,252等を含む。
右光学像表示部26及び左光学像表示部28は、導光板261,262(図2)と、調光板20Aとを備える。導光板261,262は、光透過性の樹脂等によって形成され、表示駆動部22,24が出力する画像光を、使用者の眼に導く。調光板20Aは、薄板状の光学素子であり、使用者の眼の側とは反対の側である画像表示部20の表側を覆うように配置される。調光板20Aは、光透過性がほぼ無いもの、透明に近いもの、光量を減衰させて光を透過するもの、特定の波長の光を減衰又は反射するもの等、種々のものを用いることができる。調光板20Aの光学特性(光透過率など)を適宜選択することにより、外部から右光学像表示部26及び左光学像表示部28に入射する外光量を調整して、虚像の視認のしやすさを調整できる。本実施形態では、少なくとも、頭部装着型表示装置100を装着した使用者が外の景色を視認できる程度の光透過性を有する調光板20Aを用いる場合について説明する。調光板20Aは、右導光板261及び左導光板262を保護し、右導光板261及び左導光板262の損傷や汚れの付着等を抑制する。
調光板20Aは、右光学像表示部26及び左光学像表示部28に対し着脱可能としてもよく、複数種類の調光板20Aを交換して装着可能としてもよいし、省略してもよい。
そして、頭部装着型表示装置100は、内部で処理する画像の画像光と外光とを重ねて使用者の眼に入射させ、使用者にとっては、調光板20Aを透かして外景が見え、この外景に重ねて、画像光による画像が視認される。このように、頭部装着型表示装置100は、シースルー型の表示装置として機能する。
カメラ61は、右光学像表示部26と左光学像表示部28との境目部分に配置される。使用者が画像表示部20を装着した状態で、カメラ61の位置は、水平方向においては使用者の両眼のほぼ中間であり、鉛直方向においては使用者の両眼より上である。カメラ61は、CCDやCMOS等の撮像素子及び撮像レンズ等を備えるデジタルカメラであり、単眼カメラであってもステレオカメラであってもよい。
カメラ61は、頭部装着型表示装置100の表側方向、換言すれば、頭部装着型表示装置100を装着した状態における使用者の視界方向の少なくとも一部の外景を撮像する。カメラ61の画角の広さは適宜設定可能であるが、カメラ61の撮像範囲が、使用者が右光学像表示部26、左光学像表示部28を通して視認する外界を含む範囲であることが好ましい。さらに、調光板20Aを通した使用者の視界の全体を撮像できるようにカメラ61の撮像範囲が設定されているとより好ましい。
カメラ61は、制御部140(図4)の制御に従って撮像を実行し、撮像画像データを制御部140に出力する。
画像表示部20は、制御装置10に接続部40を介して接続する。接続部40は、制御装置10に接続される本体コード48、右コード42、左コード44、及び、連結部材46を備える。右コード42及び左コード44は、本体コード48が2本に分岐したコードである。右コード42は、右保持部21の延伸方向の先端部APから右保持部21の筐体内に挿入され、右表示駆動部22に接続される。同様に、左コード44は、左保持部23の延伸方向の先端部APから左保持部23の筐体内に挿入され、左表示駆動部24に接続される。
連結部材46は、本体コード48と、右コード42及び左コード44との分岐点に設けられ、イヤホンプラグ30を接続するためのジャックを有する。イヤホンプラグ30からは、右イヤホン32及び左イヤホン34が延伸する。イヤホンプラグ30の近傍にはマイク63が設けられる。イヤホンプラグ30からマイク63までは一本のコードにまとめられ、マイク63からコードが分岐して、右イヤホン32と左イヤホン34のそれぞれに繋がる。
マイク63は、例えば図1に示すように、マイク63の集音部が使用者の視線方向を向くように配置され、音声を集音して、音声信号を音声処理部187(図3)に出力する。マイク63は、例えばモノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであってもよいし、無指向性のマイクであってもよい。
右コード42、左コード44、及び、本体コード48は、デジタルデータを伝送可能なものであればよく、例えば金属ケーブルや光ファイバーで構成できる。また、右コード42と左コード44とを一本のコードにまとめた構成としてもよい。
画像表示部20と制御装置10とは、接続部40を介して各種信号を伝送する。本体コード48の連結部材46とは反対側の端部、及び、制御装置10には、互いに嵌合するコネクター(図示略)が設けられる。本体コード48のコネクターと制御装置10のコネクターとを嵌合し、或いは、この嵌合を外すことで、制御装置10と画像表示部20とを接離できる。
制御装置10は、頭部装着型表示装置100を制御する。制御装置10は、決定キー11、点灯部12、表示切替キー13、輝度切替キー15、方向キー16、メニューキー17、及び電源スイッチ18を含むスイッチ類を備える。また、制御装置10は、使用者が手指で操作するトラックパッド14を備える。
決定キー11は、押下操作を検出して、制御装置10で操作された内容を決定する信号を出力する。点灯部12は、LED等の光源を備え、光源の点灯状態により、頭部装着型表示装置100の動作状態(例えば、電源のON/OFF)を通知する。表示切替キー13は、押下操作に応じて、例えば、画像の表示モードの切り替えを指示する信号を出力する。
トラックパッド14は、接触操作を検出する操作面を有し、操作面に対する操作に応じて操作信号を出力する。操作面における検出方式は限定されず、静電式、圧力検出式、光学式等を採用できる。輝度切替キー15は、押下操作に応じて画像表示部20の輝度の増減を指示する信号を出力する。方向キー16は、上下左右方向に対応するキーへの押下操作に応じて操作信号を出力する。電源スイッチ18は、頭部装着型表示装置100の電源ON/OFFを切り替えるスイッチである。
図4は、頭部装着型表示装置100を構成する各部の機能ブロック図である。
頭部装着型表示装置100は、コンテンツの供給元となる種々の外部機器OAを接続するインターフェイス125を備える。インターフェイス125は、例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等の有線接続に対応したインターフェイスを用いることができ、無線通信インターフェイスで構成してもよい。外部機器OAは、頭部装着型表示装置100に画像を供給する画像供給装置であり、パーソナルコンピューター(PC)、携帯電話端末、携帯型ゲーム機等が用いられる。
制御装置10は、制御部140、入力情報取得部110、記憶部120、送信部(Tx)51及び送信部(Tx)52を有する。
入力情報取得部110は、操作部111に接続される。操作部111は、制御装置10の各操作子に接続され、これら各操作子の操作を検出し、検出した操作子に対応する操作信号を入力情報取得部110に出力する。入力情報取得部110は、操作部111から入力される信号に基づき、制御装置10の操作により入力される入力内容を取得する。
記憶部120は、不揮発性の記憶装置であって、種々のコンピュータープログラム、および、これらのプログラムに係るデータを記憶する。また、記憶部120は、画像表示部20に表示する静止画像や動画像のデータを記憶しても良い。
制御装置10は、一次電池や二次電池を有する電源部130を備え、制御装置10及び画像表示部20の各部に電源部130から電源を供給する。
制御部140には、3軸センサー113、音声認識部114、GPS115、及び通信部117が接続される。3軸センサー113は3軸の加速度センサーであり、制御部140は3軸センサー113の検出値を取得する。GPS115は、アンテナ(図示略)を備え、GPS(Global Positioning System)信号を受信し、制御装置10の現在位置を算出する。GPS115は、GPS信号に基づいて求めた現在位置や現在時刻を制御部140に出力する。また、GPS115はGPS信号に含まれる情報に基づいて現在時刻を取得し、制御部140が計時する時刻を修正させる機能を備えていてもよい。
通信部117は、無線LAN(WiFi(登録商標))、Miracast(登録商標)、Bluetooth(登録商標)等の規格に準じた無線データ通信を実行する。
外部機器OAが、通信部117に無線接続された場合、制御部140は、コンテンツデータを通信部117より取得して、画像表示部20に画像を表示させる。一方、外部機器OAが、インターフェイス125に有線接続された場合、制御部140は、コンテンツデータをインターフェイス125より取得して、画像表示部20に画像を表示させる。通信部117及びインターフェイス125は、外部機器OAからコンテンツデータを取得するデータ取得部DAとして機能する。
制御部140は、プログラムを実行するCPU(図示略)、CPUが実行するプログラムやデータを一時的に格納するRAM(図示略)、及び、CPUが実行する基本制御プログラムやデータを不揮発的に記憶するROM(図示略)を有する。制御部140は、CPUにより制御プログラムを実行することで、頭部装着型表示装置100の各部を制御する。また、制御部140は、記憶部120が記憶するコンピュータープログラムを読み出して実行し、制御部140の各種機能を実現する。すなわち、オペレーティングシステム(OS)150、画像処理部160、表示制御部170、撮像処理部181、デバイス制御部183、AR表示制御部185、及び、音声処理部187として機能する。
画像処理部160は、コンテンツに含まれる画像信号を取得する。画像処理部160は、取得した画像信号から、垂直同期信号VSyncや水平同期信号HSync等の同期信号を分離する。また、画像処理部160は、分離した垂直同期信号VSyncや水平同期信号HSyncの周期に応じて、PLL(Phase Locked Loop)回路等(図示略)を利用してクロック信号PCLKを生成する。画像処理部160は、同期信号が分離されたアナログ画像信号を、A/D変換回路等(図示略)を用いてディジタル画像信号に変換する。画像処理部160は、変換後のディジタル画像信号を、対象画像の画像データ(図中、Data)として、1フレームごとに、制御部140のRAMに格納する。この画像データは、例えばRGBデータである。
なお、画像処理部160は、必要に応じて、画像データの解像度を右表示駆動部22及び左表示駆動部24に適した解像度に変換する解像度変換処理を行ってもよい。また、画像処理部160は、画像データの輝度や彩度を調整する画像調整処理、3D画像データから2D画像データを作成し、或いは2D画像データから3D画像データを生成する2D/3D変換処理等を実行してもよい。
画像処理部160は、クロック信号PCLK、垂直同期信号VSync、水平同期信号HSync、RAMに格納された画像データDataのそれぞれを、送信部51、52を介して送信する。送信部51、52は、トランシーバーとして機能し、制御装置10と画像表示部20との間におけるシリアル伝送を実行する。なお、送信部51を介して送信される画像データDataを「右眼用画像データ」と呼び、送信部52を介して送信される画像データDataを「左眼用画像データ」と呼ぶ。
表示制御部170は、右表示駆動部22及び左表示駆動部24を制御する制御信号を生成し、この制御信号により、右表示駆動部22及び左表示駆動部24のそれぞれによる画像光の生成及び射出を制御する。具体的には、右LCD制御部211による右LCD241の駆動ON/OFF、右バックライト制御部201による右バックライト221の駆動ON/OFFを制御する。また、表示制御部170は、左LCD制御部212による左LCD242の駆動ON/OFF、左バックライト制御部202による左バックライト222の駆動ON/OFFを制御する。
音声処理部187は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、右イヤホン32および左イヤホン34に出力する。また、音声処理部187は、マイク63により集音される音声を取得してディジタル音声データに変換する。音声処理部187は、ディジタル音声データに対して予め設定された処理を行ってもよい。
画像表示部20は、インターフェイス25と、右表示駆動部22と、左表示駆動部24と、右光学像表示部26としての右導光板261と、左光学像表示部28としての左導光板262と、カメラ61と、振動センサー65と、9軸センサー66とを備えている。
振動センサー65は、加速度センサーを利用して構成され、例えば図1に示すように、右保持部21において右光学像表示部26の端部ERの近傍に内蔵される。振動センサー65は、使用者が端部ERを叩く操作(ノック操作)を行った場合に、この操作による振動を検出して、検出結果を制御部140に出力する。この振動センサー65の検出結果により、制御部140は、使用者によるノック操作を検出する。
9軸センサー66は、加速度(3軸)、角速度(3軸)、地磁気(3軸)を検出するモーションセンサーである。制御部140は、画像表示部20が使用者の頭部に装着されているとき、9軸センサー66の検出値に基づいて使用者の頭部の動きを検出できる。例えば、制御部140は、9軸センサー66の検出値に基づき、画像表示部20の傾きの大きさと傾きの向きを推定できる。
9軸センサー66が内蔵する加速度センサー及び角速度センサーの検出軸は、例えば、図1に示すX,Y,Zの3軸とすることができる。この例では、画像表示部20を装着する使用者の頭部に対し左右方向をX軸、前後方向をY軸、上下方向をZ軸とする。より詳細には、頭部装着型表示装置100の装着状態において、画像表示部20は左右の眼に対し、使用者が知覚する水平な位置にある。頭部装着型表示装置100の標準的な装着位置において、9軸センサー66の検出軸(X軸、Y軸、Z軸)が、使用者が知覚する左右、前後、及び上下に一致する構成である。9軸センサー66の加速度センサーは、X軸方向、Y軸方向、及びZ軸方向の加速度を検出する。また、9軸センサー66が備える角速度センサーは、X軸まわりの回転(ピッチ)、Y軸回りの回転(ヨー)、及びZ軸まわりの回転(ロール)を検出する。
インターフェイス25は、右コード42と左コード44とが接続されるコネクターを備える。インターフェイス25は、送信部51から送信されるクロック信号PCLK、垂直同期信号VSync、水平同期信号HSync、画像データDataを、対応する受信部(Rx)53、54に出力する。また、インターフェイス25は、表示制御部170から送信される制御信号を、対応する受信部53、54、右バックライト制御部201又は左バックライト制御部202に出力する。
また、インターフェイス25は、カメラ61、振動センサー65及び9軸センサー66を接続するインターフェイスである。振動センサー65による振動の検出結果や、9軸センサー66による加速度(3軸)、角速度(3軸)、地磁気(3軸)の検出結果は、インターフェイス25を介して制御部140に送られる。
右表示駆動部22は、上述した右バックライト221、右LCD241、及び右投写光学系251を備える。また、右表示駆動部22は、受信部53、右バックライト(BL)221を制御する右バックライト(BL)制御部201、及び、右LCD241を駆動する右LCD制御部211を備える。
受信部53は、送信部51に対応するレシーバーとして動作し、制御装置10と画像表示部20との間におけるシリアル伝送を実行する。右バックライト制御部201は、入力された制御信号に基づいて、右バックライト221を駆動する。右LCD制御部211は、受信部53を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データDataと、に基づいて、右LCD241を駆動する。
左表示駆動部24は、右表示駆動部22と同様の構成を有する。左表示駆動部24は、上述した左バックライト222、左LCD242、及び左投写光学系252を備える。また、左表示駆動部24は、受信部54、左バックライト222を駆動する左バックライト制御部202、及び、左LCD242を駆動する左LCD制御部212を備える。
受信部54は、送信部52に対応するレシーバーとして動作し、制御装置10と画像表示部20との間におけるシリアル伝送を実行する。左バックライト制御部202は、入力された制御信号に基づいて、左バックライト222を駆動する。左LCD制御部212は、受信部54を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データDataと、に基づいて、左LCD242を駆動する。なお、右バックライト制御部201と、右LCD制御部211と、右バックライト221と、右LCD241とを総称して、右の「画像光生成部」とも呼ぶ。同様に、左バックライト制御部202と、左LCD制御部212と、左バックライト222と、左LCD242とを総称して、左の「画像光生成部」とも呼ぶ。
撮像処理部181は、カメラ61を制御して撮像を実行させ、撮像画像データを取得する。
デバイス制御部183は、通信部117を制御して操作デバイス3との間でデータ通信を行い、操作デバイス3から受信するデータを解析する。また、デバイス制御部183は、カメラ61の撮像画像データに基づき、操作デバイス3が備えるLED313の点滅パターンが特定のパターンに該当する場合に、このパターンを復号化して、データを受信する。
AR表示制御部185は、ARコンテンツのデータに基づき、画像処理部160及び表示制御部170を制御して、AR表示用の画像を画像表示部20により表示させる。ARコンテンツのデータは、例えば、記憶部120が記憶する。また、AR表示制御部185は、コンテンツデータ123が音声データを含む場合、音声処理部187を制御して、右イヤホン32、左イヤホン34からコンテンツの音声を出力させる。
AR表示制御部185は、使用者が画像表示部20越しに対象物を見ている状態でARコンテンツを表示する。AR表示制御部185は、対象物に対応する位置に画像や文字等を表示するAR表示を行うことで、対象物に関する情報を提供し、或いは、画像表示部20越しに見える対象物の姿の見え方を変える。ARコンテンツは、対象物に対応する位置に表示される画像や文字のデータを含む。また、ARコンテンツに、対象物を特定するデータ、及び、画像や文字の表示位置に関するデータ等を含んでもよい。ARコンテンツの表示位置は対象物に重なる位置であっても対象物の周囲であってもよい。対象物は物体であればよく、建物等の不動産であってもよいし、自動車や電車などの移動体であってもよく、人間や動物などの生物であってもよい。AR表示制御部185は、撮像処理部181が取得する撮像画像データから、使用者の視界に位置する対象物を検出する。そして、AR表示制御部185は、検出した対象物に対応するARコンテンツの表示位置を決定し、ARコンテンツを表示する。
ARコンテンツは、使用者が対象物を視認する位置に重なるように、或いは、対象物を視認する位置に合わせて、表示することが望ましい。このため、AR表示制御部185は、撮像処理部181の撮像画像データから対象物の画像を検出し、検出した対象物の画像と撮像画像全体との位置関係に基づき、カメラ61の撮像範囲における対象物の位置を特定する。AR表示制御部185は、カメラ61の撮像範囲と、画像表示部20の表示領域との位置関係に基づき、対象物の位置に対応するARコンテンツの表示位置を決定する。
音声処理部187は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、右イヤホン32および左イヤホン34に出力する。また、音声処理部187は、マイク63により集音される音声を取得してディジタル音声データに変換する。音声処理部187は、ディジタル音声データに対して予め設定された処理を行ってもよい。
[表示システムの動作]
図5は、表示システム1の動作を示すフローチャートであり、特に、操作デバイス3の動作を示す。
操作デバイス3は、表示システム1の操作を行わない間は、時計モードで動作する(ステップS11)。時計モードにおいて、UIモードへの移行を指示する操作が行われると(ステップS12)、操作デバイス3の制御部350は、カメラ311、311により撮像を実行して使用者の視線を検出する(ステップS13)。制御部350は、視線を検出するまで撮像および撮像画像の解析を行う(ステップS13;NO)。
制御部350は、視線を検出した場合(ステップS13;YES)、頭部装着型表示装置100がONになっているか否かを判定する(ステップS14)。ステップS14では、例えば、無線通信部361により頭部装着型表示装置100の通信部117と通信を行い、頭部装着型表示装置100の動作状態を検出することで、判定を行う。また、例えば、撮像制御部353の制御によりカメラ311で撮像を実行し、撮像画像に基づき頭部装着型表示装置100の動作状態を判定してもよい。例えば、画像表示部20が表示する画像が調光板20Aを透過して撮像画像に写った場合に、頭部装着型表示装置100がONであると判定してもよい。また、画像表示部20に、動作状態に応じて発光する発光部を設け、撮像画像から発光部の発光状態を特定して、動作状態を判定してもよい。
頭部装着型表示装置100がONでないと判定した場合(ステップS14;NO)、制御部350は、無線通信部361により通信を実行し、頭部装着型表示装置100に対して起動を指示するデータを送信する(ステップS15)。制御部350は、頭部装着型表示装置100から起動したことを示す制御データを受信し、ステップS17に移行する。また、頭部装着型表示装置100がONであると判定した場合(ステップS14;YES)、制御部350はステップS17に移行する。
ステップS17で、制御部350は、頭部装着型表示装置100の認証が済んでいるか否かを判定する。制御部350は、頭部装着型表示装置100と組み合わせて使用される場合に、頭部装着型表示装置100の認証を行い、認証に成功した頭部装着型表示装置100のユーザーインターフェイスとして動作する。認証が済んでいないと判定した場合(ステップS17;NO)、制御部350は、ステップS14でONになっているか否かを判定した頭部装着型表示装置100と、認証用のデータを送受信して認証する(ステップS18)。認証に必要なデータを送受信した場合、イヤホンプラグ30は、頭部装着型表示装置100とペアリング、即ちユーザーインターフェイスとして動作する1対1の対応付けを行い(ステップS19)、ステップS20に移行する。この対応付けは1対多であってもよい。また、頭部装着型表示装置100の認証が済んだ場合は(ステップS17;YES)、制御部350はステップS20に移行する。
ステップS20で、制御部350は、LCD303に操作用の画面を表示し、操作に対して待機する。操作用の画面は、例えば、図2(B)や図2(C)に例示した画面である。
制御部350は、操作を待機し、操作検出部351により操作を検出すると(ステップS21)、検出した操作を示す操作データを頭部装着型表示装置100に送信する(ステップS22)。
その後、制御部350は、終了条件が成立したか否かを判定する(ステップS23)。終了条件が成立している場合(ステップS23;YES)、制御部350は時計モードに移行して(ステップS24)、本処理を終了する。また、終了条件が成立していない場合は(ステップS23;NO)、ステップS21に戻る。
終了条件は、例えば、タッチパネル304、ボタン305、リュウズ型操作子307、或いはボタン309によりUIモードの終了を指示する操作が行われたこと、頭部装着型表示装置100から終了を指示する制御データを受信したこと、等である。
表示システム1では、頭部装着型表示装置100が、操作デバイス3との相対位置を検出することが可能である。この位置検出には種々の方法を用いることが可能であるが、本実施形態では、頭部装着型表示装置100が操作デバイス3を含む範囲を撮像し、撮像画像データに基づき相対位置を特定する例を説明する。
図6は、頭部装着型表示装置100の動作を示すフローチャートであり、特に、頭部装着型表示装置100と操作デバイス3との相対位置を検出する位置検出処理を示す。
制御部140は、撮像処理部181によりカメラ61を制御して撮像を実行する(ステップS31)。制御部140は、カメラ61の撮像画像データを取得し、取得した撮像画像データを解析して、操作デバイス3の画像を検出する(ステップS32)。これにより、カメラ61の撮像画像において、操作デバイス3が写っている位置や操作デバイス3の画像の形状を検出できる。
続いて、制御部140は、撮像画像における操作デバイス3の画像の位置及びサイズに基づき、操作デバイス3とカメラ61との相対位置を算出する(ステップS33)。すなわち、制御部140は、操作デバイス3の画像の位置からカメラ61の画角の中心軸、例えばカメラ61の撮像レンズの光軸に対する操作デバイス3の位置を算出する。また、制御部140は、撮像画像における操作デバイス3の画像のサイズから、操作デバイス3とカメラ61の撮像面との距離を求める。ここで、制御部140は、カメラ61の撮像条件(ズーム倍率等)を用いて算出を行ってもよい。
ステップS33で、制御部140は、カメラ61と操作デバイス3との相対位置を求めた後、求めた相対位置を、頭部装着型表示装置100と操作デバイス3との相対位置に変換してもよい。
頭部装着型表示装置100及び操作デバイス3は、撮像画像における座標に比べて大きいため、基準点を設定することが現実的である。すなわち、頭部装着型表示装置100と操作デバイス3との相対位置は、頭部装着型表示装置100において設定される基準点と、操作デバイス3において設定される基準点との相対位置として求められる。頭部装着型表示装置100における基準点がカメラ61の撮像面において光軸に重なる点である場合、ステップS33で求めた相対位置は、そのまま、操作デバイス3と頭部装着型表示装置100との相対位置となる。頭部装着型表示装置100の基準点がカメラ61の撮像面とは異なる位置にある場合、制御部140は、上述した変換を行えばよい。また、操作デバイス3における基準点は、例えば、ベゼル301の中心とすればよい。
制御部140は、撮像画像における操作デバイス3の画像の形状に基づき、操作デバイス3のLCD303の向きを特定する(ステップS34)。ステップS34で、制御部140は、撮像画像における操作デバイス3のベゼル301の形状、バンド部300を含む操作デバイス3の全体形状、或いは、LCD303の形状に基づいて向きを算出できる。また、例えば図2(A)に示したように、操作デバイス3がLCD303に矢印等の図形を表示している場合や、LCD303に時刻を表示している場合に、これらLCD303の表示画像に基づいて向きを求めてもよい。
その後、制御部140は、ステップS33で算出した操作デバイス3と頭部装着型表示装置100との相対位置を示すデータ、及び、ステップS34で特定した頭部装着型表示装置100に対する操作デバイス3の向きを示すデータを生成する。制御部140は、生成したデータを含む相対位置データを、記憶部120に記憶する(ステップS35)。
表示システム1では、頭部装着型表示装置100が、操作デバイス3による操作に対応したAR画像を表示できる。
図7は、頭部装着型表示装置100の動作を示すフローチャートであり、特に、操作デバイス3に対応したAR表示を行う動作を示す。
制御部140は、デバイス制御部183により、操作デバイス3が送信する操作データを通信部117で受信して解析し(ステップS41)、操作の種別を特定する(ステップS42)。ステップS31で受信するデータは、操作デバイス3が操作に対応して送信する操作データ(図5のステップS22)である。デバイス制御部183は、操作データが示す操作に対応する指示が、操作デバイス3の操作の設定に関する指示であるか否かを判定する(ステップS43)。操作の設定以外の指示である場合(ステップS43;NO)、デバイス制御部183は、ステップS32で特定した操作に対応する処理を実行し(ステップS44)、本処理を終了する。ステップS44では、例えば、撮像開始を指示する操作データに従ってカメラ61の撮像を開始する処理や、AR表示の開始又は終了を指示する操作データに従って、AR表示制御部185でAR表示を開始/終了する。
一方、操作データが示す操作に対応する指示が、操作の設定に関する指示である場合(ステップS33;YES)、AR表示制御部185が、操作設定用のAR表示を行う(ステップS35)。ここで、デバイス制御部183は、AR表示中の操作デバイス3における操作に対応して操作デバイス3が操作データを送信すると、この操作データを受信して、受信した操作データに基づき、設定、及び設定の更新を行う。
ステップS35で、AR表示制御部185は、頭部装着型表示装置100の使用者が画像表示部20越しに操作デバイス3を見ている状態で、操作デバイス3に重なって見えるように、ARコンテンツを表示する。ここで、AR表示制御部185は、図6に示した動作で検出した操作デバイス3と頭部装着型表示装置100との相対位置、及び、頭部装着型表示装置100に対する操作デバイス3の向きに基づき、ARコンテンツの表示位置を決定する。この処理で、AR表示制御部185は、カメラ61の撮像範囲と、画像表示部20の表示領域との位置関係に基づき、対象物の位置に対応するARコンテンツの表示位置を決定する。この位置関係は、記憶部120に記憶した相対位置データから求めることができる。
AR表示制御部185は、操作デバイス3と頭部装着型表示装置100との間の距離に対応して、ARコンテンツの表示サイズを調整してもよい。また、AR表示制御部185は、頭部装着型表示装置100に対する操作デバイス3のLCD303の向きに対応して、ARコンテンツの表示位置を調整してもよいし、ARコンテンツに含まれる画像を変形してもよい。
図8は、操作設定用のAR表示の例を示し、(A)はベゼル301の操作について設定を行うためのAR表示の例を示し、(B)はボタン309の操作について設定を行うためのAR表示の例を示す。
図8(A)の例では、使用者の視野VRに実物の操作デバイス3が視認され、この操作デバイス3に対応する位置に、ARコンテンツが画像表示部20により表示される。ARコンテンツは、割り当て候補表示A1、A2、A3、A4及び設定候補A11、A12、A13、A14である。割り当て候補表示A1、A2、A3、A4は、ベゼル301の回転に割り当てる機能の候補を示す画像であり、この例では、ベゼル301を回転させる操作で選択可能な機能の組合せを示すテキストを含む。割り当て候補表示A1は、「Home」、「戻る」、「メニュー」、「アプリ終了」の4つの文字列(テキスト)を含む。割り当て候補表示A2は、「進む」、「戻る」、「撮像」、「撮像終了」の4つの文字列を含む。操作デバイス3において、ベゼル301を回転する操作が行われると、割り当て候補A1〜A4のいずれかが順に選択できる。
図8(A)の例では割り当て候補A2が選択されている。このため、視野VRの中央に見える操作デバイス3に重なるように、「進む」、「戻る」、「撮像」、「撮像終了」の4つの文字列が配置される。これらの文字列は、割り当てる機能の候補、すなわち、設定候補A11、A12、A13、A14である。ベゼル301の操作により、割り当て候補表示A2から、他の割り当て候補表示に切り替えられると、設定候補A11、A12、A13、A14の文字列が変更される。従って、使用者は、ベゼル301の回転操作に割り当てる機能を、割り当て候補表示A1、A2、A3、A4の中から選択して設定できる。操作デバイス3で、ボタン305が操作されると、ベゼル301の操作で選択された割り当て候補表示が確定され、設定が更新される。
図8(B)の例では、実物の操作デバイス3に対応する位置に、ARコンテンツとして、割り当て候補表示A21、A22、A23、A24及び設定候補A31、A32、A33、A34が表示される。割り当て候補表示A21、A22、A23、A24は、4個のボタン309に割り当てる機能の候補を示す画像であり、この例では、4つのボタン309のそれぞれが操作されたときに実行される機能を示すテキストを含む。割り当て候補表示A21は、「Home」、「戻る」、「メニュー」、「アプリ終了」の4つの文字列(テキスト)を含む。割り当て候補表示A22は、「進む」、「戻る」、「撮像」、「撮像終了」の4つの文字列を含む。操作デバイス3において、ベゼル301を回転する操作が行われると、割り当て候補A21〜A24のいずれかが順に選択できる。
図8(B)の例では割り当て候補A22が選択されている。このため、視野VRの中央に見える操作デバイス3に重なるように、「進む」、「戻る」、「撮像」、「撮像終了」の4つの文字列が配置される。これらの文字列は、割り当てる機能の候補、すなわち、設定候補A31、A32、A33、A34であり、機能を割り当てるボタン309に対応する位置に表示される。ベゼル301の操作により、割り当て候補表示A22から、他の割り当て候補表示に切り替えられると、設定候補A31、A32、A33、A34の文字列が変更される。従って、使用者は、ベゼル301の回転操作に割り当てる機能を、割り当て候補表示A21、A22、A23、A24の中から選択して設定できる。操作デバイス3で、ボタン305が操作されると、ベゼル301の操作で選択された割り当て候補表示が確定され、設定が更新される。
図8(A)、(B)の例は、操作デバイス3が送信する操作データに対応して頭部装着型表示装置100が実行する機能を設定する動作を示す。機能の割り当てを設定し、更新できるので、操作デバイス3により頭部装着型表示装置100の様々な機能について操作を行える。また、AR表示を利用することで、容易に設定を行うことができる。
図9及び図10は、操作デバイス3の操作に対応して頭部装着型表示装置100が実行する機能の例を示す図である。
図9(A)は、ファイル及びフォルダーを選択する選択用画面A41を、使用者の視野VRに表示した例を示す。このように選択候補(この例ではフォルダー)が複数並べて表示された状態で、ベゼル301を回転させる操作が行われると、候補が順に選択される。
また、図9(B)には、操作デバイス3または制御装置10の操作により表示される仮想キーボードA43を示す。仮想キーボードA43には文字及び記号に対応する仮想キーが複数配置される。仮想キーボードA43の表示中にベゼル301を回転させる操作が行われると、仮想キーボードA43において仮想キーが順に選択される。
図9(A)、(B)に示すように、使用者の視野VRに表示される複数の候補から一つの候補を選択する操作では、ベゼル301を回転させる操作が好適である。この場合、ベゼル301の回転方向に合わせて、候補が順に切り替えて選択される方向を変更してもよい。また、選択を確定する操作は、例えば、操作デバイス3が備えるボタン305で行うことができる。ベゼル301は、直感的に操作が可能であり、操作デバイス3の平面部300Aの外周部に位置するため、手探りによる操作が可能である。このため、使用者は、画像表示部20により表示されるAR表示に注目しながらベゼル301を操作できる。さらに、平面部300Aとは離れた位置に設けられ、他のスイッチ式の操作子よりも大型のボタン305により、選択を確定できるので、より容易に操作を行える。ボタン305は、位置及びサイズが、ボタン309やリュウズ型操作子307とは異なるので、ベゼル301と同様に、手探りによる操作が容易である。このため、画像表示部20が表示する画像を見ながら、直感的で確実な操作を行える。
なお、図9(A)、(B)に示すように、使用者の視野VRに表示される複数の候補から一つの候補を選択する操作で、音声による選択が可能な構成としてもよい。この場合、候補に付された固有の名称、番号、符号等を音声で指定すると、この音声を操作デバイス3がマイク365で検出し、検出した音声のデータを頭部装着型表示装置100に送信し、制御部140が設定を行ってもよい。
図10は、ベゼル301の操作に応じて画面を遷移させる例について、遷移される画面の構成を模式的に示す。
頭部装着型表示装置100のオペレーティングシステム150が、iOS(登録商標)やAndroid(登録商標)のように、複数の画面を切り替え、遷移させる構成である場合、ベゼル301の操作をより効果的に使用できる。図10の例では、ベゼル301を回転させる操作により、画面1〜4の4つの画面を順に切り替えて表示できる。また、画面1〜4を順次選択する場合の送り方向は、ベゼル301の操作方向に対応して、正方向と逆方向にしてもよい。
頭部装着型表示装置100では、画面1〜4のうち画面2が表示された状態で、ボタン305の操作により表示画面を確定した後、さらに、ベゼル301の操作により画面2、2−1、2−2、2−3の4つの画面を遷移させることができる。この場合も、4つの画面を順次選択する場合の送り方向は、ベゼル301の操作方向に対応して、正方向と逆方向にしてもよい。
図10に示す例ではボタン305の確定操作を経ずにベゼル301を回転させることで、素早く表示画面を遷移させることができる。
表示システム1の動作は上記の例に限定されず、例えば、次のような動作を実行できる。
頭部装着型表示装置100は、操作デバイス3の操作に対応して、画像表示部20で表示する画像(文字を含む)の拡大、縮小、回転、コピー、ページ送り等を行ってもよい。この場合、操作デバイス3における操作は、ベゼル301の回転、ボタン309の押圧操作、ボタン305の押圧操作、及びリュウズ型操作子307を回転させる操作だけでなく、例えば、タッチパネル304に対し指で接触する操作を含んでもよい。例えば、ベゼル301を右に回す操作に対応して表示画像を拡大し、ベゼル301を左に回す操作に対応して表示画像を縮小してもよい。また、タッチパネル304の中央部に対する指の接触を検出した場合に表示画像を拡大し、タッチパネル304の周縁部(例えば、左下枠近傍)への指の接触を検出した場合に表示画像を縮小してもよい。また、タッチパネル304に接触した指が、接触したまま右回し、左回し等の回転運動をした場合に、この回転に合わせて表示画像を回転させてもよい。
また、タッチパネル304がいわゆるマルチタッチ操作に対応する場合、タッチパネル304に対する複数の操作点の間隔を拡大、或いは縮小させる操作等に対応して、頭部装着型表示装置100の表示画像を拡大、縮小、或いは回転させる動作を行ってもよい。
操作デバイス3は、9軸センサー368の検出値を頭部装着型表示装置100に送信することもできる。また、操作デバイス3がGPS検出部を備えた構成とし、GPS検出部で検出する現在位置を、頭部装着型表示装置100に送信してもよい。この場合、頭部装着型表示装置100の制御部140は、操作デバイス3から受信する検出値と3軸センサー113の検出値とに基づき、操作デバイス3と頭部装着型表示装置100との相対位置を検出できる。そして、検出した相対位置の変化に対応して、表示画像の拡大、縮小、回転など表示の変更を行っても良く、画像のフェードイン表示、フェードアウト表示を行ってもよい。この場合、操作デバイス3を頭部装着型表示装置100に近づけたり、遠ざけたりする操作により、表示を変更できる。さらに、操作デバイス3が、9軸センサー368の検出値のデータを頭部装着型表示装置100に送信することで、操作デバイス3を動かす操作を、頭部装着型表示装置100が検出できる。
また、頭部装着型表示装置100が操作デバイス3に制御データを送信して、操作デバイス3を動作させることも可能である。例えば、制御部140のデバイス制御部183は、タッチパネル304、及び9軸センサー368の検出開始や、不検出状態への移行を指示する制御データを送信してもよい。この場合、操作デバイス3におけるセンシングの実行/不実行を頭部装着型表示装置100が制御でき、誤操作を防止し、電源部360の消耗を防止できる。また、デバイス制御部183は、カメラ311の撮像開始および撮像停止を指示する制御データを送信してもよい。また、デバイス制御部183は、LCD303の点灯、消灯、点滅を制御する制御データを送信してもよい。
また、操作デバイス3は、頭部装着型表示装置100が送信するデータに基づく出力を行うこともできる。例えば、デバイス制御部183が、通信部117によりテキストデータや画像データを送信し、操作デバイス3が、頭部装着型表示装置100から受信するテキストデータや画像データをLCD303に表示してもよい。この場合、頭部装着型表示装置100の動作状態(ステータス)を、LCD303に表示させて、使用者が頭部装着型表示装置100の動作状態を容易に把握できる。例えば、頭部装着型表示装置100を装着していない状態で、使用者が、頭部装着型表示装置100の動作状態を知りたい場合に、有用である。また、操作デバイス3が、頭部装着型表示装置100から受信するデータに従ってスピーカー370から音声を出力してもよいし、バイブレーター369を動かして振動を発生してもよい。
さらに、デバイス制御部183が操作デバイス3に対し、撮像実行と撮像画像データの送信を指示する制御データを送信し、操作デバイス3が撮像を行って、撮像画像データを画像表示部20に表示することもできる。この場合、頭部装着型表示装置100が備えるカメラ61では撮像できない角度から撮像を行い、撮像画像を画像表示部20に表示できる。また、この撮像画像データを制御部140が解析してもよい。
また、表示システム1では、操作デバイス3のNFC部362により、非接触型ICカードや、RFIDタグに記録されたデータを読み取り、読み取ったデータを無線通信部361から通信部117に送信してもよい。この場合、ICカード型電子マネーの残高等を画像表示部20により表示できる。
このように、表示システム1では、シースルー方式の頭部装着型表示装置100と、時計型の操作デバイス3とを組み合わせ、操作デバイス3の操作により頭部装着型表示装置100を動作させる。これにより、操作時以外はハンズフリーを実現し、操作時でも自然な動きで操作できる。
以上説明したように、本発明を適用した実施形態の頭部装着型表示装置100は、使用者の頭部に装着される表示部を有する頭部装着型表示装置100と、表示部とは別体として構成される操作デバイス3とを備える。操作デバイス3は、使用者の操作を受け付ける操作部として、ベゼル301、タッチパネル304、ボタン305、リュウズ型操作子307、及び、ボタン309を備える。操作部に9軸センサー368を含んでもよいし、9軸センサー368を有するバンド部300を操作部としてもよい。頭部装着型表示装置100は、画像表示部20の表示を制御する制御部140を備え、制御部140は、操作デバイス3の操作に基づき、画像表示部20で表示する画面を遷移させる処理を含む表示制御を行う。このため、頭部装着型表示装置100とは別体の操作デバイス3を操作し、画面を遷移させるので、より直感的な入力操作により頭部装着型表示装置100を制御できる。
また、操作デバイス3は、操作部が受け付けた操作を示すデータを頭部装着型表示装置100に送信する無線通信部361を備える。頭部装着型表示装置100の制御部140は、操作デバイス3から送信されるデータに基づき、操作デバイス3の操作を検出する。このため、操作デバイス3における操作を、頭部装着型表示装置100において確実に検出できる。また、操作の検出に係る頭部装着型表示装置100の負荷を軽減できる。
また、操作デバイス3は、使用者の身体に装着される装着部としてのバンド部300を有し、使用者の身体に装着される操作デバイス3を用いて、より直感的な入力操作を行い、頭部装着型表示装置100を制御できる。
また、操作デバイス3が有する操作部は、例えばベゼル301及び回転検出部367により、回転を伴う操作を検出する。頭部装着型表示装置100の制御部140は、操作デバイス3から回転を伴う操作を示すデータが送信された場合に、操作の回転方向に対応して、画像表示部20で表示する画面を、例えば図10に示すように遷移させる。このため、回転を伴う操作により画面を遷移させることができ、より直感的な操作を実現できる。また、操作の方向と画面の遷移の方向とが対応するため、例えば手探りの操作を行うことが可能となる。
また、頭部装着型表示装置100の制御部140は、操作デバイス3から送信されるデータに基づき、画像表示部20で表示する画像の拡大、縮小或いは回転のいずれかを含む表示制御を行ってもよい。
また、操作デバイス3が有する制御部350は、操作デバイス3の動きを操作として検出してもよい。
また、画像表示部20は、外景を透過して使用者に視認させる透過型の表示部であってもよい。この場合、使用者が外景を見ながら操作デバイス3を操作して、頭部装着型表示装置100の表示を制御できる。頭部装着型表示装置100のみを注視せず、直感的に操作できるため、外景を見ながら頭部装着型表示装置100を使用する場合に好適である。
また、頭部装着型表示装置100は、操作デバイス3に出力用のデータを送信し、操作デバイス3は、頭部装着型表示装置100が送信する出力用のデータを通信部で受信し、受信した出力用のデータを出力することができる。
また、操作デバイス3はカメラ311を備え、カメラ311の撮像画像を含むデータを無線通信部361により頭部装着型表示装置100に送信してもよい。この場合、頭部装着型表示装置100とは別体の操作デバイス3で撮像した撮像画像を、頭部装着型表示装置100で表示できる。また、表示システム1では、操作デバイス3で、頭部装着型表示装置100の認証を行うことができる。
図6及び図7を参照して説明したように、頭部装着型表示装置100は、頭部装着型表示装置100に対する操作デバイス3の位置を検出できる。そして、頭部装着型表示装置100は、操作デバイス3の位置に対応してARコンテンツの表示を行うことができる。さらに、上記相対位置の検出を繰り返し実行することで、操作デバイス3を基準として、頭部装着型表示装置100の動きを求めることができる。また、操作デバイス3の位置や向きに対応して、例えば図10に示したように画像表示部20に表示する画面を遷移させてもよい。この場合、操作デバイス3と頭部装着型表示装置100との相対位置を変化させることが、頭部装着型表示装置100に対する操作に相当する。
また、制御部140は、図6の動作で特定した操作デバイス3との相対位置及び向きに基づき、9軸センサー66の検出軸(図1のX,Y,Z軸)と、LCD303の向き(傾き)との対応付けを行ってもよい。これにより、頭部装着型表示装置100の傾きとLCD303の傾きとの双方に連動して、画像表示部20の表示画像や、LCD303における表示画像を変化させることができる。
頭部装着型表示装置100が操作デバイス3との相対位置を検出する方法は、図6に示した方法に限定されず、例えば、操作デバイス3と頭部装着型表示装置100とがデータ通信を行い、相互の検出結果を利用してもよい。この動作例を図11に示す。
図11は、表示システム1の動作を示すフローチャートであり、(A)は操作デバイス3の動作を示し、(B)は頭部装着型表示装置100の動作を示す。
図11の動作は、例えば、操作デバイス3がUIモードである場合に実行する。
操作デバイス3の制御部350は、カメラ311、311により撮像を実行して使用者の視線を検出する(ステップS61)。制御部350は、視線を検出するまで撮像および撮像画像の解析を行う(ステップS61;NO)。
制御部350は、視線を検出した場合(ステップS61;YES)、カメラ311、311による撮像を実行し(ステップS62)、撮像画像データを取得する(ステップS63)。制御部350は、撮像画像データを無線通信部361により送信する(ステップS64)。ステップS62では、カメラ311、311のいずれか一方のみを用いて撮像をしてもよいし、2つのカメラ311、311の両方で撮像を行い、両方の撮像画像データを取得して送信してもよい。
制御部140は、通信部117によって撮像画像データを操作デバイス3から受信し(ステップS71)、受信した撮像画像データを解析して、頭部装着型表示装置100の画像を検出する(ステップS72)。これにより、撮像画像において、頭部装着型表示装置100が写っている位置や頭部装着型表示装置100の画像の形状を検出できる。
続いて、制御部140は、撮像画像における頭部装着型表示装置100の画像の位置及びサイズに基づき、操作デバイス3と頭部装着型表示装置100との相対位置を算出する(ステップS73)。例えば、制御部140は、頭部装着型表示装置100の画像の位置から、カメラ311、311の画角の中心軸に対する頭部装着型表示装置100の位置を算出する。また、制御部140は、撮像画像における頭部装着型表示装置100の画像のサイズから、頭部装着型表示装置100と操作デバイス3との距離を求める。ここで、制御部140は、カメラ311、311の撮像条件(ズーム倍率等)を用いて算出を行ってもよい。
ステップS73で、制御部140は、複数のカメラ311、311の撮像画像を用いて、より高精度な検出を行ってもよい。例えば、これら複数の撮像画像の視差を算出し、この視差から、操作デバイス3と頭部装着型表示装置100との間の距離を求めてもよい。
その後、制御部140は、ステップS73で算出した操作デバイス3と頭部装着型表示装置100との相対位置を示すデータを生成する(ステップS74)。制御部140は、生成したデータを含む相対位置データを、記憶部120に記憶する。
このように、操作デバイス3と頭部装着型表示装置100とが連動して、操作デバイス3と頭部装着型表示装置100との相対位置を求める処理を行ってもよい。この図11の動作において、ステップS72〜S73の処理を、制御部350が実行し、制御部350が相対位置を示すデータを生成して、頭部装着型表示装置100に送信してもよい。
このほか、操作デバイス3と頭部装着型表示装置100とが連動して動作する例としては、例えば、制御部350の制御により、LCD303にマーカーを表示し、このマーカーを頭部装着型表示装置100が認識する態様が挙げられる。制御部140は、カメラ61の撮像画像からマーカーを検出する。LCD303が表示するマーカーが、バーコードや二次元コード等、情報を含めることが可能なマーカーである場合、制御部140は読取結果から情報を取得できる。制御部140は、取得した情報に基づき、通信部117により操作デバイス3との間の通信を確立する動作等を行える。また、複数の操作デバイス3がある場合に、これらの操作デバイス3を識別することも可能となる。この場合、特定の操作デバイス3と頭部装着型表示装置100との相対位置を検出する動作や、特定の操作デバイス3と通信を確立するといった動作が可能となる。
なお、この発明は上記実施形態の構成に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能である。
本実施形態では、頭部装着型表示装置100のユーザーインターフェイスとして使用される操作デバイス3が、腕時計の形状を有する例を説明した。本発明はこれに限定されず、頭部装着型表示装置100を使用する使用者の身体に装着するのに適した形状であればよい。例えば、指輪型、ブローチ型、ペンダントまたはネックレス型、或いはペン型のデバイスとすることができる。また、使用者の頭部や耳に装着されるヘッドホン型、イヤホン型、ヘッドセット型のデバイスとしてもよい。この場合、音声を出力するヘッドホンやイヤホンに、本発明の操作デバイスとしての機能を実装してもよい。音声を出力するスピーカーと、使用者が発話する音声を集音するマイクとを備えたヘッドセットに、本発明の操作デバイスとしての機能を実装してもよい。この構成においてヘッドホン、イヤホン、スピーカーは骨伝導スピーカーであってもよく、マイクは骨伝導マイクであってもよい。この場合、デバイスは、少なくとも、接触操作または押圧操作を検出する操作子を備え、無線通信部361、LED313、カメラ311、及び9軸センサー368を備えた構成とすることが望ましい。これらの構成では、表示に係る動作を除き、上記実施形態と同様の効果を得ることができる。
また、上記実施形態の頭部装着型表示装置100は、バンド部300により使用者の身体に固定され保持される構成としたが、本発明の操作デバイスの構成は、これに限定されない。すなわち、操作デバイスは、バンド部300等により固定することは必須ではなく、使用者の身体に装着可能であればよい。従って、上述のようにペンダントまたはネックレス型、或いは他のアクセサリーを模した形状等であってもよく、帽子やヘルメットの形状としてもよく、その他の衣服の形態とすることもできる。
さらに、本発明の操作デバイスは、使用者の身体に直接装着され、或いは固定される態様に限定されない。例えば、使用者の身体に装着または固定される腕時計、アクセサリー、衣服、鞄、帽子、ヘルメットに、操作デバイスに相当する機器を固定してもよい。この場合の操作デバイスは、例えば、操作デバイス3からバンド部300を除いた構成とすることができる。
また、表示システム1は、複数の操作デバイスを備えた構成としてもよい。例えば操作デバイス3のように腕時計型の操作デバイスと、ペン型の操作デバイスなど、異なる形態の操作デバイスを含んでもよい。この場合、複数の操作デバイスにおける操作に基づき、頭部装着型表示装置100における表示画面を遷移させてもよい。複数の操作デバイスにおける操作を頭部装着型表示装置100が検出する方法は、複数の操作デバイスから操作を示すデータを送信する方法等が挙げられる。
さらに、操作デバイス3が慣性センサーである9軸センサー368の検出値を示すデータを頭部装着型表示装置100に送信することで、操作デバイス3の動きを操作として表示システム1が動作してもよい。
例えば、9軸センサー368の検出値と、頭部装着型表示装置100が備える9軸センサー66の検出値とを用いて、制御部140が、画像表示部20を透過して視認される外景と画像表示部20の表示領域との対応付けを行ってもよい。この場合、複数の装置が備えるセンサーの検出値を用いることで、より高精度で対応付けを行うことができる。この対応付けは、画像表示部20においてARコンテンツを表示する場合等に利用できる。
また、上記実施形態では、操作デバイス3が電源部360により動作する電子機器である構成を例に挙げて説明したが、本発明はこれに限定されない。例えば、操作デバイス3のベゼル301、及び/又は、平面部300Aでベゼル301に隣接する位置に、ベゼル301の回転方向における位置を特定するためのマーカーを設けてもよい。この場合、デバイス制御部183が、カメラ61で撮像する撮像画像データに基づき、ベゼル301の回転方向と回転量を求めることができる。また、操作デバイス3が電源部360を備えている場合であっても、上記の動作により、頭部装着型表示装置100がベゼル301の回転方向と回転量とを求める構成としてもよい。この動作は、例えば、電源部360の消費を抑える省電力動作モードの動作として実現できる。電源部360の残容量が少ない場合に、操作デバイス3または頭部装着型表示装置100の制御で、表示システム1が省電力動作モードに移行する構成とすることができる。
また、上記実施形態の画像表示部20に代えて、例えば、帽子のように装着する画像表示部等の他の方式の画像表示部を採用してもよく、使用者の左眼に対応して画像を表示する表示部と、使用者の右眼に対応して画像を表示する表示部とを備えていればよい。また、本発明の表示装置は、例えば、自動車や飛行機等の車両に搭載されるヘッドマウントディスプレイとして構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたヘッドマウントディスプレイとして構成されてもよい。この場合、使用者の身体に対する位置を位置決めする部分、及び、当該部分に対し位置決めされる部分を装着部とすることができる。
さらに、上記実施形態では、画像表示部20と制御装置10とが分離され、接続部40を介して接続された構成を例に挙げて説明した。本発明はこれに限定されず、制御装置10と画像表示部20とが一体に構成され、使用者の頭部に装着される構成とすることも可能である。
また、制御装置10として、ノート型コンピューター、タブレット型コンピューター又はデスクトップ型コンピューターを用いてもよい。また、制御装置10として、ゲーム機や携帯型電話機やスマートフォンや携帯型メディアプレーヤーを含む携帯型電子機器、その他の専用機器等を用いてもよい。また、制御装置10が画像表示部20と分離して構成され、制御装置10と画像表示部20との間で無線通信により各種信号を送受信する構成としてもよい。
また、例えば、画像表示部20において画像光を生成する構成として、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)のディスプレイと、有機EL制御部とを備える構成としてもよい。また、画像光を生成する構成として、LCOS(Liquid crystal on silicon, LCoSは登録商標)や、デジタル・マイクロミラー・デバイス等を用いることもできる。
また、画像光を使用者の眼に導く光学系としては、外部から装置に向けて入射する外光を透過する光学部材を備え、画像光とともに使用者の眼に入射させる構成を採用できる。また、使用者の眼の前方に位置して使用者の視界の一部または全部に重なる光学部材を用いてもよい。さらに、レーザー光等を走査させて画像光とする走査方式の光学系を採用してもよい。また、光学部材の内部で画像光を導光させるものに限らず、使用者の眼に向けて画像光を屈折及び/または反射させて導く機能のみを有するものであってもよい。
例えば、レーザー網膜投影型のヘッドマウントディスプレイに対して本発明を適用することも可能である。すなわち、光射出部が、レーザー光源と、レーザー光源を使用者の眼に導く光学系とを備え、レーザー光を使用者の眼に入射させて網膜上を走査し、網膜に結像させることにより、使用者に画像を視認させる構成を採用してもよい。
また、本発明を、MEMSミラーを用いた走査光学系を採用し、MEMSディスプレイ技術を利用した表示装置に適用することも可能である。すなわち、信号光形成部と、信号光形成部が射出する光を走査するMEMSミラーを有する走査光学系と、走査光学系により走査される光によって虚像が形成される光学部材とを光射出部として備えてもよい。この構成では、信号光形成部が射出した光がMEMSミラーにより反射され、光学部材に入射し、光学部材の中を導かれて、虚像形成面に達する。MEMSミラーが光を走査することにより、虚像形成面に虚像が形成され、この虚像を使用者が眼で捉えることで、画像が認識される。この場合の光学部品は、例えば上記実施形態の右導光板261及び左導光板262のように、複数回の反射を経て光を導くものであってもよく、ハーフミラー面を利用してもよい。
また、図3及び図4に示した各機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよい。また、制御部140が実行するプログラムは、記憶部120または制御装置10内の記憶装置に記憶されてもよいし、外部の装置に記憶されたプログラムを通信部117又はインターフェイス125を介して取得して実行する構成としてもよい。
また、制御装置10に形成された構成のうち、操作部111のみが単独の使用者インターフェイス(UI)として形成されてもよい。また、制御装置10に形成された構成が重複して画像表示部20に形成されていてもよい。例えば、制御部140に相当する制御部が制御装置10と画像表示部20との両方に形成されていてもよい。また、制御装置10に形成された制御部140と画像表示部20に形成されたCPUとが行う機能が別々に分けられている構成としてもよい。
また、本発明は、頭部装着型表示装置100以外の種々の形態で実現することも可能である。例えば、頭部装着型表示装置100の制御方法、頭部装着型表示装置100を有する情報システム、頭部装着型表示装置100の制御方法および前記情報システムを実現するためのコンピュータープログラム、そのコンピュータープログラムを記録した記録媒体、および、コンピュータープログラムを配信するための、インターネット等の通信回線に接続されたサーバー装置、そのコンピュータープログラムを含み搬送波内に具現化されたデータ信号等の形態で実現できる。
1…表示システム、2…フレーム、3…操作デバイス、10…制御装置、20…画像表示部(表示部)、21…右保持部、22…右表示駆動部、23…左保持部、24…左表示駆動部、26…右光学像表示部、28…左光学像表示部、61…カメラ、66…9軸センサー、100…頭部装着型表示装置(表示装置)、117…通信部、120…記憶部、140…制御部、150…オペレーティングシステム、160…画像処理部、170…表示制御部、181…撮像処理部、183…デバイス制御部、185…AR表示制御部、187…音声処理部、300…バンド部、300A…平面部、301…ベゼル、303…LCD、304…タッチパネル、305…ボタン、307…リュウズ型操作子、309…ボタン、310…光学部、311…カメラ、313…LED、331〜334、341〜345…機能表示、350…制御部、351…操作検出部、352…出力制御部、353…撮像制御部、354…通信制御部、355…音声処理部、360…電源部、361…無線通信部、362…NFC部、365…マイク、366…ボタン操作部、367…回転検出部、368…9軸センサー、369…バイブレーター、370…スピーカー。

Claims (15)

  1. 使用者の頭部に装着される表示部を有する表示装置と、前記表示部とは別体として構成される操作デバイスとを備え、
    前記操作デバイスは、
    前記使用者の操作を受け付ける操作部を備え、
    前記表示装置は、前記表示部の表示を制御する制御部を備え、前記制御部は、前記操作デバイスの操作に基づき、前記表示部により表示する画面を遷移させる処理を含む表示制御を行うこと、
    を特徴とする表示システム。
  2. 前記操作デバイスは、前記操作部が受け付けた操作を示すデータを前記表示装置に送信する通信部を備え、
    前記表示装置の前記制御部は、前記操作デバイスから送信されるデータに基づき、前記操作デバイスの操作を検出すること、
    を特徴とする請求項1記載の表示システム。
  3. 前記操作デバイスは、前記使用者の身体に装着される装着部を有すること、
    を特徴とする請求項1または2記載の表示システム。
  4. 前記操作デバイスが有する前記操作部は、回転を伴う操作を検出し、
    前記表示装置の前記制御部は、前記操作デバイスから回転を伴う操作を示すデータが送信された場合に、前記操作の回転方向に対応して、前記表示部により表示する画面を遷移させること、
    を特徴とする請求項1から3のいずれかに記載の表示システム。
  5. 前記表示装置の前記制御部は、前記操作デバイスから送信されるデータに基づき、前記表示部により表示する画像の拡大、縮小或いは回転のいずれかを含む表示制御を行うこと、
    を特徴とする請求項1から4のいずれかに記載の表示システム。
  6. 前記表示装置の前記制御部は、前記操作デバイスと前記表示装置との相対位置を求め、求めた相対位置に基づき前記表示部の表示を制御すること、
    を特徴とする請求項1から5のいずれかに記載の表示システム。
  7. 前記表示装置は撮像部を備え、前記制御部は、前記撮像部の撮像画像に基づいて、前記操作デバイスと前記表示装置との相対位置を求めること、
    を特徴とする請求項6記載の表示システム。
  8. 前記操作デバイスが有する前記操作部は、前記操作デバイスの動きを操作として検出すること、
    を特徴とする請求項1から7のいずれかに記載の表示システム。
  9. 前記表示部は、外景を透過して前記使用者に視認させる透過型の表示部であること、
    を特徴とする請求項1から8のいずれかに記載の表示システム。
  10. 前記表示装置は、前記操作デバイスに出力用のデータを送信し、
    前記操作デバイスは、前記表示装置が送信する出力用のデータを前記通信部で受信し、受信した出力用のデータを出力すること、
    を特徴とする請求項1から9のいずれかに記載の表示システム。
  11. 前記操作デバイスは撮像部を備え、前記撮像部の撮像画像を含むデータを前記通信部により前記表示装置に送信すること、
    を特徴とする請求項1から10のいずれかに記載の表示システム。
  12. 前記表示装置の前記制御部は、前記操作デバイスから撮像画像を含むデータを受信し、受信したデータに基づいて、前記操作デバイスと前記表示装置との相対位置を求めること、
    を特徴とする請求項11記載の表示システム。
  13. 使用者の頭部に装着される表示部を有する表示装置を制御するコンピューターが実行可能なプログラムであって、
    前記表示部とは別体として構成される操作デバイスが前記使用者の操作を受け付けた場合に、前記操作デバイスの操作に基づき、前記表示部により表示する画面を遷移させる処理を含む表示制御を行うこと、
    を特徴とするプログラム。
  14. 通信回線に接続され、請求項13記載のプログラムを前記通信回線により送信すること、を特徴とするサーバー装置。
  15. 使用者の頭部に装着される表示部を有する表示装置を、前記表示部とは別体として構成される操作デバイスを用いて制御する制御方法において、
    前記操作デバイスにより前記使用者の操作を受け付け、
    前記表示装置により、前記操作デバイスの操作に基づき、前記表示部により表示する画面を遷移させる処理を含む表示制御を行うこと、
    を特徴とする表示装置の制御方法。
JP2015000749A 2015-01-06 2015-01-06 表示システム、プログラム、サーバー装置、及び、表示装置の制御方法 Active JP6459516B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2015000749A JP6459516B2 (ja) 2015-01-06 2015-01-06 表示システム、プログラム、サーバー装置、及び、表示装置の制御方法
US14/976,761 US20160196693A1 (en) 2015-01-06 2015-12-21 Display system, control method for display device, and computer program
CN201511030028.0A CN105759422B (zh) 2015-01-06 2015-12-31 显示系统和显示装置的控制方法
EP16150303.2A EP3043237A1 (en) 2015-01-06 2016-01-06 Display system, control method for display device, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015000749A JP6459516B2 (ja) 2015-01-06 2015-01-06 表示システム、プログラム、サーバー装置、及び、表示装置の制御方法

Publications (2)

Publication Number Publication Date
JP2016126588A true JP2016126588A (ja) 2016-07-11
JP6459516B2 JP6459516B2 (ja) 2019-01-30

Family

ID=56359457

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015000749A Active JP6459516B2 (ja) 2015-01-06 2015-01-06 表示システム、プログラム、サーバー装置、及び、表示装置の制御方法

Country Status (1)

Country Link
JP (1) JP6459516B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021531520A (ja) * 2019-06-26 2021-11-18 北京小米移動軟件有限公司Beijing Xiaomi Mobile Software Co., Ltd. ウェアラブル制御機器、仮想・拡張現実システム及び制御方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08160880A (ja) * 1994-12-09 1996-06-21 Shimadzu Corp 頭部装着表示装置
JP2000284742A (ja) * 1999-03-30 2000-10-13 Minolta Co Ltd 画像再生システム
JP2004054423A (ja) * 2002-07-17 2004-02-19 Ricoh Co Ltd ページめくり装置
JP2008033945A (ja) * 2007-08-22 2008-02-14 Sony Corp 電子ブック、進行状況体感的通知方法、進行状況体感的通知プログラム及び進行状況体感的通知プログラム格納媒体
US20130093661A1 (en) * 2011-10-17 2013-04-18 Nokia Corporation Methods and apparatus for facilitating user interaction with a see-through display
JP2014106698A (ja) * 2012-11-27 2014-06-09 Seiko Epson Corp 表示装置、頭部装着型表示装置および表示装置の制御方法
JP2014131094A (ja) * 2012-12-28 2014-07-10 Seiko Epson Corp 表示装置、および、表示装置の制御方法
US20140285520A1 (en) * 2013-03-22 2014-09-25 Industry-University Cooperation Foundation Hanyang University Wearable display device using augmented reality
WO2014185146A1 (ja) * 2013-05-15 2014-11-20 ソニー株式会社 表示制御装置、表示制御方法および記録媒体
WO2014188798A1 (ja) * 2013-05-21 2014-11-27 ソニー株式会社 表示制御装置、表示制御方法および記録媒体

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08160880A (ja) * 1994-12-09 1996-06-21 Shimadzu Corp 頭部装着表示装置
JP2000284742A (ja) * 1999-03-30 2000-10-13 Minolta Co Ltd 画像再生システム
JP2004054423A (ja) * 2002-07-17 2004-02-19 Ricoh Co Ltd ページめくり装置
JP2008033945A (ja) * 2007-08-22 2008-02-14 Sony Corp 電子ブック、進行状況体感的通知方法、進行状況体感的通知プログラム及び進行状況体感的通知プログラム格納媒体
US20130093661A1 (en) * 2011-10-17 2013-04-18 Nokia Corporation Methods and apparatus for facilitating user interaction with a see-through display
JP2014106698A (ja) * 2012-11-27 2014-06-09 Seiko Epson Corp 表示装置、頭部装着型表示装置および表示装置の制御方法
JP2014131094A (ja) * 2012-12-28 2014-07-10 Seiko Epson Corp 表示装置、および、表示装置の制御方法
US20140285520A1 (en) * 2013-03-22 2014-09-25 Industry-University Cooperation Foundation Hanyang University Wearable display device using augmented reality
WO2014185146A1 (ja) * 2013-05-15 2014-11-20 ソニー株式会社 表示制御装置、表示制御方法および記録媒体
WO2014188798A1 (ja) * 2013-05-21 2014-11-27 ソニー株式会社 表示制御装置、表示制御方法および記録媒体

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021531520A (ja) * 2019-06-26 2021-11-18 北京小米移動軟件有限公司Beijing Xiaomi Mobile Software Co., Ltd. ウェアラブル制御機器、仮想・拡張現実システム及び制御方法
JP7189891B2 (ja) 2019-06-26 2022-12-14 北京小米移動軟件有限公司 ウェアラブル制御機器、仮想・拡張現実システム及び制御方法

Also Published As

Publication number Publication date
JP6459516B2 (ja) 2019-01-30

Similar Documents

Publication Publication Date Title
CN105759422B (zh) 显示系统和显示装置的控制方法
US10785472B2 (en) Display apparatus and method for controlling display apparatus
US10635182B2 (en) Head mounted display device and control method for head mounted display device
CN105739095B (zh) 显示装置以及显示装置的控制方法
JP6740584B2 (ja) 表示システム、表示装置の制御方法、及び、プログラム
JP2017016056A (ja) 表示システム、表示装置、表示装置の制御方法、及び、プログラム
US20170289533A1 (en) Head mounted display, control method thereof, and computer program
JP2018142857A (ja) 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
JP2018124721A (ja) 頭部装着型表示装置、及び頭部装着型表示装置の制御方法
JP2016004340A (ja) 情報配信システム、頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム
JP2019128693A (ja) 頭部装着型表示装置、及び頭部装着型表示装置の制御方法
JP2016122975A (ja) 表示装置、及び、表示装置の制御方法
JP6303274B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP6439448B2 (ja) 表示システム、プログラム、及び、表示装置の制御方法
JP2016122177A (ja) 表示装置、及び、表示装置の制御方法
JP6996115B2 (ja) 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
JP2018022426A (ja) 表示装置、頭部装着型表示装置、及び、表示装置の制御方法
JP6569320B2 (ja) 電子機器、及び、電子機器の制御方法
JP6459516B2 (ja) 表示システム、プログラム、サーバー装置、及び、表示装置の制御方法
US20190086677A1 (en) Head mounted display device and control method for head mounted display device
JP6932917B2 (ja) 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
JP2017182460A (ja) 頭部装着型表示装置、頭部装着型表示装置の制御方法、コンピュータープログラム
JP2017134630A (ja) 表示装置、表示装置の制御方法、及び、プログラム
JP2016085554A (ja) 情報処理装置、表示装置、及び表示システム
JP2016212769A (ja) 表示装置、表示装置の制御方法、及び、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171027

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180820

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181030

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181217

R150 Certificate of patent or registration of utility model

Ref document number: 6459516

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150