JP6740584B2 - 表示システム、表示装置の制御方法、及び、プログラム - Google Patents

表示システム、表示装置の制御方法、及び、プログラム Download PDF

Info

Publication number
JP6740584B2
JP6740584B2 JP2015181843A JP2015181843A JP6740584B2 JP 6740584 B2 JP6740584 B2 JP 6740584B2 JP 2015181843 A JP2015181843 A JP 2015181843A JP 2015181843 A JP2015181843 A JP 2015181843A JP 6740584 B2 JP6740584 B2 JP 6740584B2
Authority
JP
Japan
Prior art keywords
display
unit
image
data
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015181843A
Other languages
English (en)
Other versions
JP2017058840A (ja
Inventor
小林 伸一
伸一 小林
高野 正秀
正秀 高野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2015181843A priority Critical patent/JP6740584B2/ja
Priority to US14/976,761 priority patent/US20160196693A1/en
Priority to CN201511030028.0A priority patent/CN105759422B/zh
Priority to EP16150303.2A priority patent/EP3043237A1/en
Publication of JP2017058840A publication Critical patent/JP2017058840A/ja
Application granted granted Critical
Publication of JP6740584B2 publication Critical patent/JP6740584B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、表示装置を備える表示システム、表示装置の制御方法、及び、プログラムに関する。
従来、使用者が頭部に装着して使用するヘッドマウントディスプレイ(Head Mounted Display:HMD)等の表示装置に対する入力操作の方法として、手指に装置を装着し、この装置により手指の動きを検出する方法が提案された(例えば、特許文献1、2参照)。特許文献1には、指に装着される装置を利用してテキスト入力を行う構成が開示されている。また、特許文献2には、HMDと指に装着される発光体とを用いて、マウスと同等の操作を行う構成が開示されている。
特開2000−284886号公報 特開2000−29619号公報
HMDにおいてテキスト入力やマウスと同等の入力操作を行う場合、誤入力があると、使用者の意図に反した結果を招く。このため、使用者は、入力される文字、或いは、指示位置を示すカーソルを注視して、正確で誤りの無いように操作を行う。このため、使用者には、表示装置の表示に注視して慎重に操作することが求められ、より直感的な操作でHMDを制御できる方法が望まれていた。
本発明は上記事情に鑑みてなされたものであり、使用者の頭部に装着される表示装置を、より直感的な入力操作により制御できる表示システム、表示装置の制御方法、及び、プログラムを提供することを目的とする。
上記目的を達成するために、本発明の表示システムは、使用者の頭部に装着され、外景を透過して前記使用者に視認させる透過型の表示部を有する表示装置と、前記表示部とは別体として構成される操作対象物とを備え、前記表示装置は、前記操作対象物に対応して、前記表示部を透過する前記外景に関連するAR表示を前記表示部によって行う制御部を備えること、を特徴とする。
本発明によれば、使用者の頭部に装着される表示装置が、表示装置とは別体の操作デバイスの操作に対応して、外景に関連するAR表示を行うので、直感的な入力操作によってAR表示を制御できる。
本発明は、上記表示システムにおいて、前記表示装置は、前記操作対象物に対応付けられた制御対象対応画像を、前記操作対象物に関連付けて前記表示部によってAR表示すること、を特徴とする。
本発明によれば、操作対象物の操作に関する情報を、直感的に把握しやすい形態で表示できる。
また、本発明は、上記表示システムにおいて、前記操作対象物は、前記使用者の操作を受け付ける操作部と、前記操作部が受け付けた操作を示すデータを前記表示装置に送信する通信部と、を備えた操作デバイスであり、前記表示装置の前記制御部は、前記操作デバイスの操作に基づき、前記表示部によってAR表示を行うこと、を特徴とする。
本発明によれば、使用者の頭部に装着される表示装置が、表示装置とは別体の操作デバイスの操作を速やかに検出し、この操作に対応するAR表示を行うことができる。
本発明は、上記表示システムにおいて、前記表示装置の前記制御部は、前記操作デバイスの操作に基づき、前記操作部に対応付けられた態様で、前記表示部を透過する前記外景に関連するAR表示を前記表示部によって行うこと、を特徴とする。
本発明によれば、操作デバイスにおける操作を、表示装置において確実に検出できる。また、操作の検出に係る表示装置の負荷を軽減できる。
本発明は、上記表示システムにおいて、前記制御部は、前記操作デバイスから送信されるデータに基づいて前記操作部の操作を検出し、検出した操作に対応して、前記表示部に表示中の前記AR表示を変更すること、を特徴とする。
本発明によれば、AR表示を行っている間に、操作デバイスを操作することにより、AR表示を変更させることができる。
本発明は、上記表示システムにおいて、前記制御部は、前記操作部に対する前記AR表示の割り当てを設定可能であってもよい。
この場合において、前記制御部は、前記操作部に対する前記AR表示の割り当てを更新する処理を実行可能であってもよい。
本発明は、上記表示システムにおいて、前記表示装置の前記制御部は、前記操作デバイスと前記表示装置との相対位置を求め、求めた相対位置に基づき前記表示部でAR表示を行うこと、を特徴とする。
本発明によれば、操作デバイスと表示装置との相対位置に対応して表示を制御できる。
本発明は、上記表示システムにおいて、前記操作部は接触操作を検出するタッチ操作部を備え、前記タッチ操作部は複数の操作領域を有し、前記制御部は、前記タッチ操作部で操作された操作領域に割り当てられた前記AR表示を、前記表示部によって表示すること、を特徴とする。
本発明によれば、操作デバイスでタッチ操作を行うことにより、AR表示に対する様々な操作が可能となる。
本発明は、上記表示システムにおいて、前記操作デバイスが有する前記操作部は、前記操作デバイスの動きを操作として検出すること、を特徴とする。
本発明によれば、操作デバイスを動かすことで表示装置に対する操作を行える。
本発明は、上記表示システムにおいて、前記操作デバイスは撮像部を備え、前記撮像部の撮像画像を含むデータを前記通信部により前記表示装置に送信すること、を特徴とする。
本発明によれば、表示装置とは別体の操作デバイスで撮像を行い、撮像画像を表示装置で表示できる。
上記目的を達成するために、本発明の表示システムは、使用者の頭部に装着され、外景を透過して前記使用者に視認させる透過型の表示部を有する表示装置と、前記表示部とは別体として構成される操作対象物とを備え、前記表示装置は、前記操作対象物への操作に基づき、前記表示部により表示する制御画面を遷移させる処理を含む表示制御を行う制御部を備えること、を特徴とする。
本発明によれば、使用者の頭部に装着される表示装置に対し、表示装置とは別体の操作デバイスの操作に応じて画面を遷移させるので、より直感的な入力操作により表示装置を制御できる。
本発明は、上記表示システムにおいて、前記操作対象物は、前記使用者の操作を受け付ける操作部を備える操作デバイスであること、を特徴とする。
本発明によれば、表示装置とは別体の操作デバイスに対する操作を検出できる。
本発明は、上記表示システムにおいて、前記操作デバイスは、前記操作部が受け付けた操作を示すデータを前記表示装置に送信する通信部を備え、前記表示装置の前記制御部は、前記操作デバイスから送信されるデータに基づき、前記操作デバイスの操作を検出すること、を特徴とする。
本発明によれば、操作デバイスにおける操作を、表示装置において確実に検出できる。また、操作の検出に係る表示装置の負荷を軽減できる。
本発明は、上記表示システムにおいて、前記操作デバイスが有する前記操作部は、回転を伴う操作を検出し、前記表示装置の前記制御部は、前記操作デバイスから回転を伴う操作を示すデータが送信された場合に、前記操作の回転方向に対応して、前記表示部により表示する画面を遷移させること、を特徴とする。
本発明によれば、回転を伴う操作により、回転方向に対応して表示される画面が遷移するので、より直感的な操作を実現できる。また、操作の方向と画面の遷移の方向とが対応するため、例えば手探りの操作を行うことが可能となる。
本発明は、上記表示システムにおいて、前記表示装置の前記制御部は、前記操作デバイスから送信されるデータに基づき、前記表示部により表示する画像の拡大、縮小或いは回転のいずれかを含む表示制御を行うこと、を特徴とする。
本発明によれば、直感的な操作により表示装置が表示する画像の表示制御が可能となる。
本発明は、上記表示システムにおいて、前記表示装置は、前記操作デバイスに出力用のデータを送信し、前記操作デバイスは、前記表示装置が送信する出力用のデータを前記通信部で受信し、受信した出力用のデータを出力すること、を特徴とする。
本発明によれば、操作デバイスを、データを出力する装置として利用できる。
本発明は、上記表示システムにおいて、前記操作デバイスは撮像部を備え、前記撮像部の撮像画像を含むデータを前記通信部により前記表示装置に送信すること、を特徴とする。
本発明によれば、表示装置とは別体の操作デバイスで撮像を行い、撮像画像を表示装置で表示できる。
本発明は、上記表示システムにおいて、前記表示装置の前記制御部は、前記操作デバイスから撮像画像を含むデータを受信し、受信したデータに基づいて、前記操作デバイスと前記表示装置との相対位置を求めること、を特徴とする。
本発明によれば、操作デバイスと表示装置との相対位置を速やかに求めることができる。
本発明は、上記表示システムにおいて、前記操作デバイスが有する前記操作部は、前記操作デバイスの動きを操作として検出すること、を特徴とする。
本発明によれば、操作デバイスを動かすことで表示装置に対する操作を行える。
本発明は、上記表示システムにおいて、前記表示装置の前記制御部は、前記操作デバイスと前記表示装置との相対位置を求め、求めた相対位置に基づき前記表示部の表示を制御すること、を特徴とする。
本発明によれば、操作デバイスと表示装置との相対位置に対応して表示を制御できる。
本発明は、上記表示システムにおいて、前記表示装置は撮像部を備え、前記制御部は、前記撮像部の撮像画像に基づいて、前記操作デバイスと前記表示装置との相対位置を求めること、を特徴とする。
本発明によれば、操作デバイスと表示装置との相対位置を速やかに求めることができる。
本発明は、上記表示システムにおいて、前記表示部は、外景を透過して前記使用者に視認させる透過型の表示部であること、を特徴とする。
本発明によれば、使用者が外景を見ながら操作デバイスを操作して、表示装置の表示を制御できる。表示装置のみを注視せず、直感的に操作できるため、外景を見ながら表示装置を使用する場合に好適である。
本発明は、上記表示システムにおいて、前記操作デバイスは、前記使用者の身体に装着される装着部を有すること、を特徴とする。
本発明によれば、使用者の身体に装着される操作デバイスを用いて、より直感的な入力操作を行い、表示装置を制御できる。
本発明は、上記表示システムにおいて、前記表示装置が備える前記制御部は、前記操作対象物を検出した場合に、前記操作対象物に対応付けられた制御対象対応画像を、前記操作対象物に対応して前記表示部に表示すること、を特徴とする。
本発明によれば、表示装置とは別体の操作対象物に関する情報を、使用者にわかりやすく提供できる。
本発明は、上記表示システムにおいて、前記表示装置が備える前記制御部は、前記制御対象対応画像を表示した前記操作対象物に対する操作を検出した場合に、操作内容と前記制御対象対応画像とに対応する処理を実行すること、を特徴とする。
本発明によれば、操作対象物に対する操作に対応して表示装置が処理を実行するので、操作対象物を使用して直感的な操作を実現できる。
本発明は、上記表示システムにおいて、前記表示装置は、前記操作対象物に対する操作を検出する検出部を備えること、を特徴とする。
本発明によれば、操作対象物に対する操作を表示装置が速やかに検出できる。また、操作対象物が通信機能を有していなくても、表示装置が操作対象物の操作に対応して処理を実行できる。
本発明は、上記表示システムにおいて、前記表示装置は撮像部を備え、前記制御部は、前記撮像部の撮像画像に基づいて前記操作対象物を検出し、前記操作対象物に対する操作を検出すること、を特徴とする。
本発明によれば、操作対象物が通信を実行しなくても、表示装置が操作対象物を検出し、操作対象物に対する操作を検出できる。
本発明は、上記表示システムにおいて、前記表示装置は、前記操作対象物が有する操作部に対応する操作用の画像をAR表示するためのAR表示用のデータを記憶するデータ記憶部を備え、前記制御部は、前記データ記憶部が記憶する前記AR表示用のデータを変更可能であること、を特徴とする。
本発明によれば、操作対象物に対応してAR表示を行う機能について、データを変更できるので、新しい操作対象物や未知の操作対象物に対応するようデータを変更できる。これにより、AR表示の対象とする操作対象物に関する制約を減らすことができ、利便性の向上を図ることができる。
本発明は、上記表示システムにおいて、前記データ記憶部が記憶する前記AR表示用のデータは、前記操作用の画像と前記操作対象物が有する前記操作部とを対応付けるデータを含み、前記制御部は、前記データ記憶部が記憶する前記AR表示用のデータにおいて、前記操作用の画像と前記操作対象物が有する前記操作部との対応を変更可能であること、を特徴とする。
本発明によれば、操作対象物とAR表示との対応を変更可能である。
また、上記目的を達成するために、本発明は、使用者の頭部に装着され、外景を透過して前記使用者に視認させる透過型の表示部を有する表示装置を制御する制御部が実行可能なプログラムであって、前記制御部により、前記表示部とは別体として構成される操作対象物を検出し、前記操作対象物が備える操作部を検出し、検出した前記操作対象物の操作部に対応する位置に、操作用の画像を表示し、前記操作用の画像に関する操作を検出し、操作を検出した前記操作用の画像に対応する処理を実行すること、を特徴とする。
本発明によれば、使用者の頭部に装着される表示装置が、表示装置とは別体の操作対象物に対応する操作用の画像を表示し、この操作用の画像に関する操作に応じて処理を実行する。このため、操作対象物を利用して表示装置に処理を実行させることが可能となり、表示装置に対する直感的な操作が可能となる。
また、上記目的を達成するために、本発明は、使用者の頭部に装着される表示部を有する表示装置を制御するコンピューターが実行可能なプログラムであって、前記表示部とは別体として構成される操作対象物が前記使用者の操作を受け付けた場合に、前記操作対象物の操作に基づき、前記表示部を透過する外景に関連するAR表示を前記表示部によって行うこと、を特徴とする。
本発明によれば、使用者の頭部に装着される表示部を有する表示装置が、外景に関連するAR表示を行う際に、表示装置とは別体の操作対象物の操作を反映する。このため、直感的な入力操作によってAR表示を制御できる。
また、上記目的を達成するために、本発明の表示装置の制御方法は、使用者の頭部に装着される表示部を有する表示装置を、前記表示部とは別体として構成される操作対象物を用いて制御する制御方法において、前記操作対象物の操作部により前記使用者の操作を受け付け、前記表示装置により、前記操作対象物の操作に基づき、前記表示部を透過する外景に関連するAR表示を前記表示部によって行うこと、を特徴とする。
本発明によれば、使用者の頭部に装着される表示部を有する表示装置が、外景に関連するAR表示を行う際に、表示装置とは別体の操作対象物の操作を反映する。このため、直感的な入力操作によってAR表示を制御できる。
また、上記目的を達成するために、本発明は、使用者の頭部に装着される表示部を有する表示装置を制御するコンピューターが実行可能なプログラムであって、前記表示部とは別体として構成される操作対象物が前記使用者の操作を受け付けた場合に、前記操作対象物の操作に基づき、前記表示部により表示する画面を遷移させる処理を含む表示制御を行うこと、を特徴とする。
本発明によれば、使用者の頭部に装着される表示部を有する表示装置に対し、表示装置とは別体の操作対象物を操作し、画面を遷移させるので、より直感的な入力操作により表示装置を制御できる。
また、上記目的を達成するために、本発明のサーバー装置は、通信回線に接続され、上記のプログラムを前記通信回線により送信すること、を特徴とする。
本発明によれば、使用者の頭部に装着される表示部を有する表示装置に対し、表示装置とは別体の操作対象物を操作し、画面を遷移させるので、より直感的な入力操作により表示装置を制御できる。
また、上記目的を達成するために、本発明の表示装置の制御方法は、使用者の頭部に装着される表示部を有する表示装置を、前記表示部とは別体として構成される操作対象物を用いて制御する制御方法において、前記操作対象物により前記使用者の操作を受け付け、受け付けた操作を示すデータを前記表示部に送信し、前記表示装置により、前記操作対象物から送信されるデータに基づき、前記表示部により表示する画面を他の画面に遷移させる処理を含む表示制御を行うこと、を特徴とする。
本発明によれば、使用者の頭部に装着される表示部を有する表示装置に対し、表示装置とは別体の操作対象物を操作し、画面を遷移させるので、より直感的な入力操作により表示装置を制御できる。
本発明は、頭部装着型表示装置以外の種々の形態で実現することも可能である。例えば、頭部装着型表示装置の制御方法、頭部装着型表示装置を有する情報システム、頭部装着型表示装置の制御方法および前記情報システムを実現するためのコンピュータープログラム、そのコンピュータープログラムを記録した記録媒体、および、コンピュータープログラムを配信するためのサーバー装置、そのコンピュータープログラムを含み搬送波内に具現化されたデータ信号等の形態で実現できる。
実施形態に係る表示システムの概略構成を示す説明図。 操作デバイスの構成を示す説明図。 操作デバイスの機能ブロック図。 頭部装着型表示装置の機能ブロック図。 操作デバイスの動作を示すフローチャート。 頭部装着型表示装置の動作を示すフローチャート。 設定用のAR表示の例を示す説明図。 操作デバイスの操作に応じて実行される処理の例を示す図。 頭部装着型表示装置の動作を示すフローチャート。 頭部装着型表示装置の動作の別の例を示すフローチャート。 操作デバイスの操作に応じて実行される処理の例を示す図。 操作デバイスの操作に応じて実行される処理の別の例を示す図。 操作対象物の構成例を示す説明図。 操作対象物の別の構成例を示す説明図。 頭部装着型表示装置の動作を示すフローチャート。 操作対象物に対応するAR表示の例を示す説明図。 操作対象物に対応するAR表示の別の例を示す説明図。 記憶部が記憶するデータの構成例を示す図。 ARコンテンツデータを編集する処理を示すフローチャート。 ARコンテンツデータをダウンロードする処理を示すフローチャート。 ARコンテンツデータをダウンロードする処理を示すフローチャート。
[システム構成]
図1は、本発明を適用した実施形態に係る表示システム1の概略構成を示す図である。
表示システム1は、使用者の身体に装着される頭部装着型表示装置100及び操作デバイス3を備える。
頭部装着型表示装置100は、図1に示すように、使用者の頭部に装着される画像表示部20を有する。頭部装着型表示装置100は、使用者の頭部に装着された状態で使用者に虚像を視認させる画像表示部20(表示部)と、画像表示部20を制御する制御装置10と、を備えている。画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状のフレーム2(本体)を有する。また、制御装置10は、使用者が頭部装着型表示装置100を操作するコントローラーとしても機能する。制御装置10は、使用者の衣服のポケットに収容され、或いは、使用者の腰のベルトに取り付けられる。
また、操作デバイス3は、使用者の身体に装着可能な、いわゆるウェアラブルデバイスであり、本実施形態では使用者の腕に装着される腕時計状の形状とする。
[操作デバイスの構成]
図2は、操作デバイス3の構成を示す説明図であり、図2(A)は操作デバイス3の要部正面図であり、(B)及び(C)はLCD303の表示例を示す図である。また、図3は操作デバイス3の機能ブロック図である。これら図1〜図3を参照して操作デバイス3の構成を説明する。
操作デバイス3は、腕時計のバンドと同様の形状であるバンド部300を有する。バンド部300は、図示しないバックル等の固定部を有し、例えば使用者の前腕部に巻き付けて固定できる。操作デバイス3のバンド部300には、時計の文字盤に相当する位置に、略円盤状の平面部300Aが形成される。平面部300Aには、ベゼル301、LCD303、ボタン305、リュウズ型操作子307、複数のボタン309、及び光学部310が設けられる。
ベゼル301は、リング形状の操作子であり、平面部300Aの周縁部に配置される。ベゼル301は、バンド部300に対して円周方向に回転可能に設けられる。操作デバイス3は、後述するように、ベゼル301の回転方向、及び回転量を検出する機構を備える。また、ベゼル301を回転可能にバンド部300に指示する機構は、回転に応じてさせる際にノッチ音を発生する記憶を備えてもよい。
LCD303は、文字や画像を表示するLCD(Liquid Crystal Display:液晶ディスプレイ)である。LCD303の表面には図3に示すタッチパネル304(タッチ操作部)が重畳して配置される。
ボタン305は、ベゼル301の外側に配置される押しボタン式スイッチである。ボタン305は、例えば図1、図2(A)に示すように、装着状態において、使用者から見てベゼル301の下方に位置する。ボタン305は、後述するリュウズ型操作子307やボタン309に比べて大型であり、手探りでも操作が可能である。
リュウズ型操作子307は、腕時計の竜頭を模した形状の操作子であり、図中矢印で示すように回転させることが可能である。操作デバイス3は、使用者がリュウズ型操作子307を回転させた場合に、リュウズ型操作子307の回転方向、及び回転量を検出する機構を備える。また、リュウズ型操作子307を回転可能にバンド部300に指示する機構は、回転に応じてさせる際にノッチ音を発生する記憶を備えてもよい。
ボタン309は、平面部300Aの外周部に設けられた押しボタン式のスイッチである。ボタン309の数について特に制限はなく、本実施形態では4つのボタン309を設けた例を示す。
ボタン309には異なる機能を割り当てることが可能であり、各々のボタン309に割り当てられた機能を、LCD303に表示できる。
図2(B)は、LCD303に、ボタン309の機能を表示する例を示す。この例では、4つのボタン309に割り当てられた機能をそれぞれ示す機能表示331、332、333、334がLCD303に表示される。機能表示331、332、333、334の表示位置は、機能表示の対象のボタン309の位置に対応する。例えばLCD303の右上部に表示された機能表示331は、平面部300Aの右上に位置するボタン309に割り当てられた機能を示す。
さらに、LCD303には、ベゼル301を回転させることで選択可能な機能を表示できる。図2(C)は、LCD303にベゼル301の操作に割り当てられた機能を表示する例を示す。この例では、ベゼル301を回転させることで選択可能な4つの機能をそれぞれ示す機能表示341、342、343、344がLCD303に表示される。機能表示341、342、343、344の表示位置は、ベゼル301の回転位置に対応する。すなわち、ベゼル301を回転させると、機能表示341、342、343、及び344が、順に切り替えて選択される。例えば、ベゼル301を時計回り(CW)に回転させると、機能表示341、342、343、及び344が、順に切り替えて選択される。
また、機能表示345はボタン305に割り当てられた機能を示し、図2(C)の例では「決定」機能である。ベゼル301の回転により、機能表示341、342、343、及び344のいずれかが選択された状態で、ボタン305が操作されると、機能表示341、342、343、及び344の選択が決定される。そして、ベゼル301の回転で選択された機能が実行される。
ボタン309に割り当てられる機能、及び、ベゼル301の回転により選択される機能は、一通りに限定されず、より多数の機能を切り替えて割り当てることが可能である。この場合、操作デバイス3において、機能を切り替えることが可能な構成とすることができる。この場合、機能の切り替えに伴って、LCD303の機能表示331、332、333、334、或いは機能表示341、342、343、344が切り替わる構成としてもよい。
光学部310は、2つのカメラ311(撮像部)、及び、LED313を備える。カメラ311は、CCDやCMOS等の撮像素子及び撮像レンズ等を備えるデジタルカメラである。操作デバイス3が有する2つのカメラ311の撮像範囲は、それぞれ異なる範囲であってもよいし、同一の範囲であってもよい。本実施形態では、2つのカメラ311で、操作デバイス3を装着た利用者の両眼を撮像し、撮像画像に基づき使用者の目線を検出可能である。従って、2つのカメラ311の一方は、平面部300Aを正面視する使用者の右眼を撮像し、他方は左眼を撮像できる構成である。
LED(Light Emitting Diode)313は、赤外光を発する赤外LEDである。LED313は、カメラ311で撮像をする場合の照明として利用される。また、操作デバイス3は、LED313を点灯あるいは点滅させることで、光信号を送信できる。
図3には操作デバイス3の制御系の構成を示す。
操作デバイス3は、操作デバイス3の各部を制御する制御部350を備える。制御部350は、図示しないCPU、ROM、RAM等を備え、ROMに記憶したプログラムを実行することにより、操作デバイス3の機能を実現する。
制御部350には、通信用の機能部として、無線通信部361(通信部)及びNFC(Near Field Communication)部362を備える。無線通信部361は、無線LAN(WiFi(登録商標))、Miracast(登録商標)、Bluetooth(登録商標)等の規格に準じた無線データ通信を実行する。NFC部362は、NFC規格に準拠した近距離無線通信を実行する。
制御部350には、LCD303、タッチパネル304、2つのカメラ311、及びLED313が接続される。制御部350は、LCD303を制御して画像や文字を表示させる。また、タッチパネル304は、LCD303の表面に重畳して配置され、LCD303の表面における接触操作を検出する。タッチパネル304は、例えば、静電容量式または感圧式のセンサーを用いることができる。制御部350は、タッチパネル304により接触操作を検出し、操作位置を特定する。タッチパネル304は、1点の接触操作を検出してもよいし、複数の点における操作を同時に検出可能な、いわゆるマルチタッチ操作に対応してもよい。
制御部350は、2つのカメラ311をそれぞれ制御して、撮像を実行させて撮像画像データを生成する。また、制御部350は、LED313に流れる電流をON/OFFして、LED313を任意のタイミングで点灯、或いは点滅させる。
制御部350には、マイク365、ボタン操作部366、回転検出部367、9軸センサー368、バイブレーター369、及び、スピーカー370が接続される。マイク365は、例えばモノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであってもよいし、無指向性のマイクであってもよい。マイク365が指向性を有する場合、マイク365は、例えば平面部300A(図2)またはその近傍で、平面部300Aの正面方向の音を集音する。また、マイク365は、使用者の身体に接触する骨伝導型のマイクであってもよい。制御部350は、マイク365が集音した音声のアナログ音声信号を取得してディジタル音声データを生成する。
ボタン操作部366は、ボタン305、及び、ボタン309の操作を検出し、操作されたボタンに対応する操作信号を制御部350に出力する。回転検出部367は、ベゼル301の回転、及び、リュウズ型操作子307の回転を検出する。回転検出部367は、ベゼル301の回転方向と回転量を示す信号を制御部350に出力し、リュウズ型操作子307についても同様に回転方向と回転量を示す信号を制御部350に出力する。ここで、回転検出部367は、ベゼル301が所定量回転する毎に、回転方向を示す信号を出力してもよい。この場合、回転検出部367の出力信号を制御部350がカウントすることで、制御部350が回転量を取得でき、回転検出部367が回転量を積算する必要がない。リュウズ型操作子307の回転操作についても同様に、リュウズ型操作子307が所定量回転する毎に、回転検出部367が回転方向を示す信号を出力してもよい。
9軸センサー368は、慣性センサーを備えたユニットであり、本実施形態では、3軸の加速度センサー、3軸の角速度センサー、及び、3軸の磁気センサーを具備する。9軸センサー368が検出を行う軸は、例えば、平面部300Aを含む平面内における上下方向、左右方向、及び平面部300Aを含む平面に直交する方向に沿って設定できる。
バイブレーター369は、制御部350の制御に従って回転するモーター(図示略)を備える。このモーターの回転軸には錘が偏心して取り付けられ、モーターの回転に伴い操作デバイス3を振動させる。スピーカー370は、制御部350が出力する音声信号に基づき音声を出力する。
制御部350を含む操作デバイス3の各部には、一次電池または二次電池を有する電源部360から電源が供給される。電源部360は、二次電池とともに、二次電池への充電を制御する回路を備えてもよい。
制御部350は、プログラムを実行することにより、操作検出部351、出力制御部352、撮像制御部353、通信制御部354、及び音声処理部355の各部の機能を実現する。
操作検出部351は、ボタン操作部366及び回転検出部367から入力される信号に基づき、操作デバイス3が備える操作子の操作を検出し、操作内容を特定する。具体的には、操作検出部351は、ボタン305、リュウズ型操作子307、及びボタン309の操作を検出する。また、操作検出部351は、9軸センサー368から入力される信号に基づいて、操作デバイス3を振る、動かす等の操作を検出する。さらに、操作検出部351は、タッチパネル304から入力される信号に基づき、LCD303に対する接触操作を検出し、操作位置を特定する。ここで、操作検出部351は、操作位置においてLCD303が表示する画像を特定することにより、操作位置に割り当てられる機能を特定することも可能である。
出力制御部352は、通信制御部354が無線通信部361やNFC部362により受信するデータ、又は、操作検出部351が検出する操作に対応して、出力を実行する。出力制御部352は、LCD303に文字や画像を表示する。また、出力制御部352は、バイブレーター369のモーターを動作させて操作デバイス3を振動させる。
撮像制御部353は、カメラ311を制御して撮像を実行させ、撮像画像データを取得する。
通信制御部354は、無線通信部361またはNFC部362により、外部の機器とデータを送受信する。通信制御部354は、無線通信部361により頭部装着型表示装置100とデータ通信を実行できる。また、通信制御部354は、NFC部362により、近接通信が可能な機器を検出した場合に、この機器とデータを送受信する。また、通信制御部354は、LED313を点滅させて、光信号によりデータを送信できる。この場合、通信制御部354は、カメラ311により光信号を検出して受信する構成としてもよい。
音声処理部355は、マイク365が集音した音声のディジタル音声データを生成して、必要に応じて解析を行う。例えば、音声処理部355は、マイク365が集音した使用者の音声を解析し、操作を指示する音声を検出した場合に、操作検出部351に対して操作の指示を出力してもよい。この場合、使用者は操作デバイス3を音声により操作できる。また、音声処理部355は、スピーカー370に音声信号を出力して音声を出力させる。
制御部350は、操作デバイス3の動作モードとして、時計モードと、UIモードとを含む複数の動作モードを実行でこる。時計モードは、制御部350により現在時刻を計時し、LCD303に現在時刻を表示する動作モードである。時計モードは操作デバイス3を時計として動作させるので、消費電力が小さいという利点がある。UIモードは、操作デバイス3を、頭部装着型表示装置100を操作するユーザーインターフェイス(UI)として機能させる動作モードである。UIモードでは、操作デバイス3に対する操作に基づき、操作デバイス3が頭部装着型表示装置100にデータを送信し、このデータに従って頭部装着型表示装置100が動作する。時計モードからUIモードへの切り替え、及び、UIモードから時計モードへの切り替えは、後述するように、制御部350の制御により行われる。
[頭部装着型表示装置の構成]
頭部装着型表示装置100において、画像表示部20のフレーム2は、右保持部21及び左保持部23を有する。右保持部21は、右光学像表示部26の他端である端部ERから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。同様に、左保持部23は、左光学像表示部28の他端である端部ELから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。右保持部21は使用者の頭部において右耳またはその近傍に当接し、左保持部23は使用者の左耳またはその近傍に当接して、使用者の頭部に画像表示部20を保持する。
フレーム2には、右保持部21と、右表示駆動部22と、左保持部23と、左表示駆動部24と、右光学像表示部26と、左光学像表示部28と、カメラ61(撮像部)と、マイク63とが設けられる。
右光学像表示部26及び左光学像表示部28は、それぞれ、使用者が画像表示部20を装着した際に使用者の右及び左の眼前に位置するように配置されている。右光学像表示部26の一端と左光学像表示部28の一端とは、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置で、互いに連結されている。
右保持部21は、右光学像表示部26の他端である端部ERから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。同様に、左保持部23は、左光学像表示部28の他端である端部ELから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。右保持部21及び左保持部23は、眼鏡のテンプル(つる)のようにして、使用者の頭部に画像表示部20を保持する。
右表示駆動部22と左表示駆動部24とは、使用者が画像表示部20を装着した際の使用者の頭部に対向する側に配置されている。なお、右表示駆動部22及び左表示駆動部24を総称して単に「表示駆動部」とも呼び、右光学像表示部26及び左光学像表示部28を総称して単に「光学像表示部」とも呼ぶ。
表示駆動部22,24は、液晶ディスプレイ241,242(Liquid Crystal Display、以下「LCD241,242」と呼ぶ)、投写光学系251,252等を含む。
右光学像表示部26及び左光学像表示部28は、導光板261,262(図2)と、調光板20Aとを備える。導光板261,262は、光透過性の樹脂等によって形成され、表示駆動部22,24が出力する画像光を、使用者の眼に導く。調光板20Aは、薄板状の光学素子であり、使用者の眼の側とは反対の側である画像表示部20の表側を覆うように配置される。調光板20Aは、光透過性がほぼ無いもの、透明に近いもの、光量を減衰させて光を透過するもの、特定の波長の光を減衰又は反射するもの等、種々のものを用いることができる。調光板20Aの光学特性(光透過率など)を適宜選択することにより、外部から右光学像表示部26及び左光学像表示部28に入射する外光量を調整して、虚像の視認のしやすさを調整できる。本実施形態では、少なくとも、頭部装着型表示装置100を装着した使用者が外の景色を視認できる程度の光透過性を有する調光板20Aを用いる場合について説明する。調光板20Aは、右導光板261及び左導光板262を保護し、右導光板261及び左導光板262の損傷や汚れの付着等を抑制する。
調光板20Aは、右光学像表示部26及び左光学像表示部28に対し着脱可能としてもよく、複数種類の調光板20Aを交換して装着可能としてもよいし、省略してもよい。
そして、頭部装着型表示装置100は、内部で処理する画像の画像光と外光とを重ねて使用者の眼に入射させ、使用者にとっては、調光板20Aを透かして外景が見え、この外景に重ねて、画像光による画像が視認される。このように、頭部装着型表示装置100は、シースルー型の表示装置として機能する。
カメラ61は、右光学像表示部26と左光学像表示部28との境目部分に配置される。使用者が画像表示部20を装着した状態で、カメラ61の位置は、水平方向においては使用者の両眼のほぼ中間であり、鉛直方向においては使用者の両眼より上である。カメラ61は、CCDやCMOS等の撮像素子及び撮像レンズ等を備えるデジタルカメラであり、単眼カメラであってもステレオカメラであってもよい。
カメラ61は、頭部装着型表示装置100の表側方向、換言すれば、頭部装着型表示装置100を装着した状態における使用者の視界方向の少なくとも一部の外景を撮像する。カメラ61の画角の広さは適宜設定可能であるが、カメラ61の撮像範囲が、使用者が右光学像表示部26、左光学像表示部28を通して視認する外界を含む範囲であることが好ましい。さらに、調光板20Aを通した使用者の視界の全体を撮像できるようにカメラ61の撮像範囲が設定されているとより好ましい。
カメラ61は、制御部140(図4)の制御に従って撮像を実行し、撮像画像データを制御部140に出力する。
画像表示部20は、制御装置10に接続部40を介して接続する。接続部40は、制御装置10に接続される本体コード48、右コード42、左コード44、及び、連結部材46を備える。右コード42及び左コード44は、本体コード48が2本に分岐したコードである。右コード42は、右保持部21の延伸方向の先端部APから右保持部21の筐体内に挿入され、右表示駆動部22に接続される。同様に、左コード44は、左保持部23の延伸方向の先端部APから左保持部23の筐体内に挿入され、左表示駆動部24に接続される。
連結部材46は、本体コード48と、右コード42及び左コード44との分岐点に設けられ、イヤホンプラグ30を接続するためのジャックを有する。イヤホンプラグ30からは、右イヤホン32及び左イヤホン34が延伸する。イヤホンプラグ30の近傍にはマイク63が設けられる。イヤホンプラグ30からマイク63までは一本のコードにまとめられ、マイク63からコードが分岐して、右イヤホン32と左イヤホン34のそれぞれに繋がる。
マイク63は、例えば図1に示すように、マイク63の集音部が使用者の視線方向を向くように配置され、音声を集音して、音声信号を音声処理部187(図3)に出力する。マイク63は、例えばモノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであってもよいし、無指向性のマイクであってもよい。
右コード42、左コード44、及び、本体コード48は、デジタルデータを伝送可能なものであればよく、例えば金属ケーブルや光ファイバーで構成できる。また、右コード42と左コード44とを一本のコードにまとめた構成としてもよい。
画像表示部20と制御装置10とは、接続部40を介して各種信号を伝送する。本体コード48の連結部材46とは反対側の端部、及び、制御装置10には、互いに嵌合するコネクター(図示略)が設けられる。本体コード48のコネクターと制御装置10のコネクターとを嵌合し、或いは、この嵌合を外すことで、制御装置10と画像表示部20とを接離できる。
制御装置10は、頭部装着型表示装置100を制御する。制御装置10は、決定キー11、点灯部12、表示切替キー13、輝度切替キー15、方向キー16、メニューキー17、及び電源スイッチ18を含むスイッチ類を備える。また、制御装置10は、使用者が手指で操作するトラックパッド14を備える。
決定キー11は、押下操作を検出して、制御装置10で操作された内容を決定する信号を出力する。点灯部12は、LED等の光源を備え、光源の点灯状態により、頭部装着型表示装置100の動作状態(例えば、電源のON/OFF)を通知する。表示切替キー13は、押下操作に応じて、例えば、画像の表示モードの切り替えを指示する信号を出力する。
トラックパッド14は、接触操作を検出する操作面を有し、操作面に対する操作に応じて操作信号を出力する。操作面における検出方式は限定されず、静電式、圧力検出式、光学式等を採用できる。輝度切替キー15は、押下操作に応じて画像表示部20の輝度の増減を指示する信号を出力する。方向キー16は、上下左右方向に対応するキーへの押下操作に応じて操作信号を出力する。電源スイッチ18は、頭部装着型表示装置100の電源ON/OFFを切り替えるスイッチである。
図4は、頭部装着型表示装置100を構成する各部の機能ブロック図である。
頭部装着型表示装置100は、コンテンツの供給元となる種々の外部機器OAを接続するインターフェイス125を備える。インターフェイス125は、例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等の有線接続に対応したインターフェイスを用いることができ、無線通信インターフェイスで構成してもよい。外部機器OAは、頭部装着型表示装置100に画像を供給する画像供給装置であり、パーソナルコンピューター(PC)、携帯電話端末、携帯型ゲーム機等が用いられる。
制御装置10は、制御部140、入力情報取得部110、記憶部120、送信部(Tx)51及び送信部(Tx)52を有する。
入力情報取得部110は、操作部111に接続される。操作部111は、制御装置10の各操作子に接続され、これら各操作子の操作を検出し、検出した操作子に対応する操作信号を入力情報取得部110に出力する。入力情報取得部110は、操作部111から入力される信号に基づき、制御装置10の操作により入力される入力内容を取得する。
記憶部120は、不揮発性の記憶装置であって、種々のコンピュータープログラム、および、これらのプログラムに係るデータを記憶する。また、記憶部120は、画像表示部20に表示する静止画像や動画像のデータを記憶しても良い。
制御装置10は、一次電池や二次電池を有する電源部130を備え、制御装置10及び画像表示部20の各部に電源部130から電源を供給する。
制御部140には、3軸センサー113、音声認識部114、GPS115、及び通信部117が接続される。3軸センサー113は3軸の加速度センサーであり、制御部140は3軸センサー113の検出値を取得する。GPS115は、アンテナ(図示略)を備え、GPS(Global Positioning System)信号を受信し、制御装置10の現在位置を算出する。GPS115は、GPS信号に基づいて求めた現在位置や現在時刻を制御部140に出力する。また、GPS115はGPS信号に含まれる情報に基づいて現在時刻を取得し、制御部140が計時する時刻を修正させる機能を備えていてもよい。
通信部117は、無線LAN(WiFi(登録商標))、Miracast(登録商標)、Bluetooth(登録商標)等の規格に準じた無線データ通信を実行する。
外部機器OAが、通信部117に無線接続された場合、制御部140は、コンテンツデータを通信部117より取得して、画像表示部20に画像を表示させる。一方、外部機器OAが、インターフェイス125に有線接続された場合、制御部140は、コンテンツデータをインターフェイス125より取得して、画像表示部20に画像を表示させる。通信部117及びインターフェイス125は、外部機器OAからコンテンツデータを取得するデータ取得部DAとして機能する。
制御部140は、プログラムを実行するCPU(図示略)、CPUが実行するプログラムやデータを一時的に格納するRAM(図示略)、及び、CPUが実行する基本制御プログラムやデータを不揮発的に記憶するROM(図示略)を有する。制御部140は、CPUにより制御プログラムを実行することで、頭部装着型表示装置100の各部を制御する。また、制御部140は、記憶部120が記憶するコンピュータープログラムを読み出して実行し、制御部140の各種機能を実現するコンピューターに相当する。制御部140は、オペレーティングシステム(OS)150、画像処理部160、表示制御部170、撮像処理部181、デバイス制御部183、AR表示制御部185、及び、音声処理部187として機能する。
画像処理部160は、コンテンツに含まれる画像信号を取得する。画像処理部160は、取得した画像信号から、垂直同期信号VSyncや水平同期信号HSync等の同期信号を分離する。また、画像処理部160は、分離した垂直同期信号VSyncや水平同期信号HSyncの周期に応じて、PLL(Phase Locked Loop)回路等(図示略)を利用してクロック信号PCLKを生成する。画像処理部160は、同期信号が分離されたアナログ画像信号を、A/D変換回路等(図示略)を用いてディジタル画像信号に変換する。画像処理部160は、変換後のディジタル画像信号を、対象画像の画像データ(図中、Data)として、1フレームごとに、制御部140のRAMに格納する。この画像データは、例えばRGBデータである。
なお、画像処理部160は、必要に応じて、画像データの解像度を右表示駆動部22及び左表示駆動部24に適した解像度に変換する解像度変換処理を行ってもよい。また、画像処理部160は、画像データの輝度や彩度を調整する画像調整処理、3D画像データから2D画像データを作成し、或いは2D画像データから3D画像データを生成する2D/3D変換処理等を実行してもよい。
画像処理部160は、クロック信号PCLK、垂直同期信号VSync、水平同期信号HSync、RAMに格納された画像データDataのそれぞれを、送信部51、52を介して送信する。送信部51、52は、トランシーバーとして機能し、制御装置10と画像表示部20との間におけるシリアル伝送を実行する。なお、送信部51を介して送信される画像データDataを「右眼用画像データ」と呼び、送信部52を介して送信される画像データDataを「左眼用画像データ」と呼ぶ。
表示制御部170は、右表示駆動部22及び左表示駆動部24を制御する制御信号を生成し、この制御信号により、右表示駆動部22及び左表示駆動部24のそれぞれによる画像光の生成及び射出を制御する。具体的には、右LCD制御部211による右LCD241の駆動ON/OFF、右バックライト制御部201による右バックライト221の駆動ON/OFFを制御する。また、表示制御部170は、左LCD制御部212による左LCD242の駆動ON/OFF、左バックライト制御部202による左バックライト222の駆動ON/OFFを制御する。
音声処理部187は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、右イヤホン32および左イヤホン34に出力する。また、音声処理部187は、マイク63により集音される音声を取得してディジタル音声データに変換する。音声処理部187は、ディジタル音声データに対して予め設定された処理を行ってもよい。
画像表示部20は、インターフェイス25と、右表示駆動部22と、左表示駆動部24と、右光学像表示部26としての右導光板261と、左光学像表示部28としての左導光板262と、カメラ61と、振動センサー65と、9軸センサー66とを備えている。
振動センサー65は、加速度センサーを利用して構成され、例えば図1に示すように、右保持部21において右光学像表示部26の端部ERの近傍に内蔵される。振動センサー65は、使用者が端部ERを叩く操作(ノック操作)を行った場合に、この操作による振動を検出して、検出結果を制御部140に出力する。この振動センサー65の検出結果により、制御部140は、使用者によるノック操作を検出する。
9軸センサー66は、加速度(3軸)、角速度(3軸)、地磁気(3軸)を検出するモーションセンサーである。制御部140は、画像表示部20が使用者の頭部に装着されているとき、9軸センサー66の検出値に基づいて使用者の頭部の動きを検出できる。例えば、制御部140は、9軸センサー66の検出値に基づき、画像表示部20の傾きの大きさと傾きの向きを推定できる。
9軸センサー66が内蔵する加速度センサー及び角速度センサーの検出軸は、例えば、図1に示すX,Y,Zの3軸とすることができる。この例では、画像表示部20を装着する使用者の頭部に対し左右方向をX軸、前後方向をY軸、上下方向をZ軸とする。より詳細には、頭部装着型表示装置100の装着状態において、画像表示部20は左右の眼に対し、使用者が知覚する水平な位置にある。頭部装着型表示装置100の標準的な装着位置において、9軸センサー66の検出軸(X軸、Y軸、Z軸)が、使用者が知覚する左右、前後、及び上下に一致する構成である。9軸センサー66の加速度センサーは、X軸方向、Y軸方向、及びZ軸方向の加速度を検出する。また、9軸センサー66が備える角速度センサーは、X軸まわりの回転(ピッチ)、Y軸回りの回転(ヨー)、及びZ軸まわりの回転(ロール)を検出する。
インターフェイス25は、右コード42と左コード44とが接続されるコネクターを備える。インターフェイス25は、送信部51から送信されるクロック信号PCLK、垂直同期信号VSync、水平同期信号HSync、画像データDataを、対応する受信部(Rx)53、54に出力する。また、インターフェイス25は、表示制御部170から送信される制御信号を、対応する受信部53、54、右バックライト制御部201又は左バックライト制御部202に出力する。
また、インターフェイス25は、カメラ61、振動センサー65及び9軸センサー66を接続するインターフェイスである。振動センサー65による振動の検出結果や、9軸センサー66による加速度(3軸)、角速度(3軸)、地磁気(3軸)の検出結果は、インターフェイス25を介して制御部140に送られる。
右表示駆動部22は、上述した右バックライト221、右LCD241、及び右投写光学系251を備える。また、右表示駆動部22は、受信部53、右バックライト(BL)221を制御する右バックライト(BL)制御部201、及び、右LCD241を駆動する右LCD制御部211を備える。
受信部53は、送信部51に対応するレシーバーとして動作し、制御装置10と画像表示部20との間におけるシリアル伝送を実行する。右バックライト制御部201は、入力された制御信号に基づいて、右バックライト221を駆動する。右LCD制御部211は、受信部53を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データDataと、に基づいて、右LCD241を駆動する。
左表示駆動部24は、右表示駆動部22と同様の構成を有する。左表示駆動部24は、上述した左バックライト222、左LCD242、及び左投写光学系252を備える。また、左表示駆動部24は、受信部54、左バックライト222を駆動する左バックライト制御部202、及び、左LCD242を駆動する左LCD制御部212を備える。
受信部54は、送信部52に対応するレシーバーとして動作し、制御装置10と画像表示部20との間におけるシリアル伝送を実行する。左バックライト制御部202は、入力された制御信号に基づいて、左バックライト222を駆動する。左LCD制御部212は、受信部54を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データDataと、に基づいて、左LCD242を駆動する。なお、右バックライト制御部201と、右LCD制御部211と、右バックライト221と、右LCD241とを総称して、右の「画像光生成部」とも呼ぶ。同様に、左バックライト制御部202と、左LCD制御部212と、左バックライト222と、左LCD242とを総称して、左の「画像光生成部」とも呼ぶ。
撮像処理部181は、カメラ61を制御して撮像を実行させ、撮像画像データを取得する。
デバイス制御部183は、通信部117を制御して操作デバイス3との間でデータ通信を行い、操作デバイス3から受信するデータを解析する。また、デバイス制御部183は、カメラ61の撮像画像データに基づき、操作デバイス3が備えるLED313の点滅パターンが特定のパターンに該当する場合に、このパターンを復号化して、データを受信する。
AR表示制御部185は、ARコンテンツのデータに基づき、画像処理部160及び表示制御部170を制御して、AR表示用の画像を画像表示部20により表示させる。ARコンテンツのデータは、例えば、記憶部120が記憶する。また、AR表示制御部185は、ARコンテンツデータ123が音声データを含む場合、音声処理部187を制御して、右イヤホン32、左イヤホン34からコンテンツの音声を出力させる。
AR表示制御部185は、使用者が画像表示部20越しに対象物を見ている状態でARコンテンツを表示する。AR表示制御部185は、対象物に対応する位置に画像や文字等を表示するAR表示を行うことで、対象物に関する情報を提供し、或いは、画像表示部20越しに見える対象物の姿の見え方を変える。ARコンテンツは、対象物に対応する位置に表示される画像や文字のデータを含む。また、ARコンテンツに、対象物を特定するデータ、及び、画像や文字の表示位置に関するデータ等を含んでもよい。ARコンテンツの表示位置は対象物に重なる位置であっても対象物の周囲であってもよい。対象物は物体であればよく、建物等の不動産であってもよいし、自動車や電車などの移動体であってもよく、人間や動物などの生物であってもよい。AR表示制御部185は、撮像処理部181が取得する撮像画像データから、使用者の視界に位置する対象物を検出する。そして、AR表示制御部185は、検出した対象物に対応するARコンテンツの表示位置を決定し、ARコンテンツを表示する。
ARコンテンツは、使用者が対象物を視認する位置に重なるように、或いは、対象物を視認する位置に合わせて、表示することが望ましい。このため、AR表示制御部185は、撮像処理部181の撮像画像データから対象物の画像を検出し、検出した対象物の画像と撮像画像全体との位置関係に基づき、カメラ61の撮像範囲における対象物の位置を特定する。AR表示制御部185は、カメラ61の撮像範囲と、画像表示部20の表示領域との位置関係に基づき、対象物の位置に対応するARコンテンツの表示位置を決定する。
音声処理部187は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、右イヤホン32および左イヤホン34に出力する。また、音声処理部187は、マイク63により集音される音声を取得してディジタル音声データに変換する。音声処理部187は、ディジタル音声データに対して予め設定された処理を行ってもよい。
[表示システムの動作]
図5は、表示システム1の動作を示すフローチャートであり、特に、操作デバイス3の動作を示す。
操作デバイス3は、表示システム1の操作を行わない間は、時計モードで動作する(ステップS11)。時計モードにおいて、UIモードへの移行を指示する操作が行われると(ステップS12)、操作デバイス3の制御部350は、カメラ311、311により撮像を実行して使用者の視線を検出する(ステップS13)。制御部350は、視線を検出するまで撮像および撮像画像の解析を行う(ステップS13;NO)。
制御部350は、視線を検出した場合(ステップS13;YES)、頭部装着型表示装置100がONになっているか否かを判定する(ステップS14)。ステップS14では、例えば、無線通信部361により頭部装着型表示装置100の通信部117と通信を行い、頭部装着型表示装置100の動作状態を検出することで、判定を行う。また、例えば、撮像制御部353の制御によりカメラ311で撮像を実行し、撮像画像に基づき頭部装着型表示装置100の動作状態を判定してもよい。例えば、画像表示部20が表示する画像が調光板20Aを透過して撮像画像に写った場合に、頭部装着型表示装置100がONであると判定してもよい。また、画像表示部20に、動作状態に応じて発光する発光部を設け、撮像画像から発光部の発光状態を特定して、動作状態を判定してもよい。
頭部装着型表示装置100がONでないと判定した場合(ステップS14;NO)、制御部350は、無線通信部361により通信を実行し、頭部装着型表示装置100に対して起動を指示するデータを送信する(ステップS15)。制御部350は、頭部装着型表示装置100から起動したことを示す制御データを受信し、ステップS17に移行する。また、頭部装着型表示装置100がONであると判定した場合(ステップS14;YES)、制御部350はステップS17に移行する。
ステップS17で、制御部350は、頭部装着型表示装置100の認証が済んでいるか否かを判定する。制御部350は、頭部装着型表示装置100と組み合わせて使用される場合に、頭部装着型表示装置100の認証を行い、認証に成功した頭部装着型表示装置100のユーザーインターフェイスとして動作する。認証が済んでいないと判定した場合(ステップS17;NO)、制御部350は、ステップS14でONになっているか否かを判定した頭部装着型表示装置100と、認証用のデータを送受信して認証する(ステップS18)。認証に必要なデータを送受信した場合、イヤホンプラグ30は、頭部装着型表示装置100とペアリング、即ちユーザーインターフェイスとして動作する1対1の対応付けを行い(ステップS19)、ステップS20に移行する。この対応付けは1対多であってもよい。また、頭部装着型表示装置100の認証が済んだ場合は(ステップS17;YES)、制御部350はステップS20に移行する。
ステップS20で、制御部350は、LCD303に操作用の画面を表示し、操作に対して待機する。操作用の画面は、例えば、図2(B)や図2(C)に例示した画面である。
制御部350は、操作を待機し、操作検出部351により操作を検出すると(ステップS21)、検出した操作を示す操作データを頭部装着型表示装置100に送信する(ステップS22)。
その後、制御部350は、終了条件が成立したか否かを判定する(ステップS23)。終了条件が成立している場合(ステップS23;YES)、制御部350は時計モードに移行して(ステップS24)、本処理を終了する。また、終了条件が成立していない場合は(ステップS23;NO)、ステップS21に戻る。
終了条件は、例えば、タッチパネル304、ボタン305、リュウズ型操作子307、或いはボタン309によりUIモードの終了を指示する操作が行われたこと、頭部装着型表示装置100から終了を指示する制御データを受信したこと、等である。
表示システム1では、頭部装着型表示装置100が、操作デバイス3による操作に対応したAR画像を表示できる。
図6は、頭部装着型表示装置100の動作を示すフローチャートであり、特に、操作デバイス3に対応したAR表示を行う動作を示す。
制御部140は、デバイス制御部183により、操作デバイス3が送信する操作データを通信部117で受信して解析し(ステップS31)、操作の種別を特定する(ステップS32)。ステップS31で受信するデータは、操作デバイス3が操作に対応して送信する操作データ(図5のステップS22)である。デバイス制御部183は、操作データが示す操作に対応する指示が、操作デバイス3の操作の設定に関する指示であるか否かを判定する(ステップS33)。操作の設定以外の指示である場合(ステップS33;NO)、デバイス制御部183は、ステップS32で特定した操作に対応する処理を実行し(ステップS34)、本処理を終了する。ステップS34では、例えば、撮像開始を指示する操作データに従ってカメラ61の撮像を開始する処理や、AR表示の開始又は終了を指示する操作データに従って、AR表示制御部185でAR表示を開始/終了する。
一方、操作データが示す操作に対応する指示が、操作の設定に関する指示である場合(ステップS33;YES)、AR表示制御部185が、操作設定用のAR表示を行う(ステップS35)。ここで、デバイス制御部183は、AR表示中の操作デバイス3における操作に対応して操作デバイス3が操作データを送信すると、この操作データを受信して、受信した操作データに基づき、設定、及び設定の更新を行う。
図7は、操作設定用のAR表示の例を示し、(A)はベゼル301の操作について設定を行うためのAR表示の例を示し、(B)はボタン309の操作について設定を行うためのAR表示の例を示す。
図7(A)の例では、使用者の視野VRに実物の操作デバイス3が視認され、この操作デバイス3に対応する位置に、ARコンテンツが画像表示部20により表示される。ARコンテンツは、割り当て候補表示A1、A2、A3、A4及び設定候補A11、A12、A13、A14である。割り当て候補表示A1、A2、A3、A4は、ベゼル301の回転に割り当てる機能の候補を示す画像であり、この例では、ベゼル301を回転させる操作で選択可能な機能の組合せを示すテキストを含む。割り当て候補表示A1は、「Home」、「戻る」、「メニュー」、「アプリ終了」の4つの文字列(テキスト)を含む。割り当て候補表示A2は、「進む」、「戻る」、「撮像」、「撮像終了」の4つの文字列を含む。操作デバイス3において、ベゼル301を回転する操作が行われると、割り当て候補A1〜A4のいずれかが順に選択できる。
図7(A)の例では割り当て候補A2が選択されている。このため、視野VRの中央に見える操作デバイス3に重なるように、「進む」、「戻る」、「撮像」、「撮像終了」の4つの文字列が配置される。これらの文字列は、割り当てる機能の候補、すなわち、設定候補A11、A12、A13、A14である。ベゼル301の操作により、割り当て候補表示A2から、他の割り当て候補表示に切り替えられると、設定候補A11、A12、A13、A14の文字列が変更される。従って、使用者は、ベゼル301の回転操作に割り当てる機能を、割り当て候補表示A1、A2、A3、A4の中から選択して設定できる。操作デバイス3で、ボタン305が操作されると、ベゼル301の操作で選択された割り当て候補表示が確定され、設定が更新される。
図7(B)の例では、実物の操作デバイス3に対応する位置に、ARコンテンツとして、割り当て候補表示A21、A22、A23、A24及び設定候補A31、A32、A33、A34が表示される。割り当て候補表示A21、A22、A23、A24は、4個のボタン309に割り当てる機能の候補を示す画像であり、この例では、4つのボタン309のそれぞれが操作されたときに実行される機能を示すテキストを含む。割り当て候補表示A21は、「Home」、「戻る」、「メニュー」、「アプリ終了」の4つの文字列(テキスト)を含む。割り当て候補表示A22は、「進む」、「戻る」、「撮像」、「撮像終了」の4つの文字列を含む。操作デバイス3において、ベゼル301を回転する操作が行われると、割り当て候補A21〜A24のいずれかが順に選択できる。
図7(B)の例では割り当て候補A22が選択されている。このため、視野VRの中央に見える操作デバイス3に重なるように、「進む」、「戻る」、「撮像」、「撮像終了」の4つの文字列が配置される。これらの文字列は、割り当てる機能の候補、すなわち、設定候補A31、A32、A33、A34であり、機能を割り当てるボタン309に対応する位置に表示される。ベゼル301の操作により、割り当て候補表示A22から、他の割り当て候補表示に切り替えられると、設定候補A31、A32、A33、A34の文字列が変更される。従って、使用者は、ベゼル301の回転操作に割り当てる機能を、割り当て候補表示A21、A22、A23、A24の中から選択して設定できる。操作デバイス3で、ボタン305が操作されると、ベゼル301の操作で選択された割り当て候補表示が確定され、設定が更新される。
図7(A)、(B)の例は、操作デバイス3が送信する操作データに対応して頭部装着型表示装置100が実行する機能を設定する動作を示す。機能の割り当てを設定し、更新できるので、操作デバイス3により頭部装着型表示装置100の様々な機能について操作を行える。また、AR表示を利用することで、容易に設定を行うことができる。
図8は、操作デバイス3の操作に応じて頭部装着型表示装置100が実行する動作の例を示す説明図である。図8には、AR表示制御部185の制御により画像表示部20が表示するAR表示の表示態様を、操作デバイス3の操作に応じて変化させる例を示す。図8(A)は画像表示部20によるAR表示の例を示し、(B)はAR表示の表示態様を変化させた例を示す。
図8(A)の例では、視野VRに、実際の外景として、ステージ、出演者、及び、客席が見えている。この例では、実際の外景に重なるように、舞台上で上演されている演目に関連する文字列A51が表示される。文字列A51は、例えば舞台の台詞を示すテキストであって、ステージに重なる位置にAR表示される。
頭部装着型表示装置100は、操作デバイス3の操作に応じて、文字列A51の表示サイズを変更し、例えば図8(B)に示すように、縮小して表示する。この動作は、操作デバイス3が送信する操作データを、デバイス制御部183が解析し、AR表示の縮小に相当する操作が行われたことをデバイス制御部183が検出すると、AR表示制御部185が表示サイズを変更する。
頭部装着型表示装置100では、図6及び図7を参照して説明したように、操作デバイス3における操作に、頭部装着型表示装置100が実行する動作を対応付けることができる。この対応付けは、ボタン309の操作、及び、ベゼル301の回転操作に限定されない。例えば、ボタン305の押圧操作、及びリュウズ型操作子307を回転させる操作であってもよい。また、例えば、タッチパネル304に対し指で接触する操作を含んでもよい。
具体的には、ベゼル301を右に回す操作に対応して表示画像を拡大し、ベゼル301を左に回す操作に対応して表示画像を縮小してもよい。また、タッチパネル304の中央部に対する指の接触を検出した場合に表示画像を拡大し、タッチパネル304の周縁部(例えば、左下枠近傍)への指の接触を検出した場合に表示画像を縮小してもよい。また、タッチパネル304に接触した指が、接触したまま右回し、左回し等の回転運動をした場合に、この回転に合わせて表示画像を回転させてもよい。
また、これらの操作に対応して、頭部装着型表示装置100は、画像表示部20で表示する画像(文字を含む)の拡大、縮小に限らず、回転、コピー、ページ送り等を行ってもよい。
さらに、操作デバイス3は、9軸センサー368の検出値を頭部装着型表示装置100に送信することもできる。また、操作デバイス3がGPS検出部を備えた構成とし、GPS検出部で検出する現在位置を、頭部装着型表示装置100に送信してもよい。この場合、制御部140は、操作デバイス3から受信する検出値と3軸センサー113の検出値とに基づき、操作デバイス3と頭部装着型表示装置100との相対位置を検出できる。
そして、制御部140は、操作デバイス3の動き、或いは、操作デバイス3と頭部装着型表示装置100との相対位置の変化に対応して、表示画像の拡大、縮小、回転など表示の変更を行っても良く、画像のフェードイン表示、フェードアウト表示を行ってもよい。この場合、操作デバイス3を頭部装着型表示装置100に近づけたり、遠ざけたりする操作により、表示を変更できる。
表示システム1の動作は上記の例に限定されず、例えば、次のような動作を実行できる。
操作デバイス3においてベゼル301を回転させる操作により、複数の候補を、順に切り替えて選択する操作を実現できる。この操作によれば、例えば、ファイルやフォルダーを選択する場合、仮想キーボードにおいて仮想キーを選択する場合に、ベゼル301を回転させればよい。ベゼル301は、直感的に操作が可能であり、操作デバイス3の平面部300Aの外周部に位置するため、手探りによる操作が可能である。このため、使用者は、画像表示部20により表示されるAR表示に注目しながらベゼル301を操作できる。さらに、平面部300Aとは離れた位置に設けられ、他のスイッチ式の操作子よりも大型のボタン305により、選択を確定できるので、より容易に操作を行える。ボタン305は、位置及びサイズが、ボタン309やリュウズ型操作子307とは異なるので、ベゼル301と同様に、手探りによる操作が容易である。このため、画像表示部20が表示する画像を見ながら、直感的で確実な操作を行える。
また、ベゼル301を回転させる操作に応じて、制御部140は、画像表示部20が表示する画面を遷移させる動作を行ってもよい。頭部装着型表示装置100のオペレーティングシステム150は、iOS(登録商標)やAndroid(登録商標)のように、複数の画面を切り替え、遷移させる構成とすることが考えられる。この場合、ベゼル301を回転させる操作に応じて、画面を遷移させることで、ベゼル301の操作をより効果的に使用できる。
複数の候補から一つの候補を選択する操作では、ベゼル301の操作に代えて、音声による選択が可能な構成としてもよい。この場合、候補に付された固有の名称、番号、符号等を音声で指定すると、この音声を操作デバイス3がマイク365で検出し、検出した音声のデータを頭部装着型表示装置100に送信し、制御部140が設定を行ってもよい。
また、頭部装着型表示装置100が操作デバイス3に制御データを送信して、操作デバイス3を動作させることも可能である。例えば、制御部140のデバイス制御部183は、タッチパネル304、及び9軸センサー368の検出開始や、不検出状態への移行を指示する制御データを送信してもよい。この場合、操作デバイス3におけるセンシングの実行/不実行を頭部装着型表示装置100が制御でき、誤操作を防止し、電源部360の消耗を防止できる。また、デバイス制御部183は、カメラ311の撮像開始および撮像停止を指示する制御データを送信してもよい。また、デバイス制御部183は、LCD303の点灯、消灯、点滅を制御する制御データを送信してもよい。
また、操作デバイス3は、頭部装着型表示装置100が送信するデータに基づく出力を行うこともできる。例えば、デバイス制御部183が、通信部117によりテキストデータや画像データを送信し、操作デバイス3が、頭部装着型表示装置100から受信するテキストデータや画像データをLCD303に表示してもよい。この場合、頭部装着型表示装置100の動作状態(ステータス)を、LCD303に表示させて、使用者が頭部装着型表示装置100の動作状態を容易に把握できる。例えば、頭部装着型表示装置100を装着していない状態で、使用者が、頭部装着型表示装置100の動作状態を知りたい場合に、有用である。また、操作デバイス3が、頭部装着型表示装置100から受信するデータに従ってスピーカー370から音声を出力してもよいし、バイブレーター369を動かして振動を発生してもよい。
さらに、デバイス制御部183が操作デバイス3に対し、撮像実行と撮像画像データの送信を指示する制御データを送信し、操作デバイス3が撮像を行って、撮像画像データを画像表示部20に表示することもできる。この場合、頭部装着型表示装置100が備えるカメラ61では撮像できない角度から撮像を行い、撮像画像を画像表示部20に表示できる。また、この撮像画像データを制御部140が解析してもよい。
また、表示システム1では、操作デバイス3のNFC部362により、非接触型ICカードや、RFIDタグに記録されたデータを読み取り、読み取ったデータを無線通信部361から通信部117に送信してもよい。この場合、ICカード型電子マネーの残高等を画像表示部20により表示できる。
このように、表示システム1では、シースルー方式の頭部装着型表示装置100と、時計型の操作デバイス3とを組み合わせ、操作デバイス3の操作により頭部装着型表示装置100を動作させる。これにより、操作時以外はハンズフリーを実現し、操作時でも自然な動きで操作できる。また、操作デバイス3は、時計モードで動作することにより腕時計として使用できる。この操作デバイス3を、操作用のユーザーインターフェイスとして使うことで、操作時以外はハンズフリーを実現し、操作時でも自然な動きで操作することを可能とする。また、画像表示部20の表示により、操作デバイス3に関する情報を見ることもでき、LCD303を直視する必要がなくなるので、LCD303の表示を見るために手を使う必要がないという利点もある。
また、タッチパネル304がいわゆるマルチタッチ操作に対応する場合、タッチパネル304に対する複数の操作点の間隔を拡大、或いは縮小させる操作等に対応して、頭部装着型表示装置100の表示画像を拡大、縮小、或いは回転させる動作を行ってもよい。
また、表示システム1では、頭部装着型表示装置100が、操作デバイス3との相対位置を検出することが可能である。この位置検出には種々の方法を用いることが可能であるが、本実施形態では、頭部装着型表示装置100が操作デバイス3を含む範囲を撮像し、撮像画像データに基づき相対位置を特定する例を説明する。
図9は、頭部装着型表示装置100の動作を示すフローチャートであり、特に、頭部装着型表示装置100と操作デバイス3との相対位置を検出する位置検出処理を示す。
制御部140は、撮像処理部181によりカメラ61を制御して撮像を実行する(ステップS51)。制御部140は、カメラ61の撮像画像データを取得し、取得した撮像画像データを解析して、操作デバイス3の画像を検出する(ステップS52)。これにより、カメラ61の撮像画像において、操作デバイス3が写っている位置や操作デバイス3の画像の形状を検出できる。
続いて、制御部140は、撮像画像における操作デバイス3の画像の位置及びサイズに基づき、操作デバイス3とカメラ61との相対位置を算出する(ステップS53)。すなわち、制御部140は、操作デバイス3の画像の位置からカメラ61の画角の中心軸、例えばカメラ61の撮像レンズの光軸に対する操作デバイス3の位置を算出する。また、制御部140は、撮像画像における操作デバイス3の画像のサイズから、操作デバイス3とカメラ61の撮像面との距離を求める。ここで、制御部140は、カメラ61の撮像条件(ズーム倍率等)を用いて算出を行ってもよい。
ステップS53で、制御部140は、カメラ61と操作デバイス3との相対位置を求めた後、求めた相対位置を、頭部装着型表示装置100と操作デバイス3との相対位置に変換してもよい。
頭部装着型表示装置100及び操作デバイス3は、撮像画像における座標に比べて大きいため、基準点を設定することが現実的である。すなわち、頭部装着型表示装置100と操作デバイス3との相対位置は、頭部装着型表示装置100において設定される基準点と、操作デバイス3において設定される基準点との相対位置として求められる。頭部装着型表示装置100における基準点がカメラ61の撮像面において光軸に重なる点である場合、ステップS53で求めた相対位置は、そのまま、操作デバイス3と頭部装着型表示装置100との相対位置となる。頭部装着型表示装置100の基準点がカメラ61の撮像面とは異なる位置にある場合、制御部140は、上述した変換を行えばよい。また、操作デバイス3における基準点は、例えば、ベゼル301の中心とすればよい。
制御部140は、撮像画像における操作デバイス3の画像の形状に基づき、操作デバイス3のLCD303の向きを特定する(ステップS54)。ステップS54で、制御部140は、撮像画像における操作デバイス3のベゼル301の形状、バンド部300を含む操作デバイス3の全体形状、或いは、LCD303の形状に基づいて向きを算出できる。また、例えば図2(A)に示したように、操作デバイス3がLCD303に矢印等の図形を表示している場合や、LCD303に時刻を表示している場合に、これらLCD303の表示画像に基づいて向きを求めてもよい。
その後、制御部140は、ステップS53で算出した操作デバイス3と頭部装着型表示装置100との相対位置を示すデータ、及び、ステップS54で特定した頭部装着型表示装置100に対する操作デバイス3の向きを示すデータを生成する。制御部140は、生成したデータを含む相対位置データを、記憶部120に記憶する(ステップS55)。
例えば、図6のステップS35に示した動作で、AR表示制御部185は、頭部装着型表示装置100の使用者が画像表示部20越しに操作デバイス3を見ている状態で、操作デバイス3に重なって見えるように、ARコンテンツを表示する。ここで、AR表示制御部185は、図9に示した動作で検出した操作デバイス3と頭部装着型表示装置100との相対位置、及び、頭部装着型表示装置100に対する操作デバイス3の向きに基づき、ARコンテンツの表示位置を決定する。この処理で、AR表示制御部185は、カメラ61の撮像範囲と、画像表示部20の表示領域との位置関係に基づき、対象物の位置に対応するARコンテンツの表示位置を決定する。この位置関係は、記憶部120に記憶した相対位置データから求めることができる。
AR表示制御部185は、操作デバイス3と頭部装着型表示装置100との間の距離に対応して、ARコンテンツの表示サイズを調整してもよい。また、AR表示制御部185は、頭部装着型表示装置100に対する操作デバイス3のLCD303の向きに対応して、ARコンテンツの表示位置を調整してもよいし、ARコンテンツに含まれる画像を変形してもよい。
頭部装着型表示装置100が操作デバイス3との相対位置を検出する方法は、図9に示した方法に限定されず、例えば、操作デバイス3と頭部装着型表示装置100とがデータ通信を行い、相互の検出結果を利用してもよい。この動作例を図10に示す。
図10は、表示システム1の動作を示すフローチャートであり、(A)は操作デバイス3の動作を示し、(B)は頭部装着型表示装置100の動作を示す。
図10の動作は、例えば、操作デバイス3がUIモードである場合に実行する。
操作デバイス3の制御部350は、カメラ311、311により撮像を実行して使用者の視線を検出する(ステップS61)。制御部350は、視線を検出するまで撮像および撮像画像の解析を行う(ステップS61;NO)。
制御部350は、視線を検出した場合(ステップS61;YES)、カメラ311、311による撮像を実行し(ステップS62)、撮像画像データを取得する(ステップS63)。制御部350は、撮像画像データを無線通信部361により送信する(ステップS64)。ステップS62では、カメラ311、311のいずれか一方のみを用いて撮像をしてもよいし、2つのカメラ311、311の両方で撮像を行い、両方の撮像画像データを取得して送信してもよい。
制御部140は、通信部117によって撮像画像データを操作デバイス3から受信し(ステップS71)、受信した撮像画像データを解析して、頭部装着型表示装置100の画像を検出する(ステップS72)。これにより、撮像画像において、頭部装着型表示装置100が写っている位置や頭部装着型表示装置100の画像の形状を検出できる。
続いて、制御部140は、撮像画像における頭部装着型表示装置100の画像の位置及びサイズに基づき、操作デバイス3と頭部装着型表示装置100との相対位置を算出する(ステップS73)。例えば、制御部140は、頭部装着型表示装置100の画像の位置から、カメラ311、311の画角の中心軸に対する頭部装着型表示装置100の位置を算出する。また、制御部140は、撮像画像における頭部装着型表示装置100の画像のサイズから、頭部装着型表示装置100と操作デバイス3との距離を求める。ここで、制御部140は、カメラ311、311の撮像条件(ズーム倍率等)を用いて算出を行ってもよい。
ステップS73で、制御部140は、複数のカメラ311、311の撮像画像を用いて、より高精度な検出を行ってもよい。例えば、これら複数の撮像画像の視差を算出し、この視差から、操作デバイス3と頭部装着型表示装置100との間の距離を求めてもよい。
その後、制御部140は、ステップS73で算出した操作デバイス3と頭部装着型表示装置100との相対位置を示すデータを生成する(ステップS74)。制御部140は、生成したデータを含む相対位置データを、記憶部120に記憶する。
このように、操作デバイス3と頭部装着型表示装置100とが連動して、操作デバイス3と頭部装着型表示装置100との相対位置を求める処理を行ってもよい。この図10の動作において、ステップS72〜S73の処理を、制御部350が実行し、制御部350が相対位置を示すデータを生成して、頭部装着型表示装置100に送信してもよい。
図9及び図10を参照して説明したように、頭部装着型表示装置100は、頭部装着型表示装置100に対する操作デバイス3の位置を検出できる。そして、頭部装着型表示装置100は、操作デバイス3の位置に対応してARコンテンツの表示を行うことができる。さらに、上記相対位置の検出を繰り返し実行することで、操作デバイス3を基準として、頭部装着型表示装置100の動きを求めることができる。また、操作デバイス3の位置や向きに対応して、例えば、画像表示部20に表示する画面を遷移させてもよい。この場合、操作デバイス3と頭部装着型表示装置100との相対位置を変化させることが、頭部装着型表示装置100に対する操作に相当する。
例えば、図6のステップS35で、AR表示制御部185は、頭部装着型表示装置100の使用者が画像表示部20越しに操作デバイス3を見ている状態で、操作デバイス3に重なって見えるように、ARコンテンツを表示する。ここで、AR表示制御部185は、例えば操作デバイス3と頭部装着型表示装置100との相対位置、及び、頭部装着型表示装置100に対する操作デバイス3の向きに基づき、ARコンテンツの表示位置を決定する。この処理で、AR表示制御部185は、カメラ61の撮像範囲と、画像表示部20の表示領域との位置関係に基づき、対象物の位置に対応するARコンテンツの表示位置を決定する。この位置関係は、例えば記憶部120に記憶する相対位置データから求めることができる。
AR表示制御部185は、操作デバイス3と頭部装着型表示装置100との間の距離に対応して、ARコンテンツの表示サイズを調整してもよい。また、AR表示制御部185は、頭部装着型表示装置100に対する操作デバイス3のLCD303の向きに対応して、ARコンテンツの表示位置を調整してもよいし、ARコンテンツに含まれる画像を変形してもよい。
また、制御部140は、図9または図10の動作で特定した操作デバイス3との相対位置及び向きに基づき、9軸センサー66の検出軸(図1のX,Y,Z軸)と、LCD303の向き(傾き)との対応付けを行ってもよい。これにより、頭部装着型表示装置100の傾きとLCD303の傾きとの双方に連動して、画像表示部20の表示画像や、LCD303における表示画像を変化させることができる。
このほか、操作デバイス3と頭部装着型表示装置100とが連動して動作する例としては、例えば、制御部350の制御により、LCD303にマーカーを表示し、このマーカーを頭部装着型表示装置100が認識する態様が挙げられる。制御部140は、カメラ61の撮像画像からマーカーを検出する。LCD303が表示するマーカーが、バーコードや二次元コード等、情報を含めることが可能なマーカーである場合、制御部140は読取結果から情報を取得できる。制御部140は、取得した情報に基づき、通信部117により操作デバイス3との間の通信を確立する動作等を行える。また、複数の操作デバイス3がある場合に、これらの操作デバイス3を識別することも可能となる。この場合、特定の操作デバイス3と頭部装着型表示装置100との相対位置を検出する動作や、特定の操作デバイス3と通信を確立するといった動作が可能となる。
[操作デバイスの別の構成例]
ここで、操作対象物の別の構成例として、操作対象物4、5を使用する場合について説明する。
上記実施形態の表示システム1の説明では、頭部装着型表示装置100と通信を実行可能な操作デバイス3を使用者が使用する場合を例示した。
頭部装着型表示装置100は、操作デバイス3に限らず、例えば通信機能を有しないような操作対象物を使用者が操作する場合も、操作対象物の操作に対応する処理を実行できる。
図13は、操作対象物の構成例として、操作対象物4の構成を示す外観図である。
操作対象物4は、操作デバイス3と同様に腕時計型のデバイスであるが、操作デバイス3のような通信機能は必須ではないため、ここでは操作対象物と称する。操作対象物4は、例えば、一般的に使用される腕時計である。
図13に例示する操作対象物4は、腕時計の本体ケースに、リュウズ401、ベゼル402、文字盤403、長針404、短針405、インデックス406、及び日付窓407を備えるアナログ式の腕時計である。リュウズ401は通常位置において回転させることが可能であり、リュウズ401を図中右方向に引き出して回転させることにより、長針404及び短針405を回転させ、日付窓407の日付表示を送り、日時の調整を行える。
なお、文字盤403の位置に液晶表示パネルを備え、この液晶表示パネルに長針404、短針405、及びインデックス406の画像を表示する腕時計であってもよい。また、インデックス406は、数字であってもよいし、記号であってもよいし、その他、長針404及び短針405の位置の目印となる形状であれば何でもよい。また、日付窓407は必須ではなく、日付窓407を備えていない構成であってもよい。また、操作対象物4は、プッシュ操作が可能なボタン408を備える。図13の例では4個のボタン408を備えているが、ボタン408の数や位置は任意に変更可能である。また、ベゼル402も必須ではないが、図13の例ではベゼル402は図中矢印で示すように、使用者の操作によって左右に手動で回転させることができる。
操作対象物4は一般的な腕時計の一例として示すものであり、例えば、文字盤403の代わりに数字を7セグメント表示する液晶表示パネルを備えたディジタル式の腕時計を、頭部装着型表示装置100が操作対象物として認識する構成としてもよい。また、文字盤403及びケースの形状は円形に限らず、三角形や四角形であってもよい。
図14は、操作対象物の他の例を示す図である。図14に示す操作対象物5は、操作対象物4(図13)と同様に、腕時計の本体ケースに、リュウズ501、ベゼル502、及び、ボタン508を備える。また、操作対象物5は、操作対象物4の文字盤403と同じ位置に、表示面503を備える。表示面503は、液晶表示パネル、有機ELパネル、或いは、電子ペーパーで構成される表示画面である。
リュウズ501は手動で回転させることが可能な構成であってもよいし、プッシュボタンであってもよい。ベゼル502は手動で回転させることが可能な構成であってもよいし、固定された装飾であってもよい。ボタン508はプッシュ式のボタンであってもよい。
操作対象物5は、表示面503に、マーカー510を表示する。マーカー510は、複数のマーク511を含む。マーク511の位置は予め定められた位置であり、複数のマーク511の表示色、模様等が異なっていてもよい。操作対象物5は、通常時は表示面503に日付、時、分、秒、曜日等を表示し、ボタン508等の操作に応じて、マーカー510を表示する。また、操作対象物5の表示面503に代えて、文字盤403(図13)を備えてもよく、粘着性のシール(ステッカー)でマーカー510を構成し、このシールを文字盤403や表示面503に貼付してもよい。また、操作対象物5が撮像部(図示略)を備え、撮像部(図示略)の撮像画像により画像表示部20を認識した場合に、操作対象物5の制御により表示面503にマーカー510を表示してもよい。
図13の操作対象物4は4個のボタン408を備えているが、ボタン408の数や位置は任意に変更可能である。操作対象物5が備えるボタン508についても同様である。また、ボタン408、508はタッチセンサー式の操作部であってもよいし、ベゼル402、502は必須ではなく、操作対象物4、5のベルト等の形状も任意である。
図15は頭部装着型表示装置100の動作を示すフローチャートであり、操作対象物4、5を使用者が使用する場合の動作を示す。
制御部140は、撮像処理部181によりカメラ61を制御して撮像を実行させ(ステップS101)、撮像画像データを取得する。制御部140は、AR表示制御部185により、撮像画像から操作対象物4または操作対象物5の画像を検出する(ステップS102)。AR表示制御部185が操作対象物4、5の画像を検出する処理は、例えば、予め記憶部120に記憶する操作対象物4、5の画像の特徴量を示すデータを用いることで実現できる。
制御部140は、ステップS102で検出した操作対象物を、操作に使用する操作対象物として決定する(ステップS103)。カメラ61の撮像画像で複数の操作対象物4、5が検出された場合には、例えば使用者の制御装置10に対する操作によって、操作に使用する操作対象物を選択し決定してもよい。
制御部140は、AR表示制御部185によって、ステップS103で決定した操作対象物に対応する操作用画像(制御対象対応画像)を表示する(ステップS104)。操作用画像は、操作対象物の形状等に対応する画像であり、操作対象物ごとに予め用意されて記憶部120に記憶される。
図16は、操作用画像を表示した状態の例を示す図であり、操作対象物4に対応する操作用画像を表示した状態を示す。
使用者の視野VRには実空間の操作対象物4が、画像表示部20を透過して視認される。AR表示制御部185は、操作対象物4に対応する位置に見えるように、操作表示B11〜B19を含む操作用画像を表示する。操作表示B11〜B19のそれぞれは、操作対象物4の部分(制御オブジェクト)に対応する。操作表示B11〜B19のそれぞれは、図16に示すように、対応する部分を示す矢印を含んでもよい。また、操作表示B11〜B19のそれぞれは、操作対象物4の部分に対する操作により実行される処理内容を、テキストや画像により案内する。
図16の例で、操作表示B11は、長針404の操作により表示倍率を拡大することを示す。操作表示B12は、短針405の操作により表示倍率を縮小することを示す。長針404及び短針405の位置は時刻により変化する。このため、AR表示制御部185は、カメラ61の撮像画像から長針404及び短針405の位置を特定し、長針404及び/又は短針405の位置に合わせて操作表示B11、B12の表示位置を変更あるいは調整してもよい。操作表示B13はリュウズ401を回転させる操作により頭部装着型表示装置100がメニュー画面を表示し、例えば図11(A)、(B)を参照して説明したように画面表示を遷移させることを示す。操作表示B14は日付窓407の操作により確定が指示されることを示し、操作表示B15は6時位置のインデックス406の操作によって履歴が表示されることを示す。操作表示B16は12時位置のインデックス406の操作によってカメラ61が撮像を行うことを示す。操作表示B17はベゼル402の6時位置に対する操作によって操作対象物4に対する操作をロックすることを示す。また、操作表示B18、B19は、ベゼル402を回転させる操作により、表示を右回転或いは左回転させることを示す。
図17は、操作用画像を表示した状態の別の例を示す図であり、操作対象物5に対応する操作用画像を表示した状態を示す。
使用者の視野VRには実空間の操作対象物5が、画像表示部20を透過して視認される。AR表示制御部185は、操作対象物5に対応する位置に見えるように、操作表示B31〜B39を含む操作用画像を表示する。操作表示B31〜B39のそれぞれは、マーカー510のマーク511(制御オブジェクト)に対応する。操作表示B31〜B39のそれぞれは、図17に示すように、対応するマーク511を示す矢印を含んでもよい。また、操作表示B31〜B39のそれぞれは、マーク511に対する操作により実行される処理内容を、テキストや画像により案内する。
図17の例で、操作表示B31はマーク511の操作によりカメラ61が撮像を行うことを示す。操作表示B32はマーク511の操作により操作対象物4に対する操作をロックすることを示す。操作表示B33はマーク511の操作により確定が指示されることを示す。操作表示B34、B35は、マーク511の操作により、表示を右回転或いは左回転させることを示す。操作表示B36は、マーク511の操作により表示倍率を縮小することを示す。操作表示B37は、マーク511の操作により表示倍率を拡大することを示す。操作表示B38はマーク511の操作によりホーム画面が表示されることを示す。操作表示B39はマーク511の操作により頭部装着型表示装置100がメニュー画面を表示し、例えば図11(A)、(B)を参照して説明したように画面表示を遷移させることを示す。
図17に示す操作用画像は、操作対象物5に対応する操作用画像ということもできるが、マーカー510に対応する操作用画像ということもできる。つまり、制御部140は、カメラ61の撮像画像からマーカー510が検出された場合に、図17の操作用画像を表示する構成であってもよい。この場合、操作対象物5が備えるボタン508等の構成は特に制限されず、例えば、使用者の腕にマーカー510のシールを貼付し、このマーカー510(またはマーカー510が付着した腕)を操作対象物とすることができる。従って、画像表示部20とは別体であって、カメラ61により撮像可能な状態でマーカー510を有するものであれば、どのような物であっても操作対象物とすることができる。
図16の操作表示B11〜B19を含む操作用画像が表示された状態で、操作対象物4に対する操作は、例えば、使用者の手指を操作対象物4の部分に重ねることで行われる。この場合、制御部140は、デバイス制御部183により、カメラ61の撮像画像から使用者の手指の画像を検出して、指先の位置に近い操作対象物4の部分を特定する。これにより、特定された部分が操作されたと見なして、制御部140は操作表示B11〜B19に示される処理を実行する。
図17の操作表示B31〜B39を含む操作用画像が表示された状態で、操作対象物5に対する操作は、例えば、使用者の手指をマーク511に重ねることで行われる。この場合、制御部140は、デバイス制御部183により、カメラ61の撮像画像から使用者の手指の画像を検出して、指先の位置に近いマーク511を特定し、このマーク511のマーカー510における位置を特定する。これにより、特定されたマーク511が操作されたと見なして、制御部140は操作表示B31〜B39に示される処理を実行する。
図15のステップS104で、図16や図17に例示した操作用画像を表示した後、制御部140は、操作の検出を開始する(ステップS105)。制御部140は、デバイス制御部183によって操作の有無を判定し(ステップS106)、操作された場合には(ステップS106;YES)、操作された位置や部分に対応して操作用画像が示す処理を実行する(ステップS107)。この処理の実行後、制御部140はステップS108に移行する。また、操作用画像に対応する操作が検出されない場合(ステップS106;NO)、制御部140はステップS108に移行する。
ステップS108で、制御部140は、操作用画像を用いた操作を終了するか否かを判定する。ここで、使用者の操作によって操作の終了が指示された場合や、使用者の視野VRにおいて操作対象物が視認されない状態になったことを検出した場合(ステップS108;YES)、制御部140は、本処理を終了する。また、操作を終了しない場合(ステップS108;NO)、制御部140はステップS106に戻る。
本実施形態では、操作デバイス3,或いは操作対象物4、5を頭部装着型表示装置100がカメラ61の撮像画像等に基づき認識した場合に、AR表示制御部185が記憶部120からARコンテンツのデータを読み出して、表示する。
図7(A)に示した操作設定用のAR表示、図16及び図17に示した操作用画像は、ARコンテンツの一例である。
図18は、記憶部120に記憶されるデータのうちARコンテンツに係るデータの構成例を示す。なお、記憶部120は、図18に示すARコンテンツデータ123及び対象デバイスデータ127に限らず、他のデータを記憶するが、図示を省略する。これらARコンテンツデータ123及び対象デバイスデータ127を記憶する記憶部120は、データ記憶部に相当する。
ARコンテンツに係るデータは、ARコンテンツデータ123、及び対象デバイスデータ127で構成される。ARコンテンツデータ123は、AR要素表示データ123a、位置属性データ123b、及び対応処理データ123cを含む。
ARコンテンツデータ123は、ARコンテンツを表示するためのデータであり、図7(A)の操作設定用のAR表示、図16及び図17の操作用画像を表示するデータに該当する。AR要素表示データ123aは、操作用のARコンテンツの要素(操作用の画像)を表示するためのデータである。ARコンテンツの要素とは、操作デバイスまたは操作対象物の操作部に対応付けて表示される文字や画像であり、矢印等の付属的な画像を伴ってもよい。図7(A)の例では割り当て候補表示A1、A2、A3、A4及び設定候補A11、A12、A13、A14が要素に相当する。図7(B)の例では割り当て候補表示A21、A22、A23、A24及び設定候補A31、A32、A33、A34が要素に相当する。また、図16の例では操作表示B11〜B19が要素に相当し、図17の例では操作表示B31〜B39が要素に相当する。AR要素表示データ123aは、例えば、上記要素を表示するための画像データ、テキストデータ、画像やテキストの表示属性(色、サイズ、フォント、背景など)を指定するデータ等を含む。
位置属性データ123bは、要素の表示位置を指定するためのデータである。要素の表示位置は、AR要素表示データ123aが含むそれぞれの要素について設定される。位置属性データ123bは、要素の表示位置を、右表示駆動部22及び左表示駆動部24における固定的な位置で指定するデータであってもよい。また、位置属性データ123bは、操作デバイス3または操作対象物4、5に対する相対的な位置として、要素の表示位置を指定するデータであってもよい。また、位置属性データ123bは、操作デバイス3または操作対象物4、5の操作部に対する相対的な位置として、要素の表示位置を指定するデータであってもよい。例えば、位置属性データ123bは、図7(A)、(B)の設定候補A11〜A14、A31〜A34の表示位置を、操作デバイス3のベゼル301に対する相対位置として指定するデータとすることができる。例えば、図16の操作表示B11〜B19の表示位置を、操作対象物4のリュウズ401、ベゼル402、文字盤403、長針404、短針405、インデックス406、日付窓407、及びボタン408等に対する相対位置として指定するデータであってもよい。例えば、図17の操作表示B31〜B39の表示位置を、操作対象物5のマーカー510及びマーク511等に対する相対位置として指定するデータであってもよい。
対応処理データ123cは、使用者の操作によって、AR要素表示データ123aに含まれる要素が選択または指定された場合に、制御部140が実行する処理を定めるデータである。図7(A)の例では、操作デバイス3の操作部(例えば、ベゼル301)の操作に応じて、制御部140が、複数の候補を順に切り替える処理、画像表示部20が表示する画面を遷移させる動作等を実行する。また、操作デバイス3の操作に応じて、デバイス制御部183が、タッチパネル304、及び9軸センサー368の検出開始や、不検出状態への移行を指示する制御データを送信する処理を実行してもよい。
図16の例で、制御部140は、長針404に対する操作に応じて表示倍率を拡大し、短針405に対する操作に応じて表示倍率を縮小する。また、リュウズ401を回転させる操作に応じてメニュー画面を表示し、画面表示を遷移させる。また、日付窓407の操作に応じて確定の指示を受け付ける処理を行い、6時位置のインデックス406に対する操作に応じて履歴を表示する。また、12時位置のインデックス406に対する操作によってカメラ61で撮像を行い、ベゼル402の6時位置に対する操作に応じて操作対象物4に対する操作をロックする。また、ベゼル402を回転させる操作に応じて、表示を右回転或いは左回転させる。
図17の例で、制御部140は、マーク511の操作に応じて、カメラ61の撮像、操作対象物4に対する操作のロック、確定の指示の受付、表示の回転、表示倍率の拡大/縮小、ホーム画面の表示、メニュー画面の表示、画面表示の遷移等の処理を行う。
対応処理データ123cは、これらの処理を指定するデータを含む。
対象デバイスデータ127は、ARコンテンツデータ123に対応する操作デバイスまたは操作対象物を示すデータであり、例えば、カメラ61の撮像画像から操作デバイスまたは操作対象物を検出するための画像特徴量のデータ等を含む。
対象デバイスデータ127は、制御部140が、例えばステップS52(図9)で操作デバイス3を検出する場合、ステップS102(図15)で操作対象物4、5を検出する場合に参照される。制御部140は、対象デバイスデータ127に基づき、操作デバイスまたは操作対象物を検出または認識し、対応するARコンテンツを特定して、ARコンテンツデータ123に基づきARコンテンツを表示できる。
ここで、記憶部120には、複数のARコンテンツデータ123を記憶できる。また、複数のARコンテンツに関するデータを一つのARコンテンツデータ123に含めてもよい。対象デバイスデータ127は、ARコンテンツごとに、対応する操作デバイスまたは操作対象物を指定するデータであり、データの対応付けの具体的態様は任意である。例えば、記憶部120に、ARコンテンツデータ123と同数の対象デバイスデータ127を記憶してもよい。また、対象デバイスデータ127が、複数のARコンテンツデータ123のそれぞれについて、対応する操作デバイスまたは操作対象物を指定するデータを含んでもよい。また、対象デバイスデータ127に、ARコンテンツデータ123が含む複数のARコンテンツに対応する操作デバイスまたは操作対象物を示すデータを含んでもよい。
また、対象デバイスデータ127を、ARコンテンツデータ123に含めてもよい。この場合、ARコンテンツデータ123は、ARコンテンツ毎に、AR要素表示データ123a、位置属性データ123b、対応処理データ123c、及び対象デバイスデータ127を対応付けて含む態様となる。
ARコンテンツにおける要素の種類、位置、数等については、使用者の操作に応じて変更することが可能であり、この変更を反映してARコンテンツデータ123を編集できる。
図19は、ARコンテンツデータ123を編集する処理を示すフローチャートである。
制御部140は、使用者の操作に応じて、ARコンテンツデータ123の編集を開始する(ステップS121)。以下の説明では、使用者の操作は、操作部111で受け付けられる操作、及び、カメラ61で検出した使用者の手等の指示体によるジェスチャー操作のいずれであってもよい。
制御部140は、例えばステップS51〜S52で実行する処理と同様に、操作デバイスまたは操作対象物を検出する(ステップS122)。制御部140は、検出した操作デバイスまたは操作対象物に対応するARコンテンツを、ARコンテンツデータ123に基づき表示する(ステップS123)。ここで、未知の操作デバイスまたは操作対象物を対象とする場合は、この操作デバイスまたは操作対象物に対応するARコンテンツデータ123が記憶部120に記憶されていない。この場合、制御部140が、未知の操作デバイスまたは操作対象物であることを検出してもよいし、使用者の操作により未知の操作デバイスまたは操作対象物であることが指示されてもよい。制御部140は、予め記憶部120に記憶する汎用のARコンテンツデータ123、または、使用者の操作または事前の設定により指定されるARコンテンツデータ123を使用して、ARコンテンツを表示する。
ステップS123で表示されたARコンテンツの要素について、使用者の操作によりARコンテンツの位置の変更(移動)、追加、削除の指示が入力されると、制御部140は、入力に従ってARコンテンツの位置変更、追加、削除を行う(ステップS124)。
また、表示中のARコンテンツの要素について、使用者の操作により、ARコンテンツの要素に対応して制御部140が実行する処理が指定されると、制御部140は、入力に従って制御部140が実行する処理の指定または変更を行う(ステップS125)。
なお、ステップS124、S125の処理の実行順序は変更可能であり、ステップS124、S125の処理を並列的に実行してもよい。
制御部140は、ARコンテンツデータ123の編集が終了したか否かを判定する(ステップS126)。編集が終了していない場合(ステップS126;NO)、制御部140はステップS124に戻る。編集が終了した場合(ステップS126;YES)、制御部140は、ステップS122で検出した操作デバイスまたは操作対象物を対象デバイスとして設定する対象デバイスデータ127を生成する(ステップS127)。制御部140は、ステップS124、S125の編集内容を反映したARコンテンツデータ123と、ステップS127で生成される対象デバイスデータ127とを対応付けて、記憶部120に記憶し(ステップS128)、本処理を終了する。
このように、使用者の操作によって、操作デバイス3、操作対象物4、5等に対応して表示されるARコンテンツの表示態様、要素の種類、位置、数、要素に対応して実行される処理を指定し、変更できる。このため、使用者の用途や嗜好に適合するARコンテンツを表示することができ、より一層の利便性の向上を図ることができる。
また、頭部装着型表示装置100は、通信部117により外部の機器と通信を行うことにより、ARコンテンツデータ123、及び、対象デバイスデータ127をダウンロードしてもよい。この場合、頭部装着型表示装置100は、スマートフォンやルーター等、他の通信ネットワークと頭部装着型表示装置100との通信を中継する外部の機器と通信を行い、当該通信ネットワークを経由してサーバー装置(図示略)からダウンロードしてもよい。また、頭部装着型表示装置100は、通信部117により接続する外部の機器(例えば、パーソナルコンピューターやスマートフォン)から、ARコンテンツデータ123及び対象デバイスデータ127をダウンロードしてもよい。
図20は、頭部装着型表示装置100がARコンテンツデータをダウンロードする処理を示すフローチャートである。
制御部140は、使用者の操作または外部の機器からのアクセスに応じてダウンロードを開始する(ステップS141)。制御部140は、ARコンテンツデータ123をダウンロードして取得する(ステップS142)。制御部140は、取得したARコンテンツデータ123のAR要素表示データ123a、位置属性データ123b、及び対応処理データ123cについて記憶部120に記憶する(ステップS143)。制御部140は、必要ならば、ステップS143において、記憶したデータを使用可能とする設定を行ってもよい。
制御部140は、ダウンロードしたデータに対象デバイスデータ127、または、対応する操作デバイス又は操作対象物を指定するデータが含まれているか否かを判定する(ステップS144)。該当するデータが含まれている場合(ステップS144;YES)、制御部140は、対象デバイスデータ127を、ARコンテンツデータ123に対応付けて記憶部120に記憶し(ステップS145)、本処理を終了する。
また、対象デバイスデータ127、または、対応する操作デバイス又は操作対象物を指定するデータが含まれていない場合(ステップS144;NO)、制御部140は、対象デバイスデータ127を生成する処理を開始する。すなわち、制御部140は、カメラ61による撮像を実行して撮像画像データを取得し(ステップS146)、撮像画像データに基づき、対象デバイスデータ127を生成する(ステップS147)。これにより、カメラ61の撮像範囲にある操作デバイスまたは操作対象物が、ダウンロードしたARコンテンツデータ123に対応する操作デバイスまたは操作対象物に設定される。
制御部140は、ARコンテンツデータ123と対象デバイスデータ127との対応に関する調整を行うか否かを判定する(ステップS148)。この調整は、ステップS146で撮像した操作デバイスまたは操作対象物にARコンテンツデータ123を対応付けるために必要な調整である。具体的には、制御部140は、ステップS147で、撮像画像データから操作デバイスまたは操作対象物の画像を抽出し、操作部を検出し、操作部の位置関係を算出し、対象デバイスデータ127を生成する。検出された各操作部に、ARコンテンツデータ123のどの要素を対応付けるかは、操作部の検出状態に影響される。そこで、例えば制御部140は、操作部とARコンテンツの要素との対応付けを調整するか否かを、使用者の指示に基づき判定する。ここで、使用者に対して指示を求めるメッセージの表示等を行ってもよい。
調整を行う場合(ステップS148;YES)、制御部140は、ARコンテンツデータを編集する処理を行う(ステップS149)。ステップS149では、例えば、図19で説明した処理(ステップS121〜S128)を実行することができる。その後、制御部140は、編集されたARコンテンツデータ123と、ステップS147で生成しステップS149で編集された対象デバイスデータ127とを対応付けて、記憶部120に記憶し(ステップS150)、本処理を終了する。また、調整を行わない場合(ステップS148;NO)、制御部140は、ステップS149を実行せずステップS150に移行し、ステップS147で生成した対象デバイスデータ127をダウンロードしたARコンテンツデータ123に対応付けて記憶部120に記憶する。
操作デバイス3は、予め記憶するデータに基づき、制御部350がLCD303に画像を表示する。操作対象物5は、予め記憶するデータに基づいて制御部(図示略)の機能によりマーカー510を表示する。これら表示用のデータは、固定的なデータに限定されず、例えば頭部装着型表示装置100または他の外部の機器からダウンロードして追加できる構成としてもよい。
例えば、操作対象物5は、マーカー510を編集し、或いは追加できる構成としてもよい。図14及び図17を参照して説明したように、操作対象物5は、LCDまたは電子ペーパー型ディスプレイで構成される表示面503にマーカー510を表示する。このマーカー510は、頭部装着型表示装置100が認識可能な態様であれば変更可能である。
頭部装着型表示装置100は、操作対象物5が表示するマーカー510におけるマーク511を操作部として検出し、マーク511に対応する位置に、ARコンテンツとしての操作表示B31〜B39を表示する。操作表示B31〜B39は、例えば、マーク511の色に対応付けられる。制御部140は、マーク511の色により、マーク511を識別し、操作表示B31〜B39を予め対応付けられた色のマーク511に対応する位置に表示する。この場合、マーカー510におけるマーク511の位置に関係なく、操作表示B31〜B39が表示される。
この例では、位置属性データ123bにはマーク511の色を指定するデータが含まれる。詳細には、AR要素表示データ123aの画像を、特定の色のマーク511に対応する位置に表示するよう指定するデータが含まれる。
従って、マーク511の色が共通で、マーク511の位置が異なる複数のマーカー510は、頭部装着型表示装置100に対して同様の機能を実行させることができる。この場合、使用者は、マーク511の位置が異なり色が共通する複数のマーカー510を、頭部装着型表示装置100に実行させる処理を変更することなく、使い分けることができる。
この場合、例えば操作対象物5が備えるボタン508の操作によって、マーカー510を切り替えて表示可能な構成としてもよい。また、操作対象物5は、頭部装着型表示装置100の通信部117と、近距離無線通信を実行して、頭部装着型表示装置100が送信する制御データに基づいてマーカー510を切り替えてもよい。
これはあくまで一例であり、頭部装着型表示装置100がマーク511の模様(テクスチャー)に基づきマーク511を識別する構成、マーク511の形状によりマーク511を識別する構成とすることもできる。この場合、マーク511の模様や形状が変化しない範囲において、マーク511の位置が異なるマーカー510を、頭部装着型表示装置100の機能に影響を与えることなく使い分けることができる。
この場合、操作対象物5を使用する使用者の好みで、着せ替えをするように、表示面503における表示を切り替えることができる。操作対象物5は、マーカー510のデータを取得する場合に、無線通信または通信用のケーブルにより、頭部装着型表示装置100、或いは外部の機器に接続してもよい。
さらに、頭部装着型表示装置100が実行する機能に影響する範囲において、マーカー510を変更する構成としてもよい。この場合、頭部装着型表示装置100が実行する機能が変更することから、頭部装着型表示装置100においても、ARコンテンツデータ123及び対象デバイスデータ127を変更することが好ましい。例えば、頭部装着型表示装置100が、外部の機器(図示略)からARコンテンツデータ123及び対象デバイスデータ127をダウンロードし、このARコンテンツデータ123及び対象デバイスデータ127に対応するマーカー510を、操作対象物5が頭部装着型表示装置100から取得する構成が挙げられる。この例について図21を参照して説明する。
図21は、頭部装着型表示装置100及び操作対象物5が、ARコンテンツデータ123及び関連するデータをダウンロードする動作を示すフローチャートである。図21中、(A)は頭部装着型表示装置100の動作を示し、(B)は操作対象物5の動作を示す。図21に示す動作を行う操作対象物5は、頭部装着型表示装置100と通信する通信部(図示略)を具備する構成を有する。例えば、通信部117と無線通信を実行する無線通信部(図示略)、或いは、通信部117やインターフェイス125に有線接続されるコネクターを含む通信インターフェイス(図示略)を備える。
制御部140は、使用者の操作または外部の機器からのアクセスに応じてダウンロードを開始する(ステップS161)。制御部140は、ARコンテンツデータ123をダウンロードして取得する(ステップS162)。制御部140は、取得したARコンテンツデータ123のAR要素表示データ123a、位置属性データ123b、及び対応処理データ123cについて記憶部120に記憶する(ステップS163)。制御部140は、必要ならば、ステップS163において、記憶したデータを使用可能とする設定を行ってもよい。
制御部140は、ダウンロードしたデータに対象デバイスデータ127に対応付けられる対象デバイスデータ127を、ARコンテンツデータ123に対応付けて記憶部120に記憶する(ステップS144)。この対象デバイスデータ127は、例えば、ステップS162においてARコンテンツデータ123とともに外部の機器から取得される。
制御部140は、操作対象物5に接続してデータ通信可能な状態に移行する(ステップS165)。操作対象物5においても、頭部装着型表示装置100に接続してデータ通信可能な状態に移行する(ステップS171)。
制御部140は、ステップS165で接続した機器(操作対象物5)が、ステップS164で記憶した対象デバイスデータ127に該当する機器であることについて認証を行う(ステップS166)。ここで、操作対象物5は、頭部装着型表示装置100の要求に応じて、製品名や製品の型番等の認証用のデータを送信して、頭部装着型表示装置100とともに認証を行う(ステップS172)。
認証に成功した後、制御部140は、操作対象物5に対して、マーカー510を表示するためのデータを送信する(ステップS167)。このデータは、例えば、ステップS162において、対象デバイスデータ127とともに外部の機器から取得する。操作対象物5は、頭部装着型表示装置100が送信するマーカー510表示用のデータを受信して、記憶する(ステップS173)。
この図21の処理により、操作対象物5は新たなマーカー510を表示するためのデータを取得し、記憶し、このデータに基づき新たなマーカー510を表示可能となる。また、頭部装着型表示装置100は、操作対象物5が表示するマーカー510に対応して、ARコンテンツを表示する。このARコンテンツは、図17に例示した操作表示B31〜B39のように操作表示を含むので、操作対象物5がマーカー510を表示した状態で、カメラ61で操作対象物5を撮像することにより、マーカー510に対応する位置にARコンテンツを表示できる。頭部装着型表示装置100は、新たなマーカー510が含むマーク511を検出し、このマーク511に対応する操作表示を含むARコンテンツを表示できる。また、新しいマーカー510が含むマーク511の操作を検出した場合、このマーク511に対応して表示される操作表示で指定される処理を実行できる。
この場合、操作対象物5において表示できるマーカー510の種類を増やすことができる。新しいマーカー510は、以前に表示可能であったマーカー510とマーク511を共通化する等の制約がないため、様々なデザインのマーカー510を表示できるという利点がある。さらに、頭部装着型表示装置100では、操作を検出可能なマーク511の種類を変更し、或いは追加できる。さらに、マーク511に対する操作に応じて実行する機能を、追加できる。例えば、操作対象物5と頭部装着型表示装置100との間で実行する通信プロトコルを変更したり、操作対象物5の外観に合わせた新しいデザインの操作表示を表示したり、新しい機能を実行したりすることが可能となる。これにより、従って、頭部装着型表示装置100に対して使用する操作対象物5を追加することが可能となり、操作対象物5の変更に伴って頭部装着型表示装置100が実行する機能、用途を変更できる。
ここで、ARコンテンツデータ123及び対象デバイスデータ127は、頭部装着型表示装置100が有する機能を設定するデータに限定されない。例えば、ARコンテンツデータ123と、対象デバイスデータ127に加え、ARコンテンツデータ123に基づいて制御部140が実行する機能に対応したプログラムを含んでもよい。また、ARコンテンツデータ123と対象デバイスデータ127に、プログラムを含めた、一つのアプリケーションプログラムとすることもできる。この場合、制御部140が実行する機能そのものを追加あるいは変更できる。例えば、オペレーティングシステム150が、Android(登録商標)OS、iOS(登録商標)、Windows(登録商標)等、モバイルデバイス(スマートフォンやタブレット型コンピューター)用のOSである場合が想定される。この場合、ARコンテンツデータ123と対象デバイスデータ127とを含むアプリケーションプログラムとすることで、容易に、ARコンテンツデータ123と対象デバイスデータ127とを一体としてダウンロードし設定できる。使用者が新しい操作対象物5を購入した場合、或いは、新しいマーカー510を使用する場合に、この新しい操作対象物5やマーカー510に対応する頭部装着型表示装置100の設定を、容易に行うことが可能となる。
以上説明したように、本発明を適用した実施形態の表示システム1は、頭部装着型表示装置100と、画像表示部20とは別体として構成される操作デバイス3とを備える。頭部装着型表示装置100は、使用者の頭部に装着され、外景を透過して使用者に視認させる透過型の画像表示部20を有する。操作デバイス3は、使用者の操作を受け付ける操作部として、ベゼル301、タッチパネル304、ボタン305、リュウズ型操作子307、及び、ボタン309を備える。操作部に9軸センサー368を含んでもよいし、9軸センサー368を有するバンド部300を操作部としてもよい。頭部装着型表示装置100は、画像表示部20の表示を制御する制御部140を備える。制御部140は、操作デバイス3に対する操作に基づき、画像表示部20を透過する外景に関連するAR表示を画像表示部20によって行う。この構成によれば、頭部装着型表示装置100が外景に関連するAR表示を行う際に、頭部装着型表示装置100とは別体の操作デバイス3の操作を反映するので、直感的な入力操作によってAR表示を制御できる。
例えば、操作デバイス3において、図7(A)に示した設定によりバンド部300の操作部に対して機能が割り当てられた後、操作部に接触する、指を動かす、等の操作デバイス3に対する操作を、頭部装着型表示装置100が検出してもよい。具体的には、カメラ61の撮像画像データにもとづき、操作デバイス3に対する操作を制御部140が検出してもよい。
また、操作デバイス3は、操作部が受け付けた操作を示すデータを頭部装着型表示装置100に送信する無線通信部361を備えてもよい。この場合、制御部140は、操作デバイス3から送信されるデータに基づき、操作部に対応付けられた態様で、画像表示部20を透過する外景に関連するAR表示を画像表示部20によって行う。
また、制御部140は、操作デバイス3から送信されるデータに基づいて操作部の操作を検出し、検出した操作に対応して、画像表示部20に表示中のAR表示を変更する。このため、AR表示を行っている間に、操作デバイス3を操作することにより、AR表示を変更させることができる。
制御部140は、操作部に対するAR表示の割り当てを設定可能であってもよい。
この場合において、制御部140は、操作部に対するAR表示の割り当てを更新する処理を実行可能であってもよい。
また、操作部は接触操作を検出するタッチパネル304を備える。タッチパネル304は、複数の操作領域を有し、制御部140は、タッチパネル304で操作された操作領域に割り当てられたAR表示を、画像表示部20によって表示する。このため、操作デバイス3でタッチ操作を行うことにより、AR表示に対する様々な操作が可能となる。
また、操作デバイス3が有する制御部350は、操作デバイス3の動きを操作として検出してもよい。
操作デバイス3を動かすことで頭部装着型表示装置100に対する操作を行える。
また、操作デバイス3はカメラ311を備え、カメラ311の撮像画像を含むデータを無線通信部361により頭部装着型表示装置100に送信してもよい。この場合、頭部装着型表示装置100とは別体の操作デバイス3で撮像した撮像画像を、頭部装着型表示装置100で表示できる。また、表示システム1では、操作デバイス3で、頭部装着型表示装置100の認証を行うことができる。
図11及び図12は、操作デバイス3の操作に対応して頭部装着型表示装置100が実行する機能の例を示す図である。
図11(A)は、ファイル及びフォルダーを選択する選択用画面A41を、使用者の視野VRに表示した例を示す。このように選択候補(この例ではフォルダー)が複数並べて表示された状態で、ベゼル301を回転させる操作が行われると、候補が順に選択される。
また、図11(B)には、操作デバイス3または制御装置10の操作により表示される仮想キーボードA43を示す。仮想キーボードA43には文字及び記号に対応する仮想キーが複数配置される。仮想キーボードA43の表示中にベゼル301を回転させる操作が行われると、仮想キーボードA43において仮想キーが順に選択される。
図11(A)、(B)に示すように、使用者の視野VRに表示される複数の候補から一つの候補を選択する操作では、ベゼル301を回転させる操作が好適である。この場合、ベゼル301の回転方向に合わせて、候補が順に切り替えて選択される方向を変更してもよい。また、選択を確定する操作は、例えば、操作デバイス3が備えるボタン305で行うことができる。ベゼル301は、直感的に操作が可能であり、操作デバイス3の平面部300Aの外周部に位置するため、手探りによる操作が可能である。このため、使用者は、画像表示部20により表示されるAR表示に注目しながらベゼル301を操作できる。さらに、平面部300Aとは離れた位置に設けられ、他のスイッチ式の操作子よりも大型のボタン305により、選択を確定できるので、より容易に操作を行える。ボタン305は、位置及びサイズが、ボタン309やリュウズ型操作子307とは異なるので、ベゼル301と同様に、手探りによる操作が容易である。このため、画像表示部20が表示する画像を見ながら、直感的で確実な操作を行える。
なお、図11(A)、(B)に示すように、使用者の視野VRに表示される複数の候補から一つの候補を選択する操作で、音声による選択が可能な構成としてもよい。この場合、候補に付された固有の名称、番号、符号等を音声で指定すると、この音声を操作デバイス3がマイク365で検出し、検出した音声のデータを頭部装着型表示装置100に送信し、制御部140が設定を行ってもよい。
図12は、ベゼル301の操作に応じて画面を遷移させる例について、遷移される画面の構成を模式的に示す。
頭部装着型表示装置100のオペレーティングシステム150が、iOS(登録商標)やAndroid(登録商標)のように、複数の画面を切り替え、遷移させる構成である場合、ベゼル301の操作をより効果的に使用できる。図12の例では、ベゼル301を回転させる操作により、画面1〜4の4つの画面を順に切り替えて表示できる。また、画面1〜4を順次選択する場合の送り方向は、ベゼル301の操作方向に対応して、正方向と逆方向にしてもよい。
頭部装着型表示装置100では、画面1〜4のうち画面2が表示された状態で、ボタン305の操作により表示画面を確定した後、さらに、ベゼル301の操作により画面2、2−1、2−2、2−3の4つの画面を遷移させることができる。この場合も、4つの画面を順次選択する場合の送り方向は、ベゼル301の操作方向に対応して、正方向と逆方向にしてもよい。
図12に示す例ではボタン305の確定操作を経ずにベゼル301を回転させることで、素早く表示画面を遷移させることができる。
表示システム1の動作は上記の例に限定されず、例えば、次のような動作を実行できる。
頭部装着型表示装置100は、操作デバイス3の操作に対応して、画像表示部20で表示する画像(文字を含む)の拡大、縮小、回転、コピー、ページ送り等を行ってもよい。この場合、操作デバイス3における操作は、ベゼル301の回転、ボタン309の押圧操作、ボタン305の押圧操作、及びリュウズ型操作子307を回転させる操作だけでなく、例えば、タッチパネル304に対し指で接触する操作を含んでもよい。例えば、ベゼル301を右に回す操作に対応して表示画像を拡大し、ベゼル301を左に回す操作に対応して表示画像を縮小してもよい。また、タッチパネル304の中央部に対する指の接触を検出した場合に表示画像を拡大し、タッチパネル304の周縁部(例えば、左下枠近傍)への指の接触を検出した場合に表示画像を縮小してもよい。また、タッチパネル304に接触した指が、接触したまま右回し、左回し等の回転運動をした場合に、この回転に合わせて表示画像を回転させてもよい。
また、タッチパネル304がいわゆるマルチタッチ操作に対応する場合、タッチパネル304に対する複数の操作点の間隔を拡大、或いは縮小させる操作等に対応して、頭部装着型表示装置100の表示画像を拡大、縮小、或いは回転させる動作を行ってもよい。
操作デバイス3は、9軸センサー368の検出値を頭部装着型表示装置100に送信することもできる。また、操作デバイス3がGPS検出部を備えた構成とし、GPS検出部で検出する現在位置を、頭部装着型表示装置100に送信してもよい。この場合、頭部装着型表示装置100の制御部140は、操作デバイス3から受信する検出値と3軸センサー113の検出値とに基づき、操作デバイス3と頭部装着型表示装置100との相対位置を検出できる。そして、検出した相対位置の変化に対応して、表示画像の拡大、縮小、回転など表示の変更を行っても良く、画像のフェードイン表示、フェードアウト表示を行ってもよい。この場合、操作デバイス3を頭部装着型表示装置100に近づけたり、遠ざけたりする操作により、表示を変更できる。さらに、操作デバイス3が、9軸センサー368の検出値のデータを頭部装着型表示装置100に送信することで、操作デバイス3を動かす操作を、頭部装着型表示装置100が検出できる。
このように、頭部装着型表示装置100は、使用者の頭部に装着される表示部を有する頭部装着型表示装置100と、表示部とは別体として構成される操作デバイス3とを備える。操作デバイス3は、使用者の操作を受け付ける操作部として、ベゼル301、タッチパネル304、ボタン305、リュウズ型操作子307、及び、ボタン309を備える。操作部に9軸センサー368を含んでもよいし、9軸センサー368を有するバンド部300を操作部としてもよい。頭部装着型表示装置100は、画像表示部20の表示を制御する制御部140を備え、制御部140は、操作デバイス3の操作に基づき、画像表示部20で表示する画面を遷移させる処理を含む表示制御を行う。このため、頭部装着型表示装置100とは別体の操作デバイス3を操作し、画面を遷移させるので、より直感的な入力操作により頭部装着型表示装置100を制御できる。
また、操作デバイス3は、操作部が受け付けた操作を示すデータを頭部装着型表示装置100に送信する無線通信部361を備える。頭部装着型表示装置100の制御部140は、操作デバイス3から送信されるデータに基づき、操作デバイス3の操作を検出する。このため、操作デバイス3における操作を、頭部装着型表示装置100において確実に検出できる。また、操作の検出に係る頭部装着型表示装置100の負荷を軽減できる。
また、操作デバイス3は、使用者の身体に装着される装着部としてのバンド部300を有し、使用者の身体に装着される操作デバイス3を用いて、より直感的な入力操作を行い、頭部装着型表示装置100を制御できる。
また、操作デバイス3が有する操作部は、例えばベゼル301及び回転検出部367により、回転を伴う操作を検出する。頭部装着型表示装置100の制御部140は、操作デバイス3から回転を伴う操作を示すデータが送信された場合に、操作の回転方向に対応して、画像表示部20で表示する画面を、例えば図10に示すように遷移させる。このため、回転を伴う操作により画面を遷移させることができ、より直感的な操作を実現できる。また、操作の方向と画面の遷移の方向とが対応するため、例えば手探りの操作を行うことが可能となる。
また、頭部装着型表示装置100の制御部140は、操作デバイス3から送信されるデータに基づき、画像表示部20で表示する画像の拡大、縮小或いは回転のいずれかを含む表示制御を行ってもよい。
また、操作デバイス3が有する制御部350は、操作デバイス3の動きを操作として検出してもよい。
また、画像表示部20は、外景を透過して使用者に視認させる透過型の表示部であってもよい。この場合、使用者が外景を見ながら操作デバイス3を操作して、頭部装着型表示装置100の表示を制御できる。頭部装着型表示装置100のみを注視せず、直感的に操作できるため、外景を見ながら頭部装着型表示装置100を使用する場合に好適である。
また、頭部装着型表示装置100は、操作デバイス3に出力用のデータを送信し、操作デバイス3は、頭部装着型表示装置100が送信する出力用のデータを通信部で受信し、受信した出力用のデータを出力することができる。
また、制御部140は、カメラ61の撮像画像から操作対象物4、5を検出した場合に、操作対象物4、5に対応付けられた操作用画像を、操作対象物4、5に対応して画像表示部20に表示する。これにより、頭部装着型表示装置100とは別体の操作対象物4、5に関する情報を、使用者にわかりやすく提供できる。
また、制御部140は、操作用画像を表示した操作対象物4、5に対する操作を検出した場合に、操作内容と操作用画像とに対応する処理を実行する。これにより、操作対象物4、5に対する操作に対応して頭部装着型表示装置100が処理を実行するので、操作対象物4、5を使用して直感的な操作を実現できる。
また、制御部140は、操作対象物4、5に対する操作を検出する検出部として機能するので、操作対象物4、5に対する操作を速やかに検出できる。また、操作対象物4、5が通信機能を有していなくても、頭部装着型表示装置100が操作対象物4、5の操作に対応して処理を実行できる。制御部140は、カメラ61の撮像画像に基づいて、操作対象物4、5を検出し、操作対象物4、5に対する操作を検出する。これにより、操作対象物4、5が通信を実行しなくても、頭部装着型表示装置100が操作対象物4、5を検出し、操作対象物4、5に対する操作を検出できる。
頭部装着型表示装置100は、操作対象物が有する操作部に対応する操作用の画像をAR表示するためのARコンテンツデータ123を記憶する記憶部120を備える。制御部140は、記憶部120が記憶するAR表示用のデータを変更可能である。これにより、操作対象物に対応してAR表示を行う機能について、データを変更できるので、新しい操作対象物や未知の操作対象物に対応するようデータを変更できる。従って、AR表示の対象とする操作対象物に関する制約を減らすことができ、利便性の向上を図ることができる。
また、記憶部120が記憶するARコンテンツデータ123は、操作用の画像である要素と操作対象物が有する操作部とを対応付ける位置属性データ123bを含む。制御部140は、ARコンテンツデータ123における操作用の画像と操作対象物が有する操作部との対応を変更可能できる。
また、本発明は、使用者の頭部に装着され、外景を透過して使用者に視認させる透過型の画像表示部20を有する頭部装着型表示装置100を制御する制御部140が実行可能なプログラムとして実現できる。このプログラムを制御部140のCPUが実行することにより、画像表示部20とは別体として構成される操作デバイス3、操作対象物4、5を検出できる。また、制御部140は、操作デバイス3、操作対象物4、5が備える操作部を検出し、検出した操作部に対応する位置に、操作用の画像をAR表示する。また、制御部140は、操作用の画像に関する操作を検出し、操作を検出した操作用の画像に対応する処理を実行する。これにより、頭部装着型表示装置100が、頭部装着型表示装置100とは別体の操作デバイス3、操作対象物4、5に対応する操作用の画像を表示し、この操作用の画像に関する操作に応じて処理を実行する。このため、操作デバイス3、操作対象物4、5を利用して頭部装着型表示装置100に処理を実行させることが可能となり、頭部装着型表示装置100に対する直感的な操作が可能となる。
なお、この発明は上記実施形態の構成に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能である。
本実施形態では、頭部装着型表示装置100のユーザーインターフェイスとして使用される操作デバイス3が、腕時計の形状を有する例を説明した。本発明はこれに限定されず、頭部装着型表示装置100を使用する使用者の身体に装着するのに適した形状であればよい。例えば、指輪型、ブローチ型、ペンダントまたはネックレス型、或いはペン型のデバイスとすることができる。また、使用者の頭部や耳に装着されるヘッドホン型、イヤホン型、ヘッドセット型のデバイスとしてもよい。この場合、音声を出力するヘッドホンやイヤホンに、本発明の操作デバイスとしての機能を実装してもよい。音声を出力するスピーカーと、使用者が発話する音声を集音するマイクとを備えたヘッドセットに、本発明の操作デバイスとしての機能を実装してもよい。この構成においてヘッドホン、イヤホン、スピーカーは骨伝導スピーカーであってもよく、マイクは骨伝導マイクであってもよい。この場合、デバイスは、少なくとも、接触操作または押圧操作を検出する操作子を備え、無線通信部361、LED313、カメラ311、及び9軸センサー368を備えた構成とすることが望ましい。これらの構成では、表示に係る動作を除き、上記実施形態と同様の効果を得ることができる。
また、上記実施形態の頭部装着型表示装置100は、バンド部300により使用者の身体に固定され保持される構成としたが、本発明の操作デバイスの構成は、これに限定されない。すなわち、操作デバイスは、バンド部300等により固定することは必須ではなく、使用者の身体に装着可能であればよい。従って、上述のようにペンダントまたはネックレス型、或いは他のアクセサリーを模した形状等であってもよく、帽子やヘルメットの形状としてもよく、その他の衣服の形態とすることもできる。
さらに、本発明の操作デバイスは、使用者の身体に直接装着され、或いは固定される態様に限定されない。例えば、使用者の身体に装着または固定される腕時計、アクセサリー、衣服、鞄、帽子、ヘルメットに、操作デバイスに相当する機器を固定してもよい。この場合の操作デバイスは、例えば、操作デバイス3からバンド部300を除いた構成とすることができる。
また、表示システム1は、複数の操作デバイスを備えた構成としてもよい。例えば操作デバイス3のように腕時計型の操作デバイスと、ペン型の操作デバイスなど、異なる形態の操作デバイスを含んでもよい。この場合、複数の操作デバイスにおける操作に基づき、頭部装着型表示装置100における表示画面を遷移させてもよい。複数の操作デバイスにおける操作を頭部装着型表示装置100が検出する方法は、複数の操作デバイスから操作を示すデータを送信する方法等が挙げられる。
さらに、操作デバイス3が慣性センサーである9軸センサー368の検出値を示すデータを頭部装着型表示装置100に送信することで、操作デバイス3の動きを操作として表示システム1が動作してもよい。
例えば、9軸センサー368の検出値と、頭部装着型表示装置100が備える9軸センサー66の検出値とを用いて、制御部140が、画像表示部20を透過して視認される外景と画像表示部20の表示領域との対応付けを行ってもよい。この場合、複数の装置が備えるセンサーの検出値を用いることで、より高精度で対応付けを行うことができる。この対応付けは、画像表示部20においてARコンテンツを表示する場合等に利用できる。
また、操作デバイス3は、使用者の心拍数を計測するセンサーを備えてもよい。具体的には、使用者の腕に光を照射して拍動を検出するセンサー等を用いることができる。この場合、操作デバイス3は、計測した心拍数に関するデータを頭部装着型表示装置100に送信し、頭部装着型表示装置100において心拍数に係るデータを表示してもよい。例えば、心拍数を統計的に処理した結果の表示や、心拍数のリアルタイム表示、心拍数と9軸センサー368の検出値とを処理し、使用者の活動量や体調管理に関するデータを表示してもよい。また、心拍数に基づき使用者の興奮度や疲労度を推定し、画像表示部20における表示色や表示する画像の内容を、使用者に快適性をもたらすように変更してもよい。
また、上記実施形態では、操作デバイス3が電源部360により動作する電子機器である構成を例に挙げて説明したが、本発明はこれに限定されない。例えば、操作デバイス3のベゼル301、及び/又は、平面部300Aでベゼル301に隣接する位置に、ベゼル301の回転方向における位置を特定するためのマーカーを設けてもよい。この場合、デバイス制御部183が、カメラ61で撮像する撮像画像データに基づき、ベゼル301の回転方向と回転量を求めることができる。また、操作デバイス3が電源部360を備えている場合であっても、上記の動作により、頭部装着型表示装置100がベゼル301の回転方向と回転量とを求める構成としてもよい。この動作は、例えば、電源部360の消費を抑える省電力動作モードの動作として実現できる。電源部360の残容量が少ない場合に、操作デバイス3または頭部装着型表示装置100の制御で、表示システム1が省電力動作モードに移行する構成とすることができる。
また、操作対象物4、5は、頭部装着型表示装置100が有する画像表示部20とは別体として構成されるものであって、操作用画像を表示する対象であるリュウズ401、ベゼル402などの各部またはマーカー510を有するものであればよい。このため、例えば、筆記具を含む文房具、工具、家具、コンピューター周辺機器、電話機などの各種電子機器など、画像表示部20と別体であれば何であってもよく、使用者が身体に装着するものに限定されないし、その本来の機能も制限はない。
また、上記実施形態の画像表示部20に代えて、例えば、帽子のように装着する画像表示部等の他の方式の画像表示部を採用してもよく、使用者の左眼に対応して画像を表示する表示部と、使用者の右眼に対応して画像を表示する表示部とを備えていればよい。また、本発明の表示装置は、例えば、自動車や飛行機等の車両に搭載されるヘッドマウントディスプレイとして構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたヘッドマウントディスプレイとして構成されてもよい。この場合、使用者の身体に対する位置を位置決めする部分、及び、当該部分に対し位置決めされる部分を装着部とすることができる。
さらに、上記実施形態では、画像表示部20と制御装置10とが分離され、接続部40を介して接続された構成を例に挙げて説明した。本発明はこれに限定されず、制御装置10と画像表示部20とが一体に構成され、使用者の頭部に装着される構成とすることも可能である。
また、制御装置10として、ノート型コンピューター、タブレット型コンピューター又はデスクトップ型コンピューターを用いてもよい。また、制御装置10として、ゲーム機や携帯型電話機やスマートフォンや携帯型メディアプレーヤーを含む携帯型電子機器、その他の専用機器等を用いてもよい。また、制御装置10が画像表示部20と分離して構成され、制御装置10と画像表示部20との間で無線通信により各種信号を送受信する構成としてもよい。
また、例えば、画像表示部20において画像光を生成する構成として、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)のディスプレイと、有機EL制御部とを備える構成としてもよい。また、画像光を生成する構成として、LCOS(Liquid crystal on silicon, LCoSは登録商標)や、デジタル・マイクロミラー・デバイス等を用いることもできる。
また、画像光を使用者の眼に導く光学系としては、外部から装置に向けて入射する外光を透過する光学部材を備え、画像光とともに使用者の眼に入射させる構成を採用できる。また、使用者の眼の前方に位置して使用者の視界の一部または全部に重なる光学部材を用いてもよい。さらに、レーザー光等を走査させて画像光とする走査方式の光学系を採用してもよい。また、光学部材の内部で画像光を導光させるものに限らず、使用者の眼に向けて画像光を屈折及び/または反射させて導く機能のみを有するものであってもよい。
例えば、レーザー網膜投影型のヘッドマウントディスプレイに対して本発明を適用することも可能である。すなわち、光射出部が、レーザー光源と、レーザー光源を使用者の眼に導く光学系とを備え、レーザー光を使用者の眼に入射させて網膜上を走査し、網膜に結像させることにより、使用者に画像を視認させる構成を採用してもよい。
また、本発明を、MEMSミラーを用いた走査光学系を採用し、MEMSディスプレイ技術を利用した表示装置に適用することも可能である。すなわち、信号光形成部と、信号光形成部が射出する光を走査するMEMSミラーを有する走査光学系と、走査光学系により走査される光によって虚像が形成される光学部材とを光射出部として備えてもよい。この構成では、信号光形成部が射出した光がMEMSミラーにより反射され、光学部材に入射し、光学部材の中を導かれて、虚像形成面に達する。MEMSミラーが光を走査することにより、虚像形成面に虚像が形成され、この虚像を使用者が眼で捉えることで、画像が認識される。この場合の光学部品は、例えば上記実施形態の右導光板261及び左導光板262のように、複数回の反射を経て光を導くものであってもよく、ハーフミラー面を利用してもよい。
また、図3及び図4に示した各機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよい。また、制御部140が実行するプログラムは、記憶部120または制御装置10内の記憶装置に記憶されてもよいし、外部の装置に記憶されたプログラムを通信部117又はインターフェイス125を介して取得して実行する構成としてもよい。
また、制御装置10に形成された構成のうち、操作部111のみが単独の使用者インターフェイス(UI)として形成されてもよい。また、制御装置10に形成された構成が重複して画像表示部20に形成されていてもよい。例えば、制御部140に相当する制御部が制御装置10と画像表示部20との両方に形成されていてもよい。また、制御装置10に形成された制御部140と画像表示部20に形成されたCPUとが行う機能が別々に分けられている構成としてもよい。
また、本発明は、頭部装着型表示装置100以外の種々の形態で実現することも可能である。例えば、頭部装着型表示装置100の制御方法、頭部装着型表示装置100を有する情報システム、頭部装着型表示装置100の制御方法および前記情報システムを実現するためのコンピュータープログラム、そのコンピュータープログラムを記録した記録媒体、および、コンピュータープログラムを配信するための、インターネット等の通信回線に接続されたサーバー装置、そのコンピュータープログラムを含み搬送波内に具現化されたデータ信号等の形態で実現できる。
1…表示システム、2…フレーム、3…操作デバイス、4、5…操作対象物、10…制御装置、20…画像表示部(表示部)、21…右保持部、22…右表示駆動部、23…左保持部、24…左表示駆動部、26…右光学像表示部、28…左光学像表示部、61…カメラ、66…9軸センサー、100…頭部装着型表示装置(表示装置)、117…通信部、120…記憶部、140…制御部、150…オペレーティングシステム、160…画像処理部、170…表示制御部、181…撮像処理部、183…デバイス制御部、185…AR表示制御部、187…音声処理部、300…バンド部、300A…平面部、301…ベゼル、303…LCD、304…タッチパネル(タッチ操作部)、305…ボタン、307…リュウズ型操作子、309…ボタン、310…光学部、311…カメラ(撮像部)、313…LED、331〜334、341〜345…機能表示、350…制御部、351…操作検出部、352…出力制御部、353…撮像制御部、354…通信制御部、355…音声処理部、360…電源部、361…無線通信部、362…NFC部、365…マイク、366…ボタン操作部、367…回転検出部、368…9軸センサー、369…バイブレーター、370…スピーカー。

Claims (25)

  1. 使用者の頭部に装着され、外景を透過して前記使用者に視認させる透過型の表示部を有する表示装置と、前記表示部とは別体として構成される操作対象物とを備え、
    前記表示装置は、前記表示部を透過する前記外景に関連するAR表示として、操作用画像を前記表示部によって表示させる制御部と、
    前記操作用画像のデータ、および、前記操作用画像のデータに前記操作対象物を対応付ける対象デバイスデータを記憶する記憶部と、
    撮像部と、
    を備え、
    前記操作用画像は複数の要素を含み、各々の前記要素が選択された場合に前記制御部が実行する処理が定められ、
    前記表示装置の前記制御部は、
    前記撮像部の撮像画像に基づいて前記操作対象物を検出し、
    検出された前記操作対象物が前記対象デバイスデータにより対応付けられている前記操作用画像のデータに基づき、前記操作用画像を、前記表示部を透過して視認される前記操作対象物に対応する位置に表示させ
    前記撮像部の撮像画像をもとに、前記使用者が前記操作用画像の前記要素を選択する操作を検出し、選択された前記要素に定められた処理を実行すること、
    を特徴とする表示システム。
  2. 前記記憶部は、前記操作用画像のデータとして、前記要素を表示するための要素表示データと、前記要素が選択された場合に前記制御部が実行する処理を定める対応処理データと、を記憶し、
    前記制御部は、前記対応処理データが定める処理を変更可能であること、
    を特徴とする請求項1記載の表示システム。
  3. 前記操作対象物は、前記使用者の操作を受け付ける操作部と、
    前記操作部が受け付けた操作を示すデータを前記表示装置に送信する通信部と、を備えた操作デバイスであり、
    前記表示装置の前記制御部は、前記操作デバイスの操作に基づき、前記表示部によってAR表示を行うこと、
    を特徴とする請求項1または2記載の表示システム。
  4. 前記表示装置の前記制御部は、前記操作デバイスの操作に基づき、前記操作部に対応付けられた態様で、前記表示部を透過する前記外景に関連するAR表示を前記表示部によって行うこと、
    を特徴とする請求項記載の表示システム。
  5. 前記制御部は、前記操作デバイスから送信されるデータに基づいて前記操作部の操作を検出し、検出した操作に対応して、前記表示部に表示中の前記AR表示を変更すること、
    を特徴とする請求項または記載の表示システム。
  6. 前記制御部は、前記操作部に対する前記AR表示の割り当てを設定可能であること、
    を特徴とする請求項からのいずれかに記載の表示システム。
  7. 前記制御部は、前記操作部に対する前記AR表示の割り当てを更新する処理を実行可能であること、
    を特徴とする請求項記載の表示システム。
  8. 前記表示装置の前記制御部は、前記操作デバイスと前記表示装置との相対位置を求め、求めた相対位置に基づき前記表示部でAR表示を行うこと、
    を特徴とする請求項からのいずれかに記載の表示システム。
  9. 前記操作部は接触操作を検出するタッチ操作部を備え、
    前記タッチ操作部は複数の操作領域を有し、
    前記制御部は、前記タッチ操作部で操作された操作領域に割り当てられた前記AR表示を、前記表示部によって表示すること、
    を特徴とする請求項からのいずれかに記載の表示システム。
  10. 前記操作デバイスは撮像部を備え、前記撮像部の撮像画像を含むデータを前記通信部により前記表示装置に送信すること、
    を特徴とする請求項からのいずれかに記載の表示システム。
  11. 前記表示装置の前記制御部は、前記操作対象物に対する操作に基づき、前記表示部により表示する画面を遷移させる処理を含む表示制御を行う制御部を備えること、
    を特徴とする請求項から10のいずれかに記載の表示システム。
  12. 前記表示装置の前記制御部は、前記操作デバイスから送信されるデータに基づき、前記操作デバイスの操作を検出すること、
    を特徴とする請求項から11のいずれかに記載の表示システム。
  13. 前記操作デバイスが有する前記操作部は、回転を伴う操作を検出し、
    前記表示装置の前記制御部は、前記操作デバイスから回転を伴う操作を示すデータが送信された場合に、前記操作の回転方向に対応して、前記表示部により表示する画面を遷移させること、
    を特徴とする請求項12記載の表示システム。
  14. 前記表示装置の前記制御部は、前記操作デバイスから送信されるデータに基づき、前記表示部により表示する画像の拡大、縮小或いは回転のいずれかを含む表示制御を行うこと、
    を特徴とする請求項12または13に記載の表示システム。
  15. 前記表示装置は、前記操作デバイスに出力用のデータを送信し、
    前記操作デバイスは、前記表示装置が送信する出力用のデータを前記通信部で受信し、受信した出力用のデータを出力すること、
    を特徴とする請求項から14のいずれかに記載の表示システム。
  16. 前記表示装置の前記制御部は、前記操作デバイスから撮像画像を含むデータを受信し、受信したデータに基づいて、前記操作デバイスと前記表示装置との相対位置を求めること、
    を特徴とする請求項10記載の表示システム。
  17. 前記操作デバイスが有する前記操作部は、前記操作デバイスの動きを操作として検出すること、
    を特徴とする請求項から16のいずれかに記載の表示システム。
  18. 前記制御部は、前記表示装置が備える前記撮像部の撮像画像に基づいて、前記操作デバイスと前記表示装置との相対位置を求めること、
    を特徴とする請求項から17のいずれかに記載の表示システム。
  19. 前記表示装置の前記制御部は、前記操作デバイスと前記表示装置との相対位置を求め、求めた相対位置に基づき前記表示部の表示を制御すること、
    を特徴とする請求項16または18に記載の表示システム。
  20. 前記操作対象物は、前記使用者の身体に装着される装着部を有すること、
    を特徴とする請求項1から19のいずれかに記載の表示システム。
  21. 前記表示装置は、前記操作対象物に対する操作を検出する検出部を備えること、
    を特徴とする請求項1から20のいずれかに記載の表示システム。
  22. 記制御部は、前記撮像部の撮像画像に基づいて前記操作対象物を検出し、前記操作対象物に対する操作を検出すること、
    を特徴とする請求21記載の表示システム。
  23. 使用者の頭部に装着され、外景を透過して前記使用者に視認させる透過型の表示部と、撮像部と、を有する表示装置を、前記表示部とは別体として構成される操作対象物を用いて制御する制御方法において、
    前記表示装置が備える記憶部に、操作用画像のデータ、及び、前記操作用画像のデータに前記操作対象物を対応付ける対象デバイスデータを記憶させ、
    前記操作用画像は複数の要素を含み、各々の前記要素が選択された場合に制御部が実行する処理が定められた構成とし、
    前記表示装置の前記制御部により、
    前記撮像部の撮像画像に基づいて前記操作対象物を検出し、
    検出した前記操作対象物が前記対象デバイスデータにより対応付けられている前記操作用画像のデータに基づき、前記操作用画像を、前記表示部を透過して視認される前記操作対象物に対応する位置に、前記表示部を透過する前記外景に関連するAR表示として前記表示部によって表示させ
    前記撮像部の撮像画像をもとに、前記使用者が前記操作用画像の前記要素を選択する操作を検出し、選択された前記要素に定められた処理を実行すること、
    を特徴とする表示装置の制御方法。
  24. 前記表示装置により、前記操作対象物に対する操作に基づき、前記表示部により表示する画面を遷移させる処理を含む表示制御を行うこと、
    を特徴とする請求項23記載の表示装置の制御方法。
  25. 使用者の頭部に装着され、外景を透過して前記使用者に視認させる透過型の表示部と、撮像部とを有する表示装置を制御する制御部が実行可能なプログラムであって、
    前記表示装置が備える記憶部に、操作用画像のデータ、及び、前記操作用画像のデータに前記操作対象物を対応付ける対象デバイスデータを記憶させ、
    前記操作用画像は複数の要素を含み、各々の前記要素が選択された場合に前記制御部が実行する処理が定められた構成とし、
    前記制御部により、
    前記表示部とは別体として構成される操作対象物を前記撮像部の撮像画像に基づいて検出し、
    操作用画像のデータに前記操作対象物を対応付ける対象デバイスデータに基づき、前記操作用画像を、前記表示部を透過して視認される前記操作対象物に対応する位置に、前記表示部を透過する前記外景に関連するAR表示として前記表示部によって表示させ
    前記撮像部の撮像画像をもとに、前記使用者が前記操作用画像の前記要素を選択する操作を検出し、選択された前記要素に定められた処理を実行すること、
    を特徴とするプログラム。
JP2015181843A 2015-01-06 2015-09-15 表示システム、表示装置の制御方法、及び、プログラム Active JP6740584B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2015181843A JP6740584B2 (ja) 2015-09-15 2015-09-15 表示システム、表示装置の制御方法、及び、プログラム
US14/976,761 US20160196693A1 (en) 2015-01-06 2015-12-21 Display system, control method for display device, and computer program
CN201511030028.0A CN105759422B (zh) 2015-01-06 2015-12-31 显示系统和显示装置的控制方法
EP16150303.2A EP3043237A1 (en) 2015-01-06 2016-01-06 Display system, control method for display device, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015181843A JP6740584B2 (ja) 2015-09-15 2015-09-15 表示システム、表示装置の制御方法、及び、プログラム

Publications (2)

Publication Number Publication Date
JP2017058840A JP2017058840A (ja) 2017-03-23
JP6740584B2 true JP6740584B2 (ja) 2020-08-19

Family

ID=58390356

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015181843A Active JP6740584B2 (ja) 2015-01-06 2015-09-15 表示システム、表示装置の制御方法、及び、プログラム

Country Status (1)

Country Link
JP (1) JP6740584B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6867055B2 (ja) * 2017-03-24 2021-04-28 サン電子株式会社 画像表示ユニット
WO2019003571A1 (ja) * 2017-06-28 2019-01-03 シャープ株式会社 電子機器、電子機器の制御方法およびプログラム
JP6389305B1 (ja) * 2017-07-21 2018-09-12 株式会社コロプラ 情報処理方法、コンピュータ、及びプログラム
JP2019101811A (ja) * 2017-12-04 2019-06-24 富士通株式会社 処理プログラム、処理方法及び処理装置、並びに表示プログラム、表示方法及び表示制御装置
JP2019023869A (ja) * 2018-08-03 2019-02-14 株式会社コロプラ 情報処理方法、コンピュータ、及びプログラム
CN110134197A (zh) * 2019-06-26 2019-08-16 北京小米移动软件有限公司 可穿戴式控制设备、虚拟/增强现实系统及控制方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5803060B2 (ja) * 2010-05-24 2015-11-04 株式会社ニコン ヘッドマウントディスプレイ
JP5787099B2 (ja) * 2012-11-06 2015-09-30 コニカミノルタ株式会社 案内情報表示装置
JP5941427B2 (ja) * 2013-03-28 2016-06-29 ビッグローブ株式会社 情報処理装置、装着状態検出方法、及びプログラム
JP2015043180A (ja) * 2013-08-26 2015-03-05 ブラザー工業株式会社 画像処理プログラム
JP6206099B2 (ja) * 2013-11-05 2017-10-04 セイコーエプソン株式会社 画像表示システム、画像表示システムを制御する方法、および、頭部装着型表示装置
JP2015118556A (ja) * 2013-12-18 2015-06-25 マイクロソフト コーポレーション コントロールデバイスのための拡張現実オーバーレイ

Also Published As

Publication number Publication date
JP2017058840A (ja) 2017-03-23

Similar Documents

Publication Publication Date Title
CN105759422B (zh) 显示系统和显示装置的控制方法
JP6740584B2 (ja) 表示システム、表示装置の制御方法、及び、プログラム
US10635182B2 (en) Head mounted display device and control method for head mounted display device
CN107037876B (zh) 系统及控制其的方法
JP2018101019A (ja) 表示装置及び表示装置の制御方法
US10949055B2 (en) Display system, display apparatus, control method for display apparatus
US20190227642A1 (en) Head-mounted display apparatus and method of controlling head-mounted display apparatus
JP2018142857A (ja) 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
JP2018124721A (ja) 頭部装着型表示装置、及び頭部装着型表示装置の制御方法
JP6303274B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP6776578B2 (ja) 入力装置、入力方法、コンピュータープログラム
JP6439448B2 (ja) 表示システム、プログラム、及び、表示装置の制御方法
CN106067833B (zh) 移动终端及其控制方法
US10884498B2 (en) Display device and method for controlling display device
JP6638392B2 (ja) 表示装置、表示システム、表示装置の制御方法、及び、プログラム
JP2018022426A (ja) 表示装置、頭部装着型表示装置、及び、表示装置の制御方法
JP6996115B2 (ja) 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
US20190086677A1 (en) Head mounted display device and control method for head mounted display device
JP6932917B2 (ja) 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
JP6740613B2 (ja) 表示装置、表示装置の制御方法、及び、プログラム
JP6459516B2 (ja) 表示システム、プログラム、サーバー装置、及び、表示装置の制御方法
JP2017182460A (ja) 頭部装着型表示装置、頭部装着型表示装置の制御方法、コンピュータープログラム
JP2017134630A (ja) 表示装置、表示装置の制御方法、及び、プログラム
JP6569320B2 (ja) 電子機器、及び、電子機器の制御方法
JP6631299B2 (ja) 表示装置、表示装置の制御方法、及び、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190924

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191122

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200518

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200623

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200706

R150 Certificate of patent or registration of utility model

Ref document number: 6740584

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150