JP2018067160A - 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム - Google Patents
頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム Download PDFInfo
- Publication number
- JP2018067160A JP2018067160A JP2016205591A JP2016205591A JP2018067160A JP 2018067160 A JP2018067160 A JP 2018067160A JP 2016205591 A JP2016205591 A JP 2016205591A JP 2016205591 A JP2016205591 A JP 2016205591A JP 2018067160 A JP2018067160 A JP 2018067160A
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- head
- display device
- mounted display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】操作性を向上する。【解決手段】画像を表示する表示部と、処理を実行する処理部と、を備える頭部装着型表示装置。前記処理部は、前記処理を指示するための命令が多面体の各面に割り当てられた多面体画像を、前記表示部に表示させる多面体画像表示部と、前記多面体画像に対する操作を受けて、前記多面体の表示される向きを切り替える多面体向き切替部と、前記多面体画像において予め定められた向きの面に割り当てられた前記命令を実行する命令実行部と、を備える。【選択図】図11
Description
本発明は、頭部装着型表示装置と、頭部装着型表示装置の制御方法と、コンピュータープログラムと、に関する。
近年、使用者の眼前で画像を表示することのできる頭部装着型表示装置が普及しつつある。従来の頭部装着型表示装置は、頭部に装着するメガネ部分とは別に、タッチパッドを有するコントローラーを備え、このコントローラーを用いて、使用者からの命令(指示)を取得している。具体的には、メガネ部分にボタンとカーソルを表示し、タッチパッドによって、カーソルをボタン上に移動し、タップを行う操作を受け付けることによって、ボタンに設定された命令を入力することができる。
カーソルをボタン上に移動し、タップを行う操作は煩雑なものである。そこで、特許文献1には、シースルーの表示エリアに差し出された手によって、ボタンをタップできる構成が記載されている。
しかし、特許文献1に記載された頭部装着型表示装置では、たとえ手によってボタンをタップできる構成としても、ボタンの上に精度良く指先を当てる必要があり、また、多くのボタンの中から所望のボタンを選び出す必要があることから、操作性を十分に高めることができなかった。そのほか、従来の頭部装着型表示装置においては、検索精度の向上、装置構成のコンパクト化、低コスト化、省資源化、製造の容易化等が望まれていた。
本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態として実現することが可能である。
(1)本発明の一形態によれば、頭部装着型表示装置が提供される。この頭部装着型表示装置は、画像を表示する表示部と、処理を実行する処理部と、を備える。前記処理部は、前記処理を指示するための命令が多面体の各面に割り当てられた多面体画像を、前記表示部に表示させる多面体画像表示部と、前記多面体画像に対する操作を受けて、前記多面体の表示される向きを切り替える多面体向き切替部と、前記多面体画像において予め定められた向きの面に割り当てられた前記命令を実行する命令実行部と、を備える。この形態の頭部装着型表示装置によれば、多面体画像に対する操作を受けることで、多面体向き切替部によって多面体の向きが切り替えられ、多面体画像において予め定められた向きの面に割り当てられた命令が、命令実行部によって実行される。このため、頭部装着型表示装置の使用者は、多面体画像に対する操作を行うだけで、画像に関わる処理を実行することができる。したがって、この形態の頭部装着型表示装置は、使用者の操作性を向上することができる。
(2)前記形態の頭部装着型表示装置において、前記表示部は、外景を視認可能な構成であり、前記処理部は、視認される前記外景に関わりのある関連画像を前記表示部に表示させるとともに、前記関連画像に基づく処理を実行するようにしてもよい。この形態の頭部装着型表示装置によれば、使用者は、表示部によって視認可能な外景に関わる処理を実行させることができる。
(3)前記形態の頭部装着型表示装置において、前記関連画像は、視認される前記外景に含まれる複数の店舗を識別するための識別情報を含み、前記処理部によって実行される処理は、前記複数の店舗の中から一の店舗を指定する店舗入力処理であってもよい。この形態の頭部装着型表示装置によれば、視認される外景に含まれる複数の店舗の中から一の店舗を指定する処理を、操作性よく行うことができる。
(4)前記形態の頭部装着型表示装置において、前記関連画像は、視認される前記外景と関わりのある作業を支援するための支援画像を含み、前記処理部によって実行される処理は、前記支援画像を順次切り替える処理であってもよい。この形態の頭部装着型表示装置によれば、視認される外景とかかわりのある作業についての支援画像を順次切り替える処理を、操作性よく行うことができる。
(5)前記形態の頭部装着型表示装置において、前記多面体画像は、正六面体の3D画像であり、前記予め定められた向きの面は、使用者と向き合う面であってもよい。この形態の頭部装着型表示装置によれば、使用者は、正六面体を回転させるといった簡単かつ直感的な操作によって処理を行うことができる。したがって、操作性をより向上することができる。
(6)前記形態の頭部装着型表示装置において、前記多面体画像に対する操作は、指先でフリックする操作であってもよい。この形態の頭部装着型表示装置によれば、使用者はフリックといった簡単な操作を行うだけで処理を行うことができる。したがって、操作性をより向上することができる。
(7)前記形態の頭部装着型表示装置において、外側を形成する複数の面の内の第1の面に、使用者の入力操作を受け付ける入力部が備えられた操作部を備え、前記多面体向き切替部は、前記操作部において前記第1の面の向きを切り替える操作を検出し、前記検出した第1の面の向きを切り替える操作を、前記多面体画像に対する操作として受け付けてもよい。この形態の頭部装着型表示装置によれば、操作部の向きを切り替えるといった簡単な操作を行うだけで処理を行うことができる。したがって、操作性をより向上することができる。
(8)前記形態の頭部装着型表示装置において、前記多面体画像に対応した多面体形状を有する物体を備え、前記多面体向き切替部は、前記物体の向きを切り替える操作を検出し、 前記検出した物体の向きを切り替える操作を、前記多面体画像に対する操作として受け付けてもよい。この形態の頭部装着型表示装置によれば、多面体画像に対応した多面体形状を有する物体の向きを切り替えるといった簡単な操作を行うだけで処理を行うことができる。したがって、操作性をより向上することができる。
(9)前記形態の頭部装着型表示装置において、前記多面体画像に対する操作を受け付けたときに、振動する振動部を備えてもよい。この形態の頭部装着型表示装置によれば、前記多面体画像に対する操作が受け付けられたことを、振動によって使用者に伝えることができる。このため、多面体画像に対する操作が受け付けられたことを使用者が肌で感じることができ、操作性をより向上できる。
(10)本発明の他の形態によれば、頭部装着型表示装置が提供される。この頭部装着型表示装置は、画像を表示する表示制御部と、処理を実行する処理部と、を備える。前記処理部は、前記処理を指示するための命令が立体の有する各面に割り当てられた立体画像を、前記表示部に表示させる立体画像表示部と、前記立体画像に対する操作を受けて、前記立体の表示される向きを切り替える立体向き切替部と、前記立体画像において予め定められた向きの面に割り当てられた前記命令を実行する命令実行部と、を備える。この形態の頭部装着型表示装置によれば、立体画像に対する操作を受けることで、立体向き切替部によって立体の向きが切り替えられ、立体画像において予め定められた向きの面に割り当てられた命令が、命令実行部によって実行される。このため、頭部装着型表示装置の使用者は、立体画像に対する操作を行うだけで、画像に関わる処理を実行することができる。したがって、この形態の頭部装着型表示装置は、使用者の操作性を向上することができる。
本発明は、頭部装着型表示装置以外の種々の形態で実現することも可能である。例えば、頭部装着型表示装置の制御方法、頭部装着型表示装置の備える各構成要素の機能を実現するためのコンピュータープログラム、そのコンピュータープログラムを記録した記録媒体等で実現できる。
A.第1実施形態:
A−1.情報処理システムの全体構成:
図1は、本発明の第1実施形態における情報処理システムの概略構成を示す説明図である。情報処理システム1は、頭部装着型表示装置100と、店舗サーバー300と、を備えている。頭部装着型表示装置100は、通信キャリアBSを介して無線通信でインターネットINTに接続されている。店舗サーバー300は、有線通信でインターネットINTに接続されている。この結果、頭部装着型表示装置100と店舗サーバー300とは、互いにインターネットINTによって接続される。通信キャリアBSは、送受信アンテナや、無線基地局、交換局を含む。
A−1.情報処理システムの全体構成:
図1は、本発明の第1実施形態における情報処理システムの概略構成を示す説明図である。情報処理システム1は、頭部装着型表示装置100と、店舗サーバー300と、を備えている。頭部装着型表示装置100は、通信キャリアBSを介して無線通信でインターネットINTに接続されている。店舗サーバー300は、有線通信でインターネットINTに接続されている。この結果、頭部装着型表示装置100と店舗サーバー300とは、互いにインターネットINTによって接続される。通信キャリアBSは、送受信アンテナや、無線基地局、交換局を含む。
頭部装着型表示装置100は、店舗サーバー300に蓄積された後述する店舗データベースを検索する。以下、頭部装着型表示装置100および店舗サーバー300について詳細に説明する。
A−2.頭部装着型表示装置の構成:
頭部装着型表示装置100は、使用者の頭部に装着する表示装置であり、ヘッドマウントディスプレイ(Head Mounted Display、HMD)とも呼ばれる。HMD100は、グラスを通過して視認される外界の中に画像が浮かび上がるシースルー型(透過型)の頭部装着型表示装置である。
頭部装着型表示装置100は、使用者の頭部に装着する表示装置であり、ヘッドマウントディスプレイ(Head Mounted Display、HMD)とも呼ばれる。HMD100は、グラスを通過して視認される外界の中に画像が浮かび上がるシースルー型(透過型)の頭部装着型表示装置である。
HMD100は、使用者に画像を視認させる画像表示部20と、画像表示部20を制御する制御装置(コントローラー)10とを備えている。
画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状を有する。画像表示部20は、右保持部21と、左保持部23と、前部フレーム27とを有する本体に、右表示ユニット22と、左表示ユニット24と、右導光板26と、左導光板28とを備える。
右保持部21および左保持部23は、それぞれ、前部フレーム27の両端部から後方に延び、眼鏡のテンプル(つる)のように、使用者の頭部に画像表示部20を保持する。ここで、前部フレーム27の両端部のうち、画像表示部20の装着状態において使用者の右側に位置する端部を端部ERとし、使用者の左側に位置する端部を端部ELとする。右保持部21は、前部フレーム27の端部ERから、画像表示部20の装着状態における使用者の右側頭部に対応する位置まで延伸して設けられている。左保持部23は、前部フレーム27の端部ELから、画像表示部20の装着状態における使用者の左側頭部に対応する位置まで延伸して設けられている。
右導光板26および左導光板28は、前部フレーム27に設けられている。右導光板26は、画像表示部20の装着状態における使用者の右眼の眼前に位置し、右眼に画像を視認させる。左導光板28は、画像表示部20の装着状態における使用者の左眼の眼前に位置し、左眼に画像を視認させる。
前部フレーム27は、右導光板26の一端と左導光板28の一端とを互いに連結した形状を有する。この連結位置は、画像表示部20の装着状態における使用者の眉間の位置に対応する。前部フレーム27には、右導光板26と左導光板28との連結位置において、画像表示部20の装着状態において使用者の鼻に当接する鼻当て部が設けられていてもよい。この場合、鼻当て部と右保持部21と左保持部23とによって、画像表示部20を使用者の頭部に保持できる。また、右保持部21および左保持部23に対して、画像表示部20の装着状態において使用者の後頭部に接するベルトを連結してもよい。この場合、ベルトによって画像表示部20を使用者の頭部に強固に保持できる。
右表示ユニット22は、右導光板26による画像の表示を行う。右表示ユニット22は、右保持部21に設けられ、画像表示部20の装着状態における使用者の右側頭部の近傍に位置する。左表示ユニット24は、左導光板28による画像の表示を行う。左表示ユニット24は、左保持部23に設けられ、画像表示部20の装着状態における使用者の左側頭部の近傍に位置する。なお、右表示ユニット22および左表示ユニット24を総称して「表示駆動部」とも呼ぶ。
本実施形態の右導光板26および左導光板28は、光透過性の樹脂等によって形成される光学部(例えばプリズム)であり、右表示ユニット22および左表示ユニット24が出力する画像光を使用者の眼に導く。なお、右導光板26および左導光板28の表面には、調光板が設けられてもよい。調光板は、光の波長域により透過率が異なる薄板状の光学素子であり、いわゆる波長フィルターとして機能する。調光板は、例えば、前部フレーム27の表面(使用者の眼と対向する面とは反対側の面)を覆うように配置される。調光板の光学特性を適宜選択することにより、可視光、赤外光、および紫外光等の任意の波長域の光の透過率を調整することができ、外部から右導光板26および左導光板28に入射し、右導光板26および左導光板28を透過する外光の光量を調整できる。
画像表示部20は、右表示ユニット22および左表示ユニット24がそれぞれ生成する画像光を、右導光板26および左導光板28に導き、この画像光によって画像(拡張現実感(AR)画像)を使用者に視認させる(これを「画像を表示する」とも呼ぶ)。使用者の前方から右導光板26および左導光板28を透過して外光が使用者の眼に入射する場合、使用者の眼には、画像を構成する画像光と、外光とが入射する。このため、使用者における画像の視認性は、外光の強さに影響を受ける。
このため、例えば前部フレーム27に調光板を装着し、調光板の光学特性を適宜選択あるいは調整することによって、画像の視認のしやすさを調整することができる。典型的な例では、HMD100を装着した使用者が少なくとも外の景色を視認できる程度の光透過性を有する調光板を選択することができる。調光板を用いると、右導光板26および左導光板28を保護し、右導光板26および左導光板28の損傷や汚れの付着等を抑制する効果が期待できる。調光板は、前部フレーム27、あるいは、右導光板26および左導光板28のそれぞれに対して着脱可能としてもよい。また、複数種類の調光板を交換して着脱可能としてもよく、調光板を省略してもよい。
カメラ61は、画像表示部20の前部フレーム27に配置されている。カメラ61は、前部フレーム27の前面において、右導光板26および左導光板28を透過する外光を遮らない位置に設けられる。図1の例では、カメラ61は、前部フレーム27の端部ER側に配置されている。カメラ61は、前部フレーム27の端部EL側に配置されていてもよく、右導光板26と左導光板28との連結部に配置されていてもよい。
カメラ61は、CCDやCMOS等の撮像素子、および、撮像レンズ等を備えるデジタルカメラである。本実施形態のカメラ61は単眼カメラであるが、ステレオカメラを採用してもよい。カメラ61は、HMD100の表側方向、換言すれば、画像表示部20の装着状態において使用者が視認する視界方向の、少なくとも一部の外景(実空間)を撮像する。換言すれば、カメラ61は、使用者の視界と重なる範囲または方向を撮像し、使用者が視認する方向を撮像する。カメラ61の画角の広さは適宜設定できる。本実施形態では、カメラ61の画角の広さは、使用者が右導光板26および左導光板28を透過して視認可能な使用者の視界の全体を撮像するように設定される。カメラ61は、制御機能部150(図5)の制御に従って撮像を実行し、得られた撮像データを制御機能部150へ出力する。
HMD100は、予め設定された測定方向に位置する測定対象物までの距離を検出する測距センサーを備えていてもよい。測距センサーは、例えば、前部フレーム27の右導光板26と左導光板28との連結部分に配置することができる。測距センサーの測定方向は、MD100の表側方向(カメラ61の撮像方向と重複する方向)とすることができる。測距センサーは、例えば、LEDやレーザーダイオード等の発光部と、光源が発する光が測定対象物に反射する反射光を受光する受光部と、により構成できる。この場合、三角測距処理や、時間差に基づく測距処理により距離を求める。測距センサーは、例えば、超音波を発する発信部と、測定対象物で反射する超音波を受信する受信部と、により構成してもよい。この場合、時間差に基づく測距処理により距離を求める。測距センサーはカメラ61と同様に、制御機能部150により制御され、検出結果を制御機能部150へ出力する。
図2は、画像表示部20が備える光学系の構成を示す要部平面図である。説明の便宜上、図2には使用者の右眼REおよび左眼LEを図示する。図2に示すように、右表示ユニット22と左表示ユニット24とは、左右対称に構成されている。
右眼REに画像(AR画像)を視認させる構成として、右表示ユニット22は、OLED(Organic Light Emitting Diode)ユニット221と、右光学系251とを備える。OLEDユニット221は、画像光を発する。右光学系251は、レンズ群等を備え、OLEDユニット221が発する画像光Lを右導光板26へと導く。
OLEDユニット221は、OLEDパネル223と、OLEDパネル223を駆動するOLED駆動回路225とを有する。OLEDパネル223は、有機エレクトロルミネッセンスにより発光し、R(赤)、G(緑)、B(青)の色光をそれぞれ発する発光素子により構成される自発光型の表示パネルである。OLEDパネル223は、R、G、Bの素子を1個ずつ含む単位を1画素とした複数の画素が、マトリクス状に配置されている。
OLED駆動回路225は、制御機能部150(図5)の制御に従って、OLEDパネル223が備える発光素子の選択および通電を実行し、発光素子を発光させる。OLED駆動回路225は、OLEDパネル223の裏面、すなわち発光面の裏側に、ボンディング等により固定されている。OLED駆動回路225は、例えばOLEDパネル223を駆動する半導体デバイスで構成され、OLEDパネル223の裏面に固定される基板に実装されてもよい。この基板には、後述する温度センサー217(図5)が実装される。なお、OLEDパネル223は、白色に発光する発光素子をマトリクス状に配置し、R、G、Bの各色に対応するカラーフィルターを重ねて配置する構成を採用してもよい。また、R、G、Bの色光をそれぞれ放射する発光素子に加えて、W(白)の光を放射する発光素子を備えるWRGB構成のOLEDパネル223が採用されてもよい。
右光学系251は、OLEDパネル223から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、右導光板26に入射する。右導光板26の内部において光を導く光路には、画像光Lを反射する複数の反射面が形成される。画像光Lは、右導光板26の内部で複数回の反射を経て右眼RE側に導かれる。右導光板26には、右眼REの眼前に位置するハーフミラー261(反射面)が形成される。画像光Lは、ハーフミラー261で反射後、右導光板26から右眼REへと射出され、この画像光Lが右眼REの網膜で像を結ぶことで、使用者に画像を視認させる。
左眼LEに画像(AR画像)を視認させる構成として、左表示ユニット24は、OLEDユニット241と、左光学系252とを備える。OLEDユニット241は画像光を発する。左光学系252は、レンズ群等を備え、OLEDユニット241が発する画像光Lを左導光板28へと導く。OLEDユニット241は、OLEDパネル243と、OLEDパネル243を駆動するOLED駆動回路245を有する。各部の詳細は、OLEDユニット221、OLEDパネル223、OLED駆動回路225と同じである。OLEDパネル243の裏面に固定される基板には、温度センサー239が実装される。また、左光学系252の詳細は右光学系251と同じである。
以上説明した構成によれば、HMD100は、シースルー型の表示装置として機能することができる。すなわち使用者の右眼REには、ハーフミラー261で反射した画像光Lと、右導光板26を透過した外光OLとが入射する。使用者の左眼LEには、ハーフミラー281で反射した画像光Lと、左導光板28を透過した外光OLとが入射する。このように、HMD100は、内部で処理した画像の画像光Lと外光OLとを重ねて使用者の眼に入射させる。この結果、使用者にとっては、右導光板26および左導光板28を透かして外景(実世界)が見えると共に、この外景に重なるようにして画像光Lによる画像(AR画像)が視認される。
なお、ハーフミラー261およびハーフミラー281は、右表示ユニット22および左表示ユニット24がそれぞれ出力する画像光を反射して画像を取り出す「画像取り出し部」として機能する。また、右光学系251および右導光板26を総称して「右導光部」とも呼び、左光学系252および左導光板28を総称して「左導光部」とも呼ぶ。右導光部および左導光部の構成は、上述した例に限定されず、画像光を用いて使用者の眼前に画像を形成する限りにおいて任意の方式を用いることができる。例えば、右導光部および左導光部には、回折格子を用いてもよいし、半透過反射膜を用いてもよい。
図1において、制御装置10と画像表示部20とは、接続ケーブル40によって接続される。接続ケーブル40は、制御装置10の下部に設けられるコネクターに着脱可能に接続され、左保持部23の先端から、画像表示部20内部の各種回路に接続する。接続ケーブル40には、デジタルデータを伝送するメタルケーブルまたは光ファイバーケーブルを有する。接続ケーブル40にはさらに、アナログデータを伝送するメタルケーブルを含んでもよい。接続ケーブル40の途中には、コネクター46が設けられている。
コネクター46は、ステレオミニプラグを接続するジャックであり、コネクター46と制御装置10とは、例えばアナログ音声信号を伝送するラインで接続される。図1に示す本実施形態の例では、コネクター46には、ステレオヘッドホンを構成する右イヤホン32および左イヤホン34と、マイク63を有するヘッドセット30とが接続されている。
マイク63は、例えば図1に示すように、マイク63の集音部が使用者の視線方向を向くように配置されている。マイク63は、音声を集音し、音声信号を音声インターフェース182(図5)に出力する。マイク63は、モノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであっても無指向性のマイクであってもよい。
制御装置10は、HMD100を制御するための装置である。制御装置10は、点灯部12と、タッチパッド14と、方向キー16と、決定キー17と、電源スイッチ18とを含んでいる。点灯部12は、HMD100の動作状態(例えば、電源のON/OFF等)を、その発光態様によって通知する。点灯部12としては、例えば、LED(Light Emitting Diode)を用いることができる。
タッチパッド14は、タッチパッド14の操作面上での接触操作を検出して、検出内容に応じた信号を出力する。タッチパッド14としては、静電式や圧力検出式、光学式といった種々のタッチパッドを採用することができる。方向キー16は、上下左右方向に対応するキーへの押下操作を検出して、検出内容に応じた信号を出力する。決定キー17は、押下操作を検出して、制御装置10において操作された内容を決定するための信号を出力する。電源スイッチ18は、スイッチのスライド操作を検出することで、HMD100の電源の状態を切り替える。
図3は、使用者から見た画像表示部20の要部構成を示す図である。図3では、接続ケーブル40、右イヤホン32、左イヤホン34の図示を省略している。図3の状態では、右導光板26および左導光板28の裏側が視認できると共に、右眼REに画像光を照射するためのハーフミラー261、および、左眼LEに画像光を照射するためのハーフミラー281が略四角形の領域として視認できる。使用者は、これらハーフミラー261、281を含む左右の導光板26、28の全体を透過して外景を視認すると共に、ハーフミラー261、281の位置に矩形の表示画像を視認する。
図4は、カメラ61の画角を説明するための図である。図4では、カメラ61と、使用者の右眼REおよび左眼LEとを平面視で模式的に示すと共に、カメラ61の画角(撮像範囲)をθで示す。なお、カメラ61の画角θは図示のように水平方向に拡がっているほか、一般的なデジタルカメラと同様に鉛直方向にも拡がっている。
上述のようにカメラ61は、画像表示部20において右側の端部に配置され、使用者の視線の方向(すなわち使用者の前方)を撮像する。このためカメラ61の光軸は、右眼REおよび左眼LEの視線方向を含む方向とされる。使用者がHMD100を装着した状態で視認できる外景は、無限遠とは限らない。例えば、使用者が両眼で対象物OBを注視すると、使用者の視線は、図中の符号RD、LDに示すように、対象物OBに向けられる。この場合、使用者から対象物OBまでの距離は、30cm〜10m程度であることが多く、1m〜4mであることがより多い。そこで、HMD100について、通常使用時における使用者から対象物OBまでの距離の上限および下限の目安を定めてもよい。この目安は、予め求められHMD100にプリセットされていてもよいし、使用者が設定してもよい。カメラ61の光軸および画角は、このような通常使用時における対象物OBまでの距離が、設定された上限および下限の目安に相当する場合において対象物OBが画角に含まれるように設定されることが好ましい。
なお、一般的に、人間の視野角は水平方向におよそ200度、垂直方向におよそ125度とされる。そのうち情報受容能力に優れる有効視野は水平方向に30度、垂直方向に20度程度である。人間が注視する注視点が迅速に安定して見える安定注視野は、水平方向に60〜90度、垂直方向に45〜70度程度とされている。この場合、注視点が対象物OB(図4)であるとき、視線RD、LDを中心として水平方向に30度、垂直方向に20度程度が有効視野である。また、水平方向に60〜90度、垂直方向に45〜70度程度が安定注視野である。使用者が画像表示部20を透過して右導光板26および左導光板28を透過して視認する実際の視野を、実視野(FOV:Field Of View)と呼ぶ。実視野は、視野角および安定注視野より狭いが、有効視野より広い。
本実施形態のカメラ61の画角θは、使用者の視野より広い範囲を撮像可能に設定される。カメラ61の画角θは、少なくとも使用者の有効視野より広い範囲を撮像可能に設定されることが好ましく、実視野よりも広い範囲を撮像可能に設定されることがより好ましい。カメラ61の画角θは、使用者の安定注視野より広い範囲を撮像可能に設定されることがさらに好ましく、使用者の両眼の視野角よりも広い範囲を撮像可能に設定されることが最も好ましい。このため、カメラ61には、撮像レンズとしていわゆる広角レンズを備え、広い画角を撮像できる構成としてもよい。広角レンズには、超広角レンズ、準広角レンズと呼ばれるレンズを含んでもよい。また、カメラ61には、単焦点レンズを含んでもよく、ズームレンズを含んでもよく、複数のレンズからなるレンズ群を含んでもよい。
図5は、HMD100の構成を機能的に示すブロック図である。制御装置10は、プログラムを実行してHMD100を制御するメインプロセッサー140と、記憶部と、入出力部と、センサー類と、インターフェースと、電源部130とを備える。メインプロセッサー140には、これらの記憶部、入出力部、センサー類、インターフェース、電源部130がそれぞれ接続されている。メインプロセッサー140は、制御装置10が内蔵しているコントローラー基板120に実装されている。
記憶部には、メモリー118と、不揮発性記憶部121とが含まれている。メモリー118は、メインプロセッサー140によって実行されるコンピュータープログラム、および、処理されるデータを一時的に記憶するワークエリアを構成する。不揮発性記憶部121は、フラッシュメモリーやeMMC(embedded Multi Media Card)で構成される。不揮発性記憶部121は、メインプロセッサー140が実行するコンピュータープログラムや、メインプロセッサー140によって処理される各種のデータを記憶する。本実施形態において、これらの記憶部はコントローラー基板120に実装されている。
入出力部には、タッチパッド14と、操作部110とが含まれている。操作部110には、制御装置10に備えられた方向キー16と、決定キー17と、電源スイッチ18とが含まれる。メインプロセッサー140は、これら各入出力部を制御すると共に、各入出力部から出力される信号を取得する。
センサー類には、6軸センサー111と、磁気センサー113と、GPS(Global Positioning System)レシーバー115とが含まれている。6軸センサー111は、3軸加速度センサーと3軸ジャイロ(角速度)センサーとを備えるモーションセンサー(慣性センサー)である。6軸センサー111は、これらセンサーがモジュール化されたIMU(Inertial Measurement Unit)を採用してもよい。磁気センサー113は、例えば、3軸の地磁気センサーである。GPSレシーバー115は、図示しないGPSアンテナを備え、GPS衛星から送信される無線信号を受信して、制御装置10の現在位置の座標を検出する。これらセンサー類(6軸センサー111、磁気センサー113、GPSレシーバー115)は、検出値を予め指定されたサンプリング周波数に従って、メインプロセッサー140へと出力する。各センサーが検出値を出力するタイミングは、メインプロセッサー140からの指示に応じてもよい。
インターフェースには、無線通信部117と、音声コーデック180と、外部コネクター184と、外部メモリーインターフェース186と、USB(Universal Serial Bus)コネクター188と、センサーハブ192と、FPGA194と、インターフェース196とが含まれている。これらは、外部とのインターフェースとして機能する。無線通信部117は、HMD100と外部機器との間における無線通信を実行する。無線通信部117は、図示しないアンテナ、RF回路、ベースバンド回路、通信制御回路等を備えて構成され、あるいはこれらが統合されたデバイスとして構成されている。無線通信部117は、例えば、Bluetooth(登録商標)、Wi−Fi(登録商標)を含む無線LAN等の規格に準拠した無線通信を行う。
音声コーデック180は、音声インターフェース182に接続され、音声インターフェース182を介して入出力される音声信号のエンコード/デコードを行う。音声インターフェース182は、音声信号を入出力するインターフェースである。音声コーデック180は、アナログ音声信号からデジタル音声データへの変換を行うA/Dコンバーター、および、その逆の変換を行うD/Aコンバーターを備えてもよい。本実施形態のHMD100は、音声を右イヤホン32および左イヤホン34から出力し、マイク63により集音する。音声コーデック180は、メインプロセッサー140が出力するデジタル音声データをアナログ音声信号に変換し、音声インターフェース182を介して出力する。また、音声コーデック180は、音声インターフェース182に入力されるアナログ音声信号をデジタル音声データに変換してメインプロセッサー140に出力する。
外部コネクター184は、メインプロセッサー140に対して、メインプロセッサー140と通信する外部装置(例えば、パーソナルコンピューター、スマートフォン、ゲーム機器等)を接続するためのコネクターである。外部コネクター184に接続された外部装置は、コンテンツの供給元となり得るほか、メインプロセッサー140が実行するコンピュータープログラムのデバッグや、HMD100の動作ログの収集に使用できる。外部コネクター184は種々の態様を採用できる。外部コネクター184としては、例えば、USBインターフェース、マイクロUSBインターフェース、メモリーカード用インターフェース等の有線接続に対応したインターフェースや、無線LANインターフェース、Bluetoothインターフェース等の無線接続に対応したインターフェースを採用できる。
外部メモリーインターフェース186は、可搬型のメモリーデバイスを接続可能なインターフェースである。外部メモリーインターフェース186は、例えば、カード型記録媒体を装着してデータの読み書きを行うメモリーカードスロットと、インターフェース回路とを含む。カード型記録媒体のサイズ、形状、規格等は適宜選択できる。USBコネクター188は、USB規格に準拠したメモリーデバイス、スマートフォン、パーソナルコンピューター等を接続可能なインターフェースである。USBコネクター188は、例えば、USB規格に準拠したコネクターと、インターフェース回路とを含む。USBコネクター188のサイズ、形状、USB規格のバージョン等は適宜選択できる。
また、HMD100は、バイブレーター19を備える。バイブレーター19は、図示しないモーターと、偏芯した回転子等を備え、メインプロセッサー140の制御に従って振動を発生する。HMD100は、例えば、操作部110に対する操作を検出した場合や、HMD100の電源がオンオフされた場合等に所定の振動パターンでバイブレーター19により振動を発生させる。バイブレーター19は、制御装置10に設ける構成に換えて、画像表示部20側、例えば、画像表示部の右保持部21(テンプルの右側部分)に設ける構成としてもよい。
センサーハブ192およびFPGA194は、インターフェース(I/F)196を介して画像表示部20に接続されている。センサーハブ192は、画像表示部20が備える各種センサーの検出値を取得して、メインプロセッサー140に出力する。FPGA194は、メインプロセッサー140と画像表示部20の各部との間で送受信されるデータの処理およびインターフェース196を介した伝送を実行する。インターフェース196は、画像表示部20の右表示ユニット22と、左表示ユニット24とに対してそれぞれ接続されている。本実施形態の例では、左保持部23に接続ケーブル40が接続され、この接続ケーブル40に繋がる配線が画像表示部20内部に敷設され、右表示ユニット22と左表示ユニット24とのそれぞれが、制御装置10のインターフェース196に接続される。
電源部130には、バッテリー132と、電源制御回路134とが含まれている。電源部130は、制御装置10が動作するための電力を供給する。バッテリー132は、充電可能な電池である。電源制御回路134は、バッテリー132の残容量の検出と、OS143への充電の制御を行う。電源制御回路134は、メインプロセッサー140に接続され、バッテリー132の残容量の検出値や、バッテリー132の電圧の検出値をメインプロセッサー140へと出力する。なお、電源部130が供給する電力に基づいて、制御装置10から画像表示部20へと電力を供給してもよい。電源部130から制御装置10の各部および画像表示部20への電力の供給状態を、メインプロセッサー140により制御可能な構成としてもよい。
右表示ユニット22は、表示ユニット基板210と、OLEDユニット221と、カメラ61と、照度センサー65と、LEDインジケーター67と、温度センサー217とを備える。表示ユニット基板210には、インターフェース196に接続されるインターフェース(I/F)211と、受信部(Rx)213と、EEPROM(Electrically Erasable Programmable Read-Only Memory)215とが実装されている。受信部213は、インターフェース211を介して制御装置10から入力されるデータを受信する。受信部213は、OLEDユニット221で表示する画像の画像データを受信した場合に、受信した画像データをOLED駆動回路225(図2)へと出力する。
EEPROM215は、各種のデータをメインプロセッサー140が読み取り可能な態様で記憶する。EEPROM215は、例えば、画像表示部20のOLEDユニット221、241の発光特性や表示特性に関するデータ、右表示ユニット22または左表示ユニット24のセンサー特性に関するデータ等を記憶する。具体的には、例えば、OLEDユニット221、241のガンマ補正に係るパラメーター、後述する温度センサー217、239の検出値を補償するデータ等を記憶する。これらのデータは、HMD100の工場出荷時の検査によって生成され、EEPROM215に書き込まれる。出荷後は、メインプロセッサー140がEEPROM215のデータを読み込んで各種の処理に利用する。
カメラ61は、インターフェース211を介して入力される信号に従って撮像を実行し、撮像画像データあるいは撮像結果を表す信号を制御装置10へと出力する。照度センサー65は、図1に示すように、前部フレーム27の端部ERに設けられ、画像表示部20を装着する使用者の前方からの外光を受光するように配置される。照度センサー65は、受光量(受光強度)に対応した検出値を出力する。LEDインジケーター67は、図1に示すように、前部フレーム27の端部ERにおいてカメラ61の近傍に配置される。LEDインジケーター67は、カメラ61による撮像を実行中に点灯して、撮像中であることを報知する。
温度センサー217は、温度を検出し、検出した温度に対応する電圧値あるいは抵抗値を出力する。温度センサー217は、OLEDパネル223(図3)の裏面側に実装される。温度センサー217は、例えばOLED駆動回路225と同一の基板に実装されてもよい。この構成により、温度センサー217は主としてOLEDパネル223の温度を検出する。なお、温度センサー217は、OLEDパネル223あるいはOLED駆動回路225に内蔵されてもよい。例えば、OLEDパネル223がSi−OLEDとしてOLED駆動回路225と共に統合半導体チップ上の集積回路として実装される場合、この半導体チップに温度センサー217を実装してもよい。
左表示ユニット24は、表示ユニット基板230と、OLEDユニット241と、温度センサー239とを備える。表示ユニット基板230には、インターフェース196に接続されるインターフェース(I/F)231と、受信部(Rx)233と、6軸センサー235と、磁気センサー237とが実装されている。受信部233は、インターフェース231を介して制御装置10から入力されるデータを受信する。受信部233は、OLEDユニット241で表示する画像の画像データを受信した場合に、受信した画像データをOLED駆動回路245(図2)へと出力する。
6軸センサー235は、3軸加速度センサーおよび3軸ジャイロ(角速度)センサーを備えるモーションセンサー(慣性センサー)である。6軸センサー235は、上記のセンサーがモジュール化されたIMUを採用してもよい。磁気センサー237は、例えば、3軸の地磁気センサーである。6軸センサー235と磁気センサー237は、画像表示部20に設けられているため、画像表示部20が使用者の頭部に装着されているときには、使用者の頭部の動きを検出する。検出された頭部の動きから画像表示部20の向き、すなわち、使用者の視界が特定される。
温度センサー239は、温度を検出し、検出した温度に対応する電圧値あるいは抵抗値を出力する。温度センサー239は、OLEDパネル243(図3)の裏面側に実装される。温度センサー239は、例えばOLED駆動回路245と同一の基板に実装されてもよい。この構成により、温度センサー239は主としてOLEDパネル243の温度を検出する。温度センサー239は、OLEDパネル243あるいはOLED駆動回路245に内蔵されてもよい。詳細は温度センサー217と同様である。
右表示ユニット22のカメラ61、照度センサー65、温度センサー217と、左表示ユニット24の6軸センサー235、磁気センサー237、温度センサー239は、制御装置10のセンサーハブ192に接続される。センサーハブ192は、メインプロセッサー140の制御に従って各センサーのサンプリング周期の設定および初期化を行う。センサーハブ192は、各センサーのサンプリング周期に合わせて、各センサーへの通電、制御データの送信、検出値の取得等を実行する。センサーハブ192は、予め設定されたタイミングで、右表示ユニット22および左表示ユニット24が備える各センサーの検出値をメインプロセッサー140へ出力する。センサーハブ192は、各センサーの検出値を一時的に保持するキャッシュ機能を備えてもよい。センサーハブ192は、各センサーの検出値の信号形式やデータ形式の変換機能(例えば、統一形式への変換機能)を備えてもよい。センサーハブ192は、メインプロセッサー140の制御に従ってLEDインジケーター67への通電を開始および停止させることで、LEDインジケーター67を点灯または消灯させる。
図6は、制御装置10の構成を機能的に示すブロック図である。制御装置10は、機能的には、記憶機能部122と、制御機能部150とを備える。記憶機能部122は、不揮発性記憶部121(図5)により構成される論理的な記憶部である。記憶機能部122は、記憶機能部122のみを使用する構成に替えて、不揮発性記憶部121に組み合わせてEEPROM215やメモリー118を使用する構成としてもよい。制御機能部150は、メインプロセッサー140がコンピュータープログラムを実行することにより、すなわち、ハードウェアとソフトウェアとが協働することにより構成される。
記憶機能部122には、制御機能部150における処理に供する種々のデータが記憶されている。具体的には、本実施形態の記憶機能部122には、設定データ123と、コンテンツデータ124とが記憶されている。設定データ123は、HMD100の動作に係る各種の設定値を含む。例えば、設定データ123には、制御機能部150がHMD100を制御する際のパラメーター、行列式、演算式、LUT(Look Up Table)等が含まれている。
コンテンツデータ124には、制御機能部150の制御によって画像表示部20が表示する画像や映像を含むコンテンツのデータ(画像データ、映像データ、音声データ等)が含まれている。なお、コンテンツデータ124には、双方向型のコンテンツのデータが含まれてもよい。双方向型のコンテンツとは、操作部110によって使用者の操作を取得して、取得した操作内容に応じた処理を制御機能部150が実行し、処理内容に応じたコンテンツを画像表示部20に表示するタイプのコンテンツを意味する。この場合、コンテンツのデータには、使用者の操作を取得するためのメニュー画面の画像データ、メニュー画面に含まれる項目に対応する処理を定めるデータ等を含みうる。
制御機能部150は、記憶機能部122が記憶しているデータを利用して各種処理を実行することにより、OS143、画像処理部145、表示制御部147、撮像制御部149、入出力制御部151、通信制御部153、店舗入力処理部155としての機能を実行する。本実施形態では、OS143以外の各機能部は、OS143上で実行されるコンピュータープログラムとして構成されている。
画像処理部145は、画像表示部20により表示する画像/映像の画像データに基づいて、右表示ユニット22および左表示ユニット24に送信する信号を生成する。画像処理部145が生成する信号は、垂直同期信号、水平同期信号、クロック信号、アナログ画像信号等であってもよい。画像処理部145は、メインプロセッサー140がコンピュータープログラムを実行して実現される構成のほか、メインプロセッサー140とは別のハードウェア(例えば、DSP(Digital Signal Processor))で構成してもよい。
なお、画像処理部145は、必要に応じて、解像度変換処理、画像調整処理、2D/3D変換処理等を実行してもよい。解像度変換処理は、画像データの解像度を右表示ユニット22および左表示ユニット24に適した解像度へと変換する処理である。画像調整処理は、画像データの輝度や彩度を調整する処理である。2D/3D変換処理は、三次元画像データから二次元画像データを生成し、あるいは、二次元画像データから三次元画像データを生成する処理である。画像処理部145は、これらの処理を実行した場合、処理後の画像データに基づき画像を表示するための信号を生成し、接続ケーブル40を介して画像表示部20へと送信する。
表示制御部147は、右表示ユニット22および左表示ユニット24を制御する制御信号を生成し、この制御信号により、右表示ユニット22および左表示ユニット24のそれぞれによる画像光の生成と射出とを制御する。具体的には、表示制御部147は、OLED駆動回路225、245を制御して、OLEDパネル223、243による画像の表示を実行させる。表示制御部147は、画像処理部145が出力する信号に基づいて、OLED駆動回路225、245がOLEDパネル223、243に描画するタイミングの制御、OLEDパネル223、243の輝度の制御等を行う。
撮像制御部149は、カメラ61を制御して撮像を実行させ、撮像画像データを生成し、記憶機能部122に一時的に記憶させる。また、カメラ61が撮像画像データを生成する回路を含むカメラユニットとして構成される場合、撮像制御部149は、撮像画像データをカメラ61から取得して、記憶機能部122に一時的に記憶させる。
入出力制御部151は、タッチパッド14(図1)と、方向キー16と、決定キー17とを適宜、制御して、これらから入力指令を取得する。取得した指令は、OS143、またはOS143と共にOS143上で動作するコンピュータープログラムに出力される。通信制御部153は、無線通信部117を制御して、例えば店舗サーバー300との間で無線通信を行う。
店舗入力処理部155は、OS143上で動作するアプリケーションプログラムに従って実現される機能である。店舗入力処理部155は、入出力制御部151や、画像処理部145、表示制御部147と協調して、使用者が望む店舗の識別情報を取得する。具体的には、店舗入力処理部155は、店舗サーバー300から送られてくる複数の候補店舗を使用者に提示する機能と、複数の候補店舗から使用者によって選択された一の店舗の入力を受け付ける機能と、を有する。後者の機能である店舗の入力を受け付ける機能は、多面体画像表示部155a、多面体向き切替部155b、および命令実行部155cによって実現される。各部155a〜155cの詳細は、後述する。なお、画像処理部145と表示制御部147、および画像表示部20の構成が[発明の概要]の欄に記載した本発明の一形態における「表示部」に相当し、店舗入力処理部155が「処理部」に相当する。
図7は、HMD100による拡張現実感表示の一例を示す説明図である。図7では、使用者の視界VRを例示している。上述のようにして、HMD100の使用者の両眼に導かれた画像光が使用者の網膜に結像することにより、使用者は拡張現実感(AR)としての画像AIを視認する。図7の例では、画像AIは、HMD100のOSのメニュー画面である。メニュー画面には、例えば、「メッセージ」、「電話」、「カメラ」、「ブラウザー」、「店舗案内」の各アプリケーションプログラムを起動するためのアイコンが含まれる。また、右左の導光板26,28が外景SCからの光を透過することで、使用者は外景SCを視認する。このように、本実施形態のHMDの使用者は、視界VRのうち画像VIが表示された部分については、外景SCに重なるようにして画像AIを見ることができる。また、視界VRのうち画像AIが表示されていない部分については、外景SCだけを見ることができる。
A−3.店舗サーバーの構成:
図8は、店舗サーバー300の構成を機能的に示すブロック図である。図4に示すように、店舗サーバー300は、CPU310と、記憶部320と、ROM330と、RAM340と、通信インターフェース(I/F)350と、を備え、各部はバス360により相互に接続されている。
図8は、店舗サーバー300の構成を機能的に示すブロック図である。図4に示すように、店舗サーバー300は、CPU310と、記憶部320と、ROM330と、RAM340と、通信インターフェース(I/F)350と、を備え、各部はバス360により相互に接続されている。
CPU310は、記憶部320やROM330に格納されているコンピュータープログラムをRAM340に展開して実行することにより、店舗サーバー300の各部を制御する。そのほか、CPU310は、周辺店舗情報提供部312および店舗案内部314としても機能する。周辺店舗情報提供部312は、使用者の視界VR1の範囲内に含まれる店舗を候補店舗として、HMD100に提供する。店舗案内部314は、HMD100から使用者が望む店舗の識別情報を受信し、使用者が望む店舗についての案内情報を店舗データベース322から取得し、取得された店舗情報をHMD100に提供する。本実施形態では、案内情報として、店舗までの道順を示す情報、店舗の電話番号等、店舗を利用するに有用な情報を提供する。
記憶部320は、ROM、RAM、DRAM、ハードディスク等によって構成されている。記憶部320には、オペレーティングシステム(ОS)をはじめとする種々のコンピュータープログラムが格納されている。また、記憶部320には、前述した店舗データベース322と、地図データベース324とが記憶されている。地図データベース324には、種々の店舗が記録されている。
A−4.店舗入力処理について:
図9は、店舗入力処理ルーチンを示すフローチャートである。この店舗入力処理ルーチンは、店舗入力処理部155(図6)に対応している。店舗入力処理ルーチンは、不揮発性記憶部121(図5)に格納されている所定のコンピュータープログラム(アプリケーションプログラム)に従う処理ルーチンで、HMD100のメインプロセッサー140によって実行される。図7に例示したメニュー画面の「店舗案内」のアイコンが方向キー16(図1)と決定キー17(図1)によって指示されたことを受けて、店舗入力処理ルーチンは実行開始される。
図9は、店舗入力処理ルーチンを示すフローチャートである。この店舗入力処理ルーチンは、店舗入力処理部155(図6)に対応している。店舗入力処理ルーチンは、不揮発性記憶部121(図5)に格納されている所定のコンピュータープログラム(アプリケーションプログラム)に従う処理ルーチンで、HMD100のメインプロセッサー140によって実行される。図7に例示したメニュー画面の「店舗案内」のアイコンが方向キー16(図1)と決定キー17(図1)によって指示されたことを受けて、店舗入力処理ルーチンは実行開始される。
処理が開始されると、HMD100のメインプロセッサー140は、まず、HMD100の現在位置を示す位置情報を、GPSレシーバー115から取得する(ステップS110)。次いで、メインプロセッサー140は、画像表示部20を装着した使用者の視線方向を特定する情報(視線方向情報)を取得する(ステップS120)。具体的には、磁気センサー237によって検出された地磁気に基づいて画像表示部20の向きを特定することによって、視線方向情報を取得する。続いて、メインプロセッサー140は、取得された位置情報と視線方向情報を店舗サーバー300に送信する(ステップS130)。
ステップS130の処理がなされると、店舗サーバー300側では次の処理が行われる。店舗サーバー300は、まず、位置情報と視線情報とを取得し、これらの情報から、使用者の仮想的な仮想視野を設定する。具体的には、HMD100の現在位置において、使用者の視線方向を中心として予め設定される範囲(例えば、左右90度、上下60度)を、仮想視野として設定する。なお、ここで言う「仮想視野」は、使用者が右左の導光板26、28を通して実際に視認しうる視野(実視野)とは必ずしも一致する必要はないが、実視野を超えない範囲が望ましい。続いて、店舗サーバー300は、地図データベース324を照合することで、仮想視野内に含まれる店舗を検索する。ここでは、HMD100からの距離を例えば数百メートルとし、仮想視野内に含まれる店舗を検索する。その後、店舗サーバー300は、検索された店舗を候補店舗とし、各候補店舗についての情報を店舗データベース322から取得する。その後、店舗サーバー300は、取得された各候補店舗についての情報を示すデータセットをHMD100に送信する。
図10は、店舗サーバー300からHMD100に送信されるデータセットDSを示す説明図である。データセットDSは、各候補店舗についての情報をレコードRCの形で記録する。各レコードRCには、「店舗名」、「ビュー位置」、「詳細説明」の各データが記録されている。「店舗名」のデータは候補店舗の名称であり、「ビュー位置」のデータは前述した仮想視野における候補店舗の位置を示す情報である。「詳細説明」のデータは、候補店舗の詳細な情報を示し、具体的には、店舗の種別(例えば、コンビニ、レストラン、居酒屋等)や、取り扱い商品などである。
図9のステップS130に続くステップS140では、メインプロセッサー140は、上述したデータセットを店舗サーバー300から受信する。次いで、メインプロセッサー140は、受信したデータセットに基づいて画像処理部145(図6)を制御して、シースルー表示エリアを表示制御部147(図6)に表示させる表示処理を行う(ステップS150)。続いて、メインプロセッサー140は、受信したデータセットに基づいて画像処理部145(図6)を制御して、インフォメーション表示エリアを表示制御部147(図6)に表示させる表示処理を行う(ステップS160)。このステップS160の処理が多面体画像表示部155a(図6)に対応している。
図11は、ステップS160の処理が実行された後の使用者の視界VR1の一例を示す説明図である。図示するように、視界VR1には、シースルー表示エリアP1とインターフェースエリアP2とが含まれる。
シースルー表示エリアP1には、外景SCに重なるようにして、AR画像としての店舗名の吹き出しA1〜A6が表示される。各吹き出しA1〜A6に表される店舗名は、受信したデータセットDSの「店舗名」のデータに基づくものである。各吹き出しA1〜A6の表示位置は、候補店舗の存在する位置に対応したもので、受信したデータセットDSの「ビュー位置」のデータに基づいて定められている。具体的には、視界VR1の中に店舗サーバー300で設定した仮想視野と同じ仮想視野を設定した上で、その設定した仮想視野における位置を「ビュー位置」のデータから求めることで、視界VR1の中の各吹き出しA1〜A6の表示位置が定められている。
インターフェースエリアP2は、使用者との間で情報のやり取りを行うためのエリアであり、シースルー表示エリアP1の片側(例えば右側)に連結されている。具体的には、インターフェースエリアP2では、シースルー表示エリアP1に表示された1または複数(図11の例示では6つ)の店舗名を一覧表示するとともに、一覧表示の中から選択された使用者が望む店舗の店舗名を受け取る。なお、インターフェースエリアP2は、遠くの外景は透過せず、近くの外景(たとえば、指先)については透過して視認可能なように、外景の透過量が設定されている。
図11に示すインターフェースエリアP2は、一覧表示欄LTと、キュービックスイッチSWと、が含まれる。
一覧表示欄LTは、シースルー表示エリアP1に表示された店舗名に対応した[店舗名]ボタンB1を縦方向に配列したもので、各[店舗名]ボタンの右隣りには[詳細]ボタンB2がそれぞれ設けられている。すなわち、店舗毎に、[店舗名]ボタンB1と[詳細]ボタンB2とが対になって設けられている。[店舗名]ボタンB1は、HMD10の制御機能部150(図6)に対して店舗名を指示するためのスイッチである。[詳細]ボタンB2は、店舗の詳細な情報の表示を指示するためのスイッチである。一覧表示欄LT内の全てのボタンB1,B2のうちの一つはアクティブ状態となっており、残余のボタンB1,B2は非アクティブ状態となっている。「アクティブ状態」とは、使用者による操作の対象となっている状態である。図示の例では、「○○店」の[店舗名]ボタンB1が白色の背景となっており、アクティブ状態となっており、残余のボタンB1,B2は非アクティブ状態となっている。図示の例では、「○○店」の[詳細]ボタンB2と、「○○店」以外の各店の[店舗名]ボタンB1および[詳細]ボタンB2とが、非アクティブ状態である。なお、一覧表示欄LTが、[発明の概要]の欄に記載した本発明の一形態における「画像」に相当する。
キュービックスイッチSWは、アクティブ状態にあるボタンB1,B2を順次切り替え、入力したい店舗を決定するためのGUI(グラフィカルユーザーインターフェース)として機能する。本実施形態では、キュービックスイッチSWは、立方体(正六面体)形状の3D画像によって構成される。「3D画像」とは、3次元(立体)の画像である。本実施形態では、立方体の画像は、奥行きを有する3次元の形状データによって示されており、2次元の画面上で自由に角度(アングル)を変えたり遠近感を付けることが可能となっている。本実施形態のHMD100はシースルー型であることから、特有な画像処理を施して、3D画像を立体的により鮮明に見えるようにしてもよい。特有な画像処理としては、影を付けたり、明度を変えたり、両眼表示の視差角を変えたり等がある。
立方体の各面SFには、一つの命令がそれぞれ割り当てられている。6つの面SFに割り当てられる命令は、本実施形態では、「up」、「down」、「right」、「left」、「決定」、「削除」である。「up」は、アクティブ状態にあるボタンB1,B2を上側に切り替える命令である。「down」は、アクティブ状態にあるボタンB1,B2を下側に切り替える命令である。「right」は、アクティブ状態にあるボタンB1,B2を右側に切り替える命令である。「left」は、アクティブ状態にあるボタンB1,B2を左側に切り替える命令である。各命令の配列は、本実施形態では、制御装置10における決定キー17と方向キー16との配列に合わせたものとなっている。具体的には、「決定」の面の右側に「right」の面が配置され、「決定」の面の左側に「left」の面が配置され、「決定」の面の上側に「up」の面が配置され、「決定」の面の下側に「down」の面が配置される。「決定」の面の裏側に「削除」の面が配置される。
「決定」は、アクティブ状態にあるボタンB1,B2に対して設定された機能を実行させる命令である。すなわち、アクティブ状態にあるボタンが[店舗名]ボタンB1である場合には、店舗名の入力を受け付け、アクティブ状態にあるボタンが[詳細]ボタンB2である場合には、該当する店舗についての詳細情報を表示させる。「削除」は、アクティブ状態にあるボタンB1,B2に該当する店舗を候補店舗から削除する命令である。なお、キュービックスイッチSWは正六面体の3D画像であることから、6つの面の内の一部(例えば、3つ)が見え、他の面は裏側に隠れている。
インターフェースエリアP2は、先に説明したように、近くの外景は透過して視認可能であることから、使用者は、視界の中に手の指先を差し出すことによって、指先によってキュービックスイッチSWを操作することができる。
図12は、キュービックスイッチSWを回転させる操作の一例を示す説明図である。HMD100の使用者は、図示するようにキュービックスイッチSWの一面SFに手の指先FGを当て(重ね)、矢印FLに示すようにフリック(スライド)することによって、キュービックスイッチSWを回転させることができる。すなわち、キュービックスイッチSWとしての立方体の表示される向きを切り替えることができる。
図13は、回転後のキュービックスイッチSWを示す説明図である。図12に示すように操作された結果、キュービックスイッチSWは図13の状態、すなわち、「up」と記された面が表示される向きに切り替わる。図13の状態は図12の状態からフリック方向に面SFを1つ分だけ切り替えたものとなっているが、キュービックスイッチSWは、フリックの距離を長くすることで、面SFを2つ分、3つ分と切り替えることも可能である。
キュービックスイッチSWの前側の面SFは、使用者によってタップ可能となっている。「前側の面」とは、使用者と向き合う面であり、図13の例示では「up」と記された面SFが該当する。「タップ」とは、手の指先FGを画像要素に当て(重ね)、押下するように指先FGを前方(使用者から見た前側)に移動する操作である。キュービックスイッチSWの前側の面SFをタップすることで、その前側の面SFに割り当てられた命令をHMD100に実行させることができる。なお、本実施形態では、前側の面SF以外の面はタップ不可能な構成となっている。前側の面SFだけがタップ可能となっているのは、タップを受け付ける面が上側の面であると、アプリケーションプログラムで予め定められた構成であるためである。
例えば、図11に示したインターフェースエリアP2の表示状態において、キュービックスイッチSWの前側の面SF、すなわち、「down」と記された面SFをタップした場合には、アクティブ状態にあるボタンは、「○○店」と記された[店舗名]ボタンB1から「△△店」と記された[店舗名]ボタンB1に切り替わる。
例えば、図11に示したインターフェースエリアP2の表示状態において、キュービックスイッチSWを下側にフリックすることで、「決定」と記された面SFを前側に切り替えた後、その前側の面SFをタップした場合には、アクティブ状態にあるボタンである「○○店」と記された[店舗名]ボタンB1に対して「決定」が実行される。具体的には、HMD10の制御機能部150(図6)において、「○○店」という店舗名の入力が受け付けられる。
例えば、図11に示したインターフェースエリアP2の表示状態において、キュービックスイッチSWを右側にフリックすることで、「right」と記された面SFを前側に切り替えた後、その前側の面SFをタップした場合には、アクティブ状態にあるボタンは、「○○店」と記された[店舗名]ボタンB1から右隣の[詳細]ボタンB2に切り替わる。その後、キュービックスイッチSWを下側にフリックすることで、「決定」と記された面SFを前側に切り替え、その前側の面SFをタップした場合には、アクティブ状態にあるボタンである「○○店」の[詳細]ボタンB2に対して「決定」が実行される。この結果、該当する店舗、「○○店」についての詳細情報がインターフェースエリアP2に表示される。詳細情報は、ステップS140で顧客サーバーから受信したデータセットの「詳細説明」のデータ(図10参照)に基づくものである。
図9のフローチャートの説明に戻る。上述したキュービックスイッチSWを用いた操作は、ステップS170からS196までの処理によって実現される。
ステップS170では、メインプロセッサー140は、カメラ61を制御して撮像を実行させ、得られた撮像画像から使用者の指先FGの動きを検出する。次いで、メインプロセッサー140は、検出した指先FGの動きから、キュービックスイッチSWに対する上述したフリックやタップの操作がなされたか否かを判定し(ステップS180)、操作がなされていない場合には、ステップS170に処理を戻して、操作がなされるのを待つ。ステップS180で、キュービックスイッチSWに対して操作がなされたと判定されたときには、その操作がフリックとタップのいずれであるかを判定する(ステップS190)。
ステップS190でフリックであると判定された場合には、メインプロセッサー140は、キュービックスイッチSWの表示される向きをフリックの方向に基づいて切り替える(ステップS192)。すなわち、キュービックスイッチSWをフリックされた方向に回転した状態の画像に変更する。ステップS170〜S192の処理が多面体向き切替部155b(図6)に対応している。ステップS192の実行後、ステップS170に処理を戻して、使用者の次の操作を待つ。
一方、ステップS190でタップであると判定された場合には、メインプロセッサー140は、タップされた面(本実施形態では、前側の面、すなわち使用者と向き合う面)SFに割り当てられた命令を実行する(ステップS194)。すなわち、「up」である場合には、アクティブ状態にあるボタンB1,B2を上側に切り替える。「down」である場合には、アクティブ状態にあるボタンB1,B2を下側に切り替える。「right」である場合には、アクティブ状態にあるボタンB1,B2を右側に切り替える。「left」である場合には、アクティブ状態にあるボタンB1,B2を左側に切り替える。「削除」である場合には、アクティブ状態にあるボタンB1,B2に該当する店舗を候補店舗から削除する。
「決定」であると判定された場合には、2つの動作に別れる。アクティブ状態にあるボタンB1,B2が[店舗名]ボタンB1である場合には、該当する店舗の識別情報、すなわち、店舗名を入力する。具体的には、HMD10の制御機能部150(図6)の店舗入力処理部155において、「○○店」という店舗名の入力が受け付けられるアクティブ状態にあるボタンB1,B2が[詳細]ボタンB2である場合には、該当する店舗についての詳細情報を表示する。詳細情報は、ステップS140で顧客サーバーから受信したデータセットの「詳細説明」のデータ(図10参照)に基づくものである。本実施形態では、インターフェースエリアP2に詳細情報を所定時間(例えば5秒)だけ表示し、5秒経過後はインターフェースエリアP2は元の表示に戻る。ステップS170〜S190、S194の処理が命令実行部155c(図6)に対応している。
ステップS194の実行後、メインプロセッサー140は、アクティブ状態にあるボタンB1,B2が[店舗名]ボタンB1であり、かつ、タップされた面SFに割り当てられた命令が「決定」であるか否かを判定する(ステップS196)。ここで、否定判定、すなわち、アクティブ状態にあるボタンB1,B2が[詳細]ボタンB2である場合、もしくはタップされた面SFに割り当てられた命令が「決定」以外の命令である場合には、ステップS170に処理を戻して、使用者の次の操作を待つ。
一方、ステップS196で肯定判定、すなわち、[店舗名]ボタンB1で、かつ「決定」である場合には、「エンド」に処理を進めて、この店舗入力処理ルーチンを終了する。すなわち、肯定判定された場合、ステップS194の処理により店舗名の入力の受け付けが完了していることから、この店舗入力処理ルーチンを終了する。
メインプロセッサー140は、店舗入力処理ルーチンの終了後、別の処理を実行することによって、店舗入力処理ルーチンによって受け付けた店舗名を店舗サーバー300に送り、店舗サーバー300から送られてくる案内情報の表示を行う。
A−5.実施形態の効果について:
以上のように構成された第1実施形態のHMD100によれば、使用者は、右左の導光板26、28を通して視認しうる視界に含まれる複数の店舗の中から一の店舗を指定するに際し、キュービックスイッチSWをフリックして回転させ、前側の面SFをタップするだけで、その指定を行なうことができる。したがって、このHMD100によれば、使用者の操作性を向上することができる。特に、このHMD100によれば、キュービックスイッチSWが正六面体の3D画像であることから、簡単かつ直感的な操作によって処理を行うことができる。したがって、操作性をより向上できる。
以上のように構成された第1実施形態のHMD100によれば、使用者は、右左の導光板26、28を通して視認しうる視界に含まれる複数の店舗の中から一の店舗を指定するに際し、キュービックスイッチSWをフリックして回転させ、前側の面SFをタップするだけで、その指定を行なうことができる。したがって、このHMD100によれば、使用者の操作性を向上することができる。特に、このHMD100によれば、キュービックスイッチSWが正六面体の3D画像であることから、簡単かつ直感的な操作によって処理を行うことができる。したがって、操作性をより向上できる。
B.第2実施形態:
本発明の第2実施形態におけるHMDは、第1実施形態におけるHMD100と比べて、制御機能部150(図6)によって実現される一部の機能が相違する。具体的には、HMD100が備える制御機能部において、第1実施形態における店舗入力処理部155(図6)に替えて、作業支援処理部(図示せず)が設けられていることが相違する。第2実施形態におけるHMDにおける残余の構成は、第1実施形態と同一であり、説明は省略する。
本発明の第2実施形態におけるHMDは、第1実施形態におけるHMD100と比べて、制御機能部150(図6)によって実現される一部の機能が相違する。具体的には、HMD100が備える制御機能部において、第1実施形態における店舗入力処理部155(図6)に替えて、作業支援処理部(図示せず)が設けられていることが相違する。第2実施形態におけるHMDにおける残余の構成は、第1実施形態と同一であり、説明は省略する。
図14は、第2実施形態の作業支援処理部によって生成されるシースルー表示エリアP11とインターフェースエリアP12とを示す説明図である。シースルー表示エリアP11は、第1実施形態のシースルー表示エリアP1(図11)と同様に、シースルーにて視認される外景SCに重なるように、AR画像としての吹き出しA11が表示される。外景SC11には、ねじ止めを行うためのねじと板材とが含まれる。吹き出しA11には、作業指示を行うためのARナビ画面が含まれる。
インターフェースエリアP12には、作業についての手順を示す作業標準書LT11が表示される。作業者は、インターフェースエリアP12に表示された作業標準書LT11を読み、吹き出しA11のARナビ画面による指示に従って、ねじ止めの作業を行う。作業標準書LT11が、[発明の概要]の欄に記載した本発明の一形態における「画像」に相当する。
インターフェースエリアP12には、第1実施形態と同様に、キュービックスイッチSW11が含まれる。キュービックスイッチSW11は、作業標準書LT11のページの表示を切り替えるためのGUIとして機能する。キュービックスイッチSW11を構成する立方体(正六面体)の各面SFには、「Page up」、「Page down」、「作業標準書拡大」、「作業標準書縮小」、「ARナビ画面拡大」、「ARナビ画面縮小」の各命令がそれぞれ割り当てられている。
「Page up」は、作業標準書LT11のページを1枚めくる(送る)命令である。「Page dpwn」は、作業標準書LT11のページを1枚戻す命令である。「作業標準書拡大」は、作業標準書LT11を拡大表示する命令である。「作業標準書縮小」は、作業標準書LT11を縮小表示する命令である。「ARナビ画面拡大」は、吹き出しA11に表示されるARナビ画面を拡大する命令である。「ARナビ画面縮小」は、吹き出しA11に表示されるARナビ画面を縮小する命令である。
キュービックスイッチSW11は、第1実施形態のキュービックスイッチSWと同様に、キュービックスイッチSW11の一面に手の指先FGを当て(重ね)、フリック(スライド)することによって、キュービックスイッチSW11を回転させることができる。また、キュービックスイッチSWの前側の面をタップすることによって、その前側の面に割り当てられた命令をHMD100に実行させることができる。
以上のように構成された第2実施形態のHMDによれば、インターフェースエリアP12に表示される作業標準書LT11のページ送り/ページ戻し/拡大/縮小を、キュービックスイッチSW11をフリックして回転させ、前側の面をタップするだけで行なうことができる。したがって、このHMDによれば、使用者の操作性を向上することができる。特に、このHMDによれば、キュービックスイッチSW11が正六面体の3D画像であることから、簡単かつ直感的な操作によって処理を行うことができる。したがって、操作性をより向上できる。
C.第3実施形態:
本発明の第3実施形態におけるHMDは、第1実施形態におけるHMD100と比べて、制御装置(コントローラー)の構成が相違し、残余の構成要素は、第1実施形態と同一である。なお、同一の構成要素については、第1実施形態と同一の符号を用いて以下の説明を行う。第1実施形態では、表示されたキュービックスイッチSWを指先でフリックすることによって、キュービックスイッチSWを回転させる構成であった。これに対して、第3実施形態では、制御装置(コントローラー)を用いて、表示されたキュービックスイッチSWを回転させることができる。
本発明の第3実施形態におけるHMDは、第1実施形態におけるHMD100と比べて、制御装置(コントローラー)の構成が相違し、残余の構成要素は、第1実施形態と同一である。なお、同一の構成要素については、第1実施形態と同一の符号を用いて以下の説明を行う。第1実施形態では、表示されたキュービックスイッチSWを指先でフリックすることによって、キュービックスイッチSWを回転させる構成であった。これに対して、第3実施形態では、制御装置(コントローラー)を用いて、表示されたキュービックスイッチSWを回転させることができる。
図18は、第3実施形態における制御装置(以下、「コントローラー」と呼ぶ)410を示す説明図である。コントローラー410は、使用者によって操作される操作部であって、表面410aと、裏面410bと、両側の側面410cとを備える板形状である。表面410aに、方向キー416(図19)や決定キー417(図19)が設けられている。コントローラー410は、第1実施形態における制御装置10に替わるもので、制御装置10と同一の機能を有する。
図中において、「UP」は鉛直方向の上側であり、「DW」は鉛直方向の下側である。「LF」は左方向とする。図18の状態では、表面410aが鉛直方向の上側、すなわち上向きとなっている。コントローラー410は、通常、表面410aを上向きとして使用される。
コントローラー410の内部には、第1実施形態における制御装置(コントローラー)10と同様に、6軸センサー411と磁気センサー413が設けられている。6軸センサー411の検出信号と磁気センサー413の検出信号とを組み合わせることで、コントローラー410の向きを特定することができる。
図19はコントローラー410の表面410aを左側に向けたときの説明図であり、図20はコントローラー410の表面410aを右側に向けたときの説明図であり、図21はコントローラー410の表面410aを鉛直方向の下側に向けたときの説明図である。図19〜図21は、図18と同様に、左から右方向に向かって見たときの平面視を示している。使用者は、コントローラー410の表面410aを、図18の状態である上向き、図19の状態である左向き、図20の状態である右向き、図21の状態である下向きに、それぞれ切り替えることができる。コントローラー410は、6軸センサー411の検出信号と磁気センサー413の検出信号に基づいて特定したコントローラー410の向きから、上記のコントローラー410の表面410aの向きが切り替わったことを検出することができる。
本実施形態では、コントローラー410の表面410aを上向きとすることが、第1実施形態におけるキュービックスイッチSW(図11)を上側にフリックする操作に対応付けられている。コントローラー410の表面410aを左向きとすることが、第1実施形態におけるキュービックスイッチSWを左側にフリックする操作に対応付けられている。コントローラー410の表面410aを右向きとすることが、第1実施形態におけるキュービックスイッチSWを右側にフリックする操作に対応付けられている。コントローラー410の表面410aを下向きとすることが、第1実施形態におけるキュービックスイッチSWを下側にフリックする操作に対応付けられている。この結果、使用者によって、コントローラー410の表面410aが上向き、下向き、左向き、右向きの間で切り替えられることによって、インターフェースエリアP2に表示されたキュービックスイッチSWの向きが切り替えられる。
さらに、本実施形態では、コントローラー410が上下に2回振られることが、第1実施形態におけるキュービックスイッチSWの前側の面SFをタップする操作に対応付けられている。この結果、コントローラー410が上下に2回振られたときに、キュービックスイッチSWの前側の面SFに割り当てられた命令が実行される。コントローラー410が振られたことは、6軸センサー411と磁気センサー413とによって検出できる。
なお、コントローラー410の表面410aの向きが切り替えられたときに、キュービックスイッチSWの向きがいずれの方向に切り替わるかは、アプリケーションプログラムによって上述したように定められているが、これに換えて、使用者が自由に変更可能な構成としてもよい。
以上のように構成された第3実施形態のHMDによれば、使用者は、視界に含まれる複数の店舗の中から一の店舗を指定するに際し、コントローラー410の向きを切り替え、コントローラー410を上下に2回振るだけで、その指定を行なうことができる。したがって、このHMDによれば、第1実施形態のHMDと同様に、使用者は簡単かつ直感的な操作によって処理を行うことができる。なお、このコントローラー410を備えた構成は、第3実施形態では第1実施形態に適用する構成としたが、他の実施形態として第2実施形態に適用する構成としてもよい。
D.第4実施形態:
本発明の第4実施形態におけるHMDは、第1実施形態におけるHMD100と比べて、第2のコントローラーをさらに備えることが相違し、残余の構成要素は、第1実施形態と同一である。同一の構成要素については、第1実施形態と同一の符号を用いて以下の説明を行う。
本発明の第4実施形態におけるHMDは、第1実施形態におけるHMD100と比べて、第2のコントローラーをさらに備えることが相違し、残余の構成要素は、第1実施形態と同一である。同一の構成要素については、第1実施形態と同一の符号を用いて以下の説明を行う。
図22は、第2のコントローラー510を示す斜視図である。第2のコントローラー510は、図11に示すインターフェースエリアP2に表示されたキュービックスイッチSWと同一の立方体(正六面体)形状を有する実際の物体である。立方体の各面510aには、キュービックスイッチSWと同様に、「up」、「down」、「right」、「left」、「決定」、「削除」の各命令が割り当てられている。
第2のコントローラー510の内部には、6軸センサー511と磁気センサー513と無線通信部517とが設けられている。6軸センサー511は、3軸加速度センサーおよび3軸ジャイロ(角速度)センサーを備えるモーションセンサー(慣性センサー)である。磁気センサー513は、例えば、3軸の地磁気センサーである。6軸センサー511の検出信号と磁気センサー513の検出信号に基づいて第2のコントローラー510の向きを特定することができる。無線通信部517は、図示しないアンテナ、RF回路、ベースバンド回路、通信制御回路等を備えて構成され、あるいはこれらが統合されたデバイスとして構成されている。無線通信部517は、例えば、Bluetooth(登録商標)、Wi−Fi(登録商標)を含む無線LAN等の規格に準拠した無線通信を、制御装置(コントローラー)10との間で行う。
使用者は、キュービックスイッチSWを指先でフリックすることに換えて、第2のコントローラー510を回転させる。第2のコントローラー510は、回転時における6軸センサー511と磁気センサー513の各検出信号を無線通信部517を介して、制御装置(コントローラー)10に送信する。制御装置10は、第2のコントローラー510から送られてきた6軸センサー511と磁気センサー513の各検出信号を組み合わせて、第2のコントローラー510の回転方向を特定し、画像表示部20に設けられた6軸センサー235と磁気センサー237との各検出信号から画像表示部20の向きを特定し、特定した第2のコントローラー510の回転方向と画像表示部20の向きとによって、使用者の見た方向に対する第2のコントローラー510の回転方向を特定する。その後、インターフェースエリアP2に表示されたキュービックスイッチSWをその特定した回転方向に同期させて回転する。この結果、使用者によって、第2のコントローラー510の向きが切り替えられることによって、インターフェースエリアP2に表示されたキュービックスイッチSWの向きが切り替えられる。
さらに、第2のコントローラー510が上下に2回振られることが、第1実施形態におけるキュービックスイッチSWの前側の面SFをタップする操作に対応付けられている。第2のコントローラー510が振られたことは、6軸センサー511と磁気センサー513とによって検出できる。この結果、第2のコントローラー510が上下に2回振られたときに、キュービックスイッチSWの前側の面SFに割り当てられた命令が実行される。
以上のように構成された第4実施形態のHMDによれば、使用者は、視界に含まれる複数の店舗の中から一の店舗を指定するに際し、実物体である第2のコントローラー510の向きを切り替え、コントローラー510を上下に2回振るだけで、その指定を行なうことができる。したがって、このHMDによれば、第1実施形態のHMDと同様に、使用者は簡単かつ直感的な操作によって処理を行うことができる。なお、第2のコントローラー510を備えた構成は、第4実施形態では第1実施形態に適用する構成としたが、他の実施形態として第2実施形態に適用する構成としてもよい。
E.第5実施形態:
キュービックスイッチSW,SW11を用いた操作を、第1および第2実施形態では指先でフリックする操作とし、第3実施形態ではコントローラー410の表面410aの向きを切り替える操作とし、第4実施形態では実物体である第2のコントローラー510の向きを切り替える操作とした。これらに対して、第5実施形態では、ウェアラブルデバイスを用いてキュービックスイッチSWを操作する構成とした。
キュービックスイッチSW,SW11を用いた操作を、第1および第2実施形態では指先でフリックする操作とし、第3実施形態ではコントローラー410の表面410aの向きを切り替える操作とし、第4実施形態では実物体である第2のコントローラー510の向きを切り替える操作とした。これらに対して、第5実施形態では、ウェアラブルデバイスを用いてキュービックスイッチSWを操作する構成とした。
図23は、第5実施形態のHMDが具備するウオッチ型デバイスを示す説明図である。ウオッチ型デバイス610は、フェース部612と、フェース部612を固定するケース614とを備える。フェース部612は、時計針を内蔵するとともに、表面にタッチセンサー612aを備える。ケース614は、4角形状であり、4つの側面のそれぞれにタッチセンサー614aを備える。ウオッチ型デバイス610は、側面に設けられたタッチセンサー614aによって、キュービックスイッチSWを回転する指示を受け付けることができ、表面に設けられたタッチセンサー612aによって「決定」の指示を受け付ける。また、ウオッチ型デバイス610は、無線通信部617を備える。
こうした構成のウオッチ型デバイス610を第1実施形態や第2実施形態に適用することで、これら実施形態と同様に、操作性を向上することができる。なお、ウェアラブルデバイスは、ウオッチ型のものに限る必要はなく、リストバンド、指輪、衣服などの他のタイプのものでもよい。さらに、第5実施形態の変形例として、ウェアラブルデバイスに換えて、PDA 携帯電話 スマートフォンとし、それらに備えられる4つの側面と表面にタッチセンサーを設ける等としてもよい。さらに、第5実施形態の他の変形例として、ウェアラブルデバイスの向きを特定し、キュービックスイッチSWをその特定したウェアラブルデバイスの向きに同期させて回転する構成としてもよい。
F.変形例:
なお、この発明は第1〜第5実施形態およびそれらの変形例に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば、次のような変形も可能である。
なお、この発明は第1〜第5実施形態およびそれらの変形例に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば、次のような変形も可能である。
・変形例1:
各実施形態および変形例では、各面に命令が割り当てられたキュービックスイッチSW,SW11は正六面体の3D画像であった。これに対して、図15に示すように、各面に命令が割り当てられたスイッチSW21は正四面体の3D画像としてもよいし、図16に示すように、各面に命令が割り当てられたスイッチSW31は正12面体の3D画像としてもよい。すなわち、多面体の3D画像であれば、種々の数の等しい大きさの面を備える3D画像とすることができる。また、面の大きさは、必ずしも等しい必要はなく、異なる大きさの面とすることもできる。さらに、3D画像に替えて、複数の2D画像によって多面体を表す構成としてもよい。
各実施形態および変形例では、各面に命令が割り当てられたキュービックスイッチSW,SW11は正六面体の3D画像であった。これに対して、図15に示すように、各面に命令が割り当てられたスイッチSW21は正四面体の3D画像としてもよいし、図16に示すように、各面に命令が割り当てられたスイッチSW31は正12面体の3D画像としてもよい。すなわち、多面体の3D画像であれば、種々の数の等しい大きさの面を備える3D画像とすることができる。また、面の大きさは、必ずしも等しい必要はなく、異なる大きさの面とすることもできる。さらに、3D画像に替えて、複数の2D画像によって多面体を表す構成としてもよい。
・変形例2:
各実施形態および変形例では、キュービックスイッチSW,SW11の使用者と向き合う面(前側の面)をタップすることで、前側の面に割り当てられた命令をHMD100に実行できる構成とした。これに対して、変形例として、キュービックスイッチSW,SW11の上側の面をタップすることで、上側の面に割り当てられた命令をHMD100に実行できる構成としてもよい。上側の面とは、図11の例示では「決定」と記された面である。要は、予め定められた向きの面であれば、いずれの向きの面に替えることができる。なお、予め定められた向きの面は、アプリケーションプログラムで予め定められた構成であるが、これに替えて、使用者によって設定された向きの面を予め定められた面とすることもできる。さらに、各実施形態および変形例では、「予め定められた向きの面」は一つであったが、これに替えて、複数の面(例えば、前側の面と最も上側の面)としてもよい。これら複数の面がタップ可能となっており、タップされた面に割り当てられたが命令が実行される。
各実施形態および変形例では、キュービックスイッチSW,SW11の使用者と向き合う面(前側の面)をタップすることで、前側の面に割り当てられた命令をHMD100に実行できる構成とした。これに対して、変形例として、キュービックスイッチSW,SW11の上側の面をタップすることで、上側の面に割り当てられた命令をHMD100に実行できる構成としてもよい。上側の面とは、図11の例示では「決定」と記された面である。要は、予め定められた向きの面であれば、いずれの向きの面に替えることができる。なお、予め定められた向きの面は、アプリケーションプログラムで予め定められた構成であるが、これに替えて、使用者によって設定された向きの面を予め定められた面とすることもできる。さらに、各実施形態および変形例では、「予め定められた向きの面」は一つであったが、これに替えて、複数の面(例えば、前側の面と最も上側の面)としてもよい。これら複数の面がタップ可能となっており、タップされた面に割り当てられたが命令が実行される。
・変形例3:
各実施形態および変形例では、キュービックスイッチSW,SW11の使用者と向き合う面(前側の面)をタップすることで、前側の面に割り当てられた命令をHMD100に実行できる構成とした。これに対して、変形例として、制御装置10に備えられた決定キー17が押下されたときに、前側の面に割り当てられた命令をHMD100に実行できる構成としてもよい。また、タップや、決定キー17の操作に限る必要はなく、使用者による他の操作に替えることもできる。
各実施形態および変形例では、キュービックスイッチSW,SW11の使用者と向き合う面(前側の面)をタップすることで、前側の面に割り当てられた命令をHMD100に実行できる構成とした。これに対して、変形例として、制御装置10に備えられた決定キー17が押下されたときに、前側の面に割り当てられた命令をHMD100に実行できる構成としてもよい。また、タップや、決定キー17の操作に限る必要はなく、使用者による他の操作に替えることもできる。
・変形例4:
各実施形態および変形例では、キュービックスイッチSW,SW11の使用者と向き合う面(前側の面)をタップすることで、前側の面に割り当てられた命令をHMD100に実行できる構成とした。これに対して、変形例として、キュービックスイッチSW,SW11の向きを切り替えたときに、タップすることなく直ちに、前側の面に割り当てられた命令をHMD100に実行できる構成としてもよい。この構成によれば、より操作性を向上することができる。なお、変形例2と同様に、前側の面に替えて、上側の面、等の他の予め定められた向きの面に割り当てられた命令を直ちに実行する構成としてもよい。
各実施形態および変形例では、キュービックスイッチSW,SW11の使用者と向き合う面(前側の面)をタップすることで、前側の面に割り当てられた命令をHMD100に実行できる構成とした。これに対して、変形例として、キュービックスイッチSW,SW11の向きを切り替えたときに、タップすることなく直ちに、前側の面に割り当てられた命令をHMD100に実行できる構成としてもよい。この構成によれば、より操作性を向上することができる。なお、変形例2と同様に、前側の面に替えて、上側の面、等の他の予め定められた向きの面に割り当てられた命令を直ちに実行する構成としてもよい。
・変形例5:
各実施形態および変形例では、キュービックスイッチSW,SW11を構成する正六面体の各面に一つの命令をそれぞれ割り当てる構成とした。これに対して、図17に示すように、キュービックスイッチSW41を、正六面体の所定の面に対して複数(例えば、4つ)の命令を割り当てる構成としてもよい。また、図示の例では、正六面体の1つの面だけに4つの命令を割り当てた構成としたが、これに換えて、全ての面に複数の命令を割り当てるようにしてもよい。
各実施形態および変形例では、キュービックスイッチSW,SW11を構成する正六面体の各面に一つの命令をそれぞれ割り当てる構成とした。これに対して、図17に示すように、キュービックスイッチSW41を、正六面体の所定の面に対して複数(例えば、4つ)の命令を割り当てる構成としてもよい。また、図示の例では、正六面体の1つの面だけに4つの命令を割り当てた構成としたが、これに換えて、全ての面に複数の命令を割り当てるようにしてもよい。
・変形例6:
各実施形態および変形例では、多面体画像をスイッチとしていたが、必ずしも多面体の画像である必要はなく、立体の画像であってもよい。「多面体」とは、複数(4つ以上)の平面に囲まれた立体であり、曲面をもつ立体は含まれず、また、すべての面の境界が直線である場合に限られる。これに対して、変形例として、多面体以外の立体をスイッチとしてもよい。すなわち、立体は、曲面を含み、各面もしくは各面に含まれる各領域に命令が割り当てられた構成であり、こうした立体を、UIのスイッチとしてもよい。多面体以外の立体としては、例えば、円柱、円錐、または球等が該当する。
各実施形態および変形例では、多面体画像をスイッチとしていたが、必ずしも多面体の画像である必要はなく、立体の画像であってもよい。「多面体」とは、複数(4つ以上)の平面に囲まれた立体であり、曲面をもつ立体は含まれず、また、すべての面の境界が直線である場合に限られる。これに対して、変形例として、多面体以外の立体をスイッチとしてもよい。すなわち、立体は、曲面を含み、各面もしくは各面に含まれる各領域に命令が割り当てられた構成であり、こうした立体を、UIのスイッチとしてもよい。多面体以外の立体としては、例えば、円柱、円錐、または球等が該当する。
・変形例7:
各実施形態および変形例では、シースルー表示エリアP1,P11にAR画像としての吹き出しを表示する構成としたが、これに換えて、シースルー表示エリアP1,P11にAR画像を表示しない構成としてもよい。また、各実施形態および変形例では、シースルー表示エリアP1,P11とインターフェースエリアP2,P12とを備える構成としたが、これに換えて、シースルー表示エリアP1,P11だけを備え、シースルー表示エリアP1,P11に一覧表示欄LTもしくは作業標準書LT11と、キュービックスイッチSW,SW11とが備えられる構成としてもよい。すなわち、右左の導光板26、28を通して視認しうる視界は、1つのエリアだけで構成してもよいし、複数のエリアに区分けしてもよく、いずれかのエリアに、AR画像と立体(多面体、もしくは多面体以外の立体)の画像とが表示されればよい。
各実施形態および変形例では、シースルー表示エリアP1,P11にAR画像としての吹き出しを表示する構成としたが、これに換えて、シースルー表示エリアP1,P11にAR画像を表示しない構成としてもよい。また、各実施形態および変形例では、シースルー表示エリアP1,P11とインターフェースエリアP2,P12とを備える構成としたが、これに換えて、シースルー表示エリアP1,P11だけを備え、シースルー表示エリアP1,P11に一覧表示欄LTもしくは作業標準書LT11と、キュービックスイッチSW,SW11とが備えられる構成としてもよい。すなわち、右左の導光板26、28を通して視認しうる視界は、1つのエリアだけで構成してもよいし、複数のエリアに区分けしてもよく、いずれかのエリアに、AR画像と立体(多面体、もしくは多面体以外の立体)の画像とが表示されればよい。
・変形例8:
変形例6のシースルー表示エリアにキュービックスイッチを設けた構成において、キュービックスイッチ越しに外景を見易い構成としてもよい。具体的には、外景の明るさに基づいて、キュービックスイッチの輝度および/または大きさを変更することで、キュービックスイッチは勿論のこと、キュービックスイッチ越しの外景も見易くしてもよい。また、キュービックスイッチは、全体は薄い色で、エッジだけを協調した画像としてもよい。
変形例6のシースルー表示エリアにキュービックスイッチを設けた構成において、キュービックスイッチ越しに外景を見易い構成としてもよい。具体的には、外景の明るさに基づいて、キュービックスイッチの輝度および/または大きさを変更することで、キュービックスイッチは勿論のこと、キュービックスイッチ越しの外景も見易くしてもよい。また、キュービックスイッチは、全体は薄い色で、エッジだけを協調した画像としてもよい。
・変形例9:
第1実施形態では、視界に含まれる複数の店舗の中から一の店舗を指定するに際し、キュービックスイッチSWを用いており、第2実施形態では、インターフェースエリアP12に表示される作業標準書LT11のページ送り/ページ戻し/拡大/縮小するに際し、キュービックスイッチSW11を用いていた。これに対して、複数の商品の中から一の商品を指定するに際し、キュービックスイッチを用いるようにしてもよいし、学習支援、スポーツ支援等の各種支援に用いられる書類のページ送り/ページ戻し/拡大/縮小するに際し、キュービックスイッチを用いるようにしてもよい。また、製造、メンテナンス等についての指示を支援画像としてもよい。要は、AR画像に関わる処理を実行させるために立体(多面体、もしくは多面体以外の立体)のスイッチを用いる構成であれば、AR画像はどのようなものであってもよい。
第1実施形態では、視界に含まれる複数の店舗の中から一の店舗を指定するに際し、キュービックスイッチSWを用いており、第2実施形態では、インターフェースエリアP12に表示される作業標準書LT11のページ送り/ページ戻し/拡大/縮小するに際し、キュービックスイッチSW11を用いていた。これに対して、複数の商品の中から一の商品を指定するに際し、キュービックスイッチを用いるようにしてもよいし、学習支援、スポーツ支援等の各種支援に用いられる書類のページ送り/ページ戻し/拡大/縮小するに際し、キュービックスイッチを用いるようにしてもよい。また、製造、メンテナンス等についての指示を支援画像としてもよい。要は、AR画像に関わる処理を実行させるために立体(多面体、もしくは多面体以外の立体)のスイッチを用いる構成であれば、AR画像はどのようなものであってもよい。
・変形例10:
各実施形態および各変形例において、キュービックスイッチSW,SW11に対する操作を受け付けたとき、すなわち、キュービックスイッチSW,SW11を回転させる操作とキュービックスイッチSW,SW11の前側の面SFをタップする操作とを受け付けたときに、所定の振動パターンでバイブレーター19により振動を発生させる構成としてもよい。この変形例によれば、キュービックスイッチに対する操作が受け付けられたことを、振動によって使用者に伝えることができる。このため、キュービックスイッチに対する操作が受け付けられたことを使用者が肌で感じることができ、操作性をより向上できる。
各実施形態および各変形例において、キュービックスイッチSW,SW11に対する操作を受け付けたとき、すなわち、キュービックスイッチSW,SW11を回転させる操作とキュービックスイッチSW,SW11の前側の面SFをタップする操作とを受け付けたときに、所定の振動パターンでバイブレーター19により振動を発生させる構成としてもよい。この変形例によれば、キュービックスイッチに対する操作が受け付けられたことを、振動によって使用者に伝えることができる。このため、キュービックスイッチに対する操作が受け付けられたことを使用者が肌で感じることができ、操作性をより向上できる。
・変形例11:
各実施形態および変形例において、ハードウェアによって実現されるとした構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されるとした構成の一部をハードウェアに置き換えるようにしてもよい。
各実施形態および変形例において、ハードウェアによって実現されるとした構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されるとした構成の一部をハードウェアに置き換えるようにしてもよい。
・変形例12:
上記実施形態では、HMDの構成について例示した。しかし、HMDの構成は、本発明の要旨を逸脱しない範囲において任意に定めることが可能であり、例えば、構成要素の追加・削除・変換等を行うことができる。
上記実施形態では、HMDの構成について例示した。しかし、HMDの構成は、本発明の要旨を逸脱しない範囲において任意に定めることが可能であり、例えば、構成要素の追加・削除・変換等を行うことができる。
上記実施形態では、右導光板26および左導光板28が外光を透過する、いわゆる透過型のHMD100について説明した。しかし、本発明は、例えば、外景を透過しないで画像を表示する、いわゆる非透過型のHMD100に適用することもできる。また、非透過型のHMD100には、カメラで外景を撮像して、その撮像画像を表示部に表示すれば良い。これらのHMD100では、上記実施形態で説明した実空間に重畳して画像を表示するAR(Augmented Reality)表示のほか、撮像した実空間の画像と仮想画像とを組み合わせて表示するMR(Mixed Reality)表示、あるいは、仮想空間を表示するVR(Virtual Reality)表示を行うこともできる。
上記実施形態では、制御装置10および画像表示部20の機能部について説明したが、これらは任意に変更することができる。例えば、次のような態様を採用してもよい。制御装置10に記憶機能部122および制御機能部150を搭載し、画像表示部20には表示機能のみを搭載する態様。制御装置10と画像表示部20との両方に、記憶機能部122および制御機能部150を搭載する態様。制御装置10と画像表示部20とを一体化した態様。この場合、例えば、画像表示部20に制御装置10の構成要素が全て含まれ、眼鏡型のウェアラブルコンピューターとして構成される。制御装置10の代わりにスマートフォンや携帯型ゲーム機器を使用する態様。制御装置10と画像表示部20とを無線通信により接続し、接続ケーブル40を配した態様。この場合、例えば、制御装置10や画像表示部20に対する給電についても無線で実施してよい。
・変形例13:
上記実施形態では、制御装置の構成について例示した。しかし、制御装置の構成は、本発明の要旨を逸脱しない範囲において任意に定めることが可能であり、例えば、構成要素の追加・削除・変換等を行うことができる。
上記実施形態では、制御装置の構成について例示した。しかし、制御装置の構成は、本発明の要旨を逸脱しない範囲において任意に定めることが可能であり、例えば、構成要素の追加・削除・変換等を行うことができる。
上記実施形態では、制御装置10が備える入力手段の一例について説明した。しかし、制御装置10は、例示した一部の入力手段を省略して構成されてもよく、上述しない他の入力手段を備えていてもよい。例えば、制御装置10は、操作スティック、キーボード、マウス等を備えていてもよい。例えば、制御装置10は、使用者の身体の動き等に対応付けられたコマンドを解釈する入力手段を備えていてもよい。使用者の身体の動き等とは、例えば、視線を検出する視線検出、手の動きを検出するジェスチャー検出、足の動きを検出するフットスイッチ等により取得できる。なお、視線検出は、例えば、画像表示部20の内側を撮像するカメラにより実現できる。ジェスチャー検出は、例えば、カメラ61により経時的に撮影された画像を画像解析することにより実現できる。
上記実施形態では、制御機能部150は、メインプロセッサー140が記憶機能部122内のコンピュータープログラムを実行することにより動作するとした。しかし、制御機能部150は種々の構成を採用することができる。例えば、コンピュータープログラムは、記憶機能部122に代えて、または記憶機能部122と共に、不揮発性記憶部121、EEPROM215、メモリー118、他の外部記憶装置(各種インターフェースに挿入されているUSBメモリー等の記憶装置、ネットワークを介して接続されているサーバー等の外部装置を含む)に格納されていてもよい。また、制御機能部150の各機能は、当該機能を実現するために設計されたASIC(Application Specific Integrated Circuit)を用いて実現されてもよい。
・変形例14:
上記実施形態では、画像表示部の構成について例示した。しかし、画像表示部の構成は、本発明の要旨を逸脱しない範囲において任意に定めることが可能であり、例えば、構成要素の追加・削除・変換等を行うことができる。
上記実施形態では、画像表示部の構成について例示した。しかし、画像表示部の構成は、本発明の要旨を逸脱しない範囲において任意に定めることが可能であり、例えば、構成要素の追加・削除・変換等を行うことができる。
図24は、変形例の画像表示部が備える光学系の構成を示す要部平面図である。変形例の画像表示部では、使用者の右眼REに対応したOLEDユニット221aと、左眼LEに対応したOLEDユニット241aと、が設けられている。右眼REに対応したOLEDユニット221aは、白色で発色するOLEDパネル223aと、OLEDパネル223aを駆動して発光させるOLED駆動回路225とを備えている。OLEDパネル223aと右光学系251との間には、変調素子227(変調装置)が配置されている。変調素子227は、例えば、透過型液晶パネルで構成され、OLEDパネル223aが発する光を変調して画像光Lを生成する。変調素子227を透過して変調された画像光Lは、右導光板26によって右眼REに導かれる。
左眼LEに対応したOLEDユニット241aは、白色で発光するOLEDパネル243aと、OLEDパネル243aを駆動して発光させるOLED駆動回路245とを備えている。OLEDパネル243aと左光学系252との間には、変調素子247(変調装置)が配置されている。変調素子247は、例えば、透過型液晶パネルで構成され、OLEDパネル243aが発する光を変調して画像光Lを生成する。変調素子247を透過して変調された画像光Lは、左導光板28によって左眼LEに導かれる。変調素子227、247は、図示しない液晶ドライバー回路に接続される。この液晶ドライバー回路(変調装置駆動部)は、例えば変調素子227、247の近傍に配置される基板に実装される。
変形例の画像表示部によれば、右表示ユニット22および左表示ユニット24は、それぞれ、光源部としてのOLEDパネル223a、243aと、光源部が発する光を変調して複数の色光を含む画像光を出力する変調素子227、247と、を備える映像素子として構成される。なお、OLEDパネル223a、243aが発する光を変調する変調装置は、透過型液晶パネルが採用される構成に限定されない。例えば、透過型液晶パネルに代えて反射型液晶パネルを用いてもよいし、デジタル・マイクロミラー・デバイスを用いてもよいし、レーザー網膜投影型のHMD100としてもよい。
上記実施形態では、眼鏡型の画像表示部20について説明したが、画像表示部20の態様は任意に変更することができる。例えば、画像表示部20を帽子のように装着する態様としてもよく、ヘルメット等の身体防護具に内蔵された態様としてもよい。また、画像表示部20を、自動車や飛行機等の車両、またはその他の交通手段に搭載されるHUD(Head Up Display)として構成してもよい。
上記実施形態では、画像光を使用者の眼に導く光学系として、右導光板26および左導光板28の一部に、ハーフミラー261、281により虚像が形成される構成を例示した。しかし、この構成は任意に変更することができる。たとえば、右導光板26および左導光板28の全面(または大部分)を占める領域に虚像が形成されてもよい。この場合、画像の表示位置を変化させる動作によって画像を縮小してもよい。また、本発明の光学素子は、ハーフミラー261、281を有する右導光板26および左導光板28に限定されず、画像光を使用者の眼に入射させる光学部品(例えば、回折格子、プリズム、ホログラフィー等)を用いる限り任意の態様を採用できる。
本発明は、上述の実施形態や実施例、変形例に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態、実施例、変形例中の技術的特徴は、上述の課題の一部または全部を解決するために、あるいは、上述の効果の一部または全部を達成するために、適宜、差し替えや組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
1…情報処理システム、10…制御装置、12…点灯部、14…タッチパッド、16…方向キー、17…決定キー、18…電源スイッチ、19…バイブレーター、20…画像表示部、21…右保持部、22…右表示ユニット、23…左保持部、24…左表示ユニット、26…右導光板、27…前部フレーム、28…左導光板、30…ヘッドセット、32…右イヤホン、34…左イヤホン、40…接続ケーブル、46…コネクター、61…カメラ、63…マイク、65…照度センサー、67…LEDインジケーター、100…頭部装着型表示装置(HMD)、110…操作部、111…6軸センサー、113…磁気センサー、115…GPSレシーバー、117…無線通信部、118…メモリー、120…コントローラー基板、121…不揮発性記憶部、122…記憶機能部、123…設定データ、124…コンテンツデータ、130…電源部、132…バッテリー、134…電源制御回路、140…メインプロセッサー、145…画像処理部、147…表示制御部、149…撮像制御部、150…制御機能部、151…入出力制御部、153…通信制御部、155…店舗入力処理部、155a…多面体画像表示部、155b…多面体向き切替部、155c…命令実行部、180…音声コーデック、182…音声インターフェース、184…外部コネクター、186…外部メモリーインターフェース、188…USBコネクター、192…センサーハブ、196…インターフェース、210…表示ユニット基板、211…インターフェース、213…受信部、215…EEPROM、217…温度センサー、221、221a…OLEDユニット、223、223a…OLEDパネル、225…OLED駆動回路、227…変調素子、230…表示ユニット基板、231…インターフェース、233…受信部、235…6軸センサー、237…磁気センサー、239…温度センサー、241、241a…OLEDユニット、243、243a…OLEDパネル、245…OLED駆動回路、247…変調素子、251…右光学系、252…左光学系、261…ハーフミラー、281…ハーフミラー、300…店舗サーバー、310…CPU、312…周辺店舗情報提供部、314…店舗案内部、320…記憶部、322…店舗データベース、324…地図データベース、330…ROM、340…RAM、360…バス、 B1…[店舗名]ボタン、B2…[詳細]ボタン、BS…通信キャリア、FG…指先、INT…インターネット、LT…一覧表示欄、OL…外光、P1…シースルー表示エリア、 P11…シースルー表示エリア、P12…インターフェースエリア、SW…キュービックスイッチ、SW11…キュービックスイッチ、SW21…キュービックスイッチ、SW31…キュービックスイッチ、SW41…キュービックスイッチ
Claims (13)
- 頭部装着型表示装置であって、
画像を表示する表示部と、
処理を実行する処理部と、
を備え、
前記処理部は、
前記処理を指示するための命令が多面体の各面に割り当てられた多面体画像を、前記表示部に表示させる多面体画像表示部と、
前記多面体画像に対する操作を受けて、前記多面体の表示される向きを切り替える多面体向き切替部と、
前記多面体画像において予め定められた向きの面に割り当てられた前記命令を実行する命令実行部と、
を備える頭部装着型表示装置。 - 請求項1に記載の頭部装着型表示装置であって、
前記表示部は、外景を視認可能な構成であり、
前記処理部は、視認される前記外景に関わりのある関連画像を前記表示部に表示させるとともに、前記関連画像に基づく処理を実行する、頭部装着型表示装置。 - 請求項2に記載の頭部装着型表示装置であって、
前記関連画像は、視認される前記外景に含まれる複数の店舗を識別するための識別情報を含み、
前記処理部によって実行される処理は、前記複数の店舗の中から一の店舗を指定する店舗入力処理である、頭部装着型表示装置。 - 請求項2に記載の頭部装着型表示装置であって、
前記関連画像は、視認される前記外景と関わりのある作業を支援するための支援画像を含み、
前記処理部によって実行される処理は、前記支援画像を順次切り替える処理である、頭部装着型表示装置。 - 請求項1から請求項4までのいずれか一項に記載の頭部装着型表示装置であって、
前記多面体画像は、正六面体の3D画像であり、
前記予め定められた向きの面は、使用者と向き合う面である、頭部装着型表示装置。 - 請求項1から請求項5までのいずれか一項に記載の頭部装着型表示装置であって、
前記多面体画像に対する操作は、指先でフリックする操作である、頭部装着型表示装置。 - 請求項1から請求項5までのいずれか一項に記載の頭部装着型表示装置であって、
外側を形成する複数の面の内の第1の面に、使用者の入力操作を受け付ける入力部が備えられた操作部を備え、
前記多面体向き切替部は、
前記操作部において前記第1の面の向きを切り替える操作を検出し、
前記検出した第1の面の向きを切り替える操作を、前記多面体画像に対する操作として受け付ける、
頭部装着型表示装置。 - 請求項1から請求項5までのいずれか一項に記載の頭部装着型表示装置であって、
前記多面体画像に対応した多面体形状を有する物体を備え、
前記多面体向き切替部は、
前記物体の向きを切り替える操作を検出し、
前記検出した物体の向きを切り替える操作を、前記多面体画像に対する操作として受け付ける、
頭部装着型表示装置。 - 請求項1から請求項8までのいずれか一項に記載の頭部装着型表示装置であって、
前記多面体画像に対する操作を受け付けたときに、振動する振動部を備える、頭部装着型表示装置。 - 頭部装着型表示装置であって、
画像を表示する表示部と、
処理を実行する処理部と、
を備え、
前記処理部は、
前記処理を指示するための命令が立体の有する各面に割り当てられた立体画像を、前記表示部に表示させる立体画像表示部と、
前記立体画像に対する操作を受けて、前記立体の表示される向きを切り替える立体向き切替部と、
前記立体画像において予め定められた向きの面に割り当てられた前記命令を実行する命令実行部と、
を備える頭部装着型表示装置。 - 画像を表示する表示部を備えた頭部装着型表示装置の制御方法であって、
処理を実行する工程を備え、
前記処理を実行する工程は、
前記処理を指示するための命令が多面体の各面に割り当てられた多面体画像を、前記表示部に表示させる工程と、
前記多面体画像に対する操作を受けて、前記多面体の表示される向きを切り替える工程と、
前記多面体画像において予め定められた向きの面に割り当てられた前記命令を実行する工程と、
を備える頭部装着型表示装置の制御方法。 - 画像を表示する表示部を備えた頭部装着型表示装置を制御するためのコンピュータープログラムであって、
処理を実行する機能をコンピューターに実現させ、
前記処理を実行する機能は、
前記処理を指示するための命令が多面体の各面に割り当てられた多面体画像を、前記表示部に表示させる機能と、
前記多面体画像に対する操作を受けて、前記多面体の表示される向きを切り替える機能と、
前記多面体画像において予め定められた向きの面に割り当てられた前記命令を実行する機能と、
を備えるコンピュータープログラム。 - 画像を表示する表示部を備えた頭部装着型表示装置を制御するためのコンピュータープログラムであって、
処理を実行する機能をコンピューターに実現させ、
前記処理を実行する機能は、
前記処理を指示するための命令が立体の各面に割り当てられた立体画像を、前記表示部に表示させる機能と、
前記立体画像に対する操作を受けて、前記立体の表示される向きを切り替える機能と、
前記立体画像において予め定められた向きの面に割り当てられた前記命令を実行する機能と、
を備えるコンピュータープログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016205591A JP2018067160A (ja) | 2016-10-20 | 2016-10-20 | 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム |
US15/466,089 US20170289533A1 (en) | 2016-03-30 | 2017-03-22 | Head mounted display, control method thereof, and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016205591A JP2018067160A (ja) | 2016-10-20 | 2016-10-20 | 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018067160A true JP2018067160A (ja) | 2018-04-26 |
Family
ID=62087077
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016205591A Pending JP2018067160A (ja) | 2016-03-30 | 2016-10-20 | 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018067160A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020095784A1 (ja) * | 2018-11-06 | 2020-05-14 | 日本電気株式会社 | 表示制御装置、表示制御方法、及びプログラムが格納された非一時的なコンピュータ可読媒体 |
-
2016
- 2016-10-20 JP JP2016205591A patent/JP2018067160A/ja active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020095784A1 (ja) * | 2018-11-06 | 2020-05-14 | 日本電気株式会社 | 表示制御装置、表示制御方法、及びプログラムが格納された非一時的なコンピュータ可読媒体 |
JPWO2020095784A1 (ja) * | 2018-11-06 | 2021-10-07 | 日本電気株式会社 | 表示制御装置、プレゼンテーションシステム、表示制御方法、及びプログラム |
JP7226836B2 (ja) | 2018-11-06 | 2023-02-21 | 日本電気株式会社 | 表示制御装置、プレゼンテーションシステム、表示制御方法、及びプログラム |
US11906741B2 (en) | 2018-11-06 | 2024-02-20 | Nec Corporation | Display control device, display control method, and non-transitory computer-readable medium storing program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11310483B2 (en) | Display apparatus and method for controlling display apparatus | |
US20170289533A1 (en) | Head mounted display, control method thereof, and computer program | |
US10635182B2 (en) | Head mounted display device and control method for head mounted display device | |
JP7087481B2 (ja) | 頭部装着型表示装置、表示制御方法、およびコンピュータープログラム | |
US10976836B2 (en) | Head-mounted display apparatus and method of controlling head-mounted display apparatus | |
US20180143433A1 (en) | Head mounted display, control method thereof, and computer program | |
CN108376029B (zh) | 显示系统 | |
JP2018151851A (ja) | 透過型表示装置、表示制御方法、およびコンピュータープログラム | |
JP2018142168A (ja) | 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 | |
JP2018142857A (ja) | 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 | |
JP2018160735A (ja) | 透過型表示装置、表示制御方法、およびコンピュータープログラム | |
JP2018097160A (ja) | 表示システム、表示装置、及び、表示装置の制御方法 | |
JP2018137505A (ja) | 表示装置およびその制御方法 | |
JP2019164420A (ja) | 透過型頭部装着型表示装置および透過型頭部装着型表示装置の制御方法、透過型頭部装着型表示装置の制御のためのコンピュータープログラム | |
JP2019082891A (ja) | 頭部装着型表示装置、表示制御方法、およびコンピュータープログラム | |
JP2018124721A (ja) | 頭部装着型表示装置、及び頭部装着型表示装置の制御方法 | |
JP6776578B2 (ja) | 入力装置、入力方法、コンピュータープログラム | |
JP2018084886A (ja) | 頭部装着型表示装置、頭部装着型表示装置の制御方法、コンピュータープログラム | |
US10884498B2 (en) | Display device and method for controlling display device | |
JP6996115B2 (ja) | 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 | |
JP2017182413A (ja) | 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム | |
JP6932917B2 (ja) | 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 | |
JP2019053644A (ja) | 頭部装着型表示装置、及び頭部装着型表示装置の制御方法 | |
JP6784056B2 (ja) | 頭部装着型表示装置、表示システム、頭部装着型表示装置の制御方法、およびコンピュータープログラム | |
JP2018067160A (ja) | 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム |