JP2017182413A - Head-mounted type display device, control method for the same, and computer program - Google Patents
Head-mounted type display device, control method for the same, and computer program Download PDFInfo
- Publication number
- JP2017182413A JP2017182413A JP2016068133A JP2016068133A JP2017182413A JP 2017182413 A JP2017182413 A JP 2017182413A JP 2016068133 A JP2016068133 A JP 2016068133A JP 2016068133 A JP2016068133 A JP 2016068133A JP 2017182413 A JP2017182413 A JP 2017182413A
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- head
- display unit
- display device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、頭部装着型表示装置と、頭部装着型表示装置の制御方法と、コンピュータープログラムと、に関する。 The present invention relates to a head-mounted display device, a method for controlling the head-mounted display device, and a computer program.
近年、使用者の眼前で画像を表示することのできる頭部装着型表示装置が普及しつつある。従来の頭部装着型表示装置は、頭部に装着するメガネ部分とは別に、タッチパッドを有するコントローラーを備え、このコントローラーを用いて、使用者からの命令(指示)を取得している。具体的には、メガネ部分にボタンとカーソルを表示し、タッチパッドによって、カーソルをボタン上に移動し、タップを行う操作を受け付けることによって、ボタンに設定された命令を入力することができる。 In recent years, head-mounted display devices that can display images in front of the user's eyes are becoming popular. A conventional head-mounted display device includes a controller having a touch pad separately from the eyeglass portion to be mounted on the head, and uses this controller to obtain a command (instruction) from a user. Specifically, a button and a cursor are displayed on the glasses portion, the cursor is moved onto the button with a touch pad, and an operation for performing a tap is accepted, whereby a command set for the button can be input.
カーソルをボタン上に移動し、タップを行う操作は煩雑なものである。そこで、特許文献1には、シースルーの表示エリアに差し出された手によって、ボタンをタップできる構成が記載されている。
The operation of moving the cursor on the button and tapping is complicated. Therefore,
しかし、特許文献1に記載された頭部装着型表示装置では、たとえ手によってボタンをタップできる構成としても、ボタンの上に精度良く指先を当てる必要があり、また、多くのボタンの中から所望のボタンを選び出す必要があることから、操作性を十分に高めることができなかった。そのほか、従来の頭部装着型表示装置においては、検索精度の向上、装置構成のコンパクト化、低コスト化、省資源化、製造の容易化等が望まれていた。
However, in the head-mounted display device described in
本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態として実現することが可能である。 SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following forms.
(1)本発明の一形態によれば、表示部を備えた頭部装着型表示装置が提供される。この頭部装着型表示装置は、前記表示部に画像を表示させる表示制御部と、前記表示された画像に関わる処理を実行する処理部と、を備える。前記処理部は、多多面体の各面に命令が割り当てられた多面体画像を、前記表示部に表示させる多面体画像表示部と、前記多面体画像に対する操作を受けて、前記多面体の表示される向きを切り替える多面体向き切替部と、前記多面体画像において所定の向きの面に割り当てられた前記命令を実行する命令実行部と、を備える。この形態の頭部装着型表示装置によれば、多面体画像に対する操作を受けることで、多面体向き切替部によって多面体の向きが切り替えられ、多面体画像において所定の向きの面に割り当てられた命令が、命令実行部によって実行される。このため、頭部装着型表示装置の使用者は、多面体画像に対する操作を行うだけで、画像に関わる処理を実行することができる。したがって、この形態の頭部装着型表示装置は、使用者の操作性を向上することができる。 (1) According to one aspect of the present invention, a head-mounted display device including a display unit is provided. The head-mounted display device includes a display control unit that displays an image on the display unit, and a processing unit that executes a process related to the displayed image. The processing unit switches a display direction of the polyhedron in response to an operation on the polyhedron image and a polyhedron image display unit that displays on the display unit a polyhedron image in which an instruction is assigned to each surface of the polyhedron. A polyhedron orientation switching unit; and a command execution unit that executes the command assigned to a plane in a predetermined direction in the polyhedron image. According to the head-mounted display device of this form, the operation of the polyhedron image is changed so that the orientation of the polyhedron is switched by the polyhedron direction switching unit, and the command assigned to the surface of the predetermined orientation in the polyhedron image is It is executed by the execution unit. For this reason, the user of the head-mounted display device can execute processing related to the image only by performing an operation on the polyhedral image. Therefore, the head-mounted display device of this form can improve the operability for the user.
(2)前記形態の頭部装着型表示装置において、前記表示部は、外景を視認可能な構成であり、前記処理部は、視認される前記外景に関わりのある関連画像を前記画像として、前記表示部に表示させるようにしてもよい。この形態の頭部装着型表示装置によれば、使用者は、表示部によって視認可能な外景に関わり処理を実行させることができる。 (2) In the head-mounted display device of the above aspect, the display unit is configured to visually recognize an outside scene, and the processing unit uses the related image related to the visually recognized outside scene as the image. You may make it display on a display part. According to this form of the head-mounted display device, the user can execute processing related to the outside scene that can be visually recognized by the display unit.
(3)前記形態の頭部装着型表示装置において、前記関連画像は、視認される前記外景に含まれる複数の店舗を識別するための識別情報を含み、前記処理部によって実行される処理は、前記複数の店舗の中から一の店舗を指定する店舗入力処理であってもよい。この形態の頭部装着型表示装置によれば、視認される外景に含まれる複数の店舗の中から一の店舗を指定する処理を、操作性よく行うことができる。 (3) In the head-mounted display device of the above aspect, the related image includes identification information for identifying a plurality of stores included in the visually recognized outside scene, and the processing executed by the processing unit includes: It may be a store input process for designating one store from the plurality of stores. According to the head-mounted display device of this aspect, the process of designating one store from among a plurality of stores included in the visually recognized outside scene can be performed with good operability.
(4)前記形態の頭部装着型表示装置において、前記関連画像は、視認される前記外景とかかわりのある作業を支援するための支援画像を含み、前記処理部によって実行される処理は、前記支援画像を順次切り替える処理であってもよい。この形態の頭部装着型表示装置によれば、視認される外景とかかわりのある作業についての支援画像を順次切り替える処理を、操作性よく行うことができる。 (4) In the head-mounted display device of the above aspect, the related image includes a support image for supporting a work related to the visually recognized outside scene, and the processing executed by the processing unit includes It may be a process of sequentially switching support images. According to the head-mounted display device of this form, it is possible to perform the process of sequentially switching the support images for the work related to the visually recognized outside scene with good operability.
(5)前記形態の頭部装着型表示装置において、前記多面体画像は、正六面体の3D画像であり、前記所定の向きの面は、使用者と向き合う面であってもよい。この形態の頭部装着型表示装置によれば、使用者は、正六面体を回転させるといった簡単かつ直感的な操作によって処理を行うことができる。したがって、操作性をより向上することができる。 (5) In the head-mounted display device of the above aspect, the polyhedron image may be a regular hexahedron 3D image, and the surface in the predetermined direction may be a surface facing a user. According to the head-mounted display device of this form, the user can perform processing by a simple and intuitive operation such as rotating a regular hexahedron. Therefore, the operability can be further improved.
(6)前記形態の頭部装着型表示装置において、前記多面体画像に対する操作は、指先でフリックする操作であってもよい。この形態の頭部装着型表示装置によれば、使用者はフリックといった簡単な操作を行うだけで処理を行うことができる。したがって、操作性をより向上することができる。 (6) In the head-mounted display device of the above aspect, the operation on the polyhedral image may be an operation of flicking with a fingertip. According to the head-mounted display device of this form, the user can perform processing only by performing a simple operation such as flicking. Therefore, the operability can be further improved.
(7)本発明の他の形態によれば、表示部を備えた頭部装着型表示装置が提供される。この頭部装着型表示装置は、前記表示部に画像を表示させる表示制御部と、前記表示された画像に関わる処理を実行する処理部と、を備える。前記処理部は、立体の有する各面に命令が割り当てられた立体画像を、前記表示部に表示させる立体画像表示部と、前記立体画像に対する操作を受けて、前記立体の表示される向きを切り替える立体向き切替部と、前記立体画像において所定の向きの面に割り当てられた前記命令を実行する命令実行部と、を備える。この形態の頭部装着型表示装置によれば、立体画像に対する操作を受けることで、立体向き切替部によって立体の向きが切り替えられ、立体画像において所定の向きの面に割り当てられた命令が、命令実行部によって実行される。このため、頭部装着型表示装置の使用者は、立体画像に対する操作を行うだけで、画像に関わる処理を実行することができる。したがって、この形態の頭部装着型表示装置は、使用者の操作性を向上することができる。 (7) According to another aspect of the present invention, a head-mounted display device including a display unit is provided. The head-mounted display device includes a display control unit that displays an image on the display unit, and a processing unit that executes a process related to the displayed image. The processing unit switches a display direction of the three-dimensional image in response to an operation on the three-dimensional image display unit and a three-dimensional image display unit that displays a three-dimensional image in which a command is assigned to each surface of the three-dimensional image. A stereoscopic direction switching unit; and a command execution unit that executes the command assigned to a plane in a predetermined direction in the stereoscopic image. According to the head-mounted display device of this aspect, by receiving an operation on the stereoscopic image, the stereoscopic orientation is switched by the stereoscopic orientation switching unit, and the command assigned to the surface of the predetermined orientation in the stereoscopic image is the command It is executed by the execution unit. For this reason, the user of the head-mounted display device can execute processing relating to the image only by performing an operation on the stereoscopic image. Therefore, the head-mounted display device of this form can improve the operability for the user.
本発明は、頭部装着型表示装置以外の種々の形態で実現することも可能である。例えば、頭部装着型表示装置の制御方法、頭部装着型表示装置の備える各構成要素の機能を実現するためのコンピュータープログラム、そのコンピュータープログラムを記録した記録媒体等で実現できる。 The present invention can also be realized in various forms other than the head-mounted display device. For example, the present invention can be realized by a method for controlling the head-mounted display device, a computer program for realizing the function of each component included in the head-mounted display device, a recording medium on which the computer program is recorded, and the like.
A.第1実施形態:
A−1.情報処理システムの全体構成:
図1は、本発明の第1実施形態における情報処理システムの概略構成を示す説明図である。情報処理システム1は、頭部装着型表示装置100と、店舗サーバー300と、を備えている。頭部装着型表示装置100は、通信キャリアBSを介して無線通信でインターネットINTに接続されている。店舗サーバー300は、有線通信でインターネットINTに接続されている。この結果、頭部装着型表示装置100と店舗サーバー300とは、互いにインターネットINTによって接続される。通信キャリアBSは、送受信アンテナや、無線基地局、交換局を含む。
A. First embodiment:
A-1. Overall configuration of the information processing system:
FIG. 1 is an explanatory diagram showing a schematic configuration of an information processing system according to the first embodiment of the present invention. The
頭部装着型表示装置100は、店舗サーバー300に蓄積された後述する店舗データベースを検索する。以下、頭部装着型表示装置100および店舗サーバー300について詳細に説明する。
The head-mounted
A−2.頭部装着型表示装置の構成:
頭部装着型表示装置100は、使用者の頭部に装着する表示装置であり、ヘッドマウントディスプレイ(Head Mounted Display、HMD)とも呼ばれる。HMD100は、グラスを通過して視認される外界の中に画像が浮かび上がるシースルー型(透過型)の頭部装着型表示装置である。
A-2. Configuration of head mounted display device:
The head-mounted
HMD100は、使用者に画像を視認させる画像表示部20と、画像表示部20を制御する制御装置(コントローラー)10とを備えている。
The
画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状を有する。画像表示部20は、右保持部21と、左保持部23と、前部フレーム27とを有する本体に、右表示ユニット22と、左表示ユニット24と、右導光板26と、左導光板28とを備える。
The
右保持部21および左保持部23は、それぞれ、前部フレーム27の両端部から後方に延び、眼鏡のテンプル(つる)のように、使用者の頭部に画像表示部20を保持する。ここで、前部フレーム27の両端部のうち、画像表示部20の装着状態において使用者の右側に位置する端部を端部ERとし、使用者の左側に位置する端部を端部ELとする。右保持部21は、前部フレーム27の端部ERから、画像表示部20の装着状態における使用者の右側頭部に対応する位置まで延伸して設けられている。左保持部23は、前部フレーム27の端部ELから、画像表示部20の装着状態における使用者の左側頭部に対応する位置まで延伸して設けられている。
Each of the
右導光板26および左導光板28は、前部フレーム27に設けられている。右導光板26は、画像表示部20の装着状態における使用者の右眼の眼前に位置し、右眼に画像を視認させる。左導光板28は、画像表示部20の装着状態における使用者の左眼の眼前に位置し、左眼に画像を視認させる。
The right
前部フレーム27は、右導光板26の一端と左導光板28の一端とを互いに連結した形状を有する。この連結位置は、画像表示部20の装着状態における使用者の眉間の位置に対応する。前部フレーム27には、右導光板26と左導光板28との連結位置において、画像表示部20の装着状態において使用者の鼻に当接する鼻当て部が設けられていてもよい。この場合、鼻当て部と右保持部21と左保持部23とによって、画像表示部20を使用者の頭部に保持できる。また、右保持部21および左保持部23に対して、画像表示部20の装着状態において使用者の後頭部に接するベルトを連結してもよい。この場合、ベルトによって画像表示部20を使用者の頭部に強固に保持できる。
The
右表示ユニット22は、右導光板26による画像の表示を行う。右表示ユニット22は、右保持部21に設けられ、画像表示部20の装着状態における使用者の右側頭部の近傍に位置する。左表示ユニット24は、左導光板28による画像の表示を行う。左表示ユニット24は、左保持部23に設けられ、画像表示部20の装着状態における使用者の左側頭部の近傍に位置する。なお、右表示ユニット22および左表示ユニット24を総称して「表示駆動部」とも呼ぶ。
The
本実施形態の右導光板26および左導光板28は、光透過性の樹脂等によって形成される光学部(例えばプリズム)であり、右表示ユニット22および左表示ユニット24が出力する画像光を使用者の眼に導く。なお、右導光板26および左導光板28の表面には、調光板が設けられてもよい。調光板は、光の波長域により透過率が異なる薄板状の光学素子であり、いわゆる波長フィルターとして機能する。調光板は、例えば、前部フレーム27の表面(使用者の眼と対向する面とは反対側の面)を覆うように配置される。調光板の光学特性を適宜選択することにより、可視光、赤外光、および紫外光等の任意の波長域の光の透過率を調整することができ、外部から右導光板26および左導光板28に入射し、右導光板26および左導光板28を透過する外光の光量を調整できる。
The right
画像表示部20は、右表示ユニット22および左表示ユニット24がそれぞれ生成する画像光を、右導光板26および左導光板28に導き、この画像光によって画像(拡張現実感(AR)画像)を使用者に視認させる(これを「画像を表示する」とも呼ぶ)。使用者の前方から右導光板26および左導光板28を透過して外光が使用者の眼に入射する場合、使用者の眼には、画像を構成する画像光と、外光とが入射する。このため、使用者における画像の視認性は、外光の強さに影響を受ける。
The
このため、例えば前部フレーム27に調光板を装着し、調光板の光学特性を適宜選択あるいは調整することによって、画像の視認のしやすさを調整することができる。典型的な例では、HMD100を装着した使用者が少なくとも外の景色を視認できる程度の光透過性を有する調光板を選択することができる。調光板を用いると、右導光板26および左導光板28を保護し、右導光板26および左導光板28の損傷や汚れの付着等を抑制する効果が期待できる。調光板は、前部フレーム27、あるいは、右導光板26および左導光板28のそれぞれに対して着脱可能としてもよい。また、複数種類の調光板を交換して着脱可能としてもよく、調光板を省略してもよい。
For this reason, for example, by attaching a light control plate to the
カメラ61は、画像表示部20の前部フレーム27に配置されている。カメラ61は、前部フレーム27の前面において、右導光板26および左導光板28を透過する外光を遮らない位置に設けられる。図1の例では、カメラ61は、前部フレーム27の端部ER側に配置されている。カメラ61は、前部フレーム27の端部EL側に配置されていてもよく、右導光板26と左導光板28との連結部に配置されていてもよい。
The
カメラ61は、CCDやCMOS等の撮像素子、および、撮像レンズ等を備えるデジタルカメラである。本実施形態のカメラ61は単眼カメラであるが、ステレオカメラを採用してもよい。カメラ61は、HMD100の表側方向、換言すれば、画像表示部20の装着状態において使用者が視認する視界方向の、少なくとも一部の外景(実空間)を撮像する。換言すれば、カメラ61は、使用者の視界と重なる範囲または方向を撮像し、使用者が視認する方向を撮像する。カメラ61の画角の広さは適宜設定できる。本実施形態では、カメラ61の画角の広さは、使用者が右導光板26および左導光板28を透過して視認可能な使用者の視界の全体を撮像するように設定される。カメラ61は、制御機能部150(図5)の制御に従って撮像を実行し、得られた撮像データを制御機能部150へ出力する。
The
HMD100は、予め設定された測定方向に位置する測定対象物までの距離を検出する測距センサーを備えていてもよい。測距センサーは、例えば、前部フレーム27の右導光板26と左導光板28との連結部分に配置することができる。測距センサーの測定方向は、MD100の表側方向(カメラ61の撮像方向と重複する方向)とすることができる。測距センサーは、例えば、LEDやレーザーダイオード等の発光部と、光源が発する光が測定対象物に反射する反射光を受光する受光部と、により構成できる。この場合、三角測距処理や、時間差に基づく測距処理により距離を求める。測距センサーは、例えば、超音波を発する発信部と、測定対象物で反射する超音波を受信する受信部と、により構成してもよい。この場合、時間差に基づく測距処理により距離を求める。測距センサーはカメラ61と同様に、制御機能部150により制御され、検出結果を制御機能部150へ出力する。
The
図2は、画像表示部20が備える光学系の構成を示す要部平面図である。説明の便宜上、図2には使用者の右眼REおよび左眼LEを図示する。図2に示すように、右表示ユニット22と左表示ユニット24とは、左右対称に構成されている。
FIG. 2 is a principal plan view showing the configuration of the optical system provided in the
右眼REに画像(AR画像)を視認させる構成として、右表示ユニット22は、OLED(Organic Light Emitting Diode)ユニット221と、右光学系251とを備える。OLEDユニット221は、画像光を発する。右光学系251は、レンズ群等を備え、OLEDユニット221が発する画像光Lを右導光板26へと導く。
As a configuration for allowing the right eye RE to visually recognize an image (AR image), the
OLEDユニット221は、OLEDパネル223と、OLEDパネル223を駆動するOLED駆動回路225とを有する。OLEDパネル223は、有機エレクトロルミネッセンスにより発光し、R(赤)、G(緑)、B(青)の色光をそれぞれ発する発光素子により構成される自発光型の表示パネルである。OLEDパネル223は、R、G、Bの素子を1個ずつ含む単位を1画素とした複数の画素が、マトリクス状に配置されている。
The
OLED駆動回路225は、制御機能部150(図5)の制御に従って、OLEDパネル223が備える発光素子の選択および通電を実行し、発光素子を発光させる。OLED駆動回路225は、OLEDパネル223の裏面、すなわち発光面の裏側に、ボンディング等により固定されている。OLED駆動回路225は、例えばOLEDパネル223を駆動する半導体デバイスで構成され、OLEDパネル223の裏面に固定される基板に実装されてもよい。この基板には、後述する温度センサー217(図5)が実装される。なお、OLEDパネル223は、白色に発光する発光素子をマトリクス状に配置し、R、G、Bの各色に対応するカラーフィルターを重ねて配置する構成を採用してもよい。また、R、G、Bの色光をそれぞれ放射する発光素子に加えて、W(白)の光を放射する発光素子を備えるWRGB構成のOLEDパネル223が採用されてもよい。
The
右光学系251は、OLEDパネル223から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、右導光板26に入射する。右導光板26の内部において光を導く光路には、画像光Lを反射する複数の反射面が形成される。画像光Lは、右導光板26の内部で複数回の反射を経て右眼RE側に導かれる。右導光板26には、右眼REの眼前に位置するハーフミラー261(反射面)が形成される。画像光Lは、ハーフミラー261で反射後、右導光板26から右眼REへと射出され、この画像光Lが右眼REの網膜で像を結ぶことで、使用者に画像を視認させる。
The right
左眼LEに画像(AR画像)を視認させる構成として、左表示ユニット24は、OLEDユニット241と、左光学系252とを備える。OLEDユニット241は画像光を発する。左光学系252は、レンズ群等を備え、OLEDユニット241が発する画像光Lを左導光板28へと導く。OLEDユニット241は、OLEDパネル243と、OLEDパネル243を駆動するOLED駆動回路245を有する。各部の詳細は、OLEDユニット221、OLEDパネル223、OLED駆動回路225と同じである。OLEDパネル243の裏面に固定される基板には、温度センサー239が実装される。また、左光学系252の詳細は右光学系251と同じである。
As a configuration for causing the left eye LE to visually recognize an image (AR image), the
以上説明した構成によれば、HMD100は、シースルー型の表示装置として機能することができる。すなわち使用者の右眼REには、ハーフミラー261で反射した画像光Lと、右導光板26を透過した外光OLとが入射する。使用者の左眼LEには、ハーフミラー281で反射した画像光Lと、左導光板28を透過した外光OLとが入射する。このように、HMD100は、内部で処理した画像の画像光Lと外光OLとを重ねて使用者の眼に入射させる。この結果、使用者にとっては、右導光板26および左導光板28を透かして外景(実世界)が見えると共に、この外景に重なるようにして画像光Lによる画像(AR画像)が視認される。
According to the configuration described above, the
なお、ハーフミラー261およびハーフミラー281は、右表示ユニット22および左表示ユニット24がそれぞれ出力する画像光を反射して画像を取り出す「画像取り出し部」として機能する。また、右光学系251および右導光板26を総称して「右導光部」とも呼び、左光学系252および左導光板28を総称して「左導光部」とも呼ぶ。右導光部および左導光部の構成は、上述した例に限定されず、画像光を用いて使用者の眼前に画像を形成する限りにおいて任意の方式を用いることができる。例えば、右導光部および左導光部には、回折格子を用いてもよいし、半透過反射膜を用いてもよい。
The
図1において、制御装置10と画像表示部20とは、接続ケーブル40によって接続される。接続ケーブル40は、制御装置10の下部に設けられるコネクターに着脱可能に接続され、左保持部23の先端から、画像表示部20内部の各種回路に接続する。接続ケーブル40には、デジタルデータを伝送するメタルケーブルまたは光ファイバーケーブルを有する。接続ケーブル40にはさらに、アナログデータを伝送するメタルケーブルを含んでもよい。接続ケーブル40の途中には、コネクター46が設けられている。
In FIG. 1, the
コネクター46は、ステレオミニプラグを接続するジャックであり、コネクター46と制御装置10とは、例えばアナログ音声信号を伝送するラインで接続される。図1に示す本実施形態の例では、コネクター46には、ステレオヘッドホンを構成する右イヤホン32および左イヤホン34と、マイク63を有するヘッドセット30とが接続されている。
The
マイク63は、例えば図1に示すように、マイク63の集音部が使用者の視線方向を向くように配置されている。マイク63は、音声を集音し、音声信号を音声インターフェース182(図5)に出力する。マイク63は、モノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであっても無指向性のマイクであってもよい。
For example, as shown in FIG. 1, the
制御装置10は、HMD100を制御するための装置である。制御装置10は、点灯部12と、タッチパッド14と、方向キー16と、決定キー17と、電源スイッチ18とを含んでいる。点灯部12は、HMD100の動作状態(例えば、電源のON/OFF等)を、その発光態様によって通知する。点灯部12としては、例えば、LED(Light Emitting Diode)を用いることができる。
The
タッチパッド14は、タッチパッド14の操作面上での接触操作を検出して、検出内容に応じた信号を出力する。タッチパッド14としては、静電式や圧力検出式、光学式といった種々のタッチパッドを採用することができる。方向キー16は、上下左右方向に対応するキーへの押下操作を検出して、検出内容に応じた信号を出力する。決定キー17は、押下操作を検出して、制御装置10において操作された内容を決定するための信号を出力する。電源スイッチ18は、スイッチのスライド操作を検出することで、HMD100の電源の状態を切り替える。
The
図3は、使用者から見た画像表示部20の要部構成を示す図である。図3では、接続ケーブル40、右イヤホン32、左イヤホン34の図示を省略している。図3の状態では、右導光板26および左導光板28の裏側が視認できると共に、右眼REに画像光を照射するためのハーフミラー261、および、左眼LEに画像光を照射するためのハーフミラー281が略四角形の領域として視認できる。使用者は、これらハーフミラー261、281を含む左右の導光板26、28の全体を透過して外景を視認すると共に、ハーフミラー261、281の位置に矩形の表示画像を視認する。
FIG. 3 is a diagram illustrating a main configuration of the
図4は、カメラ61の画角を説明するための図である。図4では、カメラ61と、使用者の右眼REおよび左眼LEとを平面視で模式的に示すと共に、カメラ61の画角(撮像範囲)をθで示す。なお、カメラ61の画角θは図示のように水平方向に拡がっているほか、一般的なデジタルカメラと同様に鉛直方向にも拡がっている。
FIG. 4 is a diagram for explaining the angle of view of the
上述のようにカメラ61は、画像表示部20において右側の端部に配置され、使用者の視線の方向(すなわち使用者の前方)を撮像する。このためカメラ61の光軸は、右眼REおよび左眼LEの視線方向を含む方向とされる。使用者がHMD100を装着した状態で視認できる外景は、無限遠とは限らない。例えば、使用者が両眼で対象物OBを注視すると、使用者の視線は、図中の符号RD、LDに示すように、対象物OBに向けられる。この場合、使用者から対象物OBまでの距離は、30cm〜10m程度であることが多く、1m〜4mであることがより多い。そこで、HMD100について、通常使用時における使用者から対象物OBまでの距離の上限および下限の目安を定めてもよい。この目安は、予め求められHMD100にプリセットされていてもよいし、使用者が設定してもよい。カメラ61の光軸および画角は、このような通常使用時における対象物OBまでの距離が、設定された上限および下限の目安に相当する場合において対象物OBが画角に含まれるように設定されることが好ましい。
As described above, the
なお、一般的に、人間の視野角は水平方向におよそ200度、垂直方向におよそ125度とされる。そのうち情報受容能力に優れる有効視野は水平方向に30度、垂直方向に20度程度である。人間が注視する注視点が迅速に安定して見える安定注視野は、水平方向に60〜90度、垂直方向に45〜70度程度とされている。この場合、注視点が対象物OB(図4)であるとき、視線RD、LDを中心として水平方向に30度、垂直方向に20度程度が有効視野である。また、水平方向に60〜90度、垂直方向に45〜70度程度が安定注視野である。使用者が画像表示部20を透過して右導光板26および左導光板28を透過して視認する実際の視野を、実視野(FOV:Field Of View)と呼ぶ。実視野は、視野角および安定注視野より狭いが、有効視野より広い。
In general, a human viewing angle is approximately 200 degrees in the horizontal direction and approximately 125 degrees in the vertical direction. Among them, the effective visual field with excellent information receiving ability is about 30 degrees in the horizontal direction and about 20 degrees in the vertical direction. A stable gaze field in which a gaze point that a person gazes at appears quickly and stably is set to 60 to 90 degrees in the horizontal direction and about 45 to 70 degrees in the vertical direction. In this case, when the gazing point is the object OB (FIG. 4), the effective visual field is about 30 degrees in the horizontal direction and about 20 degrees in the vertical direction around the lines of sight RD and LD. Further, the stable focus is about 60 to 90 degrees in the horizontal direction and about 45 to 70 degrees in the vertical direction. The actual field of view that the user permeates through the
本実施形態のカメラ61の画角θは、使用者の視野より広い範囲を撮像可能に設定される。カメラ61の画角θは、少なくとも使用者の有効視野より広い範囲を撮像可能に設定されることが好ましく、実視野よりも広い範囲を撮像可能に設定されることがより好ましい。カメラ61の画角θは、使用者の安定注視野より広い範囲を撮像可能に設定されることがさらに好ましく、使用者の両眼の視野角よりも広い範囲を撮像可能に設定されることが最も好ましい。このため、カメラ61には、撮像レンズとしていわゆる広角レンズを備え、広い画角を撮像できる構成としてもよい。広角レンズには、超広角レンズ、準広角レンズと呼ばれるレンズを含んでもよい。また、カメラ61には、単焦点レンズを含んでもよく、ズームレンズを含んでもよく、複数のレンズからなるレンズ群を含んでもよい。
The angle of view θ of the
図5は、HMD100の構成を機能的に示すブロック図である。制御装置10は、プログラムを実行してHMD100を制御するメインプロセッサー140と、記憶部と、入出力部と、センサー類と、インターフェースと、電源部130とを備える。メインプロセッサー140には、これらの記憶部、入出力部、センサー類、インターフェース、電源部130がそれぞれ接続されている。メインプロセッサー140は、制御装置10が内蔵しているコントローラー基板120に実装されている。
FIG. 5 is a block diagram functionally showing the configuration of the
記憶部には、メモリー118と、不揮発性記憶部121とが含まれている。メモリー118は、メインプロセッサー140によって実行されるコンピュータープログラム、および、処理されるデータを一時的に記憶するワークエリアを構成する。不揮発性記憶部121は、フラッシュメモリーやeMMC(embedded Multi Media Card)で構成される。不揮発性記憶部121は、メインプロセッサー140が実行するコンピュータープログラムや、メインプロセッサー140によって処理される各種のデータを記憶する。本実施形態において、これらの記憶部はコントローラー基板120に実装されている。
The storage unit includes a
入出力部には、タッチパッド14と、操作部110とが含まれている。操作部110には、制御装置10に備えられた方向キー16と、決定キー17と、電源スイッチ18とが含まれる。メインプロセッサー140は、これら各入出力部を制御すると共に、各入出力部から出力される信号を取得する。
The input / output unit includes a
センサー類には、6軸センサー111と、磁気センサー113と、GPS(Global Positioning System)レシーバー115とが含まれている。6軸センサー111は、3軸加速度センサーと3軸ジャイロ(角速度)センサーとを備えるモーションセンサー(慣性センサー)である。6軸センサー111は、これらセンサーがモジュール化されたIMU(Inertial Measurement Unit)を採用してもよい。磁気センサー113は、例えば、3軸の地磁気センサーである。GPSレシーバー115は、図示しないGPSアンテナを備え、GPS衛星から送信される無線信号を受信して、制御装置10の現在位置の座標を検出する。これらセンサー類(6軸センサー111、磁気センサー113、GPSレシーバー115)は、検出値を予め指定されたサンプリング周波数に従って、メインプロセッサー140へと出力する。各センサーが検出値を出力するタイミングは、メインプロセッサー140からの指示に応じてもよい。
The sensors include a six-
インターフェースには、無線通信部117と、音声コーデック180と、外部コネクター184と、外部メモリーインターフェース186と、USB(Universal Serial Bus)コネクター188と、センサーハブ192と、FPGA194と、インターフェース196とが含まれている。これらは、外部とのインターフェースとして機能する。無線通信部117は、HMD100と外部機器との間における無線通信を実行する。無線通信部117は、図示しないアンテナ、RF回路、ベースバンド回路、通信制御回路等を備えて構成され、あるいはこれらが統合されたデバイスとして構成されている。無線通信部117は、例えば、Bluetooth(登録商標)、Wi−Fi(登録商標)を含む無線LAN等の規格に準拠した無線通信を行う。
The interface includes a
音声コーデック180は、音声インターフェース182に接続され、音声インターフェース182を介して入出力される音声信号のエンコード/デコードを行う。音声インターフェース182は、音声信号を入出力するインターフェースである。音声コーデック180は、アナログ音声信号からデジタル音声データへの変換を行うA/Dコンバーター、および、その逆の変換を行うD/Aコンバーターを備えてもよい。本実施形態のHMD100は、音声を右イヤホン32および左イヤホン34から出力し、マイク63により集音する。音声コーデック180は、メインプロセッサー140が出力するデジタル音声データをアナログ音声信号に変換し、音声インターフェース182を介して出力する。また、音声コーデック180は、音声インターフェース182に入力されるアナログ音声信号をデジタル音声データに変換してメインプロセッサー140に出力する。
The
外部コネクター184は、メインプロセッサー140に対して、メインプロセッサー140と通信する外部装置(例えば、パーソナルコンピューター、スマートフォン、ゲーム機器等)を接続するためのコネクターである。外部コネクター184に接続された外部装置は、コンテンツの供給元となり得るほか、メインプロセッサー140が実行するコンピュータープログラムのデバッグや、HMD100の動作ログの収集に使用できる。外部コネクター184は種々の態様を採用できる。外部コネクター184としては、例えば、USBインターフェース、マイクロUSBインターフェース、メモリーカード用インターフェース等の有線接続に対応したインターフェースや、無線LANインターフェース、Bluetoothインターフェース等の無線接続に対応したインターフェースを採用できる。
The
外部メモリーインターフェース186は、可搬型のメモリーデバイスを接続可能なインターフェースである。外部メモリーインターフェース186は、例えば、カード型記録媒体を装着してデータの読み書きを行うメモリーカードスロットと、インターフェース回路とを含む。カード型記録媒体のサイズ、形状、規格等は適宜選択できる。USBコネクター188は、USB規格に準拠したメモリーデバイス、スマートフォン、パーソナルコンピューター等を接続可能なインターフェースである。USBコネクター188は、例えば、USB規格に準拠したコネクターと、インターフェース回路とを含む。USBコネクター188のサイズ、形状、USB規格のバージョン等は適宜選択できる。
The
また、HMD100は、バイブレーター19を備える。バイブレーター19は、図示しないモーターと、偏芯した回転子等を備え、メインプロセッサー140の制御に従って振動を発声する。HMD100は、例えば、操作部110に対する操作を検出した場合や、HMD100の電源がオンオフされた場合等に所定の振動パターンでバイブレーター19により振動を発生させる。
Further, the
センサーハブ192およびFPGA194は、インターフェース(I/F)196を介して画像表示部20に接続されている。センサーハブ192は、画像表示部20が備える各種センサーの検出値を取得して、メインプロセッサー140に出力する。FPGA194は、メインプロセッサー140と画像表示部20の各部との間で送受信されるデータの処理およびインターフェース196を介した伝送を実行する。インターフェース196は、画像表示部20の右表示ユニット22と、左表示ユニット24とに対してそれぞれ接続されている。本実施形態の例では、左保持部23に接続ケーブル40が接続され、この接続ケーブル40に繋がる配線が画像表示部20内部に敷設され、右表示ユニット22と左表示ユニット24とのそれぞれが、制御装置10のインターフェース196に接続される。
The sensor hub 192 and the
電源部130には、バッテリー132と、電源制御回路134とが含まれている。電源部130は、制御装置10が動作するための電力を供給する。バッテリー132は、充電可能な電池である。電源制御回路134は、バッテリー132の残容量の検出と、OS143への充電の制御を行う。電源制御回路134は、メインプロセッサー140に接続され、バッテリー132の残容量の検出値や、バッテリー132の電圧の検出値をメインプロセッサー140へと出力する。なお、電源部130が供給する電力に基づいて、制御装置10から画像表示部20へと電力を供給してもよい。電源部130から制御装置10の各部および画像表示部20への電力の供給状態を、メインプロセッサー140により制御可能な構成としてもよい。
The
右表示ユニット22は、表示ユニット基板210と、OLEDユニット221と、カメラ61と、照度センサー65と、LEDインジケーター67と、温度センサー217とを備える。表示ユニット基板210には、インターフェース196に接続されるインターフェース(I/F)211と、受信部(Rx)213と、EEPROM(Electrically Erasable Programmable Read-Only Memory)215とが実装されている。受信部213は、インターフェース211を介して制御装置10から入力されるデータを受信する。受信部213は、OLEDユニット221で表示する画像の画像データを受信した場合に、受信した画像データをOLED駆動回路225(図2)へと出力する。
The
EEPROM215は、各種のデータをメインプロセッサー140が読み取り可能な態様で記憶する。EEPROM215は、例えば、画像表示部20のOLEDユニット221、241の発光特性や表示特性に関するデータ、右表示ユニット22または左表示ユニット24のセンサー特性に関するデータ等を記憶する。具体的には、例えば、OLEDユニット221、241のガンマ補正に係るパラメーター、後述する温度センサー217、239の検出値を補償するデータ等を記憶する。これらのデータは、HMD100の工場出荷時の検査によって生成され、EEPROM215に書き込まれる。出荷後は、メインプロセッサー140がEEPROM215のデータを読み込んで各種の処理に利用する。
The
カメラ61は、インターフェース211を介して入力される信号に従って撮像を実行し、撮像画像データあるいは撮像結果を表す信号を制御装置10へと出力する。照度センサー65は、図1に示すように、前部フレーム27の端部ERに設けられ、画像表示部20を装着する使用者の前方からの外光を受光するように配置される。照度センサー65は、受光量(受光強度)に対応した検出値を出力する。LEDインジケーター67は、図1に示すように、前部フレーム27の端部ERにおいてカメラ61の近傍に配置される。LEDインジケーター67は、カメラ61による撮像を実行中に点灯して、撮像中であることを報知する。
The
温度センサー217は、温度を検出し、検出した温度に対応する電圧値あるいは抵抗値を出力する。温度センサー217は、OLEDパネル223(図3)の裏面側に実装される。温度センサー217は、例えばOLED駆動回路225と同一の基板に実装されてもよい。この構成により、温度センサー217は主としてOLEDパネル223の温度を検出する。なお、温度センサー217は、OLEDパネル223あるいはOLED駆動回路225に内蔵されてもよい。例えば、OLEDパネル223がSi−OLEDとしてOLED駆動回路225と共に統合半導体チップ上の集積回路として実装される場合、この半導体チップに温度センサー217を実装してもよい。
The
左表示ユニット24は、表示ユニット基板230と、OLEDユニット241と、温度センサー239とを備える。表示ユニット基板230には、インターフェース196に接続されるインターフェース(I/F)231と、受信部(Rx)233と、6軸センサー235と、磁気センサー237とが実装されている。受信部233は、インターフェース231を介して制御装置10から入力されるデータを受信する。受信部233は、OLEDユニット241で表示する画像の画像データを受信した場合に、受信した画像データをOLED駆動回路245(図2)へと出力する。
The
6軸センサー235は、3軸加速度センサーおよび3軸ジャイロ(角速度)センサーを備えるモーションセンサー(慣性センサー)である。6軸センサー235は、上記のセンサーがモジュール化されたIMUを採用してもよい。磁気センサー237は、例えば、3軸の地磁気センサーである。温度センサー239は、温度を検出し、検出した温度に対応する電圧値あるいは抵抗値を出力する。温度センサー239は、OLEDパネル243(図3)の裏面側に実装される。温度センサー239は、例えばOLED駆動回路245と同一の基板に実装されてもよい。この構成により、温度センサー239は主としてOLEDパネル243の温度を検出する。温度センサー239は、OLEDパネル243あるいはOLED駆動回路245に内蔵されてもよい。詳細は温度センサー217と同様である。
The 6-
右表示ユニット22のカメラ61、照度センサー65、温度センサー217と、左表示ユニット24の6軸センサー235、磁気センサー237、温度センサー239は、制御装置10のセンサーハブ192に接続される。センサーハブ192は、メインプロセッサー140の制御に従って各センサーのサンプリング周期の設定および初期化を行う。センサーハブ192は、各センサーのサンプリング周期に合わせて、各センサーへの通電、制御データの送信、検出値の取得等を実行する。センサーハブ192は、予め設定されたタイミングで、右表示ユニット22および左表示ユニット24が備える各センサーの検出値をメインプロセッサー140へ出力する。センサーハブ192は、各センサーの検出値を一時的に保持するキャッシュ機能を備えてもよい。センサーハブ192は、各センサーの検出値の信号形式やデータ形式の変換機能(例えば、統一形式への変換機能)を備えてもよい。センサーハブ192は、メインプロセッサー140の制御に従ってLEDインジケーター67への通電を開始および停止させることで、LEDインジケーター67を点灯または消灯させる。
The
図6は、制御装置10の構成を機能的に示すブロック図である。制御装置10は、機能的には、記憶機能部122と、制御機能部150とを備える。記憶機能部122は、不揮発性記憶部121(図5)により構成される論理的な記憶部である。記憶機能部122は、記憶機能部122のみを使用する構成に替えて、不揮発性記憶部121に組み合わせてEEPROM215やメモリー118を使用する構成としてもよい。制御機能部150は、メインプロセッサー140がコンピュータープログラムを実行することにより、すなわち、ハードウェアとソフトウェアとが協働することにより構成される。
FIG. 6 is a block diagram functionally showing the configuration of the
記憶機能部122には、制御機能部150における処理に供する種々のデータが記憶されている。具体的には、本実施形態の記憶機能部122には、設定データ123と、コンテンツデータ124とが記憶されている。設定データ123は、HMD100の動作に係る各種の設定値を含む。例えば、設定データ123には、制御機能部150がHMD100を制御する際のパラメーター、行列式、演算式、LUT(Look Up Table)等が含まれている。
The
コンテンツデータ124には、制御機能部150の制御によって画像表示部20が表示する画像や映像を含むコンテンツのデータ(画像データ、映像データ、音声データ等)が含まれている。なお、コンテンツデータ124には、双方向型のコンテンツのデータが含まれてもよい。双方向型のコンテンツとは、操作部110によって使用者の操作を取得して、取得した操作内容に応じた処理を制御機能部150が実行し、処理内容に応じたコンテンツを画像表示部20に表示するタイプのコンテンツを意味する。この場合、コンテンツのデータには、使用者の操作を取得するためのメニュー画面の画像データ、メニュー画面に含まれる項目に対応する処理を定めるデータ等を含みうる。
The
制御機能部150は、記憶機能部122が記憶しているデータを利用して各種処理を実行することにより、OS143、画像処理部145、表示制御部147、撮像制御部149、入出力制御部151、通信制御部153、店舗入力処理部155としての機能を実行する。本実施形態では、OS143以外の各機能部は、OS143上で実行されるコンピュータープログラムとして構成されている。
The
画像処理部145は、画像表示部20により表示する画像/映像の画像データに基づいて、右表示ユニット22および左表示ユニット24に送信する信号を生成する。画像処理部145が生成する信号は、垂直同期信号、水平同期信号、クロック信号、アナログ画像信号等であってもよい。画像処理部145は、メインプロセッサー140がコンピュータープログラムを実行して実現される構成のほか、メインプロセッサー140とは別のハードウェア(例えば、DSP(Digital Signal Processor))で構成してもよい。
The
なお、画像処理部145は、必要に応じて、解像度変換処理、画像調整処理、2D/3D変換処理等を実行してもよい。解像度変換処理は、画像データの解像度を右表示ユニット22および左表示ユニット24に適した解像度へと変換する処理である。画像調整処理は、画像データの輝度や彩度を調整する処理である。2D/3D変換処理は、三次元画像データから二次元画像データを生成し、あるいは、二次元画像データから三次元画像データを生成する処理である。画像処理部145は、これらの処理を実行した場合、処理後の画像データに基づき画像を表示するための信号を生成し、接続ケーブル40を介して画像表示部20へと送信する。
Note that the
表示制御部147は、右表示ユニット22および左表示ユニット24を制御する制御信号を生成し、この制御信号により、右表示ユニット22および左表示ユニット24のそれぞれによる画像光の生成と射出とを制御する。具体的には、表示制御部147は、OLED駆動回路225、245を制御して、OLEDパネル223、243による画像の表示を実行させる。表示制御部147は、画像処理部145が出力する信号に基づいて、OLED駆動回路225、245がOLEDパネル223、243に描画するタイミングの制御、OLEDパネル223、243の輝度の制御等を行う。
The
撮像制御部149は、カメラ61を制御して撮像を実行させ、撮像画像データを生成し、記憶機能部122に一時的に記憶させる。また、カメラ61が撮像画像データを生成する回路を含むカメラユニットとして構成される場合、撮像制御部149は、撮像画像データをカメラ61から取得して、記憶機能部122に一時的に記憶させる。
The
入出力制御部151は、タッチパッド14(図1)と、方向キー16と、決定キー17とを適宜、制御して、これらから入力指令を取得する。取得した指令は、OS143、またはOS143と共にOS143上で動作するコンピュータープログラムに出力される。通信制御部153は、無線通信部117を制御して、例えば店舗サーバー300との間で無線通信を行う。
The input /
店舗入力処理部155は、OS143上で動作するアプリケーションプログラムに従って実現される機能である。店舗入力処理部155は、入出力制御部151や、画像処理部145、表示制御部147と協調して、使用者が望む店舗の識別情報を取得する。具体的には、店舗入力処理部155は、店舗サーバー300から送られてくる複数の候補店舗を使用者に提示する機能と、複数の候補店舗から使用者によって選択された一の店舗の入力を受け付ける機能と、を有する。後者の機能である店舗の入力を受け付ける機能は、多面体画像表示部155a、多面体向き切替部155b、および命令実行部155cによって実現される。各部155a〜155cの詳細は、後述する。なお、画像処理部145および表示制御部147が[発明の概要]の欄に記載した本発明の一形態における「表示制御部」に相当し、店舗入力処理部155が「処理部」に相当する。
The store
図7は、HMD100による拡張現実感表示の一例を示す説明図である。図7では、使用者の視界VRを例示している。上述のようにして、HMD100の使用者の両眼に導かれた画像光が使用者の網膜に結像することにより、使用者は拡張現実感(AR)としての画像AIを視認する。図7の例では、画像AIは、HMD100のOSのメニュー画面である。メニュー画面には、例えば、「メッセージ」、「電話」、「カメラ」、「ブラウザー」、「店舗案内」の各アプリケーションプログラムを起動するためのアイコンが含まれる。また、右左の導光板26,28が外景SCからの光を透過することで、使用者は外景SCを視認する。このように、本実施形態のHMDの使用者は、視界VRのうち画像VIが表示された部分については、外景SCに重なるようにして画像AIを見ることができる。また、視界VRのうち画像AIが表示されていない部分については、外景SCだけを見ることができる。
FIG. 7 is an explanatory diagram illustrating an example of augmented reality display by the
A−3.店舗サーバーの構成:
図8は、店舗サーバー300の構成を機能的に示すブロック図である。図4に示すように、店舗サーバー300は、CPU310と、記憶部320と、ROM330と、RAM340と、通信インターフェース(I/F)350と、を備え、各部はバス360により相互に接続されている。
A-3. Store server configuration:
FIG. 8 is a block diagram functionally showing the configuration of the
CPU310は、記憶部320やROM330に格納されているコンピュータープログラムをRAM340に展開して実行することにより、店舗サーバー300の各部を制御する。そのほか、CPU310は、周辺店舗情報提供部312および店舗案内部314としても機能する。周辺店舗情報提供部312は、使用者の視界VR1の範囲内に含まれる店舗を候補店舗として、HMD100に提供する。店舗案内部314は、HMD100から使用者が望む店舗の識別情報を受信し、使用者が望む店舗についての案内情報を店舗データベース322から取得し、取得された店舗情報をHMD100に提供する。本実施形態では、案内情報として、店舗までの道順を示す情報、店舗の電話番号等、店舗を利用するに有用な情報を提供する。
The
記憶部320は、ROM、RAM、DRAM、ハードディスク等によって構成されている。記憶部320には、オペレーティングシステム(ОS)をはじめとする種々のコンピュータープログラムが格納されている。また、記憶部320には、前述した店舗データベース322と、地図データベース324とが記憶されている。地図データベース324には、種々の店舗が記録されている。
The
A−4.店舗入力処理について:
図9は、店舗入力処理ルーチンを示すフローチャートである。この店舗入力処理ルーチンは、店舗入力処理部155(図6)に対応している。店舗入力処理ルーチンは、不揮発性記憶部121(図5)に格納されている所定のコンピュータープログラム(アプリケーションプログラム)に従う処理ルーチンで、HMD100のメインプロセッサー140によって実行される。図7に例示したメニュー画面の「店舗案内」のアイコンが方向キー16(図1)と決定キー17(図1)によって指示されたことを受けて、店舗入力処理ルーチンは実行開始される。
A-4. About store input processing:
FIG. 9 is a flowchart showing a store input processing routine. This store input processing routine corresponds to the store input processing unit 155 (FIG. 6). The store input processing routine is a processing routine according to a predetermined computer program (application program) stored in the nonvolatile storage unit 121 (FIG. 5), and is executed by the
処理が開始されると、HMD100のメインプロセッサー140は、まず、HMD100の現在位置を示す位置情報を、GPSレシーバー115から取得する(ステップS110)。次いで、メインプロセッサー140は、画像表示部20を装着した使用者の視線方向を特定する情報(視線方向情報)を取得する(ステップS120)。具体的には、磁気センサー113によって検出された地磁気に基づいて画像表示部20の向きを特定することによって、視線方向情報を取得する。続いて、メインプロセッサー140は、取得された位置情報と視線方向情報を店舗サーバー300に送信する(ステップS130)。
When the process is started, the
ステップS130の処理がなされると、店舗サーバー300側では次の処理が行われる。店舗サーバー300は、まず、位置情報と視線情報とを取得し、これらの情報から、使用者の仮想的な仮想視野を設定する。具体的には、HMD100の現在位置において、使用者の視線方向を中心として予め設定される範囲(例えば、左右90度、上下60度)を、仮想視野として設定する。なお、ここで言う「仮想視野」は、使用者が右左の導光板26、28を通して実際に視認しうる視野(実視野)とは必ずしも一致する必要はないが、実視野を超えない範囲が望ましい。続いて、店舗サーバー300は、地図データベース324を照合することで、仮想視野内に含まれる店舗を検索する。ここでは、HMD100からの距離を例えば数百メートルとし、仮想視野内に含まれる店舗を検索する。その後、店舗サーバー300は、検索された店舗を候補店舗とし、各候補店舗についての情報を店舗データベース322から取得する。その後、店舗サーバー300は、取得された各候補店舗についての情報を示すデータセットをHMD100に送信する。
When the process of step S130 is performed, the following process is performed on the
図10は、店舗サーバー300からHMD100に送信されるデータセットDSを示す説明図である。データセットDSは、各候補店舗についての情報をレコードRCの形で記録する。各レコードRCには、「店舗名」、「ビュー位置」、「詳細説明」の各データが記録されている。「店舗名」のデータは候補店舗の名称であり、「ビュー位置」のデータは前述した仮想視野における候補店舗の位置を示す情報である。「詳細説明」のデータは、候補店舗の詳細な情報を示し、具体的には、店舗の種別(例えば、コンビニ、レストラン、居酒屋等)や、取り扱い商品などである。
FIG. 10 is an explanatory diagram showing a data set DS transmitted from the
図9のステップS130に続くステップS140では、メインプロセッサー140は、上述したデータセットを店舗サーバー300から受信する。次いで、メインプロセッサー140は、受信したデータセットに基づいて画像処理部145(図6)を制御して、シースルー表示エリアを表示制御部147(図6)に表示させる表示処理を行う(ステップS150)。続いて、メインプロセッサー140は、受信したデータセットに基づいて画像処理部145(図6)を制御して、インフォメーション表示エリアを表示制御部147(図6)に表示させる表示処理を行う(ステップS160)。このステップS160の処理が多面体画像表示部155a(図6)に対応している。
In step S140 following step S130 of FIG. 9, the
図11は、ステップS160の処理が実行された後の使用者の視界VR1の一例を示す説明図である。図示するように、視界VR1には、シースルー表示エリアP1とインターフェースエリアP2とが含まれる。 FIG. 11 is an explanatory diagram illustrating an example of the user's field of view VR1 after the process of step S160 is performed. As shown in the drawing, the visual field VR1 includes a see-through display area P1 and an interface area P2.
シースルー表示エリアP1には、外景SCに重なるようにして、AR画像としての店舗名の吹き出しA1〜A6が表示される。各吹き出しA1〜A6に表される店舗名は、受信したデータセットDSの「店舗名」のデータに基づくものである。各吹き出しA1〜A6の表示位置は、候補店舗の存在する位置に対応したもので、受信したデータセットDSの「ビュー位置」のデータに基づいて定められている。具体的には、視界VR1の中に店舗サーバー300で設定した仮想視野と同じ仮想視野を設定した上で、その設定した仮想視野における位置を「ビュー位置」のデータから求めることで、視界VR1の中の各吹き出しA1〜A6の表示位置が定められている。
In the see-through display area P1, balloons A1 to A6 of store names as AR images are displayed so as to overlap the outside scene SC. The store names represented in the balloons A1 to A6 are based on the “store name” data of the received data set DS. The display positions of the balloons A1 to A6 correspond to the positions where the candidate stores exist, and are determined based on the “view position” data of the received data set DS. Specifically, after setting the same virtual visual field as the virtual visual field set by the
インターフェースエリアP2は、操作者との間で情報のやり取りを行うためのエリアであり、シースルー表示エリアP1の片側(例えば右側)に連結されている。具体的には、インターフェースエリアP2では、シースルー表示エリアP1に表示された1または複数(図11の例示では6つ)の店舗名を一覧表示するとともに、一覧表示の中から選択された使用者が望む店舗の店舗名を受け取る。なお、インターフェースエリアP2は、遠くの外景は透過せず、近くの外景(たとえば、指先)については透過して視認可能なように、外景の透過量が設定されている。 The interface area P2 is an area for exchanging information with the operator, and is connected to one side (for example, the right side) of the see-through display area P1. Specifically, in the interface area P2, one or more (six in the illustration of FIG. 11) store names displayed in the see-through display area P1 are displayed in a list, and a user selected from the list display is displayed. Receive the store name of the store you want. In the interface area P2, the amount of transmission of the outside scene is set so that a distant outside scene does not pass through and a nearby outside scene (for example, a fingertip) can be seen through.
図11に示すインターフェースエリアP2は、一覧表示欄LTと、キュービックスイッチSWと、が含まれる。 The interface area P2 shown in FIG. 11 includes a list display field LT and a cubic switch SW.
一覧表示欄LTは、シースルー表示エリアP1に表示された店舗名に対応した[店舗名]ボタンB1を縦方向に配列したもので、各[店舗名]ボタンの右隣りには[詳細]ボタンB2がそれぞれ設けられている。すなわち、店舗毎に、[店舗名]ボタンB1と[詳細]ボタンB2とが対になって設けられている。[店舗名]ボタンB1は、HMD10の制御機能部150(図6)に対して店舗名を指示するためのスイッチである。[詳細]ボタンB2は、店舗の詳細な情報の表示を指示するためのスイッチである。一覧表示欄LT内の全てのボタンB1,B2のうちの一つはアクティブ状態となっており、残余のボタンB1,B2は非アクティブ状態となっている。「アクティブ状態」とは、使用者による操作の対象となっている状態である。図示の例では、「○○店」の[店舗名]ボタンB1が白色の背景となっており、アクティブ状態となっており、残余のボタンB1,B2は非アクティブ状態となっている。図示の例では、「○○店」の[詳細]ボタンB2と、「○○店」以外の各店の[店舗名]ボタンB1および[詳細]ボタンB2とが、非アクティブ状態である。なお、一覧表示欄LTが、[発明の概要]の欄に記載した本発明の一形態における「画像」に相当する。
The list display field LT includes [store name] buttons B1 corresponding to the store names displayed in the see-through display area P1 arranged in the vertical direction, and a [detail] button B2 on the right side of each [store name] button. Are provided. That is, for each store, a [store name] button B1 and a [details] button B2 are provided in pairs. The [Store Name] button B1 is a switch for instructing the store name to the control function unit 150 (FIG. 6) of the
キュービックスイッチSWは、アクティブ状態にあるボタンB1,B2を順次切り替え、入力したい店舗を決定するためのGUI(グラフィカルユーザーインターフェース)として機能する。本実施形態では、キュービックスイッチSWは、立方体(正六面体)形状の3D画像によって構成される。「3D画像」とは、3次元(立体)の画像である。本実施形態では、立方体の画像は、奥行きを有する3次元の形状データによって示されており、2次元の画面上で自由に角度(アングル)を変えたり遠近感を付けることが可能となっている。立方体の各面SFには、一つの命令がそれぞれ割り当てられている。 The cubic switch SW functions as a GUI (graphical user interface) for sequentially switching the buttons B1 and B2 in the active state and determining a store to be input. In the present embodiment, the cubic switch SW is constituted by a cubic (regular hexahedron) -shaped 3D image. A “3D image” is a three-dimensional (stereoscopic) image. In this embodiment, the cubic image is indicated by three-dimensional shape data having a depth, and the angle (angle) can be freely changed or a perspective can be given on the two-dimensional screen. . One instruction is assigned to each surface SF of the cube.
6つの面SFに割り当てられる命令は、本実施形態では、「up」、「down」、「right」、「left」、「決定」、「削除」である。「up」は、アクティブ状態にあるボタンB1,B2を上側に切り替える命令である。「down」は、アクティブ状態にあるボタンB1,B2を下側に切り替える命令である。「right」は、アクティブ状態にあるボタンB1,B2を右側に切り替える命令である。「left」は、アクティブ状態にあるボタンB1,B2を左側に切り替える命令である。 In the present embodiment, the instructions assigned to the six surfaces SF are “up”, “down”, “right”, “left”, “decision”, and “deletion”. “Up” is an instruction to switch the buttons B1 and B2 in the active state upward. “Down” is an instruction to switch the buttons B1 and B2 in the active state downward. “Right” is a command to switch the buttons B1 and B2 in the active state to the right side. “Left” is an instruction to switch the buttons B1 and B2 in the active state to the left side.
「決定」は、アクティブ状態にあるボタンB1,B2に対して設定された機能を実行させる命令である。すなわち、アクティブ状態にあるボタンが[店舗名]ボタンB1である場合には、店舗名の入力を受け付け、アクティブ状態にあるボタンが[詳細]ボタンB2である場合には、該当する店舗についての詳細情報を表示させる。「削除」は、アクティブ状態にあるボタンB1,B2に該当する店舗を候補店舗から削除する命令である。なお、キュービックスイッチSWは正六面体の3D画像であることから、6つの面の内の一部(例えば、3つ)が見え、他の面は裏側に隠れている。 “Determine” is a command for executing the function set for the buttons B1 and B2 in the active state. That is, when the button in the active state is the [Store Name] button B1, the input of the store name is accepted, and when the button in the active state is the [Detail] button B2, details about the corresponding store are received. Display information. “Delete” is an instruction to delete stores corresponding to the buttons B1 and B2 in the active state from the candidate stores. Since the cubic switch SW is a regular hexahedron 3D image, a part (for example, three) of the six faces can be seen and the other faces are hidden behind.
インターフェースエリアP2は、先に説明したように、近くの外景は透過して視認可能であることから、使用者は、視界の中に手の指先を差し出すことによって、指先によってキュービックスイッチSWを操作することができる。 As described above, the interface area P2 allows the user to operate the cubic switch SW with the fingertip by inserting the fingertip of the hand into the field of view because the nearby outside scene is transparent and visible. be able to.
図12は、キュービックスイッチSWを回転させる操作の一例を示す説明図である。HMD100の使用者は、図示するようにキュービックスイッチSWの一面SFに手の指先FGを当て(重ね)、矢印FLに示すようにフリック(スライド)することによって、キュービックスイッチSWを回転させることができる。すなわち、キュービックスイッチSWとしての立方体の表示される向きを切り替えることができる。
FIG. 12 is an explanatory diagram illustrating an example of an operation of rotating the cubic switch SW. The user of the
図13は、回転後のキュービックスイッチSWを示す説明図である。図12に示すように操作された結果、キュービックスイッチSWは図13の状態、すなわち、「up」と記された面が表示される向きに切り替わる。図13の状態は図12の状態からフリック方向に面SFを1つ分だけ切り替えたものとなっているが、キュービックスイッチSWは、フリックの距離を長くすることで、面SFを2つ分、3つ分と切り替えることも可能である。 FIG. 13 is an explanatory diagram showing the cubic switch SW after rotation. As a result of the operation as shown in FIG. 12, the cubic switch SW is switched to the state shown in FIG. 13, that is, the direction in which the surface labeled “up” is displayed. The state of FIG. 13 is a state in which the surface SF is switched by one in the flick direction from the state of FIG. 12, but the cubic switch SW increases the distance of the flick to increase the surface SF by two. It is also possible to switch between three.
キュービックスイッチSWの前側の面SFは、使用者によってタップ可能となっている。「前側の面」とは、使用者と向き合う面であり、図13の例示では「up」と記された面SFが該当する。「タップ」とは、手の指先FGを画像要素に当て(重ね)、押下するように指先FGを前方(使用者から見た前側)に移動する操作である。キュービックスイッチSWの前側の面SFをタップすることで、その前側の面SFに割り当てられた命令をHMD100に実行させることができる。
The front surface SF of the cubic switch SW can be tapped by the user. The “front surface” is a surface facing the user, and corresponds to the surface SF marked “up” in the example of FIG. The “tap” is an operation of moving the fingertip FG forward (front side as viewed from the user) so that the fingertip FG of the hand is applied (overlapped) to the image element and pressed. By tapping the front surface SF of the cubic switch SW, it is possible to cause the
例えば、図11に示したインターフェースエリアP2の表示状態において、キュービックスイッチSWの前側の面SF、すなわち、「down」と記された面SFをタップした場合には、アクティブ状態にあるボタンは、「○○店」と記された[店舗名]ボタンB1から「△△店」と記された[店舗名]ボタンB1に切り替わる。 For example, in the display state of the interface area P2 shown in FIG. 11, when the front surface SF of the cubic switch SW, that is, the surface SF marked “down” is tapped, the button in the active state is “ [Store name] button B1 marked with “OO store” is switched to [Store name] button B1 marked with “ΔΔ store”.
例えば、図11に示したインターフェースエリアP2の表示状態において、キュービックスイッチSWを下側にフリックすることで、「決定」と記された面SFを前側に切り替えた後、その前側の面SFをタップした場合には、アクティブ状態にあるボタンである「○○店」と記された[店舗名]ボタンB1に対して「決定」が実行される。具体的には、HMD10の制御機能部150(図6)において、「○○店」という店舗名の入力が受け付けられる。
For example, in the display state of the interface area P2 shown in FIG. 11, the surface SF marked “OK” is switched to the front side by flicking the cubic switch SW downward, and then the front surface SF is tapped. In such a case, “determine” is executed for the [store name] button B1 labeled “XX store”, which is the button in the active state. Specifically, the control function unit 150 (FIG. 6) of the
例えば、図11に示したインターフェースエリアP2の表示状態において、キュービックスイッチSWを右側にフリックすることで、「right」と記された面SFを前側に切り替えた後、その前側の面SFをタップした場合には、アクティブ状態にあるボタンは、「○○店」と記された[店舗名]ボタンB1から右隣の[詳細]ボタンB2に切り替わる。その後、キュービックスイッチSWを下側にフリックすることで、「決定」と記された面SFを前側に切り替え、その前側の面SFをタップした場合には、アクティブ状態にあるボタンである「○○店」の[詳細]ボタンB2に対して「決定」が実行される。この結果、該当する店舗、「○○店」についての詳細情報がインターフェースエリアP2に表示される。詳細情報は、ステップS140で顧客サーバーから受信したデータセットの「詳細説明」のデータ(図10参照)に基づくものである。 For example, in the display state of the interface area P2 shown in FIG. 11, the surface SF labeled “right” is switched to the front side by flicking the cubic switch SW to the right, and then the front surface SF is tapped. In this case, the button in the active state is switched from the [store name] button B1 marked “XX store” to the “detail” button B2 on the right side. After that, by flicking the cubic switch SW downward, the surface SF marked “OK” is switched to the front side, and when the front surface SF is tapped, the button “○○ which is in the active state” “Determine” is executed for the “Detail” button B2 of “Store”. As a result, detailed information about the corresponding store “XX store” is displayed in the interface area P2. The detailed information is based on the “detailed description” data (see FIG. 10) of the data set received from the customer server in step S140.
図9のフローチャートの説明に戻る。上述したキュービックスイッチSWを用いた操作は、ステップS170からS196までの処理によって実現される。 Returning to the flowchart of FIG. The above-described operation using the cubic switch SW is realized by the processing from steps S170 to S196.
ステップS170では、メインプロセッサー140は、カメラ61を制御して撮像を実行させ、得られた撮像画像から使用者の指先FGの動きを検出する。次いで、メインプロセッサー140は、検出した指先FGの動きから、キュービックスイッチSWに対する上述したフリックやタップの操作がなされたか否かを判定し(ステップS180)、操作がなされていない場合には、ステップS170に処理を戻して、操作がなされるのを待つ。ステップS180で、キュービックスイッチSWに対して操作がなされたと判定されたときには、その操作がフリックとタップのいずれであるかを判定する(ステップS190)。
In step S170, the
ステップS190でフリックであると判定された場合には、メインプロセッサー140は、キュービックスイッチSWの表示される向きをフリックの方向に基づいて切り替える(ステップS192)。すなわち、キュービックスイッチSWをフリックされた方向に回転した状態の画像に変更する。ステップS170〜S192の処理が多面体向き切替部155b(図6)に対応している。ステップS192の実行後、ステップS170に処理を戻して、操作者の次の操作を待つ。
If it is determined in step S190 that the flick has occurred, the
一方、ステップS190でタップであると判定された場合には、メインプロセッサー140は、タップされた面(本実施形態では、前側の面、すなわち使用者と向き合う面)SFに割り当てられた命令を実行する(ステップS194)。すなわち、「up」である場合には、アクティブ状態にあるボタンB1,B2を上側に切り替える。「down」である場合には、アクティブ状態にあるボタンB1,B2を下側に切り替える。「right」である場合には、アクティブ状態にあるボタンB1,B2を右側に切り替える。「left」である場合には、アクティブ状態にあるボタンB1,B2を左側に切り替える。「削除」である場合には、アクティブ状態にあるボタンB1,B2に該当する店舗を候補店舗から削除する。
On the other hand, if it is determined in step S190 that it is a tap, the
「決定」であると判定された場合には、2つの動作に別れる。アクティブ状態にあるボタンB1,B2が[店舗名]ボタンB1である場合には、該当する店舗の識別情報、すなわち、店舗名を入力する。具体的には、HMD10の制御機能部150(図6)の店舗入力処理部155において、「○○店」という店舗名の入力が受け付けられるアクティブ状態にあるボタンB1,B2が[詳細]ボタンB2である場合には、該当する店舗についての詳細情報を表示する。詳細情報は、ステップS140で顧客サーバーから受信したデータセットの「詳細説明」のデータ(図10参照)に基づくものである。本実施形態では、インターフェースエリアP2に詳細情報を所定時間(例えば5秒)だけ表示し、5秒経過後はインターフェースエリアP2は元の表示に戻る。ステップS170〜S190、S194の処理が命令実行部155c(図6)に対応している。
If it is determined to be “determined”, it is divided into two operations. When the buttons B1 and B2 in the active state are the [store name] button B1, the identification information of the corresponding store, that is, the store name is input. Specifically, in the store
ステップS194の実行後、メインプロセッサー140は、アクティブ状態にあるボタンB1,B2が[店舗名]ボタンB1であり、かつ、タップされた面SFに割り当てられた命令が「決定」であるか否かを判定する(ステップS196)。ここで、否定判定、すなわち、アクティブ状態にあるボタンB1,B2が[詳細]ボタンB2である場合、もしくはタップされた面SFに割り当てられた命令が「決定」以外の命令である場合には、ステップS170に処理を戻して、操作者の次の操作を待つ。
After executing step S194, the
一方、ステップS196で肯定判定、すなわち、[店舗名]ボタンB1で、かつ「決定」である場合には、「エンド」に処理を進めて、この店舗入力処理ルーチンを終了する。すなわち、肯定判定された場合、ステップS194の処理により店舗名の入力の受け付けが完了していることから、この店舗入力処理ルーチンを終了する。 On the other hand, if the determination in step S196 is affirmative, that is, if the [store name] button B1 is “determined”, the process proceeds to “end” and the store input processing routine is terminated. That is, when an affirmative determination is made, since the reception of the store name has been completed by the processing of step S194, this store input processing routine is terminated.
メインプロセッサー140は、店舗入力処理ルーチンの終了後、別の処理を実行することによって、店舗入力処理ルーチンによって受け付けた店舗名を店舗サーバー300に送り、店舗サーバー300から送られてくる案内情報の表示を行う。
The
A−5.実施形態の効果について:
以上のように構成された第1実施形態のHMD100によれば、使用者は、右左の導光板26、28を通して視認しうる視界に含まれる複数の店舗の中から一の店舗を指定するに際し、キュービックスイッチSWをフリックして回転させ、前側の面SFをタップするだけで、その指定を行なうことができる。したがって、このHMD100によれば、使用者の操作性を向上することができる。特に、このHMD100によれば、キュービックスイッチSWが正六面体の3D画像であることから、簡単かつ直感的な操作によって処理を行うことができる。したがって、操作性をより向上できる。
A-5. About effect of embodiment:
According to the
B.第2実施形態:
本発明の第2実施形態におけるHMDは、第1実施例におけるHMD100と比べて、制御機能部150(図6)によって実現される一部の機能が相違する。具体的には、HMD100が備える制御機能部において、第1実施形態における店舗入力処理部155(図6)に替えて、作業支援処理部(図示せず)が設けられていることが相違する。第2実施形態におけるHMDにおける残余の構成は、第1実施形態と同一であり、説明は省略する。
B. Second embodiment:
The HMD according to the second embodiment of the present invention differs from the
図14は、第2実施形態の作業支援処理部によって生成されるシースルー表示エリアP11とインターフェースエリアP12とを示す説明図である。シースルー表示エリアP11は、第1実施形態のシースルー表示エリアP1(図11)と同様に、シースルーにて視認される外景SCに重なるように、AR画像としての吹き出しA11が表示される。外景SC11には、ねじ止めを行うためのねじと板材とが含まれる。吹き出しA11には、作業指示を行うためのARナビ画面が含まれる。 FIG. 14 is an explanatory diagram illustrating a see-through display area P11 and an interface area P12 generated by the work support processing unit of the second embodiment. In the see-through display area P11, as in the see-through display area P1 (FIG. 11) of the first embodiment, a balloon A11 as an AR image is displayed so as to overlap the outside scene SC visually recognized through the see-through. The outside scene SC11 includes screws and plate materials for screwing. The balloon A11 includes an AR navigation screen for performing work instructions.
インターフェースエリアP12には、作業についての手順を示す作業標準書LT11が表示される。作業者は、インターフェースエリアP12に表示された作業標準書LT11を読み、吹き出しA11のARナビ画面による指示に従って、ねじ止めの作業を行う。作業標準書LT11が、[発明の概要]の欄に記載した本発明の一形態における「画像」に相当する。 In the interface area P12, a work standard document LT11 indicating a procedure for work is displayed. The worker reads the work standard document LT11 displayed in the interface area P12 and performs the screwing work according to the instruction on the AR navigation screen of the balloon A11. The work standard LT11 corresponds to the “image” in one embodiment of the present invention described in the “Summary of Invention” column.
インターフェースエリアP12には、第1実施形態と同様に、キュービックスイッチSW11が含まれる。キュービックスイッチSW11は、作業標準書LT11のページの表示を切り替えるためのGUIとして機能する。キュービックスイッチSW11を構成する立方体(正六面体)の各面SFには、「Page up」、「Page down」、「作業標準書拡大」、「作業標準書縮小」、「ARナビ画面拡大」、「ARナビ画面縮小」の各命令がそれぞれ割り当てられている。 The interface area P12 includes the cubic switch SW11 as in the first embodiment. The cubic switch SW11 functions as a GUI for switching the display of the page of the work standard document LT11. On each surface SF of the cube (regular hexahedron) constituting the cubic switch SW11, “Page up”, “Page down”, “Work standard document enlargement”, “Work standard document reduction”, “AR navigation screen enlargement”, “AR navigation screen enlargement”, “ Each command of “AR navigation screen reduction” is assigned.
「Page up」は、作業標準書LT11のページを1枚めくる(送る)命令である。「Page dpwn」は、作業標準書LT11のページを1枚戻す命令である。「作業標準書拡大」は、作業標準書LT11を拡大表示する命令である。「作業標準書縮小」は、作業標準書LT11を縮小表示する命令である。「ARナビ画面拡大」は、吹き出しA11に表示されるARナビ画面を拡大する命令である。「ARナビ画面縮小」は、吹き出しA11に表示されるARナビ画面を縮小する命令である。 “Page up” is an instruction to turn (send) one page of the work standard LT11. “Page dpwn” is an instruction to return one page of the work standard document LT11. “Enlarge work standard” is a command for enlarging and displaying the work standard LT11. “Work standard reduction” is a command for reducing and displaying the work standard LT11. “AR navigation screen enlargement” is a command for enlarging the AR navigation screen displayed in the balloon A11. “AR navigation screen reduction” is a command for reducing the AR navigation screen displayed in the balloon A11.
キュービックスイッチSW11は、第1実施形態のキュービックスイッチSWと同様に、キュービックスイッチSW11の一面に手の指先FGを当て(重ね)、フリック(スライド)することによって、キュービックスイッチSW11を回転させることができる。また、キュービックスイッチSWの前側の面をタップすることによって、その前側の面に割り当てられた命令をHMD100に実行させることができる。
Similarly to the cubic switch SW of the first embodiment, the cubic switch SW11 can rotate the cubic switch SW11 by placing (fitting) a fingertip FG on one surface of the cubic switch SW11 and flicking (sliding) it. . Further, by tapping the front surface of the cubic switch SW, it is possible to cause the
以上のように構成された第2実施形態のHMDによれば、インターフェースエリアP12に表示される作業標準書LT11のページ送り/ページ戻し/拡大/縮小を、キュービックスイッチSW11をフリックして回転させ、前側の面をタップするだけで行なうことができる。したがって、このHMDによれば、使用者の操作性を向上することができる。特に、このHMDによれば、キュービックスイッチSW11が正六面体の3D画像であることから、簡単かつ直感的な操作によって処理を行うことができる。したがって、操作性をより向上できる。 According to the HMD of the second embodiment configured as described above, the page switch / page return / enlargement / reduction of the work standard document LT11 displayed in the interface area P12 is rotated by flicking the cubic switch SW11, Just tap the front side. Therefore, according to this HMD, user operability can be improved. In particular, according to the HMD, since the cubic switch SW11 is a regular hexahedral 3D image, the processing can be performed by a simple and intuitive operation. Therefore, operability can be further improved.
C.変形例:
なお、この発明は第1および第2実施形態およびそれらの変形例に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば、次のような変形も可能である。
C. Variations:
The present invention is not limited to the first and second embodiments and their modifications, and can be carried out in various modes without departing from the gist thereof. For example, the following modifications are possible. Is also possible.
・変形例1:
各実施形態および変形例では、各面に命令が割り当てられたキュービックスイッチSW,SW11は正六面体の3D画像であった。これに対して、図15に示すように、各面に命令が割り当てられたスイッチSW21は正四面体の3D画像としてもよいし、図16に示すように、各面に命令が割り当てられたスイッチSW31は正12面体の3D画像としてもよい。すなわち、多面体の3D画像であれば、種々の数の等しい大きさの面を備える3D画像とすることができる。また、面の大きさは、必ずしも等しい必要はなく、異なる大きさの面とすることもできる。さらに、3D画像に替えて、複数の2D画像によって多面体を表す構成としてもよい。
・ Modification 1:
In each embodiment and modification, the cubic switches SW and SW11 in which commands are assigned to each surface are regular hexahedral 3D images. On the other hand, as shown in FIG. 15, a switch SW21 in which instructions are assigned to each surface may be a regular tetrahedral 3D image, or a switch in which instructions are assigned to each surface as shown in FIG. SW31 may be a regular dodecahedron 3D image. That is, a 3D image of a polyhedron can be a 3D image having various numbers of equal-sized surfaces. Further, the sizes of the surfaces are not necessarily equal, and the surfaces can be different sizes. Further, a polyhedron may be represented by a plurality of 2D images instead of the 3D images.
・変形例2:
各実施形態および変形例では、キュービックスイッチSW,SW11の使用者と向き合う面(前側の面)をタップすることで、前側の面に割り当てられた命令をHMD100に実行できる構成とした。これに対して、変形例として、キュービックスイッチSW,SW11の上側の面をタップすることで、上側の面に割り当てられた命令をHMD100に実行できる構成としてもよい。上側の面とは、図11の例示では「決定」と記された面である。要は、予め定められた所定の向きの面であれば、いずれの向きの面に替えることができる。さらに、いずれか一つの面だけをタップできる構成に換えて、複数の面(例えば、前側の面と最も上側の面)をタップできる構成としてもよい。
Modification 2
In each embodiment and modification, it is configured such that an instruction assigned to the front surface can be executed by the
・変形例3:
各実施形態および変形例では、キュービックスイッチSW,SW11の使用者と向き合う面(前側の面)をタップすることで、前側の面に割り当てられた命令をHMD100に実行できる構成とした。これに対して、変形例として、キュービックスイッチSW,SW11の向きを切り替えたときに、タップすることなく直ちに、前側の面に割り当てられた命令をHMD100に実行できる構成としてもよい。この構成によれば、より操作性を向上することができる。なお、変形例2と同様に、前側の面に替えて、上側の面、等の他の所定の向きの面に割り当てられた命令を直ちに実行する構成としてもよい。
・ Modification 3:
In each embodiment and modification, it is configured such that an instruction assigned to the front surface can be executed by the
・変形例4:
各実施形態および変形例では、キュービックスイッチSW,SW11を構成する正六面体の各面に一つの命令をそれぞれ割り当てる構成とした。これに対して、図17に示すように、キュービックスイッチSW41を、正六面体の所定の面に対して複数(例えば、4つ)の命令を割り当てる構成としてもよい。また、図示の例では、正六面体の1つの面だけに4つの命令を割り当てた構成としたが、これに換えて、全ての面に複数の命令を割り当てるようにしてもよい。
-Modification 4:
In each embodiment and modification, one command is assigned to each face of the regular hexahedron constituting the cubic switches SW and SW11. On the other hand, as shown in FIG. 17, the cubic switch SW41 may be configured to assign a plurality of (for example, four) instructions to a predetermined face of a regular hexahedron. In the illustrated example, four instructions are assigned to only one face of the regular hexahedron. However, instead of this, a plurality of instructions may be assigned to all faces.
・変形例5:
各実施形態および変形例では、多面体画像をスイッチとしていたが、必ずしも多面体の画像である必要はなく、立体の画像であってもよい。「多面体」とは、複数(4つ以上)の平面に囲まれた立体であり、曲面をもつ立体は含まれず、また、すべての面の境界が直線である場合に限られる。これに対して、変形例として、多面体以外の立体をスイッチとしてもよい。すなわち、立体は、曲面を含み、各面もしくは各面に含まれる各領域に命令が割り当てられた構成であり、こうした立体を、UIのスイッチとしてもよい。多面体以外の立体としては、例えば、円柱、円錐、または球等が該当する。
-Modification 5:
In each embodiment and modification, the polyhedron image is a switch, but it is not necessarily a polyhedron image, and may be a three-dimensional image. The “polyhedron” is a solid surrounded by a plurality of (four or more) planes, does not include a solid with a curved surface, and is limited to the case where the boundaries of all surfaces are straight lines. On the other hand, as a modification, a solid other than a polyhedron may be used as a switch. That is, a solid includes a curved surface, and a command is assigned to each surface or each area included in each surface. Such a solid may be used as a UI switch. Examples of solids other than polyhedrons include a cylinder, a cone, or a sphere.
・変形例6:
各実施形態および変形例では、シースルー表示エリアP1,P11にAR画像としての吹き出しを表示する構成としたが、これに換えて、シースルー表示エリアP1,P11にAR画像を表示しない構成としてもよい。また、各実施形態および変形例では、シースルー表示エリアP1,P11とインターフェースエリアP2,P12とを備える構成としたが、これに換えて、シースルー表示エリアP1,P11だけを備え、シースルー表示エリアP1,P11に一覧表示欄LTもしくは作業標準書LT11と、キュービックスイッチSW,SW11とが備えられる構成としてもよい。すなわち、右左の導光板26、28を通して視認しうる視界は、1つのエリアだけで構成してもよいし、複数のエリアに区分けしてもよく、いずれかのエリアに、AR画像と立体(多面体、もしくは多面体以外の立体)の画像とが表示されればよい。
Modification 6:
In each embodiment and modification, a balloon as an AR image is displayed in the see-through display areas P1 and P11. Alternatively, an AR image may not be displayed in the see-through display areas P1 and P11. In each embodiment and the modification, the see-through display areas P1 and P11 and the interface areas P2 and P12 are provided. However, instead of this, only the see-through display areas P1 and P11 are provided, and the see-through display areas P1 and P11 are provided. P11 may include a list display field LT or a work standard LT11, and cubic switches SW and SW11. That is, the field of view that can be visually recognized through the right and left
・変形例7:
変形例6のシースルー表示エリアにキュービックスイッチを設けた構成において、キュービックスイッチ越しに外景を見易い構成としてもよい。具体的には、外景の明るさに基づいて、キュービックスイッチの輝度および/または大きさを変更することで、キュービックスイッチは勿論のこと、キュービックスイッチ越しの外景も見易くしてもよい。また、キュービックスイッチは、全体は薄い色で、エッジだけを協調した画像としてもよい。
Modification 7:
In the configuration in which the cubic switch is provided in the see-through display area of the modification example 6, the outside scene may be easily seen through the cubic switch. Specifically, by changing the luminance and / or size of the cubic switch based on the brightness of the outside scene, not only the cubic switch but also the outside scene through the cubic switch may be made easy to see. Further, the cubic switch may be a light color as a whole and an image in which only edges are coordinated.
・変形例8:
第1実施形態では、視界に含まれる複数の店舗の中から一の店舗を指定するに際し、キュービックスイッチSWを用いており、第2実施形態では、インターフェースエリアP12に表示される作業標準書LT11のページ送り/ページ戻し/拡大/縮小するに際し、キュービックスイッチSW11を用いていた。これに対して、複数の商品の中から一の商品を指定するに際し、キュービックスイッチを用いるようにしてもよいし、学習支援、スポーツ支援等の各種支援に用いられる図書のページ送り/ページ戻し/拡大/縮小するに際し、キュービックスイッチを用いるようにしてもよい。要は、AR画像に関わる処理を実行させるために立体(多面体、もしくは多面体以外の立体)のスイッチを用いる構成であれば、AR画像はどのようなものであってもよい。
-Modification 8:
In the first embodiment, the cubic switch SW is used to designate one store among a plurality of stores included in the field of view. In the second embodiment, the work standard document LT11 displayed in the interface area P12 is used. The cubic switch SW11 is used for page feed / page return / enlargement / reduction. On the other hand, a cubic switch may be used for designating one product among a plurality of products, and a book page forward / page return / used for various support such as learning support, sports support, etc. When enlarging / reducing, a cubic switch may be used. In short, any AR image may be used as long as a switch using a solid (polyhedron or a solid other than a polyhedron) is used to execute processing related to the AR image.
・変形例9:
各実施形態および変形例において、ハードウェアによって実現されるとした構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されるとした構成の一部をハードウェアに置き換えるようにしてもよい。
-Modification 9:
In each embodiment and modification, a part of the configuration realized by hardware may be replaced by software, and conversely, a part of the configuration realized by software may be replaced by hardware. It may be.
・変形例10:
上記実施形態では、HMDの構成について例示した。しかし、HMDの構成は、本発明の要旨を逸脱しない範囲において任意に定めることが可能であり、例えば、構成要素の追加・削除・変換等を行うことができる。
Modification 10:
In the said embodiment, it illustrated about the structure of HMD. However, the configuration of the HMD can be arbitrarily determined without departing from the gist of the present invention, and for example, addition / deletion / conversion of components can be performed.
上記実施形態では、右導光板26および左導光板28が外光を透過する、いわゆる透過型のHMD100について説明した。しかし、本発明は、例えば、外景を透過しないで画像を表示する、いわゆる非透過型のHMD100に適用することもできる。また、非透過型のHMD100には、カメラで外景を撮像して、その撮像画像を表示部に表示すれば良い。これらのHMD100では、上記実施形態で説明した実空間に重畳して画像を表示するAR(Augmented Reality)表示のほか、撮像した実空間の画像と仮想画像とを組み合わせて表示するMR(Mixed Reality)表示、あるいは、仮想空間を表示するVR(Virtual Reality)表示を行うこともできる。
In the above embodiment, the so-called
上記実施形態では、制御装置10および画像表示部20の機能部について説明したが、これらは任意に変更することができる。例えば、次のような態様を採用してもよい。制御装置10に記憶機能部122および制御機能部150を搭載し、画像表示部20には表示機能のみを搭載する態様。制御装置10と画像表示部20との両方に、記憶機能部122および制御機能部150を搭載する態様。制御装置10と画像表示部20とを一体化した態様。この場合、例えば、画像表示部20に制御装置10の構成要素が全て含まれ、眼鏡型のウェアラブルコンピューターとして構成される。制御装置10の代わりにスマートフォンや携帯型ゲーム機器を使用する態様。制御装置10と画像表示部20とを無線通信により接続し、接続ケーブル40を配した態様。この場合、例えば、制御装置10や画像表示部20に対する給電についても無線で実施してよい。
In the above embodiment, the functional units of the
・変形例11:
上記実施形態では、制御装置の構成について例示した。しかし、制御装置の構成は、本発明の要旨を逸脱しない範囲において任意に定めることが可能であり、例えば、構成要素の追加・削除・変換等を行うことができる。
Modification 11:
In the said embodiment, it illustrated about the structure of the control apparatus. However, the configuration of the control device can be arbitrarily determined without departing from the gist of the present invention, and for example, addition / deletion / conversion of components can be performed.
上記実施形態では、制御装置10が備える入力手段の一例について説明した。しかし、制御装置10は、例示した一部の入力手段を省略して構成されてもよく、上述しない他の入力手段を備えていてもよい。例えば、制御装置10は、操作スティック、キーボード、マウス等を備えていてもよい。例えば、制御装置10は、使用者の身体の動き等に対応付けられたコマンドを解釈する入力手段を備えていてもよい。使用者の身体の動き等とは、例えば、視線を検出する視線検出、手の動きを検出するジェスチャー検出、足の動きを検出するフットスイッチ等により取得できる。なお、視線検出は、例えば、画像表示部20の内側を撮像するカメラにより実現できる。ジェスチャー検出は、例えば、カメラ61により経時的に撮影された画像を画像解析することにより実現できる。
In the above embodiment, an example of the input unit provided in the
上記実施形態では、制御機能部150は、メインプロセッサー140が記憶機能部122内のコンピュータープログラムを実行することにより動作するとした。しかし、制御機能部150は種々の構成を採用することができる。例えば、コンピュータープログラムは、記憶機能部122に代えて、または記憶機能部122と共に、不揮発性記憶部121、EEPROM215、メモリー118、他の外部記憶装置(各種インターフェースに挿入されているUSBメモリー等の記憶装置、ネットワークを介して接続されているサーバー等の外部装置を含む)に格納されていてもよい。また、制御機能部150の各機能は、当該機能を実現するために設計されたASIC(Application Specific Integrated Circuit)を用いて実現されてもよい。
In the above embodiment, the
・変形例12:
上記実施形態では、画像表示部の構成について例示した。しかし、画像表示部の構成は、本発明の要旨を逸脱しない範囲において任意に定めることが可能であり、例えば、構成要素の追加・削除・変換等を行うことができる。
Modification 12:
In the said embodiment, it illustrated about the structure of the image display part. However, the configuration of the image display unit can be arbitrarily determined without departing from the gist of the present invention, and for example, addition / deletion / conversion of components can be performed.
図18は、変形例の画像表示部が備える光学系の構成を示す要部平面図である。変形例の画像表示部では、使用者の右眼REに対応したOLEDユニット221aと、左眼LEに対応したOLEDユニット241aと、が設けられている。右眼REに対応したOLEDユニット221aは、白色で発色するOLEDパネル223aと、OLEDパネル223aを駆動して発光させるOLED駆動回路225とを備えている。OLEDパネル223aと右光学系251との間には、変調素子227(変調装置)が配置されている。変調素子227は、例えば、透過型液晶パネルで構成され、OLEDパネル223aが発する光を変調して画像光Lを生成する。変調素子227を透過して変調された画像光Lは、右導光板26によって右眼REに導かれる。
FIG. 18 is a principal plan view showing the configuration of the optical system provided in the image display unit according to the modification. In the image display unit of the modified example, an
左眼LEに対応したOLEDユニット241aは、白色で発光するOLEDパネル243aと、OLEDパネル243aを駆動して発光させるOLED駆動回路245とを備えている。OLEDパネル243aと左光学系252との間には、変調素子247(変調装置)が配置されている。変調素子247は、例えば、透過型液晶パネルで構成され、OLEDパネル243aが発する光を変調して画像光Lを生成する。変調素子247を透過して変調された画像光Lは、左導光板28によって左眼LEに導かれる。変調素子227、247は、図示しない液晶ドライバー回路に接続される。この液晶ドライバー回路(変調装置駆動部)は、例えば変調素子227、247の近傍に配置される基板に実装される。
The
変形例の画像表示部によれば、右表示ユニット22および左表示ユニット24は、それぞれ、光源部としてのOLEDパネル223a、243aと、光源部が発する光を変調して複数の色光を含む画像光を出力する変調素子227、247と、を備える映像素子として構成される。なお、OLEDパネル223a、243aが発する光を変調する変調装置は、透過型液晶パネルが採用される構成に限定されない。例えば、透過型液晶パネルに代えて反射型液晶パネルを用いてもよいし、デジタル・マイクロミラー・デバイスを用いてもよいし、レーザー網膜投影型のHMD100としてもよい。
According to the image display unit of the modified example, the
上記実施形態では、眼鏡型の画像表示部20について説明したが、画像表示部20の態様は任意に変更することができる。例えば、画像表示部20を帽子のように装着する態様としてもよく、ヘルメット等の身体防護具に内蔵された態様としてもよい。また、画像表示部20を、自動車や飛行機等の車両、またはその他の交通手段に搭載されるHUD(Head Up Display)として構成してもよい。
In the above embodiment, the spectacle-type
上記実施形態では、画像光を使用者の眼に導く光学系として、右導光板26および左導光板28の一部に、ハーフミラー261、281により虚像が形成される構成を例示した。しかし、この構成は任意に変更することができる。たとえば、右導光板26および左導光板28の全面(または大部分)を占める領域に虚像が形成されてもよい。この場合、画像の表示位置を変化させる動作によって画像を縮小してもよい。また、本発明の光学素子は、ハーフミラー261、281を有する右導光板26および左導光板28に限定されず、画像光を使用者の眼に入射させる光学部品(例えば、回折格子、プリズム、ホログラフィー等)を用いる限り任意の態様を採用できる。
In the above embodiment, a configuration in which virtual images are formed by the half mirrors 261 and 281 on a part of the right
・変形例13:
本発明は、上述の実施形態や実施例、変形例に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態、実施例、変形例中の技術的特徴は、上述の課題の一部または全部を解決するために、あるいは、上述の効果の一部または全部を達成するために、適宜、差し替えや組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
Modification 13:
The present invention is not limited to the above-described embodiments, examples, and modifications, and can be realized with various configurations without departing from the spirit thereof. For example, the technical features in the embodiments, examples, and modifications corresponding to the technical features in each embodiment described in the summary section of the invention are to solve some or all of the above-described problems, or In order to achieve part or all of the above-described effects, replacement or combination can be performed as appropriate. Further, if the technical feature is not described as essential in the present specification, it can be deleted as appropriate.
1…情報処理システム、10…制御装置、12…点灯部、14…タッチパッド、16…方向キー、17…決定キー、18…電源スイッチ、19…バイブレーター、20…画像表示部、21…右保持部、22…右表示ユニット、23…左保持部、24…左表示ユニット、26…右導光板、27…前部フレーム、28…左導光板、30…ヘッドセット、32…右イヤホン、34…左イヤホン、40…接続ケーブル、46…コネクター、61…カメラ、63…マイク、65…照度センサー、67…LEDインジケーター、100…頭部装着型表示装置(HMD)、110…操作部、111…6軸センサー、113…磁気センサー、115…GPSレシーバー、117…無線通信部、118…メモリー、120…コントローラー基板、121…不揮発性記憶部、122…記憶機能部、123…設定データ、124…コンテンツデータ、130…電源部、132…バッテリー、134…電源制御回路、140…メインプロセッサー、145…画像処理部、147…表示制御部、149…撮像制御部、150…制御機能部、151…入出力制御部、153…通信制御部、155…店舗入力処理部、155a…多面体画像表示部、155b…多面体向き切替部、155c…命令実行部、180…音声コーデック、182…音声インターフェース、184…外部コネクター、186…外部メモリーインターフェース、188…USBコネクター、192…センサーハブ、196…インターフェース、210…表示ユニット基板、211…インターフェース、213…受信部、215…EEPROM、217…温度センサー、221、221a…OLEDユニット、223、223a…OLEDパネル、225…OLED駆動回路、227…変調素子、230…表示ユニット基板、231…インターフェース、233…受信部、235…6軸センサー、237…磁気センサー、239…温度センサー、241、241a…OLEDユニット、243、243a…OLEDパネル、245…OLED駆動回路、247…変調素子、251…右光学系、252…左光学系、261…ハーフミラー、281…ハーフミラー、300…店舗サーバー、310…CPU、312…周辺店舗情報提供部、314…店舗案内部、320…記憶部、322…店舗データベース、324…地図データベース、330…ROM、340…RAM、360…バス、 B1…[店舗名]ボタン、B2…[詳細]ボタン、BS…通信キャリア、FG…指先、INT…インターネット、LT…一覧表示欄、OL…外光、P1…シースルー表示エリア、 P11…シースルー表示エリア、P12…インターフェースエリア、SW…キュービックスイッチ、SW11…キュービックスイッチ、SW21…キュービックスイッチ、SW31…キュービックスイッチ、SW41…キュービックスイッチ
DESCRIPTION OF
Claims (10)
前記表示部に画像を表示させる表示制御部と、
前記表示された画像に関わる処理を実行する処理部と、
を備え、
前記処理部は、
多面体の各面に命令が割り当てられた多面体画像を、前記表示部に表示させる多面体画像表示部と、
前記多面体画像に対する操作を受けて、前記多面体の表示される向きを切り替える多面体向き切替部と、
前記多面体画像において所定の向きの面に割り当てられた前記命令を実行する命令実行部と、
を備える頭部装着型表示装置。 A head-mounted display device having a display unit,
A display control unit for displaying an image on the display unit;
A processing unit that executes processing related to the displayed image;
With
The processor is
A polyhedron image display unit for displaying a polyhedron image in which an instruction is assigned to each surface of the polyhedron on the display unit;
In response to an operation on the polyhedron image, a polyhedron direction switching unit that switches a displayed direction of the polyhedron;
A command execution unit that executes the command assigned to a plane in a predetermined direction in the polyhedral image;
A head-mounted display device comprising:
前記表示部は、外景を視認可能な構成であり、
前記処理部は、視認される前記外景に関わりのある関連画像を前記画像として、前記表示部に表示させる、頭部装着型表示装置。 The head-mounted display device according to claim 1,
The display unit is configured to visually recognize an outside scene,
The processing unit is a head-mounted display device that causes the display unit to display, as the image, a related image related to the visually recognized outside scene.
前記関連画像は、視認される前記外景に含まれる複数の店舗を識別するための識別情報を含み、
前記処理部によって実行される処理は、前記複数の店舗の中から一の店舗を指定する店舗入力処理である、頭部装着型表示装置。 The head-mounted display device according to claim 2,
The related image includes identification information for identifying a plurality of stores included in the visually recognized outside scene,
The head-mounted display device, wherein the processing executed by the processing unit is store input processing for designating one store from the plurality of stores.
前記関連画像は、視認される前記外景とかかわりのある作業を支援するための支援画像を含み、
前記処理部によって実行される処理は、前記支援画像を順次切り替える処理である、頭部装着型表示装置。 The head-mounted display device according to claim 2,
The related image includes a support image for supporting a work related to the visually recognized outside scene,
The head-mounted display device, wherein the processing executed by the processing unit is processing for sequentially switching the support images.
前記多面体画像は、正六面体の3D画像であり、
前記所定の向きの面は、使用者と向き合う面である、頭部装着型表示装置。 The head-mounted display device according to any one of claims 1 to 4,
The polyhedron image is a regular hexahedron 3D image,
The head-mounted display device, wherein the predetermined orientation surface is a surface facing a user.
前記多面体画像に対する操作は、指先でフリックする操作である、頭部装着型表示装置。 The head-mounted display device according to any one of claims 1 to 5,
The head-mounted display device, wherein the operation on the polyhedral image is an operation of flicking with a fingertip.
前記表示部に画像を表示させる表示制御部と、
前記表示された画像に関わる処理を実行する処理部と、
を備え、
前記処理部は、
立体の有する各面に命令が割り当てられた立体画像を、前記表示部に表示させる立体画像表示部と、
前記立体画像に対する操作を受けて、前記立体の表示される向きを切り替える立体向き切替部と、
前記立体画像において所定の向きの面に割り当てられた前記命令を実行する命令実行部と、
を備える頭部装着型表示装置。 A head-mounted display device having a display unit,
A display control unit for displaying an image on the display unit;
A processing unit that executes processing related to the displayed image;
With
The processor is
A stereoscopic image display unit for displaying a stereoscopic image in which a command is assigned to each surface of the stereoscopic unit on the display unit;
A three-dimensional direction switching unit that receives an operation on the three-dimensional image and switches a direction in which the three-dimensional image is displayed;
A command execution unit that executes the command assigned to a surface in a predetermined direction in the stereoscopic image;
A head-mounted display device comprising:
前記表示部に画像を表示させる工程と、
前記表示された画像に関わる処理を実行する工程と、
を備え、
前記処理を実行する工程は、
多面体の各面に命令が割り当てられた多面体画像を、前記表示部に表示させる工程と、
前記多面体画像に対する操作を受けて、前記多面体の表示される向きを切り替える工程と、
前記多面体画像において所定の向きの面に割り当てられた前記命令を実行する工程と、
を備える頭部装着型表示装置の制御方法。 A method for controlling a head-mounted display device including a display unit,
Displaying an image on the display unit;
Executing a process related to the displayed image;
With
The step of executing the process includes:
Displaying a polyhedral image in which an instruction is assigned to each surface of the polyhedron on the display unit;
Receiving the operation on the polyhedron image, and switching the displayed direction of the polyhedron;
Executing the command assigned to a face in a predetermined orientation in the polyhedral image;
A method for controlling a head-mounted display device comprising:
前記表示部に画像を表示させる機能と、
前記表示された画像に関わる処理を実行する機能と、
をコンピューターに実現させ、
前記処理を実行する機能は、
多面体の各面に命令が割り当てられた多面体画像を、前記表示部に表示させる機能と、
前記多面体画像に対する操作を受けて、前記多面体の表示される向きを切り替える機能と、
前記多面体画像において所定の向きの面に割り当てられた前記命令を実行する機能と、
を備えるコンピュータープログラム。 A computer program for controlling a head-mounted display device having a display unit,
A function of displaying an image on the display unit;
A function of executing processing related to the displayed image;
To the computer,
The function of executing the process is as follows:
A function of causing the display unit to display a polyhedral image in which an instruction is assigned to each surface of the polyhedron;
A function of switching the display direction of the polyhedron in response to an operation on the polyhedron image;
A function for executing the command assigned to a plane in a predetermined direction in the polyhedral image;
A computer program comprising
前記表示部に画像を表示させる機能と、
前記表示された画像に関わる処理を実行する機能と、
をコンピューターに実現させ、
前記処理を実行する機能は、
立体の各面に命令が割り当てられた立体画像を、前記表示部に表示させる機能と、
前記立体画像に対する操作を受けて、前記立体の表示される向きを切り替える機能と、
前記立体画像において所定の向きの面に割り当てられた前記命令を実行する機能と、
を備えるコンピュータープログラム。 A computer program for controlling a head-mounted display device having a display unit,
A function of displaying an image on the display unit;
A function of executing processing related to the displayed image;
To the computer,
The function of executing the process is as follows:
A function of displaying a stereoscopic image in which a command is assigned to each surface of the stereoscopic image on the display unit;
A function of switching the direction in which the stereoscopic image is displayed in response to an operation on the stereoscopic image;
A function of executing the command assigned to a plane in a predetermined direction in the stereoscopic image;
A computer program comprising
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016068133A JP2017182413A (en) | 2016-03-30 | 2016-03-30 | Head-mounted type display device, control method for the same, and computer program |
US15/466,089 US20170289533A1 (en) | 2016-03-30 | 2017-03-22 | Head mounted display, control method thereof, and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016068133A JP2017182413A (en) | 2016-03-30 | 2016-03-30 | Head-mounted type display device, control method for the same, and computer program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017182413A true JP2017182413A (en) | 2017-10-05 |
Family
ID=60007065
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016068133A Pending JP2017182413A (en) | 2016-03-30 | 2016-03-30 | Head-mounted type display device, control method for the same, and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017182413A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019120979A (en) * | 2017-12-28 | 2019-07-22 | Dynabook株式会社 | Electronic apparatus |
JP7432534B2 (en) | 2018-06-27 | 2024-02-16 | コロラド・ステート・ユニバーシティ・リサーチ・ファウンデーション | Methods and apparatus for efficiently rendering, managing, recording, and playing back interactive, multi-user virtual reality experiences |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007156408A (en) * | 2005-12-08 | 2007-06-21 | Syntax Brillian Corp | On-screen display for configuring display apparatus by using graphic icon |
JP2008123376A (en) * | 2006-11-14 | 2008-05-29 | Trust Technology:Kk | Menu display, information processor, and menu display method |
US20110022988A1 (en) * | 2009-07-27 | 2011-01-27 | Lg Electronics Inc. | Providing user interface for three-dimensional display device |
JP2011118683A (en) * | 2009-12-03 | 2011-06-16 | Toshiba Tec Corp | Cooking assisting terminal and program |
US20120113095A1 (en) * | 2010-11-05 | 2012-05-10 | Soonjae Hwang | Mobile terminal, method for controlling mobile terminal, and method for displaying image of mobile terminal |
JP2012203669A (en) * | 2011-03-25 | 2012-10-22 | Sony Corp | Terminal device, information processor, object identification method, program and object identification system |
JP2014071756A (en) * | 2012-09-28 | 2014-04-21 | Brother Ind Ltd | Work assistance system and program |
JP2015519673A (en) * | 2012-06-14 | 2015-07-09 | クアルコム,インコーポレイテッド | Interaction with user interface for transparent head mounted display |
JP2015531661A (en) * | 2012-09-17 | 2015-11-05 | デピュイ・シンセス・プロダクツ・インコーポレイテッド | Systems and methods for surgery and intervention planning, support, postoperative follow-up, and functional recovery tracking |
JP2016039599A (en) * | 2014-08-11 | 2016-03-22 | セイコーエプソン株式会社 | Head mounted display, information system, control method for head mounted display, and computer program |
-
2016
- 2016-03-30 JP JP2016068133A patent/JP2017182413A/en active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007156408A (en) * | 2005-12-08 | 2007-06-21 | Syntax Brillian Corp | On-screen display for configuring display apparatus by using graphic icon |
JP2008123376A (en) * | 2006-11-14 | 2008-05-29 | Trust Technology:Kk | Menu display, information processor, and menu display method |
US20110022988A1 (en) * | 2009-07-27 | 2011-01-27 | Lg Electronics Inc. | Providing user interface for three-dimensional display device |
JP2011118683A (en) * | 2009-12-03 | 2011-06-16 | Toshiba Tec Corp | Cooking assisting terminal and program |
US20120113095A1 (en) * | 2010-11-05 | 2012-05-10 | Soonjae Hwang | Mobile terminal, method for controlling mobile terminal, and method for displaying image of mobile terminal |
JP2012203669A (en) * | 2011-03-25 | 2012-10-22 | Sony Corp | Terminal device, information processor, object identification method, program and object identification system |
JP2015519673A (en) * | 2012-06-14 | 2015-07-09 | クアルコム,インコーポレイテッド | Interaction with user interface for transparent head mounted display |
JP2015531661A (en) * | 2012-09-17 | 2015-11-05 | デピュイ・シンセス・プロダクツ・インコーポレイテッド | Systems and methods for surgery and intervention planning, support, postoperative follow-up, and functional recovery tracking |
JP2014071756A (en) * | 2012-09-28 | 2014-04-21 | Brother Ind Ltd | Work assistance system and program |
JP2016039599A (en) * | 2014-08-11 | 2016-03-22 | セイコーエプソン株式会社 | Head mounted display, information system, control method for head mounted display, and computer program |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019120979A (en) * | 2017-12-28 | 2019-07-22 | Dynabook株式会社 | Electronic apparatus |
JP7432534B2 (en) | 2018-06-27 | 2024-02-16 | コロラド・ステート・ユニバーシティ・リサーチ・ファウンデーション | Methods and apparatus for efficiently rendering, managing, recording, and playing back interactive, multi-user virtual reality experiences |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11310483B2 (en) | Display apparatus and method for controlling display apparatus | |
US20170289533A1 (en) | Head mounted display, control method thereof, and computer program | |
JP7087481B2 (en) | Head-mounted display device, display control method, and computer program | |
US10635182B2 (en) | Head mounted display device and control method for head mounted display device | |
US10976836B2 (en) | Head-mounted display apparatus and method of controlling head-mounted display apparatus | |
US20180259775A1 (en) | Transmission-type display device, display control method, and computer program | |
US20230251490A1 (en) | Head-mounted type display device and method of controlling head-mounted type display device | |
JP2018160735A (en) | Transmission type display apparatus, display control method, and computer program | |
US10567730B2 (en) | Display device and control method therefor | |
JP2018142168A (en) | Head mounted type display device, program, and control method for head mounted type display device | |
JP2018142857A (en) | Head mounted display device, program, and control method of head mounted display device | |
JP2018082363A (en) | Head-mounted display device and method for controlling the same, and computer program | |
JP2018097160A (en) | Display system, display device, and control method for display device | |
JP2019164420A (en) | Transmission type head-mounted display device, control method of transmission type head-mounted display device, and computer program for control of transmission type head-mounted display device | |
JP2019082891A (en) | Head mounted display, display control method, and computer program | |
JP2018124651A (en) | Display system | |
JP2018124721A (en) | Head-mounted type display device and control method of head-mounted type display device | |
JP6776578B2 (en) | Input device, input method, computer program | |
JP2018084886A (en) | Head mounted type display device, head mounted type display device control method, computer program | |
US10884498B2 (en) | Display device and method for controlling display device | |
JP6996115B2 (en) | Head-mounted display device, program, and control method of head-mounted display device | |
JP2017182413A (en) | Head-mounted type display device, control method for the same, and computer program | |
JP6932917B2 (en) | Head-mounted display, program, and head-mounted display control method | |
JP2019053644A (en) | Head mounted display device and control method for head mounted display device | |
JP6784056B2 (en) | Head-mounted display, display system, head-mounted display control method, and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190215 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190911 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191029 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191213 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200114 |