JP6554948B2 - 表示装置、表示装置の制御方法、及び、プログラム - Google Patents

表示装置、表示装置の制御方法、及び、プログラム Download PDF

Info

Publication number
JP6554948B2
JP6554948B2 JP2015135738A JP2015135738A JP6554948B2 JP 6554948 B2 JP6554948 B2 JP 6554948B2 JP 2015135738 A JP2015135738 A JP 2015135738A JP 2015135738 A JP2015135738 A JP 2015135738A JP 6554948 B2 JP6554948 B2 JP 6554948B2
Authority
JP
Japan
Prior art keywords
unit
display
item
image
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015135738A
Other languages
English (en)
Other versions
JP2017016599A (ja
Inventor
和夫 西沢
和夫 西沢
高野 正秀
正秀 高野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2015135738A priority Critical patent/JP6554948B2/ja
Priority to US15/130,281 priority patent/US10281976B2/en
Publication of JP2017016599A publication Critical patent/JP2017016599A/ja
Priority to US16/256,257 priority patent/US10664044B2/en
Application granted granted Critical
Publication of JP6554948B2 publication Critical patent/JP6554948B2/ja
Priority to US16/848,171 priority patent/US11073901B2/en
Priority to US17/356,763 priority patent/US11301034B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本発明は、表示装置、表示装置の制御方法、及び、プログラムに関する。
従来、作業手順に関する情報を含むシナリオに従って、作業手順の実行を支援する方式が知られている(例えば、特許文献1参照)。特許文献1記載の方式では、作業手順の詳細に関するアクション・シーケンスを含むシナリオに従って作業一覧等を表示し、作業手順の実行を支援する。また、実行状態を画面に表示する。
特開2013−29985号公報
特許文献1に記載された方式では、作業を行う作業者は、作業一覧等が表示された画面を見て作業を行う。この場合、作業者は、作業の対象である場所や対象物と、画面との両方を見る必要があった。このように、場所や物体を対象として動作する人に対し、動作に関連する情報を見せるためには、対象となる人(例えば、作業者)は動作の対象である場所や物体と動作に関連する情報とを見るために視線の移動等をしなければならない。従って、場所や物体を対象として動作する際に、動作に関する情報を手軽に見せることが可能な手法が望まれていた。
本発明は上記事情に鑑みてなされたものであり、場所や物体を対象として動作する人に対して、動作に関する情報を手軽に見せられるようにすることを目的とする。
上記目的を達成するために、本発明の表示装置は、外景を透過して視認可能に画像を表示する表示部と、入力を認識する入力部と、前記表示部に項目を表示させ、前記入力部で認識した入力に応じて、前記表示部における表示を変化させる制御部と、を備えることを特徴とする。
本発明によれば、表示装置を見る人が、表示される項目を見て入力部により認識可能な入力を行うことにより、項目の表示を変化させることができる。これにより、例えば、場所や物体を対象として動作する人が、表示部により項目を見ることができ、動作の対象である場所や物体を、表示部を透過して視認できる。このように、視線を大きく移動するなどの負荷の大きい動きを行わなくても、外景である実空間に存在する対象と、項目とを見ることができ、表示を変化させることができる。
また、本発明は、上記表示装置において、前記制御部は、項目を含む項目データに基づき、前記表示部に前記項目を表示させること、を特徴とする。
本発明によれば、様々な数、様々な種類の項目を表示できる。
また、本発明は、上記表示装置において、前記項目データは、動作に対応する複数の前記項目を含み、それぞれの前記項目には前記動作の実行順に対応する前記項目の順序が設定されること、を特徴とする。
本発明によれば、表示装置を見る人に対し、項目の表示態様によって動作の実行順を知らせることができる。
また、本発明は、上記表示装置において、前記制御部は、複数の前記項目をリスト形式で配置して前記表示部に表示させ、前記項目は前記項目に設定された順序に従って配置されること、を特徴とする。
本発明によれば、表示装置を見る人に対し、表示される複数の項目の配置によって、動作の実行順を知らせることができる。
また、本発明は、上記表示装置において、前記制御部は、前記項目に設定された順序で前記項目を順次表示させること、を特徴とする。
本発明によれば、表示装置を見る人に対し、項目の表示順によって動作の実行順を知らせることができる。
また、本発明は、上記表示装置において、前記制御部は、前記項目データに含まれる前記項目に対応する動作の実行順に関する情報を含む順序データに基づき、画像を前記表示部に表示させること、を特徴とする。
本発明によれば、表示装置を見る人に対し、動作の実行順を画像によって知らせることができる。
また、本発明は、上記表示装置において、前記項目データと前記順序データとを対応付けて記憶する順序データ記憶部を備えること、を特徴とする。
本発明によれば、動作に関する項目に関するデータ及び動作の実行順に関するデータを容易に読み出して利用できる。
また、本発明は、上記表示装置において、前記入力部は、前記表示部を透過して視認される範囲の入力を検出して入力位置を特定し、前記制御部は、前記入力部で特定した入力位置に対応して前記表示部における表示を変化させること、を特徴とする。
本発明によれば、入力部が認識可能な入力が行われる場合に、入力位置に対応して表示を変化させることができる。
また、本発明は、上記表示装置において、前記制御部は、前記入力部で特定した入力位置に対応する位置に表示中の前記項目に指標を重ねて表示させること、を特徴とする。
本発明によれば、入力を行うことにより、表示される項目の表示態様を変化させることができる。
また、本発明は、上記表示装置において、前記外景の撮像画像または前記外景から集音される音声に基づき、前記項目に対応する動作の実行状態を検出する状態検出部を備え、前記制御部は、前記状態検出部が検出した実行状態に応じて、前記表示部によって表示中の前記項目の表示状態を変化させること、を特徴とする。
本発明によれば、動作の実行状態を検出し、検出した実行状態に対応して表示状態を変化させることができる。
また、本発明は、上記表示装置において、前記動作の実行状態に係る情報を含む実行データを記憶する実行データ記憶部を備え、前記制御部は、前記項目データに含まれる前記項目に対応する動作の実行データを、前記項目データに対応付けて前記実行データ記憶部に記憶させ、前記実行データ記憶部から前記実行データを読み出した場合に、読み出した実行データに基づき、前記表示部によって表示する前記項目の表示状態を制御すること、を特徴とする。
本発明によれば、動作の実行状態に関するデータを記憶し、このデータを読み出して表示に反映することによって、実行状態に関する記録と、記録した実行状態の呼び出しを行える。
また、本発明は、上記表示装置において、前記外景における対象を検出する対象検出部を備え、前記制御部は、前記対象検出部で検出された前記対象が前記表示部を透過して視認される位置に対応させて、前記項目データに含まれる項目を表示させること、を特徴とする。
本発明によれば、動作の対象の場所や物体と項目との両方を容易に視認できる。
また、本発明は、上記表示装置において、外部の機器と通信する通信部を備え、前記通信部により前記外部の機器から前記項目データを受信して取得すること、を特徴とする。
本発明によれば、項目に関するデータを外部から取得できる。
また、本発明は、上記表示装置において、前記通信部は近距離無線通信を実行すること、を特徴とする。
本発明によれば、近距離無線通信により項目に関するデータを外部から取得できる。また、近距離無線通信を行える距離が限られるため、場所に関連付けられたデータを取得できる。
また、上記目的を達成するために、本発明は、外景を透過して視認可能に画像を表示する表示部を有する表示装置の制御方法であって、複数の項目を含むリストのデータを取得し、前記表示部を透過して視認される範囲の入力を検出して入力位置を特定し、項目を含む項目データに基づき、前記表示部に前記項目を表示させ、特定した入力位置に対応する位置に表示中の前記項目の表示状態を変化させること、を特徴とする。
本発明によれば、表示装置を見る人が、表示される項目を見て入力部により認識可能な入力を行うことにより、項目の表示を変化させることができる。これにより、例えば、場所や物体を対象として動作する人が、表示部により項目を見ることができ、動作の対象である場所や物体を、表示部を透過して視認できる。このように、視線を大きく移動するなどの負荷の大きい動きを行わなくても、外景である実空間に存在する対象と、項目とを見ることができ、表示を変化させることができる。
また、本発明は、外景を透過して視認可能に画像を表示する表示部を有する表示装置を制御するコンピューターが実行可能なプログラムとして構成できる。このプログラムは、前記コンピューターにより、前記表示部を透過して視認される範囲の入力を検出して入力位置を特定し、項目を含む項目データに基づき、前記表示部に前記項目を表示させ、特定した入力位置に対応する位置に表示中の前記項目の表示状態を変化させるプログラムである。また、本発明は、このプログラムを記憶した記憶媒体として構成してもよい。
第1実施形態のHMDの外観構成を示す説明図。 画像表示部の光学系の構成を示す図。 画像表示部の要部構成を示す図。 HMDを構成する各部の機能ブロック図。 記憶部が記憶するデータの構成例を示す模式図であり、(A)はシナリオデータ及び履歴データの構成例を示し、(B)はシナリオデータ及び履歴データの別の構成例を示す。 HMDの入力方法の説明図であり、(A)はバーチャルキーボードを使用する入力例を示し、(B)は位置入力の例を示す。 HMDの表示例を示す図。 第1実施形態のHMDの動作を示すフローチャート。 第2実施形態のHMDの動作を示すフローチャート。
[第1実施形態]
図1は、本発明を適用した実施形態に係るHMD(ヘッドマウントディスプレイ,Head Mounted Display)100の外観構成を示す説明図である。
HMD100は、使用者の頭部に装着された状態で使用者に虚像を視認させる画像表示部20と、画像表示部20を制御する制御装置10と、を備える表示装置である。制御装置10は、使用者がHMD100を操作するコントローラーとしても機能する。
画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状を有する。画像表示部20は、右保持部21と、右表示駆動部22と、左保持部23と、左表示駆動部24と、右光学像表示部26と、左光学像表示部28と、右カメラ61(撮像部)と、左カメラ62(撮像部)と、マイク63とを備える。右光学像表示部26及び左光学像表示部28は、それぞれ、使用者が画像表示部20を装着した際に使用者の右及び左の眼前に位置するように配置されている。右光学像表示部26の一端と左光学像表示部28の一端とは、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置で、互いに連結されている。
右保持部21は、右光学像表示部26の他端である端部ERから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。同様に、左保持部23は、左光学像表示部28の他端である端部ELから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。右保持部21及び左保持部23は、眼鏡のテンプル(つる)のようにして、使用者の頭部に画像表示部20を保持する。
右表示駆動部22と左表示駆動部24とは、使用者が画像表示部20を装着した際の使用者の頭部に対向する側に配置されている。なお、右表示駆動部22及び左表示駆動部24を総称して単に「表示駆動部」とも呼び、右光学像表示部26及び左光学像表示部28を総称して単に「光学像表示部」とも呼ぶ。
表示駆動部22,24は、液晶ディスプレイ241,242(Liquid Crystal Display、以下「LCD241,242」と呼ぶ)、図2〜図4を参照して後述する投写光学系251,252等を含む。
右光学像表示部26及び左光学像表示部28は、導光板261,262(図2)と、調光板20Aとを備える。導光板261,262は、光透過性の樹脂等によって形成され、表示駆動部22,24が出力する画像光を、使用者の眼に導く。調光板20Aは、薄板状の光学素子であり、使用者の眼の側とは反対の側である画像表示部20の表側を覆うように配置される。調光板20Aは、光透過性がほぼ無いもの、透明に近いもの、光量を減衰させて光を透過するもの、特定の波長の光を減衰又は反射するもの等、種々のものを用いることができる。調光板20Aの光学特性(光透過率など)を適宜選択することにより、外部から右光学像表示部26及び左光学像表示部28に入射する外光量を調整して、虚像の視認のしやすさを調整できる。本実施形態では、少なくとも、HMD100を装着した使用者が外の景色を視認できる程度の光透過性を有する調光板20Aを用いる場合について説明する。調光板20Aは、右導光板261及び左導光板262を保護し、右導光板261及び左導光板262の損傷や汚れの付着等を抑制する。
調光板20Aは、右光学像表示部26及び左光学像表示部28に対し着脱可能としてもよく、複数種類の調光板20Aを交換して装着可能としてもよいし、省略してもよい。
右カメラ61は、HMD100の前面において右保持部21側の端部に配置される。また、左カメラ62は、HMD100の前面において左保持部23側の端部に配置される。右カメラ61、左カメラ62は、CCDやCMOS等の撮像素子及び撮像レンズ等を備えるデジタルカメラであり、単眼カメラであってもステレオカメラであってもよい。
右カメラ61及び左カメラ62は、HMD100の表側方向、換言すれば、HMD100を装着した状態における使用者の視界方向の少なくとも一部の外景を撮像する。別の表現では、右カメラ61及び左カメラ62の少なくとも一方は、使用者の視界と重なる範囲または方向を撮像する。より詳細には、右カメラ61及び左カメラ62の少なくとも一方は、使用者が注視する方向を撮像する。右カメラ61及び左カメラ62の画角の広さは適宜設定可能であるが、本実施形態では、後述するように、使用者が右光学像表示部26、左光学像表示部28を通して視認する外界を含む画角である。さらに、調光板20Aを通した使用者の視界の全体を撮像できるように右カメラ61、左カメラ62の撮像範囲が設定されているとより好ましい。
右カメラ61及び左カメラ62は、制御部140が備える撮像制御部161(図4)の制御に従って撮像を実行し、撮像画像データを撮像制御部161に出力する。
ここで、HMD100は、予め設定された測定方向に位置する測定対象物までの距離を検出する距離センサー(図示略)を備えてもよい。距離センサーは、例えば、右光学像表示部26と左光学像表示部28との境目部分に配置される。この場合、使用者が画像表示部20を装着した状態で、距離センサー64の位置は、水平方向においては使用者の両眼のほぼ中間であり、鉛直方向においては使用者の両眼より上である。距離センサー64の測定方向は、例えば、HMD100の表側方向で、右カメラ61及び左カメラ62の撮像方向と重複する方向とすることができる。
距離センサーは、例えば、LEDやレーザーダイオード等の光源と、光源が発する光が測定対象物に反射する反射光を受光する受光部とを有する構成とすることができる。距離センサーは、制御部140の制御に従い、三角測距処理や時間差に基づく測距処理を実行すればよい。また、距離センサーは、超音波を発する音源と、測定対象物で反射する超音波を受信する検出部とを備える構成としてもよい。この場合、距離センサーは、制御部140の制御に従い、超音波の反射までの時間差に基づき測距処理を実行すればよい。
図2は、画像表示部20が備える光学系の構成を示す要部平面図である。図2には説明のため使用者の左眼LE及び右眼REを図示する。
左表示駆動部24は、LED等の光源と拡散板とを有する左バックライト222、左バックライト222の拡散板から発せられる光の光路上に配置される透過型の左LCD242、及び、左LCD242を透過した画像光Lを導くレンズ群等を備えた左投写光学系252を備える。左LCD242は、複数の画素をマトリクス状に配置した透過型液晶パネルである。
左投写光学系252は、左LCD242から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、左導光板262に入射される。左導光板262は、画像光Lを反射する複数の反射面が形成されたプリズムであり、画像光Lは、左導光板262の内部において複数回の反射を経て左眼LE側に導かれる。左導光板262には、左眼LEの眼前に位置するハーフミラー262A(反射面)が形成される。
ハーフミラー262Aで反射した画像光Lは左眼LEに向けて左光学像表示部28から射出され、この画像光Lが左眼LEの網膜に像を結び、使用者に画像を視認させる。
右表示駆動部22は、左表示駆動部24と左右対称に構成される。右表示駆動部22は、LED等の光源と拡散板とを有する右バックライト221、右バックライト221の拡散板から発せられる光の光路上に配置される透過型の右LCD241、及び、右LCD241を透過した画像光Lを導くレンズ群等を備えた右投写光学系251を備える。右LCD241は、複数の画素をマトリクス状に配置した透過型液晶パネルである。
右投写光学系251は、右LCD241から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、右導光板261に入射される。右導光板261は、画像光Lを反射する複数の反射面が形成されたプリズムであり、画像光Lは、右導光板261の内部において複数回の反射を経て右眼RE側に導かれる。右導光板261には、右眼REの眼前に位置するハーフミラー261A(反射面)が形成される。
ハーフミラー261Aで反射した画像光Lは右眼REに向けて右光学像表示部26から射出され、この画像光Lが右眼REの網膜に像を結び、使用者に画像を視認させる。
使用者の右眼REには、ハーフミラー261Aで反射した画像光Lと、調光板20Aを透過した外光OLとが入射する。左眼LEには、ハーフミラー262Aで反射した画像光Lと、調光板20Aを透過した外光OLとが入射する。このように、HMD100は、内部で処理した画像の画像光Lと外光OLとを重ねて使用者の眼に入射させ、使用者にとっては、調光板20Aを透かして外景が見え、この外景に重ねて、画像光Lによる画像が視認される。このように、HMD100は、シースルー型の表示装置として機能する。
なお、左投写光学系252と左導光板262とを総称して「左導光部」とも呼び、右投写光学系251と右導光板261とを総称して「右導光部」と呼ぶ。右導光部及び左導光部の構成は上記の例に限定されず、画像光を用いて使用者の眼前に虚像を形成する限りにおいて任意の方式を用いることができ、例えば、回折格子を用いても良いし、半透過反射膜を用いても良い。
画像表示部20は、制御装置10に接続部40を介して接続する。接続部40は、制御装置10に接続される本体コード48、右コード42、左コード44、及び、連結部材46を備える。右コード42及び左コード44は、本体コード48が2本に分岐したコードである。右コード42は、右保持部21の延伸方向の先端部APから右保持部21の筐体内に挿入され、右表示駆動部22に接続される。同様に、左コード44は、左保持部23の延伸方向の先端部APから左保持部23の筐体内に挿入され、左表示駆動部24に接続される。
連結部材46は、本体コード48と、右コード42及び左コード44との分岐点に設けられ、イヤホンプラグ30を接続するためのジャックを有する。イヤホンプラグ30からは、右イヤホン32及び左イヤホン34が延伸する。イヤホンプラグ30の近傍にはマイク63が設けられる。イヤホンプラグ30からマイク63までは一本のコードにまとめられ、マイク63からコードが分岐して、右イヤホン32と左イヤホン34のそれぞれに繋がる。
マイク63は、例えば図1に示すように、マイク63の集音部が使用者の視線方向を向くように配置され、音声を集音して、音声信号を音声処理部187(図4)に出力する。マイク63は、例えばモノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであってもよいし、無指向性のマイクであってもよい。
右コード42、左コード44、及び、本体コード48は、デジタルデータを伝送可能なものであればよく、例えば金属ケーブルや光ファイバーで構成できる。また、右コード42と左コード44とを一本のコードにまとめた構成としてもよい。
画像表示部20と制御装置10とは、接続部40を介して各種信号を伝送する。本体コード48の連結部材46とは反対側の端部、及び、制御装置10には、互いに嵌合するコネクター(図示略)が設けられる。本体コード48のコネクターと制御装置10のコネクターとを嵌合し、或いは、この嵌合を外すことで、制御装置10と画像表示部20とを接離できる。
制御装置10は、HMD100を制御する。制御装置10は、決定キー11、点灯部12、表示切替キー13、輝度切替キー15、方向キー16、メニューキー17、及び電源スイッチ18を含むスイッチ類を備える。また、制御装置10は、使用者が手指で操作するトラックパッド14を備える。
決定キー11は、押下操作を検出して、制御装置10で操作された内容を決定する信号を出力する。点灯部12は、LED(Light Emitting Diode)等の光源を備え、光源の点灯状態により、HMD100の動作状態(例えば、電源のON/OFF)を通知する。表示切替キー13は、押下操作に応じて、例えば、画像の表示モードの切り替えを指示する信号を出力する。
トラックパッド14は、接触操作を検出する操作面を有し、操作面に対する操作に応じて操作信号を出力する。操作面における検出方式は限定されず、静電式、圧力検出式、光学式等を採用できる。輝度切替キー15は、押下操作に応じて画像表示部20の輝度の増減を指示する信号を出力する。方向キー16は、上下左右方向に対応するキーへの押下操作に応じて操作信号を出力する。電源スイッチ18は、HMD100の電源オン/オフを切り替えるスイッチである。
図3は、画像表示部20の要部構成を示す図であり、(A)は画像表示部20を使用者の頭部側から見た要部斜視図、(B)は右カメラ61及び左カメラ62の画角の説明図である。なお、図3(A)では画像表示部20に繋がる右コード42、左コード44等の図示を省略する。
図3(A)は、画像表示部20の使用者の頭部に接する側、言い換えれば使用者の右眼RE及び左眼LEに見える側である。別の言い方をすれば、右光学像表示部26及び左光学像表示部28の裏側が見えている。
この図3(A)では、使用者の右眼REに画像光を照射するハーフミラー261A、及び、左眼LEに画像光を照射するハーフミラー262Aが、略四角形の領域として見える。また、ハーフミラー261A、262Aを含む右光学像表示部26及び左光学像表示部28の全体が、上述したように外光を透過する。このため、使用者には、右光学像表示部26及び左光学像表示部28の全体を透過して外景が視認され、ハーフミラー261A、262Aの位置に矩形の表示画像が視認される。
右カメラ61は、上記のように右保持部21側の端部に、画像表示部20の前方を向いて配置され、左カメラ62は、左保持部23側の端部に配置される。
図3(B)は、右カメラ61、及び左カメラ62の位置を、使用者の右眼RE及び左眼LEとともに平面視で模式的に示す図である。右カメラ61の画角(撮像範囲)をCR、左カメラ62の画角(撮像範囲)をCLで示す。なお、図3(B)には水平方向の画角CR、CLを示すが、右カメラ61及び左カメラ62の実際の画角は、一般的なデジタルカメラと同様に上下方向に拡がる。
画角CRと画角CLとは、画像表示部20の中央位置に対してほぼ左右対称であり、画角CRと画角CLは、いずれも画像表示部20の中央位置の真正面方向を含む。このため、画像表示部20の中央位置の正面で、画角CR、CLが重なる。
例えば、図3(B)に示すように、画像表示部20の正面方向に対象OBがある場合、対象OBは画角CR及び画角CLのどちらにも含まれる。このため、右カメラ61の撮像画像と、左カメラ62の撮像画像のいずれも、対象OBが写る。ここで、使用者が対象OBを注視すると、使用者の視線は、図中符号RD、LDに示すように対象OBに向けられる。一般に、人間の視野角は水平方向におよそ200度、垂直方向におよそ125度とされ、そのうち情報受容能力に優れる有効視野は水平方向に30度、垂直方向に20度程度である。さらに、人間が注視する注視点が迅速に安定して見える安定注視野は、水平方向に60〜90度、垂直方向に45度〜70度程度とされている。
従って、注視点が対象OBである場合、視線RD、LDを中心として水平方向に30度、垂直方向に20度程度が有効視野であり、水平方向に60〜90度、垂直方向に45度〜70度程度が安定注視野であり、水平方向に約200度、垂直方向に約125度が視野角となる。
また、HMD100を装着する使用者が画像表示部20を透過して右光学像表示部26及び左光学像表示部28を透過して視認する実際の視野を、実視野(FOV:Field Of View)と呼ぶ。図1及び図2に示す本実施形態の構成で、実視野は、右光学像表示部26及び左光学像表示部28を透過して使用者が視認する実際の視野に相当する。実視野は、図3(B)を参照して説明した視野角及び安定注視野より狭いが、有効視野より広い。
右カメラ61及び左カメラ62は、使用者の視野よりも広い範囲を撮像可能であることが好ましく、具体的には、画角CR、CLの全体が、少なくとも使用者の有効視野よりも広いことが好ましい。また、画角CR、CLの全体が、使用者の実視野よりも広いことが、より好ましい。さらに好ましくは、画角CR、CLの全体が、使用者の安定注視野よりも広く、最も好ましくは、画角CR、CLの全体が使用者の視野角よりも広い。
このため、右カメラ61及び左カメラ62は、画角CRと画角CLとが、図3(B)に示すように画像表示部20の前方で重なるように配置される。また、右カメラ61及び左カメラ62を広角カメラで構成してもよい。すなわち、右カメラ61及び左カメラ62が、撮像レンズとして、いわゆる広角レンズを備え、広い画角を撮像できる構成としてもよい。広角レンズには、超広角レンズ、準広角レンズと呼ばれるレンズを含んでもよいし、単焦点レンズであってもズームレンズであってもよく、複数のレンズからなるレンズ群を右カメラ61及び左カメラ62が備えてもよい。また、右カメラ61の画角CRと左カメラ62の画角CLとは同じ角度でなくてもよい。また、右カメラ61の撮像方向と左カメラ62の撮像方向とは、完全に平行である必要はない。右カメラ61の撮像画像と、左カメラ62の撮像画像とを重ね合わせた場合に、使用者の視野よりも広い範囲が撮像されていればよい。
図4は、HMD100を構成する各部の機能ブロック図である。
HMD100は、コンテンツの供給元となる種々の外部機器OAを接続するインターフェイス125を備える。インターフェイス125は、例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等の有線接続に対応したインターフェイスを用いることができ、無線通信インターフェイスで構成してもよい。外部機器OAは、HMD100に画像を供給する画像供給装置であり、パーソナルコンピューター(PC)、携帯電話端末、携帯型ゲーム機等が用いられる。
制御装置10は、制御部140、入力情報取得部110、記憶部120、送信部(Tx)51及び送信部(Tx)52を有する。
入力情報取得部110は、操作部135に接続される。操作部135は、上記のトラックパッド14、方向キー16、電源スイッチ18等を含み、入力情報取得部110は、操作部135から入力される信号に基づき、入力内容を取得する。また、制御装置10は、電源部(図示略)を備え、制御装置10及び画像表示部20の各部に電源を供給する。
記憶部120は、不揮発性の記憶装置であって、種々のコンピュータープログラム、及び、これらのプログラムに係るデータを記憶する。また、記憶部120は、画像表示部20に表示する静止画像や動画像のデータを記憶しても良い。
記憶部120は、設定データ121を記憶する。設定データ121は、制御部140が使用する各種の設定値を含む。設定データ121が含む設定値は、予め操作部135の操作で入力された値であってもよいし、通信部117またはインターフェイス125を介して外部機器OAまたは他の装置(図示略)から設定値を受信して記憶してもよい。
また、記憶部120は、シナリオデータ123、及び、履歴データ124を記憶する。シナリオデータ123は、HMD100を装着する使用者に対して作業手順等を案内するために使用されるデータである。また、履歴データ124は、シナリオデータ123に関係する作業の進捗や実行履歴等に関する情報を含むデータである。シナリオデータ123及び履歴データ124については後述する。シナリオデータ123は、項目データ、及び、順序データを含む。また、記憶部120は、順序データ記憶部に相当する。また、記憶部120は履歴データ124(実行データ)を記憶するので、実行データ記憶部に相当する。
制御部140には、3軸センサー113、GPS115、通信部117、近距離無線通信部119及び音声認識部114が接続される。3軸センサー113は3軸の加速度センサーであり、制御部140は3軸センサー113の検出値を取得する。3軸センサー113により、制御部140は、制御装置10の動きを検出することができ、例えば制御装置10を振る等の操作を検出できる。また、3軸センサー113は9軸センサーに置き換えてもよい。この場合、制御部140は、3軸の加速度センサー、3軸の角速度センサー、及び3軸の地磁気センサーの検出値を取得し、例えば、制御装置10の姿勢、向き、動きを検出できる。
GPS115は、アンテナ(図示略)を備え、GPS(Global Positioning System)信号を受信し、制御装置10の現在位置を算出する。GPS115は、GPS信号に基づいて求めた現在位置や現在時刻を制御部140に出力する。また、GPS115はGPS信号に含まれる情報に基づいて現在時刻を取得し、制御部140が計時する時刻を修正させる機能を備えていてもよい。
通信部117は、無線LAN(WiFi(登録商標))、Miracast(登録商標)、Bluetooth(登録商標)等の規格に準じた無線データ通信を実行する。
外部機器OAが、通信部117に無線接続された場合、制御部140は、コンテンツデータを通信部117より取得して、画像表示部20に画像を表示させる。一方、外部機器OAが、インターフェイス125に有線接続された場合、制御部140は、コンテンツデータをインターフェイス125より取得して、画像表示部20に画像を表示させる。通信部117及びインターフェイス125は、外部機器OAからコンテンツデータを取得するデータ取得部DAとして機能する。
近距離無線通信部119は、制御部140の制御に従い、近距離無線データ通信を実行する通信部である。近距離無線通信部119は、図示しないアンテナ、RF回路、ベースバンド回路等を含む無線通信インターフェイスを具備する。近距離無線通信部119は、例えば、NFC(Near Field radio Communication)と呼ばれる無線通信を実行する。具体的には、FeliCa(登録商標)、ISO/IEC 14443、ISO/IEC 18092等の近距離無線通信を行う。また、近距離無線通信部119は、Bluetooth規格に準じた無線通信を実行する構成としてもよい。この場合、例えば、近距離無線通信部119がBluetoothクラス3(出力1mw)に対応したアンテナやRF回路(図示略)を備え、近距離の無線通信に適する構成とすることが好ましい。また、近距離無線通信部119は、いわゆるICタグリーダーとして構成され、外部のICタグ(図示略)と無線通信を実行して、ICタグからデータを取得してもよい。
制御部140は、プログラムを実行するCPU(図示略)、CPUが実行するプログラムやデータを一時的に格納するRAM(図示略)、及び、CPUが実行する基本制御プログラムやデータを不揮発的に記憶するROM(図示略)を備える。制御部140は、記憶部120が記憶するコンピュータープログラムを読み出して実行し、オペレーティングシステム(OS)150、画像処理部160、撮像制御部161、位置検出部162、AR表示制御部163、状態検出部164、通信制御部165、音声処理部187、及び、表示制御部190として機能する。
画像処理部160は、コンテンツに含まれる画像信号を取得する。画像処理部160は、取得した画像信号から、垂直同期信号VSyncや水平同期信号HSync等の同期信号を分離する。また、画像処理部160は、分離した垂直同期信号VSyncや水平同期信号HSyncの周期に応じて、PLL(Phase Locked Loop)回路等(図示略)を利用してクロック信号PCLKを生成する。画像処理部160は、同期信号が分離されたアナログ画像信号を、A/D変換回路等(図示略)を用いてディジタル画像信号に変換する。画像処理部160は、変換後のディジタル画像信号を、対象画像の画像データ(図中、Data)として、1フレームごとに、制御部140のRAMに格納する。この画像データは、例えばRGBデータである。
なお、画像処理部160は、必要に応じて、画像データの解像度を右表示駆動部22及び左表示駆動部24に適した解像度に変換する解像度変換処理を行ってもよい。また、画像処理部160は、画像データの輝度や彩度を調整する画像調整処理、3D画像データから2D画像データを作成し、或いは2D画像データから3D画像データを生成する2D/3D変換処理等を実行してもよい。
画像処理部160は、クロック信号PCLK、垂直同期信号VSync、水平同期信号HSync、RAMに格納された画像データDataのそれぞれを、送信部51、52を介して送信する。送信部51、52は、トランシーバーとして機能し、制御装置10と画像表示部20との間におけるシリアル伝送を実行する。なお、送信部51を介して送信される画像データDataを「右眼用画像データ」と呼び、送信部52を介して送信される画像データDataを「左眼用画像データ」と呼ぶ。
表示制御部190は、右表示駆動部22及び左表示駆動部24を制御する制御信号を生成し、この制御信号により、右表示駆動部22及び左表示駆動部24のそれぞれによる画像光の生成及び射出を制御する。具体的には、右LCD制御部211による右LCD241の駆動ON/OFF、右バックライト制御部201による右バックライト221の駆動ON/OFFを制御する。また、表示制御部190は、左LCD制御部212による左LCD242の駆動ON/OFF、左バックライト制御部202による左バックライト222の駆動ON/OFFを制御する。
音声処理部187は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、右イヤホン32及び左イヤホン34に出力する。また、音声処理部187は、マイク63により集音される音声を取得してディジタル音声データに変換する。音声処理部187は、ディジタル音声データに対して予め設定された処理を行ってもよい。
画像表示部20は、上記の右カメラ61、及び左カメラ62を備える。また、画像表示部20は、インターフェイス25と、右表示駆動部22と、左表示駆動部24と、右光学像表示部26としての右導光板261と、左光学像表示部28としての左導光板262と、9軸センサー66とを備える。
9軸センサー66は、加速度(3軸)、角速度(3軸)、地磁気(3軸)を検出するモーションセンサーである。制御部140は、画像表示部20が使用者の頭部に装着されているとき、9軸センサー66の検出値に基づいて使用者の頭部の動きを検出できる。例えば、制御部140は、9軸センサー66の検出値に基づき、画像表示部20の傾きの大きさと傾きの向きを推定できる。
インターフェイス25は、右コード42と左コード44とが接続されるコネクターを備える。インターフェイス25は、送信部51から送信されるクロック信号PCLK、垂直同期信号VSync、水平同期信号HSync、画像データDataを、対応する受信部(Rx)53、54に出力する。また、インターフェイス25は、表示制御部190から送信される制御信号を、対応する受信部53、54、右バックライト制御部201又は左バックライト制御部202に出力する。
また、インターフェイス25は、右カメラ61、左カメラ62、及び、9軸センサー66を接続するインターフェイスである。右カメラ61、左カメラ62の撮像データ、9軸センサー66による加速度(3軸)、角速度(3軸)、及び、地磁気(3軸)の検出結果は、インターフェイス25を介して制御部140に送られる。
右表示駆動部22は、上述した右バックライト221、右LCD241、及び右投写光学系251を備える。また、右表示駆動部22は、受信部53、右バックライト(BL)221を制御する右バックライト(BL)制御部201、及び、右LCD241を駆動する右LCD制御部211を備える。
受信部53は、送信部51に対応するレシーバーとして動作し、制御装置10と画像表示部20との間におけるシリアル伝送を実行する。右バックライト制御部201は、入力された制御信号に基づいて、右バックライト221を駆動する。右LCD制御部211は、受信部53を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データDataと、に基づいて、右LCD241を駆動する。
左表示駆動部24は、右表示駆動部22と同様の構成を有する。左表示駆動部24は、上述した左バックライト222、左LCD242、及び左投写光学系252を備える。また、左表示駆動部24は、受信部54、左バックライト222を駆動する左バックライト制御部202、及び、左LCD242を駆動する左LCD制御部212を備える。
受信部54は、送信部52に対応するレシーバーとして動作し、制御装置10と画像表示部20との間におけるシリアル伝送を実行する。左バックライト制御部202は、入力された制御信号に基づいて、左バックライト222を駆動する。左LCD制御部212は、受信部54を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データDataと、に基づいて、左LCD242を駆動する。
なお、右バックライト制御部201と、右LCD制御部211と、右バックライト221と、右LCD241とを総称して、右の「画像光生成部」とも呼ぶ。同様に、左バックライト制御部202と、左LCD制御部212と、左バックライト222と、左LCD242とを総称して、左の「画像光生成部」とも呼ぶ。
図3(A)に示したように、HMD100を装着する使用者が、ハーフミラー261A、262Aから照射される画像光を視認する範囲は、実視野より小さい。例えば、HMD100が、AR(Augmented Reality:拡張現実)効果を奏する画像(以下、AR画像という)を表示する場合、使用者が注視する対象OBに重なるようにAR画像を表示する。この場合、対象OBにAR画像が重なって見えることで、ARの効果が得られるが、AR画像が視認される領域はハーフミラー261A、262Aの大きさの制約を受ける。このため、実視野に対象OBが含まれる場合であっても、対象OBに重なる位置にAR画像を表示することが困難なケースも考えられる。また、AR画像以外の画像を表示する場合も、HMD100が画像を表示できる領域が、実視野に比べて小さいことが機能上の制約となる可能性がある。
そこで、HMD100は、右カメラ61及び左カメラ62の撮像画像や、予め用意された画像など、使用者の実視野よりも広い範囲の外景の画像を利用して、使用者が注視する外景中の対象OBに対応するARコンテンツを表示するなど、外景に対応した表示を行う。
HMD100は、ハーフミラー261A、及び、ハーフミラー262Aが使用者の眼に画像光を反射することによって、表示領域を形成する。HMD100はハーフミラー261A、262Aにより画像光を反射して使用者の眼に、虚像を認識させる。このため、本実施形態では、表示領域はハーフミラー261A、262Aそのものではなく、ハーフミラー261A、262Aに反射した画像光を使用者が知覚する領域である。なお、画像表示部20が、ハーフミラー261A、262Aに画像を結像させる構成とした場合には、ハーフミラー261A、262Aが表示領域に相当する。
表示領域は、右LCD241及び左LCD242に対応し、これらLCD241、242に表示される画像を使用者が視認する領域である。例えば、右LCD241及び左LCD242の表示可能な領域(表示可能領域)の全体に画像を表示すると、使用者に、表示領域の全体のサイズの画像を視認させることができる。
表示領域は、例えば後述するように、使用者の視野のほぼ中央に位置し、視野と同じか、視野より小さい。
撮像制御部161は、右カメラ61及び左カメラ62を制御して撮像を実行させ、撮像画像データを取得する。撮像制御部161は、右カメラ61及び左カメラ62のいずれか一方にのみ撮像を実行させてもよいし、両方に撮像を実行させてもよい。
位置検出部162(入力部、対象検出部)は、制御部140が外景画像から対象(対象物)を検出(認識)する機能を実行する。この機能では、位置検出部162は、例えば撮像制御部161が取得した撮像画像データを解析する。詳細には、位置検出部162は、右カメラ61及び/又は左カメラ62の撮像画像データに基づき、AR表示の対象の位置、及び、使用者による操作の操作位置を検出する。位置検出部162には、検出する対象として、AR表示を行う対象、及び、使用者が操作に使用する指示体が設定される。
AR表示の対象は、実空間の物体(建物等の固定されたものを含む)や景色など、画像表示部20を透過して使用者が視認する範囲(使用者の視野)の一部を構成する。AR表示の対象は、右カメラ61、左カメラ62の撮像画像データから検出され、制御部140は、検出した対象に合わせてARコンテンツを表示する。
対象は、AR表示のコンテンツ毎に設定可能であり、例えば、AR表示のコンテンツ(以下、ARコンテンツと呼ぶ)のデータに、対象を検出する処理で用いるデータを含めてもよい。また、検出する対象に関するデータが設定データ121として記憶されてもよい。位置検出部162は、ARコンテンツまたは設定データ121から対象を検出するためのデータを取得し、このデータを用いて、外景画像に含まれる対象を認識する。対象物を検出するためのデータとは、撮像画像から対象物の画像を検出する処理に用いるデータであり、対象物の画像の特徴量等である。例えば、対象物が物体である場合に、この物体を撮像した場合の撮像画像の色、形状、その他の特徴を示す特徴量が設定データに含まれる。この場合、位置検出部162は、外景画像の画像データから物体の画像を抽出する処理を行い、抽出した物体の画像の特徴量を算出し、算出した特徴量と、設定データ121に含まれる特徴量とを比較照合する。特徴量が近い値であり、或いは同一である場合は、外景画像から抽出した画像の物体を対象物として認識できる。また、対象物について複数の特徴量が設定データ121に含まれる場合、位置検出部162は複数の特徴量に基づき外景画像から対象物を検出し、認識できる。位置検出部162は、外景画像において対象を認識できない場合、ステップS12で撮像制御部161が新たな外景画像を取得するまで待機し、新たな外景画像について対象を認識する処理を行う。
制御部140は、使用者による入力を認識し、検出する機能を有し、この機能は入力部の機能として実現できる。入力部は、右カメラ61及び/又は左カメラ62の撮像画像から、使用者の手等の指示体の画像を検出し、この指示体の位置、方向、或いは動きを入力として検出し認識する。例えば、入力部は、指示体の位置を特定して位置入力を検出する。また、入力部は、例えば、指示体の動きが予め設定されたジェスチャーに相当すると判定した場合に、ジェスチャー入力を検出し認識してもよい。また、入力部は、入力情報取得部110から入力される信号に基づいて、操作部135に対する操作を検出する。また、入力部は、マイク63で集音された音声を音声処理部187が解析し、予め設定された音声コマンドであると判定された場合に、この音声コマンドの入力を検出し認識してもよい。また、位置検出部162は、画像表示部20が備える9軸センサー66の検出値のパターンが、画像表示部20をノックする操作に該当すると判定した場合に、画像表示部20に対するノック操作を入力として検出し認識してもよい。また、位置検出部162は、右カメラ61及び/又は左カメラ62の撮像画像から、二次元コードやバーコード等の入力用マーカーの画像を検出した場合に、マーカー読取入力を検出し認識してもよい。位置検出部162は、右カメラ61及び/または左カメラ62の撮像画像データから、指示体やマーカーを検出する場合に、視線センサー68により検出される使用者の視線方向に対応する指示体やマーカーを検出し認識してもよい。
また、HMD100が、使用者が足で操作するフットスイッチ(図示略)を備えた構成としてもよい。このフットスイッチは制御部140または操作部135に有線接続されてもよいし、Bluetooth(登録商標)等の無線通信により通信部117に接続されてもよい。この場合、入力部は、フットスイッチの操作を検出して入力として認識してもよい。また、筋電計(図示略)、脈拍測定装置(図示略)、血圧測定装置(図示略)、血中酸素濃度測定装置(図示略)等のバイタルセンサーをHMD100に設け、これらのバイタルセンサーの測定値、検出値に基づき、入力部が入力を検出し認識してもよい。
本実施形態では、位置検出部162が、入力部として動作する。位置検出部162は、右カメラ61及び左カメラ62の撮像画像データから、指示体の画像を検出し、指示体により指示された位置を検出する。指示体は、使用者が操作に使用する物体であり、使用者の手、指など身体の一部、または、使用者が操る物体である。この物体は棒状のもの、ペン型のもの等、形状は特に限定されない。また、指示体には、赤外光や可視光を発する発光部(図示略)を設けてもよいし、撮像画像データにおいて検出可能な柄やパターン等を含むマーキングが施されてもよい。この場合、位置検出部162が撮像画像データから指示体を検出する処理を高速に行える。位置検出部162は、撮像画像データから対象を検出する処理と同様に、予め記憶部120に記憶した特徴量のデータを用いて、指示体を撮像画像データから検出する。指示体の特徴量のデータは、例えば設定データ121に含まれる。
位置検出部162は、撮像画像データから検出した対象の位置、及び、指示体の位置を特定する。さらに、位置検出部162は、検出した対象及び指示体と、使用者が視認する表示領域との相対位置を求める処理を行う。これにより、右表示駆動部22及び左表示駆動部24により表示する画像(文字、画像、記号等を含む)の位置と、実空間における対象及び指示体の位置との対応付けを行うことができる。つまり、右表示駆動部22及び左表示駆動部24が表示する画像を使用者が視認する位置と、画像表示部20を透過して使用者が対象や指示体を視認する位置とを対応づけることができる。従って、使用者が指示体により指示する位置を的確に検出できる。また、使用者が対象を視認する位置に対応する位置に、画像を表示できる。
なお、位置検出部162が対象物や指示体を認識する方法は、上記のように画像の特徴量に基づき対象物の画像を認識する方法に限定されない。例えば、使用者の指示により、外景画像に含まれる物体等から対象や指示体を選択してもよい。この場合、使用者の指示は、音声による指示であってもよく、マイク63で集音された音声を音声処理部187がテキスト変換することにより、位置検出部162が対象を認識し、特定するための情報を取得する。例えば、色や対象の形状など、撮像画像における対象物の特徴を指定する音声がテキスト変換された場合に、位置検出部162は、指定された特徴に該当する画像を撮像画像から検出して、認識する。
対象物に関する情報の入力方法は、トラックパッド14への操作であってもよいし、指等によるジェスチャー操作を制御部140が検出してもよい。この場合、右カメラ61、左カメラ62の撮像範囲において使用者が指等を動かしてジェスチャー操作を行い、このジェスチャー操作を制御部140が検出すれば良い。具体的には、使用者が対象物を指さすことで、対象物そのものを指定する方法を採用してもよい。また、使用者が対象物の方向を手や指で指し示す、使用者が対象物を視認する範囲を手や指で囲む等のジェスチャーを用いてもよい。
AR表示制御部163は、記憶部120が記憶するコンテンツデータ(図示略)を読み出し、画像処理部160及び表示制御部170を制御して、AR表示用の画像を画像表示部20により表示させる。また、AR表示制御部163は、コンテンツデータが音声データを含む場合、音声処理部187を制御して、右イヤホン32、左イヤホン34からコンテンツの音声を出力させる。
ここで、AR表示制御部163は、位置検出部162が検出する対象と表示領域との総体位置、及び、指示体と表示領域との相対位置に基づき、ARコンテンツの表示位置を制御する。すなわち、AR表示制御部163は、対象に対応する位置に画像や文字等を表示するAR表示を行う。ARコンテンツの表示位置は対象に重なる位置であっても対象の周囲であってもよい。これにより、HMD100は、対象に関する情報を提供し、或いは、画像表示部20越しに見える対象の姿の見え方を変える。ARコンテンツは、対象に対応する位置に表示される画像や文字のデータを含む。AR表示制御部163は、検出した対象に対応するARコンテンツの表示位置を決定し、ARコンテンツを表示する。
本実施形態で、AR表示制御部163は、記憶部120が記憶するシナリオデータ123に基づき、シナリオデータ123に含まれる項目のデータを表示する。つまり、シナリオデータ123を後述する所定の表示形式で表示する画像が、ARコンテンツに相当する。
図5は、記憶部120が記憶するデータの構成例を示す模式図であり、(A)はシナリオデータ123及び履歴データ124の構成例を示し、(B)は履歴データ124の別の構成例を示す。
シナリオデータ123は、項目を含み、項目には順序が対応づけられる。順序は項目間の相対的な順序であり、シナリオデータ123が含む項目が一つの場合は順序が対応づけられなくてもよい。
シナリオデータ123が含むそれぞれの項目は、動作に対応する。動作とは、使用者が行う行動または行為を指し、使用者の身体の動きであってもよいし思考や判断を含んでもよい。シナリオデータ123の一つの項目が一つの動作に対応する構成であってもよく、シナリオデータ123の一つの項目が、複数の動作を含むシーケンスに対応してもよい。
図5(A)に例示するシナリオデータ123は、作業の手順に関するシナリオのデータであり、それぞれ作業に対応する複数の項目123aを含む。それぞれの項目123aは、「作業1」、「作業2」、「作業3」、…の名称が付される。また、それぞれの項目123aには各項目の内容(作業内容)が対応づけてシナリオデータ123に含まれる。
図5(A)のシナリオデータ123は、履歴データ124を統合した形態となっている。履歴データ124は、シナリオデータ123に含まれる項目の実行の履歴に関するデータである。シナリオデータ123が作業のシナリオである場合、履歴データ124は、シナリオデータ123の項目に対応する作業の進捗履歴や実行履歴に関するデータである。図5(A)の例では、履歴データ124は、実行履歴データ124aと、実行詳細データ124bとを含む。実行履歴データ124aは、それぞれの項目123aに対応づけて記憶されるデータであり、項目123aに対応する作業の実行状態(実行状況、進捗状況、進行状況ともいえる)を示す。図5(A)の例では、項目123aに対応する作業が完了した場合に、実行履歴データ124aとして「完了」が設定される。このほか、未実行、未実行、等の実行履歴データ124aを設定できる。
実行詳細データ124bは、項目123aに対応する作業が実行された履歴に関して、より詳細なデータを含む。例えば、シナリオデータ123が含むそれぞれの項目123aの作業が実行された日時、進捗度、完了した日時等のデータを含む。また、実行詳細データ124bは項目123aに対応する作業が実行されたときに、右カメラ61及び/又は左カメラ62により撮像された撮像画像データを含んでもよい。この撮像画像データは静止画像データであっても動画像データであってもよく、撮像日時のデータを含んでもよい。
また、シナリオデータ123は、項目123aに対応づけて画像データ123bを含んでもよい。画像データ123bは、静止画像であっても動画像データであってもよい。
図5(B)には、シナリオデータ123及び履歴データ124の別の構成例を示す。図5(B)は特に、項目123aの実行順序と、各項目123aに対応する作業の履歴とをタイムチャートして表示する例を示す。図5(B)のタイムチャートは、例えば、AR表示制御部163の制御によって画像表示部20に表示される。このタイムチャートは、項目123aに対応する作業1,2,3の実行順序と、現在の作業状況を示す矢印形状の指標(マーク)と、を含む。例えば、AR表示制御部163がシナリオデータ123に基づく作業を案内し、使用者が作業を実行するときに、図5(B)のタイムチャートを表示して、使用者に作業の実行状態を知らせることができる。
HMD100では、シナリオデータ123に基づき作業等に関する案内を行う場合に、使用者の入力操作によって、作業の実行状態等を入力できる。
ここで、HMD100における入力方法を説明する。
図6は、HMD100の入力方法の説明図であり、(A)はバーチャルキーボードを使用する入力例を示し、(B)は位置入力の例を示す。
図6(A)及び(B)では、VRは使用者の視野を示し、V1は、HMD100が画像を表示して使用者に視認させることが可能な領域、すなわち画像表示部20の表示領域を示す。
表示領域V1は、たとえば、使用者の視野VRのほぼ中央に位置し、視野VRよりも狭い。表示領域V1は視野VRと同じサイズであってもよく、サイズ及び位置は図6(A)、(B)の例に限定されない。
図6(A)の入力方法では、バーチャルキーボードV11が表示領域V1に表示された状態で、使用者の手を利用して入力が行われる。バーチャルキーボードV11の表示位置は、予め設定された位置とすることができる。バーチャルキーボードV11は、AR表示制御部163が、記憶部120に記憶されたバーチャルキーボードV11の画像データ(図示略)等に基づき表示する。位置検出部162は、視野VRにおける使用者の右手HR及び左手HLを検出し、指先の位置を算出する。位置検出部162が位置検出可能な領域は、右カメラ61及び左カメラ62の撮像範囲であり、表示領域V1の外であってもよい。AR表示制御部163は、位置検出部162が算出した指先の位置とバーチャルキーボードV11のキーの表示位置とが重なった場合に、バーチャルキーボードV11のキーへの操作を検出する。
図6(B)は、表示領域V1に表示されない状態で、使用者の手により位置指示操作(位置入力操作)を行う入力方法を示す。この入力方法は表示領域V1に何も表示しなくても実行可能であり、例えば、画像表示部20を透過して見える外景の視認性に影響しないという利点がある。位置検出部162は、使用者の手(図中では右手HR)の指先を撮像画像データから検出し、指先Pの位置を算出する。AR表示制御部163は、位置検出部162が算出した指先Pの位置を、入力された位置として取得する。位置検出部162は、例えば、表示領域V1に対する指先Pの相対位置を示す座標を出力する構成としてよい。また、位置検出部162は、視野VRに対する指先Pの相対位置を示す座標を出力する構成としてもよい。
図7(A)、(B)、及び(C)は、HMD100における表示例を示す図であり、AR表示制御部163の制御によってシナリオデータ123の項目を表示する表示態様の例を示す。
図7(A)〜(C)の例では、使用者の視野VRに対象OBが含まれ、使用者は画像表示部20を透過して対象OBを視認する。位置検出部162は、カメラ61の撮像画像からAR表示を行う対象である対象OBの位置を検出する。
図7(A)の例では、AR表示制御部163は、シナリオデータ123の項目を一覧表示するリストSRを表示する。リストSRは、シナリオデータ123に含まれる項目の名称を、シナリオデータ123に設定される項目の順序に従って並べたリストである。リストSRには、項目の名称(タイトル)とともに、項目の内容を表示してもよい。
リストSRには、各項目の表示位置に対応づけて、チェックボックスCHが配置される。チェックボックスCHは、各項目に対応する動作が完了したことを示す。AR表示制御部163は、状態検出部164が動作の完了を検出した場合に、チェックボックスCHの表示状態を、動作完了を示す状態に変更する。
シナリオデータ123が一つの項目を含む場合、リストSRは一つの項目について名称とチェックボックスCHとを含む構成となる。
リストSRは、チェックボックスCHを有しない構成とすることもできる。この場合、AR表示制御部163は、状態検出部164により動作が完了したことが検出された項目を、リストSRから削除してもよい。また、リストSRにおける表示色や表示輝度を変化させてもよい。
また、図7(B)に示すように、リストSRにおいて、動作が完了した項目に重なるようにマーカーM1を表示してもよい。さらに、動作が完了しなかった項目や、動作が行われず次の動作が開始された項目について、動作未完了を示すマーカーM2を表示してもよい。
図7(C)の例は、シナリオデータ123の項目を一つ、または予め設定された数ずつ表示する例である。この例では、表示領域V1に、シナリオデータ123の項目の名称、または名称と内容を、1つずつ、吹き出し形式の表示部Dに表示する。表示部Dの端部を、対象OBにおいて動作の対象となる位置を示す矢印形式としてもよい。また、表示部Dに表示された項目に対応する動作の対象位置に、マーカーM3を表示してもよい。図7(C)の例では、表示部Dに表示された項目に対応する動作が完了したことが状態検出部164により検出されると、AR表示制御部163は、シナリオデータ123に含まれる次の順序の項目を表示部Dに表示する。このように、表示部Dには、シナリオデータ123に含まれる項目が、項目の動作の実行順に従って、順次、表示される。
リストSRや表示部Dの表示位置、表示態様は、適宜に変更可能であり、例えば、リストSRや表示部Dを、シナリオデータ123の項目に対応する動作の対象OBに重なる位置に表示してもよい。また、対象OBに重ならない位置に表示すれば、動作の妨げにならず、項目を見ながら動作しやすくなるという利点がある。また、リストSRや表示部Dを3D(立体)表示してもよいし、2D(平面)画像として表示してもよい。さらに、リストSRや表示部Dを、右表示駆動部22と左表示駆動部24のいずれか一方にのみ表示してもよい。
また、リストSRや表示部Dを表示する場合に、図5(B)に例示したタイムチャートを表示してもよい。この場合、複数の項目について、動作の実行順を把握しやすい表示を行うことができる。このタイムチャートの位置を指定する位置指示操作が行われた場合に、タイムチャートで指示された位置に対応する項目を表示してもよい。また、指示された位置に対応する項目について、シナリオデータ123に含まれる画像データを表示してもよい。
また、リストSRや表示部Dに項目を表示する場合に、図5(A)に例示したようにシナリオデータ123に含まれる画像データに基づく画像を、併せて表示してもよい。また、リストSRや表示部Dと画像とを切り替えて表示してもよい。
状態検出部164(図4)は、AR表示制御部163がシナリオデータ123に基づく表示を行う間に、シナリオデータ123の項目123aに対応する動作(作業)の実行状態を検出する。
状態検出部164が実行状態を検出する処理は、例えば、右カメラ61及び/又は左カメラ62の撮像画像データを解析して行われる。この場合、状態検出部164は撮像画像データから作業の対象や、作業に使用される器具、道具、使用者の身体等の少なくともいずれかを検出する。状態検出部164は、作業の対象、作業に使用される器具、道具、使用者の身体等の位置、サイズ、色、形状等に基づいて、作業の実行状態に関するデータを生成する。実行状態に関するデータは、例えば、未実行、実行中、実行完了等である。
また、状態検出部164は、シナリオデータ123の項目についてAR表示制御部163が表示する状態で、使用者の操作に基づき、項目に対応する動作の実行状態を検出してもよい。この場合、状態検出部164が検出する操作は、制御装置10のトラックパッド14等の操作部に対する操作としてもよい。また、図6(A)及び(B)を参照して説明した入力方法による入力を受け付けてもよい。
例えば、図7(A)に示す例では、状態検出部164は、図6(B)に示したように、使用者が指示体によりチェックボックスCHに重なる位置を指定する操作を行った場合に、動作が完了したことを検出してもよい。また、使用者が指示体により予め設定されたジェスチャーを行った場合に、動作が完了したことを検出してもよい。また、マイク63が集音した音声を音声処理部187で解析することで、動作が完了したことを使用者が音声により指示入力し、この指示入力に基づき動作が完了したことを検出してもよい。また、制御装置10が備える方向キー16やトラックパッド14等に対する操作に基づき、動作の完了を検出してもよい。
また、状態検出部164は、AR表示制御部163がシナリオデータ123に基づく表示を開始した後、右カメラ61、左カメラ62の撮像画像データを取得し、取得した撮像画像データを、動作の実行状態に関するデータとして保存してもよい。この場合、たとえばドライブレコーダーのように、動作中の動画像データを記憶部120に記憶させても良い。
また、状態検出部164は、検出した動作の実行状態を反映するタイムチャート(例えば、図5(B))を生成してもよい。また、このタイムチャートを、予め設定された標準時間(スタンダードタイム)との差を表す比較結果を付与した比較タイムチャートとしても良い。
通信制御部165は、通信部117、及び近距離無線通信部119を制御して、図示しない外部の機器やICタグ等と無線通信を実行させ、データを取得する。
図8は、HMD100の動作を示すフローチャートである。
使用者がHMD100を装着し、操作部135の操作によりシナリオデータ123の表示が指示されると、制御部140は、表示に係る動作を開始する(ステップS11)。
制御部140は、記憶部120からシナリオデータ123を取得し(ステップS12)、シナリオデータ123の表示形式を選択する(ステップS13)。ステップS13で、制御部140は、予め設定された表示形式を選択してもよいし、使用者の入力により指定される表示形式を選択してもよい。表示形式は、例えば図7(A)〜(C)に示した形式がある。
制御部140は、シナリオデータ123の表示に履歴データ124を利用(再生)するか否かを判定する(ステップS14)。事前の設定、または使用者の操作により、履歴データ124を再生しないと判定した場合(ステップS14;NO)、制御部140は、シナリオデータ123の項目を、ステップS13で選択した表示形式で画像表示部20に表示させる(ステップS15)。このステップS15では、項目の表示順序を、シナリオデータ123の項目に対応する動作の実行順序に適合するように制御する。
続いて、制御部140は、右カメラ61及び/又は左カメラ62の撮像画像データや使用者の入力操作に基づき、動作状態を検出する(ステップS16)。そして、制御部140は、検出した動作状態の記録を作成し(ステップS17)、一つの項目に対応する動作が完了したか否かを判定する(ステップS18)。動作が完了していない場合(ステップS18;NO)、制御部140はステップS16に戻る。
また、動作が完了した場合(ステップS18;YES)、制御部140は、画像表示部20に表示中の項目のうち、動作が完了したと判定した項目の表示状態を変更する(ステップS19)。制御部140は、ステップS17で作成した記録に基づき、履歴データ124を記憶部120に保存し、或いは記憶部120に保存した履歴データ124を更新する(ステップS20)。ここで、ステップS13で選択した表示形式が、項目を一つずつ或いは予め設定された数ずつ順次切り替えて表示する表示形式であって、表示中のすべての項目について動作が完了した場合、制御部140は、新たな項目を表示する。
その後、制御部140は表示を完了するか否かを判定する(ステップS21)。シナリオデータ123に含まれるすべての項目について、対応する動作が完了した場合、或いは、使用者の操作により表示の終了が指示された場合、制御部140は表示を終了すると判定し(ステップS21;YES)、本処理を終了する。
表示を終了しないと判定した場合(ステップS21;NO)、制御部140はステップS16に戻る。
また、ステップS14で履歴データ124を再生すると判定した場合(ステップS14;YES)、制御部140は、履歴データ124を取得する(ステップS22)。制御部140は、シナリオデータ123に含まれる項目について、履歴データ124で動作が完了したと設定された項目の次の項目から表示し(ステップS23)、ステップS16に移行する。
また、状態検出部164は、位置検出部162が認識し検出する入力に基づき、実行状態を検出してもよい。例えば、音声、指示体の位置、向、或いは動き、9軸センサー66の検出値、右カメラ61及び/又は左カメラ62の撮像画像から検出される入力用マーカーの画像、フットスイッチ(図示略)の操作に基づき、実行状態を検出してもよい。
以上説明したように、本発明を適用した第1実施形態に係るHMD100は、外景を透過して視認可能に画像を表示する画像表示部20と、画像表示部20を透過して視認される範囲の入力を検出して入力位置を特定する位置検出部162を有する。制御部140は、項目を含むシナリオデータ123に基づき、画像表示部20に項目を表示させ、位置検出部162で特定した入力位置に対応して、画像表示部20における表示を変化させる。
これにより、場所や物体を対象として動作(例えば、作業)をする人が、画像表示部20により項目を見ることができ、動作の対象である場所や物体を、画像表示部20を透過して視認できる。このため、表示される内容を見るために、視線を大きく移動するなどの負荷の大きい動きを行う必要がなく、手軽に情報を見ることができる。
また、シナリオデータ123は、動作に対応する複数の項目を含み、それぞれの項目には動作の実行順に対応する項目の順序が設定される。これにより、HMD100の使用者が、項目の表示態様をもとに動作の実行順を知ることができる。
制御部140のAR表示制御部163は、複数の項目をリスト形式で配置して画像表示部20に表示させてもよく、この場合、項目は項目に設定された順序に従って配置される。これにより、使用者は、表示される複数の項目の配置から、動作の実行順を知ることができる。
制御部140は、項目に設定された順序で項目を順次表示させてもよい。これにより、使用者は、項目の表示順から動作の実行順を知ることができる。
シナリオデータ123は、シナリオデータ123に含まれる項目に対応する動作の実行順に関する情報を含むデータを含み、制御部140は、この実行順に基づき、リストSRや表示部D等の画像を画像表示部20に表示させる。これにより、動作の実行順を画像により視認させることができる。
HMD100は、記憶部120に、シナリオデータ123と順序データとを対応付けて記憶するので、動作に関する項目に関するデータと動作の実行順とに関するデータとの対応関係、及び各データを容易に読み出して利用できる。
制御部140は、位置検出部162で特定した入力位置に対応する位置に表示中の項目に、指標としてのマーカーを重ねて表示させてもよい。この場合、使用者が入力を行うことにより、表示される項目の表示態様を変化させることができる。
また、制御部140の状態検出部164は、右カメラ61、左カメラ62による外景の撮像画像または外景からマイク63により集音される音声に基づき、項目に対応する動作の実行状態を検出してもよい。AR表示制御部163は、検出した実行状態に応じて、画像表示部20によって表示中の項目の表示状態を変化させてもよい。この場合、動作の実行状態に対応して項目の表示状態を変化させることができる。
記憶部120は、動作の実行状態に係る情報を含む履歴データ124を記憶する。制御部140は、シナリオデータ123に含まれる項目に対応する動作の履歴データ124を、シナリオデータ123に対応付けて記憶部120に記憶させる。制御部140は、記憶部120から履歴データ124を読み出した場合に、読み出した履歴データ124に基づき、画像表示部20によって表示する項目の表示状態を制御する。この場合、動作の実行状態に関するデータを記憶し、このデータを読み出して表示に反映することによって、実行状態に関する記録と、記録した実行状態の呼び出しを行える。
また、制御部140は、位置検出部162により、外景における対象を検出する。AR表示制御部163は、位置検出部162で検出された対象が画像表示部20を透過して視認される位置に対応させて、シナリオデータ123に含まれる項目を表示させる。これにより、動作の対象の場所や物体と項目との両方を容易に視認できる。
このように、HMD100は、人間が行う作業のチェック等を現実世界の物体または電子媒体の物体に重ねてAR表示することができる。この場合、表示の態様を、対象物の位置に合わせることで、対象物に対する相対位置を保持するスタビライズ表示を行い、項目を視認しやすい位置に保持できる。
上記実施形態で、画像表示部20により表示する項目の表示状態を、作業(動作)の進行状態に応じて変化させる方法は、リストSRにおいてチェックボックスCHの表示状態を、動作完了を示す状態に変更する方法に限定されない。例えば、動作が完了したことが検出された項目をリストSRから削除してもよいし、リストSRにおける表示色や表示輝度を変化させてもよい。例えば、項目の表示色を維持して、項目に重なる位置に、蛍光色など視認性を高める色の塗りつぶし表示を行ってもよい。また、項目の表示色を変化させる場合に、表示輝度を調整することで、項目に重なる位置の外景の透過度を変化させてもよい。また、項目の表示位置を変えてもよく、例えば、作業完了となった項目を違う行に移動してもよい。さらに、左光学像表示部28と右光学像表示部26のいずれか一方に項目を表示する構成とし、作業完了となった項目の表示位置を、左光学像表示部28から右光学像表示部26へ、或いはその逆方向に移動させてもよい。これにより、後から確認はできるものの、これからやらなくてはいけない手順が明確に判る表示であれば色々な「表示変化」形態とすることができる。
第1実施形態のHMD100の適用例としては、以下のような例が挙げられる。
複数の行程を含む作業の作業標準書をシナリオデータ123により構成する場合、シナリオデータ123をチェックリストとして利用できる。この場合、作業の案内をする文書、静止画像、動画像を、シナリオデータ123に含めることができる。また、動画像に音声を含めてシナリオデータ123に含ませてもよい。
この作業標準書は、作業の工程毎に、作業対象の部品、機器、或いは部品や機器の部分を対象OBとしてAR表示制御部163により表示できる。
また、シナリオデータ123に基づく表示中における使用者の操作に基づき、シナリオデータ123を編集することが可能な構成としてもよい。この場合の入力方法は、図5を参照して説明した方法を採用できる。
この例では、使用者がHMD100を装着して実際に作業を行い、作業の変更や要点注釈の変更点等をリアルタイムにシナリオデータ123に反映できる。
また、作業中に右カメラ61及び左カメラ62によって撮像される動画像または静止画像や、マイク63で集音された音声を、シナリオデータ123に含めて保存できる構成としてもよい。
作業は、例えば工場におけるライン作業、セル生産方式における作業があげられるが、商店等における作業の支援にも適用できる。また、シナリオデータ123を編集可能とすることで、作業をしながら標準作業と成りえる画像を標準作業として登録保存できる。
また、小さな商店等の棚商品の在庫管理の行程を、シナリオデータ123により行える。この場合、HMD100を装着した使用者が店内を巡回し、右カメラ61及び左カメラ62により商品を撮像することにより、位置検出部162で商品を検出できる。この場合、商品の個数、場所、時間等を記録して履歴データ124として保存できる。これにより、在庫管理業務、ピッキング業務等の作業支援システムとしても利用可能である。
また、病院や医院における診察業務において、診断フローをシナリオデータ123として作成し、活用できる。例えば、患者の問診における確認項目、及び、検査結果の項目を、シナリオデータ123の項目として含むことにより、シナリオデータ123に従って診断を行うことができる。この場合、シナリオデータ123に含まれる項目について使用者である医師等の医療関係者が入力するデータや、右カメラ61、左カメラ62の撮像画像データを、履歴データ124として記憶部120に記憶し保存すれば、履歴データ124を電子カルテの一部すなわち診断記録として活用できる。
また、HMD100を装着する使用者が、外景として視認できる実空間の人や物の数を数える場合にも適用できる。この場合、ジェスチャー等の入力操作が行われる毎にカウント(計数)が進行し、カウントされた人や物に対し、カウント済みであることを示す画像やマーカーが重なるAR表示をすると、効果的である。この適用例では、二重のカウント(ダブルカウント)の防止、ハンズフリーでありながら漏らさずチェック(カウント)できる等の効果が得られる。例えば、イベント会場における人数のカウント、工場作業中における部品数のカウント、等に適用できる。
また、HMD100を装着する使用者が、球技の審判や記録係である場合にも本発明を適用できる。この場合、外景として視認できる実空間においてし合い(ゲーム)が行われる場合に、ゲーム中のプレーについてカウントを実行できる。具体的には、野球のゲームにおけるストライク、ボールカウント、イニング数、イニングの裏と表、得点等のカウントや表示を行うことで、間違いを防止できる。また、例えば、ゴルフ競技におけるラウンド数のカウント、スコアーの計算等にHMD100を利用して間違いを防止できる。また、プレイヤーがHMD100を装着してもよい。
このように、HMD100により本発明を適用することで、使用者の動作の確度を保証し、手順のチェック、点数の確認、製造現場における品質保証のためのトレーサビリティー(品質保証)のための確認、補償等を実現できる。例えば、人間の行動の不確実性や記憶の曖昧さ等に起因する間違い、トラブル等を、HMD100の機能により確実に防止できる。
また、シナリオデータ123は、例えば、プレゼンテーションソフトウェア(例えば、Microsoft(登録商標)社のPowerPoint(登録商標))の形式で作成されたプレゼンテーションプロジェクトファイルとすることができる。この場合、プレゼンテーションプロジェクトファイルを、シナリオデータ123として表示し、HMD100を装着する使用者は表示領域V1の表示を見ながらプレゼンテーションを行える。シナリオデータ123に、プレゼンテーションで発話する文章を項目の内容として含めることで、プレゼンテーションの原稿として利用できる。この場合、使用者が発話する音声をマイク63で集音し、音声処理部187で音声をテキスト変換してシナリオデータ123の内容と照合することで、シナリオデータ123において発話済みのテキスト(文字、文字列)を制御部140が特定できる。ここで、AR表示制御部163が、発話済みのテキストの表示態様を変化させれば、プレゼンテーションの進行状態を使用者に見せることができる。例えば、発話済みのテキストを表示領域V1から消去する態様が考えられる。この場合、画像やテキストの表示位置や表示輝度は、画像表示部20を透過して視認される外景の視認性を妨げない位置、輝度とすることが好ましい。これにより、例えば、プロジェクターにより表示されるプレゼンテーションのスライド画像を、使用者が視認しやすくなる。また、これから発話するテキスト等をハイライト等の強調表示をしてもよい。
従来、作業の手順のマニュアル等を見ながら作業を行う場合、作業をどこまで実行したかの確認をすること、及び、作業が正しい手順で実行されたかを確認することは、作業者の記憶に頼っていた。同様に、プレゼンテーションを実行する場合に、どこまでプレゼンテーションが進行したかを記録することは容易ではなく、プレゼンテーションを実行する人の記憶に頼って管理されていた。本実施形態のHMD100を利用すれば、HMD100を装着する使用者は、作業内容をチェックリストにより自身で確認することができる。また、撮像画像データに基づき動作を検出する構成では、シナリオデータ123に含まれる項目に対応する作業等の動作について、実施済みか否かの確認、進行状態の確認等を、使用者の記憶のみに頼る場合に比べ、容易にかつ確実に行うことができる。また、動作の実行漏れ、動作の実行順序の間違い等を防止できる。シナリオデータ123に含まれる一連の動作を順次実行する間に、他の動作を行っても、AR表示制御部163が表示するリストSRや表示部Dにより、中断した動作に関する情報を得ることができる。これにより、複数の工程を含む作業やプレゼンテーション等の確度を高め、スピード、正確性、時間の管理の各種の面において、向上を図ることが可能となる。
[第2実施形態]
図9は、第2実施形態におけるHMD100の動作を示すフローチャートである。
第2実施形態のHMD100の構成は、上記第1実施形態で図1〜図4を参照して説明した構成と共通であるため、図示及び説明を省略する。
第2実施形態で、HMD100は、近距離無線通信部119によりシナリオデータ123を取得する。また、シナリオデータ123とともに履歴データ124を取得してもよい。
図9のフローチャートにおいて、図8で説明した動作と共通する処理には、同じステップ番号を付す。
図9の動作では、通信制御部165の制御により、近距離無線通信部119が通信を待機する(ステップS31)。ステップS31で、近距離無線通信部119は、外部の機器に対して通信を試行する。具体的には、外部の機器の検索を行う無線信号の送信、外部の機器から送信される無線信号の受信等を試行する。外部の機器は、例えば、BluetoothやNFCで通信する機器、ICタグ等である。通信制御部165は、近距離無線通信部119が外部の機器との無線通信を開始できる状態になるまでの間、通信の試行を継続する(ステップS31;NO)。近距離無線通信部119による通信が可能な状態になった場合(ステップS31;YES)、通信制御部165は、外部の機器との無線通信を実行させ、シナリオデータ123を取得する(ステップS32)。ステップS32では、履歴データ124を取得してもよい。通信制御部165が取得したシナリオデータ123、または、シナリオデータ123と履歴データ124は、記憶部120に記憶される。
AR表示制御部163は、通信制御部165が取得し記憶部120に記憶されたシナリオデータ123を読み出して、シナリオデータ123に含まれる項目を表示する(ステップS33)。項目の表示については図8のステップS14、S15、S23と同様の処理が行われる。制御部140は、ステップS16〜S21の動作を実行する。
近距離無線通信部119は、上述したように近距離無線通信を実行するので、近距離無線通信部119が通信可能な範囲に外部の機器が存在しない場合は、シナリオデータ123を取得しない。そして、近距離無線通信部119の通信可能範囲に外部の機器が現れた場合に、この機器からシナリオデータ123を取得して表示する。
例えば、HMD100の制御装置10を、シナリオデータ123を保持する機器に接近させると、ステップS31で無線通信が発生し(ステップS31;YES)、当該機器から取得するシナリオデータ123に含まれる項目が画像表示部20により表示される。
第2実施形態のHMD100は、シナリオデータ123を保持する機器に接近した場合に、接近した機器が保持するシナリオデータ123に基づく表示を行うので、シナリオデータ123を保持する機器が複数存在する場所で、近接した機器が保持するシナリオデータ123に基づく表示を行う。この場合、HMD100は、場所に対応するシナリオデータ123を取得して表示を行うことができる。
具体的な例としては、建物内の机等の家具や什器・設備、冷蔵庫等の家電製品、工場内の機械、複数の機械で構成される生産ライン、自動車等の場所に、HMD100と無線通信可能かつシナリオデータ123を有する機器を配置する。この場合、HMD100を装着した使用者が、シナリオデータ123を有する機器に接近すると、このシナリオデータ123に基づく表示が行われる。従って、使用者に対し、使用者がいる場所に対応したシナリオデータ123を提供できる。また、シナリオデータ123を、使用者の操作により改変可能な構成とすれば、随時、シナリオデータ123を改変できる。改変したシナリオデータ123を、外部の機器に対して送信する構成であってもよい。
このように、HMD100は、外部の機器と通信する通信部117、近距離無線通信部119を備え、外部の機器からシナリオデータ123を受信して取得してもよい。この場合、項目に関するデータを外部から取得できる。また、近距離無線通信部119は、近距離無線通信を実行して、シナリオデータ123を取得してもよい。この場合、近距離無線通信を行える距離が限られるため、場所に関連付けられたデータを取得できる。
[変形例]
第1、第2実施形態で説明したHMD100を複数含むシステムとして構成することも可能である。この場合、動作を管理する管理者と、動作を実行する実行者が、それぞれHMD100を装着する形態が挙げられる。
この構成では、管理者のHMD100と実行者のHMD100との間でシナリオデータ123及び履歴データ124を送受信することで、シナリオデータ123及び履歴データ124を共有できる。すなわち、実行者のHMD100から管理者のHMD100に対して、シナリオデータ123及び履歴データ124を送信し、管理者のHMD100が受信したシナリオデータ123及び履歴データ124に基づく表示を行う。これにより、管理者は、実行者の動作の実行状態を知ることができる。
また、管理者のHMD100においてシナリオデータ123を編集し、編集後のシナリオデータ123を実行者のHMD100に送信し、実行者のHMD100が編集後のシナリオデータ123に基づく表示を行う構成としてもよい。この場合、管理者が、実行者の動作の実行を補助するようにシナリオデータ123を編集することで、管理者が実行者に対して支援を行える。この構成では、管理者は、情報提供側すなわち情報提供者ということができ、実行者は情報受信者ということができる。
また、異なる複数のシナリオデータ123を、対応づける構成としてもよい。例えば、管理者用のシナリオデータ123と、実行者用のシナリオデータ123とを対応づけることができる。管理者用のシナリオデータ123と実行者用のシナリオデータ123とは異なるデータであってもよい。管理者が確認する項目と、実行者が確認する項目とが異なる場合に、管理者用のシナリオデータ123と実行者用のシナリオデータ123とは異なる項目を含み、それぞれの項目に対応する履歴データ124をHMD100が保持する構成とすればよい。
この場合、実行者が実行する作業について、管理者と実行者のそれぞれが装着するHMD100で、動作の実行状態を確認し、履歴データ124を生成できる。これにより、動作の実行に関してダブルチェックを行うことができ、動作の実行精度の向上を図ることができる。
なお、この発明は上記各実施形態の構成に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能である。
上記各実施形態において、使用者が表示部を透過して外景を視認する構成は、右光学像表示部26及び左光学像表示部28が外光を透過する構成に限定されない。例えば外景を視認できない状態で画像を表示する表示装置にも適用可能である。具体的には、右カメラ61及び/又は左カメラ62の撮像画像、この撮像画像に基づき生成される画像やCG、予め記憶された映像データや外部から入力される映像データに基づく映像等を表示する表示装置に、本発明を適用できる。この種の表示装置としては、外景を視認できない、いわゆるクローズ型の表示装置を含むことができる。また、AR表示、MR表示、或いはVR表示といった処理を行わず、外部から入力される映像データまたはアナログ映像信号を表示する表示装置も、本発明の適用対象として勿論含まれる。
また、例えば、画像表示部20に代えて、例えば帽子のように装着する画像表示部等の他の方式の画像表示部を採用してもよく、使用者の左眼に対応して画像を表示する表示部と、使用者の右眼に対応して画像を表示する表示部とを備えていればよい。また、本発明の表示装置は、例えば、自動車や飛行機等の車両に搭載されるヘッドマウントディスプレイとして構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたヘッドマウントディスプレイとして構成されてもよい。この場合、使用者の身体に対する位置を位置決めする部分、及び、当該部分に対し位置決めされる部分を装着部とすることができる。
さらに、上記実施形態では、画像表示部20と制御装置10とが分離され、接続部40を介して接続された構成を例に挙げて説明したが、制御装置10と画像表示部20とが一体に構成され、使用者の頭部に装着される構成とすることも可能である。
また、制御装置10として、ノート型コンピューター、タブレット型コンピューター又はデスクトップ型コンピューターを用いてもよい。また、制御装置10として、ゲーム機や携帯型電話機やスマートフォンや携帯型メディアプレーヤーを含む携帯型電子機器、その他の専用機器等を用いてもよい。また、制御装置10が画像表示部20と分離して構成され、制御装置10と画像表示部20との間で無線通信により各種信号を送受信する構成としてもよい。
また、例えば、画像表示部20において画像光を生成する構成として、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)のディスプレイと、有機EL制御部とを備える構成としてもよい。また、画像光を生成する構成として、LCOS(Liquid crystal on silicon, LCoSは登録商標)や、デジタル・マイクロミラー・デバイス等を用いることもできる。
本発明でいう「表示部」は、画像光を出射する構成に相当し、以下の説明ではHMD100が画像光を出射することを、「表示する」と呼ぶ。
上記各実施形態では、図4を参照して説明した左右の画像光生成部により画像光を生成し、図2に示す右光学像表示部26及び左光学像表示部28によって、使用者の右眼と左眼のそれぞれに向けて画像光を照射し、使用者の右眼と左眼のそれぞれに画像光を入射させる構成を例示する。「表示部」の構成はこれに限定されない。すなわち、画像光を照射するものであれば、図2及び図4の構成に限定されない。例えば本実施形態の構成では、ハーフミラー261A、262Aを有する「右導光部」及び「左導光部」によって、使用者の眼に向けて画像光を出射する。また、画像光を生成する構成として、右バックライト221及び左バックライト222と、右LCD241及び左LCD242とを備える。「表示部」はこれらの構成を必須としない。
例えば、画像表示部20の右表示駆動部22及び左表示駆動部24のいずれか、又は両方に内蔵する機構によって生成される画像光を、画像表示部20の使用者側すなわち使用者の眼を向く側に設けられる反射機構により反射して、使用者の眼に出射してもよい。ここで、反射機構は、例えばMEMS(Micro Electro Mechanical Systems)ミラーを用いた走査光学系を採用することもできる。すなわち、画像光生成部が射出する光を走査するMEMSミラーを有する走査光学系を備え、この走査光学系で走査される光が使用者の眼に直接入射する構成としてもよい。また、走査光学系により走査される光によって虚像が形成される光学部材を、画像表示部20に設けてもよい。この光学部材はMEMSミラーが走査する走査光による虚像を形成する。この場合、MEMSミラーが光を走査することにより、虚像形成面に虚像が形成され、この虚像を使用者が眼で捉えることで、画像が視認(認識)される。この場合の光学部品は、例えば上記実施形態の右導光板261及び左導光板262のように、複数回の反射を経て光を導くものであってもよく、ハーフミラー面を利用してもよい。
また、走査光学系はMEMSミラーを備えた構成に限定されない。画像光を生成する機構も、レーザー光を発するレーザー光源であってもよい。例えば、レーザー網膜投影型のヘッドマウントディスプレイに対して本発明を適用することも可能である。すなわち、光射出部が、レーザー光源と、レーザー光源を使用者の眼に導く光学系とを備え、レーザー光を使用者の眼に入射させて網膜上を走査し、網膜に結像させることにより、使用者に画像を視認させる構成を採用してもよい。
また、走査される光を受ける虚像形成面に代えて、回折格子を用いて使用者の眼に画像光を導く構成であってもよい。つまり、光学部材の内部で画像光を導光させるものに限らず、使用者の眼に向けて画像光を屈折及び/又は反射させて導く機能のみを有するものであってもよい。
MEMS等を有する走査光学系を備えた構成では、画像表示部20における走査光学系の取り付け角度を変更することで、使用者が画像を視認する位置、すなわち画像の表示位置を変更できる。従って、上記各実施形態で表示位置を変更する処理において、右LCD241、左LCD242における画像の表示位置を変更する動作に代えて、走査光学系の角度を変更する動作を行ってもよい。
また、画像光を使用者の眼に導く光学系としては、外部から装置に向けて入射する外光を透過する光学部材を備え、画像光とともに使用者の眼に入射させる構成を採用できる。また、使用者の眼の前方に位置して使用者の視界の一部または全部に重なる光学部材を用いてもよい。
また、上記各実施形態では使用者の眼前に位置する右光学像表示部26及び左光学像表示部28の一部に、ハーフミラー261A、262Aにより虚像が形成される構成を例示した。本発明はこれに限定されず、右光学像表示部26及び左光学像表示部28の全面または大部分を占める面積を有する表示領域に、画像を表示する構成としてもよい。この場合、画像の表示位置を変化させる動作において、画像を縮小する処理を含めてもよい。
さらに、本発明の光学素子は、ハーフミラー261A、262Aを有する右導光板261、左導光板262に限定されず、画像光を使用者の眼に入射させる光学部品であればよく、具体的には、回折格子、プリズム、ホログラフィー表示部を用いてもよい。
また、図4に示した各機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよく、図4に示した通りに独立したハードウェア資源を配置する構成に限定されない。また、制御部140が実行するプログラムは、記憶部120または制御装置10内の記憶装置に記憶されてもよいし、外部の装置に記憶されたプログラムを通信部117、近距離無線通信部119又はインターフェイス125を介して取得して実行する構成としてもよい。また、制御装置10に形成された構成のうち、操作部135のみが単独の使用者インターフェイス(UI)として形成されてもよい。また、制御装置10に形成された構成が重複して画像表示部20に形成されていてもよい。例えば、図4に示す制御部140が制御装置10と画像表示部20との両方に形成されていてもよいし、制御装置10に形成された制御部140と画像表示部20に形成されたCPUとが行う機能が別々に分けられている構成としてもよい。
10…制御装置、20…画像表示部(表示部)、21…右保持部、22…右表示駆動部、23…左保持部、24…左表示駆動部、25…インターフェイス、26…右光学像表示部、28…左光学像表示部、61…右カメラ、62…左カメラ、100…頭部装着型表示装置(表示装置)、117…通信部、119…近距離無線通信部(通信部)、120…記憶部(順序データ記憶部、実行データ記憶部)、125…インターフェイス、140…制御部、150…オペレーティングシステム、160…画像処理部、161…撮像制御部、162…位置検出部(入力部、対象検出部)、163…AR表示制御部、164…状態検出部、165…通信制御部、187…音声処理部、190…表示制御部、201…右バックライト制御部、202…左バックライト制御部、211…右LCD制御部、212…左LCD制御部、221…右バックライト、222…左バックライト、241…右LCD、242…左LCD、251…右投写光学系、252…左投写光学系、261…右導光板、262…左導光板、261A、262A…ハーフミラー。

Claims (12)

  1. 外景を透過して視認可能に画像を表示する表示部と、
    入力を認識する入力部と、
    動作に対応する複数の項目を含む項目データに基づき、前記表示部に項目を表示させ、前記入力部で認識した入力に応じて、前記表示部における表示を変化させる制御部と、を備え、
    複数の前記項目の各々には、動作の実行順に対応する項目の順序が設定され、
    前記制御部は、複数の前記項目をリスト形式であって、設定された前記順序で表示させ、
    次に実行させる動作に対応する項目と、次に実行させる前記動作の対象位置に第1マーカーとを表示させ、動作が完了した項目に重なるように第2マーカーを表示させ、動作が未完了のまま次の動作が実行された項目に重なるように第3マーカーを表示させること、を特徴とする表示装置。
  2. 前記制御部は、前記項目データに含まれる前記項目に対応する動作の実行順に関する情報を含む順序データに基づき、画像を前記表示部に表示させること、
    を特徴とする請求項記載の表示装置。
  3. 前記項目データと前記順序データとを対応付けて記憶する順序データ記憶部を備えること、
    を特徴とする請求項記載の表示装置。
  4. 前記入力部は、前記表示部を透過して視認される範囲の入力を検出して入力位置を特定し、
    前記制御部は、前記入力部で特定した入力位置に対応して前記表示部における表示を変化させること、
    を特徴とする請求項1からのいずれかに記載の表示装置。
  5. 前記制御部は、前記入力部で特定した入力位置に対応する位置に表示中の前記項目に指標を重ねて表示させること、
    を特徴とする請求項記載の表示装置。
  6. 前記外景の撮像画像または前記外景から集音される音声に基づき、前記項目に対応する動作の実行状態を検出する状態検出部を備え
    前記制御部は、前記状態検出部が検出した実行状態に応じて、前記表示部によって表示中の前記項目の表示状態を変化させること、
    を特徴とする請求項1からのいずれかに記載の表示装置。
  7. 前記動作の実行状態に係る情報を含む実行データを記憶する実行データ記憶部を備え、
    前記制御部は、前記項目データに含まれる前記項目に対応する動作の実行データを、前記項目データに対応付けて前記実行データ記憶部に記憶させ、前記実行データ記憶部から前記実行データを読み出した場合に、読み出した実行データに基づき、前記表示部によって表示する前記項目の表示状態を制御すること、
    を特徴とする請求項記載の表示装置。
  8. 前記外景における対象を検出する対象検出部を備え、
    前記制御部は、前記対象検出部で検出された前記対象が前記表示部を透過して視認される位置に対応させて、前記項目データに含まれる項目を表示させること、
    を特徴とする請求項1からのいずれかに記載の表示装置。
  9. 外部の機器と通信する通信部を備え、
    前記通信部により前記外部の機器から前記項目データを受信して取得すること、
    を特徴とする請求項1からのいずれかに記載の表示装置。
  10. 前記通信部は近距離無線通信を実行すること、
    を特徴とする請求項記載の表示装置。
  11. 外景を透過して視認可能に画像を表示する表示部を有する表示装置の制御方法であって、
    動作に対応する複数の項目を含む項目データに基づき、前記表示部に前記項目を表示させるステップと、
    前記表示部を透過して視認される範囲の入力を検出して入力位置を特定するステップと、
    特定した入力位置に対応する位置に表示中の前記項目の表示状態を変化させるステップと、を有し、
    複数の前記項目の各々には、動作の実行順に対応する項目の順序が設定され、
    前記表示部に前記項目を表示させるステップは、複数の前記項目をリスト形式であって、設定された前記順序で表示させ、
    次に実行させる動作に対応する項目と、次に実行させる前記動作の対象位置に第1マーカーとを表示させ、動作が完了した項目に重なるように第2マーカーを表示させ、動作が未完了のまま次の動作が実行された項目に重なるように第3マーカーを表示させること、
    を特徴とする表示装置の制御方法。
  12. 外景を透過して視認可能に画像を表示する表示部を有する表示装置を制御するコンピューターが実行可能なプログラムであって、
    前記コンピューターに、
    動作に対応する複数の項目を含む項目データに基づき、前記表示部に前記項目を表示させる手順と、
    前記表示部を透過して視認される範囲の入力を検出して入力位置を特定する手順と
    特定した入力位置に対応する位置に表示中の前記項目の表示状態を変化させる手順と、を実行させ、
    複数の前記項目の各々には、動作の実行順に対応する項目の順序が設定され、
    前記表示部に前記項目を表示させる手順は、複数の前記項目をリスト形式であって、設定された前記順序で表示させ、
    次に実行させる動作に対応する項目と、次に実行させる前記動作の対象位置に第1マーカーとを表示させ、動作が完了した項目に重なるように第2マーカーを表示させ、動作が未完了のまま次の動作が実行された項目に重なるように第3マーカーを表示させる、プログラム。
JP2015135738A 2015-07-07 2015-07-07 表示装置、表示装置の制御方法、及び、プログラム Active JP6554948B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2015135738A JP6554948B2 (ja) 2015-07-07 2015-07-07 表示装置、表示装置の制御方法、及び、プログラム
US15/130,281 US10281976B2 (en) 2015-07-07 2016-04-15 Display device, control method for display device, and computer program
US16/256,257 US10664044B2 (en) 2015-07-07 2019-01-24 Display device, control method for display device, and computer program
US16/848,171 US11073901B2 (en) 2015-07-07 2020-04-14 Display device, control method for display device, and computer program
US17/356,763 US11301034B2 (en) 2015-07-07 2021-06-24 Display device, control method for display device, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015135738A JP6554948B2 (ja) 2015-07-07 2015-07-07 表示装置、表示装置の制御方法、及び、プログラム

Publications (2)

Publication Number Publication Date
JP2017016599A JP2017016599A (ja) 2017-01-19
JP6554948B2 true JP6554948B2 (ja) 2019-08-07

Family

ID=57830768

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015135738A Active JP6554948B2 (ja) 2015-07-07 2015-07-07 表示装置、表示装置の制御方法、及び、プログラム

Country Status (1)

Country Link
JP (1) JP6554948B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109754256A (zh) * 2017-11-08 2019-05-14 徐蔚 基于码链的模型、装置、系统、方法和应用
JP7171208B2 (ja) * 2018-03-20 2022-11-15 住友重機械工業株式会社 建設機械の作業支援装置
JP7403427B2 (ja) * 2020-10-27 2023-12-22 株式会社日立製作所 透過型表示装置、作業支援システム、表示プログラム
CN112734940B (zh) * 2021-01-27 2023-06-06 深圳迪乐普智能科技有限公司 Vr内容播放修改方法、装置、计算机设备及存储介质
CN112734949B (zh) * 2021-01-27 2023-03-21 深圳迪乐普智能科技有限公司 Vr内容的属性修改方法、装置、计算机设备及存储介质
CN112734942B (zh) * 2021-01-27 2023-07-11 深圳迪乐普智能科技有限公司 Ar内容播放修改方法、装置、计算机设备及存储介质
US20240203277A1 (en) * 2021-05-10 2024-06-20 Sony Group Corporation Information processing device, information processing method, and information processing program

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1157316B1 (de) * 1999-03-02 2003-09-03 Siemens Aktiengesellschaft System und verfahren zur situationsgerechten unterstützung der interaktion mit hilfe von augmented-reality-technologien
JP2005085190A (ja) * 2003-09-11 2005-03-31 Intec Web & Genome Informatics Corp 作業支援システム
JP5120871B2 (ja) * 2007-02-07 2013-01-16 株式会社京三製作所 作業支援システム
JP2010152443A (ja) * 2008-12-24 2010-07-08 Brother Ind Ltd ヘッドマウントディスプレイ
JP2010211623A (ja) * 2009-03-11 2010-09-24 Brother Ind Ltd 作業支援システム
JP2011186651A (ja) * 2010-03-05 2011-09-22 Ryoyu Systems Co Ltd 作業管理システム及び作業管理方法並びにそのプログラム
JP2012254145A (ja) * 2011-06-08 2012-12-27 Toshiba Corp 医用画像診断装置及び画像処理装置
WO2014097413A1 (ja) * 2012-12-19 2014-06-26 株式会社日立製作所 作業支援端末および作業支援システム

Also Published As

Publication number Publication date
JP2017016599A (ja) 2017-01-19

Similar Documents

Publication Publication Date Title
US11301034B2 (en) Display device, control method for display device, and computer program
JP6693060B2 (ja) 表示システム、表示装置、表示装置の制御方法、及び、プログラム
JP6554948B2 (ja) 表示装置、表示装置の制御方法、及び、プログラム
US9898868B2 (en) Display device, method of controlling the same, and program
CN108535868B (zh) 头部佩戴型显示装置及其控制方法
CN108376029B (zh) 显示系统
CN105739095B (zh) 显示装置以及显示装置的控制方法
JP2017102768A (ja) 情報処理装置、表示装置、情報処理方法、及び、プログラム
JP2017134575A (ja) 表示装置、表示装置の制御方法、及び、プログラム
JP2016126365A (ja) 表示システム、表示装置、情報表示方法、及び、プログラム
US10567730B2 (en) Display device and control method therefor
JP2018142857A (ja) 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
JP2018142168A (ja) 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
JP2018124721A (ja) 頭部装着型表示装置、及び頭部装着型表示装置の制御方法
JP2016085350A (ja) 表示装置、及び、表示装置の制御方法
JP6590050B2 (ja) 表示装置、表示システム、表示装置の制御方法、及び、プログラム
JP2019164420A (ja) 透過型頭部装着型表示装置および透過型頭部装着型表示装置の制御方法、透過型頭部装着型表示装置の制御のためのコンピュータープログラム
JP2018084886A (ja) 頭部装着型表示装置、頭部装着型表示装置の制御方法、コンピュータープログラム
JP2016024208A (ja) 表示装置、表示装置の制御方法、および、プログラム
JP2016122177A (ja) 表示装置、及び、表示装置の制御方法
JP2017182228A (ja) 入力装置、入力方法、コンピュータープログラム
JP2017120488A (ja) 表示装置、表示システム、表示装置の制御方法、及び、プログラム
JP2017120302A (ja) 表示装置、表示システム、表示装置の制御方法、及び、プログラム
JP2018042004A (ja) 表示装置、頭部装着型表示装置、及び、表示装置の制御方法
JP2016090853A (ja) 表示装置、表示装置の制御方法、及び、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180615

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190226

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190611

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190624

R150 Certificate of patent or registration of utility model

Ref document number: 6554948

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150