JP2017092628A - 表示装置、及び、表示装置の制御方法 - Google Patents

表示装置、及び、表示装置の制御方法 Download PDF

Info

Publication number
JP2017092628A
JP2017092628A JP2015218180A JP2015218180A JP2017092628A JP 2017092628 A JP2017092628 A JP 2017092628A JP 2015218180 A JP2015218180 A JP 2015218180A JP 2015218180 A JP2015218180 A JP 2015218180A JP 2017092628 A JP2017092628 A JP 2017092628A
Authority
JP
Japan
Prior art keywords
sensor
unit
motion
user
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015218180A
Other languages
English (en)
Inventor
健郎 矢島
Takeo Yajima
健郎 矢島
勇一 毛利
Yuichi Mori
勇一 毛利
由貴 藤巻
Yuki Fujimaki
由貴 藤巻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2015218180A priority Critical patent/JP2017092628A/ja
Priority to US14/968,384 priority patent/US20160170482A1/en
Publication of JP2017092628A publication Critical patent/JP2017092628A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】頭部装着型の表示装置において、使用者の身体の動きについて、運動中心の動きに対応した処理を速やかに実行できるようにする。【解決手段】頭部装着型表示装置100は、使用者の眼に画像光を照射する画像表示部20と、複数の動きセンサーとしての第1センサー66及び第2センサー68と、頭部装着型表示装置100の装着状態において、使用者の身体に対して偏りを有する位置に配置される第1センサー66及び第2センサー68と、を備える。【選択図】図1

Description

本発明は、表示装置、及び、表示装置の制御方法に関する。
従来、頭部に装着する表示装置が知られている(例えば、特許文献1参照)。特許文献1記載のディスプレイは、眼鏡型のフレームにシースルーの導光手段を設けたディスプレイであり、フレームに撮像装置が取り付けられる。このディスプレイは、撮像装置によって撮像した画像と、導光手段を通してユーザーが視認する対象物の像とを一致させることで、補正データを生成し、その補正データに基づいて撮像データをユーザーの視野と一致させる。これにより、対象物の像に対して対象物に関する各種のデータを重ねて表示するAR(Augmented Reality)技術を実現する。
また、頭部に装着する装置が、頭部の動きを検出する例が知られている(例えば、特許文献2参照)。特許文献2には、眼鏡型のフレームを有し、眼鏡のテンプル部にセンサーを設けた眼鏡型操作デバイスが記載されている。このデバイスは、センサーの検出信号により、使用者が頭部を動かす、眼を動かすなどの動作を検出する。
特開2011−2753号公報 特開2014−137522号公報
特許文献1記載のように、頭部に装着される表示装置において、頭部の動きに対応して表示を制御することが考えられる。この場合、例えば特許文献2に記載のように、センサーを用いて動きを検出することが考えられる。運動の中心における動きを直接検出できれば、動作量や動作の方向を簡単かつ正確に求めることができるが、使用者の身体において運動の中心となる位置にセンサーを配置することは、通常、容易ではない。
本発明は、上記事情に鑑み、頭部装着型の表示装置において、使用者の身体の動きについて、運動中心の動きに対応した処理を速やかに実行できるようにすることを目的とする。
上記課題を解決するため、本発明は、使用者の頭部に装着される頭部装着型の表示装置であって、前記使用者の眼に画像光を照射する表示部と、前記表示装置の装着状態において、前記使用者の身体に対して偏りを有する位置に配置される複数の動きセンサーと、を備えることを特徴とする。
本発明によれば、偏りを有する位置に配置された複数の動きセンサーの検出結果を利用して、使用者の身体が動いた場合に、動きの中心(運動中心)における動き量や動きの方向等を速やかに求めることができる。
複数の動きセンサーは、例えば、使用者の頭部や頸部の基準位置に対して、互いに偏った位置に配置することができる。より具体的には、使用者の頭部が動く場合の中心となり得る頸部関節、或いは、頭部の中心等を基準として、複数の動きセンサーの相対的な位置が偏った位置になる構成とすることができる。この場合、使用者の頭部が動いた場合に、この動きに起因する複数の動きセンサーの検出値の差に基づき、使用者の頭部の動きを解析できる。これにより、例えば、動きの中心である頸部関節、或いは、頭部の中心等における動きを求めることができる。
また、本発明は、いずれかの前記動きセンサーは、装着状態において前記頭部の中心より一方側に位置し、他の前記動きセンサーは前記頭部の中心より他方側に位置すること、を特徴とする。
本発明によれば、頭部の中心より一方側と他方側に配置された動きセンサーの検出結果を利用して、使用者の頭部が動いた場合に、動きの中心(運動中心)における動き量や動きの方向等を速やかに求めることができる。
ここで、頭部の中心とは、使用者の身長に対し垂直な水平面における頭部の中心を指すが、例えば、両眼の高さ位置における水平面における中心を指してもよいし、使用者の頭部の3次元的な中心であってもよい。
また、本発明は、上記表示装置において、いずれかの前記動きセンサーは、装着状態において前記頭部の中心より左側に位置し、他の前記動きセンサーは前記頭部の中心より右側に位置すること、を特徴とする。
本発明によれば、使用者の頭部が動いた場合に、頭部の運動中心における動き量や動きの方向等を速やかに求めることができる。
また、本発明は、上記表示装置において、いずれかの前記動きセンサーは、装着状態において、前記動きの中心となる可動部より一方側に位置し、他の前記動きセンサーは前記可動部の他方側に位置すること、を特徴とする。
本発明によれば、動きの中心に対し一方側と他方側に配置された動きセンサーの検出結果を利用して、使用者の身体が動いた場合に、動きの中心における動き量や動きの方向等を速やかに求めることができる。
ここで、可動部は、使用者の身体において可動する部位を指し、例えば頸部等の関節が相当する。また、本発明の可動部は、使用者の身長に対し垂直な水平面における運動の中心となり得る部位を指すが、例えば、両眼の高さ位置における水平面における動きの中心を指してもよいし、使用者の身体における3次元的な中心であってもよい。また、使用者の動きが回転運動成分と平行(平進)運動成分とを含む動きである場合、回転運動の中心を、上記の動きの中心としてもよい。
例えば、可動部を、使用者の頸部の関節(より具体的には、第1頸椎(環椎)と第2頸椎(軸椎)との椎間関節)とする場合、頸部を中心とする使用者の頭部の動きに対応して、動き量や動きの方向等を求めることができる。これにより、使用者の頭部が動いた場合に、運動中心である頸部における動き量や動きの方向等を速やかに求めることができる。
また、本発明は、上記表示装置において、前記可動部は、前記使用者の頸部関節を想定して設定される位置であること、を特徴とする。
本発明によれば、頸部を中心とする使用者の頭部の動きに対応して、動き量や動きの方向等を求めることができる。
また、本発明は、上記表示装置において、複数の前記動きセンサーは、前記表示装置の装着状態においていずれかの前記動きセンサーと前記可動部との距離が、他の前記動きセンサーと前記可動部との距離と異なるように配置されること、を特徴とする。
本発明によれば、可動部と動きセンサーとの相対位置の相違が、動きセンサーの検出値の差に反映されやすい。これにより、複数の動きセンサーの検出値に基づいて、動きの中心の位置や、動きの中心における動き量等を、より高い精度で求めることができる。
また、本発明は、上記表示装置において、前記表示部は、前記使用者の眼に向けて画像光を放つ表示領域を有する光学素子を備え、複数の前記動きセンサー、及び、前記光学素子の表示領域の中央位置が直線状に並んで位置すること、を特徴とする。
本発明によれば、表示領域を構成する光学素子の位置を運動中心とする動きに対応して、運動中心における動き量や動きの方向等を速やかに求めることができる。
また、本発明は、上記表示装置において、前記光学素子は前記使用者の眼に向けて画像光を放つ表示領域としてのハーフミラーを有すること、を特徴とする。
本発明によれば、使用者が視認できる画像の中央を運動中心とする動きに対応して、運動中心における動き量や動きの方向等を速やかに求めることができる。
また、本発明は、上記表示装置において、前記使用者の左右の眼の前に跨がって装着される本体を有し、少なくとも2つの前記動きセンサーが、前記本体の中央に対して対称な位置にあること、を特徴とする。
本発明によれば、複数の動きセンサーが使用者の動きの運動中心の両側で検出する可能性が高くなり、動き量や動きの方向等を速やかに求めることができる。
また、本発明は、上記表示装置において、前記本体は、前記使用者の右眼の前に位置する右部と、前記使用者の左眼の前に位置する左部と、前記本体の中央に位置して前記右部と前記左部とを連結する連結部と、を有し、少なくとも2つの前記動きセンサーが前記連結部に対して対称な位置にあること、を特徴とする。
本発明によれば、眼鏡型の表示装置の中央を運動中心とする動きに対応して、運動中心における動き量や動きの方向等を速やかに求めることができる。
また、本発明は、上記表示装置において、複数の前記動きセンサーは、少なくとも、光学センサー、及び、慣性センサーを含むこと、を特徴とする。
本発明によれば、異なる種類のセンサーの検出結果を用いることにより、使用者の頭部の動きに関する情報を得ることができ、センサーの検出値を他の用途にも活用できる。
また、本発明は、上記表示装置において、複数の前記動きセンサーは、光学センサー、及び、慣性センサーのうちいずれか1種類のセンサーで構成されること、を特徴とする。
本発明によれば、同種のセンサーの検出結果を用い、より容易に、使用者の頭部の動きに関する情報を得ることができる。
また、本発明は、上記表示装置において、複数の前記動きセンサーの検出値に基づいて、前記使用者の動きについて、動きの中心における動きを求める動き検出部を備えること、を特徴とする。
本発明によれば、複数の動きセンサーを利用して使用者の動きを的確に求めることができるので、動きに対応した処理を速やかに実行できる。
また、本発明は、上記表示装置において、前記動き検出部は、複数の前記動きセンサーのそれぞれの検出値と、前記動きセンサーの位置とに基づき、動きの中心における動きを求めること、を特徴とする。
本発明によれば、複数の動きセンサーを利用して、使用者の動きをより的確に求めることができるので、動きに対応した処理を速やかに実行できる。
また、本発明は、上記表示装置において、前記使用者の視野の少なくとも一部を含む撮像範囲を撮像する撮像部を備え、前記動き検出部は、複数の前記動きセンサーの検出値に基づいて、前記使用者の動きの中心の位置を特定し、特定した前記動きの中心の位置に基づいて、前記撮像部の撮像範囲と、前記使用者の視野との相対位置を求めること、を特徴とする。
本発明によれば、撮像部の撮像範囲と使用者の視野との対応を求めることができ、撮像画像に基づく制御を行うことができる。
また、本発明は、上記表示装置において、前記動き検出部は、前記動きの中心における動きが前記使用者の認知動作に基づく動きであるか否かを判定し、前記使用者の認知動作に基づく動きでないと判定した場合に前記撮像部の撮像画像を補正すること、を特徴とする。
本発明によれば、使用者が意図する動きと、そうでない動きとを区別して、使用者が意図しない動きによる撮像画像のブレ等を補正できる。
また、本発明は、上記表示装置において、前記動き検出部は、複数の前記動きセンサーの検出値に基づいて、前記使用者の動きの中心の位置を特定し、特定した前記動きの中心の位置から前記使用者の眼の位置を推定し、前記動きセンサーの位置に基づく前記表示部の位置を特定し、特定した前記表示部の位置と、推定した前記使用者の眼の位置とに基づいて、前記表示部と前記使用者の眼の位置との相対位置を求めること、を特徴とする。
本発明によれば、表示部と使用者の眼の位置との相対位置を高精度で求めることができる。これにより、例えば、表示部の位置が適切でない場合に、使用者に対して表示部の位置の修正を促すことができる。
また、本発明は、上記表示装置において、前記使用者の頭部に装着され前記表示部を備える表示部本体と、前記表示部本体に対して変位可能に連結され、前記動きセンサーとしての撮像部と、前記表示部本体に対する前記撮像部の位置または変位を検出する検出部と、前記検出部により前記表示部本体と前記撮像部との相対位置を求める制御部と、を備えることを特徴とする。
本発明によれば、表示部本体に対して変位可能な撮像部を備えることで、撮像範囲を変化させることができる。また、撮像部を動かした場合に表示部本体と撮像部との相対位置を求めるので、撮像部の動きに伴い必要な補正等の処理を実行できる。また、使用者の身体が動いた場合に、運動中心における動き量や動きの方向等を速やかに求めることができる。
また、本発明は、使用者の頭部に装着される表示部本体を有する表示部と、前記表示部本体に対し、変位可能に連結された撮像部と、前記表示部本体に対する前記撮像部の位置または変位を検出する検出部と、前記検出部により前記表示部本体と前記撮像部との相対位置を求める制御部と、を備えることを特徴とする。
本発明によれば、表示部本体に対して変位可能な撮像部を備えることで、撮像範囲を変化させることができる。また、撮像部を動かした場合に表示部本体と撮像部との相対位置を求めるので、撮像部の動きに伴い必要な補正等の処理を実行できる。
また、本発明は、上記表示装置において、前記撮像部と前記表示部本体とを回動可能に連結する連結部を有し、前記検出部は前記連結部における前記撮像部と前記表示部本体との角度の大きさまたは角度の変化を検出すること、を特徴とする。
本発明によれば、撮像部を表示部本体に対し可動に連結し、撮像部の位置または変位を検出する構成を、容易に実現できる。
また、本発明は、上記表示装置において、複数の前記検出部を備え、前記制御部は複数の前記検出部の検出値に基づいて、前記表示部本体と前記撮像部との相対位置を求めること、を特徴とする。
本発明によれば、複数の検出部を用いて撮像部の位置または変位を、より正確に検出できる。
また、本発明は、上記表示装置において、前記撮像部の撮像画像に基づき前記表示部にコンテンツを表示する表示処理部を備えること、を特徴とする。
本発明によれば、撮像部が撮影した画像に基づきコンテンツを表示することができ、この撮像部を変位させて撮像範囲を変えることができる。
また、本発明は、上記表示装置において、前記表示処理部は、前記制御部が求める前記表示部本体と前記撮像部との相対位置に基づき、前記コンテンツの表示位置を調整すること、を特徴とする。
本発明によれば、撮像部が撮影した画像に基づきコンテンツを表示することができ、この撮像部を変位させた場合に表示位置を調整して、表示の整合性を保つことができる。このため、コンテンツの表示を継続した状態で撮像部を変位させることができる。
また、本発明は、上記表示装置において、前記表示処理部は、前記表示部本体と前記撮像部との相対位置に基づき、前記使用者の視界の中心軸と、前記撮像部の光軸とのズレを補償するように前記コンテンツの表示位置を調整すること、を特徴とする。
本発明によれば、撮像部が撮影した画像に基づき表示するコンテンツの位置を、使用者の視線に適した位置に補正できる。
また、本発明は、上記表示装置において、前記制御部は、前記検出部の検出結果に基づき、前記コンテンツの表示位置の調整の要否を判定すること、を特徴とする。
本発明によれば、コンテンツの表示位置を、適切な精度で制御できる。
また、本発明は、上記表示装置において、前記表示処理部は、前記コンテンツの表示位置を調整する前に報知を行うこと、を特徴とする。
本発明によれば、表示部本体を装着して使用する使用者の利便性の向上を図ることができる。
また、本発明は、上記表示装置において、前記撮像部と前記制御部とを有線接続し、前記撮像部の撮像画像を前記制御部に伝送する接続部を備え、前記接続部は前記撮像部と前記表示部本体とを連結する連結部に沿って配置されること、を特徴とする。
本発明によれば、撮像部が撮影する画像をより確実に制御部に伝送できる。
また、本発明は、上記表示装置において、前記撮像部の撮像画像を前記制御部に無線伝送する無線伝送部を備えること、を特徴とする。
本発明によれば、撮像部を、より高い自由度で変位させることができる。
また、上記課題を解決するため、本発明の表示装置の制御方法は、使用者の頭部に装着され、前記使用者の眼に画像光を照射する表示部と、複数の動きセンサーと、を備える表示装置により、複数の前記動きセンサーの検出値に基づき、前記頭部の運動中心における動きを求めること、を特徴とする。
本発明によれば、使用者の頭部が動いた場合に、運動中心における動き量や動きの方向等を速やかに求め、この動きに対応した処理を実行できる。
また、本発明は、上記表示装置の制御方法において、複数の前記動きセンサーのそれぞれの検出値と、前記動きセンサーの位置とに基づき、動きの中心における動きを求めること、を特徴とする。
本発明によれば、複数の動きセンサーを利用して使用者の動きを的確に求めることができるので、動きに対応した処理を速やかに実行できる。
また、本発明は、上記表示装置の制御方法において、前記表示部を備え、前記使用者の頭部に装着される表示部本体に対し変位可能に連結された撮像部を備える前記表示装置によって、前記表示部本体に対する前記撮像部の位置または変位を検出することにより、前記表示部本体と前記撮像部との相対位置を求めること、を特徴とする。
本発明によれば、表示部本体と撮像部との相対位置を求めることができる。
また、上記課題を解決するため、本発明の表示装置の制御方法は、使用者の頭部に装着される表示部本体に表示部を設け、前記表示部本体に対し変位可能に連結された撮像部を備える表示装置において、前記表示部本体に対する前記撮像部の位置または変位を検出することにより、前記表示部本体と前記撮像部との相対位置を求めること、を特徴とする。
本発明によれば、表示部本体に対して撮像部を動かし、撮像範囲を変化させることができる。そして、撮像部を動かした場合に表示部本体と撮像部との相対位置を求めるので、撮像部の動きに伴い必要な補正等の処理を実行できる。
頭部装着型表示装置の外観構成を示す説明図。 画像表示部の光学系の構成を示す図。 画像表示部を使用者の頭部に装着した状態を模式的に示す図であり、(A)は平面図、(B)は側面視図である。 画像表示部を使用者の頭部に装着した状態を模式的に示す図であり、(A)は平面図、(B)は側面視図である。 センサーの配置状態の他の例を示す図であり、(A)は平面図、(B)は側面視図である。 センサーの配置状態のさらに別の例を示す図であり、(A)は平面図、(B)は側面視図である。 頭部装着型表示装置を構成する各部の機能ブロック図。 頭部装着型表示装置の動作を示すフローチャート。 撮像範囲と使用者の視野との相対位置の例を示す説明図。 頭部装着型表示装置の動作を示すフローチャート。 頭部装着型表示装置の動作を示すフローチャート。 使用者の頭部の動きの影響の例を示す説明図。 頭部装着型表示装置の動作を示すフローチャート。 第2実施形態の頭部装着型表示装置を構成する各部の機能ブロック図。 第2実施形態の頭部装着型表示装置の動作を示すフローチャート。 第1及び第2実施形態の変形例を示す説明図。 第3実施形態の頭部装着型表示装置の外観構成を示す説明図。 第3実施形態の画像表示部の光学系の構成を示す図。 第3実施形態の頭部装着型表示装置を構成する各部の機能ブロック図。 頭部装着型表示装置の装着状態を示す側面図。 第3実施形態の頭部装着型表示装置の動作を示すフローチャート。 第4実施形態の頭部装着型表示装置を構成する各部の機能ブロック図。 第4実施形態の頭部装着型表示装置の概略構成を示す側面視図。 第5実施形態の頭部装着型表示装置を構成する各部の機能ブロック図。 第5実施形態の頭部装着型表示装置の装着状態を示す図。 第6実施形態の頭部装着型表示装置の外観構成を示す説明図。 第6実施形態の頭部装着型表示装置を構成する各部の機能ブロック図。 第7実施形態の頭部装着型表示装置の外観構成を示す説明図。 第7実施形態の頭部装着型表示装置を構成する各部の機能ブロック図。
[第1実施形態]
図1は、本発明を適用した実施形態に係る頭部装着型表示装置100(表示装置)の外観構成を示す説明図である。
頭部装着型表示装置100は、使用者の頭部に装着された状態で使用者に虚像を視認させる画像表示部20(表示部)と、画像表示部20を制御する制御装置10と、を備えている。制御装置10は、使用者が頭部装着型表示装置100を操作するコントローラーとしても機能する。
画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状のフレーム2(本体)を有する。フレーム2は、右保持部21及び左保持部23を有する。右保持部21は、右光学像表示部26の他端である端部ERから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。同様に、左保持部23は、左光学像表示部28の他端である端部ELから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。右保持部21は使用者の頭部において右耳またはその近傍に当接し、左保持部23は使用者の左耳またはその近傍に当接して、使用者の頭部に画像表示部20を保持する。
フレーム2には、右表示駆動部22と、左表示駆動部24と、右光学像表示部26と、左光学像表示部28と、マイク63とが設けられる。
本実施形態では本体の一例として、眼鏡型のフレーム2を例示する。本体の形状は眼鏡型に限定されず、使用者の頭部に装着され固定されるものであればよく、使用者の左右の眼の前に跨がって装着される形状であれば、より好ましい。例えば、ここで説明する眼鏡型の他に、使用者の顔の上部を覆うスノーゴーグル様の形状であってもよいし、双眼鏡のように使用者の左右の眼のそれぞれの前方に配置される形状であってもよい。
眼鏡型のフレーム2は、使用者の右眼の前に位置する右部2A、及び、左眼の前に位置する左部2Bを有し、右部2Aと左部2Bとがブリッジ部2C(連結部)で連結された形状である。ブリッジ部2Cは、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置で、右部2Aと左部2Bとを互いに連結する。
右部2A及び左部2Bは、それぞれテンプル部2D、2Eに連結される。テンプル部2D、2Eは眼鏡のテンプルのようにして、フレーム2を使用者の頭部に支持する。本実施形態のテンプル部2Dは右保持部21で構成され、テンプル部2Eは左保持部23で構成される。
右光学像表示部26は右部2Aに配置され、左光学像表示部28は左部2Bに配置される、それぞれ、使用者が画像表示部20を装着した際に使用者の右及び左の眼前に位置する。
右表示駆動部22と左表示駆動部24とは、使用者が画像表示部20を装着した際の使用者の頭部に対向する側に配置されている。なお、右表示駆動部22及び左表示駆動部24を総称して単に「表示駆動部」とも呼び、右光学像表示部26及び左光学像表示部28を総称して単に「光学像表示部」とも呼ぶ。
表示駆動部22,24は、液晶ディスプレイ241,242(Liquid Crystal Display、以下「LCD241,242」と呼ぶ)、図2を参照して後述する投写光学系251,252等を含む。
右光学像表示部26及び左光学像表示部28は、導光板261,262(図2)と、調光板20Aとを備える。導光板261,262は、光透過性の樹脂等によって形成され、表示駆動部22,24が出力する画像光を、使用者の眼に導く。調光板20Aは、薄板状の光学素子であり、使用者の眼の側とは反対の側である画像表示部20の表側を覆うように配置される。調光板20Aは、光透過性がほぼ無いもの、透明に近いもの、光量を減衰させて光を透過するもの、特定の波長の光を減衰又は反射するもの等、種々のものを用いることができる。調光板20Aの光学特性(光透過率など)を適宜選択することにより、外部から右光学像表示部26及び左光学像表示部28に入射する外光量を調整して、虚像の視認のしやすさを調整できる。本実施形態では、少なくとも、画像表示部20を装着した使用者が外の景色を視認できる程度の光透過性を有する調光板20Aを用いる場合について説明する。調光板20Aは、光学素子である右導光板261及び左導光板262を保護し、右導光板261及び左導光板262の損傷や汚れの付着等を抑制する。
調光板20Aは、右光学像表示部26及び左光学像表示部28に対し着脱可能としてもよく、複数種類の調光板20Aを交換して装着可能としてもよいし、省略してもよい。
また、フレーム2には、カメラユニット3が設けられる。カメラユニット3は、上部カメラ61が配置されるカメラ台座部3Cと、カメラ台座部3Cを支持するアーム部3A、3Bとを有する。アーム部3Aは、右保持部21の先端部APに設けられたヒンジ21Aにより、回動可能に右保持部21に連結される。アーム部3Bは、左保持部23の先端部APに設けられたヒンジ23Aにより、回動可能に左保持部23に連結される。このため、カメラユニット3は全体として、図中矢印Kで示す方向、すなわち装着状態において上下に回動可能である。カメラユニット3は、回動範囲の下端でフレーム2に接する。また、カメラユニット3の回動範囲の上端はヒンジ21A、23Aの仕様等で決定される。
カメラ台座部3Cは、右部2A、左部2B及びブリッジ部2Cの上部に跨がって位置する板状または棒状部材であり、ブリッジ部2Cの上に相当する位置に、上部カメラ61が埋込設置される。上部カメラ61は、CCDやCMOS等の撮像素子及び撮像レンズ等を備えるデジタルカメラであり、単眼カメラであってもステレオカメラであってもよい。
上部カメラ61は、頭部装着型表示装置100の表側方向、換言すれば、画像表示部20を装着した状態における使用者の視界方向の少なくとも一部の外景を撮像する。上部カメラ61の画角の広さは適宜設定可能であるが、例えばカメラユニット3の回動範囲の下端において、上部カメラ61の撮像範囲が、使用者が右光学像表示部26、左光学像表示部28を通して視認する外界を含むことが好ましい。さらに、調光板20Aを通した使用者の視界の全体を撮像できるように上部カメラ61の撮像範囲が設定されているとより好ましい。
上部カメラ61は、制御部140が備える撮像処理部181(図7)の制御に従って撮像を実行し、撮像画像データを撮像処理部181に出力する。
画像表示部20は、制御装置10に接続部40を介して接続する。接続部40は、制御装置10に接続される本体コード48、右コード42、左コード44、及び、連結部材46を備える。右コード42及び左コード44は、本体コード48が2本に分岐したコードである。右コード42は、右保持部21の延伸方向の先端部APから右保持部21の筐体内に挿入され、右表示駆動部22に接続される。同様に、左コード44は、左保持部23の延伸方向の先端部APから左保持部23の筐体内に挿入され、左表示駆動部24に接続される。
連結部材46は、本体コード48と、右コード42及び左コード44との分岐点に設けられ、イヤホンプラグ30を接続するためのジャックを有する。イヤホンプラグ30からは、右イヤホン32及び左イヤホン34が延伸する。イヤホンプラグ30の近傍にはマイク63が設けられる。イヤホンプラグ30からマイク63までは一本のコードにまとめられ、マイク63からコードが分岐して、右イヤホン32と左イヤホン34のそれぞれに繋がる。
マイク63は、例えば図1に示すように、マイク63の集音部が使用者の視線方向を向くように配置され、音声を集音して、音声信号を音声処理部187(図7)に出力する。マイク63は、例えばモノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであってもよいし、無指向性のマイクであってもよい。
右コード42、左コード44、及び、本体コード48は、デジタルデータを伝送可能なものであればよく、例えば金属ケーブルや光ファイバーで構成できる。また、右コード42と左コード44とを一本のコードにまとめた構成としてもよい。
画像表示部20と制御装置10とは、接続部40を介して各種信号を伝送する。本体コード48の連結部材46とは反対側の端部、及び、制御装置10には、互いに嵌合するコネクター(図示略)が設けられる。本体コード48のコネクターと制御装置10のコネクターとを嵌合し、或いは、この嵌合を外すことで、制御装置10と画像表示部20とを接離できる。
制御装置10は、頭部装着型表示装置100を制御する。制御装置10は、決定キー11、点灯部12、表示切替キー13、輝度切替キー15、方向キー16、メニューキー17、及び電源スイッチ18を含むスイッチ類を備える。また、制御装置10は、使用者が手指で操作するトラックパッド14を備える。
決定キー11は、押下操作を検出して、制御装置10で操作された内容を決定する信号を出力する。点灯部12は、LED(Light Emitting Diode)等の光源を備え、光源の点灯状態により、頭部装着型表示装置100の動作状態(例えば、電源のON/OFF)を通知する。表示切替キー13は、押下操作に応じて、例えば、画像の表示モードの切り替えを指示する信号を出力する。
トラックパッド14は、接触操作を検出する操作面を有し、操作面に対する操作に応じて操作信号を出力する。操作面における検出方式は限定されず、静電式、圧力検出式、光学式等を採用できる。輝度切替キー15は、押下操作に応じて画像表示部20の輝度の増減を指示する信号を出力する。方向キー16は、上下左右方向に対応するキーへの押下操作に応じて操作信号を出力する。電源スイッチ18は、頭部装着型表示装置100の電源オン/オフを切り替えるスイッチである。
図2は、画像表示部20が備える光学系の構成を示す要部平面図である。図2には説明のため使用者の左眼LE及び右眼REを図示する。
左表示駆動部24は、左バックライト222、左LCD242、及び左投写光学系252を備える。左バックライト222はLED等の光源と拡散板とを有する。左LCD242は、左バックライト222の拡散板から発せられる光の光路上に配置され、複数の画素をマトリクス状に配置した透過型液晶パネルである。左投写光学系252は、左LCD242を透過した画像光Lを導くレンズ群等を備える。
左投写光学系252は、左LCD242から射出された画像光Lを平行状態の光束にするコリメートレンズを有する。コリメートレンズにより平行状態の光束にされた画像光Lは、左導光板262(光学素子)に入射される。左導光板262は、画像光Lを反射する複数の反射面が形成されたプリズムであり、画像光Lは、左導光板262の内部において複数回の反射を経て左眼LE側に導かれる。左導光板262には、左眼LEの眼前に位置するハーフミラー262A(反射面)が形成される。
ハーフミラー262Aで反射した画像光Lは左眼LEに向けて左光学像表示部28から射出され、この画像光Lが左眼LEの網膜に像を結び、使用者に画像を視認させる。
右表示駆動部22は、左表示駆動部24と左右対称に構成される。右表示駆動部22は、右バックライト221、右LCD241、及び右投写光学系251を備える。右バックライト221はLED等の光源と拡散板とを有する。右LCD241は、右バックライト221の拡散板から発せられる光の光路上に配置され、複数の画素をマトリクス状に配置した透過型液晶パネルである。右投写光学系251は、右LCD241を透過した画像光Lを導くレンズ群等を備える。
右投写光学系251は、右LCD241から射出された画像光Lを平行状態の光束にするコリメートレンズを有する。コリメートレンズにより平行状態の光束にされた画像光Lは、右導光板261(光学素子)に入射される。右導光板261は、画像光Lを反射する複数の反射面が形成されたプリズムであり、画像光Lは、右導光板261の内部において複数回の反射を経て右眼RE側に導かれる。右導光板261には、右眼REの眼前に位置するハーフミラー261A(反射面)が形成される。
ハーフミラー261Aで反射した画像光Lは右眼REに向けて右光学像表示部26から射出され、この画像光Lが右眼REの網膜に像を結び、使用者に画像を視認させる。
使用者の右眼REには、ハーフミラー261Aで反射した画像光Lと、調光板20Aを透過した外光OLとが入射する。左眼LEには、ハーフミラー262Aで反射した画像光Lと、調光板20Aを透過した外光OLとが入射する。このように、頭部装着型表示装置100は、内部で処理した画像の画像光Lと外光OLとを重ねて使用者の眼に入射させ、使用者にとっては、調光板20Aを透かして外景が見え、この外景に重ねて、画像光Lによる画像が視認される。このように、頭部装着型表示装置100は、シースルー型の表示装置として機能する。
なお、左投写光学系252と左導光板262とを総称して「左導光部」とも呼び、右投写光学系251と右導光板261とを総称して「右導光部」と呼ぶ。右導光部及び左導光部の構成は上記の例に限定されず、画像光を用いて使用者の眼前に虚像を形成する限りにおいて任意の方式を用いることができ、例えば、回折格子を用いても良いし、半透過反射膜を用いても良い。
また、図1及び図2に示すように、フレーム2には2つの動きセンサーが取り付けられる。本第1実施形態の動きセンサーは、慣性センサーであり、具体的には第1センサー66及び第2センサー68である。これらの動きセンサーである第1センサー66及び第2センサー68は、頭部装着型表示装置100において、使用者の身体に対して偏りを有する位置に配置される。より具体的には、第1センサー66は右部2Aにおいてテンプル部2D側の端に配置され、第2センサー68は左部2Bにおいてテンプル部2E側の端部に設置される。第1センサー66及び第2センサー68は、加速度センサーや角速度センサー(ジャイロセンサー)等の慣性センサーであり、本実施形態では、3軸のジャイロセンサーとする。
第1センサー66及び第2センサー68は、それぞれ、内蔵する検出機構の測定基準点において、後述するX軸まわりの回転(ピッチ)、Y軸回りの回転(ヨー)、及びZ軸まわりの回転(ロール)を検出する。以下の説明で、第1センサー66及び第2センサー68の位置は、測定基準点の位置をいう。
図3は、画像表示部20を使用者の頭部に装着した状態を模式的に示す図であり、(A)は平面図、(B)は側面視図である。
頭部装着型表示装置100において、第1センサー66及び第2センサー68は、使用者の身体の動きの中心(運動中心)となる位置を基準して、配置される。図3に示す例は、頭部の中心を運動中心とみなす例を示す。
第1センサー66及び第2センサー68のいずれかのセンサーは、使用者の頭部の中心の一方側にあり、他のセンサーは、使用者の頭部の中心の他方側にある。具体的には、第1センサー66は使用者の頭部の右側にあり、第2センサー68は左側にある。
本実施形態で、頭部の中心とは、使用者の身長に対し垂直な水平面における頭部の中心を指す。第1センサー66及び第2センサー68の水平面における位置は、この水平面における頭部の中心を挟んで、右側と左側にある。
なお、頭部装着型表示装置100は、高さ方向(身長の方向、図3のY軸方向)における頭部の中心を特定してもよく、この場合、例えば、両眼の高さ位置における水平面における中心を、「頭部の中心」としてもよい。また、例えば頭頂部から頸椎の上端までを頭部として、使用者の頭部の3次元的な中心を求め、この中心を、「頭部の中心」としてもよい。また、図3の(B)に示すように、第1センサー66及び第2センサー68の高さ方向の位置を、頭部の中心の高さ方向における中心としてもよい。
使用者の頭部の中心の位置は、実際に測定して求めてもよいし、使用者の身長や頭囲のサイズから推定してもよい。例えば、身長や頭囲から頭部の中心の位置を推定するパラメーターや演算式が、統計的な手法により予め得られた場合に、このパラメーターや演算式を用いて頭部の中心の位置を求めてもよい。
より好ましくは、図2、及び、図3の(A)に示すように、本実施形態では、第1センサー66は右導光板261の側方に配置され、第2センサー68は左導光板262の側方に配置される。フレーム2の左右方向における中央位置をC1とすると、使用者に画像光を視認させる表示領域であるハーフミラー261Aの中心C2と、ハーフミラー262Aの中心C3とは、中央位置C1に対して対称な位置にある。言い換えれば、中央位置C1はハーフミラー261Aの中心C2とハーフミラー262Aの中心C3との中点にある。
このように、第1センサー66及び第2センサー68は、中央位置C1に対して対称な位置に設けられることが好ましい。そして、第1センサー66の位置と第2センサー68の位置とを結ぶ直線は、ハーフミラー261A、262Aを通る。つまり、第1センサー66の位置、第2センサー68の位置、ハーフミラー261Aの中心C2、及びハーフミラー262Aの中心C3が、同一直線上に並ぶ。
上記にハーフミラー261A、262Aの中心を含む水平面内における位置関係を説明したが、この水平面に対し垂直な、鉛直方向(高さ方向)における位置関係は、特に制限はない。第1センサー66及び第2センサー68の位置と、ハーフミラー261A、262Aの中心とが、鉛直方向で近接していることが好ましい。例えば、第1センサー66及び第2センサー68の位置が、ハーフミラー261A、262Aの側方にあるとよい。さらに、第1センサー66及び第2センサー68の位置と、ハーフミラー261A、262Aの中心とが、高さ方向において同一位置にあると、より好ましい。
第1センサー66が角速度を検出する軸は、図1に示すように、画像表示部20を装着する使用者の頭部に対し左右方向をX軸、前後方向をZ軸、上下方向をY軸とする。X軸、Y軸、及びZ軸は、使用者の頭部に対応して仮想的に設定される直交座標系を構成する。より詳細には、頭部装着型表示装置100の装着状態において、画像表示部20は左右の眼に対し、使用者が知覚する水平な位置にある。この装着状態において、第1センサー66及び第2センサー68の検出軸(X軸、Y軸、Z軸)が、使用者が知覚する左右、前後、及び上下に一致する構成である。仮に、画像表示部20の装着位置が使用者の頭部に対して傾いたり、ずれたりすれば、第1センサー66及び第2センサー68の検出軸は、左右、前後、上下からずれるが、この問題は使用者が画像表示部20の傾き及びずれを調整することで容易に解消する。
頭部装着型表示装置100は、第1センサー66及び第2センサー68により、画像表示部20を装着した状態で使用者の頭部の動きを検出する。これらの動きセンサーが検出する動きは、第1センサー66の測定基準点(図3のP3)、及び、第2センサー68の測定基準点(図3のP4)における動きである。
頭部装着型表示装置100は、後述するAR表示制御部186の機能によってARコンテンツの表示を行う場合、使用者の頭部の動きの検出(ヘッドトラッキング)を行い、検出した使用者の頭部の動きに対応して表示態様を変化させる。
ヘッドトラッキングにおいては頭部の運動(動き)の基準位置を想定し、この基準位置における動きを求めることが望ましい。上述したように、人間が頭部を動かすとき、頭部の中心(図3の位置P1に相当)または頭部の前部(図3の位置P2に相当)が、動きの中心、或いは基準となることが多い。ここで、動きの中心、或いは基準となる位置を、運動中心と呼ぶ。頭部装着型表示装置100が動きを検出する場合は、使用者の頭だけが動いた場合に限らず、使用者の頭と頭以外の身体とが合わせて動いた場合も、動きを検出する。従って、頭部装着型表示装置100が検出する動きは頭部の動きであるが、この動きの運動中心が、使用者の頭部の外側にあることもあり得る。
ヘッドトラッキングの処理では、運動中心における動きを求める。運動中心の動きを直接検出するためには、運動中心となりやすい位置、例えば位置P1や位置P2に動きセンサーを配置する必要があり、現実的でない。そこで、頭部装着型表示装置100は、第1センサー66及び第2センサー68の検出結果に基づく演算処理により、運動中心における動きを算出する。この演算処理に用いる演算式、テーブル、パラメーター等は、後述するセンサー位置データ122として、予め記憶されている。
そして、第1センサー66及び第2センサー68の位置が、ある種の条件を満たしている場合、運動中心における動きを算出する演算処理が容易になり、軽負荷で実行でき、より正確に運動中心(例えば位置P1、P2)における動きを算出できる。
この条件は、上述したように、第1センサー66及び第2センサー68のいずれかのセンサーは使用者の頭部の中心の一方側にあり、他のセンサーは、使用者の頭部の中心の他方側にあることである。この場合、頭部の中心P1を運動中心とする運動が行われた場合に、運動中心における動きを容易に算出できる。
また、より好ましくは、第1センサー66は右導光板261の側方に配置され、第2センサー68は左導光板262の側方に配置される。さらに、第1センサー66及び第2センサー68は、中央位置C1に対して対称な位置に設けられることが、より好ましい。第1センサー66の位置、第2センサー68の位置、ハーフミラー261Aの中心C2、及びハーフミラー262Aの中心C3が、同一直線上に並ぶことが、さらに好ましい。この場合、頭部の中心P1、または前部の中心P2を運動中心とする運動が行われた場合に、運動中心における動きを容易に算出できる。別の観点では、第1センサー66及び第2センサー68は、使用者の頭部において偏りを有する位置にあり、特に運動中心とみなすことができる位置P1に対して偏った位置にある。
また、鉛直方向(高さ方向)における位置関係は、第1センサー66及び第2センサー68の位置と、ハーフミラー261A、262Aの中心とが、鉛直方向で近接していることが好ましい。さらに、第1センサー66及び第2センサー68の位置と、ハーフミラー261A、262Aの中心とが、高さ方向において同一位置にあると、より好ましい。
また、図4は、運動中心を頭部の中心以外とする例を示す説明図であり、画像表示部20を使用者の頭部に装着した状態を模式的に示す図である。図4において(A)は平面図、(B)は側面視図である。
図4には、使用者の頭部において頸椎を基準とする位置を、運動中心とみなす例を示す。
本実施形態の頭部装着型表示装置100は、後述する検出制御部183によって、第1センサー66及び第2センサー68を利用して、3軸に対応する回転運動、及び/または並進運動を検出する。3軸に対応する回転運動は、具体的には、X軸まわりの回転(ピッチ)、Y軸回りの回転(ヨー)、及びZ軸まわりの回転(ロール)である。
図3に示した構成では、人間が頭部を動かすとき、頭部の中心(図3の位置P1に相当)または頭部の前部(図3の位置P2に相当)が動きの中心となることが多いことに着目して、第1センサー66及び第2センサー68を配置した。
これに対し、例えば使用者が頭部を左右に振る場合など、使用者の身体の可動部を中心とする動きに対し、高精度で対応するため、使用者の可動部を基準とする位置に第1センサー66及び第2センサー68を配置してもよい。
図4には、複数の動きセンサーを、使用者の身体において運度中心となる可動部の位置を基準として配置する場合の、一例を示す。この場合、動きセンサーの一部は、運動中心となる可動部より一方側に位置し、他の動きセンサーは可動部の他方側に位置する。可動部は、使用者の身体において可動する部位を指し、例えば頸部等の関節が相当する。また、可動部は、使用者の身長に対し垂直な水平面における運動の中心となり得る部位と考えてもよい。例えば、両眼の高さ位置における水平面における運動中心を可動部としてもよいし、使用者の身体における3次元的な中心であってもよい。また、使用者の動きが回転運動成分と平行(平進)運動成分とを含む動きである場合、回転運動の中心を、上記の運動中心としてもよい。典型的な可動部の例は、使用者の頸部の関節であり、例えば、第1頸椎(環椎)と第2頸椎(軸椎)とが構成する椎間関節である。この場合、頸部を中心とする使用者の頭部の動きに対応して、動き量や動きの方向等を求めることができる。これにより、使用者の頭部が動いた場合に、運動中心である頸部における動き量や動きの方向等を速やかに求めることができる。
つまり、図3の例では位置P1、P2を運動中心(動きの中心)として考える場合の動きセンサーの配置を示し、図4(A)、(B)は位置P11を運動中心として想定する場合の動きセンサーの配置を示す。
図4の例では、ヘッドトラッキングにおいて、頭部の運動(動き)の基準位置を、頸椎の位置、特に環軸関節である位置P11とする。位置P11の高さ方向(Y軸方向)における位置は、図4(B)に示すように容易に特定できる。
使用者の頸椎の位置または環軸関節の位置は、実際に測定して求めてもよいし、使用者の身長や頭囲のサイズから推定してもよい。例えば、身長や頭囲から頭部の中心の位置を推定するパラメーターや演算式が、統計的な手法により予め得られた場合に、このパラメーターや演算式を用いて頭部の中心の位置を求めてもよい。
上述したヘッドトラッキングの処理において、頭部装着型表示装置100は、第1センサー66及び第2センサー68の検出結果に基づく演算処理により、位置P11を運動中心として、運動中心における動きを算出してもよい。この演算処理に用いる演算式、テーブル、パラメーター等は、後述するセンサー位置データ122として、予め記憶されている。
図4の例では、第1センサー66及び第2センサー68のいずれかのセンサーが、使用者の頸椎、特に位置P11に対し一方側にあり、他のセンサーは、位置P11に対し他方側にあることが好ましい。別の観点では、第1センサー66及び第2センサー68は、使用者の頭部において偏りを有する位置にあり、特に運動中心とみなすことができる位置P11に対して偏った位置にある。この図4の構成においても、第1センサー66及び第2センサー68の位置は上述した条件を満たしており、運動中心における動きを算出する演算処理が容易になり、軽負荷で実行でき、より正確に運動中心(例えば位置P11)における動きを算出できる。
図5は、頭部装着型表示装置100におけるセンサーの配置状態の他の例を示す図である。図5の(A)は平面図、(B)は側面視図である。
図5には、第1センサー66及び第2センサー68のいずれか一方を、使用者の後頭部側に配置する例を示す。図5の例では、一方の動きセンサー(第1センサー66)を使用者の後頭部に接する位置に配置する。
また、他方の動きセンサー(第2センサー68)は、可動部である位置P11に対して、偏った位置にあればよいが、より好ましくは、位置P11に対して第1センサー66の反対側にあるとよい。具体的には、第2センサー68は使用者の顔の前方に位置する。さらに、図5の例では、第2センサー68は、フレーム2の前面の中央である位置P2に配置される。位置P2には上部カメラ61が配置されているが、第2センサー68は、上部カメラ61の奥側や下方に隣接して設けることができる。
図5の例では、右保持部21の先端および左保持部23の先端にベルト2Fを固定する。ベルト2Fは、例えば、ヒンジ21A、23Aに両端のそれぞれが固定され、フレーム2とともに、使用者の頭部を囲むループを形成する。ベルト2Fの材質は、合成樹脂、金属、布、不織布、皮革、或いはこれらの組合せ等、特に制限されない。また、ベルト2Fは、外力が加わらない状態でループ形状を保持する硬性の部材、或いは弾性を有する部材であってもよい。また、容易に変形可能な可撓性の部材であってもよい。また、伸縮性を有していてもよい。
ベルト2Fは、画像表示部20を使用者が装着する状態で、図5(B)に示すように使用者の頭部の周囲に位置する。
ベルト2Fには第1センサー66が取り付けられる。第1センサー66は、ベルト2Fに固定され、または、ベルト2Fに固定されるケース(図示略)に収容される。
この図5の例では、第1センサー66及び第2センサー68が、可動部である位置P11に対して偏った位置にある。さらに、図5の(A)、(B)から明らかなように、第1センサー66と位置P11との距離は、第2センサー68と位置P11との距離よりも長い。このように、いずれかの動きセンサーと可動部との距離が、他の動きセンサーと可動部との距離と異なるように配置されると、可動部と動きセンサーとの相対位置の相違が、動きセンサーの検出値の差に反映されやすい。つまり、第1センサー66及び第2センサー68の位置P11からの距離が異なるために、使用者の頭部が動く場合に、第1センサー66の検出値と、第2センサー68の検出値とは、距離を反映した大きな差を生じる。このため、後述する動き検出部185が、第1センサー66と第2センサー68の検出値の差に基づき、運動中心の位置や、運動中心における動き量等を、より高い精度で求めることができる。
また、ベルト2Fに代えて、合成樹脂や金属を用いた、容易に変形しない硬性の、或いは弾性を有するアーム(図示略)を用いてもよい。このアームは、例えば、一端が右保持部21または左保持部23の端部に固定され、他端が使用者の後頭部に近接する構成とすることができ、アームの他端に第1センサー66が配置される。
これらの構成では、第1センサー66と第2センサー68との一方が、使用者の頭部の前面側に位置し、他方が使用者の頭部の後部に位置する。つまり、第1センサー66と第2センサー68とが、位置P1または位置P11に対して偏った位置にある。また、別の言い方をすれば、第1センサー66及び第2センサー68のいずれかが位置P1または位置P11の一方側にあり、他のセンサーが位置P1または位置P11の他方側にある。
従って、図1〜図4に示した構成と同様に、使用者の頭部が動いた場合に、運動中心における動きを容易に算出できるという利点がある。
また、図5の構成において、使用者の頭部の前側に位置する第2センサー68を、ブリッジ部2Cの位置P2に配置してもよい。
図6は、頭部装着型表示装置100におけるセンサーの配置状態のさらに別の例を示す図であり、(A)は平面図、(B)は側面視図である。
図6は、第1センサー66及び第2センサー68を、Z軸方向において中央付近に配置する例を示す。
図6の構成例では、右保持部21の先端に第1センサー66が配置され、左保持部23の先端に第2センサー68が配置される。右保持部21及び左保持部23の先端部を中空形状として、第1センサー66と左保持部23のそれぞれを右保持部21の先端と左保持部23の先端に収容してもよい。また、右保持部21の先端、及び左保持部23の先端に、センサーを収容するケースを固定し、このケースに第1センサー66、第2センサー68を収容してもよい。
この構成では、第1センサー66と第2センサー68とのいずれかが、使用者の左側頭部に位置し、他方が使用者の右側頭部に位置する。つまり、第1センサー66と第2センサー68とが、位置P1または位置P11に対して偏った位置にある。また、別の言い方をすれば、第1センサー66及び第2センサー68のいずれかが位置P1または位置P11の一方側にあり、他のセンサーが位置P1または位置P11の他方側にある。
従って、図1〜図4に示した構成と同様に、使用者の頭部が動いた場合に、運動中心における動きを容易に算出できるという利点がある。
また、図6の例では、使用者の耳の位置、または耳の近傍に、第1センサー66及び第2センサー68が配置される。画像表示部20を使用者が装着する場合、右保持部21及び左保持部23の先端が、使用者の耳に対して大きくずれた位置となることは起こりにくい。従って、画像表示部20の装着状態の影響を受けにくい位置で、使用者の頭部の動きを検出できる。例えば、時間的に異なるタイミングで検出された複数の検出値を比較し、或いは演算する場合に、装着状態の影響を受けないことで、より正確な結果を得ることができる。また、第1センサー66及び第2センサー68により、ほぼ同一の高さ位置で動きを検出できるため、検出値に基づく運動中心の算出等の処理の負荷が軽いという利点がある。
使用者の耳の位置、または耳の近傍に第1センサー66及び第2センサー68を位置させる方法は、図6の例に限らず、例えば、右イヤホン32に第1センサー66を配置し、左イヤホン34に第2センサー68を配置する構成が挙げられる。この場合、第1センサー66及び第2センサー68は、使用者の耳の穴の位置に保持されるので、より一層、画像表示部20の装着状態の影響を受けにくい位置で安定させることができる。
図5及び図6に示す構成において、第1センサー66と第2センサー68とを入れ替えてもよい。また、図5の構成において、第1センサー66及び第2センサー68を、図1〜図4に示すよう配置した上で、第3のセンサーをベルト2Fに固定してもよい。また、図6の構成において、第1センサー66及び第2センサー68を、位置P3、P4のそれぞれに配置し、第3のセンサー及び第4のセンサーを、右保持部21の先端と左保持部23の先端とに設けてもよい。
図7は、頭部装着型表示装置100を構成する各部の機能ブロック図である。
頭部装着型表示装置100は、コンテンツの供給元となる種々の外部機器OAを接続するインターフェイス125を備える。インターフェイス125は、例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等の有線接続に対応したインターフェイスを用いることができ、無線通信インターフェイスで構成してもよい。外部機器OAは、頭部装着型表示装置100に画像を供給する画像供給装置であり、パーソナルコンピューター(PC)、携帯電話端末、携帯型ゲーム機等が用いられる。
制御装置10は、制御部140、入力情報取得部110、記憶部120、送信部(Tx)51及び送信部(Tx)52を有する。
入力情報取得部110は、操作部135に接続される。操作部135は、上記のトラックパッド14、方向キー16、電源スイッチ18等を含み、入力情報取得部110は、操作部135から入力される信号に基づき、入力内容を取得する。また、制御装置10は、電源部(図示略)を備え、制御装置10及び画像表示部20の各部に電源を供給する。
記憶部120は、不揮発性の記憶装置であって、種々のコンピュータープログラム、および、これらのプログラムに係るデータを記憶する。また、記憶部120は、画像表示部20に表示する静止画像や動画像のデータを記憶しても良い。
記憶部120は、設定データ121を記憶する。設定データ121は、制御部140が実行する各種処理に係る設定値を含む。例えば、画像処理部160及び表示制御部170が画像信号を処理する場合の解像度等の設定値を含む。設定データ121が含む設定値は、予め操作部135の操作で入力された値であってもよいし、通信部117またはインターフェイス125を介して外部機器OAまたは他の装置(図示略)から設定値を受信して記憶してもよい。
記憶部120は、また、センサー位置データ122、及びコンテンツデータ123を記憶する。センサー位置データ122は、後述する動き検出部185が演算処理に用いる演算式、パラメーター等を含む。コンテンツデータ123は、AR表示制御部186がAR表示するコンテンツの画像(静止画像、或いは動画像)データ、及び/又は音声データを含む。
制御部140には、センサー113、GPS115、及び通信部117が接続される。センサー113は、加速度センサーや角速度センサー等の慣性センサーを有し、制御部140はセンサー113の検出値を取得する。センサー113は、例えば3軸の加速度センサーや、3軸の加速度センサーと3軸の角速度センサーと3軸の磁気センサーとを有する9軸センサーとして構成してもよい。
GPS115は、アンテナ(図示略)を備え、GPS(Global Positioning System)信号を受信し、制御装置10の現在位置を算出する。GPS115は、GPS信号に基づいて求めた現在位置や現在時刻を制御部140に出力する。また、GPS115はGPS信号に含まれる情報に基づいて現在時刻を取得し、制御部140が計時する時刻を修正させる機能を備えていてもよい。
通信部117は、無線LAN(WiFi(登録商標))、Miracast(登録商標)、Bluetooth(登録商標)等の規格に準じた無線データ通信を実行する。
外部機器OAが、通信部117に無線接続された場合、制御部140は、コンテンツデータ123を通信部117より取得して、画像表示部20に画像を表示させる。一方、外部機器OAが、インターフェイス125に有線接続された場合、制御部140は、コンテンツデータ123をインターフェイス125より取得して、画像表示部20に画像を表示させる。通信部117及びインターフェイス125は、外部機器OAからコンテンツデータ123を取得するデータ取得部DAとして機能する。
制御部140は、プログラムを実行するCPU(図示略)、CPUが実行するプログラムやデータを一時的に格納するRAM(図示略)、及び、CPUが実行する基本制御プログラムやデータを不揮発的に記憶するROM(図示略)を有する。制御部140は、CPUにより制御プログラムを実行することで、頭部装着型表示装置100の各部を制御する。また、制御部140は、記憶部120が記憶するコンピュータープログラムを読み出して実行し、制御部140の各種機能を実現する。すなわち、オペレーティングシステム(OS)150、画像処理部160、表示制御部170、撮像処理部181、検出制御部183、動き検出部185、AR表示制御部186、及び、音声処理部187として機能する。
画像処理部160は、コンテンツに含まれる画像信号を取得する。画像処理部160は、取得した画像信号から、垂直同期信号VSyncや水平同期信号HSync等の同期信号を分離する。また、画像処理部160は、分離した垂直同期信号VSyncや水平同期信号HSyncの周期に応じて、PLL(Phase Locked Loop)回路等(図示略)を利用してクロック信号PCLKを生成する。画像処理部160は、同期信号が分離されたアナログ画像信号を、A/D変換回路等(図示略)を用いてディジタル画像信号に変換する。画像処理部160は、変換後のディジタル画像信号を、対象画像の画像データ(図中、Data)として、1フレームごとに、制御部140のRAMに格納する。この画像データは、例えばRGBデータである。
なお、画像処理部160は、必要に応じて、画像データの解像度を右表示駆動部22及び左表示駆動部24に適した解像度に変換する解像度変換処理を行ってもよい。また、画像処理部160は、画像データの輝度や彩度を調整する画像調整処理、3D画像データから2D画像データを作成し、或いは2D画像データから3D画像データを生成する2D/3D変換処理等を実行してもよい。
画像処理部160は、クロック信号PCLK、垂直同期信号VSync、水平同期信号HSync、RAMに格納された画像データDataのそれぞれを、送信部51、52を介して送信する。送信部51、52は、トランシーバーとして機能し、制御装置10と画像表示部20との間におけるシリアル伝送を実行する。なお、送信部51を介して送信される画像データDataを「右眼用画像データ」と呼び、送信部52を介して送信される画像データDataを「左眼用画像データ」と呼ぶ。
表示制御部170は、右表示駆動部22及び左表示駆動部24を制御する制御信号を生成し、この制御信号により、右表示駆動部22及び左表示駆動部24のそれぞれによる画像光の生成及び射出を制御する。具体的には、右LCD制御部211による右LCD241の駆動ON/OFF、右バックライト制御部201による右バックライト221の駆動ON/OFFを制御する。また、表示制御部170は、左LCD制御部212による左LCD242の駆動ON/OFF、左バックライト制御部202による左バックライト222の駆動ON/OFFを制御する。
撮像処理部181は、上部カメラ61を制御して撮像を実行させ、撮像画像データを取得する。
検出制御部183は、第1センサー66及び第2センサー68のそれぞれを駆動して、検出値を取得する。例えば、頭部装着型表示装置100の電源投入時などに第1センサー66及び第2センサー68を初期化し、検出可能な状態とする。また、検出制御部183は、予め設定されたサンプリング周期で第1センサー66及び第2センサー68のそれぞれの検出値を取得する。本実施形態では、第1センサー66及び第2センサー68は、それぞれ、X軸まわりの回転(ピッチ)、Y軸回りの回転(ヨー)、及びZ軸まわりの回転(ロール)の角速度の検出値を出力する。この検出値は角速度の大きさと回転方向を含んでもよい。
動き検出部185は、検出制御部183が取得する第1センサー66及び第2センサー68の検出値に基づき、運動中心における動き量を算出する。運動中心は、第1センサー66及び第2センサー68が検出する動きから求められる使用者の頭部の動きの中心や基準の位置である。例えば、使用者の頭部が回転する場合、この回転の中心が運動中心に相当する。また、例えば使用者の頭部が直進する場合、運動中心の位置は特定の1点に定まらないが、この場合は便宜的に運動中心(図3のP1、または図4のP11)を運動中心とする。
動き検出部185は、記憶部120が記憶するセンサー位置データ122を用いて、ヘッドトラッキングの演算を行う。センサー位置データ122は、第1センサー66の位置P3、第2センサー68の位置P4との相対的な位置関係または絶対位置を示すデータを含む。センサー位置データ122は、位置P3及びP4のそれぞれと、位置P1(またはP11)及び/又は位置P2との位置関係を示すデータを含んでもよい。また、センサー位置データ122は、第1センサー66及び第2センサー68の検出値から、運動中心における動き量と動き方向とを算出するために用いる演算式、テーブル、パラメーター等を含む。ここで、動き検出部185は、第1センサー66及び第2センサー68の検出結果に基づいて、運動中心の位置を算出してもよい。或いは、運動中心の位置を算出せず、運動中心における動き量を算出してもよい。動き量は、速度であってもよいし、速度と時間とを含んでもよいし、移動量であってもよい。
例えば、動き検出部185は、第1センサー66及び第2センサー68の角速度の検出値から、使用者の動きのX軸まわりの成分、Y軸まわりの成分、及びZ軸まわりの成分を求める。そして、動き検出部185は、第1センサー66及び第2センサー68の検出値と、センサー位置データ122の第1センサー66及び第2センサー68の位置とに基づき、X軸まわりの回転の中心、Y軸まわりの回転の中心、及びZ軸回りの回転の中心を求める。そして、動き検出部は、3次元の動きの中心、すなわち運動中心の位置と、運動中心における動きの方向、及び運動中心の動きの大きさ(或いは強さ)を求める。
また、動き検出部185は、運動中心における動きの方向、大きさだけでなく、予め指定された点における動きの方向及び/又は大きさを求めてもよい。例えば、位置P1(またはP11)における動きの方向及び/又は大きさを求めてもよい。動き検出部185は、位置P1(またはP11)の動きの方向及び/又は大きさを求めるよう設定された場合、運動中心が位置P1(またはP11)に重ならない位置であれば、運動中心における動きの方向及び/又は大きさから、位置P1の動きの方向及び/又は大きさを算出して出力する。位置P1(またはP11)は水平面内における位置に限らず、使用者の身長方向(Z軸方向)の位置を特定した3次元的な位置で、動きの方向及び/又は大きさを求めてもよい。
また、第1センサー66、第2センサー68を用いて運動中心を求める処理の一例として、第1センサー66及び第2センサー68により使用者の身体(特に頭部)の動き(運動)を検出する前後の位置を利用する方法がある。この方法では、運動の前の第1センサー66の位置と第2センサー68の位置とを直線(第1の直線とする)で結び、その中点を求め、中点を通り上記第1の直線に垂直な直線(第2の直線とする)を求める。また、運動の後の第1センサー66の位置と第2センサー68の位置とを直線(第3の直線とする)で結び、その中点を求め、第3の直線の中点を通り上記第3の直線に垂直な直線(第4の直線とする)を求める。この第2の直線と第4の直線との交点を、運動中心の位置として求めることができる。
また、第1センサー66及び第2センサー68により使用者の頭部の動きを検した場合に、運動の中心における頭部の動きを検出する処理の一例として、回動の角度を求める処理が挙げられる。この処理は、例えば、運動の前の第1センサー66の位置と運動後の第1センサー66の位置とを結ぶ直線を求め(第5の直線とする)、第5の直線の中点の位置座標を求める。次に、(I)第5の直線の中点の位置座標と運動中心との距離(DY)を求める。また、(II)運動の前の第1センサー66の位置と運動後の第1センサー66の位置との間の距離(DX)とを求める。そして、距離DXと距離DYとについて、下記式(1)の演算を行うことで、第1センサー66が回転運動した角度θを求めることができる。角度θは、運動中心を中心とする第1センサー66の回転運動における、回転角度(運動量)である。
θ=arctan(DX/2DY) …(1)
上記式(1)を用いた方法は、第2センサー68が回転運動した角度を求める場合にも適用できる。そして、第1センサー66が回転運動した角度と、第1センサー68が回転運動した角度との平均を求め、この平均値を、運動中心における回転角度として求めることが考えられる。
上記に例示した方法は、例えば、後述する図8のステップS15において実行してもよい。
AR表示制御部186は、記憶部120が記憶するコンテンツデータ123を読み出し、画像処理部160及び表示制御部170を制御して、AR表示用の画像を画像表示部20により表示させる。また、AR表示制御部186は、コンテンツデータ123が音声データを含む場合、音声処理部187を制御して、右イヤホン32、左イヤホン34からコンテンツの音声を出力させる。
AR表示制御部186は、動き検出部185が出力する運動中心の動きの方向、及び動き量を示すデータに基づき、ARコンテンツの表示を制御する。
AR表示制御部186は、使用者が画像表示部20越しに対象物を見ている状態でARコンテンツを表示する。AR表示制御部186は、対象物に対応する位置に画像や文字等を表示するAR表示を行うことで、対象物に関する情報を提供し、或いは、画像表示部20越しに見える対象物の姿の見え方を変える。ARコンテンツは、対象物に対応する位置に表示される画像や文字のデータを含む。また、ARコンテンツに、対象物を特定するデータ、及び、画像や文字の表示位置に関するデータ等を含んでもよい。ARコンテンツの表示位置は対象物に重なる位置であっても対象物の周囲であってもよい。対象物は物体であればよく、建物等の不動産であってもよいし、自動車や電車などの移動体であってもよく、人間や動物などの生物であってもよい。AR表示制御部186は、撮像処理部181が取得する撮像画像データから、使用者の視界に位置する対象物を検出する。そして、AR表示制御部186は、検出した対象物に対応するARコンテンツの表示位置を決定し、ARコンテンツを表示する。
AR表示制御部186は、画像表示部20を装着した使用者の頭部の動きに合わせて、ARコンテンツの表示位置を変更する処理や、ARコンテンツを切り替える処理を行う。例えば、使用者の頭部が、Z軸回りに設定値を超える角速度で回動する場合、AR表示制御部186はARコンテンツの表示を消去する。このような頭部の動きがある場合は使用者の視界が大きく動き、AR表示の対象物が視野から外れる可能性が高いためである。また、例えば、使用者の頭部がX軸方向に移動する場合、AR表示制御部186は、ARコンテンツの表示サイズを拡大、または縮小する。このような頭部の動きがある場合、使用者には、AR表示の対象物が大きく見えるようになる。このため、AR表示制御部186は、ARコンテンツを拡大してARコンテンツを見やすくするとよいし、対象物が見やすくなるようにARコンテンツを縮小してもよい。
AR表示制御部186が、使用者の頭部の動きに対応してARコンテンツの表示態様を変化させる態様は、設定データ121に含まれる設定値として、事前に設定される。また、制御部140が実行するプログラムに設定されることもあり得る。
ここで、AR表示制御部186の表示の制御は、使用者の頭部の中心(図3のP1)や頭部の前部の中心(図3のP2)、或いは頸椎(図4のP11)における動きに対応する処理として設計される。頭部の中心、頭部の前部の中心、或いは頸椎の動きに合わせると、表示変化を設計する際にイメージし易く、シンプルで、間違いが起きにくく、効果的な表示変化を設計できるためである。このため、設定データ121には、使用者の頭部の中心、頭部の前部の中心、或いは頸椎における動きの設定値が設定される。AR表示制御部186は、動き検出部185が算出する使用者の頭部の中心、頭部の前部の中心、或いは頸椎における動きを、設定データ121と比較対照して、処理する。
上記とは異なる方法として、実際に動きを検出する第1センサー66、第2センサー68の位置における動きに対応して、AR表示制御部186の表示の制御を設計することも可能である。例えば、設定データ121に、第1センサー66及び第2センサー68の検出値に関する設定値を設定し、この設定値に基づきAR表示制御部186が処理を行う。この場合も、使用者の頭部の動きに対応して表示を制御できる。しかしながら、この設定値は、第1センサー66及び第2センサー68の位置に固定された値であり、頭部装着型表示装置100の仕様変更によりセンサーの位置や数が変化した場合は新たな設定値が必要になる。
これに対し、第1センサー66や第2センサー68の検出値から動きの基準の位置と、この基準の位置における動きを算出する方法では、設定値が装置固有の値ではなく、汎用性を持つ。従って、ARコンテンツの表示態様の制御が容易になり、効果的なAR表示が可能になるという利点がある。
音声処理部187は、AR表示制御部186の制御によりコンテンツの音声信号を取得し、取得した音声信号を増幅して、右イヤホン32および左イヤホン34に出力する。また、音声処理部187は、マイク63により集音される音声を取得してディジタル音声データに変換する。音声処理部187は、ディジタル音声データに対して予め設定された処理を行ってもよい。
画像表示部20は、インターフェイス25と、右表示駆動部22と、左表示駆動部24と、右光学像表示部26としての右導光板261と、左光学像表示部28としての左導光板262とを備える。また、画像表示部20は、上述した上部カメラ61、第1センサー66、及び第2センサー68を備える。上部カメラ61はフレーム2(図1)とは別体のカメラユニット3に設けられるが、インターフェイス25に接続される。
インターフェイス25は、右コード42と左コード44とが接続されるコネクターを備える。インターフェイス25は、送信部51から送信されるクロック信号PCLK、垂直同期信号VSync、水平同期信号HSync、画像データDataを、対応する受信部(Rx)53、54に出力する。また、インターフェイス25は、表示制御部170から送信される制御信号を、対応する受信部53、54、右バックライト制御部201又は左バックライト制御部202に出力する。
インターフェイス25は、上部カメラ61、第1センサー66、及び第2センサー68を接続するインターフェイスである。上部カメラ61の撮像画像データや撮像信号、第1センサー66及び第2センサー68の検出結果等は、インターフェイス25を介して制御部140に送られる。
右表示駆動部22は、上述した右バックライト221、右LCD241、及び右投写光学系251を備える。また、右表示駆動部22は、受信部53、右バックライト(BL)221を制御する右バックライト(BL)制御部201、及び、右LCD241を駆動する右LCD制御部211を備える。
受信部53は、送信部51に対応するレシーバーとして動作し、制御装置10と画像表示部20との間におけるシリアル伝送を実行する。右バックライト制御部201は、入力された制御信号に基づいて、右バックライト221を駆動する。右LCD制御部211は、受信部53を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データDataと、に基づいて、右LCD241を駆動する。
左表示駆動部24は、右表示駆動部22と同様の構成を有する。左表示駆動部24は、上述した左バックライト222、左LCD242、及び左投写光学系252を備える。また、左表示駆動部24は、受信部54、左バックライト222を駆動する左バックライト制御部202、及び、左LCD242を駆動する左LCD制御部212を備える。
受信部54は、送信部52に対応するレシーバーとして動作し、制御装置10と画像表示部20との間におけるシリアル伝送を実行する。左バックライト制御部202は、入力された制御信号に基づいて、左バックライト222を駆動する。左LCD制御部212は、受信部54を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データDataと、に基づいて、左LCD242を駆動する。
なお、右バックライト制御部201と、右LCD制御部211と、右バックライト221と、右LCD241とを総称して、右の「画像光生成部」とも呼ぶ。同様に、左バックライト制御部202と、左LCD制御部212と、左バックライト222と、左LCD242とを総称して、左の「画像光生成部」とも呼ぶ。
図8は、頭部装着型表示装置100の動作を示すフローチャートであり、特に、制御部140が、使用者の頭部の動きを求める動作を示す。
制御部140は、頭部装着型表示装置100の電源投入時、ARコンテンツの表示を開始する際、或いは、操作部135の操作により開始が指示された際に、センサーの検出を開始する(ステップS11)。制御部140の動き検出部185は、記憶部120からセンサー位置データ122を取得し(ステップS12)、検出制御部183は第1センサー66及び第2センサー68の検出値を取得する(ステップS13)。
動き検出部185は、検出制御部183が取得した第1センサー66の検出値と、センサー位置データ122に含まれる第1センサー66の位置に関するデータとを対応付ける(ステップS14)。また、ステップS14で、動き検出部185は、検出制御部183が取得した第2センサー68の検出値と、センサー位置データ122に含まれる第2センサー68の位置に関するデータとを対応付ける。
検出制御部183は、予め設定されたサンプリング周波数で第1センサー66及び第2センサー68の検出値を取得する。制御部140が図8のステップS11〜S17を繰り返し実行し、その実行周期が検出制御部183のサンプリング周期よりも長い場合、検出制御部183は、複数回の検出値の合計値、平均値、中央値などの値をステップS13で出力してもよい。この場合、ステップS14で、動き検出部185は、複数回の検出値から求められる合計値、平均値、中央値などの値と、各センサーの位置に関するデータとを対応付ける。
動き検出部185は、センサー位置データ122に基づき、第1センサー66及び第2センサー68の検出値から、運動中心における動きの方向、及び動きの量を算出する(ステップS15)。動き検出部185は、算出した動きの方向、及び動きの量に関するデータを、AR表示制御部186に出力し(ステップS16)、ステップS17に移行する。
ステップS15では、例えば、上述したように運動前後における第1センサー66及び第2センサー68の位置に基づき、運動中心の位置として求める処理を行ってもよい。また、上述したように、運動の中心における頭部の動きを検出する処理として、上記式(1)を利用した、回動の角度を求める処理を行ってもよい。
ステップS17で、制御部140は、動き検出の終了条件が成立したか否かを判定し(ステップS17)、終了条件が成立した場合は(ステップS17;YES)、本処理を終了する。また、終了条件が成立していない場合は(ステップS17;NO)、ステップS12に戻る。
図8の処理では、第1センサー66及び第2センサー68の検出値が、検出制御部183の動作により、インターフェイス25を介して取得され、動き検出部185で処理される。ここで、検出制御部183が取得し動き検出部185が処理する検出値には、検出したセンサーを特定する情報と、検出または検出値を取得したタイミングを示す情報とが、付加されているとよい。この場合、第1センサー66及び/又は第2センサー68が、検出値をインターフェイス25に出力する際に、検出したセンサーが第1センサー66であるか第2センサー68を示すデータと、タイミングを示すデータとを付加してもよい。或いは、検出制御部183が、第1センサー66及び/又は第2センサー68の検出値を取得する際に、検出したセンサーが第1センサー66であるか第2センサー68を示すデータと、タイミングを示すデータとを付加してもよい。また、動き検出部185が、検出制御部183から検出値を取得する際に、検出したセンサーが第1センサー66であるか第2センサー68を示すデータと、タイミングを示すデータとを付加してもよい。
図8の処理により求める運動中心の位置を利用して、制御部140は、画像表示部20によるAR表示の制御や上部カメラ61の撮像画像に関する処理を実行できる。
以下、これらの処理について説明する。
図9は、上部カメラ61の撮像範囲と使用者の視野との相対位置の例を示す説明図である。(A)は平面図、(B)は側面視図である。
図9の例では、運動中心を、頭部Hの中心であるP1として説明する。上部カメラ61は位置P2に配置され、第1センサー66はフレーム2の前面の左端に位置し、第2センサー68はフレーム2の前面の右端に位置する。
使用者が視覚により認識できる範囲、すなわち使用者の視野は、右眼REの位置と左眼LEの位置とを中心として前方に拡がる範囲である。運動中心として頭部の中心に相当する位置P1、或いは、上述した頸椎に対応する位置P11を特定した場合、使用者の視野を、位置P1或いは位置P11を基準として推定できる。位置P1、P11はいずれも、概ね右眼REと左眼LEの中心線上にあり、右眼REと左眼LEの後方である。従って、位置P1、P11から所定の角度で前方に拡がる範囲を求めれば、この範囲は、使用者の視野と比較的高い一致性を有する。つまり、位置P1、P11を基準として、擬似的に、使用者の視野に概ね対応する範囲を求めることができる。
一般に、人間の視野角は水平方向におよそ200度、垂直方向におよそ125度とされ、その中心に近い弁別視野は、視力などの視機能が最も優れて発揮される中心領域であり、視線方向を中心としておよそ±5度の範囲とされる。また、情報受容能力に優れる有効視野は、弁別視野より広く、水平方向に30度、垂直方向に20度程度である。さらに、人間が注視する注視点が迅速に安定して見える安定注視野は、水平方向に60〜90度、垂直方向に45度〜70度程度とされている。このように、視野に関しては、人間の視覚特性の生理学的あるいは解剖学的な統計から経験的に求められた数値が、一般に知られている。そして、これらの数値に基づき、位置P1、P11を基準とした場合の安定注視野、有効視野、及び弁別視野の方向及び角度を定めるパラメーターを得ることができ、これらのパラメーターを、例えば予め記憶部120に記憶しておくことができる。
図9の(A)の例では、図8に示した処理により特定される運動中心の位置P1を基準として、使用者の視野V1〜V3が特定される。この図9(A)の視野V1〜V3は、厳密には、頭部装着型表示装置100が記憶するパラメーターにより推定される視野であるが、概ね、現実の使用者の視野と一致すると考えられる。
最も広い視野V1は使用者の安定注視野に相当し、視野V2は有効視野に相当し、視野V3は弁別視野に相当する。制御部140は、視野V1〜V3のうち、いずれか1以上を求める処理を行う。
ここで、上部カメラ61の撮像範囲(画角)を、図9に符号ACで示す。上部カメラ61の撮像範囲は、上部カメラ61の撮像レンズ(図示略)の光学特性、上部カメラ61が備える撮像素子(図示略)のサイズ等により決まる。さらに、上部カメラ61の位置は、右眼RE及び左眼LEよりも前方にある。このため、使用者の視野と上部カメラ61の撮像範囲との相対位置は、一致しない可能性がある。
また、上部カメラ61の高さ方向における位置と、右眼RE及び左眼LEの高さ方向における位置とは一致するとは限らない。上部カメラ61がフレーム2の上のカメラユニット3に配置される場合、上部カメラ61は右眼RE及び左眼LEより上に位置する。この場合、図9(B)に示すように、使用者の視野(例えば安定注視野V1)と、上部カメラ61の撮像範囲ACとは、高さ方向においてずれを生じる。
また、上部カメラ61の位置は、フレーム2の前面側の中央である位置P2に限定されず、例えば、右部2A側の端部、或いは、左部2B側の端部に設置できる。この場合、水平方向における上部カメラ61の撮像範囲の中心の位置と、使用者の視野の中心の位置とがずれるので、使用者の視野(例えば安定注視野V1)と、上部カメラ61の撮像範囲ACとは、水平方向のずれを生じる。
図8に示す動作で、動き検出部185は、運動中心における動きの方向、及び動きの量を算出し(ステップS15)、算出した動きの方向、及び動きの量に関するデータをAR表示制御部186に出力する(ステップS16)。AR表示制御部186は、動き検出部185が出力する動きの方向、及び動きの量に関するデータに基づいて、画像表示部20におけるARコンテンツの表示を制御する。この場合、使用者の視野と上部カメラ61の撮像範囲との相対位置を加味して、ARコンテンツの表示位置等を調整すれば、使用者の視野に合わせた位置にARコンテンツを表示できる。これにより、ARコンテンツの視認性の向上が期待できる。
また、AR表示制御部186は、上部カメラ61の撮像画像データから対象物を検出し、検出した対象物に対応する表示位置にARコンテンツを表示することができる。この場合に、上部カメラ61の撮像範囲と使用者の視野との相対位置を加味して処理を行うことで、撮像画像データから検出される対象物を使用者が視認する位置を、より正確に求めることができる。
このように、動き検出部185が特定する運動中心の位置に基づき、上部カメラ61の撮像範囲と使用者の視野との相対位置を求め、この相対位置を利用することで、AR表示の精度を高め、より高い視覚効果が期待できる。
図10は、頭部装着型表示装置100の動作を示すフローチャートであり、特に、上部カメラ61の撮像範囲と使用者の視野との相対位置を求める処理を示す。
動き検出部185は、例えば図8のステップS15で、各動きセンサーの検出値から運動中心(基準位置、ここでは位置P1、P11)における動き量を算出する際に、運動中心の位置を求める。この位置は、例えば、第1センサー66及び第2センサー68の位置を示すセンサー位置データ122に基づき算出できる。このように、動き検出部185は、センサー位置データ122に従って、第1センサー66及び第2センサー68の位置を基準として運動中心の位置を求める(ステップS21)。
次に、動き検出部185は、センサー位置データ122に基づき、第1センサー66及び第2センサー68の位置に対する画像表示部20の相対的な位置を求める(ステップS22)。さらに、動き検出部185は、ステップS21で求めた運動中心の位置から、使用者の右眼RE及び左眼LEの位置を特定する(ステップS23)。
動き検出部185は、ステップS22で求めた位置と、ステップS23で求めた位置とに基づいて、画像表示部20に対する使用者の右眼RE及び左眼LEの相対位置を求める(ステップS24)。ここで求められる相対位置は、使用者が画像表示部20(具体的にはフレーム2)を装着する装着状態(装着位置)を示し、使用者の右眼RE及び左眼LEと、右光学像表示部26及び左光学像表示部28が画像を表示する表示領域との位置関係を反映する。
そして、動き検出部185は、画像表示部20における上部カメラ61の位置を示すデータと、ステップS24で求めた相対位置とに基づいて、上部カメラ61の撮像範囲と使用者の視野との対応を求める(ステップS25)。画像表示部20における上部カメラ61の位置は固定的であるから、この位置を示すデータを、記憶部120に記憶してもよい。また、カメラユニット3がフレーム2に対して移動された場合には、後述する第3〜第7実施形態で説明する方法により、フレーム2に対するカメラユニット3の位置を求めてもよい。この場合、ステップS25では、フレーム2に対するカメラユニット3の位置を求める処理の結果を利用できる。
図11は、頭部装着型表示装置100の動作を示すフローチャートであり、特に、使用者のフレーム2の装着状態を判定する処理を示す。
図11の例では、図10で説明した処理と同様の方法によって、使用者の頭部における画像表示部20の装着位置がずれて、想定される位置から逸脱しているか否かを判定する。
図11においてステップS21〜S24は、図10を参照して説明した通りである。
動き検出部185は、ステップS24で求めた画像表示部20に対する右眼RE及び左眼LEの相対位置に基づき、画像表示部20の装着位置の判定を行う(ステップS31)。ステップS31では、例えば、画像表示部20に対する右眼RE及び左眼LEの相対位置を、位置の差を示すずれ量の値に換算して、予め記憶部120に記憶する閾値と比較する。
動き検出部185は、画像表示部20の装着位置がずれているか否かを判定する(ステップS32)。動き検出部185は、記憶部120に記憶した閾値、或いは基準値に基づき、画像表示部20の装着位置がずれていないと見なすことができる状態か、或いは、ずれているかを判定する。
装着位置がずれていると判定した場合(ステップS32;NO)、動き検出部185は、ずれ量が基準以上の大きさであるか否かを判定する(ステップS33)。ずれ量が基準より小さいと判定した場合(ステップS33;NO)、動き検出部185はAR表示制御部186に対し、ずれ量を示すデータを出力し、AR表示制御部186が、ずれを補償するように、AR表示の表示位置の補正を行う(ステップS34)。
また、ずれ量が基準以上と判定した場合(ステップS33;YES)、制御部140の制御により、画像表示部20の装着位置のずれを修正するよう、使用者に対する案内を出力する(ステップS35)。例えば、動き検出部185がAR表示制御部186に対し、案内の出力を指示するコマンドを出力し、AR表示制御部186が、画像表示部20の装着位置のずれの修正を促すメッセージを表示する。また、制御部140が音声処理部187により、右イヤホン32及び左イヤホン34から、画像表示部20の装着位置のずれの修正を促す音声を出力してもよい。
また、画像表示部20の装着位置がずれていないと見なすことができる場合(ステップS32;YES)、動き検出部185は、本処理を終了する。
このように、制御部140は、第1センサー66及び第2センサー68の検出値に基づいて、運動中心の位置を求めた場合に、求めた運動中心の位置に基づいて画像表示部20の装着状態が適切か否かを判定できる。そして、画像表示部20の装着状態に応じて、AR表示の位置を補正したり、画像表示部20の装着状態の修正を使用者に促したりすることができる。
図11の動作において、ステップS24では、画像表示部20に対する右眼RE及び左眼LEの位置を求めるが、画像表示部20の傾きを直接検出してもよい。例えば、図6に示したように、第1センサー66及び第2センサー68を、右保持部21、左保持部23の端部にそれぞれ配置した場合、第1センサー66及び第2センサー68によりほぼ同じ高さ位置で加速度や角速度を検出できる。このため、第1センサー66及び第2センサー68の検出値に基づいて、より容易に、画像表示部20の装着状態を判定できる。また、上述のように右イヤホン32及び左イヤホン34に、第1センサー66及び第2センサー68のそれぞれを設けた構成でも、同様の効果が得られる。
また、制御部140は、第1センサー66及び第2センサー68の検出値を利用して、上部カメラ61の撮像画像におけるブレの補正を行うこともできる。
図12は、使用者の頭部の動きの影響の例を示す説明図であり、(A)は正面図、(B)は側面視図である。図12には、運動中心として位置P11を特定する場合を例示する。
上部カメラ61による撮像を行っている間、使用者の頭部が動くと、撮像画像にはブレが発生する。例えば、図12(A)の矢印M1で示すように、使用者の頭部がZ軸まわりに動いた場合、この動きは、上部カメラ61の撮像画像の左右方向のブレを生じる。図12(B)の矢印M3に示すように、使用者の頭部がX軸まわりに動いた場合、この動きは、撮像画像の上下方向のブレを生じる。また、図示はしないが、使用者の頭部がY軸まわりに動いた場合、上部カメラ61の撮像画像に左右方向のブレを生じる。
例えば図8に示した処理により、矢印M1方向の動きは、運動中心である位置P11における矢印M2方向の動きとして、求めることができる。同様に、矢印M3方向の動きは、運動中心である位置P11における矢印M4方向の動きとして、求めることができる。
このように、頭部装着型表示装置100では、上部カメラ61の撮像画像のブレを生じるような使用者の頭部の動きを、運動中心における動きとして求めることができる。
使用者の頭部の動きは、使用者が意図して視線方向を移動させるために頭部を動かす場合を含む。このような動きを、使用者の認知動作に基づく動きと呼ぶ。認知動作は、使用者が、視野の中心から外れた位置にある対象物OBを認知するために、頭部を意図的に動かす動きである。これに対し、使用者が視線を動かす意図がなくても頭部や身体が動いてしまうことがある。この動きは、認知動作に基づかない動きということができる。
使用者が認知動作を行う場合、頭部の動きに追従して上部カメラ61の撮像範囲が移動することが望ましい。これに対し、認知動作でない動きにより上部カメラ61の撮像範囲が移動すると、撮像画像における動きは、いわゆるブレであり、この撮像画像の動きは小さいことが望ましい。
そこで、本実施形態の頭部装着型表示装置100は、複数の動きセンサーである第1センサー66及び第2センサー68の検出値から、運動中心における動きを求め、求めた動きが認知動作に該当するか否かを判定する。
図13は、頭部装着型表示装置100の動作を示すフローチャートであり、特に、使用者の頭部の動きが認知動作か否かを判定する処理を示す。
動き検出部185は、例えば図8のステップS15の処理により、各動きセンサーの検出値から運動中心(基準位置、ここでは位置P1、P11)における動き量を算出する(ステップS41)。動き検出部185は、ステップS41で求めた動き量をもとに、検出された動きが、認知動作によらない動き(ブレ)であるか、認知動作による動きかの判定を行う(ステップS42)。ステップS42では、例えば、ステップS41で求めた動き量と動きの方向とを、ブレの動き量及び動きのパターンを定めた比較用データと比較することで、判定を行う。比較用のデータは、例えば、予め記憶部120に記憶する構成とすることができる。
判定の結果、認知動作に該当する場合(ステップS43;YES)、動き検出部185は本処理を終了する。
また、認知動作に該当しないと判定した場合(ステップS43;NO)、すなわちステップS41で算出された動きがブレである場合、動き検出部185は、撮像処理部181によるブレの補正を開始する。
撮像処理部181は、上部カメラ61の撮像画像データから、撮像対象である対象物OBの画像を検出し、撮像画像における撮像対象の位置を特定する(ステップS44)。撮像処理部181は、特定した撮像対象と上部カメラ61とを結ぶ直線である撮像基軸を算出する(ステップS45)。撮像基軸の例を図12の(B)に符号SXで示す。撮像基軸SXは、上部カメラ61と対象物OBとを結ぶ軸であり、上部カメラ61の光軸と一致するとは限らない。撮像基軸SXは仮想的に求められる軸であり、上部カメラ61の撮像素子(図示略)の位置を基準とするか、上部カメラ61の撮像レンズの位置を基準とするかは問わない。
撮像処理部181は、ステップS45で求めた撮像基軸が動いた場合に、この動きを補償するように、撮像画像データを補正する(ステップS46)。例えば、撮像処理部181は、上部カメラ61の撮像画像データを所定時間毎に取り込み、ステップS41で算出される動き量及び動きの方向に基づき、撮像画像データを補正する。この補正により、撮像基軸SXの動きが相殺される。具体的には、撮像画像データ中の対象物OBの画像の位置が移動しないように、撮像画像データが補正される。
これにより、上部カメラ61の撮像画像のブレが抑制され、或いは解消されるので、AR表示制御部186が撮像画像を用いた表示を行う場合に、この表示画像の揺れが抑えられ、使用者の映像酔いを防止または軽減できる。また、上部カメラ61の撮像画像を動画像(映像)として記憶部120に記憶し、記憶した動画像を頭部装着型表示装置100または他の機器により再生する場合等においても、視聴者の映像酔いを防止または軽減できる。
以上説明したように、使用者の頭部に装着される頭部装着型表示装置100は、使用者の眼に画像光を照射する画像表示部20と、複数の動きセンサーとしての第1センサー66及び第2センサー68とを備える。第1センサー66及び第2センサー68は、頭部装着型表示装置100の装着状態において、使用者の身体に対して偏りを有する位置に配置される。これにより、偏りを有する位置に配置された第1センサー66及び第2センサー68の検出結果を利用して、使用者の身体が動いた場合に、動きの中心(運動中心)における動き量や動きの方向等を速やかに求めることができる。第1センサー66及び第2センサー68は、例えば、使用者の頭部や頸部の基準位置に対して、互いに偏った位置に配置することができる。より具体的には、使用者の頭部が動く場合の中心となり得る頸部関節、或いは、頭部の中心等を基準として、第1センサー66及び第2センサー68の相対的な位置が偏った位置になる構成とすることができる。この場合、使用者の頭部が動いた場合に、この動きに起因する第1センサー66及び第2センサー68の検出値の差に基づき、使用者の頭部の動きを解析できる。これにより、例えば、動きの中心である頸部関節、或いは、頭部の中心等における動きを求めることができる。
複数の動きセンサーである第1センサー66及び第2センサー68のいずれかは、装着状態において頭部の中心より一方側に位置し、他の動きセンサーは頭部の中心より他方側に位置する構成としてもよい。この場合、使用者の頭部が動いた場合に、運動中心である頭部の中心における動き量や動きの方向等を速やかに求めることができる。ここで、頭部の中心とは、使用者の身長に対し垂直な水平面における頭部の中心を指すが、例えば、両眼の高さ位置における水平面における中心を指してもよいし、使用者の頭部の3次元的な中心であってもよい。
また、頭部装着型表示装置100において、第1センサー66及び第2センサー68のいずれかは、装着状態において頭部の中心より左側に位置し、他の動きセンサーは頭部の中心より右側に位置する。このため、動きセンサーの検出結果に基づいて、頭部の運動中心における動きを速やかに求めることができる。
第1センサー66及び第2センサー68のいずれかは、装着状態において、運動中心となる可動部より一方側に位置し、他の第1センサー66及び第2センサー68は可動部の他方側に位置する。これにより、運動中心に対し一方側と他方側に配置された第1センサー66及び第2センサー68の検出結果を利用して、使用者の身体が動いた場合に、運動中心における動き量や動きの方向等を速やかに求めることができる。
可動部は、使用者の身体において可動する部位を指し、例えば頸部等の関節が相当する。本実施形態において、可動部は、使用者の身長に対し垂直な水平面における運動の中心となり得る部位を指す例を説明した。このほか、可動部は、例えば、両眼の高さ位置における水平面における運動中心を指すと解してもよいし、使用者の身体における3次元的な中心であってもよい。使用者の動きが回転運動成分と平行(平進)運動成分とを含む動きである場合、回転運動の中心を、上記の運動中心としてもよい。例えば、可動部を、使用者の頸部の関節(より具体的には、第1頸椎(環椎)と第2頸椎(軸椎)との椎間関節)とする場合、頸部を中心とする使用者の頭部の動きに対応して、動き量や動きの方向等を求めることができる。これにより、使用者の頭部が動いた場合に、運動中心である頸部における動き量や動きの方向等を速やかに求めることができる。
また、可動部は、使用者の頸部関節を想定して設定される位置であってもよく、この場合、頸部を中心とする使用者の頭部の動きに対応して、動き量や動きの方向等を求めることができる。
また、第1センサー66及び第2センサー68は、頭部装着型表示装置100の装着状態において、いずれかの第1センサー66及び第2センサー68と可動部との距離が、他の第1センサー66及び第2センサー68と可動部との距離と異なるように配置される。
これにより、可動部と第1センサー66及び第2センサー68との相対位置の相違が、第1センサー66及び第2センサー68の検出値の差に反映されやすい。これにより、第1センサー66及び第2センサー68の検出値に基づいて、運動中心の位置や、運動中心における動き量等を、より高い精度で求めることができる。
また、画像表示部20は、使用者の眼に向けて画像光を放つハーフミラー261A、262Aを有する右導光板261、左導光板262を備える。第1センサー66及び第2センサー68と、ハーフミラー261A、262Aの中央位置とが直線状に並んで位置する。このため、第1センサー66及び第2センサー68の検出結果に基づいて、表示領域を構成する右導光板261、左導光板262の位置を運動中心とする動きに対応して、運動中心における動き量や動きの方向等を速やかに求めることができる。
また、右導光板261及び左導光板262は、使用者の眼に向けて画像光を放つ表示領域としてのハーフミラー261A、262Aを有する。ハーフミラーを用いて画像光を照射する光学素子を備えた構成で、複数の動きセンサーがハーフミラーの中央位置と直線状に並ぶ。このため、使用者が視認する画像の中央を運動中心とする動きに対応して、運動中心における動き量や動きの方向等を速やかに求めることができる。
さらに、画像表示部20は、眼鏡型のフレーム2を有し、第1センサー66及び第2センサー68が、フレーム2の中央に対して対称な位置にある。眼鏡型のフレーム2の中央を運動中心とする動きに対応して、運動中心における動き量や動きの方向等を速やかに求めることができる。
また、フレーム2は、使用者の右眼の前に位置する右部2Aと、使用者の左眼の前に位置する左部2Bと、右部2Aと左部2Bとを連結するブリッジ部2Cとを有する。第1センサー66及び第2センサー68はブリッジ部2Cに対して対称な位置にある。このため、フレーム2の中央を運動中心とする動きに対応して、運動中心における動き量や動きの方向等を速やかに求めることができる。
また、頭部装着型表示装置100は、使用者の視野の少なくとも一部を含む撮像範囲を撮像する上部カメラ61を備える。動き検出部185は、第1センサー66及び第2センサー68の検出値に基づいて、使用者の運動中心の位置を特定し、特定した運動中心の位置に基づいて、上部カメラ61の撮像範囲と、使用者の視野との相対位置を求める。これにより、上部カメラ61の撮像範囲と使用者の視野との対応を求めることができ、撮像画像に基づく制御を行うことができる。
動き検出部185は、運動中心における動きが使用者の認知動作に基づく動きであるか否かを判定し、使用者の認知動作に基づく動きでないと判定した場合に上部カメラ61の撮像画像を補正する。これにより、使用者が意図する動きと、そうでない動きとを区別して、使用者が意図しない動きによる撮像画像のブレ等を補正できる。
動き検出部185は、第1センサー66及び第2センサー68の検出値に基づいて、使用者の運動中心の位置を特定し、特定した運動中心の位置から使用者の眼の位置を推定する。そして、動き検出部185は、第1センサー66及び第2センサー68の位置に基づく画像表示部20の位置を特定し、特定した画像表示部20の位置と、推定した使用者の眼の位置とに基づいて、画像表示部20と使用者の眼の位置との相対位置を求める。これにより、画像表示部20と使用者の眼の位置との相対位置を高精度で求めることができる。これにより、例えば、画像表示部20の位置が適切でない場合に、使用者に対して画像表示部20の位置の修正を促すことができる。
なお、使用者が頭部と身体を合わせて動かした場合など、頭部が複雑に動いた場合、頭部の運動中心が複数になることがある。例えば、位置P1、P11を中心とした回転の動きと、使用者の腰を中心とした回転の動きとが同時に発生すると、位置P1、P11と、腰の位置とが、それぞれ運動中心に相当する。この場合、動き検出部185は、複数の運動中心のそれぞれにおける動き量、動きの方向を求めてもよく、それぞれの運動中心の位置を求めてもよい。また、第1センサー66及び第2センサー68の検出結果から、全ての運動中心における動きを求めることができない場合があり得る。運動中心が複数ある場合は運動中心における動きを求める演算式の変数が多くなるためである。このような場合、動き検出部185は、検出制御部183により、各センサーの検出値を、時間を空けて複数回取得させ、複数回の検出値に基づき運動中心における動きを求めてもよい。
第1実施形態では、動きセンサーの一例として、2つの慣性センサーである第1センサー66及び第2センサー68を設けた構成を例に挙げて説明した。本発明はこれに限定されず、動きセンサーとして、光学センサーを用いることができる。
例えば、慣性センサーと、光学センサーとを含む複数の動きセンサーを用いて、運動中心における動きを求めてもよい。また、例えば、複数の光学センサーを用いて、運動中心における動きを求めてもよい。
これらの場合について、第2実施形態として説明する。
[第2実施形態]
図14は、第2実施形態に係る頭部装着型表示装置100Aを構成する各部の機能ブロック図である。
第2実施形態の頭部装着型表示装置100Aは、画像表示部20に代えて、画像表示部200を有する。画像表示部200は、画像表示部20に、第1カメラ64、及び第2カメラ65を設けた構成であり、その他の各部は共通の構成である。従って、頭部装着型表示装置100Aにおいて、第1実施形態の頭部装着型表示装置100と共通する構成部については、同符号を付して図示及び説明を省略する。
第1カメラ64及び第2カメラ65は、それぞれ、CCDやCMOS等の撮像素子及び撮像レンズ等を備えるデジタルカメラであり、単眼カメラであってもステレオカメラであってもよい。また、第1カメラ64及び第2カメラ65は、いずれも、可視光線を受光するカメラに限定されず、紫外線カメラや赤外線カメラ等、可視領域外の光で撮像するカメラであってもよい。第1カメラ64及び第2カメラ65は、光学センサーの一例であり、動きセンサーとして機能する。
第1カメラ64は、右部2Aにおいて第1センサー66の前方に配置される。第2カメラ65は、左部2Bにおいて第2センサー68の前方に設置される。第1カメラ64の画角は右光学像表示部26を透過して使用者の右眼に視認される範囲を含み、第2カメラ65の画角は、左光学像表示部28を透過して使用者の左眼に視認される範囲を含むことが好ましい。第1カメラ64及び第2カメラ65の画角は、上部カメラ61の画角と重複する範囲を含んでもよいし、重複しない範囲を含んでもよい。
撮像処理部181は、第1カメラ64及び第2カメラ65を制御して撮像を実行させ、撮像画像データを取得する。また、記憶部120が記憶するセンサー位置データ122は、第1カメラ64及び第2カメラ65の位置に関するデータを含む。動き検出部185は、撮像処理部181が取得する撮像画像データから、第1カメラ64又は第2カメラ65の位置における動きの方向及び動き量を求める。
頭部装着型表示装置100Aでは、4つの動きセンサーである第1カメラ64、第2カメラ65、第1センサー66、及び第2センサー68を組み合わせて、運動中心における動きを求めることができる。
動きセンサーの組合せは様々であるが、少なくとも、使用者の頭部の右側にある動きセンサーと、使用者の頭部の左側にある動きセンサーとを組み合わせることが望ましい。頭部装着型表示装置100Aでは、第1カメラ64と第2カメラ65、第1カメラ64と第2センサー68、第1センサー66と第2カメラ65、及び、第1センサー66と第2センサー68の4通りの組合せがある。このうち第1センサー66と第2センサー68とを用いる例は第1実施形態で説明した。
上記の組合せにおいて、選択される使用者の頭部の右側にある動きセンサーを右センサーとし、使用者の頭部の左側にある動きセンサーを左センサーとする。
右センサーの位置は、第1実施形態で説明した第1センサー66の位置にあり、左センサーの位置は第1実施形態で説明した第2センサー68の位置にあることが好ましい。すなわち、フレーム2の左右方向における中央位置をC1とすると、右センサーと左センサーとは、中央位置C1に対して対称な位置に設けられることが好ましい。また、右センサーの位置と左センサーの位置とを結ぶ直線はハーフミラー261A、262Aを通ることが、より好ましい。さらに好ましくは、右センサーの位置、左センサーの位置、ハーフミラー261Aの中心C2、及び、ハーフミラー262Aの中心C3が、同一直線上に並ぶ配置である。
また、ハーフミラー261A、262Aの中心を含む水平面内における位置関係は上記の通りである。この水平面に対し垂直な、鉛直方向(高さ方向)においては、右センサー及び左センサーの位置と、ハーフミラー261A、262Aの中心とが、鉛直方向で近接していることが好ましい。例えば、右センサー及び左センサーが、ハーフミラー261A、262Aの側方にあるとよい。さらに、右センサー及び左センサーの位置と、ハーフミラー261A、262Aの中心とが、高さ方向において同一位置にあると、より好ましい。
また、本実施形態では、第1カメラ64、第2カメラ65、第1センサー66及び第2センサー68の全てを備えた構成を一例として説明する。これはあくまで一例であり、本発明は、上記の右センサーに該当する1つの動きセンサーと、左センサーに該当する1つの動きセンサーとを備えた構成であれば適用可能である。従って、第1カメラ64、第2カメラ65、第1センサー66及び第2センサー68のうち1または2のセンサーを排した構成であってもよい。
センサー位置データ122は、頭部装着型表示装置100Aが備える動きセンサーのうち、運動中心における動きを検出する動作で使用される動きセンサーについて、相対的な位置関係または絶対位置を示すデータを含む。
図15は、第2実施形態の頭部装着型表示装置100Aの動作を示すフローチャートであり、特に、制御部140が、使用者の頭部の動きを求める動作を示す。
図15の動作では、第1カメラ64、第2カメラ65、第1センサー66及び第2センサー68のうち、頭部の動きを求める処理で使用する動きセンサーを選択し、設定可能な例を説明する。また、図15のフローチャートで、上述した図8と共通の動作には同ステップ番号を付して説明を省略する。
制御部140がセンサーの検出を開始すると(ステップS11)、動き検出部185は、センサー位置データ122を取得する(ステップS12)。動き検出部185は、センサー位置データ122の設定や操作部135の入力操作で設定される内容に従って、頭部装着型表示装置100Aが備える動きセンサーの中から、ヘッドトラッキングに使用する動きセンサーを選択する(ステップS51)。
動き検出部185は、選択したセンサーがカメラを含むか否かを判定する(ステップS52)。第1カメラ64または第2カメラ65のいずれか1以上を選択した場合(ステップS52;YES)、撮像処理部181が、選択したカメラにより撮像を実行させ(ステップS53)、撮像画像データを取得する。動き検出部185は、撮像画像データを解析して、選択されたカメラの位置における動きの方向及び動き量を検出する(ステップS54)。動き検出部185は、検出した動きの方向及び動き量を、カメラの位置に対応付ける処理を行う(ステップS55)。
ここで、動き検出部185は、例えば、第1カメラ64が時間を空けて撮像した複数の撮像画像の差分を求め、求めた差分から、動きの方向と動き量とを求めてもよい。また、撮像処理部181が、第1カメラ64の露光時間を、動き検出用に長い時間に設定してもよい。この場合、第1カメラ64の撮像画像は、第1カメラ64の動きを反映してブレを生じる。動き検出部185は、撮像画像のブレの方向、ブレ量、及び露光時間に基づき、第1カメラ64の位置における動きの方向と動き量を検出できる。第2カメラ65の撮像画像についても同様である。
動き検出部185は、ステップS54で選択した動きセンサーがカメラのみであるか否かを判定する(ステップS56)。カメラ以外の動きセンサー、即ち、第1センサー66及び第2センサー68のいずれも選択しなかった場合(ステップS56;YES)、動き検出部185はステップS57に移行する。
一方、ステップS54で、第1センサー66または第2センサー68の少なくともいずれかを選択した場合(ステップS56;NO)、動き検出部185はステップS13に移行する。また、動き検出部185は、ステップS51で第1カメラ64及び第2カメラ65のいずれも選択しなかった場合(ステップS52;NO)、ステップS13に移行する。
ステップS13で、検出制御部183は、第1センサー66及び/又は第2センサー68の検出値を取得する(ステップS13)。動き検出部185は、検出制御部183が取得した検出値と、センサー位置データ122に含まれるセンサーの位置に関するデータとを対応付ける(ステップS14)。その後、制御部140はステップS57に移行する。
ステップS57で、動き検出部185は、センサー位置データ122に基づき、運動中心における動きの方向及び動き量を算出する(ステップS57)。ステップS57では、ステップS55で対応付けをした動き量と位置、及び/又は、ステップS14で対応付けをした動き量と位置を演算処理に用いる。その後、動き検出部185は、算出した動きの方向、及び動きの量に関するデータを、AR表示制御部186に出力し(ステップS16)、ステップS17に移行する。ステップS17で、制御部140は終了条件が成立したか否かを判定し(ステップS17)、終了条件が成立した場合は(ステップS17;YES)、本処理を終了する。また、終了条件が成立していない場合は(ステップS17;NO)、ステップS12に戻る。
このように、頭部装着型表示装置100Aは、慣性センサーである第1センサー66及び第2センサー68に限定されず、光学センサーである第1カメラ64及び/又は第2カメラ65を使用して、運動中心における動きを求める。すなわち、光学センサー、及び、慣性センサーを含む動きセンサーの組合せにより、使用者の頭部の動きに関し、ヘッドトラッキングを実行できる。この場合、例えば撮像画像データをAR表示の対象物の検出に用いるなど、センサーの検出結果を他の用途にも活用できる。
また、複数の動きセンサーとして、光学センサーまたは慣性センサーのいずれか1種類を用いる場合は、同種のセンサーの検出結果を用い、ヘッドトラッキングの処理を、より軽負荷で速やかに実行できる。
第2実施形態においても、動き検出部185が運動中心における動きを求める場合の運動中心は、例えば上述した頭部Hの中心(位置P1)、または頸部関節(位置P11)とすることができる。また、動き検出部185が、上述したように慣性センサーである第1センサー66及び第2センサー68、光学センサーである第1カメラ64及び第2カメラ65等を利用して検出した結果は、図9〜図13に示した処理に利用できる。
具体的には、動き検出部185は、図11の処理を実行して、慣性センサーである第1センサー66及び第2センサー68、光学センサーである第1カメラ64及び第2カメラ65等を利用して検出した結果に基づき、画像表示部20の装着状態を判定してもよい。また、AR表示制御部186が画像表示部20に表示する画像の表示位置の補正、位置ずれの修正を促す案内の出力を行ってもよい。
また、動き検出部185は、図10の処理を実行して、上部カメラ61の撮像範囲と使用者の視野との対応を求めることができる。また、第1カメラ64及び第2カメラ65のいずれかについて、撮像画像データを記憶部120に保存したり、撮像画像を画像表示部20における表示に利用したりする場合、図10の処理を適用できるすなわち、第1カメラ64の撮像範囲と使用者の視野との対応を求める処理を実行してもよく、第2カメラ65の撮像範囲と使用者の視野との対応を求める処理を実行してもよい。
また、制御部140は、図13の処理を実行して、慣性センサーである第1センサー66及び第2センサー68、光学センサーである第1カメラ64及び第2カメラ65等を利用して検出した結果に基づき、使用者の頭部の動きが認知動作か否かを判定してもよい。この場合、認知動作でない動きに対応して上部カメラ61の撮像画像を補正してもよい。さらに、制御部140は、認知動作でない動きに対応して第1カメラ64の撮像画像や第2カメラ65の撮像画像を補正する処理を行ってもよい。
なお、上記第1及び第2実施形態では2つの動きセンサーの検出結果を基に動きを検出し、使用者の頭部の動きを求めていたが、3以上の動きセンサーの検出結果を用いることも勿論可能である。
また、頭部装着型表示装置100、100Aでは、1つの動きセンサーが検出する複数の検出結果を、異なる動きセンサーの検出値として処理することもできる。これらの例について、変形例として図16に示す。
図16は、本発明の実施形態の変形例を示す説明図であり、(A)は第1変形例の処理の説明図であり、(B)は第2変形例の処理の説明図である。
図16(A)の例では、画像表示部20が有する第1センサー66を使用する。画像表示部20を装着した使用者の頭部が、位置P1を中心として、矢印Mで示すように回動する。この回動中に、検出制御部183は、第1センサー66の検出値を、時間差を設けて3回、取得する。矢印Mの運動は、少なくとも、1回目の検出時から3回目の検出時を含む間、継続する。
1回目の検出時における第1センサー66の位置を位置(1)、2回目の検出時の第1センサー66の位置を位置(2)、3回目の検出時の第1センサー66の位置を位置(3)とする。位置(1)は初期位置ともいえる。位置(1)、(2)、(3)は、頭部装着型表示装置100の設置環境の地面、床面、壁面等、運動しない基準に対する位置とすれば、互いに異なる位置である。
この場合、動き検出部185は、1回目の検出値と位置(1)とを対応付け、2回目の検出値と位置(2)とを対応付け、3回目の検出値と位置(3)とを対応付けることで、擬似的に、異なる位置に配置された3つのセンサーの検出値を得る。位置(2)は、例えば、1回目と2回目の検出の時間間隔と1回目の検出値と位置(1)とから算出できる。位置(3)も同様に、2回目と3回目の検出の時間間隔と2回目の検出値と位置(2)とから算出できる。
これらの3つのセンサーの検出値を用いれば、運動中心P1における動きの方向及び動き量を求めることができる。この例で得られる演算結果は、1回目から3回目で検出した動きを1つの動きと見なした場合の、動きの方向及び動き量である。
図16(B)の例では、頭部装着型表示装置100は第1センサー66を使用する。また、上記第1実施形態で第2センサー68が設けられた位置には仮想センサー69が設定される。第1センサー66の位置と仮想センサー69の位置との相対位置を示すデータが設定データ121に含まれる。
画像表示部20を装着した使用者の頭部が、位置P1を中心として、矢印Mで示すように回動する。この回動中に、検出制御部183は、第1センサー66の検出値を、時間差を設けて2回、取得する。矢印Mの運動は、少なくとも、1回目及び2回目の検出時を含む間、継続する。1回目の検出時における第1センサー66の位置を位置(4)、2回目の検出時の第1センサー66の位置を位置(5)とする。位置(4)、(5)は、頭部装着型表示装置100の設置環境の地面、床面、壁面等、運動しない基準に対する位置とすれば、互いに異なる位置である。位置(4)は初期位置ともいえる。
動き検出部185は、1回目の検出値と位置(4)とを対応付け、2回目の検出値と位置(5)とを対応付けることで、擬似的に、異なる位置に配置された2つのセンサーの検出値を得る。位置(5)は、例えば、1回目と2回目の検出の時間間隔と1回目の検出値と位置(4)とから算出できる。位置(3)も同様に、2回目と3回目の検出の時間間隔と2回目の検出値から算出できる。
さらに、動き検出部185は、1回目の検出時における仮想センサー69の位置(仮想センサー69の初期位置)に基づき、仮想センサー69の検出値を算出する。仮想センサー69は第1センサー66と同様に構成される3軸の角速度センサーとされ、仮想センサー69の検出値は、仮想センサー69の位置、及び、第1センサー66の1回目の検出値から算出できる。
これにより、動き検出部185は、仮想センサー69の初期位置と検出値、第1センサー66の位置(4)と1回目の検出値、及び、第1センサー66の位置(5)と2回目の検出値とに基づき、3つのセンサーの位置と検出値の組合せを得る。これらの3つのセンサーの検出値を用いれば、運動中心P1における動きの方向及び動き量を求めることができる。この例で得られる演算結果は、1回目から2回目で検出した動きを1つの動きと見なした場合の、動きの方向及び動き量である。
このように、頭部装着型表示装置100、100Aでは、複数の動きセンサーを用いるだけでなく、1つの動きセンサーを利用して、頭部の運動中心における動きの方向や動き量を得ることができる。従って、上記第1、第2実施形態のように2つ以上の動きセンサーを用いる構成に限らず、本発明を適用できる。すなわち、本発明の複数の動きセンサーの一部は、仮想的なセンサーであってもよく、他のセンサーを利用して時間軸をずらすことで実現されるセンサーであってもよい。
この変形例で説明した構成により運動中心における動きの方向及び動き量を検出した結果は、第2実施形態に関して上述したように、図9〜図13に示した処理に利用できる。また、この変形例において動き検出部185が運動中心における動きを求める場合の運動中心は、例えば上述した頭部Hの中心(位置P1)、または頸部関節(位置P11)とすることができる。
なお、上述した第1実施形態、第2実施形態、及び変形例は、本発明の具体的な実施態様の一例を示すものに過ぎない。本発明は上記の構成に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能である。
上記実施形態では、眼鏡型の外形を有するフレーム2を備えた画像表示部20、200について説明したが、フレーム2を、帽子やヘルメット等の身体防護具に組み込んだ構成とすることも可能である。すなわち、右表示駆動部22及び左表示駆動部24を含む光学系と、第1カメラ64、第2カメラ65、第1センサー66、及び第2センサー68のような動きセンサーとを支持する部分が眼鏡型であれば、外形は制限されない。また、カメラユニット3を、フレーム2に一体に設ける構成としてもよい。また、カメラユニット3は、フレーム2に対して、ヒンジ21A、23A以外の部材で連結して、より高い自由度で可動な構成にしてもよい。
さらに、上記実施形態では、頭部装着型表示装置100、100Aは、画像表示部20、200と制御装置10とが分離され、接続部40を介して接続された構成として説明した。本発明はこれに限定されず、制御装置10を、画像表示部20、200と一体に構成してもよい。また、頭部装着型表示装置100、100Aは、少なくとも、表示を行う画像表示部20、200が、使用者(作業者、指令者)の頭部に装着される装置であればよい。制御装置10の装着状態は限定されない。このため、制御装置10として、ノート型コンピューター、タブレット型コンピューター又はデスクトップ型コンピューターを用いてもよい。また、制御装置10として、ゲーム機や携帯型電話機やスマートフォンや携帯型メディアプレーヤーを含む携帯型電子機器、その他の専用機器等を用いてもよい。また、制御装置10が画像表示部20、200と分離して構成され、制御装置10と画像表示部20、200との間で無線通信により各種信号を送受信する構成としてもよい。
また、例えば、画像表示部20が画像光を生成する構成として、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)のディスプレイと、有機EL制御部とを備える構成としてもよい。また、画像光を生成する構成として、LCOS(Liquid crystal on silicon, LCoSは登録商標)や、デジタル・マイクロミラー・デバイス等を用いることもできる。
また、画像光を使用者の眼に導く光学素子は、右導光板261、左導光板262に限定されない。すなわち、外部から装置に向けて入射する外光を透過し、画像光とともに使用者の眼に入射させる光学素子であればよい。例えば、使用者の眼の前方に位置して使用者の視界の一部または全部に重なる光学素子を用いてもよい。さらに、レーザー光等を走査させて画像光とする走査方式の光学素子を採用してもよい。また、光学素子の内部で画像光を導光させるものに限らず、使用者の眼に向けて画像光を屈折及び/または反射させて導く機能のみを有する光学素子としてもよい。さらに、本発明の光学素子は、回折格子、プリズム、ホログラフィー表示部を用いてもよい。
例えば、レーザー網膜投影型のヘッドマウントディスプレイに対して本発明を適用することも可能である。すなわち、光射出部が、レーザー光源と、レーザー光源を使用者の眼に導く光学系とを備え、レーザー光を使用者の眼に入射させて網膜上を走査し、網膜に結像させることにより、使用者に画像を視認させる構成を採用してもよい。
また、本発明を、MEMSミラーを用いた走査光学系を採用し、MEMSディスプレイ技術を利用した表示装置に適用することも可能である。すなわち、信号光形成部と、信号光形成部が射出する光を走査するMEMSミラーを有する走査光学系と、走査光学系により走査される光によって虚像が形成される光学部材とを光射出部として備えてもよい。この構成では、信号光形成部が射出した光がMEMSミラーにより反射され、光学部材に入射し、光学部材の中を導かれて、虚像形成面に達する。MEMSミラーが光を走査することにより、虚像形成面に虚像が形成され、この虚像を使用者が眼で捉えることで、画像が認識される。この場合の光学部品は、例えば上記実施形態の右導光板261及び左導光板262のように、複数回の反射を経て光を導く部品であってもよく、ハーフミラー面を利用してもよい。
また、図7及び図14に示した各機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよく、図7、6の通りに独立したハードウェア資源を配置する構成に限定されない。また、制御部140が実行するプログラムは、記憶部120または制御装置10内の記憶装置に記憶されてもよい。また、外部の装置に記憶されたプログラムを通信部117又はインターフェイス125を介して取得して実行する構成としてもよい。また、制御装置10に形成された構成が重複して画像表示部20に形成されていてもよい。例えば、図7、図14に示す制御部140が、画像表示部20、200に設けられた構成としてもよく、この場合、制御部140と画像表示部20、200の制御部とが機能を分担してもよい。
[第3実施形態]
図17は、本発明を適用した実施形態に係る頭部装着型表示装置1100(表示装置)の外観構成を示す説明図である。
頭部装着型表示装置1100は、使用者の頭部に装着された状態で使用者に虚像を視認させる画像表示部1020(表示部)と、画像表示部1020を制御する制御装置1010と、を備えている。制御装置1010は、使用者が頭部装着型表示装置1100を操作するコントローラーとしても機能する。
画像表示部1020は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状のフレーム1002を有する。フレーム1002は、右保持部1021及び左保持部1023を有する。右保持部1021は、右光学像表示部1026の他端である端部ERから、使用者が画像表示部1020を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。同様に、左保持部1023は、左光学像表示部1028の他端である端部ELから、使用者が画像表示部1020を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。右保持部1021は使用者の頭部において右耳またはその近傍に当接し、左保持部1023は使用者の左耳またはその近傍に当接して、使用者の頭部に画像表示部1020を保持する。フレーム1002は、画像表示部1020の本体(表示部本体)を構成する。頭部装着型表示装置1100の本体がフレーム1002であるか、制御装置1010であるかは限定されない。
フレーム1002には、右表示駆動部1022と、左表示駆動部1024と、右光学像表示部1026と、左光学像表示部1028と、マイク1063とが設けられる。
本実施形態では本体の一例として、眼鏡型のフレーム1002を例示する。本体の形状は眼鏡型に限定されず、使用者の頭部に装着され固定されるものであればよく、使用者の左右の眼の前に跨がって装着される形状であれば、より好ましい。例えば、ここで説明する眼鏡型の他に、使用者の顔の上部を覆うスノーゴーグル様の形状であってもよいし、双眼鏡のように使用者の左右の眼のそれぞれの前方に配置される形状であってもよい。
眼鏡型のフレーム1002は、使用者の右眼の前に位置する右部1002A、及び、左眼の前に位置する左部1002Bを有し、右部1002Aと左部1002Bとがブリッジ部1002C(連結部)で連結された形状である。ブリッジ部1002Cは、使用者が画像表示部1020を装着した際の使用者の眉間に対応する位置で、右部1002Aと左部1002Bとを互いに連結する。
右部1002A及び左部1002Bは、それぞれテンプル部1002D、1002Eに連結される。テンプル部1002D、1002Eは眼鏡のテンプルのようにして、フレーム1002を使用者の頭部に支持する。本実施形態のテンプル部1002Dは右保持部1021で構成され、テンプル部1002Eは左保持部1023で構成される。
右光学像表示部1026は右部1002Aに配置され、左光学像表示部1028は左部1002Bに配置される、それぞれ、使用者が画像表示部1020を装着した際に使用者の右及び左の眼前に位置する。
右表示駆動部1022と左表示駆動部1024とは、使用者が画像表示部1020を装着した際の使用者の頭部に対向する側に配置されている。なお、右表示駆動部1022及び左表示駆動部1024を総称して単に「表示駆動部」とも呼び、右光学像表示部1026及び左光学像表示部1028を総称して単に「光学像表示部」とも呼ぶ。
表示駆動部1022,1024は、液晶ディスプレイ1241,1242(Liquid Crystal Display、以下「LCD1241,1242」と呼ぶ)、図18及び図19を参照して後述する投写光学系1251,1252等を含む。
右光学像表示部1026及び左光学像表示部1028は、導光板1261,1262(図18)と、調光板1020Aとを備える。導光板1261,1262は、光透過性の樹脂等によって形成され、表示駆動部1022,1024が出力する画像光を、使用者の眼に導く。調光板1020Aは、薄板状の光学素子であり、使用者の眼の側とは反対の側である画像表示部1020の表側を覆うように配置される。調光板1020Aは、光透過性がほぼ無いもの、透明に近いもの、光量を減衰させて光を透過するもの、特定の波長の光を減衰又は反射するもの等、種々のものを用いることができる。調光板1020Aの光学特性(光透過率など)を適宜選択することにより、外部から右光学像表示部1026及び左光学像表示部1028に入射する外光量を調整して、虚像の視認のしやすさを調整できる。本実施形態では、少なくとも、画像表示部1020を装着した使用者が外の景色を視認できる程度の光透過性を有する調光板1020Aを用いる場合について説明する。調光板1020Aは、光学素子である右導光板1261及び左導光板1262を保護し、右導光板1261及び左導光板1262の損傷や汚れの付着等を抑制する。
調光板1020Aは、右光学像表示部1026及び左光学像表示部1028に対し着脱可能としてもよく、複数種類の調光板1020Aを交換して装着可能としてもよいし、省略してもよい。
また、フレーム1002には、カメラユニット1003が設けられる。カメラユニット1003は、カメラ1061が配置されるカメラ台座部1003Cと、カメラ台座部1003Cを支持するアーム部1003A、1003Bとを有する。アーム部1003Aは、右保持部1021の先端部APに設けられたヒンジ1021A(連結部)により、回動可能に右保持部1021に連結される。アーム部1003Bは、左保持部1023の先端部APに設けられたヒンジ1023A(連結部)により、回動可能に左保持部1023に連結される。このため、カメラユニット1003は全体として、図中矢印Kで示す方向、すなわち装着状態において上下に回動可能である。カメラユニット1003は、回動範囲の下端でフレーム1002に接する。また、カメラユニット1003の回動範囲の上端はヒンジ1021A、1023Aの仕様等で決定される。
ヒンジ1021Aには、後述する第1回動センサー1071(図19)が設けられ、ヒンジ1023Aには後述する第2回動センサー1072(図19)が設けられる。第1回動センサー1071及び第2回動センサー1072は、検出部として機能し、ヒンジ1021A、1023Aの回動位置、または、回動の動作を検出する。第1回動センサー1071及び第2回動センサー1072は、例えば、ロータリーエンコーダーで構成することもできる。詳細には、発光部と受光部とを有する光センサーとヒンジ1021A、1023Aを中心とする回動に伴い動作する遮光板とを備え、遮光板に設けられるスリットを透過する光を検出する構成が挙げられる。この場合、第1回動センサー1071は、ヒンジ1021Aにおけるテンプル部1002Dとアーム部1003Aとの角度が拡大する動作、及び、角度が縮小する動作を検出し、動作量をカウント可能である。また、第2回動センサー1072は、ヒンジ1023Aに関して同様に検出を行う。また、第1回動センサー1071及び第2回動センサー1072は、可変抵抗器や磁気センサーを用い、ヒンジ1021Aにおけるテンプル部1002Dとアーム部1003Aとの角度、及び、ヒンジ1023Aにおけるテンプル部1002Eとアーム部1003Bとの角度を、それぞれ検出してもよい。
本実施形態で、第1回動センサー1071及び第2回動センサー1072は、光学的に検出を行うロータリーエンコーダーとする。第1回動センサー1071は、ヒンジ1021Aでテンプル部1002Dに対しアーム部1003Aが回動すると、所定角度回動する毎にパルスを出力する。第2回動センサー1072は、ヒンジ1023Aでテンプル部1002Eに対しアーム部1003Bが回動すると、所定角度回動する毎にパルスを出力する。第1回動センサー1071、第2回動センサー1072は、回動方向を示す信号を出力してもよい。
また、第1回動センサー1071及び第2回動センサー1072が、ロータリーエンコーダーのパルスをカウントする機能を備え、パルスのカウント値及び回転方向に基づき、ヒンジ1021A、1023Aの角度を出力してもよい。
カメラ台座部1003Cは、右部1002A、左部1002B及びブリッジ部1002Cの上部に跨がって位置する板状または棒状部材であり、ブリッジ部1002Cの上に相当する位置に、カメラ1061が埋込設置される。カメラ1061(撮像部)は、CCDやCMOS等の撮像素子及び撮像レンズ等を備えるデジタルカメラであり、単眼カメラであってもステレオカメラであってもよい。
カメラ1061は、頭部装着型表示装置1100の表側方向、換言すれば、画像表示部1020を装着した状態における使用者の視界方向の少なくとも一部の外景を撮像する。カメラ1061の撮像範囲の広さは適宜設定可能であるが、例えばカメラユニット1003の回動範囲の下端において、カメラ1061の撮像範囲が、使用者が右光学像表示部1026、左光学像表示部1028を通して視認する外界を含むことが好ましい。さらに、調光板1020Aを通した使用者の視界の全体を撮像できるようにカメラ1061の撮像範囲が設定されているとより好ましい。
カメラ1061は、制御部1140が備える撮像処理部1181(図19)の制御に従って撮像を実行し、撮像画像データを撮像処理部1181に出力する。
画像表示部1020は、制御装置1010に接続部1040を介して接続する。接続部1040は、制御装置1010に接続される本体コード1048、右コード1042、左コード1044、及び、連結部材1046を備える。右コード1042及び左コード1044は、本体コード1048が2本に分岐したコードである。右コード1042は、右保持部1021の延伸方向の先端部APから右保持部1021の筐体内に挿入され、右表示駆動部1022に接続される。同様に、左コード1044は、左保持部1023の延伸方向の先端部APから左保持部1023の筐体内に挿入され、左表示駆動部1024に接続される。
連結部材1046は、本体コード1048と、右コード1042及び左コード1044との分岐点に設けられ、イヤホンプラグ1030を接続するためのジャックを有する。イヤホンプラグ1030からは、右イヤホン1032及び左イヤホン1034が延伸する。イヤホンプラグ1030の近傍にはマイク1063が設けられる。イヤホンプラグ1030からマイク1063までは一本のコードにまとめられ、マイク1063からコードが分岐して、右イヤホン1032と左イヤホン1034のそれぞれに繋がる。
マイク1063は、例えば図17に示すように、マイク1063の集音部が使用者の視線方向を向くように配置され、音声を集音して、音声信号を音声処理部1187(図19)に出力する。マイク1063は、例えばモノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであってもよいし、無指向性のマイクであってもよい。
右コード1042、左コード1044、及び、本体コード1048は、デジタルデータを伝送可能なものであればよく、例えば金属ケーブルや光ファイバーで構成できる。また、右コード1042と左コード1044とを一本のコードにまとめた構成としてもよい。
画像表示部1020と制御装置1010とは、接続部1040を介して各種信号を伝送する。本体コード1048の連結部材1046とは反対側の端部、及び、制御装置1010には、互いに嵌合するコネクター(図示略)が設けられる。本体コード1048のコネクターと制御装置1010のコネクターとを嵌合し、或いは、この嵌合を外すことで、制御装置1010と画像表示部1020とを接離できる。
制御装置1010は、頭部装着型表示装置1100を制御する。制御装置1010は、決定キー1011、点灯部1012、表示切替キー1013、輝度切替キー1015、方向キー1016、メニューキー1017、及び電源スイッチ1018を含むスイッチ類を備える。また、制御装置1010は、使用者が手指で操作するトラックパッド1014を備える。
決定キー1011は、押下操作を検出して、制御装置1010で操作された内容を決定する信号を出力する。点灯部1012は、LED(Light Emitting Diode)等の光源を備え、光源の点灯状態により、頭部装着型表示装置1100の動作状態(例えば、電源のON/OFF)を通知する。表示切替キー1013は、押下操作に応じて、例えば、画像の表示モードの切り替えを指示する信号を出力する。
トラックパッド1014は、接触操作を検出する操作面を有し、操作面に対する操作に応じて操作信号を出力する。操作面における検出方式は限定されず、静電式、圧力検出式、光学式等を採用できる。輝度切替キー1015は、押下操作に応じて画像表示部1020の輝度の増減を指示する信号を出力する。方向キー1016は、上下左右方向に対応するキーへの押下操作に応じて操作信号を出力する。電源スイッチ1018は、頭部装着型表示装置1100の電源オン/オフを切り替えるスイッチである。
図18は、画像表示部1020が備える光学系の構成を示す要部平面図である。図18には説明のため使用者の左眼LE及び右眼REを図示する。
左表示駆動部1024は、左バックライト1222、左LCD1242、及び左投写光学系1252を備える。左バックライト1222はLED等の光源と拡散板とを有する。左LCD1242は、左バックライト1222の拡散板から発せられる光の光路上に配置され、複数の画素をマトリクス状に配置した透過型液晶パネルである。左投写光学系1252は、左LCD1242を透過した画像光Lを導くレンズ群等を備える。
左投写光学系1252は、左LCD1242から射出された画像光Lを平行状態の光束にするコリメートレンズを有する。コリメートレンズにより平行状態の光束にされた画像光Lは、左導光板1262(光学素子)に入射される。左導光板1262は、画像光Lを反射する複数の反射面が形成されたプリズムであり、画像光Lは、左導光板1262の内部において複数回の反射を経て左眼LE側に導かれる。左導光板1262には、左眼LEの眼前に位置するハーフミラー1262A(反射面)が形成される。
ハーフミラー1262Aで反射した画像光Lは左眼LEに向けて左光学像表示部1028から射出され、この画像光Lが左眼LEの網膜に像を結び、使用者に画像を視認させる。
右表示駆動部1022は、左表示駆動部1024と左右対称に構成される。右表示駆動部1022は、右バックライト1221、右LCD1241、及び右投写光学系1251を備える。右バックライト1221はLED等の光源と拡散板とを有する。右LCD1241は、右バックライト1221の拡散板から発せられる光の光路上に配置され、複数の画素をマトリクス状に配置した透過型液晶パネルである。右投写光学系1251は、右LCD1241を透過した画像光Lを導くレンズ群等を備える。
右投写光学系1251は、右LCD1241から射出された画像光Lを平行状態の光束にするコリメートレンズを有する。コリメートレンズにより平行状態の光束にされた画像光Lは、右導光板1261(光学素子)に入射される。右導光板1261は、画像光Lを反射する複数の反射面が形成されたプリズムであり、画像光Lは、右導光板1261の内部において複数回の反射を経て右眼RE側に導かれる。右導光板1261には、右眼REの眼前に位置するハーフミラー1261A(反射面)が形成される。
ハーフミラー1261Aで反射した画像光Lは右眼REに向けて右光学像表示部1026から射出され、この画像光Lが右眼REの網膜に像を結び、使用者に画像を視認させる。
使用者の右眼REには、ハーフミラー1261Aで反射した画像光Lと、調光板1020Aを透過した外光OLとが入射する。左眼LEには、ハーフミラー1262Aで反射した画像光Lと、調光板1020Aを透過した外光OLとが入射する。このように、頭部装着型表示装置1100は、内部で処理した画像の画像光Lと外光OLとを重ねて使用者の眼に入射させ、使用者にとっては、調光板1020Aを透かして外景が見え、この外景に重ねて、画像光Lによる画像が視認される。このように、頭部装着型表示装置1100は、シースルー型の表示装置として機能する。
なお、左投写光学系1252と左導光板1262とを総称して「左導光部」とも呼び、右投写光学系1251と右導光板1261とを総称して「右導光部」と呼ぶ。右導光部及び左導光部の構成は上記の例に限定されず、画像光を用いて使用者の眼前に虚像を形成する限りにおいて任意の方式を用いることができ、例えば、回折格子を用いても良いし、半透過反射膜を用いても良い。
また、フレーム1002には2つの動きセンサーが取り付けられる。これらの動きセンサーは、慣性センサーであり、具体的には第1センサー1066及び第2センサー1068である。これらの動きセンサーである第1センサー1066及び第2センサー1068は、頭部装着型表示装置1100において、使用者の身体に対して偏りを有する位置に配置される。より具体的には、第1センサー1066は右部1002Aにおいてテンプル部1002D側の端に配置され、第2センサー1068は左部1002Bにおいてテンプル部1002E側の端部に設置される。第1センサー1066及び第2センサー1068は、加速度センサーや角速度センサー(ジャイロセンサー)等の慣性センサーであり、本実施形態では、3軸のジャイロセンサーとする。第1センサー1066及び第2センサー1068は、それぞれ、内蔵する検出機構の測定基準点において、後述するX軸まわりの回転(ピッチ)、Y軸回りの回転(ヨー)、及びZ軸まわりの回転(ロール)を検出する。第1センサー1066及び第2センサー1068の位置は、測定基準点の位置をいう。
第1センサー1066、及び第2センサー1068は、上述した第1〜第2実施形態で説明した第1センサー1066及び第2センサー1068に、それぞれ対応し、設置位置も同様である。すなわち、第1センサー1066及び第2センサー1068のいずれかのセンサーは、使用者の頭部の中心の一方側にあり、他のセンサーは、使用者の頭部の中心の他方側にある。具体的には、第1センサー1066は使用者の頭部の右側にあり、第2センサー1068は左側にある。ここで、頭部の中心とは、使用者の身長に対し垂直な水平面における頭部の中心を指す。第1センサー1066及び第2センサー1068の水平面における位置は、この水平面における頭部の中心を挟んで、右側と左側にある。頭部の中心については、第1〜第2実施形態で説明した通りである。
より好ましくは、図18に示すように、第1センサー1066は右導光板261の側方に配置され、第2センサー1068は左導光板262の側方に配置される。フレーム1002の左右方向における中央位置をC1とすると、使用者に画像光を視認させる表示領域であるハーフミラー261Aの中心C2と、ハーフミラー262Aの中心C3とは、中央位置C1に対して対称な位置にある。言い換えれば、中央位置C1はハーフミラー261Aの中心C2とハーフミラー262Aの中心C3との中点にある。
このように、第1センサー1066及び第2センサー1068は、中央位置C1に対して対称な位置に設けられることが好ましい。そして、第1センサー1066の位置と第2センサー1068の位置とを結ぶ直線は、ハーフミラー261A、262Aを通る。つまり、第1センサー1066の位置、第2センサー1068の位置、ハーフミラー261Aの中心C2、及びハーフミラー262Aの中心C3が、同一直線上に並ぶ。
なお、ハーフミラー1261A、1262Aの中心を含む水平面内における位置関係を説明したが、この水平面に対し垂直な、鉛直方向(高さ方向)における位置関係は、特に制限はない。第1センサー1066及び第2センサー1068の位置と、ハーフミラー1261A、1262Aの中心とが、鉛直方向で近接していることが好ましい。例えば、第1センサー1066及び第2センサー1068の位置が、ハーフミラー1261A、1262Aの側方にあるとよい。さらに、第1センサー1066及び第2センサー1068の位置と、ハーフミラー1261A、1262Aの中心とが、高さ方向において同一位置にあると、より好ましい。
第1センサー1066が角速度を検出する軸は、図1に示すように、画像表示部1020を装着する使用者の頭部に対し左右方向をX軸、前後方向をZ軸、上下方向をY軸とする。X軸、Y軸、及びZ軸は、上述した第1〜第2実施形態で説明したように、使用者の頭部に対応して仮想的に設定される直交座標系を構成する。より詳細には、頭部装着型表示装置100の装着状態において、画像表示部1020は左右の眼に対し、使用者が知覚する水平な位置にある。この装着状態において、第1センサー1066及び第2センサー1068の検出軸(X軸、Y軸、Z軸)が、使用者が知覚する左右、前後、及び上下に一致する構成である。仮に、画像表示部1020の装着位置が使用者の頭部に対して傾いたり、ずれたりすれば、第1センサー1066及び第2センサー1068の検出軸は、左右、前後、上下からずれるが、この問題は使用者が画像表示部1020の傾き及びずれを調整することで容易に解消する。
頭部装着型表示装置100は、第1センサー1066及び第2センサー1068により、画像表示部1020を装着した状態で使用者の頭部の動きを検出する。これらの動きセンサーが検出する動きは、第1センサー1066の測定基準点(図3のP3)、及び、第2センサー1068の測定基準点(図3のP4)における動きである。
頭部装着型表示装置1100は、後述するAR表示制御部1186の機能によってARコンテンツの表示を行う場合、使用者の頭部の動きの検出(ヘッドトラッキング)を行い、検出した使用者の頭部の動きに対応して表示態様を変化させる構成であってもよい。
この場合、ヘッドトラッキングにおいては頭部の運動(動き)の基準位置を想定し、この基準位置における動きを求めることが望ましい。上述したように、人間が頭部を動かすとき、頭部の中心または頭部の前部(図3の位置P2に相当)が、動きの中心、或いは基準となることが多い。ここで、動きの中心、或いは基準となる位置を、運動中心と呼ぶ。
ヘッドトラッキングの処理では、運動中心における動きを求める。運動中心の動きを直接検出するためには、運動中心となりやすい位置、例えば位置P1や位置P2に動きセンサーを配置する必要があり、現実的でない。そこで、頭部装着型表示装置1100は、第1センサー1066及び第2センサー1068の検出結果に基づく演算処理により、運動中心における動きを算出する。この演算処理に用いる演算式、テーブル、パラメーター等は、後述するセンサー位置データ1122として、予め記憶されている。
そして、第1センサー1066及び第2センサー1068の位置が、ある種の条件を満たしている場合、運動中心における動きを算出する演算処理が容易になり、軽負荷で実行でき、より正確に運動中心における動きを算出できる。
この条件は、上述したように、第1センサー1066及び第2センサー1068のいずれかのセンサーは使用者の頭部の中心の一方側にあり、他のセンサーは、使用者の頭部の中心の他方側にあることである。この場合、頭部の中心を運動中心とする運動が行われた場合に、運動中心における動きを容易に算出できる。
また、より好ましくは、第1センサー1066は右導光板1261の側方に配置され、第2センサー1068は左導光板1262の側方に配置されることである。さらに、第1センサー1066及び第2センサー1068は、中央位置C1に対して対称な位置に設けられることが、より好ましい。第1センサー1066の位置、第2センサー1068の位置、ハーフミラー1261Aの中心C2、及びハーフミラー1262Aの中心C3が、同一直線上に並ぶことが、さらに好ましい。この場合、頭部の中心、または前部の中心を運動中心とする運動が行われた場合に、運動中心における動きを容易に算出できる。
また、鉛直方向(高さ方向)における位置関係は、第1センサー1066及び第2センサー1068の位置と、ハーフミラー1261A、1262Aの中心とが、鉛直方向で近接していることが好ましい。さらに、第1センサー1066及び第2センサー1068の位置と、ハーフミラー1261A、1262Aの中心とが、高さ方向において同一位置にあると、より好ましい。
なお、第1センサー1066及び第2センサー1068の配置状態は、図17及び図18に示す例に限定されない。例えば、第1実施形態で図5及び図6に示した第1センサー66、及び第2センサー68に相当する位置に、配置することも可能である。
図19は、頭部装着型表示装置1100を構成する各部の機能ブロック図である。
頭部装着型表示装置1100は、コンテンツの供給元となる種々の外部機器OAを接続するインターフェイス1125を備える。インターフェイス1125は、例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等の有線接続に対応したインターフェイスを用いることができ、無線通信インターフェイスで構成してもよい。外部機器OAは、頭部装着型表示装置1100に画像を供給する画像供給装置であり、パーソナルコンピューター(PC)、携帯電話端末、携帯型ゲーム機等が用いられる。
制御装置1010は、制御部1140、入力情報取得部1110、記憶部1120、送信部(Tx)1051及び送信部(Tx)1052を有する。
入力情報取得部1110は、操作部1135に接続される。操作部1135は、上記のトラックパッド1014、方向キー1016、電源スイッチ1018等を含み、入力情報取得部1110は、操作部1135から入力される信号に基づき、入力内容を取得する。また、制御装置1010は、電源部1130を備え、制御装置1010及び画像表示部1020の各部に電源を供給する。
記憶部1120は、不揮発性の記憶装置であって、種々のコンピュータープログラム、および、これらのプログラムに係るデータを記憶する。また、記憶部1120は、画像表示部1020に表示する静止画像や動画像のデータを記憶しても良い。
記憶部1120は、設定データ1121を記憶する。設定データ1121は、制御部1140が実行する各種処理に係る設定値を含む。例えば、画像処理部1160及び表示制御部1170が画像信号を処理する場合の解像度等の設定値を含む。設定データ1121が含む設定値は、予め操作部1135の操作で入力された値であってもよいし、通信部1117またはインターフェイス1125を介して外部機器OAまたは他の装置(図示略)から設定値を受信して記憶してもよい。
記憶部1120は、センサー位置データ1122、及びコンテンツデータ1123を記憶する。センサー位置データ1122は、動き検出部1185が演算処理に用いる演算式、パラメーター等を含む。コンテンツデータ1123は、AR表示制御部1186がAR表示するコンテンツの画像(静止画像、或いは動画像)データ、及び/又は音声データを含む。
制御部1140には、センサー1113、GPS1115、及び、通信部1117が接続される。センサー1113は、加速度センサーや角速度センサー等の慣性センサーを有し、制御部1140はセンサー1113の検出値を取得する。センサー1113は、例えば3軸の加速度センサーや、3軸の加速度センサーと3軸の角速度センサーと3軸の磁気センサーとを有する9軸センサーとして構成してもよい。
GPS1115は、アンテナ(図示略)を備え、GPS(Global Positioning System)信号を受信し、制御装置1010の現在位置を算出する。GPS1115は、GPS信号に基づいて求めた現在位置や現在時刻を制御部1140に出力する。また、GPS1115はGPS信号に含まれる情報に基づいて現在時刻を取得し、制御部1140が計時する時刻を修正させる機能を備えていてもよい。
通信部1117は、無線LAN(WiFi(登録商標))、Miracast(登録商標)、Bluetooth(登録商標)等の規格に準じた無線データ通信を実行する。
外部機器OAが、通信部1117に無線接続された場合、制御部1140は、コンテンツデータ1123を通信部1117より取得して、画像表示部1020に画像を表示させる。一方、外部機器OAが、インターフェイス1125に有線接続された場合、制御部1140は、コンテンツデータ1123をインターフェイス1125より取得して、画像表示部1020に画像を表示させる。通信部1117及びインターフェイス1125は、外部機器OAからコンテンツデータ1123を取得するデータ取得部DAとして機能する。
制御部1140は、プログラムを実行するCPU(図示略)、CPUが実行するプログラムやデータを一時的に格納するRAM(図示略)、及び、CPUが実行する基本制御プログラムやデータを不揮発的に記憶するROM(図示略)を有する。制御部1140は、CPUにより制御プログラムを実行することで、頭部装着型表示装置1100の各部を制御する。また、制御部1140は、記憶部1120が記憶するコンピュータープログラムを読み出して実行し、制御部1140の各種機能を実現する。すなわち、制御部1140は、オペレーティングシステム(OS)1150、画像処理部1160、及び表示制御部1170の機能を実行する。また、制御部1140は、撮像処理部1181、検出制御部1183、位置検出部1184(制御部)、動き検出部1185、AR表示制御部1186(表示処理部)、及び、音声処理部1187として機能する。
画像処理部1160は、コンテンツに含まれる画像信号を取得する。画像処理部1160は、取得した画像信号から、垂直同期信号VSyncや水平同期信号HSync等の同期信号を分離する。また、画像処理部1160は、分離した垂直同期信号VSyncや水平同期信号HSyncの周期に応じて、PLL(Phase Locked Loop)回路等(図示略)を利用してクロック信号PCLKを生成する。画像処理部1160は、同期信号が分離されたアナログ画像信号を、A/D変換回路等(図示略)を用いてディジタル画像信号に変換する。画像処理部1160は、変換後のディジタル画像信号を、対象画像の画像データ(図中、Data)として、1フレームごとに、制御部1140のRAMに格納する。この画像データは、例えばRGBデータである。
なお、画像処理部1160は、必要に応じて、画像データの解像度を右表示駆動部1022及び左表示駆動部1024に適した解像度に変換する解像度変換処理を行ってもよい。また、画像処理部1160は、画像データの輝度や彩度を調整する画像調整処理、3D画像データから2D画像データを作成し、或いは2D画像データから3D画像データを生成する2D/3D変換処理等を実行してもよい。
画像処理部1160は、クロック信号PCLK、垂直同期信号VSync、水平同期信号HSync、RAMに格納された画像データDataのそれぞれを、送信部1051、1052を介して送信する。送信部1051、1052は、トランシーバーとして機能し、制御装置1010と画像表示部1020との間におけるシリアル伝送を実行する。なお、送信部1051を介して送信される画像データDataを「右眼用画像データ」と呼び、送信部1052を介して送信される画像データDataを「左眼用画像データ」と呼ぶ。
表示制御部1170は、右表示駆動部1022及び左表示駆動部1024を制御する制御信号を生成し、この制御信号により、右表示駆動部1022及び左表示駆動部1024のそれぞれによる画像光の生成及び射出を制御する。具体的には、右LCD制御部1211による右LCD1241の駆動ON/OFF、右バックライト制御部1201による右バックライト1221の駆動ON/OFFを制御する。また、表示制御部1170は、左LCD制御部1212による左LCD1242の駆動ON/OFF、左バックライト制御部1202による左バックライト1222の駆動ON/OFFを制御する。
撮像処理部1181は、カメラ1061を制御して撮像を実行させ、撮像画像データを取得する。
位置検出部1184は、第1回動センサー1071及び第2回動センサー1072に接続して、ヒンジ1021Aにおけるテンプル部1002Dとアーム部1003Aとの角度、及び、ヒンジ1023Aにおけるテンプル部1002Eとアーム部1003Bとの角度を検出する。
検出制御部1183は、第1センサー1066及び第2センサー1068のそれぞれを駆動して、検出値を取得する。例えば、頭部装着型表示装置1100の電源投入時などに第1センサー1066及び第2センサー1068を初期化し、検出可能な状態とする。また、検出制御部1183は、予め設定されたサンプリング周期で第1センサー1066及び第2センサー1068のそれぞれの検出値を取得する。本実施形態では、第1センサー1066及び第2センサー1068は、上記のX軸、Y軸、及びZ軸の各軸まわりの回転(ロール)の角速度の検出値を出力する。この検出値は角速度の大きさと回転方向を含んでもよい。
動き検出部1185は、検出制御部1183が取得する第1センサー1066及び第2センサー1068の検出値に基づき、運動中心における動き量を算出する。運動中心は、上述の通りであり、使用者の頭部の中心、或いは頸部の中心等とすることができる。
動き検出部1185は、記憶部1120が記憶するセンサー位置データ1122を用いて、ヘッドトラッキングの演算を行う。センサー位置データ1122は、第1センサー1066の位置、第2センサー1068の位置との相対的な位置関係または絶対位置を示すデータを含む。センサー位置データ1122は、上記のセンサー位置データ122に相当する。ここで、動き検出部1185は、第1センサー1066及び第2センサー1068の検出結果に基づいて、運動中心の位置を算出してもよい。或いは、運動中心の位置を算出せず、運動中心における動き量を算出してもよい。動き量は、速度であってもよいし、速度と時間とを含んでもよいし、移動量であってもよい。
例えば、動き検出部1185は、第1センサー1066及び第2センサー1068の角速度の検出値から、使用者の動きのX軸まわりの成分、Y軸まわりの成分、及びZ軸まわりの成分を求める。そして、動き検出部1185は、第1センサー1066及び第2センサー1068の検出値と、センサー位置データ122の第1センサー1066及び第2センサー1068の位置とに基づき、X軸まわりの回転の中心、Y軸まわりの回転の中心、及びZ軸回りの回転の中心を求める。そして、動き検出部は、3次元の動きの中心、すなわち運動中心の位置と、運動中心における動きの方向、及び運動中心の動きの大きさ(或いは強さ)を求める。
また、動き検出部1185は、運動中心における動きの方向、大きさだけでなく、予め指定された点における動きの方向及び/又は大きさを求めてもよい。
AR表示制御部1186は、記憶部1120が記憶するコンテンツデータ1123を読み出し、画像処理部1160及び表示制御部1170を制御して、AR表示用の画像を画像表示部1020により表示させる。また、AR表示制御部1186は、コンテンツデータ1123が音声データを含む場合、音声処理部1187を制御して、右イヤホン1032、左イヤホン1034からコンテンツの音声を出力させる。
AR表示制御部1186は、位置検出部1184が検出するヒンジ1021A、1023Aにおける回動位置に基づき、ARコンテンツの表示を制御する。
AR表示制御部1186は、使用者が画像表示部1020越しに対象物を見ている状態でARコンテンツを表示する。AR表示制御部1186は、対象物に対応する位置に画像や文字等を表示するAR表示を行うことで、対象物に関する情報を提供し、或いは、画像表示部1020越しに見える対象物の姿の見え方を変える。ARコンテンツは、対象物に対応する位置に表示される画像や文字のデータを含む。また、ARコンテンツに、対象物を特定するデータ、及び、画像や文字の表示位置に関するデータ等を含んでもよい。ARコンテンツの表示位置は対象物に重なる位置であっても対象物の周囲であってもよい。対象物は物体であればよく、建物等の不動産であってもよいし、自動車や電車などの移動体であってもよく、人間や動物などの生物であってもよい。AR表示制御部1186は、撮像処理部1181が取得する撮像画像データから、使用者の視界に位置する対象物を検出する。そして、AR表示制御部1186は、検出した対象物に対応するARコンテンツの表示位置を決定し、ARコンテンツを表示する。
ARコンテンツは、使用者が対象物を視認する位置に重なるように、或いは、対象物を視認する位置に合わせて、表示することが望ましい。このため、AR表示制御部1186は、撮像処理部1181の撮像画像データから対象物の画像を検出し、検出した対象物の画像と撮像画像全体との位置関係に基づき、カメラ1061の撮像範囲における対象物の位置を特定する。AR表示制御部1186は、カメラ1061の撮像範囲と、画像表示部1020の表示領域との位置関係に基づき、対象物の位置に対応するARコンテンツの表示位置を決定する。
また、AR表示制御部1186は、撮像処理部1181の撮像画像データから対象物の画像を検出し、検出した対象物の画像と撮像画像全体との位置関係に基づき、カメラ1061の撮像範囲における対象物の位置を特定する。AR表示制御部1186は、カメラ1061の撮像範囲と、画像表示部1020の表示領域との位置関係に基づき、対象物の位置に対応するARコンテンツの表示位置を決定する。
AR表示制御部1186が、使用者の頭部の動きに対応してARコンテンツの表示態様を変化させる態様は、設定データ1121に含まれる設定値として、事前に設定される。また、制御部1140が実行するプログラムに設定されることもあり得る。
ここで、AR表示制御部1186の表示の制御は、使用者の頭部の中心や頭部の前部の中心における動きに対応する処理として設計してもよい。頭部の中心や頭部の前部の中心の動きに合わせると、表示変化を設計する際にイメージし易く、シンプルで、間違いが起きにくく、効果的な表示変化を設計できるためである。このため、設定データ1121には、使用者の頭部の中心や頭部の前部の中心における動きの設定値が設定される。AR表示制御部1186は、動き検出部1185が算出する使用者の頭部の中心や頭部の前部の中心における動きを、設定データ1121と比較対照して、処理する。
上記とは異なる方法として、実際に動きを検出する第1センサー1066、第2センサー1068の位置における動きに対応して、AR表示制御部1186の表示の制御を設計することも可能である。例えば、設定データ121に、第1センサー1066及び第2センサー1068の検出値に関する設定値を設定し、この設定値に基づきAR表示制御部1186が処理を行う。この場合も、使用者の頭部の動きに対応して表示を制御できる。しかしながら、この設定値は、第1センサー1066及び第2センサー1068の位置に固定された値であり、頭部装着型表示装置1100の仕様変更によりセンサーの位置や数が変化した場合は新たな設定値が必要になる。これに対し、第1センサー1066や第2センサー1068の検出値から動きの基準の位置と、この基準の位置における動きを算出する方法では、設定値が装置固有の値ではなく、汎用性を持つ。従って、ARコンテンツの表示態様の制御が容易になり、効果的なAR表示が可能になるという利点がある。
頭部装着型表示装置1100は、第1〜第2実施形態で説明した頭部装着型表示装置100と共通する構成を具備する。すなわち、符号1002は第1実施形態で説明したフレーム2に相当し、1002Aは右部2Aに相当し、1002Bは左部2Bに相当し、1002Cはブリッジ部2Cに相当し、1002Dはテンプル部2Dに相当し、1002Eはテンプル部2Eに相当する。
また、符号1003はカメラユニット3に相当し、1003Aはアーム部3Aに相当し、1003Bはアーム部3Bに相当し、1003Cはカメラ台座部3Cに相当する。
符号1010は制御装置10に相当し、1011は決定キー11に相当し、1012は点灯部12に相当し、1014はトラックパッド14に相当し、1015は輝度切替キー15に相当する。符号1016は方向キー16に相当し、1017はメニューキー17に相当し、1018は電源スイッチ18に相当する。
符号1020は画像表示部20に相当し、1020Aは調光板20Aに相当し、1021は右保持部21に相当し、1021Aはヒンジ21Aに相当し、1022は右表示駆動部22に相当する。また、符号1023は左保持部23に相当し、1023Aはヒンジ23Aに相当する。
符号1024は左表示駆動部24に相当し、1025はインターフェイス25に相当し、1026は右光学像表示部26に相当し、1028は左光学像表示部28に相当し、1030はイヤホンプラグ30に相当する。また、符号1032は右イヤホン32に相当し、1034は左イヤホン34に相当する。
符号1040は接続部40に相当し、1042は右コード42に相当し、1044は左コード44に相当し、1046は連結部材46に相当し、1048は本体コード48に相当する。
符号1051は送信部51に相当し、1052は送信部52に相当し、1053は受信部53に相当し、10954は受信部54に相当し、1061は上部カメラ61に相当する。1063はマイク63に相当する。
符号1110は入力情報取得部110に相当し、1113はセンサー113に相当し、1115はGPS115に相当し、1117は通信部117に相当し、1120は記憶部120に相当する。
符号1121は設定データ121に相当し、1122はセンサー位置データ122に相当し、1123はコンテンツデータ123に相当し、1125はインターフェイス125に相当し、1130は電源130に相当し、1135は操作部135に相当する。
符号1140は制御部140に相当し、1150はオペレーティングシステム150に相当し、1160は画像処理部160に相当し、1181は撮像処理部1181に相当し、1183は検出制御部183に相当する。
符号1185は動き検出部185に相当し、1186はAR表示制御部1186に相当し、1187は音声処理部187に相当する。
符号1201は右バックライト制御部201に相当し、1202は左バックライト制御部202に相当し、1211は右LCD制御部211に相当し、1212は左LCD制御部212に相当する。
符号1221は右バックライト221に相当し、1222は左バックライト222に相当し、1241は右LCD241に相当し、1242は左LCD242に相当し、1251は右投写光学系251に相当し、1252は左投写光学系252に相当する。
符号1261は右導光板261に相当し、1261Aはハーフミラー261Aに相当し、1262は左導光板262に相当し、1262Aはハーフミラー262Aに相当する。
その他、上記第1実施形態と共通する構成については同一の符号を付す。
図20は、頭部装着型表示装置1100の装着状態を示す側面図であり、(A)はカメラユニット1003を回動させない状態を示し、(B)はカメラユニット1003をフレーム1002に対して上向きに回動させた状態を示す。
図20(A)において、一点鎖線L1は使用者の視線を示し、使用者の視野を符号W1で示す。二点鎖線L2はカメラ1061の撮像方向、すなわち、カメラ1061が備える撮像光学系(図示略)の光軸を示す。また、図ではカメラ1061の撮像範囲を符号W2で示す。
使用者の視線方向に対象物OBが位置している場合、AR表示制御部1186は、対象物OBの位置に合わせて、ARコンテンツOB´を表示する。ARコンテンツOB´は対象物OBに重なって見える画像であり、画像表示部1020が使用者の眼に向けて発する画像光Lが形成する虚像である。図20(A)には、使用者がARコンテンツOB´を視認(知覚)する仮想の位置を、破線で示す。
図20(A)の状態で、使用者には、対象物OBに重なってARコンテンツOB´が視認される。これに対し、カメラユニット1003をフレーム1002に対して上向きに回動させると、図20(B)に示すように、カメラ1061の撮像方向L2及び撮像範囲W2は、上方に移動する。この場合、カメラ1061の撮像範囲W2と使用者の視野W1との対応関係が変化する。具体的には、カメラ1061の撮像範囲W2における対象物OBの位置が変化するので、AR表示制御部1186が検出する対象物OBの位置が変化する。従って、対象物OBと使用者との相対位置が変化していなくても、AR表示制御部1186が求める対象物OBの位置は変化する。AR表示制御部1186は、変化した対象物OBの位置に基づきARコンテンツOB´の表示位置を決定する。このため、図20(B)に示すように、使用者には、ARコンテンツOB´の表示位置が、対象物OBの位置に対応しないように見える。
また、カメラユニット1003をフレーム1002に対し上向きに動かす場合だけでなく、フレーム1002を下向きに動かす場合も、変化が生じる。この場合は、使用者の視野W1が下方に移動するため、AR表示制御部1186が検出する対象物OBの位置と、使用者の視野W1で使用者が視認する対象物OBの位置とがずれる。従って、図20(B)に示すケースと同様に、使用者には、ARコンテンツOB´の表示位置が、対象物OBの位置に対応しないように見える。
AR表示制御部1186は、図20(A)から(B)に示すように、カメラユニット1003、またはフレーム1002が回動した場合に、この回動に合わせてARコンテンツOB´の表示位置を調整する機能を有する。AR表示制御部1186は、カメラ1061の撮像範囲と、画像表示部1020の表示領域との位置関係に基づき、対象物の位置に対応するARコンテンツの表示位置を決定した後で、表示位置を調整する。
すなわち、AR表示制御部1186は、使用者が画像表示部1020越しに視認する視界の中心軸と、カメラ1061の光軸とのズレ量を求め、このズレ量を補償するようにARコンテンツの表示位置を補正する。この表示位置の調整(補正)は、位置検出部1184が検出する第1回動センサー1071、及び第2回動センサー1072の検出値に基づく。この調整については後述する。
音声処理部1187は、AR表示制御部1186の制御によりコンテンツの音声信号を取得し、取得した音声信号を増幅して、右イヤホン1032および左イヤホン1034に出力する。また、音声処理部1187は、マイク1063により集音される音声を取得してディジタル音声データに変換する。音声処理部1187は、ディジタル音声データに対して予め設定された処理を行ってもよい。
画像表示部1020は、インターフェイス1025と、右表示駆動部1022と、左表示駆動部1024と、右光学像表示部1026としての右導光板1261と、左光学像表示部1028としての左導光板1262とを備える。また、画像表示部1020は、上述したカメラ1061、第1回動センサー1071、及び第2回動センサー1072を備える。カメラ1061はフレーム1002(図17)とは別体のカメラユニット1003に設けられるが、インターフェイス1025に接続される。
インターフェイス1025は、右コード1042と左コード1044とが接続されるコネクターを備える。インターフェイス1025は、送信部1051から送信されるクロック信号PCLK、垂直同期信号VSync、水平同期信号HSync、画像データDataを、対応する受信部(Rx)1053、1054に出力する。また、インターフェイス1025は、表示制御部1170から送信される制御信号を、対応する受信部1053、1054、右バックライト制御部1201又は左バックライト制御部1202に出力する。
インターフェイス1025は、カメラ1061、第1回動センサー1071、及び第2回動センサー1072を接続するインターフェイスである。カメラ1061の撮像画像データや撮像信号、第1回動センサー1071及び第2回動センサー1072の検出結果等は、インターフェイス1025を介して制御部1140に送られる。
カメラ1061は、カメラ接続部1061aによりインターフェイス1025に接続される。カメラ接続部1061aは、例えば、カメラ台座部1003C及びアーム部1003A、1003Bの内部を通り、或いは外面に沿って配設されるケーブルであり、フレーム1002の内部に配設されるインターフェイス1025に有線接続される。カメラ接続部1061aは、接続部1040及びインターフェイス1025とともに、カメラ1061を制御部1140に接続する接続部を構成する。
なお、カメラ接続部1061aを無線通信回線に置き換えることも可能である。この場合、カメラ1061側に無線通信部を設け、フレーム1002に無線通信部を設け、これら無線通信部が撮影画像データや制御データをWiFi等の無線で送受信する構成としてもよい。また、カメラ1061側の無線通信部が通信部1117と通信を行ってもよい。
右表示駆動部1022は、上述した右バックライト1221、右LCD1241、及び右投写光学系1251を備える。また、右表示駆動部1022は、受信部1053、右バックライト(BL)1221を制御する右バックライト(BL)制御部1201、及び、右LCD1241を駆動する右LCD制御部1211を備える。
受信部1053は、送信部1051に対応するレシーバーとして動作し、制御装置1010と画像表示部1020との間におけるシリアル伝送を実行する。右バックライト制御部1201は、入力された制御信号に基づいて、右バックライト1221を駆動する。右LCD制御部1211は、受信部1053を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データDataと、に基づいて、右LCD1241を駆動する。
左表示駆動部1024は、右表示駆動部1022と同様の構成を有する。左表示駆動部1024は、上述した左バックライト1222、左LCD1242、及び左投写光学系1252を備える。また、左表示駆動部1024は、受信部1054、左バックライト1222を駆動する左バックライト制御部1202、及び、左LCD1242を駆動する左LCD制御部1212を備える。
受信部1054は、送信部1052に対応するレシーバーとして動作し、制御装置1010と画像表示部1020との間におけるシリアル伝送を実行する。左バックライト制御部1202は、入力された制御信号に基づいて、左バックライト1222を駆動する。左LCD制御部1212は、受信部1054を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データDataと、に基づいて、左LCD1242を駆動する。
なお、右バックライト制御部1201と、右LCD制御部1211と、右バックライト1221と、右LCD1241とを総称して、右の「画像光生成部」とも呼ぶ。同様に、左バックライト制御部1202と、左LCD制御部1212と、左バックライト1222と、左LCD1242とを総称して、左の「画像光生成部」とも呼ぶ。
図21は、頭部装着型表示装置1100の動作を示すフローチャートであり、特に、制御部1140が、ARコンテンツOB´を表示する動作を示す。
制御部1140は、操作部1135等により入力される指示に従ってARコンテンツの表示を開始し(ステップST11)、位置検出部1184が第1回動センサー1071及び第2回動センサー1072の検出値を取得する(ステップST12)。位置検出部1184は、第1回動センサー1071及び第2回動センサー1072の検出値が、いずれも正常範囲内の値であるか否かを判定する(ステップST13)。すなわち、ヒンジ1021A、1023Aの可動範囲を超えて、カメラユニット1003、またはフレーム1002が回動した状態でないかを判定する。ヒンジ1021A、1023Aが可動範囲を逸脱した状態であれば、故障を防止するため、速やかに動作を停止させるためである。
位置検出部1184は、第1回動センサー1071及び第2回動センサー1072のいずれか、または両方の検出値が正常範囲から外れている場合(ステップST13;NO)、異常を報知する動作を行い(ステップST14)、動作を終了する。ステップST14の異常の報知は、例えば、画像表示部1020によりメッセージを表示させる、点灯部1012を点灯、または点滅させる、右イヤホン1032、左イヤホン1034から警報音や報知メッセージの音声を出力する等の方法で行えばよい。
位置検出部1184が、第1回動センサー1071及び第2回動センサー1072の検出値が正常範囲内の値であると判定した場合(ステップST13;YES)、AR表示制御部1186は、記憶部1120からコンテンツデータ1123を取得する(ステップST15)。次いで、撮像処理部1181がカメラ1061に撮像を実行させ、AR表示制御部1186が撮像画像データから対象物を検出する(ステップST16)。AR表示制御部1186は、対象物の位置に基づいてARコンテンツの表示位置を決定し(ステップST17)、ARコンテンツの表示を開始する(ステップST18)。
ARコンテンツの表示開始後、位置検出部1184が第1回動センサー1071及び第2回動センサー1072の検出値を取得し(ステップST19)、位置検出処理を実行する(ステップST20)。第3実施形態の位置検出処理は、位置検出部1184が、ヒンジ1021Aにおけるアーム部1003Aとテンプル部1002Dとの角度、及び、ヒンジ1023Aにおけるアーム部1003Bとテンプル部1002Eとの角度を求める処理である。また、位置検出部1184は、カメラ1061の撮像方向と、基準位置の撮像方向との差を求めてもよい。基準位置とは、カメラユニット1003の回動範囲において予め設定された位置である。例えば、ヒンジ1021Aにおけるアーム部1003Aとテンプル部1002Dとの角度、及び、ヒンジ1023Aにおけるアーム部1003Bとテンプル部1002Eとの角度が最も小さい位置である。また、例えば、カメラユニット1003がフレーム1002側に最も接近する位置である。
AR表示制御部1186は、位置検出部1184が検出した角度に基づき、ARコンテンツの表示位置の補正が必要か否かを判定する(ステップST21)。例えば、位置検出部1184が検出した角度が、設定データ1121に含まれるしきい値を超える場合に、表示位置の補正が必要と判定する。
表示位置の補正が必要と判定した場合(ステップST21;YES)、AR表示制御部1186は、ARコンテンツの表示位置の補正量を算出する(ステップST22)。ステップST22では、設定データ1121に含まれる演算式、関数、テーブル、パラメーター等を用い、ステップST20で検出した位置から補正量を算出する。
AR表示制御部1186は、表示位置の補正を行う旨の報知を行う(ステップST23)。ステップST23では、例えば、画像表示部1020により報知用のメッセージや画像を表示する。このメッセージや画像は、ARコンテンツと同様に対象物の位置に合わせて表示してもよく、補正後のARコンテンツの表示位置に、報知用のメッセージや画像を表示してもよい。ここで、AR表示制御部1186は、ステップST23で報知を行わずにステップST24に移行してもよいし、ステップST23の報知を行った後で所定時間が経過した後に、自動的にステップST24に移行してもよい。或いは、ステップST23で報知を行った後で使用者の操作を待機し、使用者が実行を指示する操作を行った場合にステップST24に移行してもよい。
また、AR表示制御部1186は、ステップST22において算出した補正量が、AR表示制御部1186により補正可能な量を超える場合に、異常を報知してもよい。例えば、ARコンテンツの補正量の上限値が補正方向ごとに予め設定されており、この上限値を超える補正量を算出した場合に、報知を行ってもよい。また、ステップST21で、位置検出部1184が検出した角度が、補正可能な角度の範囲として予め設定された範囲を逸脱しているか否かを判定してもよい。そして、検出した角度が補正可能な範囲外であると判定した場合に、報知を行ってもよい。報知の方法は、例えばステップST14で行う報知と同様の方法とすることができる。
AR表示制御部1186は、ステップST22で算出した補正量に従って、ARコンテンツの表示位置を補正し(ステップST24)、終了条件の正否を判定する(ステップST25)。また、位置検出処理で位置検出部1184が検出したヒンジ1021A、1023Aにおける角度をもとに、表示位置を補正しないと判定した場合(ステップST21;NO)、制御部1140はステップST25に移行して終了条件の正否を判定する。
制御部1140は、終了条件が成立している場合(ステップST25;YES)、本処理を終了する。また、終了条件が成立していない場合は(ステップST25;NO)、ステップST19に戻る。終了条件は、例えば、ARコンテンツを最後まで表示し、表示が完了すること、操作部1135の操作によりARコンテンツの表示の終了が指示されたこと、インターフェイス1125を介して外部機器より動作終了が指示されたこと、等である。
図21の動作において、操作部1135の操作により表示位置の補正が指示された場合、AR表示制御部1186は、ステップST21で、表示位置の補正が必要と判定する。この場合、操作部1135の操作により補正が指示された後でステップST19、ST20、ST22の動作を行い、補正量を算出する。操作部1135の操作によって補正量が指定された場合は、指定された補正量に基づき補正を行う。また、操作部1135の操作により補正の方向が指示された場合、指示された方向に、予め設定された量の補正量で表示位置を補正してもよい。この一連の動作は、図21の動作の実行中に操作部1135の操作が行われることをトリガーとして、割り込み制御により実行してもよい。
また、図21の動作においてステップST19〜ST25の動作はフロー制御に限定されない。例えば、位置検出部1184が、第1回動センサー1071及び第2回動センサー1072の出力値に基づき回動を検出すると、この回動の検出をトリガーとして割り込み制御により、ステップST19〜ST25の動作を実行してもよい。
また、頭部装着型表示装置1100は、位置検出部1184とは別に、第1回動センサー1071及び第2回動センサー1072の検出値を取得して、使用者の視界の中心軸(視線方向)とカメラ1061の光軸とのズレ量を求めるズレ量検出部(図示略)を備えてもよい。このズレ量算出部は、制御部1140のCPUがプログラムを実行して、位置検出部1184とは別に処理を実行できる処理部として実現してもよい。また、制御部1140とは別の処理部として設けてもよい。ズレ量検出部は、位置検出部1184の処理とは別に、ヒンジ1021Aにおけるアーム部1003Aとテンプル部1002Dとの角度、及び、ヒンジ1023Aにおけるアーム部1003Bとテンプル部1002Eとの角度を求める。この場合、位置検出部1184は、AR表示制御部1186がARコンテンツを表示する際に、フレーム1002に対するカメラ1061の位置または変位の量、或いは使用者の視界の中心軸とカメラ1061の光軸とのズレ量を、ズレ量検出部から取得する。また、ズレ量検出部が設定されたしきい値を超えるズレ量を検出したときに、制御部1140に対して、割り込みによりズレ量を入力する構成としてもよい。
また、頭部装着型表示装置1100は、動き検出部1185によって、第1センサー1066及び第2センサー1068の検出値に基づいて、運動中心における動きの方向、及び動き量を求める処理を実行してもよい。具体的には、第1実施形態で説明した図8に示す処理、或いは、第2実施形態で説明した図15に示す処理を実行してもよい。 さらに、頭部装着型表示装置1100は、動き検出部1185によって検出した動きの方向及び動き量に基づき、動き検出部1185及びAR表示制御部1186による処理を実行してもよい。具体的には、第1実施形態で説明した図10、図11、及び図13に示した処理を実行してもよい。
この場合、頭部装着型表示装置1100は、ヘッドトラッキングを実行し、使用者の頭部の中心または頸部の可動部を運動中心として、運動中心における動きの方向及び動き量を求めることができる。そして、頭部装着型表示装置1100は、ヘッドトラッキングの結果に基づき、使用者の視野とカメラ1061の撮像範囲(画角)との相対位置を求めることができる。また、頭部装着型表示装置1100は、ヘッドトラッキングの結果に基づき、画像表示部1020の装着位置と使用者の眼の位置との相対位置を求め、画像表示部1020の装着状態が適切か否かを判定できる。そして、使用者に対し、画像表示部1020の装着位置の修正を促すメッセージを出力する処理や、ヘッドトラッキングの結果をもとにカメラ1061の撮像画像を補正する処理ができる。また、頭部装着型表示装置1100は、ヘッドトラッキングの結果に基づいて、使用者の頭部が動いた場合に、この動きが認知動作による動きか否かを判定できる。そして、認知動作に該当しない動きについて、カメラ1061の撮像画像を補正する処理を行える。
以上説明したように、使用者の頭部に装着される頭部装着型表示装置1100は、使用者の頭部に装着されるフレーム1002を有する。頭部装着型表示装置1100は、フレーム1002に設けられる画像表示部1020、フレーム1002に対し変位可能に連結されたカメラ1061、及び、フレーム1002に対するカメラ1061の位置または変位を検出する第1回動センサー1071及び第2回動センサー1072を備える。また、第1回動センサー1071及び第2回動センサー1072によりフレーム1002とカメラ1061との相対位置を求める位置検出部1184を備える。これにより、画像表示部1020に対して変位可能なカメラ1061を備えることで、撮像範囲を変化させることができ、カメラ1061を動かした場合に、カメラ1061の動きに伴い必要なARコンテンツの表示位置の補正ができる。
例えば、上述した特許文献1(特開2011−2753号公報)に記載されたように、従来、頭部に装着する表示装置が知られている。特許文献1記載のディスプレイは、眼鏡型のフレームにシースルーの導光手段を設けたディスプレイであり、フレームに撮像装置が取り付けられる。このディスプレイは、撮像装置によって撮像した画像と、導光手段を通してユーザーが視認する対象物の像とを一致させることで、補正データを生成し、その補正データに基づいて撮像データをユーザーの視野と一致させる。これにより、対象物の像に対して対象物に関する各種のデータを重ねて表示するAR(Augmented Reality)技術を実現する。この特許文献1記載のディスプレイが備える撮像装置は、フレームに固定的に設けられるため、撮像装置の撮像範囲を変化させるためには、ユーザーが頭部を動かす必要があった。この点に鑑み、本第3実施形態の頭部装着型表示装置は、撮像する機能を備えた頭部装着型の表示装置において、撮像範囲を変更できるようにする。そして、上述したように、頭部装着型表示装置1100は、画像表示部1020に対して変位可能なカメラ1061を備えることで、撮像範囲を変化させることができ、カメラ1061を動かした場合に、カメラ1061の動きに伴い必要なARコンテンツの表示位置の補正ができる。
頭部装着型表示装置1100は、カメラ1061とフレーム1002とを回動可能に連結するヒンジ1021A、1023Aを有する。第1回動センサー1071及び第2回動センサー1072は、ヒンジ1021A、1023Aにおける角度の大きさまたは角度の変化を検出する。ここで、検出する角度は、例えば、ヒンジ1021A、1023Aにおけるフレーム1002とカメラユニット1003との角度である。このため、カメラ1061をフレーム1002に対し可動に連結し、カメラ1061の位置または変位を検出する構成を、容易に実現できる。
頭部装着型表示装置1100は、検出部として複数のセンサーである第1回動センサー1071及び第2回動センサー1072を備える。位置検出部1184は、複数のセンサーの検出値に基づいて、フレーム1002とカメラ1061との相対位置を求めることで、カメラ1061の位置または変位をより正確に検出できる。
頭部装着型表示装置1100は、カメラ1061の撮像画像に基づき表示部にARコンテンツを表示するAR表示制御部1186を備え、カメラ1061が撮影した画像に基づきコンテンツを表示できる。また、カメラ1061を変位させて撮像範囲を変えることができる。
AR表示制御部1186は、位置検出部1184が求めるフレーム1002とカメラ1061との相対位置に基づき、コンテンツの表示位置を調整できる。このため、カメラ1061を変位させた場合に表示位置を調整して、表示の整合性を保つことができる。従って、コンテンツの表示を継続した状態でカメラ1061を変位させることができる。また、AR表示制御部1186は、コンテンツの表示位置を調整する前に報知を行うので、使用者の利便性の向上を図ることができる。
また、AR表示制御部1186は、フレーム1002とカメラ1061との相対位置に基づき、使用者の視界の中心軸と、カメラ1061の光軸とのズレを補償するようにARコンテンツの表示位置を調整する。このため、カメラ1061が撮影した画像に基づき表示するARコンテンツの位置を、使用者の視線に適した位置に補正できる。
また、AR表示制御部1186は、位置検出部1184の検出結果に基づき、ARコンテンツの表示位置の調整の要否を判定するので、ARコンテンツの表示位置を、適切な精度で制御できる。
また、頭部装着型表示装置1100では、カメラ1061と制御部1140とを有線接続し、カメラ1061の撮像画像を制御部に伝送するカメラ接続部1061aを含む接続部を備え、接続部はカメラ1061とフレーム1002とを連結する連結部に沿って配置される。このため、カメラ1061が撮影する画像をより確実に制御部に伝送できる。
また、頭部装着型表示装置1100において、カメラ1061の撮像画像を制御部に無線伝送する無線伝送部を備える構成としてもよく、この場合、カメラ1061を、より高い自由度で変位させることができる。
第3実施形態ではロータリーエンコーダー等、ヒンジ1021A、1023Aに設けられる第1回動センサー1071及び第2回動センサー1072により、カメラユニット1003の回動、またはカメラユニット1003とフレーム1002の相対位置を検出した。本発明はこれに限定されず、その他の方法によりフレーム1002とカメラユニット1003との相対位置を求めることが可能である。具体的な例を、第4実施形態及び第5実施形態として説明する。
[第4実施形態]
図22は、第4実施形態に係る頭部装着型表示装置1100Bを構成する各部の機能ブロック図である。
第4実施形態の頭部装着型表示装置1100Bは、画像表示部1020に代えて、画像表示部1020Bを有する。画像表示部1020Bは、画像表示部1020の第1回動センサー1071及び第2回動センサー1072を排し、代わりに距離センサー1074を設けた構成であり、その他の各部は共通の構成である。頭部装着型表示装置1100Bにおいて、第3実施形態の頭部装着型表示装置1100と共通する構成部については、同符号を付して図示及び説明を省略する。
図23は第4実施形態の頭部装着型表示装置1100Bの概略構成を示す説明図であり、頭部装着型表示装置1100Bを側面視で示す。
距離センサー1074(検出部)は、フレーム1002のテンプル部1002Eに、カメラユニット1003のアーム部1003B側を向けて配置される。距離センサー1074は光波測距儀であり、具体的には、LEDやレーザー光源等の光源と、受光素子と、プリズム等の光学素子を有する。距離センサー1074は、光源が発する光をアーム部1003Bの底面に向けて射出し、その反射光1074Aを検出する。距離センサー1074は、光を射出してから反射光1074Aを受光するまでの振動数や位相差に基づき、テンプル部1002Eからアーム部1003Bまでの距離を検出する。制御部1140が有する位置検出部1184は、距離センサー1074の距離の検出値を取得し、この距離から、ヒンジ1023Aにおけるテンプル部1002Eとアーム部1003Bの角度を求める。
ヒンジ1021A、1023Aはいずれも一方向の回動のみ可能な、自由度の低い連結部であるから、距離センサー1074は、ヒンジ1021A又はヒンジ1023Aのいずれか一方にのみ設ければよい。図23の例ではヒンジ1023Aの近傍に配置したが、ヒンジ1021A側に設けてもよい。また、アーム部1003Bの底面に、距離センサー1074が発する光を反射する反射板を設けてもよく、距離センサー1074をアーム部1003Bに設け、アーム部1003Bからテンプル部1002Eに向けて光を発し、その反射光を検出してもよい。さらに、距離センサー1074を、右部1002A、左部1002B或いはブリッジ部1002C(図17)に設けてもよい。カメラユニット1003を動かした場合に、距離センサー1074とカメラユニット1003との距離、または距離センサー1074とフレーム1002との距離が変化するように、距離センサー1074を配置すればよい。
第4実施形態の頭部装着型表示装置1100Bは、上記第3実施形態の頭部装着型表示装置1100と同様に、図21で説明した動作を実行する。この場合、図21のステップST12で、位置検出部1184は距離センサー1074の検出値を取得し、ヒンジ1021A、1023Aにおける角度、またはカメラユニット1003の回動量を求める。また、図21のステップST20の位置検出処理においても、位置検出部1184は、距離センサー1074の検出値に基づきヒンジ1021A、1023Aにおける角度、またはカメラユニット1003の回動量を求める。
このように、カメラ1061を、フレーム1002に対して変位可能に連結した構成では、ヒンジ1021A、1023Aに第1回動センサー1071及び第2回動センサー1072を設けることで、カメラ1061の位置に対応した表示位置の補正等を行える。また、距離センサー1074を用いてカメラユニット1003の一部と、このカメラユニット1003の一部に対向するフレーム1002の一部との距離を測定、或いは検出する構成としても、カメラ1061の位置に対応した表示位置の補正等を行える。
[第5実施形態]
図24は、第5実施形態に係る頭部装着型表示装置1100Cを構成する各部の機能ブロック図である。
第5実施形態の頭部装着型表示装置1100Cは、画像表示部1020に代えて、画像表示部1020Cを有する。頭部装着型表示装置1100Cにおいて、第3実施形態の頭部装着型表示装置1100と共通する構成部については、同符号を付して図示及び説明を省略する。
図25は第5実施形態の頭部装着型表示装置1100Cの装着状態を示す図であり、(A)、(C)は側面図、(B)及び(D)は平面図である。
画像表示部1020Cは、フレーム1002を有する画像表示部1020に対し、カメラ1062を、フレキシブルアーム1036(連結部)により連結した構成である。フレキシブルアーム1036は、自在に屈曲させることが可能な、金属製または合成樹脂製のアームであり、フレキシブルアーム1036の基端部はテンプル部1002Eに固定される。また、フレキシブルアーム1036の先端部には、カメラ1062を収容したカメラケース1035が取り付けられる。
例えば図25(A)及び(B)に示すように、カメラ1062を、フレーム1002に近い位置に配置し、カメラ1062の撮像範囲と画像表示部1020Cを装着した使用者の視野とが近い範囲となるように使用できる。また、図25(C)に示すように、画像表示部1020Cは、カメラケース1035を上方に移動させて使用することもできる。この場合、例えば図25(D)に示すように、カメラケース1035を、使用者に対し左右方向に移動させてもよい。図25(D)の例では、カメラケース1035がテンプル部1002D及びテンプル部1002Eの内側にある。この位置では、カメラ1062の撮像範囲は、使用者の右眼の視野及び左眼の視野の両方に跨がるようになる。
図24に示すように、頭部装着型表示装置1100Cは、画像表示部1020Cにおいてフレーム側センサー1076、及びカメラユニットセンサー1078を備える。
フレーム側センサー1076及びカメラユニットセンサー1078は、動きセンサー(モーションセンサー)であり、例えば、加速度センサーや角速度(ジャイロ)センサーである。フレキシブルアーム1036は、カメラケース1035を3次元的に移動させることが可能であるため、フレーム側センサー1076及びカメラユニットセンサー1078は、3軸センサーであることが好ましい。また、フレーム側センサー1076及びカメラユニットセンサー1078は、3軸の加速度センサーと、3軸のジャイロセンサーとを有する構成など、複合的なセンサーとしてもよい。また、磁気センサー等を合わせて備えてもよい。
フレーム側センサー1076は、フレーム1002に設けられ、フレーム1002の動きに関して検出値を出力する。フレーム側センサー1076はフレーム1002に固定されればよく、フレーム1002におけるフレーム側センサー1076の位置は制限されない。フレーム1002が、変位可能な部分を有する場合には、フレキシブルアーム1036とともに変位する部分にフレーム側センサー1076を設けるとよい。例えば、フレーム1002において、テンプル部1002Eが左部1002Bに対し回動可能な構成である場合、フレーム側センサー1076は、フレキシブルアーム1036が固定されるテンプル部1002Eに設けることが好ましい。つまり、フレーム側センサー1076は、フレキシブルアーム1036に対し相対位置が固定されるように、配置されることが好ましい。
カメラユニットセンサー1078は、カメラケース1035に設けられ、カメラ1062の動きに関して検出値を出力する。カメラユニットセンサー1078は、カメラ1062に対して相対位置が固定されるように、カメラケース1035に取り付けられ、或いは内蔵される。
カメラ1062及びカメラユニットセンサー1078は、カメラ接続部1062aによりインターフェイス1025に接続される。カメラ接続部1062aは、例えば、フレキシブルアーム1036の内部の中空部を通し、或いはフレキシブルアーム1036の外面に沿って配設されるケーブルである。カメラ接続部1062aは、フレーム1002の内部に配設されるインターフェイス1025に有線接続される。カメラ接続部1062aは、接続部1040及びインターフェイス1025とともに、カメラ1062を制御部1140に接続する接続部を構成する。
なお、カメラ接続部1062aを無線通信回線に置き換えることも可能である。この場合、カメラ1062及びカメラユニットセンサー1078に接続する無線通信部をカメラケース1035内部に設け、フレーム1002に無線通信部を設け、これら無線通信部が撮影画像データ、センサー検出値のデータ、及び制御データ等をWiFi等の無線で送受信する構成としてもよい。また、カメラケース1035内の無線通信部が通信部1117と通信を行ってもよい。
カメラ1062(撮像部)は、カメラ1061と同様に、CCDやCMOS等の撮像素子及び撮像レンズ等を備えるデジタルカメラであり、単眼カメラであってもステレオカメラであってもよい。カメラ1062は、図25(A)及び(B)に示す基準位置で、頭部装着型表示装置1100の表側方向、換言すれば、画像表示部1020を装着した状態における使用者の視界方向の少なくとも一部の外景を撮像する。カメラ1062の撮像範囲の広さは適宜設定可能であるが、例えば基準位置において、カメラ1061の撮像範囲が、使用者が右光学像表示部1026、左光学像表示部1028を通して視認する外界を含むことが好ましい。さらに、調光板1020Aを通した使用者の視界の全体を撮像できるようにカメラ1062の撮像範囲が設定されているとより好ましい。カメラ1062は、制御部1140が備える撮像処理部1181の制御に従って撮像を実行し、撮像画像データを撮像処理部1181に出力する。
制御部1140が有する位置検出部1184は、カメラユニットセンサー1078の検出値に基づき、カメラケース1035の動きを検出する。このカメラケース1035の動きを3次元的に積算することで、カメラ1062が基準位置から変位した変位量及び変位方向を求めることができる。そして、位置検出部1184は、カメラ1062の位置とカメラ1062の撮像方向とを求めることができる。
ここで、カメラユニットセンサー1078が検出する動きは、画像表示部1020Cの全体の動きの成分を含む。そこで、位置検出部1184は、フレーム側センサー1076の検出値に基づき、画像表示部1020Cの動きを検出し、この画像表示部1020Cの動きと、カメラユニットセンサー1078が検出するカメラケース1035の動きとの差分を求める。この差分は、フレーム1002に対するカメラケース1035の変位に相当する。このように位置検出部1184は、画像表示部1020C全体の変位の影響を排して、フレーム1002に対するカメラ1062の相対的な変位を検出できる。
なお、画像表示部1020Cを装着した使用者が、カメラケース1035を動かす間に、フレーム1002、及び、フレーム1002を装着した頭部を動かさないようにすれば、カメラユニットセンサー1078の検出値に基づきカメラ1062の変位を正確に検出できる。
第5実施形態の頭部装着型表示装置100Cは、上記第3実施形態の頭部装着型表示装置1100と同様に、図21で説明した動作を実行する。
この場合、位置検出部1184は、フレーム側センサー1076及びカメラユニットセンサー1078の検出値を常時取得する。位置検出部1184が検出値の取得を開始する時点で、カメラケース1035は、図25(A)及び(B)に示す基準位置、またはその他の基準位置にあることが望ましい。このため、頭部装着型表示装置1100Cは、位置検出部1184が検出値の取得を開始する前に、カメラケース1035を基準位置に配置させるように、報知や案内を行ってもよい。
位置検出部1184は、位置検出部1184はフレーム側センサー1076及びカメラユニットセンサー1078の検出値を常時取得し、フレーム1002に対するカメラケース1035の位置を求める。位置検出部1184は、フレーム1002に対するカメラケース1035の位置は正常範囲を逸脱したか否かを、常時判定できる。そして、正常範囲を逸脱した場合は、図21のステップST14と同様に報知を行うことができる。
また、AR表示制御部1186は、図21のステップST21において、位置検出部1184が常時検出するカメラケース1035の位置に基づき、位置補正を行うか否かを判定すればよい。
このように、カメラ1062を、フレーム1002に対してフレキシブルアーム1036により自在に変位可能に連結した構成としても、フレーム1002に対するカメラ1062の相対的な変位を検出し、検出した変位量や変位の方向に合わせて表示位置の補正等を行える。
[第6実施形態]
図26は、第6実施形態に係る頭部装着型表示装置1100Dの外観構成を示す説明図である。
本第6実施形態の頭部装着型表示装置1100Dは、上記第3実施形態の頭部装着型表示装置1100が備える画像表示部1020を、使用者の頭部に装着された状態で使用者に虚像を視認させる画像表示部1020D(表示部)に代えた構成である。画像表示部1020Dには、上記第3〜第5の各実施形態で説明した制御装置1010が接続される。
画像表示部1020Dは、フレーム1002にカメラユニット1004を設けた構成である。カメラユニット1004は、カメラユニット1003と同様に、フレーム1002にヒンジ1021A、1023Aを介して回動可能に連結され、フレーム1002に対して上下に回動可能であり、回動範囲の下端位置でフレーム1002に接する。
カメラユニット1004は、アーム部1003A、1003Bに相当するアーム部1004A、1004Bを備える。アーム部1004A、1004Bは、使用者の側頭部に位置して、ヒンジ1021A、1023Aによりフレーム1002に連結される。
カメラ台座部1004Cは、右部1002A、左部1002B及びブリッジ部1002Cの上部に跨がって位置する板状または棒状部材であり、ブリッジ部1002Cの上に相当する位置に、カメラ1064が埋込設置される。
カメラ1064(撮像部)は、カメラ1061と同様にCCDやCMOS等の撮像素子及び撮像レンズ等を備えるデジタルカメラであり、単眼カメラであってもステレオカメラであってもよい。
カメラ1064は球形状のケースを有する。カメラ台座部1004Cの中央に形成されたカメラジョイント部1004Dに埋め込まれる。カメラジョイント部1004Dは球形の凹部を有し、カメラ1064のケースは、カメラジョイント部1004Dにボールジョイントにより結合される。このため、カメラ1064は、頭部装着型表示装置1100Dの装着状態において上下及び左右を含む任意の方向に回動可能である。カメラジョイント部1004Dにおいてカメラ1064を回動させる範囲は制限されており、例えば、カメラ1064のケースに露出する撮像レンズが、カメラジョイント部1004Dの凹部に入り込まない範囲で、回動可能である。
カメラ1064は、使用者が画像表示部1020を透過して外景を視認する場合の視線方向に、カメラ1064の光軸が重なる或いは平行になる方向に向けることができる。この状態において、カメラ1064の撮像範囲は、カメラ1061と同様に、頭部装着型表示装置1100の表側方向、換言すれば、画像表示部1020を装着した状態における使用者の視界方向の少なくとも一部の外景を撮像する。また、カメラ1064の撮像範囲画角の広さは適宜設定可能であるが、例えばカメラユニット1004の回動範囲の下端において、カメラ1064の撮像範囲が、使用者が右光学像表示部1026、左光学像表示部1028を通して視認する外界を含むことが好ましい。さらに、調光板1020Aを通した使用者の視界の全体を撮像できるようにカメラ1064の撮像範囲が設定されているとより好ましい。
また、カメラ1064は、魚眼レンズ等の広角レンズであってもよく、具体的には、カメラジョイント部1004Dにおいて、カメラ1064が回動可能な範囲の端にある状態で、カメラ1064の撮像範囲に使用者の視線方向が含まれるようにしてもよい。
カメラ1064は、制御部1140が備える撮像処理部1181(図27)の制御に従って撮像を実行し、撮像画像データを撮像処理部1181に出力する。
図27は、頭部装着型表示装置1100Dを構成する各部の機能ブロック図である。
頭部装着型表示装置1100Dにおいて、制御装置1010が備える制御部1140には、カメラ1064と、カメラ方向センサー1073とが接続される。カメラ方向センサー1073は、図26に示したカメラジョイント部1004Dの内部、或いは、カメラ台座部1004C内部においてカメラジョイント部1004Dに向けて設けられる。カメラ方向センサー1073は、カメラ1064の光軸方向、或いは、項軸方向の変化を検出して、検出値を制御部1140に出力する。カメラ方向センサー1073は、例えば、光センサーによりカメラ1064のケースの動きを光学的に検出し、或いは、磁気センサーを利用してカメラ1064のケースの動きを検出する構成とすることができる。また、カメラ1064のケースに導体を設け、カメラ方向センサー1073がカメラ1064のケースに接する電極を設け、カメラ方向センサー1073がカメラ1064のケースの動きを電気的に検出する構成としてもよい。
また、画像表示部1020Dは、第3実施形態の画像表示部1020と同様に第1回動センサー1071及び第2回動センサー1072を備える。位置検出部1184は、第1回動センサー1071及び第2回動センサー1072の検出値により、ヒンジ1021A、1023Aにおける回動量またはフレーム1002とカメラユニット1004とがなす角度を検出する。位置検出部1184は、カメラ方向センサー1073の検出値に基づき、カメラ1064の光軸の方向を検出する。そして、制御部1140は、図21に示す動作を実行して、ARコンテンツの表示位置を補正する。
カメラ1064及びカメラ方向センサー1073は、カメラ接続部1064aによりインターフェイス1025に接続される。カメラ接続部1064aは、例えば、カメラ台座部1004C、及び、アーム部1004Aまたはアーム部1004Bの内部を通り、或いは外側に沿って配設されるケーブルである。カメラ接続部1064aは、フレーム1002の内部に配設されるインターフェイス1025に有線接続される。カメラ接続部1064aは、接続部1040及びインターフェイス1025とともに、カメラ1064を制御部1140に接続する接続部を構成する。
なお、カメラ接続部1064aを無線通信回線に置き換えることも可能である。この場合、カメラ1064側に、カメラ1064及びカメラ方向センサー1073に繋がる無線通信部を設け、フレーム1002に無線通信部を設け、これら無線通信部が撮影画像データ、センサー検出値のデータ、及び制御データをWiFi等の無線で送受信する構成としてもよい。また、カメラ1064側の無線通信部が通信部1117と通信を行ってもよい。
第6実施形態の頭部装着型表示装置1100Dによれば、カメラ1064の光軸を、上下左右を含む方向に自在に向けることができ、このカメラ1064を指示するカメラ台座部1004Cが上下に回動することと合わせて、カメラ1064の撮像方向を特定できる。このため、使用者の視線方向と、カメラ1064の光軸方向と、ARコンテンツの表示位置との相対的な関係に基づき、ARコンテンツの表示位置を正確に補正できる。従って、図26及び図27に示す構成においても、上記第3〜第5実施形態で得られる効果を得ることが可能である。さらに、カメラ1064の光軸を変位させる範囲が広いため、使用者が直視できない範囲をカメラ1064で撮像できるという利点がある。
[第7実施形態]
図28は、本発明を適用した第7実施形態の頭部装着型表示装置1100Eの外観構成を示す説明図である。
第7実施形態の頭部装着型表示装置1100Eは、上記第3実施形態の頭部装着型表示装置1100が備える画像表示部1020を、使用者の頭部に装着された状態で使用者に虚像を視認させる画像表示部1020E(表示部)に代えた構成である。画像表示部1020Eには、上記第3〜第6の各実施形態で説明した制御装置1010が接続される。
画像表示部1020Eは、使用者の頭部に装着される装着体であり、使用者の頭部に装着され固定される頭部保持ユニット1005と、頭部保持ユニット1005に連結された表示部フレーム1006をとを有し、全体として眼鏡形状を有する。
頭部保持ユニット1005は使用者の頭部に固定され、表示部フレーム1006は、頭部保持ユニット1005に対して回動可能に連結される。頭部保持ユニット1005は後述するカメラ1065(撮像部)を有し、表示部フレーム1006は、画像を表示する構成部を備える。
頭部保持ユニット1005は、使用者の顔の前に位置するカメラ台座部1005Aと、カメラ台座部1005Aに繋がるバンド部1005Bとを有する。バンド部1005Bは、使用者の側頭部から後頭部にかけて接するベルト状の部材であり、頭部保持ユニット1005を使用者の頭部に支持する。
頭部保持ユニット1005はヒンジ部1005F、1005Gを有し、ヒンジ部1005F、1005Gにより表示部フレーム1006が回動可能に連結される。
表示部フレーム1006には、右表示駆動部1022と、左表示駆動部1024と、右光学像表示部1026と、左光学像表示部1028と、マイク1063とが設けられる。
表示部フレーム1006は、使用者の右眼の前と左眼の前に跨がって位置する表示部1006Aを有する。表示部1006Aの左右両端には、使用者が画像表示部1020Eを装着した際の使用者の側頭部に対応する位置にかけて延伸されたアーム部1006D、1006Eが接続される。アーム部1006D、1006Eは、それぞれ、ヒンジ部1005F、1005Gにより、頭部保持ユニット1005に回動可能に連結される。これにより、表示部フレーム1006は、図中矢印K´で示すように、表示部1006Aを上下に動かす方向に回動可能である。
表示部1006Aには、使用者の右眼の前に右光学像表示部1026が配置され、使用者の左眼の前に左光学像表示部1028が配置される。これら右光学像表示部1026及び左光学像表示部1028は、表示部フレーム1006に設けられる右表示駆動部1022、左表示駆動部1024、LCD1241,1242E、及び、投写光学系1251,1252とともに、画像を表示する。
ヒンジ部1005Fには、後述する第3回動センサー1071A(図28)が設けられ、ヒンジ部1005Gには後述する第4回動センサー1072A(図19)が設けられる。第3回動センサー1071A及び第4回動センサー1072Aは、検出部として機能し、ヒンジ部1005F、1005Gの回動位置、または、回動の動作を検出する。第3回動センサー1071A及び第4回動センサー1072Aは、例えば、ロータリーエンコーダーで構成することもできる。詳細には、発光部と受光部とを有する光センサーとヒンジ部1005F、1005Gを中心とする回動に伴い動作する遮光板とを備え、遮光板に設けられるスリットを透過する光を検出する構成が挙げられる。この場合、第3回動センサー1071Aは、ヒンジ部1005Fにおける頭部保持ユニット1005とアーム部1006Dとの角度が拡大する動作、及び、角度が縮小する動作を検出し、動作量をカウント可能である。また、第4回動センサー1072Aは、ヒンジ部1005Gに関して同様に検出を行う。また、第3回動センサー1071A及び第4回動センサー1072Aは、可変抵抗器や磁気センサーを用い、ヒンジ部1005Fにおける頭部保持ユニット1005とアーム部1006Dとの角度、及び、ヒンジ部1005Gにおける頭部保持ユニット1005とアーム部1006Eとの角度を、それぞれ検出してもよい。本実施形態では第3回動センサー1071A及び第4回動センサー1072Aは光学的に検出を行うロータリーエンコーダーとする。第3回動センサー1071Aは、ヒンジ部1005Fで頭部保持ユニット1005にアーム部1006Dが回動すると、所定角度回動する毎にパルスを出力する。第4回動センサー1072Aは、ヒンジ部1005Gで頭部保持ユニット1005に対しアーム部1006Eが回動すると、所定角度回動する毎にパルスを出力する。第3回動センサー1071A、第4回動センサー1072Aは、回動方向を示す信号を出力してもよい。
画像表示部1020Eは接続部1040Eを介して制御装置1010に接続される。接続部1040Eは、接続部1040(図17)と同様に、制御データ、映像データ、音声データ等を伝送するケーブルで構成される。接続部1040Eは、頭部保持ユニット1005に接続される右コード1042E、及び左コード1044Eを有する。右コード1042E、及び左コード1044Eは、頭部保持ユニット1005に接続された上で、頭部保持ユニット1005の内部を通って表示部フレーム1006の内部に達する。これにより、頭部保持ユニット1005が備える各部と表示部フレーム1006が備える各部とが、制御装置1010に接続される。
この構成により、画像表示部1020Eは、制御装置1010の制御に従って、表示部フレーム1006により画像を表示して使用者に視認させることができる。また、画像表示部1020Eは外景を透過して視認可能なシースルー表示部である。
さらに、表示部フレーム1006は、例えば使用者が手で表示部1006Aを押し下げることで、下方に回動できる。このため、使用者は、表示部1006Aを下方に移動させて、外景を直接視認することもできる。また、上記のように、表示部1006Aを眼前に位置させて、画像表示部1020Eの表示画像を見ることもできる。
カメラ1065は、カメラ1061と同様にCCDやCMOS等の撮像素子及び撮像レンズ等を備えるデジタルカメラであり、単眼カメラであってもステレオカメラであってもよい。カメラ1065は球形状のケースを有する。カメラ台座部1005Aの中央に形成されたカメラジョイント部1005Cに埋め込まれる。カメラジョイント部1005Cは球形の凹部を有し、カメラ1065のケースは、カメラジョイント部1005Cにボールジョイントにより結合される。このため、カメラ1065は、頭部装着型表示装置1100Eの装着状態において上下及び左右を含む任意の方向に回動可能である。カメラジョイント部1005Cにおいてカメラ1065を回動させる範囲は制限されており、例えば、カメラ1065のケースに露出する撮像レンズが、カメラジョイント部1005Cの凹部に入り込まない範囲で、回動可能である。
カメラ1065は、使用者が画像表示部1020を透過して外景を視認する場合の視線方向に、カメラ1065の光軸が重なる或いは平行になる方向に向けることができる。この状態において、カメラ1065の撮像範囲は、カメラ1061と同様に、頭部装着型表示装置1100の表側方向、換言すれば、画像表示部1020を装着した状態における使用者の視界方向の少なくとも一部の外景を撮像する。また、カメラ1065の撮像範囲画角の広さは適宜設定可能であるが、例えばカメラユニット1004の回動範囲の下端において、カメラ1065の撮像範囲が、使用者が右光学像表示部1026、左光学像表示部1028を通して視認する外界を含むことが好ましい。さらに、調光板1020Aを通した使用者の視界の全体を撮像できるようにカメラ1065の撮像範囲が設定されているとより好ましい。
また、カメラ1065は、魚眼レンズ等の広角レンズであってもよく、具体的には、カメラジョイント部1005Cにおいて、カメラ1065が回動可能な範囲の端にある状態で、カメラ1065の撮像範囲に使用者の視線方向が含まれるようにしてもよい。
カメラ1065は、制御部1140が備える撮像処理部1181(図29)の制御に従って撮像を実行し、撮像画像データを撮像処理部1181に出力する。
図29は、頭部装着型表示装置1100Eを構成する各部の機能ブロック図である。
頭部装着型表示装置1100Eにおいて、制御装置1010が備える制御部1140には、カメラ1065と、カメラ方向センサー1079とが接続される。カメラ方向センサー1079は、図28に示したカメラジョイント部1005Cの内部、或いは、カメラ台座部1005A内部においてカメラジョイント部1005Cに向けて設けられる。カメラ方向センサー1079は、カメラ1065の光軸方向、或いは、項軸方向の変化を検出して、検出値を制御部1140に出力する。カメラ方向センサー1079は、例えば、光センサーによりカメラ1065のケースの動きを光学的に検出し、或いは、磁気センサーを利用してカメラ1065のケースの動きを検出する構成とすることができる。また、カメラ1065のケースに導体を設け、カメラ方向センサー1079がカメラ1065のケースに接する電極を設け、カメラ方向センサー1079がカメラ1065のケースの動きを電気的に検出する構成としてもよい。
カメラ1065及びカメラ方向センサー1079は、カメラ接続部1061aによりインターフェイス1025に接続される。カメラ接続部1061aは、例えば、カメラ台座部1004C、及び、アーム部1006Dまたはアーム部1006Eの内部を通り、或いは外側に沿って配設されるケーブルである。カメラ接続部1061aは、表示部フレーム1006の内部に配設されるインターフェイス1025に有線接続される。カメラ接続部1061aは、接続部1040E及びインターフェイス1025とともに、カメラ1065を制御部1140に接続する接続部を構成する。
なお、カメラ接続部1061aを無線通信回線に置き換えることも可能である。この場合、カメラ1065側に、カメラ1065及びカメラ方向センサー1079に繋がる無線通信部を設け、表示部フレーム1006に無線通信部を設け、これら無線通信部が撮影画像データ、センサー検出値のデータ、及び制御データをWiFi等の無線で送受信する構成としてもよい。また、カメラ1065側の無線通信部が通信部1117と通信を行ってもよい。
また、画像表示部1020Dは、ヒンジ部1005Fに設けられる第3回動センサー1071Aと、ヒンジ部1005Gに設けられる第4回動センサー1072Aとを備える。位置検出部1184は、第3回動センサー1071A及び第4回動センサー1072Aの検出値により、ヒンジ部1005F、1005Gにおける回動量または頭部保持ユニット1005とアーム部1006D、1006Eとがなす角度を検出する。位置検出部1184は、カメラ方向センサー1079の検出値に基づき、カメラ1065の光軸の方向を検出する。そして、制御部1140は、図21に示す動作を実行して、ARコンテンツの表示位置を補正する。
第7実施形態の頭部装着型表示装置1100Eによれば、カメラ1065の光軸を、上下左右を含む方向に自在に向けることができ、このカメラ1065を指示するカメラ台座部1005Aが上下に回動することと合わせて、カメラ1065の撮像方向を特定できる。このため、使用者の視線方向と、カメラ1065の光軸方向と、ARコンテンツの表示位置との相対的な関係に基づき、ARコンテンツの表示位置を正確に補正できる。従って、図28及び図29に示す構成においても、上記第3〜第6実施形態で得られる効果を得ることが可能である。さらに、カメラ1065の光軸を変位させる範囲が広いため、使用者が直視できない範囲をカメラ1065で撮像できるという利点がある。
また、頭部装着型表示装置1100Eでは、画像表示部1020Eの表示部フレーム1006を下方に回動させて、使用者の眼に対する右光学像表示部1026及び左光学像表示部1028の位置を変位させることができる。このため、使用者は直接外景を見ることもできる。この構成において、位置検出部1184は、ヒンジ部1005F、1005Gにおける回動量や、頭部保持ユニット1005に対し表示部フレーム1006がなす角度を検出する。これにより、頭部保持ユニット1005に対する表示部フレーム1006の相対位置が変化しても、ARコンテンツの表示位置を適切に調整できる。
これら第4〜第7実施形態に係る構成において、頭部装着型表示装置1100B、1100C、1100D、1100Eは、頭部装着型表示装置1100と同様に、動き検出部1185によりヘッドトラッキングを実行できる。そして、ヘッドトラッキングの結果に基づき、第1実施形態で説明した図10、図11、及び図13に示した処理を実行してもよい。
なお、上述した第3〜第7の各実施形態は、本発明の具体的な実施態様の一例を示すものに過ぎない。本発明は上記各実施形態の構成に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能である。
上記実施形態では、眼鏡型の外形を有するフレーム1002を備えた画像表示部1020、1020B、1020Cについて説明したが、フレーム1002を、帽子やヘルメット等の身体防護具に組み込んだ構成とすることも可能である。また、カメラユニット1003を、フレーム1002に一体に設ける構成としてもよい。また、カメラユニット1003は、フレーム1002に対して、ヒンジ1021A、1023A以外の部材で連結して、より高い自由度で可動な構成にしてもよい。
また、例えば、上記第3から第7実施形態では、検出部として、1または2の動きセンサーを用いて撮像部の相対位置、或いは、相対位置の変化を検出する例を示したが、3以上のセンサーを用いることも勿論可能である。
また、撮像部として一つのカメラ1061、1062を備えた構成を例示したが、複数の撮像部を設けてもよい。この場合、複数の撮像部は互いの相対位置が固定されていてもよいし、それぞれの撮像部が、フレーム1002に対して独立して変位可能な構成であってもよい。また、フレーム1002またはカメラユニット1003の一箇所に、複数の撮像部を設けてもよい。また、フレーム1002またはカメラユニット1003の複数の箇所に、それぞれ複数の撮像部を設けてもよい。この場合、位置検出部1184は、事前の設定に従って、少なくともいずれか1以上の撮像部について変位または変位量を検出すればよい。AR表示制御部1186は、事前に選択された一方の撮像部の位置に対応して表示位置を補正してもよく、両方の撮像部の位置を平均或いは合成した結果に基づき、表示位置を補正しても良い。
さらに、上記各実施形態では、頭部装着型表示装置1100、1100B、1100Cは、画像表示部1020、1020B、1020Cと制御装置1010とが分離され、接続部1040を介して接続された構成として説明した。本発明はこれに限定されず、制御装置1010を、画像表示部1020、1020B、1020Cと一体に構成してもよい。また、頭部装着型表示装置1100、1100B、1100Cは、少なくとも、表示を行う画像表示部1020、1020B、1020Cが、使用者(作業者、指令者)の頭部に装着される装置であればよい。制御装置1010の装着状態は限定されない。このため、制御装置1010として、ノート型コンピューター、タブレット型コンピューター又はデスクトップ型コンピューターを用いてもよい。また、制御装置1010として、ゲーム機や携帯型電話機やスマートフォンや携帯型メディアプレーヤーを含む携帯型電子機器、その他の専用機器等を用いてもよい。また、制御装置1010が画像表示部1020、1020B、1020Cと分離して構成され、制御装置1010と画像表示部1020、1020B、1020Cとの間で無線通信により各種信号を送受信する構成としてもよい。
また、例えば、画像表示部1020が画像光を生成する構成として、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)のディスプレイと、有機EL制御部とを備える構成としてもよい。また、画像光を生成する構成として、LCOS(Liquid crystal on silicon, LCoSは登録商標)や、デジタル・マイクロミラー・デバイス等を用いることもできる。
また、画像光を使用者の眼に導く光学素子は、右導光板1261、左導光板1262に限定されない。すなわち、外部から装置に向けて入射する外光を透過し、画像光とともに使用者の眼に入射させる光学素子であればよい。例えば、使用者の眼の前方に位置して使用者の視界の一部または全部に重なる光学素子を用いてもよい。さらに、レーザー光等を走査させて画像光とする走査方式の光学素子を採用してもよい。また、光学素子の内部で画像光を導光させるものに限らず、使用者の眼に向けて画像光を屈折及び/または反射させて導く機能のみを有する光学素子としてもよい。さらに、本発明の光学素子は、回折格子、プリズム、ホログラフィー表示部を用いてもよい。
例えば、レーザー網膜投影型のヘッドマウントディスプレイに対して本発明を適用することも可能である。すなわち、光射出部が、レーザー光源と、レーザー光源を使用者の眼に導く光学系とを備え、レーザー光を使用者の眼に入射させて網膜上を走査し、網膜に結像させることにより、使用者に画像を視認させる構成を採用してもよい。
また、本発明を、MEMSミラーを用いた走査光学系を採用し、MEMSディスプレイ技術を利用した表示装置に適用することも可能である。すなわち、信号光形成部と、信号光形成部が射出する光を走査するMEMSミラーを有する走査光学系と、走査光学系により走査される光によって虚像が形成される光学部材とを光射出部として備えてもよい。この構成では、信号光形成部が射出した光がMEMSミラーにより反射され、光学部材に入射し、光学部材の中を導かれて、虚像形成面に達する。MEMSミラーが光を走査することにより、虚像形成面に虚像が形成され、この虚像を使用者が眼で捉えることで、画像が認識される。この場合の光学部品は、例えば上記実施形態の右導光板1261及び左導光板1262のように、複数回の反射を経て光を導く部品であってもよく、ハーフミラー面を利用してもよい。
また、図19、図22及び図24に示した各機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよく、ハードウェア資源の配置はブロック図の構成に限定されない。また、制御部1140が実行するプログラムは、記憶部1120または制御装置1010内の記憶装置に記憶されてもよい。また、外部の装置に記憶されたプログラムを通信部1117又はインターフェイス1125を介して取得して実行する構成としてもよい。また、制御装置1010に形成された構成が重複して画像表示部1020、1020B、1020Cに形成されていてもよい。例えば、図20、図22に示す制御部1140が、画像表示部1020、1020B、1020Cに設けられた構成としてもよく、この場合、制御部1140と画像表示部1020、1020B、1020Cの制御部とが機能を分担してもよい。
2…フレーム(本体)、2A…右部、2B…左部、2C…ブリッジ部(連結部)、2D…テンプル部、2E…テンプル部、3…カメラユニット、3A…アーム部、3B…アーム部、3C…カメラ台座部、10…制御装置、20…画像表示部(表示部)、21…右保持部、21A、23A…ヒンジ、23…左保持部、40…接続部、61…上部カメラ、63…マイク、64…第1カメラ(動きセンサー、光学センサー)、65…第2カメラ(動きセンサー、光学センサー)、66…第1センサー(動きセンサー、慣性センサー)、68…第2センサー(動きセンサー、慣性センサー)、69…仮想センサー(動きセンサー、慣性センサー)、100、100A…頭部装着型表示装置(表示装置)、120…記憶部、121…設定データ、122…センサー位置データ、123…コンテンツデータ、135…操作部、140…制御部、160…画像処理部、170…表示制御部、181…撮像処理部、183…検出制御部、185…検出部、186…AR表示制御部、187…音声処理部、261…右導光板(光学素子)、261A…ハーフミラー(表示領域)、262…左導光板(光学素子)、262A…ハーフミラー(表示領域)、1002…フレーム(表示部本体)、1002D…テンプル部、1002E…テンプル部、1003…カメラユニット、1003A…アーム部、1003B…アーム部、1003C…カメラ台座部、1010…制御装置、1020、1020B、1020C、102D,1020E…画像表示部(表示部)、1021…右保持部、1021A、1023A…ヒンジ(連結部)、1023…左保持部、1035…カメラケース、1036…フレキシブルアーム、1040…接続部、1061…カメラ(撮像部)、1062…カメラ(撮像部)、1063…マイク、1066…第1センサー、1068…第2センサー、1071…第1回動センサー、1071A…第3回動センサー、1072…第2回動センサー、1072A…第4回動センサー、1074…距離センサー、1076…フレーム側センサー、1078…カメラユニットセンサー、1100、1100B、1100C、1100D、1100E…頭部装着型表示装置(表示装置)、1120…記憶部、1121…設定データ、1122…センサー位置データ、1123…コンテンツデータ、1135…操作部、1140…制御部、1160…画像処理部、1170…表示制御部、1181…撮像処理部、1183…検出制御部、1184…位置検出部(制御部)、1185…動き検出部、1186…AR表示制御部(表示処理部)、1187…音声処理部。

Claims (20)

  1. 使用者の頭部に装着される頭部装着型の表示装置であって、
    前記使用者の眼に画像光を照射する表示部と、
    前記表示装置の装着状態において、前記使用者の身体に対して偏りを有する位置に配置される複数の動きセンサーと、
    を備えることを特徴とする表示装置。
  2. いずれかの前記動きセンサーは、装着状態において前記頭部の中心より一方側に位置し、他の前記動きセンサーは前記頭部の中心より他方側に位置すること、
    を特徴とする請求項1記載の表示装置。
  3. いずれかの前記動きセンサーは、装着状態において前記頭部の中心より左側に位置し、他の前記動きセンサーは前記頭部の中心より右側に位置すること、
    を特徴とする請求項2記載の表示装置。
  4. 前記表示装置の装着状態において、いずれかの前記動きセンサーは前記使用者の頭部の動きの中心となる可動部より一方側に位置し、他の前記動きセンサーは前記可動部の他方側に位置すること、
    を特徴とする請求項1記載の表示装置。
  5. 前記可動部は、前記使用者の頸部関節を想定して設定される位置であること、
    を特徴とする請求項4記載の表示装置。
  6. 複数の前記動きセンサーは、前記表示装置の装着状態においていずれかの前記動きセンサーと前記可動部との距離が、他の前記動きセンサーと前記可動部との距離と異なるように配置されること、
    を特徴とする請求項4または5記載の表示装置。
  7. 前記表示部は、前記使用者の眼に向けて画像光を放つ表示領域を有する光学素子を備え、
    複数の前記動きセンサー、及び、前記光学素子の表示領域の中央位置が直線状に並んで位置すること、
    を特徴とする請求項1から6のいずれかに記載の表示装置。
  8. 複数の前記動きセンサーは、少なくとも、光学センサー、及び、慣性センサーを含むこと、
    を特徴とする請求項1から7のいずれかに記載の表示装置。
  9. 複数の前記動きセンサーの検出値に基づいて、前記使用者の動きについて、動きの中心における動きを求める動き検出部を備えること、
    を特徴とする請求項1から10のいずれかに記載の表示装置。
  10. 前記動き検出部は、複数の前記動きセンサーのそれぞれの検出値と、前記動きセンサーの位置とに基づき、動きの中心における動きを求めること、
    を特徴とする請求項9記載の表示装置。
  11. 前記使用者の視野の少なくとも一部を含む撮像範囲を撮像する撮像部を備え、
    前記動き検出部は、複数の前記動きセンサーの検出値に基づいて、前記使用者の動きの中心の位置を特定し、特定した前記動きの中心の位置に基づいて、前記撮像部の撮像範囲と、前記使用者の視野との相対位置を求めること、
    を特徴とする請求項9または10記載の表示装置。
  12. 前記動き検出部は、前記動きの中心における動きが前記使用者の認知動作に基づく動きであるか否かを判定し、前記使用者の認知動作に基づく動きでないと判定した場合に前記撮像部の撮像画像を補正すること、
    を特徴とする請求項9から11のいずれかに記載の表示装置。
  13. 前記動き検出部は、
    複数の前記動きセンサーの検出値に基づいて、前記使用者の動きの中心の位置を特定し、
    特定した前記動きの中心の位置から前記使用者の眼の位置を推定し、
    前記動きセンサーの位置に基づく前記表示部の位置を特定し、
    特定した前記表示部の位置と、推定した前記使用者の眼の位置とに基づいて、前記表示部と前記使用者の眼の位置との相対位置を求めること、
    を特徴とする請求項9から12のいずれかに記載の表示装置。
  14. 前記使用者の頭部に装着され前記表示部を備える表示部本体と、
    前記表示部本体に対して変位可能に連結され、前記動きセンサーとしての撮像部と、
    前記表示部本体に対する前記撮像部の位置または変位を検出する検出部と、
    前記検出部により前記表示部本体と前記撮像部との相対位置を求める制御部と、
    を備えることを特徴とする請求項1から10のいずれかに記載の表示装置。
  15. 前記撮像部の撮像画像に基づき前記表示部にコンテンツを表示する表示処理部を備えること、
    を特徴とする請求項14記載の表示装置。
  16. 前記表示処理部は、前記制御部が求める前記表示部本体と前記撮像部との相対位置に基づき、前記コンテンツの表示位置を調整すること、
    を特徴とする請求項15記載の表示装置。
  17. 前記表示処理部は、前記表示部本体と前記撮像部との相対位置に基づき、前記使用者の視界の中心軸と、前記撮像部の光軸とのズレを補償するように前記コンテンツの表示位置を調整すること、
    を特徴とする請求項15記載の表示装置。
  18. 使用者の頭部に装着され、前記使用者の眼に画像光を照射する表示部と、複数の動きセンサーと、を備える表示装置により、
    複数の前記動きセンサーの検出値に基づき、前記頭部の運動中心における動きを求めること、
    を特徴とする表示装置の制御方法。
  19. 複数の前記動きセンサーのそれぞれの検出値と、前記動きセンサーの位置とに基づき、動きの中心における動きを求めること、
    を特徴とする請求項18記載の表示装置の制御方法。
  20. 前記表示部を備え、前記使用者の頭部に装着される表示部本体に対し変位可能に連結された撮像部を備える前記表示装置によって、
    前記表示部本体に対する前記撮像部の位置または変位を検出することにより、前記表示部本体と前記撮像部との相対位置を求めること、
    を特徴とする請求項18または19記載の表示装置の制御方法。
JP2015218180A 2014-12-15 2015-11-06 表示装置、及び、表示装置の制御方法 Pending JP2017092628A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015218180A JP2017092628A (ja) 2015-11-06 2015-11-06 表示装置、及び、表示装置の制御方法
US14/968,384 US20160170482A1 (en) 2014-12-15 2015-12-14 Display apparatus, and control method for display apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015218180A JP2017092628A (ja) 2015-11-06 2015-11-06 表示装置、及び、表示装置の制御方法

Publications (1)

Publication Number Publication Date
JP2017092628A true JP2017092628A (ja) 2017-05-25

Family

ID=58770829

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015218180A Pending JP2017092628A (ja) 2014-12-15 2015-11-06 表示装置、及び、表示装置の制御方法

Country Status (1)

Country Link
JP (1) JP2017092628A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020017358A1 (ja) * 2018-07-20 2020-01-23 ソニー株式会社 装着具
CN111781656A (zh) * 2020-07-30 2020-10-16 广州市南方人力资源评价中心有限公司 头戴式显示设备的佩戴状态检测方法、装置、设备和介质
JP2022519001A (ja) * 2018-11-08 2022-03-18 ビビオール アーゲー ユーザが視覚行動モニタを装着しているか否かを検出するシステム
JP2022543738A (ja) * 2019-07-13 2022-10-14 ソロズ・テクノロジー・リミテッド モジュール化された眼鏡システム、装置、および方法のためのハードウェア・アーキテクチャ
US11966101B2 (en) 2018-07-20 2024-04-23 Sony Corporation Mounting tool

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020017358A1 (ja) * 2018-07-20 2020-01-23 ソニー株式会社 装着具
WO2020017627A1 (ja) * 2018-07-20 2020-01-23 ソニー株式会社 装着具
CN112423663A (zh) * 2018-07-20 2021-02-26 索尼公司 可穿戴工具
JPWO2020017627A1 (ja) * 2018-07-20 2021-08-26 ソニーグループ株式会社 装着具
JP7355015B2 (ja) 2018-07-20 2023-10-03 ソニーグループ株式会社 装着具およびモーションキャプチャシステム
JP7375979B2 (ja) 2018-07-20 2023-11-08 ソニーグループ株式会社 モーションキャプチャシステム
US11966101B2 (en) 2018-07-20 2024-04-23 Sony Corporation Mounting tool
JP2022519001A (ja) * 2018-11-08 2022-03-18 ビビオール アーゲー ユーザが視覚行動モニタを装着しているか否かを検出するシステム
JP2022543738A (ja) * 2019-07-13 2022-10-14 ソロズ・テクノロジー・リミテッド モジュール化された眼鏡システム、装置、および方法のためのハードウェア・アーキテクチャ
JP7352004B2 (ja) 2019-07-13 2023-09-27 ソロズ・テクノロジー・リミテッド モジュール化された眼鏡システム、装置、および方法のためのハードウェア・アーキテクチャ
CN111781656A (zh) * 2020-07-30 2020-10-16 广州市南方人力资源评价中心有限公司 头戴式显示设备的佩戴状态检测方法、装置、设备和介质
CN111781656B (zh) * 2020-07-30 2023-09-15 广州市南方人力资源评价中心有限公司 头戴式显示设备的佩戴状态检测方法、装置、设备和介质

Similar Documents

Publication Publication Date Title
CN112130329B (zh) 头部佩戴型显示装置以及头部佩戴型显示装置的控制方法
JP6693060B2 (ja) 表示システム、表示装置、表示装置の制御方法、及び、プログラム
US10306217B2 (en) Display device, control method for display device, and computer program
JP6492531B2 (ja) 表示装置、及び、表示装置の制御方法
JP6083880B2 (ja) 入出力機構を有する着用可能な装置
JP6550885B2 (ja) 表示装置、表示装置の制御方法、及び、プログラム
CN110275603B (zh) 分布式人造现实系统、手镯设备和头戴式显示器
CN105739095B (zh) 显示装置以及显示装置的控制方法
US20160170482A1 (en) Display apparatus, and control method for display apparatus
CN108535868B (zh) 头部佩戴型显示装置及其控制方法
CN103429139A (zh) 具有可调整视场的眼镜装置和方法
JP6405991B2 (ja) 電子機器、表示装置、及び、電子機器の制御方法
JP6707823B2 (ja) 表示装置、表示装置の制御方法、及び、プログラム
JP2018142857A (ja) 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
JP6903998B2 (ja) ヘッドマウントディスプレイ
JP2016122177A (ja) 表示装置、及び、表示装置の制御方法
KR101467529B1 (ko) 착용형 정보 제공 시스템
US11619813B2 (en) Coordinating an eye-mounted imager with an external camera
JP2017092628A (ja) 表示装置、及び、表示装置の制御方法
JP2016186561A (ja) 表示装置、表示装置の制御方法、及び、プログラム
JP6575117B2 (ja) 表示装置、表示装置の制御方法、および、プログラム
JP6135162B2 (ja) 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、画像表示システム
JP6379639B2 (ja) 眼鏡装用パラメータ測定用撮影装置、眼鏡装用パラメータ測定用撮影プログラム
JP2016090853A (ja) 表示装置、表示装置の制御方法、及び、プログラム
JP2017079389A (ja) 表示装置、表示装置の制御方法、及び、プログラム