JP2014123883A - 頭部装着型情報入出力装置、及び頭部装着型情報入出力方法 - Google Patents
頭部装着型情報入出力装置、及び頭部装着型情報入出力方法 Download PDFInfo
- Publication number
- JP2014123883A JP2014123883A JP2012279498A JP2012279498A JP2014123883A JP 2014123883 A JP2014123883 A JP 2014123883A JP 2012279498 A JP2012279498 A JP 2012279498A JP 2012279498 A JP2012279498 A JP 2012279498A JP 2014123883 A JP2014123883 A JP 2014123883A
- Authority
- JP
- Japan
- Prior art keywords
- user
- image
- unit
- display
- head
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Navigation (AREA)
- Image Processing (AREA)
- Emergency Alarm Devices (AREA)
Abstract
【課題】利便性のよい頭部装着型情報入出力装置、及び頭部装着型情報入出力方法を提供することを目的としている。
【解決手段】自装置がユーザーに装着された場合、ユーザーの眼の近傍に配置され、ユーザーを検出する第1センサーと、所定の情報を報知する報知部と、第1センサーが検出した検出値に基づいてユーザーが居眠り状態であるか否かを判定し、判定した結果に基づいて、報知部による報知を制御する制御部と、を備える。
【選択図】図22
【解決手段】自装置がユーザーに装着された場合、ユーザーの眼の近傍に配置され、ユーザーを検出する第1センサーと、所定の情報を報知する報知部と、第1センサーが検出した検出値に基づいてユーザーが居眠り状態であるか否かを判定し、判定した結果に基づいて、報知部による報知を制御する制御部と、を備える。
【選択図】図22
Description
本発明は、頭部装着型情報入出力装置、及び頭部装着型情報入出力方法に関する。
従来、運転者の安全向上のために、運転者の脇見や居眠りを検出する装置が提案されている。このような装置は、例えば、車内に設けられている監視カメラが撮像した運転者の画像に基づいて、運転者の顔の向き、運転者の視線方向を検出している。そして、このような装置は、検出した運転者の顔の向きに基づいて、運転者の脇見を検出する(例えば、特許文献1参照)。
また、電車等で移動しているユーザーに対して、降車駅での乗り過ごしを防止する装置が提案されている。このような装置は、ユーザーが設定した降車駅の位置情報と、GPS衛星から受信した現在位置とを比較して、降車駅が近づいたと判別した場合、装置の振動発生部を振動させる、又はスピーカーからアラームを発する。このような装置では、ユーザーに降車駅が近づいたことを知らせることで、降車駅での乗り過ごしを少なくする(例えば、特許文献2参照)。
しかしながら、特許文献1の装置は、車内の使用に限られていたので、ユーザーが車以外の電車などで移動している場合、ユーザーがこの装置を用いることができない。
また、特許文献2の装置は、ユーザーの居眠りを検出していないので、ユーザーが起きていても降車駅が近づいたことを知らせるために振動させ、またはアラームを発する。このように、特許文献1及び特許文献2の装置は、ユーザーにとって利便性が悪いという問題があった。
また、特許文献2の装置は、ユーザーの居眠りを検出していないので、ユーザーが起きていても降車駅が近づいたことを知らせるために振動させ、またはアラームを発する。このように、特許文献1及び特許文献2の装置は、ユーザーにとって利便性が悪いという問題があった。
本発明は、上記の事情に鑑み成されたものであって、利便性のよい頭部装着型情報入出力装置、及び頭部装着型情報入出力方法を提供することを目的としている。
上記目的を達成するため、本発明の一態様に係る頭部装着型情報入出力装置は、自装置がユーザーに装着された場合、前記ユーザーの眼の近傍に配置され、前記ユーザーを検出する第1センサーと、所定の情報を報知する報知部と、前記第1センサーが検出した検出値に基づいて前記ユーザーが居眠り状態であるか否かを判定し、判定した結果に基づいて、前記報知部による報知を制御する制御部と、を備えることを特徴としている。
上記目的を達成するため、本発明の一態様に係る頭部装着型情報入出力方法は、制御部が、自装置がユーザーに装着された場合、前記ユーザーの眼の近傍に配置され、前記ユーザーを検出する第1センサーが検出した検出値に基づいて前記ユーザーが居眠り状態であるか否かを検出する手順と、前記制御部が、前記ユーザーが居眠り状態であるか否かを判別し、判別した結果に基づいて、報知部による報知を制御する手順と、を含むことを特徴としている。
本発明によれば、頭部装着型情報入出力装置は、利便性を向上することができる。
本発明に係るヘッドマウントディスプレイ(頭部装着型情報入出力装置)は、ユーザーの眼を照明するための複数の照明部を、表示部の近傍に備える。ヘッドマウントディスプレイは、これら複数の照明部の点灯状態を、ユーザーと表示部との位置関係に応じて制御する。すなわち、ヘッドマウントディスプレイは、ユーザーと表示部との位置関係に応じて、点灯させる照明部を選択する。これにより、本発明に係るヘッドマウントディスプレイは、表示部がユーザーの眼に対して下側、上側又は外側のいずれに配置された場合でも、ユーザーの観察している視線や注視点を、検出することができる。
以下、頭部装着型情報入出力装置をヘッドマウントディスプレイに適用した例について説明するが、本発明はこれに限られない。
以下、頭部装着型情報入出力装置をヘッドマウントディスプレイに適用した例について説明するが、本発明はこれに限られない。
以下、本発明の実施形態について図面を参照しながら説明する。
以下の説明においては、必要に応じてXYZ直交座標系を設定し、このXYZ直交座標系を参照しつつ、ヘッドマウントディスプレイの各部の位置関係について説明する。水平面内の所定方向をX軸方向、水平面内においてX軸方向と直交する方向をY軸方向、X軸方向及びY軸方向のそれぞれと直交する方向(すなわち鉛直方向)をZ軸方向とする。また、X軸、Y軸、及びZ軸まわりの回転(傾斜)方向をそれぞれ、θX、θY、及びθZ方向とする。
以下の説明においては、必要に応じてXYZ直交座標系を設定し、このXYZ直交座標系を参照しつつ、ヘッドマウントディスプレイの各部の位置関係について説明する。水平面内の所定方向をX軸方向、水平面内においてX軸方向と直交する方向をY軸方向、X軸方向及びY軸方向のそれぞれと直交する方向(すなわち鉛直方向)をZ軸方向とする。また、X軸、Y軸、及びZ軸まわりの回転(傾斜)方向をそれぞれ、θX、θY、及びθZ方向とする。
[第1実施形態]
図1は、本実施形態に係るヘッドマウントディスプレイ(頭部装着装置、以下、HMDともいう)1の斜視図である。図2は、本実施形態に係るディスプレイ本体20とヘッドバンド40を取り外した状態でのヘッドマウントディスプレイ1を背面側から見た斜視図である。図3は、本実施形態に係るディスプレイ本体20の水平断面図である。図4は、本実施形態に係るヘッドバンドの動作説明図である。図5は、本実施形態に係るヘッドマウントディスプレイの装着形態(第1表示モード)を示す図である。
図1は、本実施形態に係るヘッドマウントディスプレイ(頭部装着装置、以下、HMDともいう)1の斜視図である。図2は、本実施形態に係るディスプレイ本体20とヘッドバンド40を取り外した状態でのヘッドマウントディスプレイ1を背面側から見た斜視図である。図3は、本実施形態に係るディスプレイ本体20の水平断面図である。図4は、本実施形態に係るヘッドバンドの動作説明図である。図5は、本実施形態に係るヘッドマウントディスプレイの装着形態(第1表示モード)を示す図である。
HMD1は、ディスプレイ本体20と、ユーザーの頭部に装着されディスプレイ本体20を支持するヘッドバンド40と、を備えた単眼式のヘッドマウントディスプレイである。本実施形態のHMD1は、図5に示すように、両眼どちらでも使用可能である。図5(A)には、ユーザーが右眼(右目)で表示部60を見ている状態、図5(B)には左眼(左目)で見ている状態が示されている。
また、図2に示すように、ディスプレイ本体20とヘッドバンド40とは、連結ピン41を介して着脱可能に構成されている。なお、図1及び図2では、ディスプレイ本体20の長手方向をY軸方向、ヘッドバンド40がユーザーの頭部を挟持する方向をX軸方向としている。
また、図2に示すように、ディスプレイ本体20とヘッドバンド40とは、連結ピン41を介して着脱可能に構成されている。なお、図1及び図2では、ディスプレイ本体20の長手方向をY軸方向、ヘッドバンド40がユーザーの頭部を挟持する方向をX軸方向としている。
以下、HMD1の各部の構成について詳細に説明する。
ディスプレイ本体20は、主要回路を内蔵するとともに操作部や各種インタフェースを備えた装置本体部21と、装置本体部21の先端に連結された表示部60とを有する。
ディスプレイ本体20は、主要回路を内蔵するとともに操作部や各種インタフェースを備えた装置本体部21と、装置本体部21の先端に連結された表示部60とを有する。
装置本体部21は、概略板状の筐体21A(図3参照)を有する。本実施形態では、装置本体部21においてヘッドバンド40との接続部が設けられている側の端部(+Y側の端部)を基端部とし、この基端部と反対側の端部(−Y側の端部)を先端部とする。また、装置本体部21をヘッドバンド40に装着した状態で、装置本体部21のヘッドバンド40側(+X側)を内側、ヘッドバンド40と反対側(−X側)を外側とする。
装置本体部21の外面には、図1に示すように、メインスイッチ28と、タッチスイッチ34(第2センサー)と、集音マイク24とが、筐体21Aの長手方向に沿って配置されている。
メインスイッチ28はディスプレイ本体20の電源のオンオフ操作を行うスイッチである。タッチスイッチ34は、表面に手指等で触れることによりHMD1の各種操作を行うことができるタッチパネルである。集音マイク24は、環境音を収集する外部マイクである。
メインスイッチ28はディスプレイ本体20の電源のオンオフ操作を行うスイッチである。タッチスイッチ34は、表面に手指等で触れることによりHMD1の各種操作を行うことができるタッチパネルである。集音マイク24は、環境音を収集する外部マイクである。
装置本体部21内面の基端部側に、図2に示すように、耳元スピーカー23(報知部)と、オーディオコネクター26(報知部)と、連結孔31を有するヘッドバンドヒンジ32とが設けられている。装置本体部21内面の中央部に心拍数センサー137(第2センサー)が設けられている。装置本体部21の内側面の先端部には通話マイク37が設けられている。
耳元スピーカー23は、ユーザーの耳の近傍に配置される。耳元スピーカー23からユーザーに音声情報が伝えられる。オーディオコネクター26は、例えば、図6に示すイヤホンが接続される音声入出力端子である。ヘッドバンドヒンジ32はヘッドバンド40とのジョイント部である。通話マイク37にはユーザーの音声が入力される。
心拍数センサー137は、ユーザーの顔の表面に接触させることでユーザーの心拍数を測定するセンサーである。心拍数センサー137は、発光ダイオード等を備えた発光部と、ユーザーの皮膚内部で反射した光を検知する受光部とを有する。心拍数センサー137は、血流の変化による反射光量の変化を検出することで心拍数をカウントする。心拍数センサー137はユーザーの眼の近くに配置されるが、発光部から赤外域の光を射出させる構成とすればユーザーにまぶしさを感じさせることはない。
装置本体部21の基端部側の側端面には、USBコネクター25と、操作スイッチ30(第2センサー)と、ビデオコネクター27とが設けられている。
USBコネクター25はUSB(Universal Serial Bus)デバイスの接続端子である。本実施形態では、例えば不図示のリモコン(リモートコントローラー)が接続される。
操作スイッチ30は、例えばトラックボールやスティックなどのポインティングデバイスである。操作スイッチ30は表示部60に表示される画面に正対するように設けられている。これにより、操作スイッチ30における操作の左右方向と、上記画面の左右方向とが一致するので、ユーザーは画面を見ながら直感的に操作スイッチ30を操作することが可能である。
ビデオコネクター27は映像入出力端子である。
USBコネクター25はUSB(Universal Serial Bus)デバイスの接続端子である。本実施形態では、例えば不図示のリモコン(リモートコントローラー)が接続される。
操作スイッチ30は、例えばトラックボールやスティックなどのポインティングデバイスである。操作スイッチ30は表示部60に表示される画面に正対するように設けられている。これにより、操作スイッチ30における操作の左右方向と、上記画面の左右方向とが一致するので、ユーザーは画面を見ながら直感的に操作スイッチ30を操作することが可能である。
ビデオコネクター27は映像入出力端子である。
図3に示すように、装置本体部21には、筐体21Aの長手方向に沿って延びる板状の回路基板29と、バッテリー33とが内蔵されている。回路基板29には、図示略の制御回路、電源回路等が実装されており、図示略の配線を介してディスプレイ本体20の各部と電気的に接続されている。
装置本体部21の外面に露出するタッチスイッチ34の内側には、液晶パネルからなる表示パネル36と、バックライト35とが配置されている。本実施形態では、表示パネル36の表示画像がタッチスイッチ34を透過して表示される。表示パネル36及びバックライト35を、有機ELパネルや電気泳動パネルとしてもよい。
ヘッドバンドヒンジ32は、筐体21Aに設けられた凹曲面状の収容部32aと、収容部32aに嵌合された球状部32bとからなるボールジョイントである。球状部32bは、球面状の側面部と、この側面部を挟むように互いに平行に形成された2つの平面部を有する。2つの平面部を垂直に貫くように連結孔31が形成されている。連結孔31は軸方向視で六角形状に形成されている。連結孔31にヘッドバンド40の連結ピン41が挿入されることによりディスプレイ本体20とヘッドバンド40とが連結される。
ヘッドバンドヒンジ32を備えていることで、ディスプレイ本体20は、図1に示したA方向(ヘッドバンドヒンジ32を中心とするX軸回り)に回動させることができる。本実施形態において、ディスプレイ本体20の回転可能範囲は270°程度とされる。このX軸回りの回転動作により、図5(A)に示す右眼で画像を観察する形態と、図5(B)に示す左眼で画像を観察する形態との切替機能が実現される。
またヘッドバンドヒンジ32はボールジョイントであるため、ディスプレイ本体20は図1に示すB方向(ヘッドバンドヒンジ32を中心とするZ軸回り)に揺動させることもできる。この揺動操作により、ディスプレイ本体20のユーザーの眼や耳に対する位置を調整することができる。
ヘッドバンドヒンジ32近傍の心拍数センサー137は、装置本体部21の内面から突出するように設けられ、HMD1の装着時にユーザーの顔の表面に当接可能とされている。バッテリー33は一次電池、二次電池のいずれであってもよい。
表示部60は、図1及び図2に示すように、装置本体部21の先端部に連結されている。本実施形態において、表示部60のヘッドバンド40側を内側、ヘッドバンド40と反対側を外側とする。表示部60は、上面視(Z軸視)において湾曲した形状を有するアーム部材であり、装置本体部21との連結部から先端側へ向かうに従って内側へ湾曲する形状を有する。表示部60の内面に、ファインダー開口部67が設けられている。表示部60の外面には、カメラ64が設けられている。また、図2に示すように、ファインダー開口部67の形状は、長方形である。
表示部60の筐体面には、眼球照明ライト166a〜166dが、ファインダー開口部67の近傍に備えられている。図2では、眼球照明ライト166a及び166bは、ファインダー開口部67の長辺の一方に沿った位置であって、ファインダー開口部67の隅の近傍に備えられている。また、眼球照明ライト166c及び166dは、ファインダー開口部67の長辺の他方に沿った位置であって、ファインダー開口部67の隅の近傍に備えられている。
表示部60の筐体面には、眼球照明ライト166a〜166dが、ファインダー開口部67の近傍に備えられている。図2では、眼球照明ライト166a及び166bは、ファインダー開口部67の長辺の一方に沿った位置であって、ファインダー開口部67の隅の近傍に備えられている。また、眼球照明ライト166c及び166dは、ファインダー開口部67の長辺の他方に沿った位置であって、ファインダー開口部67の隅の近傍に備えられている。
眼球照明ライト166a〜166dは、例えば赤外線の波長領域の光を放射するLED(発光ダイオード)である。眼球照明ライト166a〜166dは、ユーザーと表示部60との位置関係に応じて、点灯または消灯される。以下では、眼球照明ライト166a〜166dを、眼球照明ライト166と総称する。
図3に示すように、表示部60は、ディスプレイヒンジ61を介して装置本体部21と連結されている。ディスプレイヒンジ61は、表示部60の筐体60Aに形成された凹曲面状の収容部61aと、装置本体部21に形成され収容部61aに嵌合された球状部61bとからなるボールジョイントである。
装置本体部21の球状部61bは、装置本体部21の外面先端部に形成された筐体21Aの長手方向に対して斜めに延びる傾斜面21aに、傾斜面21aの法線方向(図3のY’軸方向)に突出するようにして設けられている。
表示部60は、ディスプレイヒンジ61の球状部61bに対してY’軸回りに自由に回転させることができる。本実施形態では、ディスプレイヒンジ61が装置本体部21の傾斜面21aに設けられており、表示部60が内側に湾曲した形状を有している。
また、ディスプレイヒンジ61がボールジョイントであることから、表示部60は、Y’軸回りの回転面に対して直交する方向の揺動も可能である。この揺動動作により、ユーザーによるファインダー開口部67の位置調整が容易になる。表示部60と装置本体部21との間隔を大きくすれば、表示部60の揺動幅を大きくすることができる。
ディスプレイヒンジ61の球状部61bには、球状部61bを高さ方向(Y’軸方向)に貫通する貫通孔61cが形成されている。貫通孔61cを介して、表示部60の内部と装置本体部21の内部とが連通されている。貫通孔61cには不図示のケーブルが挿通される。挿通されたケーブルを介して回路基板29と表示部60の各部とが電気的に接続される。
表示部60の内部には、バックライト62(報知部)と、表示パネル63(報知部)と、カメラ64と、プリズム65と、反射ミラー66と、前方ライト68と、前方スピーカー70(報知部)と、結像レンズ71と、撮像素子72(第1センサー、撮像部)とが設けられている。なお、表示部60の光学系の構成については、後述する。
カメラ64は、例えば500万画素〜1000万画素の撮像素子を有し、オートフォーカス動作が可能に構成される。カメラ64は、その撮像素子の受光面に結像した画像(光学像)を撮像する。カメラ64は、例えば、ユーザーにとっての正面方向を撮像することができる。なお、撮像された画像は、動画形式または静止画形式のいずれで信号処理されてもよい。
前方ライト68は、例えばLEDライトである。前方ライト68は、赤、緑、青の各色の発光素子を有し、任意の色を任意のタイミングで発光させることが可能に構成してもよい。前方ライト68は、発光色や発光タイミングにより外部に対して情報を表示する装置として用いてもよく、カメラ64で撮影する際の照明装置として用いてもよい。
撮像素子72は、その受光面に結像した画像(光学像)を撮像する。撮像素子72は、例えば、ユーザーの顔を撮像することができる。なお、撮像された画像は、動画形式または静止画形式のいずれで信号処理されてもよい。
撮像素子72は、その受光面に結像した画像(光学像)を撮像する。撮像素子72は、例えば、ユーザーの顔を撮像することができる。なお、撮像された画像は、動画形式または静止画形式のいずれで信号処理されてもよい。
また、図3では図示を省略したが、本実施形態に係る表示部60にはレーザー発信器が設けられている。レーザー発信器は、例えば前方ライト68の近傍に設けることができる。レーザー発信器から射出される例えば赤色レーザー光を前方に照射することで、レーザー光によるポインティング(指標の表示)が可能である。
次に、ヘッドバンド40について、図2及び図4を参照しつつ説明する。
ヘッドバンド40は、図2に示すように、ユーザーの頭部を挟持する一対のヘッドパット(装着部材)46、47と、第1ヘッドバンド43と、第2ヘッドバンド44と、回動機構56、57とを備えている。
ヘッドバンド40は、図2に示すように、ユーザーの頭部を挟持する一対のヘッドパット(装着部材)46、47と、第1ヘッドバンド43と、第2ヘッドバンド44と、回動機構56、57とを備えている。
第1ヘッドバンド43は、全体として円弧状を成す弾性部材である。第1ヘッドバンド43の頂部に、第1ヘッドバンド43を折り曲げるためのジョイント部43aが設けられている。第1ヘッドバンド43の両端には、回動機構56、57を構成する軸受部43b、43cがそれぞれ設けられている。軸受部43b、43cよりもさらにバンド先端側に、ヘッドパット46、47が接続される軸受部43d、43eが設けられている。
第2ヘッドバンド44は、全体として円弧状を成す弾性部材である。第2ヘッドバンド44の頂部には、第2ヘッドバンド44を折り曲げるためのジョイント部44aが設けられている。第2ヘッドバンド44の両端には、それぞれ回動機構56、57を構成する軸部材44b、44cが設けられている。
また本実施形態において、第2ヘッドバンド44は、ステンレス等の金属からなるバネ部材48の表面を樹脂等の柔軟な材料で被覆した構成を有する。この第2ヘッドバンド44のバネ部材48においてユーザーの頭部を挟持するバネ力を発生させる。また第2ヘッドバンド44は第1ヘッドバンド43と比較して広い幅に形成されている。ジョイント部44aの形成部分は他のバンド部分よりもさらに広く形成された標章表示部49とされている。標章表示部49には、シールや印刷により製品タグ等が付される。なお、第2ヘッドバンド44の全体を金属で形成してもよい。
ヘッドパット46は、板状の支持板46aと、支持板46aの一面側に設けられた断面アーチ状の弾性部材46bとを有する。支持板46aの弾性部材46bと反対側の面に、当該面に垂直な姿勢で概略六角柱状の連結ピン41が立設されている。連結ピン41は、第1ヘッドバンド43の一方の先端に設けられた軸受部43dに軸支されている。これにより、ヘッドパット46は連結ピン41回りに回転可能である。
ヘッドパット47は、板状の支持板47aと、支持板47aの一方の面に設けられた断面アーチ状の弾性部材47bとを有する。支持板47aの弾性部材47bと反対側の面には、軸部材47cが設けられている。軸部材47cは、第1ヘッドバンド43の先端に設けられた軸受部43eに軸支されている。これにより、ヘッドパット47は、軸部材47c回りに回転可能である。
この構成により、第2ヘッドバンド44は、回動機構56によって第1ヘッドバンド43から離れる方向に回動付勢される一方、回動機構57によって第1ヘッドバンド43に対して所定角度以内の範囲に回動規制される。これにより、第2ヘッドバンド44は第1ヘッドバンド43に対して所定の角度となるように保持される。したがって、回動機構56、57は、ヘッドバンド40における角度保持機構として機能する。
次に、以上の構成を備えたHMD1におけるヘッドバンドの動作等について、図4、図5を参照しつつ説明する。以下、ユーザーにとっての右側を「ユーザーの右側」と称する。また、ユーザーにとっての左側を「ユーザーの左側」と称する。また、ユーザーにとっての上側を「ユーザーの上側」と称する。また、ユーザーにとっての下側を「ユーザーの下側」と称する。また、ユーザーにとっての時計回り方向を「時計回り方向」と称する。また、ユーザーにとっての反時計回り方向を「反時計回り方向」と称する。
図5に示したように、本実施形態のHMD1は、図5(A)に示す右眼観察形態と、図5(B)に示す左眼観察形態を切り替えて使用することができる。ここで、右眼観察形態とは、ユーザーが右眼で表示部60を観察する形態である。また、左眼観察形態とは、ユーザーが左眼で表示部60を観察する形態である。以下、図5(A)及び図5(B)示した形態、すなわち、ユーザーから見てファインダー開口部67が横長に配置される形態を、第1表示モードと称する。
例えば、右眼観察形態から左眼観察形態へ切り替えるには、まず、ヘッドバンド40に連結されたディスプレイ本体20を、ヘッドバンドヒンジ32(図2を参照)の回転軸回り(図5では、A方向)に180°程度回転させる。さらに、ヘッドバンド40において、回動機構56及び57(図4を参照)の軸回りに第2ヘッドバンド44を揺動させることで、第2ヘッドバンド44の位置と第1ヘッドバンド43の位置との前後関係を入れ替える。この操作により、図5(B)に示すように、ユーザーの左眼側にディスプレイ本体20が配置され、且つ、第2ヘッドバンド44がユーザーの後頭部側に配置された左眼観察形態に、HMD1は切り替えられる。
右眼観察形態では、右眼の近傍にある眼球照明ライト166a及び166bが点灯し、眼球照明ライト166c及び166dが消灯する。一方、左眼観察形態では、左眼の近傍にある眼球照明ライト166c及び166dが点灯し、眼球照明ライト166a及び166bが消灯する。
本実施形態では、図4に示すように、第1ヘッドバンド43の円弧高さr1を、第2ヘッドバンド44の円弧高さr2よりも小さくしている。これにより、第2ヘッドバンド44を第1ヘッドバンド43と交差させるように移動させても、互いに干渉することなく円滑に前後を入れ替えることができる。
図4に示す円弧高さr1は、同軸に配置された回動機構56、57の回転軸Lの中央位置Cから第1ヘッドバンド43までの距離の最大値である。また円弧高さr2は、回転軸Lの中央位置Cから第2ヘッドバンド44までの距離の最大値である。
図4に示す円弧高さr1は、同軸に配置された回動機構56、57の回転軸Lの中央位置Cから第1ヘッドバンド43までの距離の最大値である。また円弧高さr2は、回転軸Lの中央位置Cから第2ヘッドバンド44までの距離の最大値である。
なお、第1ヘッドバンド43の円弧高さr1を第2ヘッドバンド44の円弧高さr2よりも大きくし、第2ヘッドバンド44を第1ヘッドバンド43の内側で揺動させる構成としてもよい。
図6は、本実施形態に係るヘッドマウントディスプレイに付属のステレオイヤホンを示す斜視図である。
ステレオイヤホン100は、コネクター101と、ケーブル102と、第1スピーカー103と、第2スピーカー104と、集音マイク105と、複数のクリップ106とを有する。
ステレオイヤホン100は、コネクター101と、ケーブル102と、第1スピーカー103と、第2スピーカー104と、集音マイク105と、複数のクリップ106とを有する。
コネクター101はケーブル102の一方の端部に設けられている。コネクター101は、一般的な4極φ3.5mmのミニプラグである。4極の内訳は、集音マイク105、第1スピーカー103、第2スピーカー104、グランド(GND)である。ケーブル102は、コネクター101の近傍において二分岐され、分岐されたケーブルの先端に第1スピーカー103が設けられている。ケーブル102の他方の端部には、第2スピーカー104と集音マイク105とが設けられている。複数のクリップ106は、ケーブル102上に所定の間隔で配置されている。
ステレオイヤホン100は、コネクター101をディスプレイ本体20のオーディオコネクター26に接続して使用される。ステレオイヤホン100が接続されると、ディスプレイ本体20の耳元スピーカー23と、表示部60の通話マイク37は無効化される。また表示部60の前方スピーカー70も必要に応じて無効化される。そして、ステレオイヤホン100の第1スピーカー103、第2スピーカー104、及び集音マイク105が有効化される。
ステレオイヤホン100の第1スピーカー103は、ディスプレイ本体20が配置された側のユーザーの耳に装着され、第2スピーカー104は第1スピーカー103と反対側の耳に装着される。このとき、ケーブル102は、クリップ106によって第2ヘッドバンド44に固定することができる。
また、ステレオイヤホン100の集音マイク105と、ディスプレイ本体20において筐体21Aの外側面に設けられた集音マイク24とにより、ステレオ録音が可能である。例えば、図5(A)に示すようにディスプレイ本体20が右眼側に配置されているとすれば、ディスプレイ本体20の集音マイク24はユーザーの右側の音を収集し、左耳に装着された集音マイク105はユーザーの左側の音を収集する。
また、右眼観察形態では、ステレオイヤホン100の第1スピーカー103から右チャンネルの音声が出力され、第2スピーカー104からは左チャンネルの音声が出力される。
また、右眼観察形態では、ステレオイヤホン100の第1スピーカー103から右チャンネルの音声が出力され、第2スピーカー104からは左チャンネルの音声が出力される。
一方、図5(B)に示すようにユーザーの左眼側にディスプレイ本体20が配置されている場合には、ディスプレイ本体20の集音マイク24がユーザーの左側の音を収集し、右耳に装着された集音マイク105がユーザーの右側の音を収集する。左眼観察形態では、ステレオイヤホン100の第1スピーカー103から左チャンネルの音声が出力され、第2スピーカー104からは右チャンネルの音声が出力される。
次に、眼球照明ライト166a〜166dの点灯と消灯について説明する。
図7は、本実施形態に係る眼球照明ライト166の点灯と消灯を説明する図である。図7(A)は、右眼観察形態における眼球照明ライト166の点灯と消灯を説明する図である。図7(B)は、左眼観察形態における眼球照明ライト166の点灯と消灯を説明する図である。図7(A)及び図7(B)において、ユーザーの顔の正面方向を、HZと表記する。
図7は、本実施形態に係る眼球照明ライト166の点灯と消灯を説明する図である。図7(A)は、右眼観察形態における眼球照明ライト166の点灯と消灯を説明する図である。図7(B)は、左眼観察形態における眼球照明ライト166の点灯と消灯を説明する図である。図7(A)及び図7(B)において、ユーザーの顔の正面方向を、HZと表記する。
図7(A)に示した例では、表示部60は、右眼の斜め下に配置されている。また、正面方向HZと表示部60の画面の法線とは、角度αを成している。HMD1は、眼球照明ライト166a〜166dのうち、ユーザーの眼に近い側の眼球照明ライトを選択し、選択した眼球照明ライトを点灯させる。一方、HMD1は、選択した以外の眼球照明ライト、すなわち、ユーザーの眼から遠い側の眼球照明ライトを消灯させる。
図7(A)では、眼球照明ライト166a及び166bは、正面方向HZから角度α1だけ下側に配置されている。一方、眼球照明ライト166c及び166dは、正面方向HZから角度α2だけ下側に配置されている。ここで、角度α1は、角度αより小さく、角度α2は、角度αより大きい。つまり、眼球照明ライト166a及び166bは、眼球照明ライト166c及び166dよりも、ユーザーの右眼の近くに配置されている。
この場合、HMD1は、眼球照明ライト166a及び166bを点灯させ、且つ、眼球照明ライト166c及び166dを消灯させる。この点灯状態で、撮像素子72は、ユーザーの右眼の周りを撮像する。以下、ユーザーの右眼の周りが撮像された画像を、「右眼の周辺画像」という。
なお、右眼の周辺画像には、右眼の画像、右眉毛の画像、顔の一部(頭、髪の毛等)の画像が含まれてもよい。また、左眼の周辺画像には、左眼の画像、左眉毛の画像、顔の一部(頭、髪の毛等)が含まれてもよい。以下、右眼の周辺画像、及び左眼の周辺画像を、「眼の周辺画像」と総称する。
図7(A)に示した例では、ユーザーの右眼から遠い側の眼球照明ライト166c及び166dは、ユーザーの頬が邪魔になり、ユーザーの右眼を照明できないこともある。したがって、HMD1は、ユーザーの右眼から遠い側の眼球照明ライト166c及び166dを消灯させる。これにより、HMD1は、消費電力を低減させることができる。
一方、図7(B)では、眼球照明ライト166c及び166dは、正面方向HZから角度α3だけ下側に配置されている。一方、眼球照明ライト166c及び166dは、正面方向HZから角度α4だけ下側に配置されている。ここで、角度α3は、角度αより小さく、角度α4は、角度αより大きい。つまり、眼球照明ライト166a及び166bは、眼球照明ライト166c及び166dよりも、ユーザーの左眼の近くに配置されている。
この場合、HMD1は、眼球照明ライト166c及び166dを点灯させ、且つ、眼球照明ライト166a及び166bを消灯させる。この点灯状態で、撮像素子72は、ユーザーの左眼の周りを撮像する。以下、ユーザーの左眼の周りが撮像された画像を、「左眼の周辺画像」という。
図7(B)に示した例では、ユーザーの左眼から遠い側の眼球照明ライト166a及び166bは、ユーザーの頬が邪魔になり、ユーザーの左眼を照明できないこともある。したがって、HMD1は、ユーザーの左眼から遠い側の眼球照明ライト166a及び166bを消灯させる。これにより、HMD1は、消費電力を低減させることができる。
つまり、HMD1は、ユーザーの眼と表示部60との位置関係に応じて、眼球照明ライト166a〜166dのうち、ユーザーの眼をより正面から照明することができる眼球照明ライトを点灯させ、それ以外の眼球照明ライトを消灯させる。
次に、表示部60の構成及び光学系を説明する。
図8は、本実施形態に係る表示部60の構成及び光学系を説明するための表示部60の断面図である。図8に示すように、本実施形態の表示部60は、バックライト62、表示パネル63、第1プリズム65a、第2プリズム65b、反射ミラー66、ファインダー開口部67、結像レンズ71、撮像素子72、1/4波長板75を含んで構成されている。図8において、符号H、I、J、K、L、M、Nは、各々、光線を表す。
図8は、本実施形態に係る表示部60の構成及び光学系を説明するための表示部60の断面図である。図8に示すように、本実施形態の表示部60は、バックライト62、表示パネル63、第1プリズム65a、第2プリズム65b、反射ミラー66、ファインダー開口部67、結像レンズ71、撮像素子72、1/4波長板75を含んで構成されている。図8において、符号H、I、J、K、L、M、Nは、各々、光線を表す。
まず、表示部60の構成を説明する。
プリズム65は、上面視(Z軸視)で略三角形状の第1プリズム65aと第2プリズム65bとを互いの面で貼り合わせた構成を有する。この貼り合わせ面以外の第1プリズム65aの他の二面のうち、一方の面に対向する位置に、液晶パネルからなる表示パネル63が設けられている。表示パネル63の背面に表示パネル63を透過照明するバックライト62が配置されている。第1プリズム65aの他方の面に対向する位置に反射ミラー66が配置されている。反射ミラー66は、ファインダー開口部67のほぼ正面に位置する。
プリズム65は、上面視(Z軸視)で略三角形状の第1プリズム65aと第2プリズム65bとを互いの面で貼り合わせた構成を有する。この貼り合わせ面以外の第1プリズム65aの他の二面のうち、一方の面に対向する位置に、液晶パネルからなる表示パネル63が設けられている。表示パネル63の背面に表示パネル63を透過照明するバックライト62が配置されている。第1プリズム65aの他方の面に対向する位置に反射ミラー66が配置されている。反射ミラー66は、ファインダー開口部67のほぼ正面に位置する。
第2プリズム65bの貼り合わせ面以外の他の二面のうち、一方の面はファインダー開口部67に配置されたファインダー接眼面である。第2プリズム65bの他方の面に対向する位置には結像レンズ71を介して撮像素子72が対向配置されている。
次に、表示部60の光学系を説明する。
表示部60において、表示パネル63に表示された画像は、第1プリズム65a、反射ミラー66、第2プリズム65bを介してファインダー開口部67から射出され、ユーザーに観察される。また、ファインダー開口部67を見ている画像は、第2プリズム65b及び結像レンズ71を介して撮像素子72上に結像される。
なお、撮像素子72を介して取得された撮像画像は、ユーザーの視線の方向や瞬き、表情の解析、表示部60の姿勢の解析に用いる。撮像画像には、眼の周辺画像が含まれている。なお、バックライト62は、撮像素子72による眼の周辺画像を撮像する際の補助照明としても利用されてもよい。
表示部60において、表示パネル63に表示された画像は、第1プリズム65a、反射ミラー66、第2プリズム65bを介してファインダー開口部67から射出され、ユーザーに観察される。また、ファインダー開口部67を見ている画像は、第2プリズム65b及び結像レンズ71を介して撮像素子72上に結像される。
なお、撮像素子72を介して取得された撮像画像は、ユーザーの視線の方向や瞬き、表情の解析、表示部60の姿勢の解析に用いる。撮像画像には、眼の周辺画像が含まれている。なお、バックライト62は、撮像素子72による眼の周辺画像を撮像する際の補助照明としても利用されてもよい。
バックライト62が照射した光は、表示パネル63を透過して、第1プリズム65aに入射される。このとき、表示パネル63の液晶の特性上、バックライト62が照射した光が偏光され、偏光された光線HのS偏光が第1プリズム65aに入射される。
光線Hは、第1プリズム65aの裏面65dに設けられた空気層の影響により全反射し、光線Iとして第1プリズム65aと第2プリズム65bの接合面65cに入射する。ここで2つのプリズムの接合面65cには、S偏光が反射し、P偏光が透過する偏光反射膜が蒸着されている。ここで、光線Hは、S偏光であるため、接合面65cで反射して光線Jとなる。光線Jは、裏面65dに入射角0度で入射されるため、裏面65dを透過して1/4波長板75に入射される。
光線Jは、空気層を通った後に1/4波長板75を透過することで、進行方向に対して右回りの円偏光となる。そして反射ミラー66で反射した光線Kは、反射によって左回りの円偏光となる。そして、光線Kは、1/4波長板75を再び透過し、P偏光となる。
光線Kは、P偏光に変換されたため、接合面65cを透過できるので、ファインダー開口部67を通過できる。このような構成により、ユーザーは、表示パネル63上に表示された画像データを、ファインダー開口部67越に観察できる。
光線Kは、P偏光に変換されたため、接合面65cを透過できるので、ファインダー開口部67を通過できる。このような構成により、ユーザーは、表示パネル63上に表示された画像データを、ファインダー開口部67越に観察できる。
一方、ファインダー開口部67から入射した光線Lは、接合面65cで反射してS偏光の光線Mに変換される。光線Mは、第2プリズム65bにおける前面65eの空気層で全反射して光線Nになる。光線Nは、結像レンズ71により集光され、集光した光線Nが撮像素子72に入射する。このような構成により、ユーザーの眼の前面に、ファインダー開口部67が配置された場合、撮像素子72には、ユーザーの眼の周辺画像(光学像)が結像する。
次に、右眼観察形態で、ファインダー開口部67を介してユーザーが観察する画像と、撮像素子72により撮像される画像とについて説明する。
なお、図10、図13及び図15では、光学的に等価になるように、反射ミラー66(図8を参照)は、凸レンズに置き換えられている。また、図10、図13、及び図15において、一点鎖線CTは、結像レンズ71の光軸を表している。
なお、図10、図13及び図15では、光学的に等価になるように、反射ミラー66(図8を参照)は、凸レンズに置き換えられている。また、図10、図13、及び図15において、一点鎖線CTは、結像レンズ71の光軸を表している。
以下、表示部60が、ユーザーの眼から所定距離内に配置されている状態を、「第1観察状態」という。
図9は、第1〜第3観察状態のそれぞれにおける表示領域の違いを説明する図である。第1観察状態では、表示部60がユーザーの眼から所定距離内に配置されているので、表示パネル63の全表示領域は、ユーザーから観察可能である。したがって、表示パネル63は、この全表示領域に画像を表示させることができる。すなわち、表示パネル63の全表示領域が、表示領域Sとなる。
図9は、第1〜第3観察状態のそれぞれにおける表示領域の違いを説明する図である。第1観察状態では、表示部60がユーザーの眼から所定距離内に配置されているので、表示パネル63の全表示領域は、ユーザーから観察可能である。したがって、表示パネル63は、この全表示領域に画像を表示させることができる。すなわち、表示パネル63の全表示領域が、表示領域Sとなる。
以下、表示領域Sの横の長さを、Swと表記する。また。表示領域Sの縦の長さを、Shと表記する。また、以下では、一例として、Swは800画素、Shは600画素として説明を続ける。また、表示領域Tの縦の長さを、Thと表記する。また、表示領域Tの横の長さを、Twと表記する。また、表示領域Uの縦の長さを、Uhと表記する。また、表示領域Uの横の長さを、Uwと表記する。
図10は、第1観察状態における観察範囲と撮像範囲を説明する図である。観察範囲67aにユーザーの眼がある場合、ファインダー開口部67を介して、ユーザーは、表示パネル63の全表示領域に相当する表示領域Sを観察することができる。また、観察範囲67aは、反射ミラー66(図10では、凸レンズ)の光軸上では、ファインダー開口部67から距離Pまでの範囲にある。一方、撮像素子72が撮影することができる撮影範囲67cは、観察範囲67aを含んでいる。つまり、撮像素子72は、観察範囲67aにユーザーの眼がない場合でも、撮影範囲67cにユーザーの眼があれば、ユーザーの眼を眉毛なども含めて撮像することができる。
図11は、第1観察状態における撮像画像の一例を説明する図である。図11の略中心には、撮像素子72によりユーザーの眼が撮像されている。この場合、図7(A)を用いて説明したように、眼球照明ライト166a及び166bが点灯している。右眼観察形態の場合、図11における+Z側が鉛直上方向、−Z側が鉛直下方向、+X側がユーザーの左側、−X側がユーザーの右側となる。なお、左眼観察形態の場合、表示部60が180度反転されているので、右眼観察形態と比較して、眼の周辺画像は左右上下が反転することになる。
図11において、符号601Rは、右眼の画像を示す符号であり、符号602Rは、右眉毛の画像を示す符号である。符号604Aは、眼球照明ライト166a(図2を参照)による輝点の画像を示す符号であり、符号604Bは、眼球照明ライト166b(図2を参照)による輝点の画像を示す符号である。また、符号L41は、X軸方向におけるユーザーの眼の幅を示す符号である。例えば、第1観察状態において、撮像素子72の解像度が、横方向(X軸方向)に640画素である場合、画像における眼の幅L41は、350画素程度である。
図11では、ユーザーの眼と眉毛の距離が幅L41以下なので、撮像画像には、適切な範囲が撮像されているといえる。このように、ユーザーの眼を下側から撮影することは、有効である。
このように、第1観察状態では、ユーザーが正面を見る際、ファインダー開口部67が邪魔にならない。また、後述するように、第1観察状態では、撮像素子72による撮像画像に撮像された眉毛、目元及び眼球の動きに基づいて、HMD1は、ユーザーの視線方向を検出することができる。
このように、第1観察状態では、ユーザーが正面を見る際、ファインダー開口部67が邪魔にならない。また、後述するように、第1観察状態では、撮像素子72による撮像画像に撮像された眉毛、目元及び眼球の動きに基づいて、HMD1は、ユーザーの視線方向を検出することができる。
以下、ユーザーの眼が、第1観測状態と比較して表示部60から離れている状態を、「第2観察状態」という。
次に、第2観察状態について、図9、図12、及び図13を用いて説明する。
次に、第2観察状態について、図9、図12、及び図13を用いて説明する。
図12は、第2観察状態における撮像画像の一例を説明する図である。符号601R1は、右眼の画像を示す符号であり、符号602R1は、右眉毛の画像を示す符号である。符号604Cは、眼球照明ライト166aによる輝点の画像を示す符号であり、符号604Dは、眼球照明ライト166bによる輝点の画像を示す符号である。また、符号L71は、X軸方向におけるユーザーの眼の幅を示す符号である。
第2観察状態では、ユーザーの眼が表示部60から離れているので、第1観察状態よりも、ユーザーの眼の画像が小さく撮像される。撮像画像におけるユーザーの眼の幅L71が、第1観察状態におけるユーザーの眼の幅L41以下(例えば、300画素以下)である場合、HMD1は、ユーザーが表示部60から眼を離していると判定する。
第2観察状態では、ユーザーの眼が表示部60から離れているので、第1観察状態よりも、ユーザーの眼の画像が小さく撮像される。撮像画像におけるユーザーの眼の幅L71が、第1観察状態におけるユーザーの眼の幅L41以下(例えば、300画素以下)である場合、HMD1は、ユーザーが表示部60から眼を離していると判定する。
図13は、第2観察状態における観察範囲と撮像範囲を説明する図である。図13では、ユーザーの眼eyeは、反射ミラー66(図13では、凸レンズ)の光軸上で、ファインダー開口部67から距離P以上距離P2以内の位置に在り、第1観察状態における観察範囲67b(光軸上で、ファインダー開口部67から距離P以内)には無い。このため、ユーザーは、表示領域S(図9を参照)の一部しか観察することができない。
そこで、第2観察状態では、HMD1は、縮小率ηで縮小した画像を、表示領域T(図9を参照)に表示させる。第2観察状態において、表示領域Tに表示される画像の縮小率η(第1観察状態との比率)は、次式(1)により示される。
η = L71/L41 ・・・(1)
例えば、ユーザーの眼の幅L41(図11を参照)が350画素であるのに対して、L71(図12を参照)が220画素である場合、HMD1は、約0.63倍(=(L71/L41)=(Th/Sh)=(Tw/Sw))に縦横をそれぞれ縮小した画像を、表示パネル63の表示領域Tに表示させる。表示領域Tに表示された画像(光学像)の全体は、ファインダー開口部67の縁に遮られることなく、ユーザーの眼に届く。なお、第2観察状態において、HMD1は、眼球照明ライト166の輝度を、第1観察状態におけるその輝度と比較して高くしてもよい。
以下、表示部60とユーザーの眼との相対位置が、第2観測状態と比較して左右いずれかの方向にずれている状態を、「第3観察状態」という。
次に、第3観察状態について、図9、図14、及び図15を用いて説明する。
図14は、第3観察状態における撮像画像の一例を説明する図である。第3観察状態では、第2観察状態と比較して、ユーザーの眼の画像が、一例として、画像の中心付近から右下方向にベクトルV1だけずれて撮像されているとする。
次に、第3観察状態について、図9、図14、及び図15を用いて説明する。
図14は、第3観察状態における撮像画像の一例を説明する図である。第3観察状態では、第2観察状態と比較して、ユーザーの眼の画像が、一例として、画像の中心付近から右下方向にベクトルV1だけずれて撮像されているとする。
符号601R2は、右眼の画像を示す符号であり、符号602R2は、右眉毛の画像を示す符号である。符号604Eは、眼球照明ライト166aによる輝点の画像を示す符号であり、符号604Fは、眼球照明ライト166bによる輝点の画像を示す符号である。また、一点鎖線で示した605Aは、ユーザーの眼の位置がずれていない場合に撮像される眼球の外形画像を表す。また、符号605Bは、ユーザーの眼が光軸中心にある場合の眼球の画像を表す。
図15は、第3観察状態における観察範囲と撮像範囲を説明する図である。図15では、ユーザーの眼eyeは、観察範囲67e内、すなわち、ファインダー開口部67から距離P以上離れ、且つ、光軸CTから内側にV1のX成分量(=V1x)だけずれている位置に在る。観察範囲67eに在るユーザーの眼は、第1観察状態における観察範囲67b(光軸上で、ファインダー開口部67から距離P以内)には無いので、表示領域S(図9を参照)の一部しか観察することができない。
そこで、第3観察状態では、HMD1は、ユーザーから表示画像の全体が観察できるように、所定の縮小率(=(Uh/Sh)=(Uw/Sw))で画像を縮小する。また、HMD1は、この縮小した画像を、表示領域U(図9を参照)に表示させる。ここで、HMD1は、表示領域S(図9を参照)における表示領域Uの位置を、ユーザーの眼の位置ずれ量及び方向に応じて定める。第3観察状態では、表示領域Uは、表示領域Sの右上に定められている。
ここで、結像レンズ71及び撮像素子72から成る撮像系の記録画素数は、例えば、横640画素、縦480画素であるとする。また、結像レンズ71及び撮像素子72から成る撮像系の画角は、横60度、縦45度であるとする。この場合、1画素当たりの画角は、約0.094度となる。
したがって、ユーザーの眼の位置の水平方向のずれ量(ベクトルV1のX成分量)が、例えば、50画素であれば、ユーザーの眼の位置は、4.7度(=50画素×0.094度)ほどずれていることになる。表示領域S(図9を参照)の水平方向(Sw:800画素)の視野角が、例えば、35度であれば、HMD1は、表示パネル63の中心から、108画素分(=Sw×4.7度÷35度)だけ、水平方向右に表示領域Uの位置を定める。HMD1は、垂直方向についても同様に、所定画素数だけずらした位置に表示領域Uを定める。
図14及び図15では、HMD1は、表示領域Uの水平方向Uwが500画素、縦方向Uhが375画素となるまで画像を縮小し、表示領域Sの中心から水平方向右に108画素、且つ、ベクトルV1のz成分量(=V1z)に対応する前記所定画素数だけ垂直方向上にずらした位置に、表示領域Uを定める。表示領域Uには、表示領域Uと同じ縮小率で縮小された画像が表示される。これにより、ユーザーの眼eyeが光軸上からずれた場合でも、HMD1は、画像の全体が見えるよう、その画像を表示することができる。
HMD1は、撮像画像から、例えば、眼の輪郭の画像を抽出し、抽出した眼の輪郭の画像の位置に基づいて、眼の位置ずれ量及び方向(ベクトルV1)を検出する。ここで、眼の位置ずれ量及び方向の検出は、撮像画像から眼球の画像を抽出し、抽出した眼球の輪郭画像のずれ量に基づいて、その眼の位置ずれ量及び方向を検出してもよい。また、HMD1は、眼球照明ライトLED166a〜166d(図2を参照)を適宜点灯させ、それらの眼球照明ライトが投射した光によるスポットを、ユーザーの眼球上で測定することで、ベクトルV1を検出するようにしてもよい。
上述したように、ユーザーの眼が表示部60から離れている、又は、光軸からずれている場合でも、HMD1では、ユーザーと表示部60との位置関係に応じて、ユーザーが画像の全領域を観察可能となるように、表示部60に画像を表示することができる。なお、表示領域を定めるタイミングは、注視点検出のためのキャリブレーション処理(後述)の前後のいずれでもよい。
次に、表示部60の配置と、ユーザーの眼の撮像について説明する。
図16は、眼の正面に表示部60を配置して、眼を含む周辺の画像を撮像する例を説明する図である。図17は、本実施形態に係る眼の下側に表示部60を配置して、眼を下から撮像する例を説明する図である。
図16は、眼の正面に表示部60を配置して、眼を含む周辺の画像を撮像する例を説明する図である。図17は、本実施形態に係る眼の下側に表示部60を配置して、眼を下から撮像する例を説明する図である。
図16及び図17において、符号L11は、ユーザーの下瞼から眉毛までの距離を表している。また、図16及び図17において、距離L11は、40[mm]である。また、図16及び図17において、ユーザーの顔を横から見た場合における、上下方向をZ軸方向と、前後方向をY軸方向と称する。
図16に示すように、眼の正面に表示部60を配置した場合、ユーザーの下瞼から眉毛までを撮像するためには、幅L11以上(例えば、幅L31)を撮像できるまで、表示部60の結像レンズ71を、ユーザーの顔から遠ざける必要がある。ここで、幅L31は、例えば、70[mm]である。幅L31の範囲が撮像される場合、ユーザーの眼から結像レンズ71の中心まで、距離L21だけ離される必要がある。ここで、距離L21は、例えば85[mm]である。
なお、距離L21は、図8に示した光学系において、第1プリズム65a、第2プリズム65b等の光路長も含んでいる。仮に、第1プリズム65a、第2プリズム65b等の光路長の合計が20[mm]であるとすると、ユーザーの顔からY軸方向に65(=85−20)[mm]だけ、表示部60を遠ざける必要がある。
従って、眼の正面に表示部60を配置した場合、ユーザーの下瞼から眉毛までを撮像するためには、表示部60は、ユーザーの顔から遠ざけられた位置に配置される必要がある。
一方、図17に示すように、眼の下側に表示部60が配置された場合、ユーザーの下瞼から眉毛までの距離L11の範囲を撮像するためには、幅L61の撮像範囲を撮像する必要がある。ここで、下から煽るように撮像しているため、幅L61は、図16に示した幅L31より短い。例えば、幅L61は、20[mm]である。この撮像範囲20[mm]を確保するために必要な撮影距離(距離L51)は、例えば、45[mm]である。
図16と同様に、第1プリズム65a、第2プリズム65b等の光路長の合計が20[mm]である場合、表示部60は、ユーザーの顔から25[mm]だけ遠ざけられる。また、Y軸方向に対して表示部60が角度β傾けてられている場合、顔から結像レンズ71までのY軸方向の距離は、45[mm]にcosβが乗算された値となる。
HMD1は、眼の下に配置された表示部60が、眼の周辺画像を撮像できるので(図17を参照)、表示部60が眼の正面に配置された場合と比較して(図16を参照)、顔から表示部60までの距離が短い。これにより、HMD1は、大型化してしまうことがない。また、HMD1は、表示部60がユーザーの正面に配置されないため、表示部60がユーザーの正面視野を遮ることもない。さらに、HMD1は、表示部60がユーザーの顔の近傍に配置されることも可能なので、例えば、狭い作業空間などにおいて、表示部60が邪魔になることもない。
また、HMD1は、表示部60が眼の下に配置された場合、表示部60が眼の正面に配置された場合と比較して(図16を参照)、眼球照明ライト166の輝度を低くしてもよい。これにより、HMD1は、消費電力を低減させることができる。
次に、右眼観察形態と左眼観察形態との切り替えに伴う、撮像素子72の設置角度の調整について説明する。
図18は、本実施形態に係る撮像素子72の画角と選択範囲を説明する図である。図18(A)は、右眼観察形態における撮像素子72の画角と選択範囲を説明する図である。図18(B)は、左眼観察形態における撮像素子72の画角と選択範囲を説明する図である。なお、図18(A)及び図18(B)では、第1ヘッドバンド43、第2ヘッドバンド44、装置本体部21等は、図示が省略されている。
図18は、本実施形態に係る撮像素子72の画角と選択範囲を説明する図である。図18(A)は、右眼観察形態における撮像素子72の画角と選択範囲を説明する図である。図18(B)は、左眼観察形態における撮像素子72の画角と選択範囲を説明する図である。なお、図18(A)及び図18(B)では、第1ヘッドバンド43、第2ヘッドバンド44、装置本体部21等は、図示が省略されている。
図19は、本実施形態に係る撮像領域と選択領域を説明する図である。図19(A)は、ヘッドバンドヒンジ32(図2を参照)が揺動された場合における、撮像素子72(図3を参照)による撮像領域を説明する図である。また、図19(B)は、撮像領域から選択された選択領域を説明する図である。ここで、符号Pは、撮像素子72が撮像可能な範囲を示す符号である。また、撮像素子72は、例えば、4対3のアスペクト比を有する。
右眼観察形態の場合、第1表示モード(図5(A)を参照)では、撮像素子72は、撮像領域のアスペクトが縦長になるように、表示部60内に設けられている。この場合、撮像素子72は、図18(A)及び図19(B)に示すように、符号Pで示した領域(以下、「撮像領域P」という)のうち、符号Qで示された領域(以下、「選択領域Q」という)に撮像される範囲のみの画像データを取り込む。これにより、撮像素子72は、右眼観察形態において、眉毛まで含めて右眼の画像データを適切に取り込むことができる。
一方、左眼観察形態の場合、第1表示モード(図5(B)を参照)では、撮像素子72は、撮像領域のアスペクトが縦長になるように、表示部60内に設けられている。この場合、撮像素子72は、図18(B)及び図19(B)に示すように、撮像領域Pのうち、符号Rで示された領域(以下、「選択領域R」という)に撮像される範囲のみの画像データを取り込む。これにより、撮像素子72は、左眼観察形態において、眉毛まで含めて左眼の画像データを適切に取り込むことができる。
また、HMD1は、右眼観察形態又は左眼観察形態のいずれであるかを、加速度センサー132が検出した検出値(後述)の代わりに、撮像素子72による撮像画像に基づいて適切に判定することができる。なお、右眼観察形態又は左眼観察形態のいずれであるかを判別する方法は、後述する。
図20は、本実施形態に係る選択範囲の選択を機械的に行う機構を説明する図である。撮像素子72の本体72aには、回転軸72bが固定されている。この回転軸72bに対しては、ダイヤル72cが設けられている。ユーザーは、ダイヤル72cを回動可能範囲で回動(図20では、D方向)にさせることで、回転軸72bを軸として、撮像素子72をチルトさせることができる。
結像レンズ71が上を向く方向にチルトされた場合、選択領域Q(図19(B)を参照)は、撮像領域Pにおける上側の領域に定められる。これにより、撮像素子72は、ユーザーの眼及び眉毛を、撮像領域Qで撮像することができる。一方、結像レンズ71の下を向く方向にチルトされた場合、選択領域R(図19(B)を参照)は、撮像領域Pの下側の領域に定められる。これにより、撮像素子72は、ユーザーの眼及び眉毛を、撮像領域Rで撮像することができる。
なお、HMD1は、ダイヤル72cにより、撮像領域Q又は選択領域Rの位置を微調節することも可能である。また、撮像素子72による撮像画像が表示部60に表示された場合、ユーザーは、表示部60に表示されている撮像画像を観察しながら、表示部60と眼の位置関係に応じて、撮像素子72の撮像領域を選択することができる。この結果、HMD1は、範囲が適切になるよう撮像された撮像画像を用いて、HMD1の位置合わせ(後述)、及び注視点検出のためのキャリブレーションの精度を高めることができる。
次に、HMD1の機能ブロックについて説明する。
図21は、本実施形態に係るヘッドマウントディスプレイ1の機能ブロック図である。
HMD1には、処理部123を中心として種々の電気回路が備えられている。処理部123は、CPU(中央演算装置:Central Processing Unit)であり、HMD1の各種回路と接続されるとともに、HMD1を総合的に制御する。
図21は、本実施形態に係るヘッドマウントディスプレイ1の機能ブロック図である。
HMD1には、処理部123を中心として種々の電気回路が備えられている。処理部123は、CPU(中央演算装置:Central Processing Unit)であり、HMD1の各種回路と接続されるとともに、HMD1を総合的に制御する。
バッテリー33は、電力を電源回路120に供給する。
電源回路120は、バッテリー33から供給された電力を、処理部123の制御によりHMD1の各部に供給する。
電源回路120は、バッテリー33から供給された電力を、処理部123の制御によりHMD1の各部に供給する。
本実施形態の場合、処理部123には、エンコーダー129及びデコーダー121、電源回路120、操作スイッチ30、フラッシュメモリー122、BLドライバ126、BT通信回路130、WiFi通信回路131、加速度センサー132(第1センサー)、地磁気センサー133、前方ライト68、3G/LTE通信回路138、レーザー発信器73、角速度センサー134、GPSセンサー135(測位部)、温湿度センサー136、心拍数センサー137、メモリー127、メインスイッチ28、タッチスイッチ34、眼球照明ライト166a〜166d、バイブレータ167(報知部)が接続されている。
エンコーダー129は音声信号及び画像信号を所定方式の音声データ及び画像データにエンコード(符号化)する。エンコーダー129には、カメラ64、撮像素子72、集音マイク24、通話マイク37、オーディオコネクター26、ビデオコネクター27が接続されている。
エンコーダー129には、集音マイク24及び通話マイク37から入力される音声信号、カメラ64から入力される画像信号、オーディオコネクター26から入力される音声信号、ビデオコネクター27から入力される画像信号、及び、眼の周辺画像を撮影する撮像素子72の画像信号が入力される。エンコーダー129に入力された音声信号及び画像信号は音声データ及び画像データにエンコードされた後、処理部123に入力される。入力された音声データ及び画像像データは、処理部123による再生動作に用いられたり、フラッシュメモリー122に記録される。
デコーダー121は、音声データ及び画像データを音声信号及び画像信号にデコード(復号化)する。デコーダー121には、LCDドライバ125、スピーカーアンプ162、オーディオコネクター26、及びビデオコネクター27が接続されている。LCDドライバ125は液晶パネル用の駆動制御装置であり、表示パネル36及び表示パネル63に接続されている。スピーカーアンプ162は音声信号を増幅してスピーカーに出力する装置であり、耳元スピーカー23及び前方スピーカー70に接続されている。
画像データを再生する場合、フラッシュメモリー122に記録された画像データ、あるいはエンコーダー129から入力される画像データは、処理部123を介してデコーダー121に入力される。デコーダー121に入力された画像データは、画像信号にデコードされた後、LCDドライバ125を介して表示パネル36、63に供給される。そして、画像信号が入力された表示パネル36又は表示パネル63に画像データに基づく画像が表示される。また、デコーダー121からビデオコネクター27に出力される画像信号は、ビデオコネクター27を介して外部機器に出力される。
また画像の表示に際して、処理部123は、必要に応じて表示パネル36用のバックライト35、及び表示パネル63用のバックライト62を点灯させる。BLドライバ126は、バックライト用の駆動制御装置であり、バックライト35及びバックライト62に接続されている。処理部123は、BLドライバ126に駆動信号を送信し、BLドライバ126はバックライト35、62を個々に点灯させる。
音声データを再生する場合、フラッシュメモリー122に記録された音声データ、あるいはエンコーダー129から入力される音声データは、処理部123を介してデコーダー121に入力される。デコーダー121に入力された音声データは、音声信号にデコードされた後、スピーカーアンプ162を介して耳元スピーカー23及び前方スピーカー70のいずれか一方、又は両方に出力される。そして、音声信号を入力された耳元スピーカー23又は前方スピーカー70から音声が出力される。また、デコーダー121からオーディオコネクター26に出力される音声信号は、オーディオコネクター26を介してステレオイヤホン100に出力される。
本実施形態の場合、耳元スピーカー23及び前方スピーカー70は、モノラル音声の使用を想定しており、耳元スピーカー23及び前方スピーカー70からは左右の音声信号が合成された音が発せられる。
一方、ステレオイヤホン100に音声信号が出力される場合、第1スピーカー103及び第2スピーカー104のそれぞれ左チャンネル又は右チャンネルの音が出力される。ここで、本実施形態のHMD1は左右両用であるため、装着位置に応じてステレオイヤホン100への音声信号のチャンネルが切り替わる。すなわち、ディスプレイ本体20が右眼に装着されている場合には、第1スピーカー103に右チャンネル、第2スピーカー104に左チャンネルの音が出力される。ディスプレイ本体20が左眼に装着されている場合には第1スピーカー103に左チャンネル、第2スピーカー104に右チャンネルの音が出力される。
メモリー127には、処理部123によって実行される制御プログラムが記憶されている。
全体の電源のオンオフを行うメインスイッチ28や、画面内でのポインティング操作を行うための操作スイッチ30、あるいはタッチ操作により各種操作を行うタッチスイッチ34がユーザーにされると、これらのスイッチから操作に基づく制御信号が処理部123へ出力される。処理部123は、制御信号により操作を検出し、上記の制御プログラムに規定された動作を実行する。
全体の電源のオンオフを行うメインスイッチ28や、画面内でのポインティング操作を行うための操作スイッチ30、あるいはタッチ操作により各種操作を行うタッチスイッチ34がユーザーにされると、これらのスイッチから操作に基づく制御信号が処理部123へ出力される。処理部123は、制御信号により操作を検出し、上記の制御プログラムに規定された動作を実行する。
BT通信回路130は、他の機器とのBluetooth(登録商標)通信を行うための通信回路である。WiFi通信回路131は、他の機器との無線LAN通信(IEEE 802.11)を行うための通信回路である。3G/LTE通信回路138は、他の機器との移動通信を行うための通信回路である。
加速度センサー132は、HMD1の傾き検出に用いられる。加速度センサー132は、例えば3軸センサーであり、重力加速度を検出する。加速度センサー132は、例えば、装置本体部21内に取り付けられている。
以下、加速度センサー132の座標は、地表に直立したユーザーがHMD1を頭に装着している場合における、ユーザーにとっての上下方向をZ軸方向、左右方向をX軸方向、前後方向をY軸方向とする。また、加速度センサー132は、右眼観察形態の場合にZ軸方向の検出値が負値となり、左眼観察形態の場合にZ軸方向の検出値が正値となるように、取り付けられている。
地磁気センサー133は、HMD1の方角検出に用いられる。角速度センサー(ジャイロセンサー)134は、HMD1の回転検出に用いられる。GPSセンサー135はGPS(Global Positioning System)を利用した測位検出に用いられる。温湿度センサー136は、環境の温度、湿度の検出に用いられる。
心拍数センサー137は、ユーザーの頬に接触し、ユーザーの心拍数を検出し、検出した検出値を装着処理部311に出力する。心拍数センサー137は、例えば、赤外線を照射し、この赤外線の反射波に基づいて心拍数を測定し、測定した心拍数を示す情報を検出値として制御部302に出力する。また、心拍数センサー137は、赤外線の反射波に基づいて、HMD1が頭部近傍数センチ以内にあることを検出し制御部302に出力する。
バイブレータ167は、例えば振動モーター、モーター駆動回路を含んで構成される。バイブレータ167は、後述するサイレントモードに設定されている場合、処理部123の制御により振動する。
心拍数センサー137は、ユーザーの頬に接触し、ユーザーの心拍数を検出し、検出した検出値を装着処理部311に出力する。心拍数センサー137は、例えば、赤外線を照射し、この赤外線の反射波に基づいて心拍数を測定し、測定した心拍数を示す情報を検出値として制御部302に出力する。また、心拍数センサー137は、赤外線の反射波に基づいて、HMD1が頭部近傍数センチ以内にあることを検出し制御部302に出力する。
バイブレータ167は、例えば振動モーター、モーター駆動回路を含んで構成される。バイブレータ167は、後述するサイレントモードに設定されている場合、処理部123の制御により振動する。
なお、本発明において、報知部とは、音響信号により報知する耳元スピーカー23、前方スピーカー70、ステレオイヤホン100、振動により報知するバイブレータ167、光により報知するバックライト62、画像により報知する表示パネル63である。また、本発明において、報知される所定の情報とは、ユーザーの居眠りが検出された場合に警告のための警告音(アラーム)、ユーザーの居眠りが検出された場合に警告のための光の点滅、ユーザーが利用している移動手段に応じたナビゲーションの音響信号または画像信号等である。
また、本発明において、ユーザーが居眠りしている状態(以下、居眠り状態ともいう)とは、ユーザーが目を瞑っている状態、ユーザーの体又は頭部が所定の周期で揺れている状態、ユーザーの体又は頭部が所定の角度以上、倒れている状態のうちのいずれかの状態である。
また、本発明において、ユーザーが居眠りしている状態(以下、居眠り状態ともいう)とは、ユーザーが目を瞑っている状態、ユーザーの体又は頭部が所定の周期で揺れている状態、ユーザーの体又は頭部が所定の角度以上、倒れている状態のうちのいずれかの状態である。
図22は、本実施形態に係る処理部123の機能ブロック図である。処理部123は、入力検出部301、制御部302、記憶部303、眼球照明部304、音響制御部305、画像切替部306、画像表示部307、及び送受信部308、乗物検出部(移動手段検出部)309、居眠検出部(制御部)310、装着処理部311を備えている。図22では、WiFi通信回路131及び3G/LTE通信回路138(図21を参照)を、「通信インタフェース(131、138)」と総称する。
入力検出部301は、タッチスイッチ34上で行われた操作の種類を判別し、判別した結果に基づく制御信号を、制御部302、画像切替部306、及び送受信部308に出力する。タッチスイッチ34上で行われた操作の種類とは、発信の指示、及び受信の指示等である。入力検出部301は、タッチスイッチ34上の所定の領域がタッチされた場合、タッチされた領域に基づいて、これらの操作の種類を判別する。
制御部302は、タッチスイッチ34の操作によりサイレントモードが設定されているか否かを判別する。制御部302は、サイレントモードが設定されているか否かを示す情報(以下、サイレントモード設定情報という)を音響制御部305に出力する。なお、本発明においてサイレントモードとは、他の端末から呼び出しがあったとき、頭部にHMD1が装着されている場合、もしくは頭部近傍にHMD1がある場合、例えば、耳元スピーカー23から呼び出しを知らせる音(報知音ともいう)を出力することでユーザーに着信を知らせるモードである。あるいは、本発明においてサイレントモードとは、他の端末から呼び出しがあったとき、頭部にHMD1が装着されていない場合、例えば、バイブレータが振動することで、ユーザーに着信を知らせるモードである。なお、本発明において着信とは、送受信部が受信した受信信号に含まれている情報基づくものである。本発明において着信とは、例えば、通信相手の端末から通話またはチャット等の通信のための呼び出し、通信相手の端末から通話(音声情報、テキスト情報)、通信相手の端末からの電子メールの受信、通信相手の端末からの画像データの受信、予め登録してあるインターネットやサーバー上の掲示板等に新たな書き込み、つぶやき等の書き込みがあったことのサーバー200からの通知である。
なお、報知音は、例えば、他の端末からの呼び出しを知らせる音である着信音であってもよい。また、例えば、他の端末から電子メール等の情報を受信した場合、報知音は、他の端末からの情報を受信したことを知らせる音であってもよい。また、このような報知音は、着信音と、他の端末からの情報を受信したことを知らせる音とが、異なる音であってもよく、同じ音であっても良い。
制御部302は、加速度センサー132が検出した検出値、及び撮像素子72による撮像画像の少なくとも一方に基づいて、右眼観察形態又は右眼観察形態を判別する。ここで、制御部302は、撮像素子72による撮像画像については、例えば、眉毛と眼との相対位置、瞬きでの瞼の挙動、眉毛の輪郭、眼の輪郭、眼の左右の目尻の下がり方等に基づいて、撮像画像に映っているユーザーの眼が、左右どちらの眼の画像であるか(右眼観察形態又は右眼観察形態)を判別する。
なお、報知音は、例えば、他の端末からの呼び出しを知らせる音である着信音であってもよい。また、例えば、他の端末から電子メール等の情報を受信した場合、報知音は、他の端末からの情報を受信したことを知らせる音であってもよい。また、このような報知音は、着信音と、他の端末からの情報を受信したことを知らせる音とが、異なる音であってもよく、同じ音であっても良い。
制御部302は、加速度センサー132が検出した検出値、及び撮像素子72による撮像画像の少なくとも一方に基づいて、右眼観察形態又は右眼観察形態を判別する。ここで、制御部302は、撮像素子72による撮像画像については、例えば、眉毛と眼との相対位置、瞬きでの瞼の挙動、眉毛の輪郭、眼の輪郭、眼の左右の目尻の下がり方等に基づいて、撮像画像に映っているユーザーの眼が、左右どちらの眼の画像であるか(右眼観察形態又は右眼観察形態)を判別する。
制御部302は、撮像画像に映っているユーザーの眼が左右どちらの眼の画像であるか判別した結果に基づいて、眼球照明ライト166の点灯及び消灯を制御する。また、制御部302は、判別した結果に基づいて、オーディオコネクター26に接続されているステレオイヤホン100に出力する音声を制御する。また、制御部302は、判別した結果に基づいて、表示部60から投影する画像を制御する。
記憶部303には、制御部302が生成した、視線に基づいて操作するためのパラメータが記憶されている。記憶部303には、緯度、経度、及び位置情報が関連付けられて記憶されている。位置情報は、例えば、住所、建物名、及び公園名等である。なお、記憶部303には、緯度、経度、住所、建物名、公園名等が関連付けられている地図情報が記憶されていてもよい。
眼球照明部304は、制御部302の制御に基づいて、眼球照明ライト166a〜166dを、点灯または消灯させるように駆動する。
音響制御部305は、制御部302が出力するサイレントモード設定情報と、乗物検出部309が出力したサイレントモード設定情報と、装着処理部311が出力するディスプレイ本体20がユーザーの頭部に装着されているか否かを示す情報(以下、装着情報という)に基づいて、耳元スピーカー23、前方スピーカー、及びバイブレータ167からの報知を制御する。
音響制御部305は、居眠検出部310が出力した居眠警告情報に基づいて、耳元スピーカー23から警告音(アラームともいう)を発する。
音響制御部305には、エンコーダー129が出力する音声データ(HMD1のユーザーの音声データ)、送受信部308が出力する受信信号が入力される。音響制御部305は、送受信部308が出力する受信信号から、他の端末のユーザーの音声データ(以下、他端末の音声データともいう)を抽出する。音響制御部305は、制御部302が出力する装着状態を示す情報に基づいて、エンコーダー129が出力する音声データ(HMD1のユーザーの音声データ)、又は、他の端末のユーザーの音声データに基づく音声を、ステレオイヤホン100の左右どちらのスピーカーに出力するのかを選択し、左右のスピーカーの各音量等を調整する。
音響制御部305は、居眠検出部310が出力した居眠警告情報に基づいて、耳元スピーカー23から警告音(アラームともいう)を発する。
音響制御部305には、エンコーダー129が出力する音声データ(HMD1のユーザーの音声データ)、送受信部308が出力する受信信号が入力される。音響制御部305は、送受信部308が出力する受信信号から、他の端末のユーザーの音声データ(以下、他端末の音声データともいう)を抽出する。音響制御部305は、制御部302が出力する装着状態を示す情報に基づいて、エンコーダー129が出力する音声データ(HMD1のユーザーの音声データ)、又は、他の端末のユーザーの音声データに基づく音声を、ステレオイヤホン100の左右どちらのスピーカーに出力するのかを選択し、左右のスピーカーの各音量等を調整する。
画像切替部306は、入力検出部301が出力した制御信号に基づき、フラッシュメモリー122から読み出した画像データ、またはエンコーダー129が出力した画像データを取得する。画像切替部306は、取得した画像データの表示モードを、制御部302が出力した装着状態を示す情報に基づいて切り替え、切り替えた表示モードで、画像データを画像表示部307に出力する。ここで、表示モードとは、例えば、第1表示モード又は第2表示モード(図44で後述)である。
画像切替部306は、送受信部308が出力した受信信号から、画像切替信号を抽出する。画像切替部306は、画像切替信号が抽出できた場合、抽出した画像切替信号に基づき、フラッシュメモリー122から読み出した画像データ、またはエンコーダー129が出力した画像データを、画像表示部307に出力する。また、画像切替部306は、入力検出部301が出力した制御信号に基づき、エンコーダー129から出力された画像データ、またはフラッシュメモリー122から読み出した画像データの解像度を変換し、変換した画像データを画像表示部307に出力する。
画像切替部306は、撮像画像に含まれるユーザーの片眼を含む領域の画像に基づいて認識された観察形態に応じて表示部60に表示するための画像を回転させる角度((以下、表示角度という)例えば、0度、90度、180度、270度)を切り替える。これにより、画像切替部306は、ユーザーの姿勢がいかようにあっても、表示部60とユーザーの眼との関係に応じて、表示部60に表示する画像の表示方向を適切に切り替えて表示することができるなお、観察形態は、撮像画像に含まれるユーザーの片眼を含む領域の画像に基づいて認識される。具体的には、右眼観察形態のときの画像の表示角度を0度とした場合及び左眼観察形態のときの画像の表示角度を180度とした場合、制御部302は、右眼観察形態のときの画像の表示角度を0度に切り替え、左眼観察形態のときの画像の表示角度を180度に切り替える。
画像切替部306は、撮像画像に含まれるユーザーの片眼を含む領域の画像に基づいて認識された観察形態に応じて表示部60に表示するための画像を回転させる角度((以下、表示角度という)例えば、0度、90度、180度、270度)を切り替える。これにより、画像切替部306は、ユーザーの姿勢がいかようにあっても、表示部60とユーザーの眼との関係に応じて、表示部60に表示する画像の表示方向を適切に切り替えて表示することができるなお、観察形態は、撮像画像に含まれるユーザーの片眼を含む領域の画像に基づいて認識される。具体的には、右眼観察形態のときの画像の表示角度を0度とした場合及び左眼観察形態のときの画像の表示角度を180度とした場合、制御部302は、右眼観察形態のときの画像の表示角度を0度に切り替え、左眼観察形態のときの画像の表示角度を180度に切り替える。
画像表示部307には、画像切替部306が出力した画像データが入力される。画像表示部307は、入力されたこれらの画像データに基づき、表示パネル63に表示する画像データを生成する。画像表示部307は、生成した画像データを、送受信部308、ビデオコネクター27、及びLCDドライバ125に出力する。
送受信部308は、入力検出部301が出力した制御信号に基づき、画像表示部307が出力した画像データを、通信インタフェース(131、138)を介して送信する。送受信部308は、通信インタフェース(131、138)を介して受信した受信信号を、画像切替部306に出力する。
乗物検出部309には、GPSセンサー135が測位した測位情報、及び加速度センサー132が検出した検出値が入力される。測位情報には、測位した位置の緯度情報、経度情報、高度情報、測位した時刻を示す時刻情報が含まれている。乗物検出部309は、測位情報及び加速度センサー132が検出した検出値に基づいて、HMD1を使用しているユーザーの移動手段を検出し、検出した移動手段を示す移動手段情報を、居眠検出部310に出力する。乗物検出部309は、移動手段情報に基づいて、サイレントモードを有効又は無効に設定し、設定したサイレントモードが有効又は無効であることを示すサイレントモード設定情報を音響制御部305に出力する。
乗物検出部309は、送受信部308を介してインターネット等の通信回線に接続し、測位情報に基づいてHMD1が使用されている位置情報を取得する。または、乗物検出部309は、測位情報に基づいて、記憶部303に記憶されている位置情報を読み出して取得する。
乗物検出部309は、送受信部308を介してインターネット等の通信回線に接続し、測位情報に基づいてHMD1が使用されている位置情報を取得する。または、乗物検出部309は、測位情報に基づいて、記憶部303に記憶されている位置情報を読み出して取得する。
居眠検出部310は、乗物検出部309が出力した移動手段情報に基づいて、現在、ユーザーが利用している移動手段が居眠りを警告する必要な移動手段であるか否か判別する。居眠検出部310は、居眠りを警告する必要な移動手段である場合、撮像画像に基づいて、ユーザーが居眠りをしている状態か否か、又は居眠りの兆候となる眼をつぶっている状態(目瞑り状態ともいう)であるか否かを判別する。居眠検出部310は、ユーザーが居眠りをしている状態である場合、又は目瞑り状態である場合、警告を示す居眠警告情報を音響制御部305に出力する。なお、移動手段は、後述するように、公共機関の車両(電車、バス)又は船舶による移動、徒歩による移動、自転車による移動、自動車による移動等である。
装着処理部311は、心拍数センサー137が検出した検出値に基づいて、HMD1がユーザーの頭部に装着されているか否かを判別し、判別した結果に基づいて装着情報を生成する。装着処理部311は、生成した装着情報を音響制御部305に出力する。具体的には、装着処理部311は、心拍数センサー137から受け取った検出値が予め定められている閾値以上の場合、HMD1がユーザーの頭部に装着されていると判別する。一方、装着処理部311は、心拍数センサー137から受け取った検出値が予め定められている閾値より小さい場合、HMD1がユーザーの頭部に非装着であると判別する。なお、予め定められている閾値は、心拍数が1分間あたりの値の場合、例えば30である。一般的な人の安静時の心拍数は、例えば男性の場合、60〜70程度であり、女性の場合、65〜75程度である。また、歩行時の心拍数は、安静時より高くなる。このため、閾値は、安静時の心拍数として検出されないような値、たとえば0でもよい。
図23は、本実施形態に係るHMD1を含む通信システムのシステム構成図である。図23に示すように、通信システムは、HMD1、HMD500、PC210、PC220、及びサーバー200から構成される。HMD1、HMD500、PC210、PC220、及びサーバー200は、ネットワーク230に接続されている。ネットワーク230は、無線LAN(Local Area Network)、3G回線、LTE回線等を介して接続されているインターネットなどのネットワークである。
図23において、HMD1は、図21で説明した構成であるが、処理手順を説明する上で必要な機能部のみを示している。なお、HMD1の表示パネル63を、以後、LCD63という。
HMD500は、図23に示すように、主にフラッシュメモリー522、処理部523、通信インタフェース(531、538)、地磁気センサー533、タッチスイッチ534、表示パネル(表示部)563(以後、LCD563という)、カメラ564を備えている。HMD500の各機能部は、HMD1の各機能部と同等である。
HMD500は、図23に示すように、主にフラッシュメモリー522、処理部523、通信インタフェース(531、538)、地磁気センサー533、タッチスイッチ534、表示パネル(表示部)563(以後、LCD563という)、カメラ564を備えている。HMD500の各機能部は、HMD1の各機能部と同等である。
次に、サーバー200の構成について説明する。図23に示すように、サーバー200は、処理部201、記憶部202、及び通信インタフェース203を備えている。
サーバー200の処理部201は、各端末(HMD1、HMD500、PC210、及びPC220)から通信インタフェース203を介して受信した画像データ(動画、静止画、線画等)、音声データ、各端末の環境情報、及び各端末からの要求等の通信記録を、記憶部202に記録する。処理部201は、各端末の要求に応じて、記憶部202に記録してある画像データを読み出し、読み出した画像データを、各端末に送信する。
記憶部202には、各端末から受信した画像データ(動画、静止画)、音声データ、各端末の環境情報、及び各端末からの要求等の通信記録が記録されている。記憶部202には、各端末のユーザーに対応するパーソナルデータ、例えば、相手の名前や性別・国籍などのデータが、各端末の電話番号又はIPアドレス等の端末を識別できる情報と関連づけられて記憶されている。
通信インタフェース203は、例えば、WiFi通信回路、3G通信回路、LTE通信回路、有線LAN回路等を備えている。
通信インタフェース203は、例えば、WiFi通信回路、3G通信回路、LTE通信回路、有線LAN回路等を備えている。
次に、PC210及びPC220の構成について説明する。PC210及びPC220は、例えば、パーソナルコンピュータである。
PC210は、処理部211、記憶部212、通信インタフェース213、入力部214、表示部215、及びカメラ216を備えている。
PC220は、処理部221、記憶部222、通信インタフェース223、入力部224、表示部225、及びカメラ226を備えている。PC220の各機能部は、PC210の各機能部と同等である。
PC210は、処理部211、記憶部212、通信インタフェース213、入力部214、表示部215、及びカメラ216を備えている。
PC220は、処理部221、記憶部222、通信インタフェース223、入力部224、表示部225、及びカメラ226を備えている。PC220の各機能部は、PC210の各機能部と同等である。
PC210の処理部211は、CPU(中央演算装置)及びGPU(Graphics Processing Unit)等である。処理部211は、通信インタフェース213、入力部214、表示部215、及びカメラ216を制御する。処理部211は、記憶部212に記憶されている画像データ、通信インタフェース213を介して取得した画像データ、カメラ216で撮像された画像データを、後述するように通信インタフェース213介して取得した画像切替信号に基づいて切り替える。処理部211は、切り替えた画像データを通信インタフェース213及びネットワーク230に出力する。処理部211は、画像データを表示部215に出力する。処理部211は、入力部214の操作に基づき、表示部215上に、カーソル画像、または線画画像を表示するように制御する。処理部211は、通信インタフェース213を介して取得した受信信号に基づき、表示部215上に、カーソル画像、または線画画像を表示するように制御する。
記憶部212は、例えば、メモリー、HDD(ハードディスク)である。記憶部212には、PC210のOS(オペレーション・システム)、HMD1、HMD500及びPC220と通話を行うためのアプリケーション等が記憶されている。
通信インタフェース213は、例えば、無線LAN、または有線LAN、3G回線、LTE回線等の通信を行うインタフェースである。通信インタフェース213は、ネットワーク230を介して受信した情報を処理部211に出力する。通信インタフェース213は、処理部211が出力した情報を、ネットワーク230を介して、HMD1、HMD500、PC220、及びサーバー200に送信する。
入力部214は、例えば、キーボード、マウス、タブレットと操作ペン等である。入力部214は、入力された情報を、処理部211に出力する。なお、表示部215がタッチパネル機能を有する場合、表示部215は入力部214の機能を兼ねるようにしてもよい。
表示部215は、処理部211が出力した画像データに基づく画像を表示する。
一例として、表示部215には、HMD1が撮像した画像、PC210の入力部214の操作に応じた線画画像が合成されて表示される。
一例として、表示部215には、HMD1が撮像した画像、PC210の入力部214の操作に応じた線画画像が合成されて表示される。
カメラ216は、例えば500万画素〜1000万画素の撮像素子を有するCMOS(相補型金属酸化膜半導体)またはCCD(Charge Coupled Device)である。
次に、HMD1の動作について説明する。図24は、本実施形態に係るHMD1の電源オン状態後に行う動作のフローチャートである。
(ステップS1)処理部123は、HMD1のシステムの起動の完了を待って、システムの起動が完了したらステップS2に進む。なお、起動とは、メインスイッチ28が操作されてHMD1がコールドスタートする場合、ならびにHMD1が所定時間使われなかった場合などにスリープ状態に至り、その後、タッチスイッチ34などを操作された場合、ウォームスタートした場合などである。
(ステップS1)処理部123は、HMD1のシステムの起動の完了を待って、システムの起動が完了したらステップS2に進む。なお、起動とは、メインスイッチ28が操作されてHMD1がコールドスタートする場合、ならびにHMD1が所定時間使われなかった場合などにスリープ状態に至り、その後、タッチスイッチ34などを操作された場合、ウォームスタートした場合などである。
(ステップS2)処理部123は、ユーザーが左右、どちらの眼でHMD1の表示部60を観察しているか検出する処理(以下、左右の眼の検出処理という)を行う。なお、この「左右の眼の検出処理」の詳細な処理は、後述する。処理部123は、検出した結果に基づいて、表示部60に表示する画像の向きを切り替える。
(ステップS3)処理部123は、点灯させる眼球照明ライト166と、消灯させる眼球照明ライトを選択する処理(以下、眼球照明ライトの選択処理という)を行う。なお、「眼球照明ライトの選択処理」の詳細な処理は後述する。
(ステップS4)処理部123は、注視点検出のためのキャリブレーションを行う。なお、注視点検出のためのキャリブレーションの詳細な処理については、後述する。
(ステップS5)処理部123は、HMD1を使用しているユーザーの移動手段を検出する(以下、乗り物検出の処理という)。また、処理部123は、HMD1を使用しているユーザーが居眠りをしているか否かを検出し、検出した結果に基づいて、耳元スピーカーから警告音を発する(以下、居眠り検出の処理という)。なお、「乗り物検出の処理」、「居眠り検出の処理」の詳細な処理については、後述する。
(ステップS6)処理部123は、HMD1が他の端末との通信時に、耳元スピーカー23、前方スピーカー70、及びバイブレータ167から着信音を報知し、耳元スピーカー23、前方スピーカー70から通話音を発する(以下、サイレントモード処理という)。なお、「サイレントモードの処理」の詳細な処理については、後述する。
次に、「左右の眼の検出処理」手順について説明する。
図25は、本実施形態に係る左右の眼の検出処理手順のフローチャートである。
図25は、本実施形態に係る左右の眼の検出処理手順のフローチャートである。
(ステップS101)処理部123の制御部302は、加速度センサー132が検出した検出値において、Z軸方向の検出値が、X軸方向、Y軸方向より強いか否かを判別する。Z軸方向の検出値が、X軸方向、Y軸方向より強いと判別された場合(ステップS101;Yes)、ステップS102に進む。Z軸方向の検出値が、X軸方向、Y軸方向より強くないと判別された場合(ステップS101;No)、ステップS103に進む。
(ステップS102)Z軸方向の検出値が、X軸方向、Y軸方向より強いと判別された場合、表示部60は、図5(A)または図5(B)に示したような第1表示モードの装着形態である。このため、制御部302は、加速度センサー132の検出値に基づいて、右眼観察形態であるか左眼観察形態であるのかを判別する。次に、制御部302は、判別した結果を示す情報を、画像切替部306に出力する。
(ステップS103)Z軸方向の検出値が、X軸方向、Y軸方向より強くないと判別された場合、ユーザーが寝ているか仰向けの状態であるため、制御部302は、撮像素子72を駆動する。
図26は、右眼観察形態の場合の撮像範囲Pの撮像画像の一例を説明する図である。図27は、左眼観察形態の場合の撮像範囲Pの撮像画像の一例を説明する図である。
制御部302は、観察形態を判別するために、図19で説明した撮像領域Pを使って、眼の周辺画像を撮像素子72により撮像する。例えば、撮像画像は、図5(A)に示した第1表示モードかつ右眼観察形態で使用されるときの撮像画像(以下、第1右眼画像という)を基準としている。このため、図26に示すように、第1右眼画像610Rは、正立画像である。図26に示すように、第1右眼画像610Rでは、右眼の画像601R3に対して、右眉毛の画像602R3が+Z方向にある。
一方、図27に示すように、第1表示モードかつ左眼観察形態で使用されるときの眼の周辺画像(以下、第1左眼画像という)610Lは、倒立画像である。図27に示すように、第1左眼画像610Lでは、左眼の画像601Lに対して、右眉毛の画像602Lが−Z方向にある。
図26は、右眼観察形態の場合の撮像範囲Pの撮像画像の一例を説明する図である。図27は、左眼観察形態の場合の撮像範囲Pの撮像画像の一例を説明する図である。
制御部302は、観察形態を判別するために、図19で説明した撮像領域Pを使って、眼の周辺画像を撮像素子72により撮像する。例えば、撮像画像は、図5(A)に示した第1表示モードかつ右眼観察形態で使用されるときの撮像画像(以下、第1右眼画像という)を基準としている。このため、図26に示すように、第1右眼画像610Rは、正立画像である。図26に示すように、第1右眼画像610Rでは、右眼の画像601R3に対して、右眉毛の画像602R3が+Z方向にある。
一方、図27に示すように、第1表示モードかつ左眼観察形態で使用されるときの眼の周辺画像(以下、第1左眼画像という)610Lは、倒立画像である。図27に示すように、第1左眼画像610Lでは、左眼の画像601Lに対して、右眉毛の画像602Lが−Z方向にある。
(ステップS104)図25に戻って、制御部302は、撮像画像から眉毛の画像が抽出可能であるか否かを判別する。眉毛の画像が抽出可能であると判別された場合(ステップS104;Yes)、ステップS105に進む。例えば、表示部60が眼に近い場合、または化粧等によって眉毛の判別が難しい場合など、眉毛の画像を抽出ができないと判別された場合(ステップS104;No)、ステップS106に進む。なお、制御部302は、例えばパターンマッチングの技術を用いて、眉毛の画像を抽出する。
例えば、ユーザーが右眼観察形態で使用している場合、選択領域Q(図19(B)を参照)に撮像された画像は、図11に示すような画像になる。一方、ユーザーが左眼観察形態で使用している場合、選択領域R(図19(B)を参照)に撮像された画像は、図28に示すような画像になる。図28は、左眼観察形態における撮像画像の一例を説明する図である。なお、図28では、選択領域Rの画像を180度回転させて示してある。このため、図28の−Z側がユーザーの上側、+Z側がユーザーの下側、−X側がユーザーの左側、+X側がユーザーの右側となる。また、図28において、符号601L2は、左眼の画像であり、符号602L2は、左眉毛の画像である。
なお、ステップS101〜S108の処理中、制御部302は、眼球照明ライト166を点灯させておいても、消灯させておいてもよい。ステップS101〜S108の処理中、制御部302は、バックライト62を点灯させておいてもよい。
例えば、ユーザーが右眼観察形態で使用している場合、選択領域Q(図19(B)を参照)に撮像された画像は、図11に示すような画像になる。一方、ユーザーが左眼観察形態で使用している場合、選択領域R(図19(B)を参照)に撮像された画像は、図28に示すような画像になる。図28は、左眼観察形態における撮像画像の一例を説明する図である。なお、図28では、選択領域Rの画像を180度回転させて示してある。このため、図28の−Z側がユーザーの上側、+Z側がユーザーの下側、−X側がユーザーの左側、+X側がユーザーの右側となる。また、図28において、符号601L2は、左眼の画像であり、符号602L2は、左眉毛の画像である。
なお、ステップS101〜S108の処理中、制御部302は、眼球照明ライト166を点灯させておいても、消灯させておいてもよい。ステップS101〜S108の処理中、制御部302は、バックライト62を点灯させておいてもよい。
(ステップS105)眉毛の画像が撮像画像から抽出可能である場合、制御部302は、眉毛の画像と眼の画像との位置や、眉毛の形状から、例えばパターンマッチングの技術や画像の特徴量による画像比較の技術を用いて、撮像画像が、ユーザーの右眼の画像であるか左眼の画像であるかを判別する。次に、制御部302は、判別した結果を示す情報を、画像切替部306に出力する。
例えば、図26に示したように、眼球の画像に対して眉毛の画像が、+Z方向にあると判別した場合、制御部302は、ユーザーが右眼で表示部60を観察している右眼観察形態であると判別する。一方、図27に示したように、眼球の画像に対して眉毛の画像が、−Z方向にあると判別した場合、制御部302は、ユーザーが左眼で表示部60を観察している左眼観察形態であると判別する。
例えば、図26に示したように、眼球の画像に対して眉毛の画像が、+Z方向にあると判別した場合、制御部302は、ユーザーが右眼で表示部60を観察している右眼観察形態であると判別する。一方、図27に示したように、眼球の画像に対して眉毛の画像が、−Z方向にあると判別した場合、制御部302は、ユーザーが左眼で表示部60を観察している左眼観察形態であると判別する。
(ステップS106)眉毛の画像が撮像画像から抽出可能ではない場合、制御部302は、瞬きでの瞼の挙動から、例えばパターンマッチングの技術や画像の特徴量による画像比較の技術を用いて、ユーザーの右眼であるか左眼であるかを判別する。次に、制御部302は、判別した結果を示す情報を、画像切替部306に出力する。
例えば、瞬きは上瞼が動くことから、瞼が図11において+Z方向から−Z方向へ移動し、すぐに−Z方向から+Z方向へ戻った場合、制御部302は、ユーザーが右眼で表示部60を観察している右眼観察形態であると判別する。また、瞼の移動開始方向ならびに戻り方向がこの逆となった場合、制御部302は、ユーザーが左眼で表示部60を観察している左眼観察形態であると判別する。
以上のように、本実施形態によれば、ユーザーが横方向に寝ている様な場合にも、加速度センサー132が検出した重力の方向にたよらずに、眉毛や瞼の動きを検出することでユーザーが観察している眼の方向を判別できる。
例えば、瞬きは上瞼が動くことから、瞼が図11において+Z方向から−Z方向へ移動し、すぐに−Z方向から+Z方向へ戻った場合、制御部302は、ユーザーが右眼で表示部60を観察している右眼観察形態であると判別する。また、瞼の移動開始方向ならびに戻り方向がこの逆となった場合、制御部302は、ユーザーが左眼で表示部60を観察している左眼観察形態であると判別する。
以上のように、本実施形態によれば、ユーザーが横方向に寝ている様な場合にも、加速度センサー132が検出した重力の方向にたよらずに、眉毛や瞼の動きを検出することでユーザーが観察している眼の方向を判別できる。
(ステップS107)ステップS106までの判別結果に基づいて、ユーザーが右眼観察形態で使用していると判別された場合、制御部302は、撮像素子72が撮像した撮像領域Pから選択領域Qを選択し、ステップS108へ進む。一方、ユーザーが左眼観察形態で使用していると判別された場合、制御部302は、撮像領域Pから選択領域Rを選択し、ステップS108へ進む。
(ステップS108)ステップS106までの判別結果に基づいて、右眼観察形態であると判別された場合、画像切替部306は、表示部60の表示方向を右眼用に設定する。また、ステレオイヤホン100が接続されている場合、音響制御部305は、第1スピーカー103を右耳用に、第2スピーカー104を左耳用になるようステレオ音声出力の左右を設定する。
一方、左眼観察形態であると判別された場合、画像切替部306は、表示部60の表示方向を左眼用に設定する。なお、左眼用の表示方向とは、右眼用の表示顔面を180度回転させて上下反転させる方向である。また、ステレオイヤホン100が接続されている場合、音響制御部305は、第1スピーカー103を左耳用に、第2スピーカー104を右耳用になるようステレオ音声出力の左右を設定する。
一方、左眼観察形態であると判別された場合、画像切替部306は、表示部60の表示方向を左眼用に設定する。なお、左眼用の表示方向とは、右眼用の表示顔面を180度回転させて上下反転させる方向である。また、ステレオイヤホン100が接続されている場合、音響制御部305は、第1スピーカー103を左耳用に、第2スピーカー104を右耳用になるようステレオ音声出力の左右を設定する。
なお、ステップS101〜S106において、右眼観察形態であるか否かを、加速度センサー132の検出値、撮像画像に基づいて判別する例を説明したが、右眼観察形態であるか否かの判定方法は、これに限られない。
例えば、HMD1は、ディスプレイ本体20に取り付けられている不図示のスイッチ等により検出するようにしてもよい。むろんユーザーが、手動で右眼観察形態または左眼観察形態に設定してもよい。
例えば、HMD1は、ディスプレイ本体20に取り付けられている不図示のスイッチ等により検出するようにしてもよい。むろんユーザーが、手動で右眼観察形態または左眼観察形態に設定してもよい。
次に、眼球照明ライトの選択処理について説明する。図29は、本実施形態に係るHMD1の眼球照明ライトの選択処理手順のフローチャートである。
(ステップS401)制御部302は、「左右の眼の検出処理」の判別結果に基づいて、ユーザーが右眼観察形態で使用していると判別された場合(ステップS401;Yes)、ステップS402へ進み、ユーザーが左眼観察形態で使用していると判別された場合(ステップS401;No)、ステップS403へ進む。
(ステップS402)ユーザーが右眼観察形態で使用していると判別された場合、制御部302は、眼球照明ライト166a及び166bを選択し、選択した結果を眼球照明ライト選択設定として記憶部303に記憶させる。制御部302は、眼球照明ライト166c及び166dを消灯させて、眼球照明ライトの選択処理を終了する。
(ステップS403)ユーザーが左眼観察形態で使用していると判別された場合、制御部302は、眼球照明ライト166c及び166dを選択し、選択した結果を眼球照明ライト選択設定として記憶部303に記憶させる。制御部302は、眼球照明ライト166c及び166dを消灯させて、眼球照明ライトの選択処理を終了する。
以上のように、本実施形態のHMD1は、表示部60とユーザーとの位置関係に応じて、眼球照明ライト166a〜166dを選択して点灯させるようにした。この結果、本実施形態のHMD1は、眼球を照明するライトを適宜選択可能としたことにより、使用者の眼を的確に照明できるとともに、消費電力を抑えることが可能となった。
次に、注視点検出のキャリブレーションの詳細について説明を行う。
本実施形態に係るHMD1では、キャリブレーション比較例のようにユーザーがキャリブレーション設定を行うのではなく、後述するように表示パネル63に表示される情報を操作しているときに、視線(注視点)に基づいて操作するためのパラメータを取得し、注視点検出のためのキャリブレーションを行う。
図30及び図31は、本実施形態に係る注視点検出のためのキャリブレーションの手順のフローチャートである。図32は、本実施形態に係る右眼観察形態における眼球照明ライト166の点灯、消灯を説明する図である。図33は、本実施形態に係る表示部60の位置と眼球照明ライト166の関係を説明する図であり、ユーザーの顔を水平正面から見た図である。
なお、以下では、図7(A)、図7(B)、及び図33に示すように、右眼観察形態かつ眼の下に表示部60が配置されている状態、または左眼観察形態かつ眼の下に表示部60が配置されている状態を検出して、注視点検出のためのキャリブレーションを行う例について説明する。
本実施形態に係るHMD1では、キャリブレーション比較例のようにユーザーがキャリブレーション設定を行うのではなく、後述するように表示パネル63に表示される情報を操作しているときに、視線(注視点)に基づいて操作するためのパラメータを取得し、注視点検出のためのキャリブレーションを行う。
図30及び図31は、本実施形態に係る注視点検出のためのキャリブレーションの手順のフローチャートである。図32は、本実施形態に係る右眼観察形態における眼球照明ライト166の点灯、消灯を説明する図である。図33は、本実施形態に係る表示部60の位置と眼球照明ライト166の関係を説明する図であり、ユーザーの顔を水平正面から見た図である。
なお、以下では、図7(A)、図7(B)、及び図33に示すように、右眼観察形態かつ眼の下に表示部60が配置されている状態、または左眼観察形態かつ眼の下に表示部60が配置されている状態を検出して、注視点検出のためのキャリブレーションを行う例について説明する。
図33において、一点鎖線で示した位置600a〜600bは、表示部60が配置される位置の例である。以下の処理で説明するように、HMD1は、位置600aに表示部60がある場合、眼の近傍にある眼球照明ライト166a及び166bを点灯させ、他を消灯させる。一方、HMD1は、位置600bに表示部60がある場合、眼の近傍にある眼球照明ライト166c及び166dを点灯させ、他を消灯させる。
(ステップS501)制御部302は、「左右の眼の検出処理」の判別結果に基づいて、ユーザーが右眼観察形態で使用しているか否かを判別する。制御部302は、ユーザーが右眼観察形態で使用していると判別された場合(ステップS501;Yes)、ステップS502に進み、ユーザーが右眼観察形態で使用していないと判別された場合(ステップS501;No)、ステップS503に進む。
(ステップS502)右眼観察形態であると判別された場合、制御部302は、記憶部303に記憶されている眼球照明ライトの選択設定を読み出す。次に、制御部302は、読み出したる眼球照明ライトの選択設定に基づいて、眼球照明部304を介して眼球照明ライト166aと166bを点灯する。
図32に示すように、ユーザー右眼の下に表示部60を配置して観察する場合、眼球照明ライト166cと166dは、極めて頬の近傍に配置されることになるために眼球を照明できない。このため、本実施形態では、図33の位置600aに示すように、眼球照明部304は、眼球照明ライト166c、及び166dは消費電力を下げるために消灯する。
図32に示すように、ユーザー右眼の下に表示部60を配置して観察する場合、眼球照明ライト166cと166dは、極めて頬の近傍に配置されることになるために眼球を照明できない。このため、本実施形態では、図33の位置600aに示すように、眼球照明部304は、眼球照明ライト166c、及び166dは消費電力を下げるために消灯する。
(ステップS503)左眼観察形態であると判別された場合、制御部302は、記憶部303に記憶されている眼球照明ライトの選択設定を読み出す。次に、制御部302は、読み出したる眼球照明ライトの選択設定に基づいて、眼球照明部304を介して、図33の位置600bに示すように、眼球照明ライト166cと166dを点灯する。眼球照明部304は、消費電力を下げるために、眼球照明ライト166a及び166bを消灯させる。
以上の処理により、本実施形態のHMD1は、ユーザーの眼と表示部60との位置関係に応じて眼球を照明するライトの選択が適宜行うことが可能となる。さらに、本実施形態のHMD1は、使用しない眼球照明ライト166を消灯することで効率的な省電力対策が可能となっている。
以上の処理により、本実施形態のHMD1は、ユーザーの眼と表示部60との位置関係に応じて眼球を照明するライトの選択が適宜行うことが可能となる。さらに、本実施形態のHMD1は、使用しない眼球照明ライト166を消灯することで効率的な省電力対策が可能となっている。
(ステップS504)画像切替部306は、ステップS502またはS503終了後、図34に示すようなパスワード入力画面(表示画像)を、LCD63に表示する。これは一般に普及しているモバイル用途のPCや携帯電話で用いられている、ユーザーが設定したパスワードを入力するもので、他人が使用することを防ぐことを目的にしている。
図34は、本実施形態に係るパスワード入力画面400eの一例である。図34において、パスワード入力画面400eの長手方向をX軸方向、短手方向をZ軸方向とする。図34に示すように、LCD63上には、AからZまでのアルファベット・キー(操作画像)461、記号キー(操作画像)462、シフトキー(操作画像)463、10キー切り替えキー(操作画像)464、スペースキー(操作画像)465、決定(Done)キー(操作画像)466、入力された文字を表示する領域467、及びカーソル468が表示される。また、図34において、符号Dxは、X軸方向の座標、符号Dzは、Z軸方向の座標を表す。
図34は、本実施形態に係るパスワード入力画面400eの一例である。図34において、パスワード入力画面400eの長手方向をX軸方向、短手方向をZ軸方向とする。図34に示すように、LCD63上には、AからZまでのアルファベット・キー(操作画像)461、記号キー(操作画像)462、シフトキー(操作画像)463、10キー切り替えキー(操作画像)464、スペースキー(操作画像)465、決定(Done)キー(操作画像)466、入力された文字を表示する領域467、及びカーソル468が表示される。また、図34において、符号Dxは、X軸方向の座標、符号Dzは、Z軸方向の座標を表す。
表示画像とは、LCD63に表示される画像であり、図34に示したパスワード入力画面、後述するメニュー画面等である。また、操作画像とは、表示画像上に表示され、ユーザーが操作部(操作スイッチ30、タッチスイッチ34)により選択可能な、各々のキー画像、各々のボタン画像、各々のアイコン画像、カーソル画像等である。上述のように、これらの表示画像は、表示されたことに応じて、ユーザーが操作部を操作して、操作画像の選択を行うことを促す画像を含んでいる。
(ステップS505)図30に戻って、制御部302は、パラメータのサフィックス(文字列)となる「i」をゼロに初期化する。
(ステップS506)制御部302は、サフィックス「i」に1を加算する。
(ステップS507)制御部302は、撮像素子72が撮像した撮像画像(含む映像)を取得する。次に、制御部302は、取得した撮像画像に基づいて、眼球に照射されている眼球照明ライト166a〜166dによる輝点の座標(第2座標)(Ex(i),Ez(i))を取得する。第2座標は、眼球の回動動作、すなわち視線の方向に1対1で対応する座標である。
制御部302が取得した撮像画像は、例えば図11である。図11に示すように、眼球照明ライト166aによる輝点604A、及び眼球照明ライト166bによる輝点604Bが画像に映っており、この輝点が眼球の運動に連動して移動する。すなわち、眼球が左側に動く場合、輝点604A及び604Bは、+X側へ移動する。また、眼球が左側に動く場合、同輝点は、−X側へ移動する。また、眼球が上方に動く場合、輝点は、+Z側へ移動し、眼球が下方向に動く場合、輝点が−Z側に移動する。この眼球の動きは、LCD63内の表示で何処を注視するかによって、LCD63内の位置と輝点の位置が一義的に決定される。
図34のパスワード入力画面400eにおいて、カーソル468が表示される。カーソル468は、ユーザーが操作スイッチ30を上下左右に倒して操作することで、カーソル468の位置を上下左右に動かすことが可能となっている。そして、図34に示すように、例えばパスワードの一文字として「P」が選択された場合、カーソル468が「P」の文字の所に移動され、さらに操作スイッチ30が押圧されて、「P」の文字が入力される。
この操作スイッチ30が押圧される直前において、ユーザーは、「P」の文字を注視している確率が非常に高いので、このときの眼の輝点の座標を取り込む。なお、制御部302は、図11における2つの輝点604Aの座標(Xa,Za)、輝点604Bの座標(Xb,Zb)の平均を取った値を用いて、パスワード1文字目を注視したときの眼の輝点のX軸及びY軸の測定値Ex(1)、Ez(1)を、次式(2)及び次式(3)のように算出する。
この操作スイッチ30が押圧される直前において、ユーザーは、「P」の文字を注視している確率が非常に高いので、このときの眼の輝点の座標を取り込む。なお、制御部302は、図11における2つの輝点604Aの座標(Xa,Za)、輝点604Bの座標(Xb,Zb)の平均を取った値を用いて、パスワード1文字目を注視したときの眼の輝点のX軸及びY軸の測定値Ex(1)、Ez(1)を、次式(2)及び次式(3)のように算出する。
Ex(1)= (Xa+Xb)/2 ・・・(2)
Ez(1)= (Za+Zb)/2 ・・・(3)
制御部302は、算出した測定値の座標(Ex(i),Ez(i))を、記憶部303に記憶させる。
(ステップS508)図30に戻って、制御部302は、文字が表示されているLCD63上の座標(第1座標)である(Dx(i),Dz(i))を取得する。例えば図34において「P」の文字が選択された場合、制御部302は、文字「P」の座標が取得し、パスワード1文字目の座標として(Dx(1)、Dz(1))を取得する。このように、第1座標は、LCD63に表示される表示画像内における操作画像の座標である。また、操作画像には、各々、予め定められている基準点が記憶部303に記憶されているようにしてもよい。予め定められている基準点は、例えば操作画像の角(左上、右上、左下、または右下)、操作画像の中心等である。制御部302は、選択された操作画像に予め定められている基準点の座標を取得する。または、制御部302は、文字「P」におけるカーソル468の矢印の先端の基準点を座標の代わりに取得し、取得した座標を第1座標としてもよい。
(ステップS509)制御部302は、ユーザーにより設定されているパスワードの認証が完了したか否かを判別する。パスワードの認証が完了したと判別した場合(ステップS509;Yes)、ステップS510に進む。パスワードの認証が完了していないと判別した場合(S509;No)、ステップS506からS509を繰り返す。
なお、ステップS507からS509において、複数のパスワードの文字が選ばれることで眼の輝点の測定座標である(Ex(i),Ez(i))、そしてLCD63上の文字の位置座標である(Dx(i),Dz(i))の値が得られる。また、パスワードの入力が終わったとユーザーが判別した場合、ユーザーは、操作スイッチ30でDoneキー466を選択して押す。このとき、制御部302は、Doneキー466の座標も取得する。
なお、ステップS507からS509において、複数のパスワードの文字が選ばれることで眼の輝点の測定座標である(Ex(i),Ez(i))、そしてLCD63上の文字の位置座標である(Dx(i),Dz(i))の値が得られる。また、パスワードの入力が終わったとユーザーが判別した場合、ユーザーは、操作スイッチ30でDoneキー466を選択して押す。このとき、制御部302は、Doneキー466の座標も取得する。
(ステップS510)ステップS312までのパスワードの入力作業によって、眼の輝点の測定値と、これに対応する文字の位置情報が得られる。このため、この後は、取得した輝点の座標を測定すれば、ユーザーがLCD63上のどこを注視しているのかが分かるようになる。すなわち、これらの処理により、視線入力による操作が可能になる。そこで、制御部302は、この測定値(Ex,Ez)に基づいて、表示位置(Dx,Dz)を求める関数式を、次式(4)及び次式(5)のように生成する。
Dx = F1(Ex、Ez) ・・・(4)
Dz = F2(Ex、Ez) ・・・(5)
式(4)及び(5)において、F1は、Dxと(Ex、Ez)の関数、F2は、Dzと(Ex、Ez)の関数である。次に、制御部302は、生成した式(4)及び(5)を、記憶部303に記憶させる。
(ステップS511)パスワードの入力が完了したことを受け、画像切替部306は、図35に示すようなメニューのアイコンを表示する。
図35は、本実施形態に係るメニュー画面(表示画像)400fの一例を示す図である。図35に示した例では、メニュー画面400fに9つのアイコン(操作画像)471から479、及びカーソル(操作画像)480が表示されている。例えば、アイコン471は、動画撮像の指示を示すアイコンである。なお、アイコン471から479、各々をアプリケーションと称する。また、これらの中でアイコン471は、視線によって入力する機能を有するアプリケーションであることから、特に視線入力アプリケーションと称する。
なお、このアイコン471が表す動画撮影を行うアプリケーションでは、カメラ64で動画撮影ならびに記録を行うとともに、後述するように画面に表示されるマーカーの移動や、ボタンの操作を視線入力で行うことが可能となっている。
初期状態では、図35に示したように、アイコン471の位置に、カーソル480が表示される。
図35は、本実施形態に係るメニュー画面(表示画像)400fの一例を示す図である。図35に示した例では、メニュー画面400fに9つのアイコン(操作画像)471から479、及びカーソル(操作画像)480が表示されている。例えば、アイコン471は、動画撮像の指示を示すアイコンである。なお、アイコン471から479、各々をアプリケーションと称する。また、これらの中でアイコン471は、視線によって入力する機能を有するアプリケーションであることから、特に視線入力アプリケーションと称する。
なお、このアイコン471が表す動画撮影を行うアプリケーションでは、カメラ64で動画撮影ならびに記録を行うとともに、後述するように画面に表示されるマーカーの移動や、ボタンの操作を視線入力で行うことが可能となっている。
初期状態では、図35に示したように、アイコン471の位置に、カーソル480が表示される。
なお、図35のメニュー画面は、例えば、処理部123の制御を司るOS(オペレーションシステム)において、各種設定を行うメニュー画面(表示画像)であってもよい。各種設定を行うメニュー画面とは、例えば、表示パネル63の輝度調整、表示パネル63のコントラスト調整、日時設定、スタンバイ状態にするか否かの設定等の各種設定ボタン(またはアイコン、キー等)が表示されている画面である。
また、メニュー画面400fにアイコンが表示されるアプリケーションは、HMD1内部で実行されるアプリケーションに限られない。例えば、アイコンが表示されるアプリケーションは、通信を行っている通信相手が使用しているHMD、PCで実行されるアプリケーションであってもよい。また、アイコンが表示されるアプリケーションは、インターネット等のネットワーク上で実行される、例えばWeb(ウェブ)アプリケーション等であってもよい。
また、メニュー画面400fにアイコンが表示されるアプリケーションは、HMD1内部で実行されるアプリケーションに限られない。例えば、アイコンが表示されるアプリケーションは、通信を行っている通信相手が使用しているHMD、PCで実行されるアプリケーションであってもよい。また、アイコンが表示されるアプリケーションは、インターネット等のネットワーク上で実行される、例えばWeb(ウェブ)アプリケーション等であってもよい。
(ステップS512)図30に戻って、制御部302は、メニュー画面において、操作スイッチ30により手動操作でアイコン471が選択されたか否かを判別する。操作スイッチ30により手動操作でアイコン471が選択されていないと判別した場合(ステップS512;No)、ステップS513に進む。操作スイッチ30により手動操作でアイコンが選択されたと判別した場合(ステップS512;Yes)、丸C(図31、ステップS519)に進む。
(ステップS513)制御部302は、アイコン471以外のアプリケーションが選択されたか否かを判別する。アイコン471以外のアプリケーションが選択されたと判別された場合(ステップS513;Yes)、ステップS514に進み、制御部302は、ユーザーの行うメニュー操作の中で、さらに視線入力の精度を高めるべくキャリブレーションを行う。アイコン471以外のアプリケーションが選択されていないと判別された場合(ステップS513;No)、ステップS512に戻る。
(ステップS514)アイコン471以外のアプリケーションが選択されたと判別された場合、制御部302は、サフィックス「i」に1を加算する。
(ステップS515)制御部302は、撮像画像を取得する。次に、制御部302は、取得した撮像画像に基づいて、眼球に照射されている眼球照明ライト166a〜166dによる輝点の座標(Ex(i),Ez(i))を取得する。
(ステップS516)制御部302は、選択されたアイコンが表示されているLCD63上の座標である(Dx(i),Dz(i))を取得する。
(ステップS517)制御部302は、自部に記憶されている関係式(4)及び(5)を再計算して、再計算して生成した関係式を、記憶部303に記憶させる。
(ステップS518)制御部302は、選択されたアプリケーション(またはメニュー)を実行する。アプリケーション実行後、ステップS511に戻る。
すなわち、制御部302は、操作スイッチ30などによってアイコン、チェックボックス等が選択される毎に、輝度の座標を取得し、かつ関係式(4)及び(5)を再計算することで、注視点検出のためのキャリブレーションを行う。なお、メニュー画面400fを含め、各種アプリケーションが実行される中で、アイコンやチェックボックスなどの選択がなされる度に、そのアイコンやチェックボックスを注視点として、注視点検出のためのキャリブレーションを逐次行ってもよい。
すなわち、制御部302は、操作スイッチ30などによってアイコン、チェックボックス等が選択される毎に、輝度の座標を取得し、かつ関係式(4)及び(5)を再計算することで、注視点検出のためのキャリブレーションを行う。なお、メニュー画面400fを含め、各種アプリケーションが実行される中で、アイコンやチェックボックスなどの選択がなされる度に、そのアイコンやチェックボックスを注視点として、注視点検出のためのキャリブレーションを逐次行ってもよい。
(ステップS519)図31に移って、操作スイッチ30により手動操作でアイコン471が選択されたと判別した場合、制御部302は、サフィックス「i」に1を加算する。
(ステップS520)制御部302は、選択されたアイコンが表示されているLCD63上の座標である(Dx(i),Dz(i))を取得する。
(ステップS521)制御部302は、自部に記憶されている関係式(4)及び(5)を再計算して、再計算して生成した関係式を、記憶部303に記憶させる。
(ステップS522)制御部302は、視線入力のアプリを実行する前に、注視点検出のためのキャリブレーションが十分に行われたか否かの判別をする。具体的には、例えばパスワードの登録が一文字であれば、キャリブレーションが十分に行われたとは言えない可能性がある。例えば、少なくとも、パスワード入力画面400e、またはメニュー画面400fにおいて、異なる2つの位置の注視点検出が行われた場合、制御部302は、キャリブレーションが十分に行われたと判別する。なお、異なる2つの位置は、パスワード入力画面400e、またはメニュー画面400f内の対角位置に配置されている位置である。
キャリブレーションが十分に行われたと判別された場合(ステップS522;Yes)、ステップS527に進む。キャリブレーションが十分に行われていないと判別された場合(ステップS522;No)、ステップS523に進む。
キャリブレーションが十分に行われたと判別された場合(ステップS522;Yes)、ステップS527に進む。キャリブレーションが十分に行われていないと判別された場合(ステップS522;No)、ステップS523に進む。
(ステップS523〜S526)制御部302は、画像切替部306を介して、図36に示すような再度、ユーザーの入力を促す文章を提示する。制御部302は、図36に示す画面(表示画像)を追加で提示し、この画面をユーザーが操作するとき、LCD63上の座標である(Dx(i),Dz(i))、及び眼球照明ライト166a〜166dによる輝点の座標(Ex(i),Ez(i))を取得して、注視点検出のためのキャリブレーションを行う。
図36は、本実施形態に係るユーザーに入力を促す画面の一例である。図36に示すように、画面400gには、文字列「視線入力モードを使いますか?」481、「はい」ボタン(操作画像)482、及び「いいえ」ボタン(操作画像)483が表示されている。
例えば、図36において、「はい」ボタン482が視線入力により選択された場合、図34において、Doneキー466、図35において動画撮像の指示のアイコン471がすでに選択されているため、画面の互いにはなれた3箇所のボタン(またはキー、アイコン)が押されたことになり、ある程度信頼のおけるキャリブレーションが完了したことになる。そして、制御部302は、ステップS519からS521と同様の処理を、ステップS523からS526の処理で行い、(Dx,Dz)を求める関数式が導き出す。
図36は、本実施形態に係るユーザーに入力を促す画面の一例である。図36に示すように、画面400gには、文字列「視線入力モードを使いますか?」481、「はい」ボタン(操作画像)482、及び「いいえ」ボタン(操作画像)483が表示されている。
例えば、図36において、「はい」ボタン482が視線入力により選択された場合、図34において、Doneキー466、図35において動画撮像の指示のアイコン471がすでに選択されているため、画面の互いにはなれた3箇所のボタン(またはキー、アイコン)が押されたことになり、ある程度信頼のおけるキャリブレーションが完了したことになる。そして、制御部302は、ステップS519からS521と同様の処理を、ステップS523からS526の処理で行い、(Dx,Dz)を求める関数式が導き出す。
なお、入力用の表示とは、図34における各キー(461〜466)、図35における各アイコン471〜479、図36における各ボタン(482、483)等である。ここで、キャリブレーションが不足している位置が画面内にある場合、Doneキー466は、表示位置を適宜変更し、キャリブレーションが必要とされる位置に表示されてもよい。
(ステップS527)図31に戻って、制御部302は、画像切替部306を介して、カメラ64が撮像した画像を、図37に示すように、LCD63に表示する。
図37は、本実施形態に係る視線入力のアプリケーションの画面400hの説明を行う図である。図37に示した例では、画面400(表示画像)hには、撮像された画像491、マーカー(操作画像)492、「終了ボタン」(操作画像)493、「記録ボタン」(操作画像)494、及び「メニューボタン」(操作画像)495が表示されている。マーカー492は、ユーザーが画像491において、必要な位置を指し示すマーカーである。「終了ボタン」493は、アプリケーションを終了させ、図35に示したメニュー画面400fに戻るボタンである。また、「記録ボタン」494は、カメラ64が撮像した画像信号を、フラッシュメモリー122に記録開始するボタンである。「メニューボタン」495は、このアプリケーション固有の設定を行うための不図示のメニューを表示させるためのボタンである。
なお、HMD1が、他の端末と通信中の場合、撮像された画像491は、送受信部308を介して、他の端末に送信される。
本実施形態のHMD1は、画面400hに示すように、ユーザーが観察しつつカメラ64で撮影している画像において、商品496をカーソルで指し示す画像を他の端末に送信することで、商品496について具体的に相手に伝えることが可能となっている。
図37は、本実施形態に係る視線入力のアプリケーションの画面400hの説明を行う図である。図37に示した例では、画面400(表示画像)hには、撮像された画像491、マーカー(操作画像)492、「終了ボタン」(操作画像)493、「記録ボタン」(操作画像)494、及び「メニューボタン」(操作画像)495が表示されている。マーカー492は、ユーザーが画像491において、必要な位置を指し示すマーカーである。「終了ボタン」493は、アプリケーションを終了させ、図35に示したメニュー画面400fに戻るボタンである。また、「記録ボタン」494は、カメラ64が撮像した画像信号を、フラッシュメモリー122に記録開始するボタンである。「メニューボタン」495は、このアプリケーション固有の設定を行うための不図示のメニューを表示させるためのボタンである。
なお、HMD1が、他の端末と通信中の場合、撮像された画像491は、送受信部308を介して、他の端末に送信される。
本実施形態のHMD1は、画面400hに示すように、ユーザーが観察しつつカメラ64で撮影している画像において、商品496をカーソルで指し示す画像を他の端末に送信することで、商品496について具体的に相手に伝えることが可能となっている。
(ステップS528)図31に戻って、制御部302は、ユーザーがボタン493から495を操作スイッチ30で選択したか否かを判別する。ユーザーがボタン493から495を操作スイッチ30で選択したと判別した場合(ステップS528;Yes)、ステップS535に進む。ユーザーがボタン493から495を操作スイッチ30で選択していないと判別した場合(ステップS528;No)、ステップS529に進む。
(ステップS529)ユーザーがボタン493から495を操作スイッチ30で選択していないと判別した場合、制御部302は、ユーザーの眼における輝点の座標(Ex,Ez)を取得する。次に、制御部302は、取得した座標と、式(4)及び(5)の関数を用いて、ユーザーがどこを注視しているのかを算出する。
(ステップS530)制御部302は、算出した座標の位置に、マーカー492を表示する。
なお、HMD1は、マーカー492の画像が重畳された画像として、他の端末に対して送信する。そして、ユーザーが注視点を動かせばマーカー492も動くことから、ハンズフリーで他の端末のユーザーへ、注視点を伝えることが可能となっている。
なお、HMD1は、マーカー492の画像が重畳された画像として、他の端末に対して送信する。そして、ユーザーが注視点を動かせばマーカー492も動くことから、ハンズフリーで他の端末のユーザーへ、注視点を伝えることが可能となっている。
(ステップS531)制御部302は、マーカー492が、ボタン493、494、及び495の上にあるか否かを判別する。マーカー492が、ボタン493、494、及び495の上にあると判別された場合(ステップS531;Yes)、ステップS532に進む。マーカー492が、ボタン493、494、及び495の上にないと判別された場合(ステップS531;No)、ステップS528に戻る。
(ステップS532)マーカー492が、ボタン493、494、及び495の上にあると判別された場合、制御部302は、撮像画像に基づいて、ユーザーの瞼が短時間に2回連続して瞑られたか否かを判別する。なお、制御部302は、パターンマッチングの技術や画像の特徴量による画像比較の技術を用いて判別を行う。ユーザーの瞼が短時間に2回連続して瞑られたと判別された場合(ステップS532;Yes)、ステップS533に進む。ユーザーの瞼が短時間に2回連続して瞑られていないと判別された場合(ステップS532;No)、ステップS528に戻る。
(ステップS533)ユーザーの瞼が短時間に2回連続して瞑られたと判別された場合、制御部302は、瞬き2回によって「終了ボタン」493が選択されたか否かを判別する。瞬き2回によって「終了ボタン」493が選択されたと判別された場合(ステップS533;Yes)、丸D(図30、S511)に進む。瞬き2回によって「終了ボタン」493が選択されず、すなわち、その他のボタンが選択されたと判別された場合(ステップS533;No)、ステップS534に進む。
(ステップS534)瞬き2回によって「終了ボタン」493が選択されていないと判別された場合、制御部302は、選択されたボタンに対応した操作を行い、ステップS528に戻る。
(ステップS535〜S538)ユーザーがボタン493から495を操作スイッチ30で選択したと判別された場合、制御部302は、ボタン493から495の座標と、ユーザーの眼の輝点を元に、ステップS535からS538の処理を行って、注視点検出のキャリブレーションを行う。
(ステップS539)制御部302は、操作スイッチ30により「終了ボタン」493が選択されたか否かを判別する。操作スイッチ30により「終了ボタン」493が選択されたと判別された場合(ステップS539;Yes)、丸D(図30、S511)に進む。操作スイッチ30により「終了ボタン」493が選択されていないと判別された場合(ステップS539;No)、ステップS540に進む。
(ステップS540)操作スイッチ30により「終了ボタン」493が選択されず、すなわち、その他のボタンが選択されたとていない判別された場合、制御部302は、選択されたボタンに対応した操作を行い、ステップS331に戻る。
なお、実施形態のHMD1では、視線入力のアプリケーションを開始する前であっても、ならびに同アプリケーションを実行中であっても、操作部の操作によって操作画像が選択されたとき毎に、注視点検出のための計算式のキャリブレーションを行う。この結果、実施形態のHMD1によれば、ユーザーが操作部を操作したタイミングで注視点検出のためのキャリブレーションを、操作画像が選択されたとき毎に自動的に行うため、高い精度で視線入力が可能になっている。また、この注視点検出のためのキャリブレーションにおいて、上述したように、本実施形態のHMD1では、ユーザーの片眼を含む領域の画像を用いて行い、両眼を含む画像を撮影する必要がないため、HMD1を小型化できる。
また、本実施形態のHMD1では、「眼球照明ランプの選択処理」で設定された眼球照明ライト166を点灯及び消灯することで、ユーザーの眼に適切な光線を照射することができる。このため、注視点検出のためのキャリブレーションを精度良く行うことができる。
また、本実施形態のHMD1では、「眼球照明ランプの選択処理」で設定された眼球照明ライト166を点灯及び消灯することで、ユーザーの眼に適切な光線を照射することができる。このため、注視点検出のためのキャリブレーションを精度良く行うことができる。
なお、本実施形態において表示画像の例として、パスワード入力画像、メニュー画像を説明したがこれに限られない。表示画像は、ユーザーが操作部を操作して、操作画像の選択を促す画像であればよい。また、操作画像も、ユーザーが操作部を操作して、該操作画像の選択を促す画像であればよい。
また、図31のステップS522で、キャリブレーションが十分でないと判別された場合、表示画像に表示されている操作画像の表示位置を変更して表示するようにしてもよく、操作画像の大きさを変更して表示するようにしてもよい。あるいは、操作画像を含む新たな表示画像をLCD63に表示するようにしてもよい。
また、図31のステップS522で、キャリブレーションが十分でないと判別された場合、表示画像に表示されている操作画像の表示位置を変更して表示するようにしてもよく、操作画像の大きさを変更して表示するようにしてもよい。あるいは、操作画像を含む新たな表示画像をLCD63に表示するようにしてもよい。
なお、図9〜図15を用いて説明したように、注視点検出のためのキャリブレーションの前に、画像の大きさを縮小させ、位置を移動させた場合、例えば、選択した表示領域Tに、パスワード入力画面400e、メニュー画面400f等を縮小して表示するようにしてもよい。また、注視点検出のためのキャリブレーションを行った後に、画像の大きさを縮小させ、位置を移動させた表示して視線入力を行う場合、表示位置、及び画像の縮小率に基づいて、記憶部303に記憶されている関係式の値を補正することで座標を変換するようにしてもよい。
なお、処理部123は、ユーザーの眼の位置を撮像画像に基づいて検出する場合、眼球照明ライト166を点灯させてもよい。また、処理部123は、ユーザーの眼が表示部60から離れた場合(図12及び図14を参照)、表示領域の縮小率を算出するために、輝点604A及び輝点604Bの間隔(図11を参照)と、輝点604C及び輝点604Dの間隔(図12を参照)との比を測定する。
この処理により、図9に示すところの表示領域Sを表示領域Tに縮小することで、処理部123は、ユーザーが表示全体を見渡せるようにすることが可能である。さらに、輝点604Aと輝点604Bとの中間の位置よりも、輝点604Eと輝点604F(図14を参照)との中間の位置がずれていると判別される場合、処理部123は、ユーザーの眼がベクトルV1だけずれていることがわかる。このようにして、処理部123の画像切替部306(図22を参照)は、図9における表示領域Tを、表示領域Uまでシフトさせることが可能となっている。
この処理により、図9に示すところの表示領域Sを表示領域Tに縮小することで、処理部123は、ユーザーが表示全体を見渡せるようにすることが可能である。さらに、輝点604Aと輝点604Bとの中間の位置よりも、輝点604Eと輝点604F(図14を参照)との中間の位置がずれていると判別される場合、処理部123は、ユーザーの眼がベクトルV1だけずれていることがわかる。このようにして、処理部123の画像切替部306(図22を参照)は、図9における表示領域Tを、表示領域Uまでシフトさせることが可能となっている。
なお、本実施形態では、注視点検出のためのキャリブレーションに、図34に示したパスワード入力画面等を用いる例を説明したが、これに限られない。操作スイッチ30により選択可能なキー、ボタン、アイコン等を、表示パネル63に表示させるようにしてもよい。この場合においても、従来技術とは異なり、キャリブレーションのためだけの表示ではなく、ユーザーが操作を行う必然性がある操作に関するキー、ボタン、アイコン等を表示する。ユーザーは、操作時に、これらのキー、ボタン、アイコン等を注視している確率が非常に高いので、操作時の撮像画像に基づいて、注視点検出のためのキャリブレーションを行うことができる。
次に、「乗り物検出の処理」、「居眠り検出の処理」について説明する。
図38及び図39は、本実施形態に係るHMDを用いた乗り物検出処理の手順のフローチャートである。なお、以下では、ユーザーがHMD1を頭部に装着している状態について説明する。
図38及び図39は、本実施形態に係るHMDを用いた乗り物検出処理の手順のフローチャートである。なお、以下では、ユーザーがHMD1を頭部に装着している状態について説明する。
(ステップS601)ユーザーは、先ず、操作スイッチ30またはタッチスイッチ34を操作して、目標地点の設定を行う。なお、目標地点とは、ユーザーが移動手段を利用して移動し、到達する目標とする場所であり、例えば住所、駅名、建物の名前等である。
(ステップS602)目標地点が設定されると、乗物検出部309は、GPSセンサー135からの測位情報を取得した取得回数を示すサフィックスiの値をゼロに初期化する。
(ステップS602)目標地点が設定されると、乗物検出部309は、GPSセンサー135からの測位情報を取得した取得回数を示すサフィックスiの値をゼロに初期化する。
(ステップS603)制御部302は、ユーザーの眼球を確認するために、眼球照明ライト166を、眼球照明部304を制御して点灯する。例えば、制御部302は、ユーザーが右目で観察している場合、眼球照明ライト166a、166bを点灯し、ユーザーが左目で観察している場合、眼球照明ライト166c、166dを点灯する。以下の説明では、説明を簡単とするため、単に、眼球照明ライト166を点灯すると説明する。
(ステップS604)制御部302は、撮像画像に基づいて、ユーザーが表示パネル63を観察しているかを判別する。制御部302は、ユーザーが表示パネル63を観察していると判別した場合(ステップS604;Yes)、ステップS605に進み、ユーザーが表示パネル63を観察していないと判別した場合(ステップS605;No)、ステップS606に進む。
(ステップS605)ユーザーが表示パネル63を観察していると判別した場合、制御部302は、バックライト62を点灯させる。
(ステップS606)ユーザーが表示パネル63を観察していないと判別した場合、制御部302は、バックライト62を消灯させる。
(ステップS607)制御部302は、眼球照明ライト166を消灯する。
(ステップS606)ユーザーが表示パネル63を観察していないと判別した場合、制御部302は、バックライト62を消灯させる。
(ステップS607)制御部302は、眼球照明ライト166を消灯する。
このように、本実施形態では、制御部302は、ユーザーの眼球を確認して、ユーザーが表示パネル63を観察しているか否かを判別し、バックライト62の点灯又は消灯を制御する。これにより、本実施形態では、無駄にバックライト62が点灯されることがなくなり、省電力化を図ることが可能となる。
(ステップS608)乗物検出部309は、測位情報を取得した取得回数を示すフィックスiの値を1加算する。
(ステップS609)乗物検出部309は、GPSセンサー135より、測位情報(現在の緯度、経度、高度、時刻情報)を取得する。
(ステップS609)乗物検出部309は、GPSセンサー135より、測位情報(現在の緯度、経度、高度、時刻情報)を取得する。
(ステップS610)乗物検出部309は、移動手段を検出する処理で用いるパラメータを予め自部に記憶している。パラメータLa(i)は、経度のパラメータであり、パラメータLo(i)は、緯度のパラメータである。パラメータAl(i)は、高度のパラメータであり、パラメータT(i)は、時刻のパラメータである。パラメータV(i)は、平均速度のパラメータであり、パラメータX(i)は、移動距離のパラメータである。パラメータP(i)は、位置情報のパラメータである。
乗物検出部309は、今回取得した測位情報に基づき、経度をパラメータLa(i)に入力し、緯度をパラメータLo(i)に入力する。また、乗物検出部309は、今回取得した測位情報に基づき、高度をパラメータAl(i)に入力し、時刻をパラメータT(i)に入力する。また、乗物検出部309は、各測位情報を入力した各パラメータを記憶部303に記憶させる。
乗物検出部309は、今回取得した測位情報に基づき、経度をパラメータLa(i)に入力し、緯度をパラメータLo(i)に入力する。また、乗物検出部309は、今回取得した測位情報に基づき、高度をパラメータAl(i)に入力し、時刻をパラメータT(i)に入力する。また、乗物検出部309は、各測位情報を入力した各パラメータを記憶部303に記憶させる。
(ステップS611)乗物検出部309は、記憶部303に記憶されている前回取得された経度La(i−1)、緯度Lo(i−1)と、今回取得された経度La(i)、緯度Lo(i)を用いて、前回の位置から今回の位置までに移動した移動距離X(i)を算出する。乗物検出部309は、算出した移動距離X(i)を記憶部303に記憶させる。
(ステップS612)移動距離X(i)を算出した後、乗物検出部309は、前回の時刻T(i−1)と今回の時刻T(i)との差分と、算出された移動距離X(i)より、前回の測定地点から現在の測定地点まで移動した平均速度V(i)を算出する。乗物検出部309は、算出した平均速度V(i)を記憶部303に記憶させる。
(ステップS613)乗物検出部309は、ステップS612で算出した平均速度V(i)と、GPSセンサー135から取得した高度の取得値を用いて、ユーザーが飛行機で移動中であるか否かを判別する。例えば、乗物検出部309は、平均速度V(i)が所定値(例えば時速300[km])より速く、且つ、高度がその地点の標高より所定値以上(例えば50m以上)高い場合には、ユーザーが飛行機で移動中であると判別する。ユーザーが飛行機で移動中の場合には、HMD1のユーザーが、パイロットなど特殊な職業を除いて、居眠りしていても問題はない。このため、乗物検出部309は、ユーザーが飛行機で移動中であると判別した場合(ステップS613;Yes)、ステップS614に進み、ユーザーが飛行機で移動中ではないと判別した場合(ステップS613;No)、ステップS615に進む。
(ステップS614)乗物検出部309は、ステップS601で設定した目標地点、ステップS609で取得した測位データ、及びステップS612で算出した平均速度V(i)に基づいて、現在地点と目標地点までの距離と到着予想時間を算出する。次に、乗物検出部309は、算出した現在地点と目標地点までの距離と到着予想時間を表示パネル63に表示する。
(ステップS615)ユーザーが飛行機で移動中ではないと判別した場合、乗物検出部309は、送受信部308を介してインターネットに接続する。次に、乗物検出部309は、ステップS609で取得した現在の緯度La(i)、経度Lo(i)に基づいて、現在の移動La(i)及び経度Lo(i)に対応する現在の位置情報P(i)をインターネット上から取得する。記憶部303に地図データが記憶されている場合、乗物検出部309は、現在の緯度La(i)、経度Lo(i)に基づいて、現在の移動La(i)及び経度Lo(i)に対応する現在の位置情報P(i)を記憶部303から読み出して取得するようにしてもよい。この現在の位置情報P(i)には、例えば、その場所が道路上なのか、線路なのか、川や湖や海の上なのか、ビル内なのか等の情報が含まれる。
(ステップS616)位置情報P(i)が取得できた場合、乗物検出部309は、加速度センサー132が検出した検出値に基づいて、現在の加速度A(i)(大きさと向き)を取得する。乗物検出部309は、この加速度A(i)の情報を、後に説明するように、乗り物の揺れの方向から乗り物の種類を検知するときに用いる。
(ステップS617)乗物検出部309は、ステップS612で算出した平均速度V(i)がほぼゼロであるか否かを判別する。この処理により、乗物検出部309は、ユーザーが静止しているか、または移動しているかを判別する。乗物検出部309は、平均速度V(i)がゼロではないと判別した場合(ステップS617;No)、ユーザーが移動していると判別し、ステップS618に進む。乗物検出部309は、平均速度V(i)がゼロであると判別した場合(ステップS617;Yes)、ユーザーが移動していない判別し、ステップS636(図39)に進む。
(ステップS618)乗物検出部309は、ユーザーが電車で移動中であるか否かの判別を行う。乗物検出部309は、ユーザーが電車で移動中であると判別した場合(ステップS618;Yes)、ステップS630(図39)に進み、ユーザーが電車で移動中ではないと判別した場合(ステップS618;No)、ステップS619へ移行する。
乗物検出部309は、例えば、GPSセンサー135から測位情報を複数回、取得し、取得した各々の測位情報に基づいて、移動中の各々の位置情報を取得する。乗物検出部309は、取得した複数の位置情報のうち、連続する時刻の連続する複数の位置情報が、線路上である場合、単に踏切を横切ったのではなく、ユーザーが電車で移動中であると判断する。なお、今回の位置情報P(i)のみが線路上である場合には、踏切を通過中である可能性があるため、乗物検出部309は、ユーザーが電車で移動中ではないと判別する。
乗物検出部309は、例えば、GPSセンサー135から測位情報を複数回、取得し、取得した各々の測位情報に基づいて、移動中の各々の位置情報を取得する。乗物検出部309は、取得した複数の位置情報のうち、連続する時刻の連続する複数の位置情報が、線路上である場合、単に踏切を横切ったのではなく、ユーザーが電車で移動中であると判断する。なお、今回の位置情報P(i)のみが線路上である場合には、踏切を通過中である可能性があるため、乗物検出部309は、ユーザーが電車で移動中ではないと判別する。
(ステップS619)ユーザーが電車で移動中ではないと判別した場合、乗物検出部309は、ユーザーがバスで移動中であるか否かの判別を行う。乗物検出部309は、ユーザーがバスで移動中であると判別した場合(ステップS619;Yes)、制御部302は、ステップS630(図39)に進み、ユーザーがバスで移動中ではないと判別した場合(ステップS619;No)、ステップS620に進む。
乗物検出部309は、ユーザーがバスで移動中であるか否かの判別を、ステップS615で取得した今回の位置情報P(i)及び前回の位置情報P(i−1)と、ステップS616で加速度センサー132から取得された加速度情報A(i)とを用いて、例えば以下のように判別する。例えば、ユーザーがバスで移動中である場合、今回の位置情報P(i)、及び前回までの位置情報P(i−1)は連続した道路とみなせる。また、ユーザーがバスで移動中の場合、ユーザーは運転せずに進行方向に対して正面を見ていないとすると、加減速による加速度が頭部に対して横方向に加わる。このことから、乗物検出部309は、今回の位置情報P(i)及び前回までの位置情報P(i−1)は連続した道路であるか否かを判別する。そして、乗物検出部309は、今回の位置情報P(i)及び前回までの位置情報P(i−1)が連続した道路である場合、更に、加速度A(i)の方向を検知し、加速度A(i)が頭部に対して常に横方向に加わっている場合に、ユーザーがバスで移動中であると判別する。
乗物検出部309は、ユーザーがバスで移動中であるか否かの判別を、ステップS615で取得した今回の位置情報P(i)及び前回の位置情報P(i−1)と、ステップS616で加速度センサー132から取得された加速度情報A(i)とを用いて、例えば以下のように判別する。例えば、ユーザーがバスで移動中である場合、今回の位置情報P(i)、及び前回までの位置情報P(i−1)は連続した道路とみなせる。また、ユーザーがバスで移動中の場合、ユーザーは運転せずに進行方向に対して正面を見ていないとすると、加減速による加速度が頭部に対して横方向に加わる。このことから、乗物検出部309は、今回の位置情報P(i)及び前回までの位置情報P(i−1)は連続した道路であるか否かを判別する。そして、乗物検出部309は、今回の位置情報P(i)及び前回までの位置情報P(i−1)が連続した道路である場合、更に、加速度A(i)の方向を検知し、加速度A(i)が頭部に対して常に横方向に加わっている場合に、ユーザーがバスで移動中であると判別する。
(ステップS620)ユーザーがバスで移動中ではないと判別した場合、乗物検出部309は、ユーザーが船舶で水路上を移動中であるか否かを判別する。乗物検出部309は、ユーザーが船舶で水路上を移動中であると判別した場合(ステップS620;Yes)、ステップS630(図39)に進み、ユーザーが船舶で水路上を移動中ではないと判別した場合(ステップS620;No)、ステップS621に進む。
乗物検出部309は、ユーザーが船舶で水路を移動中であるか否かを、例えば、ステップS615で取得した今回の位置情報P(i)及びそれまでの位置情報P(i−1)から、その場所が川や湖、海等の水路上であるか否かにより判別する。なお、ここでは一般的にユーザーが船舶を操縦しないことを前提としているが、ユーザーは、船舶の操縦をしているか否かを、操作スイッチ30を操作して手動で設定することが可能である。このように、船舶の操縦を行っていることが設定された場合、居眠検出部310は、以下の処理においてユーザーの移動中に居眠り検出を行う。
乗物検出部309は、ユーザーが船舶で水路を移動中であるか否かを、例えば、ステップS615で取得した今回の位置情報P(i)及びそれまでの位置情報P(i−1)から、その場所が川や湖、海等の水路上であるか否かにより判別する。なお、ここでは一般的にユーザーが船舶を操縦しないことを前提としているが、ユーザーは、船舶の操縦をしているか否かを、操作スイッチ30を操作して手動で設定することが可能である。このように、船舶の操縦を行っていることが設定された場合、居眠検出部310は、以下の処理においてユーザーの移動中に居眠り検出を行う。
ステップS618〜ステップS620において、ユーザーが電車で移動中ではなく、バスで移動中ではなく、及び船舶で水路上を移動中ではないと判別した場合、乗物検出部309は、ユーザーが公共交通機関を利用した移動を行っていないと判別する。すなわち、ユーザーは、徒歩や自転車により移動しているか、車両を運転して移動している可能性がある。このように車両や自転車を運転している場合、居眠りは危険である。このため、居眠り(目瞑り)検出を行い、警告を行う必要がある。このため、HMD1は、以下のステップS621により「居眠り検出処理」を行う。
(ステップS621)居眠検出部310は、撮像画像に基づいて、所定時間、例えば1秒間、ユーザーの眼が目瞑り状態であるかどうかを判別する。居眠検出部310は、所定時間、ユーザーの眼が目瞑り状態であると判別した場合(ステップS621;Yes)、ステップS622に進み、ユーザーの眼が目瞑り状態ではないと判別した場合(ステップS621;No)、ステップS623に進む。
居眠検出部310は、例えば、パターンマッチングの手法を用いて、比較画像と撮像画像とを比較して、複数の撮像画像からユーザーの瞼を含む領域の画像を各々抽出する。居眠検出部310は、例えば抽出した各々のユーザーが瞼を少なくとも半ば閉じている画像が、ユーザーの片眼を含む領域の画像において所定の割合より多く、かつ抽出した各々のユーザーの瞼を閉じている画像の撮像時刻が連続している場合、ユーザーの眼が目瞑り状態であると判定する。居眠検出部310は、例えば各々のユーザーが瞼を少なくとも半ば閉じている画像が瞼を開いている画像に対して所定の割合より少なく、または抽出した各々のユーザーの瞼を閉じている画像の撮像時刻が連続していない場合、ユーザーの眼が目瞑り状態でないと判定する。
居眠検出部310は、例えば、パターンマッチングの手法を用いて、比較画像と撮像画像とを比較して、複数の撮像画像からユーザーの瞼を含む領域の画像を各々抽出する。居眠検出部310は、例えば抽出した各々のユーザーが瞼を少なくとも半ば閉じている画像が、ユーザーの片眼を含む領域の画像において所定の割合より多く、かつ抽出した各々のユーザーの瞼を閉じている画像の撮像時刻が連続している場合、ユーザーの眼が目瞑り状態であると判定する。居眠検出部310は、例えば各々のユーザーが瞼を少なくとも半ば閉じている画像が瞼を開いている画像に対して所定の割合より少なく、または抽出した各々のユーザーの瞼を閉じている画像の撮像時刻が連続していない場合、ユーザーの眼が目瞑り状態でないと判定する。
(ステップS622)ユーザーの眼が目瞑り状態であると判別した場合、居眠検出部310は、居眠警告情報を生成して、生成した居眠警告情報を音響制御部305に出力する。音響制御部305は、居眠警告情報に基づいて、耳元スピーカー23から警告音を発して、ユーザーに目を覚ますように注意を促す。
(ステップS623)乗物検出部309は、ユーザーが徒歩で移動中であるか否かを判別する。乗物検出部309は、ユーザーが徒歩で移動中であると判別した場合(ステップS623;Yes)、ステップS624に進み、ユーザーが徒歩で移動中ではないと判別した場合(ステップS623;No)、ステップS625へ移行する。
乗物検出部309は、ユーザーが徒歩で移動中であるか否かを、例えば、ステップS612で算出された平均速度V(i)と、ステップS616で加速度センサー132から取得された加速度情報A(i)とを用いて判別する。例えば、ユーザーが徒歩で移動している場合の平均速度V(i)は、所定速度、例えば時速20[km]以下である。また、ユーザーが徒歩で移動している場合は、左右の足の踏みだしに同期して、例えば1〜6ヘルツである一定の振動により加速度が生じる。したがって、乗物検出部309は、平均速度V(i)が例えば時速20[km]以下である場合、かつ加速度の振動の周期が例えば1〜6ヘルツである場合、ユーザーが徒歩で移動中であると判別する。
乗物検出部309は、ユーザーが徒歩で移動中であるか否かを、例えば、ステップS612で算出された平均速度V(i)と、ステップS616で加速度センサー132から取得された加速度情報A(i)とを用いて判別する。例えば、ユーザーが徒歩で移動している場合の平均速度V(i)は、所定速度、例えば時速20[km]以下である。また、ユーザーが徒歩で移動している場合は、左右の足の踏みだしに同期して、例えば1〜6ヘルツである一定の振動により加速度が生じる。したがって、乗物検出部309は、平均速度V(i)が例えば時速20[km]以下である場合、かつ加速度の振動の周期が例えば1〜6ヘルツである場合、ユーザーが徒歩で移動中であると判別する。
(ステップS624)ユーザーが徒歩で移動中であると判別した場合、乗物検出部309は、徒歩用の制御及び徒歩用のナビデーションを行う。乗物検出部309は、例えばユーザーが徒歩で移動中であることから、ユーザーが表示パネル63を覗かないようにバックライト62を消灯する。乗物検出部309は、徒歩用のナビゲーションを音響制御部305に出力する。音響制御部305は、この徒歩用のナビゲーションを耳元スピーカー23から出力する。徒歩用のナビゲーションとは、目標地点までの経路を案内するものであり、例えば、「次の交差点を右に曲がってください。」等の音声によるアナウンスである。
なお、ユーザーが歩行をやめて立ち止まった場合、平均速度V(i)はV(i)=0と算出されるので、乗物検出部309は、ステップS636に進む。
なお、ユーザーが歩行をやめて立ち止まった場合、平均速度V(i)はV(i)=0と算出されるので、乗物検出部309は、ステップS636に進む。
(ステップS625)乗物検出部309は、ユーザーが自転車で移動中であるか否かを判別する。乗物検出部309は、ユーザーが自転車で移動中であると判別した場合(ステップS625;Yes)、ステップS626に進み、ユーザーが自転車で移動中ではないと判別した場合(ステップS625;No)、ステップS627へ進む。
乗物検出部309は、例えば、ユーザーが自転車で移動中であるか否かを、加速度センサー132の検出値から判別する。ユーザーが自転車で移動中である場合には、速度0から加速した場合にユーザーの上半身の揺れが生じる。このため、乗物検出部309は、加速度センサー132の検出値から、上半身の揺れによる加速度が検出できるかどうかにより、ユーザーが自転車で移動しているか否かを判別する。なお、ユーザーが自転車で移動中であるか否かを判別するには、特に頭部に加速度センサー132が配置されていることが重要である。すなわち、加速度センサー132がユーザーの腰に取り付けられた場合、腰の動きは腰の直下にあるサドルによって限定されるため、ユーザーが自転車に乗っている場合の上半身の揺れによる加速度の検出が困難になり、オートバイなどの動きとの差異が少ない。これに対して、ユーザーの頭部に加速度センサー132が配置されていれば、ユーザーが自転車に乗っている場合の上半身の揺れを的確に検出することが可能となる。本実施形態では、HMD1が頭部に装着されているため、加速度センサー132は頭部の近傍に配置されている。従って、本実施形態のHMD1によれば、ユーザーが自転車で移動中であるか否かを、加速度センサー132の検出値から判別することができる。
乗物検出部309は、例えば、ユーザーが自転車で移動中であるか否かを、加速度センサー132の検出値から判別する。ユーザーが自転車で移動中である場合には、速度0から加速した場合にユーザーの上半身の揺れが生じる。このため、乗物検出部309は、加速度センサー132の検出値から、上半身の揺れによる加速度が検出できるかどうかにより、ユーザーが自転車で移動しているか否かを判別する。なお、ユーザーが自転車で移動中であるか否かを判別するには、特に頭部に加速度センサー132が配置されていることが重要である。すなわち、加速度センサー132がユーザーの腰に取り付けられた場合、腰の動きは腰の直下にあるサドルによって限定されるため、ユーザーが自転車に乗っている場合の上半身の揺れによる加速度の検出が困難になり、オートバイなどの動きとの差異が少ない。これに対して、ユーザーの頭部に加速度センサー132が配置されていれば、ユーザーが自転車に乗っている場合の上半身の揺れを的確に検出することが可能となる。本実施形態では、HMD1が頭部に装着されているため、加速度センサー132は頭部の近傍に配置されている。従って、本実施形態のHMD1によれば、ユーザーが自転車で移動中であるか否かを、加速度センサー132の検出値から判別することができる。
(ステップS626)ユーザーが自転車で移動中であると判別した場合、乗物検出部309は、自転車用のナビゲーションを行う。自転車用のナビゲーションとは、目標地点までの経路を案内するものであるが、自動車専用道路や階段など、自転車では通過できない経路は避けるように、経路案内を行う。この場合、乗物検出部309は、表示パネル63への経路表示、及び耳元スピーカー23から音声による経路案内のアナウンスの少なくとも1つを行う。
(ステップS627)乗物検出部309は、ユーザーが自動車で移動中であるか否かを判別する。乗物検出部309は、ユーザーが自動車で移動中であると判別した場合(ステップS627;Yes)、ステップS628に進み、ユーザーが自動車で移動中ではないと判別した場合(ステップS627;No)、ステップS629に進む。
乗物検出部309は、例えば、ユーザーが自動車で移動中であるか否かを、加速度センサー132の検出値から判別する。ユーザーが自動車で移動中である場合は、速度0から加速した場合のユーザーの上半身の揺れが少ない。このことから、乗物検出部309は、加速度センサー132の検出値から、速度0から加速した場合のユーザーの上半身の加速度が少ないことが検出された場合、ユーザーが自動車で移動中であると判別する。
乗物検出部309は、ユーザーが自動車で移動中であるか否かを、カメラ64が撮像した画像データも用いて判別するようにしてもよい。この場合、乗物検出部309は、例えばユーザーの手の動きが運転時の手の動きであるか否かを、周知の手法を用いて判別する。または、乗物検出部309は、例えばカメラ64が撮像した画像データにハンドルの画像が含まれている場合、ユーザーが自動車で移動していると判別するようにしてもよい。
乗物検出部309は、例えば、ユーザーが自動車で移動中であるか否かを、加速度センサー132の検出値から判別する。ユーザーが自動車で移動中である場合は、速度0から加速した場合のユーザーの上半身の揺れが少ない。このことから、乗物検出部309は、加速度センサー132の検出値から、速度0から加速した場合のユーザーの上半身の加速度が少ないことが検出された場合、ユーザーが自動車で移動中であると判別する。
乗物検出部309は、ユーザーが自動車で移動中であるか否かを、カメラ64が撮像した画像データも用いて判別するようにしてもよい。この場合、乗物検出部309は、例えばユーザーの手の動きが運転時の手の動きであるか否かを、周知の手法を用いて判別する。または、乗物検出部309は、例えばカメラ64が撮像した画像データにハンドルの画像が含まれている場合、ユーザーが自動車で移動していると判別するようにしてもよい。
(ステップS628)ユーザーが自動車で移動中であると判別した場合、乗物検出部309は、自動車用のナビゲーションを行う。自動車用のナビゲーションとは、目標地点までの経路を案内するものである。この場合、乗物検出部309は、表示パネル63への経路表示、及び耳元スピーカー23から音声による経路案内のアナウンスの少なくとも1つを行う。
なお、上述のステップS623〜S627で、各移動手段の特長が見いだされない場合、乗物検出部309は、それまで表示パネル63に表示されていたナビゲーション、または耳元スピーカー23から報知されているナビゲーションを継続して行うようにしてもよい。また、本発明において、ナビゲーションに関する情報とは、徒歩用のナビデーション、自転車用のナビゲーション、自動車用のナビゲーション、及び公共の交通機関に対応したナビゲーションのうち、いずれかのナビゲーションである。
(ステップS629)乗物検出部309は、ユーザーが目標地点に到達したか否かを、設定された目標地点の情報と、GPSセンサー135が測位した測位情報とに基づいて判別する。乗物検出部309は、ユーザーがまだ目標地点に到着していないと判別した場合(ステップS629;No)、ステップS603に戻り、ユーザーが目標地点に到達したと判別した場合(ステップS629;Yes)、処理を終了する。
なお、上述のステップS623〜S627で、各移動手段の特長が見いだされない場合、乗物検出部309は、それまで表示パネル63に表示されていたナビゲーション、または耳元スピーカー23から報知されているナビゲーションを継続して行うようにしてもよい。また、本発明において、ナビゲーションに関する情報とは、徒歩用のナビデーション、自転車用のナビゲーション、自動車用のナビゲーション、及び公共の交通機関に対応したナビゲーションのうち、いずれかのナビゲーションである。
(ステップS629)乗物検出部309は、ユーザーが目標地点に到達したか否かを、設定された目標地点の情報と、GPSセンサー135が測位した測位情報とに基づいて判別する。乗物検出部309は、ユーザーがまだ目標地点に到着していないと判別した場合(ステップS629;No)、ステップS603に戻り、ユーザーが目標地点に到達したと判別した場合(ステップS629;Yes)、処理を終了する。
次に、居眠検出部310は、以下のステップS639〜S640、及びステップS632〜S634のように「居眠り検出処理」及び警告処理を行う。
(ステップS630)図39に移って、ステップS618〜S620(図38)で、ユーザーが電車、バス、船舶の何れかの交共の交通機関で移動中であると判別した場合、乗物検出部309は、HMD1の呼び出し音をサイレントモードに設定する。サイレントモードとは、静粛性が求められるような場所において、着信等の呼び出し音等を大きな音で鳴らさないモードであり、その詳細は後述する。
(ステップS631)乗物検出部309は、公共の交通機関に対応したナビゲーションを行う。例えば、電車での移動中である場合、乗物検出部309は、電車でのナビゲーションとして、乗換駅のアナウンス、急行への接続情報、運行の遅れ情報などの音声によるアナウンスを耳元スピーカー23から出力する。乗物検出部309は、これらの情報を、表示パネル63に表示するようにしてもよい。
(ステップS632)ユーザーが公共の交通機関で移動中である場合、ユーザーが寝ていたとしても特に問題はない。但し、降車駅を乗り過ごすと問題が発生する。このため、居眠検出部310は、撮像画像から、ユーザーが、例えば5秒以上目を瞑っているかを判別する。なお、居眠検出部310は、ユーザーが5秒以上目を瞑っているか否かの判別を、例えばステップS621と同様に行う。居眠検出部310は、ユーザーが5秒以上目を瞑っていると判別した場合(ステップS632;Yes)、ステップS633に進み、ユーザーが5秒以上目を瞑っていないと判別した場合(ステップS632;No)、ステップS635に進む。
(ステップS633)乗物検出部309は、現在の位置が乗換駅又は降車駅かの判別をステップS615(図38)で取得した位置情報P(i)で行う。乗物検出部309は、現在の位置が乗換駅又は降車駅でないと判別した場合(ステップS633;No)、ステップS635に進み、現在の位置が乗換駅又は降車駅であると判別した場合(ステップS633;Yes)、ステップS634に進む。なお、乗物検出部309は、現在の位置が、乗換駅又は降車駅から所定の距離、手前の位置であった場合に、現在の位置が乗換駅又は降車駅であると判別するようにしてもよい。これにより、本実施形態のHMD1は、乗換駅又は降車駅に到着する前にユーザーに報知することができるので、ユーザーの乗り過ごしを防ぐことができる。
(ステップS634)現在の位置が乗換駅又は降車駅であると判別した場合、かつユーザーが目を5秒以上瞑っていると判別した場合、音響制御部305は、居眠検出部310の判別した結果である居眠警告情報に基づいてアラームを耳元スピーカー23より発して、ユーザーに覚醒するように促す。
なお、本実施形態では、撮像画像に基づいてユーザーが目瞑り状態(居眠り状態)であることを検出する例を説明したが、これに限られない。居眠検出部310は、加速度センサー132が検出した検出値に基づいて、ユーザーが居眠りをしている状態か否かを判別するようにしてもよい。例えば、居眠検出部310は、ユーザーの頭部又は体が所定の周期で揺れているか、またはユーザーの頭部又は体が所定の角度以上、傾いているかに基づいて、ユーザーが居眠りをしている状態か否かを判別するようにしてもよい。例えば、制御部302は、ユーザーの移動手段が電車、またはバスであると判別された場合に、加速度センサー132が検出した検出値に基づいて、ユーザーの頭部が揺れていることを検出する。そして、制御部302は、ユーザーの頭部が揺れていることが検出された場合、ユーザーが隣の人に寄りかからないように、例えば耳元スピーカーから報知するようにしてもよい。また、制御部302は、このようなユーザーが隣の人に寄りかかっていないか否かの検出を、HMD1をユーザーが頭部に装着していることを検出した場合に行う。これにより、本発明に係るHMD1によれば、ユーザーがHMD1を鞄等に入れたままの状態で、例えば鞄を傾けたときに不要な報知をしないため、周囲に迷惑をかけない効果がある。
(ステップS635)乗物検出部309は、ステップS601で設定した目標地点、ステップS609で取得した測位情報、及びステップS612で算出した平均速度V(i)に基づいて、現在地点から目標地点までの距離と到着予想時間とを算出する。次に、乗物検出部309は、算出した現在地点と目標地点までの距離と到着予想時間を表示パネル63に表示する。乗物検出部309は、表示パネル63に表示した後、ステップS629(図38)に進む。
(ステップS636)ステップS617(図38)で平均速度V(i)がほぼゼロと判別した場合、乗物検出部309は、ステップS616(図38)で取得した現在の場所の高度Al(i)が、ステップS615で取得した位置情報に含まれている標高と一致しているか否かを判別する。
乗物検出部309は、現在地点の高度Al(i)と標高とが一致していると判別した場合(ステップS636;Yes)、ユーザーは地上にいると判別し、ステップS641に進む。乗物検出部309は、現在地点の高度Al(i)と標高とが一致していないと判別した場合(ステップS636;No)、ステップS637に進む。
乗物検出部309は、現在地点の高度Al(i)と標高とが一致していると判別した場合(ステップS636;Yes)、ユーザーは地上にいると判別し、ステップS641に進む。乗物検出部309は、現在地点の高度Al(i)と標高とが一致していないと判別した場合(ステップS636;No)、ステップS637に進む。
(ステップS637)現在地点の高度Al(i)と標高とが一致していないと判別した場合、乗物検出部309は、ユーザーは地上にいないと判別する。この場合、乗物検出部309は、現在地点の建物などの建築物の情報を、例えばインターネット上のデータベースから取得する。記憶部303に地図データが記憶されている場合、乗物検出部309は、現在地点の建物などの建築物の情報を、記憶部303に記憶されている地図データから取得するようにしてもよい。
(ステップS638)乗物検出部309は、ステップS637で取得した情報に基づいて、現在地点にユーザーがいる高さに対応する建物があるか否かを判別する。乗物検出部309は、現在地点にユーザーがいる高さに対応する建物があると判別した場合(ステップS638;Yes)、ユーザーはその建物の中にいて静止している状態であり、特に危険がないと判別し、ステップS641に進む。乗物検出部309は、現在地点にユーザーがいる高さに対応する建物がないと判別された場合(ステップS638;No)、ステップS639に進む。
(ステップS639)現在地点にユーザーがいる高さに対応する建物がないとい判別される場合、居眠検出部310は、撮像画像に基づいて、ユーザーが、例えば3秒以上目を瞑っているか否かを判別する。なお、居眠検出部310は、3秒以上目を瞑っているか否かの判別を、例えばステップS621と同様に行う。ユーザーが3秒以上目を瞑っていると判別した場合(ステップS639;Yes)、ステップS640に進み、ユーザーが3秒以上目を瞑っていないと判別した場合(ステップS639;No)、ステップS641に進む。
すなわち、現在地点にユーザーがいる高さに対応する建物がない場合、ユーザーは、地図上に高い建物がないにもかかわらず、高所にいる状態が想定される。この状態は、例えば建設中の建造物の高所にユーザーが留まっていると想定できる。ユーザーが例えば建設中の建造物の高所に留まっているような状態では、目を瞑ることは危険であるので、本実施形態のHMD1では、ステップS633において目瞑りを検出している。
すなわち、現在地点にユーザーがいる高さに対応する建物がない場合、ユーザーは、地図上に高い建物がないにもかかわらず、高所にいる状態が想定される。この状態は、例えば建設中の建造物の高所にユーザーが留まっていると想定できる。ユーザーが例えば建設中の建造物の高所に留まっているような状態では、目を瞑ることは危険であるので、本実施形態のHMD1では、ステップS633において目瞑りを検出している。
(ステップS640)ユーザーが3秒以上目を瞑っていると判別した場合、居眠検出部310は、音響制御部305は、居眠検出部310の判別した結果である居眠警告情報に基づいてアラームを耳元スピーカー23から鳴らして、ユーザーの覚醒を促す。
(ステップS641)乗物検出部309は、表示パネル63に表示されている表示内容を維持し、ステップS629に進む。
以上のように、本実施形態に係るHMD1は、ユーザーの目の状態を検出し、所定の時間以上ユーザーの目を瞑っている目瞑り状態の場合、場所に応じて警告を発することでユーザーの注意を喚起する安全なシステムを提供できる。
なお、ステップS601〜S641において、ナビゲーションの音声、目瞑りを検出した場合の警告音、アラームを耳元スピーカー23から出力する例を説明したが、これに限られない。オーディオコネクター26にステレオイヤホン100が接続されている場合、音響制御部305は、これらの警告音をステレオイヤホン100に出力するようにしてもよい。また、音響制御部305は、警告音の換わりに、バイブレータ167を振動させて、目瞑りに対する警告、乗換駅又は降車駅に到着したことをユーザーに警告を行うようにしてもよい。また音響制御部305は、耳元スピーカー23又はステレオイヤホン100からの警告音、及びバイブレータ167に振動による警告の少なくとも1つによって、警告を行うようにしてもよい。
(ステップS641)乗物検出部309は、表示パネル63に表示されている表示内容を維持し、ステップS629に進む。
以上のように、本実施形態に係るHMD1は、ユーザーの目の状態を検出し、所定の時間以上ユーザーの目を瞑っている目瞑り状態の場合、場所に応じて警告を発することでユーザーの注意を喚起する安全なシステムを提供できる。
なお、ステップS601〜S641において、ナビゲーションの音声、目瞑りを検出した場合の警告音、アラームを耳元スピーカー23から出力する例を説明したが、これに限られない。オーディオコネクター26にステレオイヤホン100が接続されている場合、音響制御部305は、これらの警告音をステレオイヤホン100に出力するようにしてもよい。また、音響制御部305は、警告音の換わりに、バイブレータ167を振動させて、目瞑りに対する警告、乗換駅又は降車駅に到着したことをユーザーに警告を行うようにしてもよい。また音響制御部305は、耳元スピーカー23又はステレオイヤホン100からの警告音、及びバイブレータ167に振動による警告の少なくとも1つによって、警告を行うようにしてもよい。
なお、ステップS630において、ユーザーが公共機関で移動していると判別された場合、サイレントモードに設定する例を説明したが、これに限られない。例えば、乗物検出部309は、ステップS615で取得した位置情報に基づいて、HMD1の呼び出し音をサイレントモードに設定する。具体的には、乗物検出部309は、位置情報が、映画館、コンサートホール、レストラン等の場合、位置情報に基づいて、HMD1の呼び出し音をサイレントモードに設定するようにしてもよい。また、ユーザーは、このようにサイレントモードに設定する位置情報を、ユーザーが操作スイッチ30等の操作により、予め選択するようにしてもよい。
次に、「サイレントモードの処理」について説明する。
図40及び図41は、本実施形態に係るサイレントモード処理の手順のフローチャートである。
本実施形態に係るHMD1は、他の端末から着信があった場合、以下のように、サイレントモードの設定状態及びHMD1の装着状態に応じて、耳元スピーカー23、前方スピーカー70、及びバイブレータ167から、着信を報知するように出力を切り替える。また、本実施形態に係るHMD1は、以下のように、サイレントモードの設定状態及びHMD1の装着状態に応じて、着信音(報知音)の音量を切り替える。
図40及び図41は、本実施形態に係るサイレントモード処理の手順のフローチャートである。
本実施形態に係るHMD1は、他の端末から着信があった場合、以下のように、サイレントモードの設定状態及びHMD1の装着状態に応じて、耳元スピーカー23、前方スピーカー70、及びバイブレータ167から、着信を報知するように出力を切り替える。また、本実施形態に係るHMD1は、以下のように、サイレントモードの設定状態及びHMD1の装着状態に応じて、着信音(報知音)の音量を切り替える。
(ステップS701)制御部302は、言語の選択メニューを表示パネル63に表示する。言語の選択メニューとは、表示パネル63に表示するときに使用する言語及びアナウンスで使用する言語の選択のメニューである。ユーザーは、操作スイッチ30を操作して選択メニューから自国語の選択を行う。なお、例えば自国語が日本語であっても、ユーザーは英語等、他の言語を選択してもよい。
(ステップS702)制御部302は、送受信部308からの受信信号に基づき、他の端末から着信があったか否かを判別する。制御部302は、他の端末から着信がなかったと判別した場合(ステップS702;No)、ステップS702を繰り返して他の端末からの着信を待機する。制御部302は、他の端末から着信があったと判別した場合(ステップS702;Yes)、ステップS703に進む。
(ステップS703)他の端末から着信があったと判別した場合、制御部302は、HMD1がサイレントモードに設定されているか否かを判別する。サイレントモードの設定は、例えば、ユーザーが操作スイッチ30を操作して表示パネル63に表示されるメニュー(不図示)から選択して設定するか、又は乗物検出部309が「居眠り検出の処理」のステップS630で設定する。
制御部302は、サイレントモードが設定されていると判別した場合(ステップS703;Yes)、ステップS712に進み、サイレントモードが設定されていないと判別した場合(ステップS703;No)、ステップS704に進む。
制御部302は、サイレントモードが設定されていると判別した場合(ステップS703;Yes)、ステップS712に進み、サイレントモードが設定されていないと判別した場合(ステップS703;No)、ステップS704に進む。
(ステップS704)装着処理部311は、心拍数センサー137が検出した検出値に基づいて、ユーザーの頭部にHMD1が装着されているか、もしくは手などでHMD1が頭部近傍に保持されているか否かの判別を行う。なお、頭部近傍とは、例えば、ユーザーが表示パネル63に表示されている情報が見える位置、または耳元スピーカー23から発せられる音をユーザーが聞こえる位置である。
次に、装着処理部311は、判別した結果に基づいて装着情報を生成し、生成した装着情報を音響制御部305に出力する。装着処理部311は、ユーザーの頭部にHMD1が装着されていると判別した場合(ステップS704;Yes)、ステップS705に進み、ユーザーの頭部にHMD1が装着されていないと判別した場合(ステップS704;No)、ステップS706に進む。
なお、装着処理部311は、HMD1に設けられている不図示のユーザーの頭部への装着を検出する機械的なスイッチの検出値に基づいて、ユーザーの頭部にHMD1が装着されているか否かを判別してもよい。
次に、装着処理部311は、判別した結果に基づいて装着情報を生成し、生成した装着情報を音響制御部305に出力する。装着処理部311は、ユーザーの頭部にHMD1が装着されていると判別した場合(ステップS704;Yes)、ステップS705に進み、ユーザーの頭部にHMD1が装着されていないと判別した場合(ステップS704;No)、ステップS706に進む。
なお、装着処理部311は、HMD1に設けられている不図示のユーザーの頭部への装着を検出する機械的なスイッチの検出値に基づいて、ユーザーの頭部にHMD1が装着されているか否かを判別してもよい。
ここでフローチャートに示すところの音響制御部305の制御についてまとめると以下の(I)〜(VI)のようになる。
音響制御部305は、制御部302が出力するサイレントモード設定情報と、乗物検出部309が出力したサイレントモード設定情報と、装着処理部311が出力する装着情報とに基づいて、耳元スピーカー23、前方スピーカー、及びバイブレータ167からの報知を以下の(I)〜(VI)のように制御する。
(I)サイレントモードに設定されていないと判別した場合、かつユーザーが頭部にHMD1を装着していると判別した場合、音響制御部305は、耳元スピーカー23より着信音を低音圧で鳴らすように制御する。
(II)サイレントモードに設定されていないと判別した場合、かつユーザーが頭部にHMD1を装着していないと判別した場合、音響制御部305は、前方スピーカー70より着信音を高音圧で鳴らすように制御する。
(III)サイレントモードに設定されていないと判別した場合、かつユーザーが頭部にHMD1を装着していると判別した場合、音響制御部305は、耳元スピーカー23より通信相手の音声を低音圧で発するように制御する。
(IV)サイレントモードに設定されていないと判別した場合、かつユーザーが頭部にHMD1を装着していないと判別した場合、音響制御部305は、前方スピーカー70より通信相手の音声を高音圧で発するように制御する。
(V)サイレントモードに設定されていると判別した場合、かつユーザーが頭部にHMD1を装着していると判別した場合、音響制御部305は、耳元スピーカー23より着信音を低音圧で鳴らすように制御する。
(VI)サイレントモードに設定されていると判別した場合、かつユーザーが頭部にHMD1を装着していないと判別した場合、音響制御部305は、バイブレータ167を振動させて着信を知らせるように制御する。
音響制御部305は、制御部302が出力するサイレントモード設定情報と、乗物検出部309が出力したサイレントモード設定情報と、装着処理部311が出力する装着情報とに基づいて、耳元スピーカー23、前方スピーカー、及びバイブレータ167からの報知を以下の(I)〜(VI)のように制御する。
(I)サイレントモードに設定されていないと判別した場合、かつユーザーが頭部にHMD1を装着していると判別した場合、音響制御部305は、耳元スピーカー23より着信音を低音圧で鳴らすように制御する。
(II)サイレントモードに設定されていないと判別した場合、かつユーザーが頭部にHMD1を装着していないと判別した場合、音響制御部305は、前方スピーカー70より着信音を高音圧で鳴らすように制御する。
(III)サイレントモードに設定されていないと判別した場合、かつユーザーが頭部にHMD1を装着していると判別した場合、音響制御部305は、耳元スピーカー23より通信相手の音声を低音圧で発するように制御する。
(IV)サイレントモードに設定されていないと判別した場合、かつユーザーが頭部にHMD1を装着していないと判別した場合、音響制御部305は、前方スピーカー70より通信相手の音声を高音圧で発するように制御する。
(V)サイレントモードに設定されていると判別した場合、かつユーザーが頭部にHMD1を装着していると判別した場合、音響制御部305は、耳元スピーカー23より着信音を低音圧で鳴らすように制御する。
(VI)サイレントモードに設定されていると判別した場合、かつユーザーが頭部にHMD1を装着していないと判別した場合、音響制御部305は、バイブレータ167を振動させて着信を知らせるように制御する。
(ステップS705)図40に戻って、サイレントモードに設定されていないと判別した場合、かつユーザーが頭部にHMD1を装着していると判別した場合、音響制御部305は、耳元スピーカー23より着信音を低音圧で鳴らして、着信があったことをユーザーに報知する。
このように、耳元スピーカー23より着信音を低音圧で鳴らして、着信があったことをユーザーに知らせる理由を説明する。ユーザーの頭部にHMD1が装着されていると判別した場合、耳元スピーカー23から着信を報知すれば、ユーザーは着信があったことに気がつく。この場合、制御部302は、耳元スピーカー23から着信を報知するため、大音量で出力する必要がない。
このように、耳元スピーカー23より着信音を低音圧で鳴らして、着信があったことをユーザーに知らせる理由を説明する。ユーザーの頭部にHMD1が装着されていると判別した場合、耳元スピーカー23から着信を報知すれば、ユーザーは着信があったことに気がつく。この場合、制御部302は、耳元スピーカー23から着信を報知するため、大音量で出力する必要がない。
(ステップS706)サイレントモードに設定されていないと判別した場合、かつ、ユーザーの頭部にHMD1が装着されていないと判別した場合、音響制御部305は、前方スピーカー70から着信音を高音圧で鳴らして、着信があったことをユーザーに報知する。
このように、前方スピーカー70から着信音を高音圧で鳴らして、着信があったことをユーザーに報知する理由を説明する。ユーザーの頭部にHMD1が装着されていないと判別した場合、HMD1は、ユーザーの鞄の中に入れられているか、他の場所に置かれているかなどが想定される。このように、サイレントモードが設定されていないと判別した場合、かつユーザーの頭部にHMD1が装着されていないと判別した場合、HMD1は、ユーザーに聞こえるように大音量で着信を報知する必要があるので、前方スピーカー70から着信音を高音圧で鳴らして、着信があったことをユーザーに報知する。
このように、前方スピーカー70から着信音を高音圧で鳴らして、着信があったことをユーザーに報知する理由を説明する。ユーザーの頭部にHMD1が装着されていないと判別した場合、HMD1は、ユーザーの鞄の中に入れられているか、他の場所に置かれているかなどが想定される。このように、サイレントモードが設定されていないと判別した場合、かつユーザーの頭部にHMD1が装着されていないと判別した場合、HMD1は、ユーザーに聞こえるように大音量で着信を報知する必要があるので、前方スピーカー70から着信音を高音圧で鳴らして、着信があったことをユーザーに報知する。
(ステップS707)前方スピーカー70又は耳元スピーカー23からの着信音により、ユーザーに着信を知らせた後、制御部302は、受信信号から相手端末の情報を抽出し、抽出した相手端末の情報を表示パネル63に表示する。
(ステップS708)装着処理部311は、再度、HMD1がユーザーの頭部に装着されている、もしくは頭部近傍にHMD1があるか否かの判別を行う。このように再度、判別を行う理由は、着信音が鳴ったことにより頭部近傍になかったHMD1を、ユーザーが頭部に装着もしくは頭部付近にHMD1を手で移動した可能性があるためである。装着処理部311は、HMD1がユーザーの頭部に装着されていると判別した場合(ステップS708;Yes)、ステップS710に進み、HMD1がユーザーの頭部に装着されていないと判別した場合(ステップS708;Yes)、ステップS709に進む。
(ステップS708)装着処理部311は、再度、HMD1がユーザーの頭部に装着されている、もしくは頭部近傍にHMD1があるか否かの判別を行う。このように再度、判別を行う理由は、着信音が鳴ったことにより頭部近傍になかったHMD1を、ユーザーが頭部に装着もしくは頭部付近にHMD1を手で移動した可能性があるためである。装着処理部311は、HMD1がユーザーの頭部に装着されていると判別した場合(ステップS708;Yes)、ステップS710に進み、HMD1がユーザーの頭部に装着されていないと判別した場合(ステップS708;Yes)、ステップS709に進む。
(ステップS709)HMD1がユーザーの頭部に装着されていない、もしくはHMD1がユーザーの頭部近傍にないと判別した場合、音響制御部305は、受信信号から相手端末の音声を抽出し、抽出した相手端末の音声を耳元スピーカー23から低音圧(第1音量)で報知する。この処理により、ユーザーは、HMD1を頭部に装着していなくても、相手端末からの音声を聞きとることが可能となる。
(ステップS710)HMD1がユーザーの頭部に装着されていると判別した場合、音響制御部305は、受信信号から相手端末の音声を抽出し、抽出した相手端末の音声を前方スピーカー70から高音圧(第2音量)で報知する。なお、第2音量は、第1音量より小さい。
(ステップS710)HMD1がユーザーの頭部に装着されていると判別した場合、音響制御部305は、受信信号から相手端末の音声を抽出し、抽出した相手端末の音声を前方スピーカー70から高音圧(第2音量)で報知する。なお、第2音量は、第1音量より小さい。
(ステップS711)制御部302は、ユーザーが操作スイッチ30の操作及び受信信号に基づいて、通話が終了したか否かを判別する。制御部302は、通話が終了していないと判別した場合(ステップS711;No)、ステップS708へ戻り、通話が終了したと判別した場合(ステップS711;Yes)、ステップS731に進む。
(ステップS712)図41に移って、サイレントモードが設定されていると判別した場合、装着処理部311は、再度、HMD1がユーザーの頭部に装着されているか否かを判別する。装着処理部311は、HMD1がユーザーの頭部に装着されていると判別した場合(ステップS712;Yes)、ステップS713に進み、HMD1がユーザーの頭部に装着されていないと判別した場合(ステップS712;No)、ステップS715に進む。
(ステップS713)サイレントモード設定時であっても、HMD1がユーザーの頭部に装着されていれば、着信音を耳元スピーカー23から報知しても、周囲に着信音は漏れない。このため、サイレントモードに設定されている場合、かつユーザーの頭部にHMD1が装着されていると判別した場合、音響制御部305は、着信音を耳元スピーカー23より着信音を低音圧で鳴らして、着信があったことをユーザーに報知する。
(ステップS714)制御部302は、通話開始を検出する。通話開始が検出されていないと判別した場合(ステップS714;No)、制御部302及び音響制御部305は、通話開始が検出されるまで、ステップS713とS714を繰り返して、耳元スピーカー23より着信音を出力し続ける。通話開始が検出されたと判別した場合(ステップS714;Yes)、制御部302は、ステップS717に進む。制御部302は、例えば、ユーザーによる操作スイッチ30の操作に基づいて、通話が開始されたか否かを判別する。
(ステップS715)サイレントモード設定時、HMD1は着信音を周囲に漏らさずに、ユーザーに着信を知らせる必要がある。HMD1がユーザーの頭部に装着されていない場合、ユーザーは、例えば、HMD1を衣服のポケットや鞄に入れていることが想定される。このため、着信時にサイレントモードに設定されていると判別した場合、かつ、HMD1がユーザーの頭部に装着されていないと判別した場合、音響制御部305は、バイブレータ167を振動させ、着信があったことをユーザーに報知する。
(ステップS716)制御部302及び音響制御部305は、通話開始が検出されるまで(ステップS716;No)、ステップS715とS716を繰り返して、バイブレータ167を振動させ続ける。通話開始が検出されたと判別した場合(ステップS716;Yes)、制御部302は、ステップS717に進む。
サイレントモードに設定されている場合、ユーザーは、通話に音声で答えられないような場所にいる場合、またはHMD1が鞄の中に入れられている場合が想定される。従って、制御部302は、例えば、ユーザーが通話マイク37をユーザーの口元の位置に配置したことにより、通話開始したことを検出するようにしてもよい。制御部302は、ユーザーが通話マイク37をユーザーの口元の位置に配置されたか否かの検出を、例えば、撮像素子72による撮像画像に基づいて行うようにしてもよい。また、制御部302は、例えば、ユーザーの操作スイッチ30を操作に基づいて、通話が開始されたか否かを判別するようにしてもよい。
サイレントモードに設定されている場合、ユーザーは、通話に音声で答えられないような場所にいる場合、またはHMD1が鞄の中に入れられている場合が想定される。従って、制御部302は、例えば、ユーザーが通話マイク37をユーザーの口元の位置に配置したことにより、通話開始したことを検出するようにしてもよい。制御部302は、ユーザーが通話マイク37をユーザーの口元の位置に配置されたか否かの検出を、例えば、撮像素子72による撮像画像に基づいて行うようにしてもよい。また、制御部302は、例えば、ユーザーの操作スイッチ30を操作に基づいて、通話が開始されたか否かを判別するようにしてもよい。
(ステップS717)通話開始が検出されると、制御部302は、受信信号から、相手端末のIPデータや電話番号を抽出する。
(ステップS718)制御部302は、抽出した相手端末のIPデータや電話番号に基づいて、通信相手のパーソナルデータがサーバー200(図23参照)に登録されているか否かをサーバー200に問い合わせる。
次に、サーバー200は、HMD1からの問い合わせに応じて、通信相手のパーソナルデータが記憶部202(図23参照)に登録されているか否かを判別する。サーバー200は、通信相手のパーソナルデータが記憶部202に登録されていると判別した場合、登録されている通信相手のパーソナルデータを記憶部202から読み出して、読み出した通信相手のパーソナルデータをHMD1に送信する。サーバー200は、通信相手のパーソナルデータが記憶部202に登録されていないと判別した場合、通信相手のパーソナルデータが登録されていないことを示す情報をHMD1に送信する。
次に、HMD1の制御部302は、相手のパーソナルデータをサーバー200から受信した場合、通信相手のパーソナルデータがあると判別し(ステップS718;Yes)、ステップS719に進む。制御部302は、通信相手のパーソナルデータが登録されていないことを示す情報をサーバー200から受信した場合、通信相手のパーソナルデータがないと判別し(ステップS718;No)、ステップS720に進む。
次に、サーバー200は、HMD1からの問い合わせに応じて、通信相手のパーソナルデータが記憶部202(図23参照)に登録されているか否かを判別する。サーバー200は、通信相手のパーソナルデータが記憶部202に登録されていると判別した場合、登録されている通信相手のパーソナルデータを記憶部202から読み出して、読み出した通信相手のパーソナルデータをHMD1に送信する。サーバー200は、通信相手のパーソナルデータが記憶部202に登録されていないと判別した場合、通信相手のパーソナルデータが登録されていないことを示す情報をHMD1に送信する。
次に、HMD1の制御部302は、相手のパーソナルデータをサーバー200から受信した場合、通信相手のパーソナルデータがあると判別し(ステップS718;Yes)、ステップS719に進む。制御部302は、通信相手のパーソナルデータが登録されていないことを示す情報をサーバー200から受信した場合、通信相手のパーソナルデータがないと判別し(ステップS718;No)、ステップS720に進む。
(ステップS719)通信相手のパーソナルデータがあると判別した場合、制御部302は、例えば、パーソナルデータに含まれる国籍を示す情報に基づき、通信相手が使用する言語を特定する。なお、多くの場合は自国の関係者からの通話が多いことから、パーソナルデータに国籍を示す情報がない場合、制御部302は、自分と同じ言語を話す人間であると推定し、ステップS701で設定されたメニュー表示などに使用するのと同じ言語を設定してもよい。
(ステップS720)通信相手のパーソナルデータがないと判別した場合、制御部302は、相手端末のIPデータ又は電話番号より、通信相手が発信している国名又は地域を特定する。次に、制御部302は、通信相手が発信している国名又は地域に基づいて通信相手の話す言語を推定する。
(ステップS721)通信相手の国名又は地域が判別できた場合、制御部302は、ステップS719又はS720で特定した言語に対応するサイレントモード時のアナウンスを報知する指示を、送受信部308を介して、通信相手の端末に送信する。次に、通信相手の端末は、受信したサイレントモード時のアナウンスを報知する指示に応じて、サイレントモード時のアナウンスを、端末が有する音響出力手段から報知する。
サイレントモード時のアナウンスは、例えば、「現在サイレントモードに設定中のため、こちらからの発話ができません。ハイかイイエなどの限られた内容しか返答できません。」旨の各言語によるアナウンスである。なお、サイレントモード時のアナウンスは、例えば、合成音声であり、記憶部303に予め記憶させておくようにしてもよい。この場合、制御部302は、記憶部303から読み出したサイレントモード時のアナウンスに対応する音声データを、送受信部308を介して、通信相手の端末に送信するようにしてもよい。
サイレントモード時のアナウンスは、例えば、「現在サイレントモードに設定中のため、こちらからの発話ができません。ハイかイイエなどの限られた内容しか返答できません。」旨の各言語によるアナウンスである。なお、サイレントモード時のアナウンスは、例えば、合成音声であり、記憶部303に予め記憶させておくようにしてもよい。この場合、制御部302は、記憶部303から読み出したサイレントモード時のアナウンスに対応する音声データを、送受信部308を介して、通信相手の端末に送信するようにしてもよい。
(ステップS722)制御部302は、この通知を通信相手方への送信と平行して、通信相手が使用している端末(以下、相手端末ともいう)の情報を表示パネル63に表示する。相手端末の情報とは、例えば、相手端末の電話番号、通信相手のパーソナルデータである。
(ステップS723)制御部302は、ユーザーの注視点を検出するために、眼球照明ライト166を点灯する。
(ステップS724)制御部302は、図42及び図43に示す応答選択メニューの画像を表示パネル63に表示する。応答選択メニューの画像とは、HMD1が、ユーザーの注視に応じて合成音声で発話する発話内容の項目を選択するための選択項目を含むメニュー画像である。
(ステップS724)制御部302は、図42及び図43に示す応答選択メニューの画像を表示パネル63に表示する。応答選択メニューの画像とは、HMD1が、ユーザーの注視に応じて合成音声で発話する発話内容の項目を選択するための選択項目を含むメニュー画像である。
図42は、本実施形態に係る応答選択メニューの画像700を示す図である。なお、図42は、ステップS701で日本語が選択された場合の選択メニューの例である。
図42に示すように、応答選択メニューの画像700には、5種類の選択項目の画像701〜705が含まれている。選択項目の画像701は、『A ハイ』の文字を含む画像であり、選択項目の画像702は、『B イイエ』の文字を含む画像である。選択項目の画像703は、『C 今お答えできません』の文字を含む画像であり、選択項目の画像704は、『D 了解しました』の文字を含む画像であり、選択項目の画像705は、『E 終了します』の文字を含む画像である。画像706は、ユーザーの注視に基づくカーソル画像である。また、記憶部303には、これらの選択項目の画像701〜705が表示される表示パネル63上の座標(または座標の領域)が予め記憶されている。
なお後述するようにユーザー頭部の左右方向及び、前後方向の回動動作で項目を選択ならびに決定しやすいように、本実施形態に係るHMD1においては、上記の5項目の選択項目の画像を、画像700に示すように斜め方向に一列に並べて配置している。
また、制御部302は、このような応答選択メニューの画像を、表示パネル63上に表示されている画像に重畳して表示するようにしてもよい。または、制御部302は、着信があったことを検出した場合に、着信がある以前に表示していた画像と切り替えて応答選択メニューの画像を表示するようにしてもよい。あるいは、表示パネル63に表示する画像に、例えば応答選択メニューの画像を表示する「応答選択メニューボタン」(操作画像、不図示)を表示しておく。そして、着信があった場合、ユーザーは、この「応答選択メニューボタン」を、ユーザーの注視に基づいて選択する。そして、制御部302は、このユーザーの注視に基づいて選択された結果に基づいて、応答選択メニューの画像を表示パネル63に表示するようにしてもよい。
図42に示すように、応答選択メニューの画像700には、5種類の選択項目の画像701〜705が含まれている。選択項目の画像701は、『A ハイ』の文字を含む画像であり、選択項目の画像702は、『B イイエ』の文字を含む画像である。選択項目の画像703は、『C 今お答えできません』の文字を含む画像であり、選択項目の画像704は、『D 了解しました』の文字を含む画像であり、選択項目の画像705は、『E 終了します』の文字を含む画像である。画像706は、ユーザーの注視に基づくカーソル画像である。また、記憶部303には、これらの選択項目の画像701〜705が表示される表示パネル63上の座標(または座標の領域)が予め記憶されている。
なお後述するようにユーザー頭部の左右方向及び、前後方向の回動動作で項目を選択ならびに決定しやすいように、本実施形態に係るHMD1においては、上記の5項目の選択項目の画像を、画像700に示すように斜め方向に一列に並べて配置している。
また、制御部302は、このような応答選択メニューの画像を、表示パネル63上に表示されている画像に重畳して表示するようにしてもよい。または、制御部302は、着信があったことを検出した場合に、着信がある以前に表示していた画像と切り替えて応答選択メニューの画像を表示するようにしてもよい。あるいは、表示パネル63に表示する画像に、例えば応答選択メニューの画像を表示する「応答選択メニューボタン」(操作画像、不図示)を表示しておく。そして、着信があった場合、ユーザーは、この「応答選択メニューボタン」を、ユーザーの注視に基づいて選択する。そして、制御部302は、このユーザーの注視に基づいて選択された結果に基づいて、応答選択メニューの画像を表示パネル63に表示するようにしてもよい。
(ステップS725)図41に戻って、制御部302は、撮像画像に基づいて、ユーザーの目の注視点を検出し、ユーザーの注視による選択項目の選択があるか否かを判別する。制御部302は、例えば、ユーザーの注視が、例えば図42の選択項目の画像703上で2秒以上静止し、ユーザーの注視による選択があると判別する。また、制御部302は、選択項目の画像701〜705に対応する座標と、ユーザーの注視に対応する表示パネル63上の座標とを比較することで、ユーザーの注視による選択項目の選択があるか否かを判別する。
制御部302は、ユーザーの注視による選択項目の選択があると判別した場合(ステップS725;Yes)、ステップS729に進み、ユーザーの注視による選択項目の選択がないと判別した場合(ステップS725;Yes)、ステップS726に進む。
制御部302は、ユーザーの注視による選択項目の選択があると判別した場合(ステップS725;Yes)、ステップS729に進み、ユーザーの注視による選択項目の選択がないと判別した場合(ステップS725;Yes)、ステップS726に進む。
(ステップS726)ユーザーの注視による選択項目の選択がないと判別した場合、制御部302は、角速度センサー134の検出値に基づいて、ユーザーの頭部の回動による選択項目の選択があるか否かを判別する。制御部302は、ユーザーの頭部の回動による選択項目の選択があると判別した場合(ステップS726;Yes)、ステップS729に進み、ユーザーの頭部の回動による選択項目の選択がないと判別した場合(ステップS726;No)、ステップS727に進む。
具体的な例として、頭部の回動による選択項目の選択では、ユーザーが例えば右方向に所定値以上の角速度で頭部を回動させた場合、制御部302は、この右方向の回動による加速度を角速度センサー134の検出値に基づいて、ユーザーの頭部回動による移動方向と移動量を算出する。次に、制御部302は、算出した移動方向と移動量に基づいて、カーソル画像706を右下の次の項目に移動させて表示パネル63上に表示する。また、ユーザーが左方向に所定値以上の角速度で頭部を回動させた場合、この左方向の回動による加速度が角速度センサー134で検出される。制御部302は、この検出値に基づいて算出した移動方向と移動量に基づいて、カーソル画像706を右下の次の項目に移動させて表示パネル63上に表示する。
このように、制御部302は、頭部の回動による選択において、角速度センサー134の検出値に基づいてユーザーの頭部の動きを検出することで、カーソル画像706を移動させ、各項目を選択する。そして、制御部302は、例えば、ユーザーがあたかも頷くときのように前後方向に顔を動かした場合、選択項目が決定されたと判別する。
このように、制御部302は、頭部の回動による選択において、角速度センサー134の検出値に基づいてユーザーの頭部の動きを検出することで、カーソル画像706を移動させ、各項目を選択する。そして、制御部302は、例えば、ユーザーがあたかも頷くときのように前後方向に顔を動かした場合、選択項目が決定されたと判別する。
(ステップS727)図41に戻って、頭部の回動による選択がないと判別した場合、制御部302は、操作部材により選択項目が選択されたか否かを判別する。なお、操作部材とは、操作スイッチ30又はタッチスイッチ34である。制御部302は、操作部材により選択項目が選択されたと判別した場合(ステップS727;Yes)、ステップS729に進み、操作部材により選択項目が選択されていないと判別した場合(ステップS727;No)、ステップS728に進む。
具体的に例えば、制御部302は、操作スイッチ30の左右操作又は上下操作に基づいて、カーソル画像706を移動させて表示パネル63に表示する。また、制御部302は、操作スイッチ30が押し込まれたことを検出した場合、選択項目が決定されたと判別する。
具体的に例えば、制御部302は、操作スイッチ30の左右操作又は上下操作に基づいて、カーソル画像706を移動させて表示パネル63に表示する。また、制御部302は、操作スイッチ30が押し込まれたことを検出した場合、選択項目が決定されたと判別する。
(ステップS728)操作部材により選択項目が選択されていないと判別した場合、制御部302は、指差しによる項目選択が行われるか否かをカメラ64が撮像した画像に基づいて判別する。制御部302は、指差しによる項目選択が行われると判別した場合(ステップS728;Yes)、ステップS729に進み、指差しによる項目選択が行われていないと判別した場合(ステップS728;No)、ステップS730に進む。
具体的に例えば、ユーザーは、表示パネル63に表示されている応答選択メニューの画像700を見ながら、応答選択メニューの画像700に含まれる選択項目を、ユーザーの指差しにより選択する。なお、表示パネル63上には、カメラ64が撮像した画像に、応答選択メニューの画像700が合成されて表示されている。
図43は、本実施形態に係る指差しによる項目選択が行われているときに表示パネル63に表示される画像の一例を説明する図である。ユーザーは、図43のように、表示パネル63に表示されている画像内にユーザーの指が映し出されるように、カメラ64が撮像している空間でユーザーの指を動かして、選択項目の画像701〜705のいずれかを指さすことで選択する。
図43に示した例は、ユーザーは、選択項目の画像703を選択した例である。そして、制御部302は、選択項目の画像703の領域において、ユーザーの指の画像707が2秒以上静止した場合に、この項目が選択されたと判別する。
なお、図43において、カーソル画像706を表示した例を示したが、制御部302は、指差しによる項目選択が行われていると判別した場合、カーソル画像706を応答選択メニューの画像700に表示しないようにしてもよい。また、表示パネル63に表示される画像は、複数のレイヤーが合成された画像である。例えば、表示パネル63に表示される画像は、カメラ64が撮像した画像が一番奥に配置される。そして、表示パネル63に表示される画像において、応答選択メニューの画像700は、カメラ64が撮像した画像より手前に表示されるように合成されて表示される。このため、ユーザーの手の画像により、選択項目の画像701〜705が隠れないため、ユーザーは、表示パネル63に表示されている画像を見ながら、指差しにより選択項目を選択できる。なお、制御部302は、ユーザーの指の画像を、カメラ64が撮像した画像から、例えばパターンマッチングの手法を用いて抽出し、抽出した指の画像に基づいて、指が指し示している表示パネル63上の座標を抽出する。制御部302は、このように抽出した表示パネル63上の座標と、予め各選択項目の画像領域の座標とを比較して、どの選択項目が選択されたのか判別する。
なお、ユーザーは、選択項目の選択を行わずに発話を行いたい場合、むろん通常の電話の会話と同じように音声による会話は可能である。
具体的に例えば、ユーザーは、表示パネル63に表示されている応答選択メニューの画像700を見ながら、応答選択メニューの画像700に含まれる選択項目を、ユーザーの指差しにより選択する。なお、表示パネル63上には、カメラ64が撮像した画像に、応答選択メニューの画像700が合成されて表示されている。
図43は、本実施形態に係る指差しによる項目選択が行われているときに表示パネル63に表示される画像の一例を説明する図である。ユーザーは、図43のように、表示パネル63に表示されている画像内にユーザーの指が映し出されるように、カメラ64が撮像している空間でユーザーの指を動かして、選択項目の画像701〜705のいずれかを指さすことで選択する。
図43に示した例は、ユーザーは、選択項目の画像703を選択した例である。そして、制御部302は、選択項目の画像703の領域において、ユーザーの指の画像707が2秒以上静止した場合に、この項目が選択されたと判別する。
なお、図43において、カーソル画像706を表示した例を示したが、制御部302は、指差しによる項目選択が行われていると判別した場合、カーソル画像706を応答選択メニューの画像700に表示しないようにしてもよい。また、表示パネル63に表示される画像は、複数のレイヤーが合成された画像である。例えば、表示パネル63に表示される画像は、カメラ64が撮像した画像が一番奥に配置される。そして、表示パネル63に表示される画像において、応答選択メニューの画像700は、カメラ64が撮像した画像より手前に表示されるように合成されて表示される。このため、ユーザーの手の画像により、選択項目の画像701〜705が隠れないため、ユーザーは、表示パネル63に表示されている画像を見ながら、指差しにより選択項目を選択できる。なお、制御部302は、ユーザーの指の画像を、カメラ64が撮像した画像から、例えばパターンマッチングの手法を用いて抽出し、抽出した指の画像に基づいて、指が指し示している表示パネル63上の座標を抽出する。制御部302は、このように抽出した表示パネル63上の座標と、予め各選択項目の画像領域の座標とを比較して、どの選択項目が選択されたのか判別する。
なお、ユーザーは、選択項目の選択を行わずに発話を行いたい場合、むろん通常の電話の会話と同じように音声による会話は可能である。
(ステップS729)図41に戻って、制御部302は、選定された選択項目に示されている言葉(ハイ、イイエ、今お答えできません、了解しました、終了します)を、ステップS719又はS720で特定した通信相手に応じた言語に翻訳する。次に、制御部302は、翻訳した選択項目を示す情報に基づいて生成した音声データを相手側の端末に、送受信部308を介して送信する。なお、制御部302は、予め選択項目の言葉を各言語で記憶部303等に記憶させておいてもよい。また、制御部302は、翻訳した選択項目を示す情報を文字情報として相手側の端末に送信するようにしてもよい。あるいは、制御部302は、翻訳した選択項目を示す情報を音声データ、及び文字情報の両方を相手側の端末に送信するようにしてもよい。
(ステップS730)制御部302は、通話が完了したか否かを判別する。制御部302は、通話が続いていると判別した場合(ステップS730;No)、ステップS724に戻し、通話が終了していると判別した場合(ステップS730;Yes)、ステップS731に進む。
(ステップS731)制御部302は、通話完了動作を行う。制御部302は、通話のログを記憶部303に記憶させてもよく、送受信部308を介して通話のログをサーバー200に送信するようにしてもよい。サーバー200は、受信した通話のログを記憶部202に記憶させるようにしてもよい。なお、通話のログとは、例えば、通話開始時刻、通話終了時刻、通話時間、通信相手の電話番号又はIPアドレス、通信相手のパーソナルデータのうち、少なくとも1つを含む情報である。
なお、上述した例では、サイレントモードに設定されている場合、かつHMD1がユーザーの頭部に装着されていると判別した場合(ステップS713、図41)、耳元スピーカー23から着信音を低音圧で鳴らす例を説明したが、これに限られない。サイレントモードに設定されている場合、かつユーザーの頭部にHMD1が装着されていると判別した場合であっても、処理部123は、バイブレータを振動させて、ユーザーに着信を報知するようにしてもよい。あるいは、処理部123は、耳元スピーカー23から着信音を低音圧で鳴しつつ、バイブレータを振動させて、ユーザーに着信を報知するようにしてもよい。このような場合、処理部123は、HMD1がユーザーの頭部に装着されていると判別した場合におけるバイブレータの振動の大きさを、ユーザーの頭部にHMD1が装着されていないと判別した場合におけるバイブレータの振動の大きさより小さくなるように制御するようにしてもよい。
また、処理部123は、ユーザーの頭部にHMD1が装着されていると判別した場合、例えばバックライト62を予め定められている周期で点滅させて、着信を報知するようにしてもよい。
また、処理部123は、ユーザーの頭部にHMD1が装着されていると判別した場合、例えばバックライト62を予め定められている周期で点滅させて、着信を報知するようにしてもよい。
以上のように、本実施形態の頭部装着型情報入出力装置(HMD1)は、自装置がユーザーの頭部に装着された場合、ユーザーの眼の近傍に配置され、ユーザーを検出する第1センサー(撮像素子72、加速度センサー132)と、所定の情報を報知する報知部(耳元スピーカー23、前方スピーカー70、バックライト62、表示パネル63、バイブレータ167)と、第1センサーが検出した検出値に基づいてユーザーが居眠り状態であるか否かを判定し、判定した結果に基づいて、報知部による報知を制御する制御部(制御部302)と、を備える。
この構成により、本実施形態のHMD1は、ユーザーの眼の近傍に配置されたセンサーの検出値に基づいて、ユーザーの居眠り状態を検出して、ユーザーが居眠り状態である場合、報知部から報知する。
この結果、本実施形態のHMD1は、ユーザーの移動手段にかかわらず、ユーザーが居眠り状態であることを検出しているので、ユーザーが居眠り状態である場合に適切に報知できる。従って、本実施形態のHMD1は、利便性が向上する。
この構成により、本実施形態のHMD1は、ユーザーの眼の近傍に配置されたセンサーの検出値に基づいて、ユーザーの居眠り状態を検出して、ユーザーが居眠り状態である場合、報知部から報知する。
この結果、本実施形態のHMD1は、ユーザーの移動手段にかかわらず、ユーザーが居眠り状態であることを検出しているので、ユーザーが居眠り状態である場合に適切に報知できる。従って、本実施形態のHMD1は、利便性が向上する。
なお、第1センサーとは、HMD1のユーザーが、居眠りしている状態であるのか否かを検出するセンサーである。撮像素子72が第1センサーの場合、撮像素子72は、ユーザーの眼の状態を撮像する。この場合、第1センサーが検出した検出値は、撮像画像である。また、加速度センサー132が第1センサーの場合、加速度センサー132は、ユーザーの頭又は体の揺れ、またはユーザーの頭又は体の傾きを検出する。この場合、第1センサーが検出した検出値は、揺れの周波数、又は傾きの角度である。
なお、報知部とは、音響信号により報知する耳元スピーカー23又は前方スピーカー70、振動により報知するバイブレータ167、光により報知するバックライト62及び表示パネル63、画像により報知する表示パネル63である。また、所定の情報とは、ユーザーが居眠り状態であるときの音響信号による警告音(アラーム)、ユーザーが居眠り状態であるときの振動、ユーザーが居眠り状態であるときの光の点滅、ユーザーが移動しているときの現在位置から目標地点までの音声または画像によるナビゲーションである。なお、現在位置とは、HMD1が利用されている位置であり、地名、ビル名、駅名、住所、緯度、経度、高度などのうち、少なくとも1つである。
なお、報知部とは、音響信号により報知する耳元スピーカー23又は前方スピーカー70、振動により報知するバイブレータ167、光により報知するバックライト62及び表示パネル63、画像により報知する表示パネル63である。また、所定の情報とは、ユーザーが居眠り状態であるときの音響信号による警告音(アラーム)、ユーザーが居眠り状態であるときの振動、ユーザーが居眠り状態であるときの光の点滅、ユーザーが移動しているときの現在位置から目標地点までの音声または画像によるナビゲーションである。なお、現在位置とは、HMD1が利用されている位置であり、地名、ビル名、駅名、住所、緯度、経度、高度などのうち、少なくとも1つである。
本実施形態に係るHMD1によれば、ユーザーの眼の状態、ユーザーの頭又は体の揺れを検出する。本実施形態に係るHMD1は、所定時間以上ユーザーの目が瞑られている目瞑り状態である場合、ユーザーがいる位置(場所)に応じて警告を発することでユーザーの注意を喚起するので、安全なシステムを提供できる。この結果、HMD1の利便性が向上する。また、本実施形態に係るHMD1は、所定時間以上ユーザーの頭又は体が揺れている場合、ユーザーが居眠り状態であると判別して、ユーザーに警告を発することでユーザーの注意を喚起するので、安全なシステムを提供できる。
なお、所定時間は、ユーザーが使用している移動手段、ユーザーがHMD1を使用している位置に応じて換えるようにしてもよい。例えば、公共機関の車両で移動していず他の移動手段で移動している場合、所定時間は1秒であってもよい。公共機関の車両で移動している場合、所定時間は5秒であってもよい。ユーザーが移動していず、ユーザーのいる位置の高度が高い場合、所定時間は3秒であってもよい。なお、移動手段の種類と所定時間とが関連づけられた情報は、居眠検出部310内に記憶されている。また、移動手段の種類とは、電車、バス、船舶、徒歩、自転車、自動車等である。
なお、所定時間は、ユーザーが使用している移動手段、ユーザーがHMD1を使用している位置に応じて換えるようにしてもよい。例えば、公共機関の車両で移動していず他の移動手段で移動している場合、所定時間は1秒であってもよい。公共機関の車両で移動している場合、所定時間は5秒であってもよい。ユーザーが移動していず、ユーザーのいる位置の高度が高い場合、所定時間は3秒であってもよい。なお、移動手段の種類と所定時間とが関連づけられた情報は、居眠検出部310内に記憶されている。また、移動手段の種類とは、電車、バス、船舶、徒歩、自転車、自動車等である。
さらに、本実施形態のHMD1は、「左右の眼の検出処理」の後、「居眠り検出の処理」を行う。これにより、本実施形態のHMD1は、撮像画像に含まれるユーザーの片眼を含む領域の画像を用いて、ユーザーが目を瞑っている状態であるか否かを判別することにより、居眠り検出を行い、検出した結果に基づいてユーザーに警告を行う。
この結果、本実施形態のHMD1は、ユーザーの顔全体又はユーザーの両眼を含む領域を撮像するために、撮像素子72をユーザーの顔から遠くに配置しなくてよい。このため、本実施形態のHMD1は、自装置の大型化を抑えることができる。
この結果、本実施形態のHMD1は、ユーザーの顔全体又はユーザーの両眼を含む領域を撮像するために、撮像素子72をユーザーの顔から遠くに配置しなくてよい。このため、本実施形態のHMD1は、自装置の大型化を抑えることができる。
本実施形態のHMD1は、ユーザーの移動中に、ユーザーが目を瞑っている状態であるか否かを検出した場合、ユーザーが移動している手段に応じて、報知する。報知の一例として、ユーザーが電車、バス、船舶などの公共の交通機関を利用して移動している場合、本実施形態のHMD1は、警告のアラームを報知する。また、ユーザーが電車又はバスで移動している場合、本実施形態のHMD1は、乗換駅又は降車駅であることを報知する。
この結果、本実施形態のHMD1は、ユーザーが目を瞑っている状態であるか否かを検出して、ユーザーの移動手段に応じた報知を行うため、利便性が向上する。さらに、本実施形態のHMD1は、「乗り物検出の処理」において、ユーザーが公共の交通機関を利用して移動している場合、HMD1が自動的にサイレントモードに設定するため、利便性が向上する。
この結果、本実施形態のHMD1は、ユーザーが目を瞑っている状態であるか否かを検出して、ユーザーの移動手段に応じた報知を行うため、利便性が向上する。さらに、本実施形態のHMD1は、「乗り物検出の処理」において、ユーザーが公共の交通機関を利用して移動している場合、HMD1が自動的にサイレントモードに設定するため、利便性が向上する。
なお、ステップS601〜S641(図38、図39)において、目瞑り状態であることを検出した場合、警告音又はアラームを、耳元スピーカー23から出力する例を説明したが、これに限られない。オーディオコネクター26にステレオイヤホン100が接続されている場合、音響制御部305は、これらの警告音をステレオイヤホン100に出力するようにしてもよい。また、音響制御部305は、警告音の換わりに、バイブレータ167を振動させて、目瞑りに対する警告、乗換駅又は降車駅に到着したことをユーザーに警告を行うようにしてもよい。また音響制御部305は、耳元スピーカー23又はステレオイヤホン100からの警告音、及びバイブレータ167に振動による警告の少なくとも1つによって、警告を行うようにしてもよい。
また、ステップS601〜S641(図38、図39)において、ナビゲーションの音声を耳元スピーカー23から出力する例を説明したが、これに限られない。オーディオコネクター26にステレオイヤホン100が接続されている場合、音響制御部305は、ナビゲーションの音声をステレオイヤホン100に出力するようにしてもよい。
また、ステップS601〜S641(図38、図39)において、ナビゲーションの音声を耳元スピーカー23から出力する例を説明したが、これに限られない。オーディオコネクター26にステレオイヤホン100が接続されている場合、音響制御部305は、ナビゲーションの音声をステレオイヤホン100に出力するようにしてもよい。
また、本実施形態に係るHMD1では、複数の報知部を備えている。複数の報知部は、上述のように、耳元スピーカー23、前方スピーカー70、バイブレータ167、バックライト62、表示パネル63である。
本実施形態に係るHMD1では、HMD1がユーザーの頭部に装着されている場合、耳元スピーカー23から低音圧で着信音や通話音を発するため、周囲に着信音等で迷惑をかけることなく、ユーザーは着信音及び通話音を聞くことができる。
また、本実施形態に係るHMD1では、HMD1がユーザーの頭部に装着されていない場合、前方スピーカー70から高音圧で着信音や通話音を発するために、ユーザーから離れた位置にHMD1がある場合であっても、ユーザーに着信音や通話音を確実に伝えることができる。
また、本実施形態に係るHMD1では、サイレントモードに設定されている場合かつHMD1をユーザーの頭部に装着している場合、耳元スピーカー23から着信音を発することにより、周囲に着信音等で迷惑をかけることなく、ユーザーが着信を確実に把握することが可能である。
また、本実施形態に係るHMD1では、サイレントモードに設定されている場合かつHMD1をユーザーの頭部に装着していない場合、バイブレータ167を振動させて着信を報知することにより、周囲に着信音等で迷惑をかけることなく、ユーザーが着信を確実に把握することが可能である。
本実施形態に係るHMD1では、HMD1がユーザーの頭部に装着されている場合、耳元スピーカー23から低音圧で着信音や通話音を発するため、周囲に着信音等で迷惑をかけることなく、ユーザーは着信音及び通話音を聞くことができる。
また、本実施形態に係るHMD1では、HMD1がユーザーの頭部に装着されていない場合、前方スピーカー70から高音圧で着信音や通話音を発するために、ユーザーから離れた位置にHMD1がある場合であっても、ユーザーに着信音や通話音を確実に伝えることができる。
また、本実施形態に係るHMD1では、サイレントモードに設定されている場合かつHMD1をユーザーの頭部に装着している場合、耳元スピーカー23から着信音を発することにより、周囲に着信音等で迷惑をかけることなく、ユーザーが着信を確実に把握することが可能である。
また、本実施形態に係るHMD1では、サイレントモードに設定されている場合かつHMD1をユーザーの頭部に装着していない場合、バイブレータ167を振動させて着信を報知することにより、周囲に着信音等で迷惑をかけることなく、ユーザーが着信を確実に把握することが可能である。
また、本実施形態のHMD1は、ユーザーの頭部にHMD1が装着されているか否かを第2センサーが検出した検出値に基づいて判別する。
本実施形態のHMD1は、ユーザーの頭部にHMD1が装着されているか否かを判別した結果、ユーザーの移動手段を判別した結果、ユーザーが居眠り状態であるか否かを判別した結果、ユーザーが目標位置に到着したか否かを判別した結果に基づいて、報知部から所定の情報を報知する。
この結果、本実施形態のHMD1は、ユーザーの頭部にHMD1が装着されている場合、ユーザーの移動手段に応じて報知を行うので、ユーザーに対する利便性が向上する。
例えば、本実施形態のHMD1は、ユーザーの頭部にHMD1が装着されている場合、ユーザーが居眠りしていては危険な状況においてユーザーに対して警告を音声又は振動により報知する。本実施形態のHMD1は、ユーザーの頭部にHMD1が装着されている場合、かつユーザーが移動している場合、現在位置から目標地点までのナビゲーションを音声又は画像により報知する。本実施形態のHMD1は、ユーザーの頭部にHMD1が装着されている場合、かつユーザーが移動している場合、かつユーザーが目標位置に到着した場合、ユーザーに対して目標地点に到達したことを音声又は画像により報知する。
なお、第2センサーは、ユーザーの頭部にHMD1が装着されているか否かを検出するセンサーである。心拍数センサー137が第2センサーの場合、第2センサーの検出値は、血流の変化による反射光量の変化を検出した検出値であり、心拍数であってもよい。また、制御部302は、第1センサーである撮像素子72が撮像した撮像画像に基づいて、ユーザーの頭部にHMD1が装着されているか否かを判別するようにしてもよい。例えば、制御部302は、撮像画像に含まれるユーザーの片眼を含む領域の画像の面積が、撮像画像の面積に対して予め定められている割合より大きい場合、ユーザーの頭部にHMD1が装着されていると判別するようにしてもよい。また、第2センサーは、機械スイッチであってもよく、この機械スイッチ(不図示)はヘッドバンド40に設けられているようにしてもよい。あるいは、第2センサーは、操作スイッチ30、又はタッチスイッチ34であってもよい。この場合、第2センサーの検出値は、ユーザーが操作スイッチ30、又はタッチスイッチ34を操作した操作入力である。ユーザーが操作スイッチ30、又はタッチスイッチ34を操作して、装着状態、又は非装着状態のうち、いずれかを選択するようにしてもよい。さらに第2センサーは、HMD1がヘッドバンド40や頭部に装着するヘルメット等の頭部装着手段に連結されたことを検出する機械スイッチであっても良い。
本実施形態のHMD1は、ユーザーの頭部にHMD1が装着されているか否かを判別した結果、ユーザーの移動手段を判別した結果、ユーザーが居眠り状態であるか否かを判別した結果、ユーザーが目標位置に到着したか否かを判別した結果に基づいて、報知部から所定の情報を報知する。
この結果、本実施形態のHMD1は、ユーザーの頭部にHMD1が装着されている場合、ユーザーの移動手段に応じて報知を行うので、ユーザーに対する利便性が向上する。
例えば、本実施形態のHMD1は、ユーザーの頭部にHMD1が装着されている場合、ユーザーが居眠りしていては危険な状況においてユーザーに対して警告を音声又は振動により報知する。本実施形態のHMD1は、ユーザーの頭部にHMD1が装着されている場合、かつユーザーが移動している場合、現在位置から目標地点までのナビゲーションを音声又は画像により報知する。本実施形態のHMD1は、ユーザーの頭部にHMD1が装着されている場合、かつユーザーが移動している場合、かつユーザーが目標位置に到着した場合、ユーザーに対して目標地点に到達したことを音声又は画像により報知する。
なお、第2センサーは、ユーザーの頭部にHMD1が装着されているか否かを検出するセンサーである。心拍数センサー137が第2センサーの場合、第2センサーの検出値は、血流の変化による反射光量の変化を検出した検出値であり、心拍数であってもよい。また、制御部302は、第1センサーである撮像素子72が撮像した撮像画像に基づいて、ユーザーの頭部にHMD1が装着されているか否かを判別するようにしてもよい。例えば、制御部302は、撮像画像に含まれるユーザーの片眼を含む領域の画像の面積が、撮像画像の面積に対して予め定められている割合より大きい場合、ユーザーの頭部にHMD1が装着されていると判別するようにしてもよい。また、第2センサーは、機械スイッチであってもよく、この機械スイッチ(不図示)はヘッドバンド40に設けられているようにしてもよい。あるいは、第2センサーは、操作スイッチ30、又はタッチスイッチ34であってもよい。この場合、第2センサーの検出値は、ユーザーが操作スイッチ30、又はタッチスイッチ34を操作した操作入力である。ユーザーが操作スイッチ30、又はタッチスイッチ34を操作して、装着状態、又は非装着状態のうち、いずれかを選択するようにしてもよい。さらに第2センサーは、HMD1がヘッドバンド40や頭部に装着するヘルメット等の頭部装着手段に連結されたことを検出する機械スイッチであっても良い。
また、本実施形態のHMD1では、まず「左右の眼の検出処理」を行う。これにより、本実施形態のHMD1は、撮像画像に含まれるユーザーの片眼を含む領域の画像を用いて、表示部60に表示された画像を観察している眼が右眼と左眼とのうちいずれであるかを認識する。
この結果、ユーザーの頭部に装着されたHMDの姿勢に係わらず、ユーザーが表示部60に表示された画像を観察している眼が右眼と左眼とのうちいずれであるかを認識できるHMD1を実現できる。また、本実施形態のHMD1は、表示部60に表示された画像を観察している眼が右眼と左眼とのうちいずれであるかを判別するため、ユーザーの顔全体または両眼を含む領域の撮像を行わなくてよい。このため、本実施形態のHMD1は、自装置の大型化を抑えることができる。
さらに、本実施形態のHMD1は、このように表示部60に表示された画像を観察している眼が右眼と左眼とのうちいずれであるかを認識した結果に応じて、表示部60に表示する画像の表示角度を変更する。そして、本実施形態のHMD1は、この表示角度に応じて、表示部60に画像を表示する。この結果、本実施形態のHMD1によれば、ユーザーは、ユーザーの頭部に装着されたHMD1の姿勢に係わらず、適切な表示角度で表示部60に表示されている画像を観察できる。
この結果、ユーザーの頭部に装着されたHMDの姿勢に係わらず、ユーザーが表示部60に表示された画像を観察している眼が右眼と左眼とのうちいずれであるかを認識できるHMD1を実現できる。また、本実施形態のHMD1は、表示部60に表示された画像を観察している眼が右眼と左眼とのうちいずれであるかを判別するため、ユーザーの顔全体または両眼を含む領域の撮像を行わなくてよい。このため、本実施形態のHMD1は、自装置の大型化を抑えることができる。
さらに、本実施形態のHMD1は、このように表示部60に表示された画像を観察している眼が右眼と左眼とのうちいずれであるかを認識した結果に応じて、表示部60に表示する画像の表示角度を変更する。そして、本実施形態のHMD1は、この表示角度に応じて、表示部60に画像を表示する。この結果、本実施形態のHMD1によれば、ユーザーは、ユーザーの頭部に装着されたHMD1の姿勢に係わらず、適切な表示角度で表示部60に表示されている画像を観察できる。
また、本実施形態のHMD1は、「左右の眼の検出処理」の後、「乗り物検出の処理」及び「居眠り検出の処理」を行う。本実施形態のHMD1は、加速度センサー132の検出値、GPSセンサー135の測位情報等に基づいて、ユーザーが移動している手段の検出を行う。そして、本実施形態のHMD1は、検出したユーザーの移動手段に応じて、ナビゲーションを行う。
この結果、本実施形態のHMD1は、HMD1を使用しているユーザーの移動手段に応じたナビゲーションを行うことができるので、利便性が向上する。
この結果、本実施形態のHMD1は、HMD1を使用しているユーザーの移動手段に応じたナビゲーションを行うことができるので、利便性が向上する。
さらに、本実施形態のHMD1は、「左右の眼の検出処理」の後、「注視点のキャリブレーション処理」を行う。この「注視点のキャリブレーション処理」において、ユーザーは、表示パネル63に表示された表示画像に含まれる操作画像の操作を操作部(操作スイッチ30、タッチスイッチ34)により行う。実施形態のHMD1は、操作部により操作が行われているとき、表示部60に表示されている表示画像に含まれる操作画像を注視している撮像画像を取得する。
また、本実施形態のHMD1は、「左右の眼の検出処理」の判別結果に基づいて、選択された撮像範囲QまたはR(図19参照)の画像を選択する。すなわち、本実施形態のHMD1は、画像を観察している眼が右眼と左眼とのうちいずれであるかを認識した結果に基づいて、撮像画像から「注視点のキャリブレーション処理」に用いるユーザーの眼の領域を含む画像を選択する。そして、本実施形態のHMD1は、この選択された撮像範囲の画像を用いて「注視点のキャリブレーション処理」を行う。そして、本実施形態のHMD1は、ユーザーの視線に基づいて操作するためのパラメータである、操作された操作画像に基づく第1座標と撮像画像に基づく第2座標とを取得する。そして、実施形態のHMD1は、取得した第1座標と第2座標との組み合わせに基づいて、注視点検出のためのキャリブレーションを自動的に行う。
このため、本実施形態のHMD1では、ユーザーがキャリブレーション設定をメニュー等から選択して行わなくても、単に表示画像に含まれる操作画像の操作を行うことで、注視点検出のためのキャリブレーションを行うことができる。また、本実施形態のHMD1では、従来のように、注視点検出のためのキャリブレーション用の画像をユーザーに注視させて行う、注視点検出のためのキャリブレーションを行わなくても、単に表示画像に含まれる操作画像の操作を行うことで、注視点検出のためのキャリブレーションを行うことができる。この結果、本実施形態によれば、利便性を向上することができる。
また、本実施形態のHMD1は、「左右の眼の検出処理」の判別結果に基づいて、選択された撮像範囲QまたはR(図19参照)の画像を選択する。すなわち、本実施形態のHMD1は、画像を観察している眼が右眼と左眼とのうちいずれであるかを認識した結果に基づいて、撮像画像から「注視点のキャリブレーション処理」に用いるユーザーの眼の領域を含む画像を選択する。そして、本実施形態のHMD1は、この選択された撮像範囲の画像を用いて「注視点のキャリブレーション処理」を行う。そして、本実施形態のHMD1は、ユーザーの視線に基づいて操作するためのパラメータである、操作された操作画像に基づく第1座標と撮像画像に基づく第2座標とを取得する。そして、実施形態のHMD1は、取得した第1座標と第2座標との組み合わせに基づいて、注視点検出のためのキャリブレーションを自動的に行う。
このため、本実施形態のHMD1では、ユーザーがキャリブレーション設定をメニュー等から選択して行わなくても、単に表示画像に含まれる操作画像の操作を行うことで、注視点検出のためのキャリブレーションを行うことができる。また、本実施形態のHMD1では、従来のように、注視点検出のためのキャリブレーション用の画像をユーザーに注視させて行う、注視点検出のためのキャリブレーションを行わなくても、単に表示画像に含まれる操作画像の操作を行うことで、注視点検出のためのキャリブレーションを行うことができる。この結果、本実施形態によれば、利便性を向上することができる。
さらに、本実施形態のHMD1では、「注視点のキャリブレーション処理」の後、「サイレントモードの処理」を行う。本実施形態のHMD1は、「サイレントモードの処理」において、ユーザーが発話できない状態の場合、応答選択メニューからユーザーの注視に基づいて、選択された項目に応じた内容を示す情報を通信相手に送信する。
このため、本実施形態のHMD1では、ユーザーが発話できない状態の場合であっても、通信相手とコミュニケーションを行うことができるので、利便性を向上することができる。
このため、本実施形態のHMD1では、ユーザーが発話できない状態の場合であっても、通信相手とコミュニケーションを行うことができるので、利便性を向上することができる。
さらに、本実施形態のHMD1において、「注視点のキャリブレーション処理」において、表示画像に含まれている操作画像は、パスワード入力画像のようにユーザーが操作する必然性のある画像である。ユーザーが操作する必然性のある画像であるため、ユーザーは、この操作画像に対して操作部で操作する。そして、実施形態のHMD1は、このように操作画像がユーザーの操作により選択されたときに第1座標と第2座標とを、自動的に取得している。そして、実施形態のHMD1では、このような「注視点のキャリブレーション処理」の後、ユーザーは、ユーザーの注視に基づいて通信相手からの着信に応じた選択項目を選択する。
このため、実施形態のHMD1では、単に表示画像に含まれる操作する必然性のある操作画像に対してユーザーが操作を行うことで、注視点検出のためのキャリブレーションを行うことができる。また、実施形態のHMD1では、従来のように注視点検出のためのキャリブレーションを行わなくても、単に表示画像に含まれる操作する必然性のある操作画像に対してユーザーが操作部で操作することで、注視点検出のためのキャリブレーションを行うことができる。そして、このように注視点検出のためのキャリブレーションを行った後に、通信相手からの着信に応じた選択項目をユーザーの注視に基づいて選択する。このため、ユーザーが発話できない状況であっても、ユーザーは、ユーザーの注視により通信相手とのコミュニケーションを行うことができる。この結果、本実施形態によれば、利便性を向上することができる。
このため、実施形態のHMD1では、単に表示画像に含まれる操作する必然性のある操作画像に対してユーザーが操作を行うことで、注視点検出のためのキャリブレーションを行うことができる。また、実施形態のHMD1では、従来のように注視点検出のためのキャリブレーションを行わなくても、単に表示画像に含まれる操作する必然性のある操作画像に対してユーザーが操作部で操作することで、注視点検出のためのキャリブレーションを行うことができる。そして、このように注視点検出のためのキャリブレーションを行った後に、通信相手からの着信に応じた選択項目をユーザーの注視に基づいて選択する。このため、ユーザーが発話できない状況であっても、ユーザーは、ユーザーの注視により通信相手とのコミュニケーションを行うことができる。この結果、本実施形態によれば、利便性を向上することができる。
なお、実施形態のHMD1では、視線入力のアプリケーションを開始する前であっても、ならびに同アプリケーションを実行中であっても、操作部の操作によって操作画像が選択されたとき毎に、注視点検出のための計算式のキャリブレーションを行う。この結果、実施形態のHMD1によれば、ユーザーが操作部を操作したタイミングで注視点検出のためのキャリブレーションを、操作画像が選択されたとき毎に自動的に行うため、高い精度で視線入力が可能になっている。また、この注視点検出のためのキャリブレーションにおいて、上述したように、本実施形態のHMD1では、ユーザーの片眼を含む領域の画像を用いて行い、両眼を含む画像を撮影する必要がないため、HMD1を小型化できる。
また、本実施形態のHMD1では、「眼球照明ランプの選択処理」で設定された眼球照明ライト166を点灯及び消灯することで、ユーザーの眼に適切な光線を照射することができる。このため、注視点検出のためのキャリブレーションを精度良く行うことができる。
また、本実施形態のHMD1では、「眼球照明ランプの選択処理」で設定された眼球照明ライト166を点灯及び消灯することで、ユーザーの眼に適切な光線を照射することができる。このため、注視点検出のためのキャリブレーションを精度良く行うことができる。
なお、図9〜図15を用いて説明したように、注視点検出のためのキャリブレーションの前に、画像の大きさを縮小させ、位置を移動させた場合、例えば、選択した表示領域Tに、パスワード入力画面400e、メニュー画面400f等を縮小して表示するようにしてもよい。また、注視点検出のためのキャリブレーションを行った後に、画像の大きさを縮小させ、位置を移動させた表示して視線入力を行う場合、表示位置、及び画像の縮小率に基づいて、記憶部303に記憶されている関係式の値を補正することで座標を変換するようにしてもよい。
なお、本実施形態では、注視点検出のためのキャリブレーションに、図34に示したパスワード入力画面等を用いる例を説明したが、これに限られない。操作スイッチ30により選択可能なキー、ボタン、アイコン等を、表示パネル63に表示させるようにしてもよい。この場合においても、従来技術とは異なり、キャリブレーションのためだけの表示ではなく、ユーザーが操作を行う必然性がある操作に関するキー、ボタン、アイコン等を表示する。ユーザーは、操作時に、これらのキー、ボタン、アイコン等を注視している確率が非常に高いので、操作時の撮像画像に基づいて、注視点検出のためのキャリブレーションを行うことができる。
なお、処理部123は、ユーザーの眼の位置を撮像画像に基づいて検出する場合、眼球照明ライト166を点灯させてもよい。また、処理部123は、ユーザーの眼が表示部60から離れた場合(図12及び図14を参照)、表示領域の縮小率を算出するために、輝点604A及び輝点604Bの間隔(図11を参照)と、輝点604C及び輝点604Dの間隔(図12を参照)との比を測定する。
この処理により、図9に示すところの表示領域Sを表示領域Tに縮小することで、処理部123は、ユーザーが表示全体を見渡せるようにすることが可能である。さらに、輝点604Aと輝点604Bとの中間の位置よりも、輝点604Eと輝点604F(図14を参照)との中間の位置がずれていると判別される場合、処理部123は、ユーザーの眼がベクトルV1だけずれていることがわかる。このようにして、処理部123の画像切替部306(図22を参照)は、図9における表示領域Tを、表示領域Uまでシフトさせることが可能となっている。
この処理により、図9に示すところの表示領域Sを表示領域Tに縮小することで、処理部123は、ユーザーが表示全体を見渡せるようにすることが可能である。さらに、輝点604Aと輝点604Bとの中間の位置よりも、輝点604Eと輝点604F(図14を参照)との中間の位置がずれていると判別される場合、処理部123は、ユーザーの眼がベクトルV1だけずれていることがわかる。このようにして、処理部123の画像切替部306(図22を参照)は、図9における表示領域Tを、表示領域Uまでシフトさせることが可能となっている。
[第2実施形態]
第2実施形態では、表示部60の位置600a及び位置600b(第1実施形態の図33を参照)を含む、表示部60の多くの位置について、眼球照明ライト166の点灯及び消灯を切り替える例を説明する。
第2実施形態では、表示部60の位置600a及び位置600b(第1実施形態の図33を参照)を含む、表示部60の多くの位置について、眼球照明ライト166の点灯及び消灯を切り替える例を説明する。
図44は、本実施形態に係るヘッドマウントディスプレイ(第2表示モード、待避モード)の装着形態を示す図である。図44では、装置本体部21は、ユーザーの左右の眼を仮想的に結んだ線を含むXY平面に対して、角度αだけ下側に傾いた姿勢となっている。
図44(A)は、右眼観察形態の第1表示モードから、表示部60を時計回り方向に90度回転させた装着形態を示す図である。この装着形態を、第2表示モードと称する。第2表示モードでは、表示部60の先端部が上側に位置するよう、表示部60は、収容部61a及び球状部61bを回転軸として、Y’軸回り(図3を参照)で時計回り方向に90度だけ回転される。これにより、表示部60及びファインダー開口部67は、ユーザー側から見ると、Z軸方向に縦長に配置される。また、表示パネル63は、アスペクト比が縦長の画像を表示する。
つまり、第2表示モードでは、表示部60の表示パネル63に表示される画像は、ユーザーの右眼に対して、斜め右前方向の位置に表示されることになる。また、第2表示モードでは、右眼の近傍にある眼球照明ライト166c及び166dが点灯し、眼球照明ライト166a及び166bが消灯する。
図44(B)は、右眼観察形態の第1表示モードから、表示部60を反時計回り方向に90度回転させた装着形態を示す図である。この装着形態を、待避モードと称する。待避モードでは、表示部60の先端部が下側に位置するよう、収容部61a及び球状部61bを回転軸として、表示部60をY’軸回り(図3を参照)で90度だけ反時計回り方向に回転される。これにより、表示部60及びファインダー開口部67は、ユーザーの右眼の視野から待避することになる。また、待避モードでは、眼球照明ライト166a〜166dは、全て消灯してもよい。
第1表示モード、第2表示モード、及び待避モードにおいて、表示部60の回転軸は共通である。このため、第2表示モード又は待避モードから、表示部60を90度回転させれば、第1表示モードに戻すことができる。すなわち、ユーザーは、HMD1を外したり、装置本体部21の角度を変えたりせずに、表示部60をユーザーの右眼の視野から待避させたり、観察位置に戻したりすることができる。
なお、図44(A)及び図44(B)に示した例では、右眼観察形態の第1表示モードから、表示部60を縦に配置させる例を説明したが、図5(B)に示した左眼観察形態の第1表示モードからも同様に、表示部60を縦に配置させることができる。すなわち、左眼観察形態の第1表示モードから、収容部61a及び球状部61bを中心軸として、XZ平面で反時計回り方向に90度だけ、表示部60を回転させることで、ユーザーは、左眼観察形態の第2表示モードに、HMD1を切り替え可能である。同様に、右眼観察形態の第1表示モードから、収容部61a及び球状部61bを中心軸として、Y’軸回り(図3を参照)で時計回り方向に90度だけ、表示部60を回転させることで、ユーザーは、左眼観察形態の待避モードに、HMD1を切り替え可能である。
制御部302(図22を参照)は、加速度センサー132が検出した検出値、及び撮像素子72による撮像画像に基づいて、右眼観察形態又は右眼観察形態と、第1表示モード、第2表示モード又は待避モードとを判別する。ここで、制御部302は、撮像素子72による撮像画像については、例えば、眉毛と眼との相対位置、瞬きでの瞼の挙動、眉毛の輪郭、眼の輪郭、眼の左右の目尻の下がり方等に基づいて、右眼観察形態又は右眼観察形態と、第1表示モード、第2表示モード又は待避モードとを判別する。また、制御部302は、撮像素子72による撮像画像にユーザーの眼球が撮像されていない場合、待避モードであると判別する。
図45は、本実施形態に係る表示部60の位置と眼球照明ライト166の関係を説明する図であり、ユーザーの顔を正面から水平に見た場合の図である。図45において、一点鎖線の四角形で示された位置600a〜600hは、表示部60が配置される位置の例である。
<第1表示モード>
位置600aは、ユーザーの右眼の下側に、横向きに配置されている表示部60の位置である。また、位置600bは、ユーザーの左眼の下側に、横向きに配置されている表示部60の位置である。また、位置600cは、ユーザーの右眼の上側に、横向きに配置されている表示部60の位置である。また、位置600dは、ユーザーの左眼の上側に、横向きに配置されている表示部60の位置である。
位置600aは、ユーザーの右眼の下側に、横向きに配置されている表示部60の位置である。また、位置600bは、ユーザーの左眼の下側に、横向きに配置されている表示部60の位置である。また、位置600cは、ユーザーの右眼の上側に、横向きに配置されている表示部60の位置である。また、位置600dは、ユーザーの左眼の上側に、横向きに配置されている表示部60の位置である。
<第2表示モード>
位置600eは、ユーザーの右眼の右側に、縦向きに配置されている表示部60の位置である。また、位置600fは、ユーザーの左眼の左側に、縦向きに配置されている表示部60の位置である。
位置600eは、ユーザーの右眼の右側に、縦向きに配置されている表示部60の位置である。また、位置600fは、ユーザーの左眼の左側に、縦向きに配置されている表示部60の位置である。
HMD1の制御部302(図22を参照)は、位置600a、600d又は600fのいずれかに表示部60がある場合、この位置でユーザーの眼のより近傍に位置する眼球照明ライト166a及び166bを点灯させ、眼球照明ライト166c及び166dを消灯させる。一方、位置600b、600c又は600eのいずれかに表示部60がある場合、この位置でユーザーの眼のより近傍に位置する眼球照明ライト166c及び166dを点灯させ、眼球照明ライト166a及び166bを消灯させる。
このように、制御部302は、ファインダー開口部67の隅の近傍(予め定められた距離以内)に配置されている眼球照明ライト166a〜166dのうち、ユーザーの眼をより正面から照射する眼球照明ライトが点灯するように、ユーザーと表示部60との位置関係に応じて点灯状態を制御する。
<待避モード>
位置600gは、ユーザーの右眼の右下側に、縦向きに配置されている表示部60の位置である。また、位置600hは、ユーザーの左眼の左下側に、縦向きに配置されている表示部60の位置である。
位置600g及び600hの位置に表示部60がある場合、制御部302は、眼球照明ライト166a〜166dを、全て消灯させる。
位置600gは、ユーザーの右眼の右下側に、縦向きに配置されている表示部60の位置である。また、位置600hは、ユーザーの左眼の左下側に、縦向きに配置されている表示部60の位置である。
位置600g及び600hの位置に表示部60がある場合、制御部302は、眼球照明ライト166a〜166dを、全て消灯させる。
次に、注視点検出のためのキャリブレーション時、点灯させる眼球照明ライトを選択する選択処理について説明する。
図46は、本実施形態に係るHMD1の眼球照明ライトの選択処理手順のフローチャートである。
図46は、本実施形態に係るHMD1の眼球照明ライトの選択処理手順のフローチャートである。
(ステップS801)制御部302は、眼球照明部304を介して、眼球照明ライト166a及び166bを点灯させる。次に、制御部302は、撮像素子72を駆動して撮像画像を取得し、取得した撮像画像を記憶部303に記憶させる。
(ステップS802)制御部302は、眼球照明部304を介して、眼球照明ライト166a及び166bを消灯させ、眼球照明ライト166c及び166dを点灯させる。次に、制御部302は、撮像素子72を駆動して撮像画像を取得し、取得した撮像画像を記憶部303に記憶させる。
(ステップS803)制御部302は、ステップS801で記憶させた撮像画像を読み出し、読み出した撮像画像から、眼球照明ライト166a及び166bに対応する輝点の画像を抽出する。次に、制御部302は、抽出した輝点の画像の輝度を算出する。次に、制御部302は、ステップS802で記憶させた撮像画像を読み出し、読み出した撮像画像から、眼球照明ライト166c及び166dに対応する輝点の画像を抽出する。次に、制御部302は、抽出した輝点の画像の輝度を算出する。
次に、制御部302は、眼球照明ライト166a及び166bに対応する輝点の輝度の方が、眼球照明ライト166c及び166dに対応する輝点の輝度より高いか否かを判別する。眼球照明ライト166a及び166bに対応する輝点の輝度の方が、眼球照明ライト166c及び166dに対応する輝点の輝度より高いと判別された場合(ステップS803;Yes)、ステップS804に進む。眼球照明ライト166a及び166bに対応する輝点の輝度の方が、眼球照明ライト166c及び166dに対応する輝点の輝度より高くないと判別された場合(ステップS803;No)、ステップS805に進む。
次に、制御部302は、眼球照明ライト166a及び166bに対応する輝点の輝度の方が、眼球照明ライト166c及び166dに対応する輝点の輝度より高いか否かを判別する。眼球照明ライト166a及び166bに対応する輝点の輝度の方が、眼球照明ライト166c及び166dに対応する輝点の輝度より高いと判別された場合(ステップS803;Yes)、ステップS804に進む。眼球照明ライト166a及び166bに対応する輝点の輝度の方が、眼球照明ライト166c及び166dに対応する輝点の輝度より高くないと判別された場合(ステップS803;No)、ステップS805に進む。
(ステップS804)眼球照明ライト166a及び166bに対応する輝点の輝度の方が、眼球照明ライト166c及び166dに対応する輝点の輝度より高いと判別された場合、制御部302は、眼球照明ライト166a及び166bを選択し、選択した結果を記憶部303に記憶させる。制御部302は、眼球照明ライト166c及び166dを消灯させて、眼球照明ライトの選択処理を終了する。
(ステップS805)眼球照明ライト166a及び166bに対応する輝点の輝度の方が、眼球照明ライト166c及び166dに対応する輝点の輝度より高くないと判別された場合、制御部302は、眼球照明ライト166c及び166dを選択し、選択した結果を記憶部303に記憶させる。制御部302は、眼球照明ライト166c及び166dを消灯させて、眼球照明ライトの選択処理を終了する。
第2実施形態のHMD1は、第1実施形態のHMD1の場合と同様に、「左右の眼の検出処理」後、「乗り物検出の処理」及び「居眠り検出の処理」を行う。この結果、第2実施形態のHMD1は、第1実施形態のHMD1の場合と同様に、適切に撮像された撮像画像に基づいて、居眠り検出を行うようにしたので、運転中等にユーザーが目を瞑っている状態の場合、ユーザーに報知することができる。従って、第2実施形態のHMD1は、利便性を向上できる。
また、第2実施形態においても、注視点検出のためのキャリブレーション時、図30のステップS502又はS503の代わりに、上述したようにユーザーと表示部60との位置関係に応じて眼球照明ライト166の点灯と消灯を制御する。
また、上述したように、眼球照明ライト166の輝度に基づいて、眼球照明ライト166を制御するようにしたので、本実施形態のHMD1は、ユーザーの眼と表示部60との位置関係に応じて眼球を照明するライトの選択が適宜行うことが可能となる。さらに、本実施形態のHMD1は、使用しない眼球照明ライト166を消灯することで、効率的な省電力対策が可能となっている。
また、第2実施形態においても、注視点検出のためのキャリブレーション時、図30のステップS502又はS503の代わりに、上述したようにユーザーと表示部60との位置関係に応じて眼球照明ライト166の点灯と消灯を制御する。
また、上述したように、眼球照明ライト166の輝度に基づいて、眼球照明ライト166を制御するようにしたので、本実施形態のHMD1は、ユーザーの眼と表示部60との位置関係に応じて眼球を照明するライトの選択が適宜行うことが可能となる。さらに、本実施形態のHMD1は、使用しない眼球照明ライト166を消灯することで、効率的な省電力対策が可能となっている。
なお、本実施形態では、眼球照明ライト166の輝度と、ユーザーと表示部60との位置関係とに応じて、眼球照明ライト166の点灯及び消灯を制御する例を説明したが、眼球照明ライト166の点灯及び消灯を制御する例は、これに限られない。例えば、制御部302は、取得した撮像画像と記憶部303に記憶されている判別用画像とを、パターンマッチングにより比較し、比較した結果に基づいて、ユーザーと表示部60との位置関係に応じて、眼球照明ライト166の点灯と消灯を制御するようにしてもよい。
以上のように、本実施形態のHMD1は、ユーザーの眼に対してユーザーの下側もしくは上側や外側に表示部60が配置された場合であっても、ユーザーと表示部60との位置関係に応じて、眼球照明ライト166の点灯と消灯を制御する。この結果、本実施形態のHMD1は、ユーザーと表示部60との位置関係に応じて、ユーザーの眼に適切な眼球照明ライト166の光による輝点に基づいてユーザーの視点を精度良く検出できるので、注視点検出のためのキャリブレーションを精度良く行うことができる。従って、第1実施形態と同様に、「サイレントモードの処理」において、ユーザーは表示パネル63に表示されている選択項目を注視により選択することで、発話できない環境(状況)であっても通信相手とのコミュニケーションを行うことができる。
また、本実施形態のHMD1は、第1実施形態と同様に、ユーザーと表示部60との位置関係に応じて、眼球照明ライト166を消灯できるので、消費電力を削減することができる。
また、本実施形態のHMD1は、第1実施形態と同様に、ユーザーと表示部60との位置関係に応じて、眼球照明ライト166を消灯できるので、消費電力を削減することができる。
なお、表示部60がユーザーの顔の正面にあり、眼球照明ライト166a〜166dの全てがユーザーの水平視線からほぼ等距離な位置にあると判別される場合、HMD1は、原理的にはどの眼球照明ライト166を点灯してもよい。しかしながら、通常は眼の上方向には、天井の照明や空や太陽などがあり、これらの光源による輝点が眼球上に存在する可能性がある。そして、これらの輝点と眼球照明ライト166の輝点とが識別がしづらくなることから、表示部60がユーザーの顔のほぼ正面にあると判別される場合、HMD1は、眼の鉛直下方向に配置された眼球照明ライト166を点灯するように制御を行うようにしてもよい。
なお、表示部60を含むファインダー開口部67の長辺の近傍に眼球照明ライト166a〜166dを備える例を説明したが(図2を参照)、眼球照明ライト166a〜166dを備える例は、これに限られない。すなわち、眼球照明ライト166は、ファインダー開口部67の短辺の近傍に配置されてもよい。
[第3実施形態]
次に、表示部がシースルー光学系の場合について説明する。
第1及び第2実施形態との差異は、表示部60の構成のみである。
図47は、本実施形態に係る本実施形態に係る光学系を説明するための表示部60aの断面図である。図8と同じ機能の部材には同じ番号を設けてあるので説明は省略する。
次に、表示部がシースルー光学系の場合について説明する。
第1及び第2実施形態との差異は、表示部60の構成のみである。
図47は、本実施形態に係る本実施形態に係る光学系を説明するための表示部60aの断面図である。図8と同じ機能の部材には同じ番号を設けてあるので説明は省略する。
図47に示すように、本実施形態の表示部60aは、バックライト62、表示パネル63、第1プリズム65a、第2プリズム65b、反射ミラー66、ファインダー開口部67、結像レンズ71、撮像素子72、1/4波長板75、偏光板90、凹レンズ91、1/4波長板92、液晶93、偏光板94、開口部95を含んで構成されている。図47において、符号H、I、J、K、O、Tは、各々、光線を表し、符号Sは、ユーザーの眼から出た光束を表す。
図47に示すように、ユーザーの前面の景色は、光線Oとなって開口部95に入射する。次に、光線Oは、開口部95を抜けて、偏光板94を透過する。次に、光線Oは、S偏光のみが透過する。
次に、光線Oは、液晶93に入射する。なお、光線Oは、液晶93の働きにより偏光方向が変わる。すなわち、液晶93に通電した場合(オン状態)、光線Oは、液晶93に入射したS偏光がP偏光となって、1/4波長板92に入射する。次に、光線Oは、1/4波長板92の働きにより左回りの偏光となる。
次に、光線Oは、液晶93に入射する。なお、光線Oは、液晶93の働きにより偏光方向が変わる。すなわち、液晶93に通電した場合(オン状態)、光線Oは、液晶93に入射したS偏光がP偏光となって、1/4波長板92に入射する。次に、光線Oは、1/4波長板92の働きにより左回りの偏光となる。
本実施形態において反射ミラー66は、半透過タイプとなっており、例えば、50%の光線を透過し、50%の光を反射する。反射ミラー66が、50%の光線を透過するとして以下を説明する。この結果、光線Oの50%が、1/4波長板75に入射する。
なお、凹レンズ91は、反射ミラー66を構成する凸レンズとペアとなって、パワーゼロの平行平板となるようにするための部材である。
なお、凹レンズ91は、反射ミラー66を構成する凸レンズとペアとなって、パワーゼロの平行平板となるようにするための部材である。
次に、光線Oは、1/4波長板75の作用で、P偏光となり、第1プリズム65aに入射する。次に、光線Oは、接合面65cをそのまま透過して、第2プリズム65bを透過して偏光板90に入射する。偏光板90は、P偏光を透過するように構成されている。
以上の構成により、ユーザーによって外界の画像(開口部95を通して見る画像)が、表示パネル63から投影される画像とともに観察可能となっている。
以上の構成により、ユーザーによって外界の画像(開口部95を通して見る画像)が、表示パネル63から投影される画像とともに観察可能となっている。
次に、外界の画像を消し、表示パネル63から投影される画像のみを観察する場合について説明する。
図47において、液晶93を無通電の状態(オフ状態)にすると、光線Oは、液晶93により光線Oの偏光方向が変化されない。このため、光線Oは、偏光板94でS偏光となる。次に、光線Oは、そのままが1/4波長板92に入射する。次に、光線Oは、1/4波長板の働きにより右回りの偏光となる。
図47において、液晶93を無通電の状態(オフ状態)にすると、光線Oは、液晶93により光線Oの偏光方向が変化されない。このため、光線Oは、偏光板94でS偏光となる。次に、光線Oは、そのままが1/4波長板92に入射する。次に、光線Oは、1/4波長板の働きにより右回りの偏光となる。
次に、反射ミラー66を透過した光線Oの50%が、1/4波長板75に入射する。次に、光線Oは、1/4波長板75の作用で、S偏光となる。次に、S偏光になった光線Oは、第1プリズム65aに入射する。接合面65cに設けられた偏光反射膜は、S偏光を反射する。この結果、ユーザーの眼に外界の光線が、入射しない。
このように、液晶93のオン状態とオフ状態の切り替えによって、外界の画像をファインダー内に透過して使用者によって観察可能か否かを制御することが可能である。なお、液晶93のオン状態とオフ状態の切り替えは、例えば処理部123が行う。
図47において、偏光板90の働きは、反射ミラー66によってユーザーが自分の眼を拡大して観察しないように配置している。ユーザーが自分の眼を拡大して観察しない理由について、説明する。
ユーザーの眼から出た光束Sは、偏光板90でP偏光のみが透過し、第2プリズム65b、接合面65c、第1プリズム65aを透過して、1/4波長板75に入射する。ここで、光線Sは、1/4波長板75の作用により左回りの円偏光となり、反射ミラー66で光線Tとして反射される。次に、光線Tは、反射によって右回りの円偏光となり、1/4波長板75を透過する際にS偏光となる。
次に、光線Tは、第1プリズム65aを透過して接合面65cに入射する。ここで、接合面65cはS偏光を反射して透過しない。従って、ユーザーの眼には、自分自身の眼からでた光束が入射することはなく、表示画面中に自分の眼が見えることは無い。
ユーザーの眼から出た光束Sは、偏光板90でP偏光のみが透過し、第2プリズム65b、接合面65c、第1プリズム65aを透過して、1/4波長板75に入射する。ここで、光線Sは、1/4波長板75の作用により左回りの円偏光となり、反射ミラー66で光線Tとして反射される。次に、光線Tは、反射によって右回りの円偏光となり、1/4波長板75を透過する際にS偏光となる。
次に、光線Tは、第1プリズム65aを透過して接合面65cに入射する。ここで、接合面65cはS偏光を反射して透過しない。従って、ユーザーの眼には、自分自身の眼からでた光束が入射することはなく、表示画面中に自分の眼が見えることは無い。
また、眼の周辺画像を撮影するための結像レンズ71ならびに撮像素子72は、ファインダー開口部67に隣接して設けられている。このため、結像レンズ71ならびに撮像素子72系の光線は、第2プリズム65bを透過せずに、直接ユーザーの眼の近傍を撮影可能となっている。
図48は、本実施形態に係る観察範囲と撮像範囲を説明する図である。図48において、符号67aは、表示パネル63から投影された画像の観察範囲を表している。符号67cは、撮像素子72の撮像範囲を表している。
また、図48は、図10等と同様に、反射ミラー66を凸レンズに置き換えて、等価的に表した図である。
また、図48は、図10等と同様に、反射ミラー66を凸レンズに置き換えて、等価的に表した図である。
図48において、結像レンズ71の焦点距離は、反射ミラー66の焦点距離より短く作られている。このため、図47を紙面とは垂直に断面を切り取った場合、図48で示すように、ユーザーの眼を含むその周囲の様子が撮影可能となっている。
なお、図48において、結像レンズ71ならびに撮像素子72は、反射ミラー66の光学中心とはオフセットしている。しかしながら、ユーザーは、表示部60aを眼の正面ではなく、口元の方向へ下げることでファインダー開口部67から眼を十分に離すことが可能となっており、図48に示すようにユーザーの眼は観察距離L81の位置にある。このため、ユーザーが表示パネル63を観察している場合、本実施形態によれば、撮像素子72は、問題なくユーザーの眼ならびにその周囲を撮影可能となっている。
なお、図48において、結像レンズ71ならびに撮像素子72は、反射ミラー66の光学中心とはオフセットしている。しかしながら、ユーザーは、表示部60aを眼の正面ではなく、口元の方向へ下げることでファインダー開口部67から眼を十分に離すことが可能となっており、図48に示すようにユーザーの眼は観察距離L81の位置にある。このため、ユーザーが表示パネル63を観察している場合、本実施形態によれば、撮像素子72は、問題なくユーザーの眼ならびにその周囲を撮影可能となっている。
上述した構成を備えることで、ユーザーの眼を含む撮像を行い、第1実施形態と同様に、撮像素子72が撮像した画像に基づいて、HMD1の装着状態、視線キャリブレーションを行うことができるシースルー光学系の表示部を備えるヘッドマウントディスプレイを提供することができる。
なお、第2実施形態においても、第1実施形態で説明したように、眼球照明ライトを、ファインダー開口部67の4辺のうち、対向する2辺の近傍に各々配置するようにしてもよい。
なお、第2実施形態においても、第1実施形態で説明したように、眼球照明ライトを、ファインダー開口部67の4辺のうち、対向する2辺の近傍に各々配置するようにしてもよい。
第3実施形態のHMD1は、第1実施形態のHMD1の場合と同様に、「左右の眼の検出処理」後、「乗り物検出の処理」及び「居眠り検出の処理」を行う。この結果、第3実施形態のHMD1は、第1実施形態のHMD1の場合と同様に、適切に撮像された撮像画像に基づいて、居眠り検出を行うようにしたので、運転中等にユーザーが目を瞑っている状態の場合、ユーザーに報知することができる。従って、第3実施形態のHMD1は、利便性を向上できるシースルー光学系の表示部60aを備えるヘッドマウントディスプレイを提供することができる。
また、第3実施形態のHMD1は、第1実施形態のHMD1の場合と同様に、HMD1がユーザーの頭部近傍にあるか否か、及びサイレントモードの設定に基づいて「サイレントモードの処理」を行う。この結果、第3実施形態のHMD1は、第1実施形態のHMD1の場合と同様に、着信音及び通話音がユーザーに適切に報知できる。従って、第3実施形態のHMD1は、利便性を向上できるシースルー光学系の表示部60aを備えるヘッドマウントディスプレイを提供することが可能になる。
また、第3実施形態のHMD1は、第1実施形態のHMD1の場合と同様に、HMD1がユーザーの頭部近傍にあるか否か、及びサイレントモードの設定に基づいて「サイレントモードの処理」を行う。この結果、第3実施形態のHMD1は、第1実施形態のHMD1の場合と同様に、着信音及び通話音がユーザーに適切に報知できる。従って、第3実施形態のHMD1は、利便性を向上できるシースルー光学系の表示部60aを備えるヘッドマウントディスプレイを提供することが可能になる。
なお、第1〜第3実施形態では、ヘッドマウントディスプレイの例として、右眼観察形態と左眼観察形態を切り替えて使用できるヘッドマウントディスプレイの例を説明したが、これに限られない。例えば、右眼観察形態専用、または左眼観察形態専用のヘッドマウントディスプレイであってもよい。この場合、本実施形態で説明した処理の内、右眼観察形態、または左眼観察形態に関する処理のみを行うようにしてもよい。
なお、第1〜第3実施形態において、表示部60(または表示部60a)の画像を観察している眼を認識する際に、制御部302は、バックライト62を点灯させるようにしてもよい。これにより、さらに撮像画像に含まれるユーザーの眼の領域を含む画像が鮮明になり、「左右の眼の検出処理」における演算処理が簡単になる。または、制御部302は、バックライト62を消灯させた撮像画像と、バックライト62を点灯させた撮像画像の両方を用いて「左右の眼の検出処理」を行うようにしてもよい。この場合、制御部302は、撮像画像において、ユーザーの眼を含む領域がより鮮明な方を用いて、「左右の眼の検出処理」を行うようにしてもよい。
なお、第1〜第3実施形態では、撮像画像の例として、図11、図12、図14、図26、図27、及び図28に示したように、ユーザーの片眼を含む領域が撮像された例を説明したがこれに限られない。撮像画像には、ユーザーの両眼を含む領域が撮像されていてもよく、またはユーザーの両眼のうち、片眼を含む領域のみならず、ユーザーの他の片眼を含む領域が撮像されていてもよい。
この場合、制御部302は、撮像画像において占める面積が多い方の眼の画像領域を抽出して、抽出した画像領域をユーザーの片眼を含む領域とする。そして、制御部302は、この抽出したユーザーの片眼を含む領域に基づいて「左右の眼の検出処理」を行うようにしてもよい。あるいは、制御部302は、撮像画像において眼球の画像が撮像画像の中心により近い方の眼の画像領域を抽出して、抽出した画像領域に基づいて「左右の眼の検出処理」を行うようにしてもよい。
また、制御部302は、眉毛の画像を抽出し、抽出した眉毛の画像の近傍にある眼の画像を抽出して、「左右の眼の検出処理」を行う。このように眉毛の画像の近傍にある眼の画像を抽出することで、本発明に係るHMD1では、ユーザーの片眼を含む領域の画像に、ユーザーの両眼のうち他の片眼の画像又はその眼に対応する眉毛の画像が含まれていても、ユーザーの片眼の画像およびその眼に対応する眉毛の画像を適切に抽出できる。この結果、本発明に係るHMD1では、ユーザーの片眼を含む領域に基づいて、表示部60に表示された画像を観察している眼が右眼と左眼とのいずれかであるかを適切に認識できる。
この場合、制御部302は、撮像画像において占める面積が多い方の眼の画像領域を抽出して、抽出した画像領域をユーザーの片眼を含む領域とする。そして、制御部302は、この抽出したユーザーの片眼を含む領域に基づいて「左右の眼の検出処理」を行うようにしてもよい。あるいは、制御部302は、撮像画像において眼球の画像が撮像画像の中心により近い方の眼の画像領域を抽出して、抽出した画像領域に基づいて「左右の眼の検出処理」を行うようにしてもよい。
また、制御部302は、眉毛の画像を抽出し、抽出した眉毛の画像の近傍にある眼の画像を抽出して、「左右の眼の検出処理」を行う。このように眉毛の画像の近傍にある眼の画像を抽出することで、本発明に係るHMD1では、ユーザーの片眼を含む領域の画像に、ユーザーの両眼のうち他の片眼の画像又はその眼に対応する眉毛の画像が含まれていても、ユーザーの片眼の画像およびその眼に対応する眉毛の画像を適切に抽出できる。この結果、本発明に係るHMD1では、ユーザーの片眼を含む領域に基づいて、表示部60に表示された画像を観察している眼が右眼と左眼とのいずれかであるかを適切に認識できる。
また、第1〜第3実施形態において、図2では、表示部60及びファインダー開口部67が長方形である例を示したが、表示部60及びファインダー開口部67は、正方形、楕円形、円形等であってもよい。表示部60及びファインダー開口部67が、このような形状であっても、複数の眼球照明ライトを、図2に示したように、ファインダー開口部67の4辺のうち、対向する2辺の近傍に各々配置するようにしてもよい。
なお、第1〜第3実施形態では、眼球照明ライト166a〜166d、または166e〜166hを、例えば図2に示したように、ファインダー開口部67の上下または左右に、各々2個ずつ設ける例を説明したが、これに限られない。例えば、ファインダー開口部67の上下または左右に、各々1個ずつ設けるようにしてもよい、ファインダー開口部67の上下または左右に、各々3個以上ずつ設けるようにしてもよい。
さらに、眼球照明ライト166a〜166dを設ける位置は、図2に示したようなファインダー開口部67の上下でなくてもよい。ユーザーの眼球に照射できる位置であればよく、例えば、眼球照明ライト166a〜166dは、ファインダー開口部67の内側の上下に設けるようにしてもよい。すなわち、ユーザーが、HMD1をユーザーの眼の近傍に表示部60が配置したとき、眼球照明ライト166a〜166dのいずれかがユーザーの眼の近傍に配置されればよい。このため、眼球照明ライト166a〜166dは、ファインダー開口部67が配置された表示部60の一面の範囲、または、ファインダー開口部67の内側の範囲に配置されるようにしてもよい。また、表示部60が配置されるユーザーの眼の近傍とは、例えば、図45に示した位置600a〜600fのように、ユーザーの眼の下、上、外側等であり、撮像素子72によりユーザーの眼の周辺画像を撮像できる範囲であればよい。
さらに、眼球照明ライト166a〜166dを設ける位置は、図2に示したようなファインダー開口部67の上下でなくてもよい。ユーザーの眼球に照射できる位置であればよく、例えば、眼球照明ライト166a〜166dは、ファインダー開口部67の内側の上下に設けるようにしてもよい。すなわち、ユーザーが、HMD1をユーザーの眼の近傍に表示部60が配置したとき、眼球照明ライト166a〜166dのいずれかがユーザーの眼の近傍に配置されればよい。このため、眼球照明ライト166a〜166dは、ファインダー開口部67が配置された表示部60の一面の範囲、または、ファインダー開口部67の内側の範囲に配置されるようにしてもよい。また、表示部60が配置されるユーザーの眼の近傍とは、例えば、図45に示した位置600a〜600fのように、ユーザーの眼の下、上、外側等であり、撮像素子72によりユーザーの眼の周辺画像を撮像できる範囲であればよい。
なお、第1〜第3実施形態では、右眼観察形態であるか左眼観察形態であるかを、加速度センサー132の検出値、または撮像素子72が撮像した画像を用いる例を説明したが、これに限られない。例えば、眼球照明ライト166a〜166dに受光部を備えるタイプを使用し、各眼球照明ライト166a〜166dによる反射光を検出するようにしてもよい。例えば、右眼観察形態の場合、図33に示したように、眼球照明ライト166a及び166bは、眼球照明ライト166c及び166dよりも、ユーザーの眼のより正面に配置される。このため、眼球照明ライト166c及び166dによる反射光の輝度は、眼球照明ライト166a及び166bによる反射光の輝度よりも低い。
このように、処理部123は、各眼球照明ライト166a〜166dによる反射光を検出し、検出した結果に基づいて観察形態を判別するようにしてもよい。
このように、処理部123は、各眼球照明ライト166a〜166dによる反射光を検出し、検出した結果に基づいて観察形態を判別するようにしてもよい。
また、撮像素子72は、所定の時間間隔で、撮像画像を撮像してもよい。この場合、処理部123は、メインスイッチ28をオフ状態にせずに、ユーザーがヘッドマウントディスプレイを頭部から外しているのか否かを、撮像素子72が撮像した画像に基づいて判別するようにしてもよい。メインスイッチ28をオフ状態にせずに、所定の時間以上、ユーザーがヘッドマウントディスプレイを頭部から外していると判別した場合、処理部123は、カメラ64及び撮像素子72による撮像を、停止させてもよい。また、処理部123は、眼球照明ライト166a〜166dを消灯させてもよい。さらに、処理部123は、省電力状態になるように、各通信回路等を制御するようにしてもよい。なお、これらの制御を行うか否かは、例えば、タッチスイッチ34を操作することにより、ユーザーが設定してもよい。
または、処理部123は、ヘッドマウントディスプレイが頭部から外されているか否かを、例えば、心拍数センサー137の検出値に基づいて判別するようにしてもよい。
さらに、処理部123は、装置本体部21がヘッドバンド40に装着されていないことを検出スイッチ(不図示)が検出した場合、装置本体部21が頭部から外されていると判別し、眼球照明ライト166a〜166dを全て消灯させてもよい。
これにより、処理部123は、ヘッドマウントディスプレイの消費電力を低減させることができる。
または、処理部123は、ヘッドマウントディスプレイが頭部から外されているか否かを、例えば、心拍数センサー137の検出値に基づいて判別するようにしてもよい。
さらに、処理部123は、装置本体部21がヘッドバンド40に装着されていないことを検出スイッチ(不図示)が検出した場合、装置本体部21が頭部から外されていると判別し、眼球照明ライト166a〜166dを全て消灯させてもよい。
これにより、処理部123は、ヘッドマウントディスプレイの消費電力を低減させることができる。
なお、第1〜第3実施形態では、ヘッドマウントディスプレイの例として単眼タイプについて説明したが、ヘッドマウントディスプレイは、両眼タイプでもよい。この場合、処理部123は、撮像素子72が撮像した画像に基づいて、例えば、図45に示したように眼の上の位置600c及び600dに表示部が配置されている状態か、眼の下の位置600a及び600bに表示部が配置されている状態かを判別するようにしてもよい。処理部123は、判別した結果に基づいて、左右の眼に対応した表示部に各々設けられている眼球照明ライト166の点灯または消灯を制御するようにしてもよい。
また、眼球照明ライト166及び撮像素子72は、ヘッドマウントディスプレイが両眼タイプの場合、左右それぞれの表示部のうち、片方の表示部60だけに設けられてもよいし、両方の表示部60に設けられてもよい。片方の表示部60だけに、眼球照明ライト166を設けてもよい理由は、人が物を見る場合、一般的に、両眼の眼球が同じ方向を向くからである。
なお、第1〜第3実施形態では、HMD1は、図21および図22に示した機能を備える例を説明したが、全ての機能を備えていなくてもよい。用途に応じて、例えば、温湿度センサー136、心拍数センサー137等を備えなくてもよい。逆に、HMD1は、必要に応じて、図21および図22に示した以外の他の機能部を備えるようにしてもよい。
なお、第1〜第3実施形態では、ディスプレイ本体20をヘッドバンド40に装着して使用する例を説明したが、これに限られない。ユーザーは、ディスプレイ本体20をヘッドバンド40に装着せずに、用途に応じて単体で使用してもよい。
なお、本発明の技術範囲は上記の実施形態に限定されるものではない。上記の実施形態で説明した要件のうち少なくとも1つの要件は、省略される場合がある。上記の実施形態で説明した各要件は、適宜、組み合わせることができる。
なお、上述のHMD1は、内部にコンピュータシステム(例えば、処理部123)を有している。そして、各機能部の動作の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータシステムが読み出して実行することによって、上記処理が行われる。ここでいうコンピュータシステムとは、CPU及び各種メモリーやOS、周辺機器等のハードウェアを含むものである。
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバーやクライアントとなるコンピュータシステム内部の揮発性メモリーのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
1…ヘッドマウントディスプレイ、20…ディスプレイ本体、26…オーディオコネクター、34…タッチスイッチ、60…表示部、63…表示パネル(表示部)、64…カメラ、72…撮像素子(撮像部)、100…イヤホン、103…第1スピーカー、104…第2スピーカー、121…デコーダー、123…処理部、131…WiFi通信回路、132…加速度センサー、133…地磁気センサー、137…心拍数センサー、138…3G/LTE通信回路、166a〜166h…眼球照明ライト、バイブレータ167、301…入力検出部、302…制御部、303…記憶部、304…眼球照明部、305…音響制御部、306…画像切替部、307…画像表示部、308…送受信部、309…乗物検出部、310…居眠検出部、311…装着処理部
Claims (12)
- 自装置がユーザーに装着された場合、前記ユーザーの眼の近傍に配置され、前記ユーザーを検出する第1センサーと、
所定の情報を報知する報知部と、
前記第1センサーが検出した検出値に基づいて前記ユーザーが居眠り状態であるか否かを判定し、判定した結果に基づいて、前記報知部による報知を制御する制御部と、
を備えることを特徴とする頭部装着型情報入出力装置。 - 前記制御部は、
前記ユーザーが居眠り状態であると判定した場合、前記報知部から所定の情報を報知するように制御する
ことを特徴とする請求項1に記載の頭部装着型情報入出力装置。 - 前記ユーザーの移動手段を検出する移動手段検出部、
を備え、
前記制御部は、
前記移動手段検出部が検出した前記ユーザーの移動手段に応じた所定の情報を前記報知部から報知するように制御する
ことを特徴とする請求項1または請求項2に記載の頭部装着型情報入出力装置。 - 前記制御部は、
前記移動手段検出部が検出した前記ユーザーの移動手段に基づいて、所定時間を決定し、前記第1センサーが検出した検出値に基づいて判定した前記居眠り状態が前記所定時間以上、継続しているか否かを判定し、居眠り状態が前記所定時間以上、継続していると判定した場合、前記ユーザーの移動手段に応じた前記所定の情報を前記報知部から報知するように制御する
ことを特徴とする請求項3に記載の頭部装着型情報入出力装置。 - 測位を行う測位部
を備え、
前記制御部は、
前記測位部が測位した測位情報に応じた所定の情報を前記報知部から報知するように制御する
ことを特徴とする請求項1から請求項4のいずれか1項に記載の頭部装着型情報入出力装置。 - 前記第1センサーは、撮像部を有し、
前記撮像部は、
前記ユーザーの眼の近傍に配置され、前記ユーザーの眼を含む領域を撮像する
ことを特徴とする請求項1から請求項5のいずれか1項に記載の頭部装着型情報入出力装置。 - 前記第1センサーは、加速度センサーを有し、
前記加速度センサーは、
前記ユーザーの身体の揺れを検出する
ことを特徴とする請求項1から請求項6のいずれか1項に記載の頭部装着型情報入出力装置。 - 前記報知部は、
音、振動、光、画像のうち少なくとも1つの情報によって前記所定の情報を報知する
ことを特徴とする請求項1から請求項7のいずれか1項に記載の頭部装着型情報入出力装置。 - 前記報知部は、
音を出力する第1の報知部
を備え、
前記制御部は、
前記移動手段検出部が検出した前記ユーザーの移動手段に基づいて、前記ユーザーの移動手段が前記ユーザーによって操縦されていない移動手段であるか否かを判別し、前記ユーザーの移動手段が前記ユーザーによって操縦されていない移動手段であると判別した場合、前記第1の報知部から前記所定の情報を報知しないサイレントモードに設定し、前記サイレントモードが設定されている場合であっても、測位部が測位した測位情報に基づいて、前記第1の報知部から音を前記所定の情報として出力することで報知するように制御する
ことを特徴とする請求項3または請求項4に記載の頭部装着型情報入出力装置。 - 前記制御部は、
前記移動手段検出部が検出した前記ユーザーの移動手段に基づいて、前記ユーザーの現在位置から前記ユーザーが向かう目標地点へのナビゲーションに関する情報を前記所定の情報として前記報知部から出力するように制御する
ことを特徴とする請求項3、請求項4、または請求項9のうちのいずれか1項に記載の頭部装着型情報入出力装置。 - 前記ユーザーの血流の変化による反射光量の変化に基づく検出値を検出する第2センサー
を備え、
前記第1センサーは、撮像部を有し、
前記撮像部は、前記ユーザーの眼を含む領域を撮像する撮像部が撮像し、
前記制御部は、
自装置が前記ユーザーの頭部へ装着されているか否かを、前記第2センサーが検出した検出値又は前記撮像部が撮像した撮像画像に基づいて判別し、自装置が前記ユーザーの頭部に装着されていると判別した結果と前記ユーザーが居眠り状態であるか否かを判定した結果とに応じて、前記報知部による報知を制御する
ことを特徴とする請求項1から請求項10のいずれか1項に記載の頭部装着型情報入出力装置。 - 制御部が、自装置がユーザーに装着された場合、前記ユーザーの眼の近傍に配置され、前記ユーザーを検出する第1センサーが検出した検出値に基づいて前記ユーザーが居眠り状態であるか否かを検出する手順と、
前記制御部が、前記ユーザーが居眠り状態であるか否かを判別し、判別した結果に基づいて、報知部による報知を制御する手順と、
を含むことを特徴とする頭部装着型情報入出力方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012279498A JP2014123883A (ja) | 2012-12-21 | 2012-12-21 | 頭部装着型情報入出力装置、及び頭部装着型情報入出力方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012279498A JP2014123883A (ja) | 2012-12-21 | 2012-12-21 | 頭部装着型情報入出力装置、及び頭部装着型情報入出力方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014123883A true JP2014123883A (ja) | 2014-07-03 |
Family
ID=51404046
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012279498A Pending JP2014123883A (ja) | 2012-12-21 | 2012-12-21 | 頭部装着型情報入出力装置、及び頭部装着型情報入出力方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014123883A (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104332075A (zh) * | 2014-10-09 | 2015-02-04 | 北京交通大学 | 一种基于b/s架构的列控半实物仿真培训系统及方法 |
WO2016013269A1 (ja) * | 2014-07-22 | 2016-01-28 | ソニー株式会社 | 画像表示装置及び画像表示方法、並びにコンピューター・プログラム |
WO2017143702A1 (zh) * | 2016-02-25 | 2017-08-31 | 京东方科技集团股份有限公司 | 低头转头提醒装置及其控制方法、头盔 |
US10838205B2 (en) | 2016-11-18 | 2020-11-17 | Seiko Epson Corporation | Head mounted display, control method thereof, and computer program |
CN112396805A (zh) * | 2019-07-31 | 2021-02-23 | Oppo广东移动通信有限公司 | 疲劳驾驶提醒的方法、装置、终端及存储介质 |
US11141667B2 (en) | 2017-06-21 | 2021-10-12 | Panasonic Intellectual Property Management Co., Ltd. | Control method for attraction apparatus and attraction system |
CN117331232A (zh) * | 2023-12-01 | 2024-01-02 | 玩出梦想(上海)科技有限公司 | 一种头戴式设备 |
CN117717340A (zh) * | 2024-02-07 | 2024-03-19 | 中汽研汽车检验中心(天津)有限公司 | 一种驾驶员困意检测方法、装置、设备及介质 |
-
2012
- 2012-12-21 JP JP2012279498A patent/JP2014123883A/ja active Pending
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016013269A1 (ja) * | 2014-07-22 | 2016-01-28 | ソニー株式会社 | 画像表示装置及び画像表示方法、並びにコンピューター・プログラム |
JPWO2016013269A1 (ja) * | 2014-07-22 | 2017-04-27 | ソニー株式会社 | 画像表示装置及び画像表示方法、並びにコンピューター・プログラム |
CN104332075A (zh) * | 2014-10-09 | 2015-02-04 | 北京交通大学 | 一种基于b/s架构的列控半实物仿真培训系统及方法 |
WO2017143702A1 (zh) * | 2016-02-25 | 2017-08-31 | 京东方科技集团股份有限公司 | 低头转头提醒装置及其控制方法、头盔 |
US10482745B2 (en) | 2016-02-25 | 2019-11-19 | Boe Technology Group Co., Ltd. | Head lowering and turning reminding device, control method thereof and helmet |
US10838205B2 (en) | 2016-11-18 | 2020-11-17 | Seiko Epson Corporation | Head mounted display, control method thereof, and computer program |
US11141667B2 (en) | 2017-06-21 | 2021-10-12 | Panasonic Intellectual Property Management Co., Ltd. | Control method for attraction apparatus and attraction system |
CN112396805A (zh) * | 2019-07-31 | 2021-02-23 | Oppo广东移动通信有限公司 | 疲劳驾驶提醒的方法、装置、终端及存储介质 |
CN112396805B (zh) * | 2019-07-31 | 2022-10-25 | Oppo广东移动通信有限公司 | 疲劳驾驶提醒的方法、装置、终端及存储介质 |
CN117331232A (zh) * | 2023-12-01 | 2024-01-02 | 玩出梦想(上海)科技有限公司 | 一种头戴式设备 |
CN117331232B (zh) * | 2023-12-01 | 2024-04-09 | 玩出梦想(上海)科技有限公司 | 一种头戴式设备 |
CN117717340A (zh) * | 2024-02-07 | 2024-03-19 | 中汽研汽车检验中心(天津)有限公司 | 一种驾驶员困意检测方法、装置、设备及介质 |
CN117717340B (zh) * | 2024-02-07 | 2024-05-31 | 中汽研汽车检验中心(天津)有限公司 | 一种驾驶员困意检测方法、装置、设备及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2014123883A (ja) | 頭部装着型情報入出力装置、及び頭部装着型情報入出力方法 | |
JP6318462B2 (ja) | 表示装置 | |
JP6123180B2 (ja) | 表示装置 | |
WO2015125373A1 (ja) | 電子機器、および電源制御方法 | |
US10838205B2 (en) | Head mounted display, control method thereof, and computer program | |
US20100208029A1 (en) | Mobile immersive display system | |
JP2014021707A (ja) | 情報入出力装置、及び情報入出力方法 | |
JP6011072B2 (ja) | 制御装置、及びプログラム | |
JP2014212473A (ja) | 通信装置、及び頭部装着表示装置 | |
JP2013190941A (ja) | 情報入出力装置、及び頭部装着表示装置 | |
KR20140033009A (ko) | 시각 장애인을 위한 광학 디바이스 | |
JP6719418B2 (ja) | 電子機器 | |
JP6136090B2 (ja) | 電子機器、及び表示装置 | |
JP2014147033A (ja) | 情報入出力装置、及び情報入出力方法 | |
JP6015223B2 (ja) | 電子機器、及び表示装置 | |
JP2014044654A (ja) | 情報入出力装置 | |
JP2014021272A (ja) | 情報入出力装置、及び情報入出力方法 | |
JP2014022937A (ja) | 頭部装着型情報入出力装置、及び頭部装着型情報入出力方法 | |
JP2014122841A (ja) | 移動手段検出装置、及び移動手段検出方法 | |
KR101600793B1 (ko) | 휴대 단말기에서 네비게이션과 관련된 정보를 제공하는 방법 및 그 휴대 단말기 | |
JP2017146726A (ja) | 移動支援装置、及び、移動支援方法 | |
JP2013175909A (ja) | 頭部装着装置 | |
JP2013239767A (ja) | 頭部装着型情報入出力装置 | |
JP2013174730A (ja) | 情報表示装置 | |
JP2014147032A (ja) | 情報入出力装置、及び情報入出力方法 |