以下、本発明の一実施形態について図面を参照しながら説明するが、本発明はこれに限定されない。以下の説明においては、必要に応じてXYZ直交座標系を設定し、このXYZ直交座標系を参照しつつ各部の位置関係について説明する。水平面内の所定方向をX軸方向、水平面内においてX軸方向と直交する方向をY軸方向、X軸方向及びY軸方向のそれぞれと直交する方向(すなわち鉛直方向)をZ軸方向とする。また、X軸、Y軸、及びZ軸まわりの回転(傾斜)方向をそれぞれ、θX、θY、及びθZ方向とする。
[第1の実施形態]
図1は、本実施形態のヘッドマウントディスプレイの斜視図である。図2は、ヘッドマウントディスプレイを背面側から見た斜視図である。図3は、本実施形態のヘッドマウントディスプレイの装着形態を示す図である。図4は、ディスプレイ本体20の水平断面図である。
ヘッドマウントディスプレイ1(頭部装着表示装置)は、ディスプレイ本体(本体部)20とユーザーの頭部に装着されるとともにディスプレイ本体20を支持するヘッドバンド40(装着部)と、を備えた単眼式のヘッドマウントディスプレイである。
なお、図1及び図2では、ディスプレイ本体20の長手方向をY軸方向、ヘッドバンド40がユーザーの頭部を挟持する方向をX軸方向としている。
本実施形態のヘッドマウントディスプレイ1は、図3に示すように、両眼どちらでも使用可能である。図3(A)には、ユーザーが右眼で表示部60を見ている状態が示されている。図3(B)には、左眼で見ている状態が示されている。ここで、ヘッドバンド40は、ディスプレイ本体20をユーザーの頭部に装着する。
また図2に示すように、ディスプレイ本体20とヘッドバンド40とは、連結ピン41を介して着脱可能に構成されている。
以下、ヘッドマウントディスプレイ1の各部の構成について詳細に説明する。
ディスプレイ本体20は、図1に示すように、主要回路を内蔵するとともに操作部や各種インタフェースを備えた装置本体部21と、装置本体部21の先端に連結された表示部60とを有する。
装置本体部21は、概略板状の筐体21Aを有する(図4参照)。本実施形態では、装置本体部21においてヘッドバンド40との接続部が設けられている側の端部(+Y側の端部)を基端部とし、この基端部と反対側の端部(−Y側の端部)を先端部とする。また、装置本体部21をヘッドバンド40に装着した状態で、装置本体部21のヘッドバンド40側(+X側)を内側、ヘッドバンド40と反対側(−X側)を外側とする。
装置本体部21の外面には、図1に示すように、メインスイッチ28と、タッチスイッチ34と、集音マイク24とが、筐体21Aの長手方向に沿って配置されている。
メインスイッチ28は、ディスプレイ本体20の電源のオンオフ操作を行うスイッチである。タッチスイッチ34は、表面に手指等で触れることによりヘッドマウントディスプレイ1の各種操作を行うことができるタッチパネルである。集音マイク24は、環境音を収集する外部マイクである。
装置本体部21内面の基端部側に、図2に示すように、耳元スピーカー23と、オーディオコネクター26と、連結孔31を有するヘッドバンドヒンジ32とが設けられている。装置本体部21内面の中央部に心拍数センサー137が設けられている。装置本体部21の内側面の先端部には通話マイク37が設けられている。
耳元スピーカー23は、ユーザーの耳の近傍に配置される。耳元スピーカー23からユーザーに音声情報が伝えられる。オーディオコネクター26は、例えば図6に示すイヤホンが接続される音声入出力端子である。ヘッドバンドヒンジ32はヘッドバンド40とのジョイント部である。通話マイク37にはユーザーの音声が入力される。
心拍数センサー137は、ユーザーの顔の表面に接触させることでユーザーの心拍数を測定するセンサーである。心拍数センサー137は、発光ダイオード等を備えた発光部と、ユーザーの皮膚内部で反射した光を検知する受光部とを有する。心拍数センサー137は、血流の変化による反射光量の変化を検出することで心拍数をカウントする。心拍数センサー137はユーザーの目の近くに配置されるが、発光部から赤外域の光を射出させる構成とすればユーザーにまぶしさを感じさせることはない。
装置本体部21の基端部側の側端面には、USBコネクター25と、操作スイッチ30と、ビデオコネクター27とが設けられている。
USBコネクター25はUSB(Universal Serial Bus)デバイスの接続端子である。本実施形態では、例えば、図5に示すリモコン(リモートコントローラー)140が接続される。
操作スイッチ30は、例えばトラックボールやスティックなどのポインティングデバイスである。操作スイッチ30は表示部60に表示される画面に正対するように設けられている。これにより、操作スイッチ30における操作の左右方向と、上記画面の左右方向とが一致するので、ユーザーは画面を見ながら直感的に操作スイッチ30を操作することが可能である。
ビデオコネクター27は、映像入出力端子である。
図4に示すように、装置本体部21には、筐体21Aの長手方向に沿って延びる板状の回路基板29と、バッテリー33とが内蔵されている。回路基板29には、図示略の制御回路、電源回路等が実装されており、図示略の配線を介してディスプレイ本体20の各部と電気的に接続されている。
装置本体部21の外面に露出するタッチスイッチ34の内側には、液晶パネルからなる表示パネル36と、バックライト35とが配置されている。本実施形態では、表示パネル36の表示画像がタッチスイッチ34を透過して表示される。表示パネル36及びバックライト35を、有機ELパネルや電気泳動パネルとしてもよい。
ヘッドバンドヒンジ32は、筐体21Aに設けられた凹曲面状の収容部32aと、収容部32aに嵌合された球状部32bとからなるボールジョイントである。球状部32bは、球面状の側面部と、この側面部を挟むように互いに平行に形成された2つの平面部を有する。2つの平面部を垂直に貫くように連結孔31が形成されている。連結孔31は軸方向視で六角形状に形成されている。連結孔31にヘッドバンド40の連結ピン41が挿入されることによりディスプレイ本体20とヘッドバンド40とが連結される。
ヘッドバンドヒンジ32を備えていることで、ディスプレイ本体20は、図1に示したA方向(ヘッドバンドヒンジ32を中心とするX軸回り)に回動させることができる。本実施形態において、ディスプレイ本体20の回転可能範囲は270°程度とされる。このX軸回りの回転動作により、図3(A)に示す右眼で画像を観察する形態と、図3(B)に示す左眼で画像を観察する形態との切替機能が実現される。
またヘッドバンドヒンジ32はボールジョイントであるため、ディスプレイ本体20は図1に示すB方向(ヘッドバンドヒンジ32を中心とするZ軸回り)に揺動させることもできる。この揺動操作により、ディスプレイ本体20のユーザーの目や耳に対する位置を調整することができる。
ヘッドバンドヒンジ32近傍の心拍数センサー137は、装置本体部21の内面から突出するように設けられ、ヘッドマウントディスプレイ1の装着時にユーザーの顔の表面に当接可能とされている。バッテリー33は充電電池、使い捨て電池のいずれであってもよい。
表示部60は、図1及び図2に示すように、装置本体部21の先端部に連結されている。本実施形態において、表示部60のヘッドバンド40側を内側、ヘッドバンド40と反対側を外側とする。表示部60は、上面視(Z軸視)において湾曲した形状を有するアーム部材であり、装置本体部21との連結部から先端側へ向かうに従って内側へ湾曲する形状を有する。表示部60の内面に、ファインダー開口部67が設けられている。表示部60の外面には、カメラ64が設けられている。
図4に示すように、表示部60は、ディスプレイヒンジ(ヒンジ部)61を介して装置本体部21と連結されている。ディスプレイヒンジ61は、表示部60の筐体60Aに形成された凹曲面状の収容部61aと、装置本体部21に形成され収容部61aに嵌合された球状部61bとからなるボールジョイントである。
表示部60の筐体60Aは、ディスプレイヒンジ61が設けられた基端側筐体部60bと、基端側筐体部60bから延設された先端側筐体部60cとからなる。先端側筐体部60cは、基端側筐体部60bに対して内側へ湾曲ないし屈曲するように設けられている。先端側筐体部60cにファインダー開口部67が設けられている。
表示部60は、ディスプレイヒンジ61の球状部61bに対してY’軸回りに自由に回転させることができる。これにより、図4(A)に示す視聴可能状態から表示部60を回転させることで、図4(B)に示す収容状態に移行させることができる。
装置本体部21の球状部61bは、装置本体部21の外面先端部に形成された筐体21Aの長手方向に対して斜めに延びる傾斜面21aに、この傾斜面の法線方向(図4のY’軸方向)に突出するようにして設けられている。本実施形態の場合、傾斜面21aは、図4に示す装置本体部21の長手方向と直交する面をZ軸回りの外側に略45°回転させた面に平行である。表示部60は、傾斜面21aに沿って回転可能である。したがって、表示部60の回転方向は、装置本体部21の長手方向に対して斜め方向である。
ディスプレイヒンジ61の球状部61bには、球状部61bを高さ方向(Y’軸方向)に貫通する貫通孔61cが形成されている。貫通孔61cを介して、表示部60の内部と装置本体部21の内部とが連通されている。貫通孔61cには不図示のケーブルが挿通される。挿通されたケーブルを介して回路基板29と表示部60の各部とが電気的に接続される。
本実施形態において、ディスプレイヒンジ61内に通されたケーブルのねじれを防止するために、表示部60の回転制御機構を設けてもよい。例えば、図4(A)に示す正対位置を基準として、表示部60の回動角度を、上回り180°以下、下回り180°以下にそれぞれ規制する回転制御機構を設けてもよい。
表示部60の内部には、バックライト62と、表示パネル63と、カメラ64と、プリズム65と、反射ミラー66と、前方ライト68と、前方スピーカー70と、結像レンズ71と、撮像素子72とが設けられている。
プリズム65は、上面視(Z軸視)で略三角形状の第1プリズム65aと第2プリズム65bとを互いの面で貼り合わせた構成を有する。この貼り合わせ面以外の第1プリズム65aの他の二面のうち、一方の面に対向する位置に、液晶パネルからなる表示パネル63が設けられている。表示パネル63の背面に表示パネル63を透過照明するバックライト62が配置されている。第1プリズム65aの他方の面に対向する位置に反射ミラー66が配置されている。反射ミラー66は、ファインダー開口部67のほぼ正面に位置する。
第2プリズム65bの貼り合わせ面以外の他の二面のうち、一方の面はファインダー開口部67に配置されたファインダー接眼面である。第2プリズム65bの他方の面に対向する位置には結像レンズ71を介して撮像素子72が対向配置されている。
表示部60において、表示パネル63に表示された画像は、第1プリズム65a、反射ミラー66、第2プリズム65bを介してファインダー開口部67から射出され、ユーザーに観察される。また、ファインダー開口部67を見ているユーザーの目元は、第2プリズム65b及び結像レンズ71を介して撮像素子72上に結像される。撮像素子72を介して取得された目元の画像は、ユーザーの視線の方向や瞬き、表情の解析に用いられる。バックライト62は、撮像素子72による目元撮像の照明装置としても利用される。
カメラ64(撮像部)は、例えば500万画素〜1000万画素の撮像素子を有し、オートフォーカス動作が可能に構成される。なお、カメラ64によって撮像された画像を、撮像画像として、以下説明する。
本実施形態の場合、カメラ64の撮像方向は、ユーザーの視線方向と一致するように設定される。撮像方向と視線方向との調整は、機械的に行ってもよく、画像処理により行ってもよい。例えば、カメラ64を広角の映像を取得可能に構成し、ユーザーの目元画像から取得した視線方向の情報に基づいて、電気的に捕らえた映像の一部を、視線方向の映像として抜き出して表示パネル63に表示させる。これにより、カメラ64に調整機構を設けることなくユーザー正面の映像の撮像、表示が可能となる。
前方ライト68は、例えばLEDライトである。前方ライト68は、赤、緑、青の各色の発光素子を有し、任意の色を任意のタイミングで発光させることが可能に構成してもよい。前方ライト68は、発光色や発光タイミングにより外部に対して情報を表示する装置として用いてもよく、カメラ64で撮像する際の照明装置として用いてもよい。
また図4では図示を省略したが、本実施形態に係る表示部60にはレーザー発信器が設けられている。レーザー発信器は、例えば前方ライト68の近傍に設けることができる。レーザー発信器から射出される例えば赤色レーザー光を前方に照射することで、レーザー光によるポインティング(指標の表示)が可能である。
次に、ヘッドバンド40について、図2を参照しつつ説明する。
ヘッドバンド40は、図2に示すように、ユーザーの頭部を挟持する一対のヘッドパット(装着部材)46、47と、第1ヘッドバンド43と、第2ヘッドバンド44と、回動機構56、57とを備えている。
第1ヘッドバンド43は、全体として円弧状を成す弾性部材である。第1ヘッドバンド43の頂部に、第1ヘッドバンド43を折り曲げるためのジョイント部43aが設けられている。第1ヘッドバンド43の両端には、回動機構56、57を構成する軸受部43b、43cがそれぞれ設けられている。軸受部43b、43cよりもさらにバンド先端側に、ヘッドパット46、47が接続される軸受部43d、43eが設けられている。
第2ヘッドバンド44は、全体として円弧状を成す弾性部材である。第2ヘッドバンド44の頂部には、第2ヘッドバンド44を折り曲げるためのジョイント部44aが設けられている。第2ヘッドバンド44の両端には、それぞれ回動機構56、57を構成する軸部材44b、44cが設けられている。
また本実施形態において、第2ヘッドバンド44は、ステンレス等の金属からなるバネ部材48の表面を樹脂等の柔軟な材料で被覆した構成を有する。この第2ヘッドバンド44のバネ部材48においてユーザーの頭部を挟持するバネ力を発生させる。また第2ヘッドバンド44は第1ヘッドバンド43と比較して広い幅(太さ)に形成されている。ジョイント部44aの形成部分は他のバンド部分よりもさらに広く形成された標章表示部49とされている。標章表示部49には、シールや印刷により製品タグ等が付される。なお、第2ヘッドバンド44の全体を金属で形成してもよい。
ヘッドパット46は、板状の支持板46aと、支持板46aの一面側に設けられた断面アーチ状の弾性部材46bとを有する。支持板46aの弾性部材46bと反対側の面に、当該面に垂直な姿勢で概略六角柱状の連結ピン41が立設されている。連結ピン41は、第1ヘッドバンド43の一方の先端に設けられた軸受部43dに軸支されている。これにより、ヘッドパット46は連結ピン41回りに回転可能である。
ヘッドパット47は、板状の支持板47aと、支持板47aの一方の面に設けられた断面アーチ状の弾性部材47bとを有する。支持板47aの弾性部材47bと反対側の面には、軸部材47cが設けられている。軸部材47cは、第1ヘッドバンド43の先端に設けられた軸受部43eに軸支されている。これにより、ヘッドパット47は、軸部材47c回りに回転可能である。
本実施形態において、回動機構56は、第2ヘッドバンド44を第1ヘッドバンド43から離す方向へ付勢する付勢機構として機能する。
一方、回動機構57は、第2ヘッドバンド44の回転角度を規制する規制機構として機能する。
以上の構成により、第2ヘッドバンド44は、回動機構56によって第1ヘッドバンド43から離れる方向に回動付勢される一方、回動機構57によって第1ヘッドバンド43に対して所定角度以内の範囲に回動規制される。これにより、第2ヘッドバンド44は第1ヘッドバンド43に対して所定の角度となるように保持される。したがって、回動機構56、57は、ヘッドバンド40における角度保持機構として機能する。
図5は、本実施形態のヘッドマウントディスプレイに付属のリモコンを示す斜視図である。
リモコン140は、筐体140Aと、タッチパッド141と、操作スイッチ147と、USBコネクター142と、インジケーター143a、143b、143cと、取付クリップ144と、インジケータースイッチ150とを備えている。
リモコン140は、USBケーブル148の一方の端子をUSBコネクター142に接続し、他方の端子を装置本体部21のUSBコネクター25に接続することで、装置本体部21と電気的に接続される。USBケーブル148としては市販のUSBケーブルを用いることができる。本実施形態の場合、USBケーブル148の途中に複数のクリップ149が設けられている。複数のクリップ149は、例えばUSBケーブル148を第2ヘッドバンド44に沿わせた状態で固定するために用いることができる。
リモコン140には、ディスプレイ本体20や他の電子機器と無線通信を行うための通信回路が内蔵されている。通信回路の通信方式としては、例えば、Bluetooth(登録商標)、無線LAN、赤外線通信、UWB(Ultra Wide Band)、Transfer Jetなどを用いることができる。かかる通信回路により、USBケーブル148を接続していなくてもディスプレイ本体20との通信が可能である。
リモコン140には、角速度センサーや加速度センサー、方位センサーが内蔵されていてもよい。これらのセンサーで検出した情報についても、上記した通信回路を介してディスプレイ本体20へ通信可能である。
タッチパッド141は、筐体140Aの一方の主面に設けられている。タッチパッド141は、ユーザーがタッチすることによりディスプレイ本体20を操作するための操作部である。タッチパッド141の背面側の筐体140A内部には、装置本体部21のタッチスイッチ34と同様に表示パネルやバックライトが設けられていてもよい。
操作スイッチ147は、リモコン140やディスプレイ本体20を手動操作するためのスイッチである。操作スイッチ147は、必要に応じて設けられていればよい。筐体14Aの側面に設けられたインジケータースイッチ150は、インジケーター143a〜143cを利用した所定動作を行わせるためのスイッチである。
USBコネクター142は、装置本体部21との接続のほか、リモコン140が充電式のバッテリーを内蔵している場合にはリモコン140の充電端子や、PCとの接続にも用いられる。
また、USBコネクター142は、リモコン140がバッテリーを内蔵している場合には、装置本体部21への給電端子として用いることもできる。リモコン140のバッテリーを補助電源として使用可能にすることで、ヘッドマウントディスプレイ1は、装置本体部21のバッテリー容量を小さくでき、装置本体部21を小型軽量化することができる。
インジケーター143a、143b、143cは、タッチパッド141の周囲に配置されている。本実施形態では、タッチパッド141の一辺に沿う位置にインジケーター143aが配置され、インジケーター143aに対してタッチパッド141を挟んだ反対側にインジケーター143bとインジケーター143cとが配置されている。
インジケーター143a〜143cはLED等の発光素子を備えている。本実施形態では、インジケーター143aは緑色の発光素子、インジケーター143bはオレンジ色の発光素子、インジケーター143cは青色の発光素子をそれぞれ備えている。これらの発光素子は制御されたタイミングでパターン発光可能に構成されている。インジケーター143a〜143cの上記パターン発光は、筐体14A側面のインジケータースイッチ150を操作することでオンオフすることができる。
インジケーター143a〜143cのパターン発光は、例えばリモコン140の状態(例えばリモコン140の上下左右の傾き状態)を示すものである。かかるパターン発光を装置本体部21のカメラ64で撮像し、取得した画像を解析することにより、リモコン140の状態を装置本体部21に伝達することが可能である。インジケーター143a〜143cを利用した情報伝達方式は、Bluetooth(登録商標)などの無線通信を用いた場合と比較して電力消費を抑えることができる。
取付クリップ144は、筐体140Aのタッチパッド141と反対側の面に設けられている。本実施形態の場合、取付クリップ144は、一端を筐体140Aに固定された側面視S形のバネ板部材である。取付クリップ144により、リモコン140をユーザーの衣服やベルト等に装着することができる。
図6は、本実施形態のヘッドマウントディスプレイに付属のステレオイヤホンを示す斜視図である。
ステレオイヤホン100は、コネクター101と、ケーブル102と、第1スピーカー103と、第2スピーカー104と、集音マイク105と、複数のクリップ106とを有している。
コネクター101は、ケーブル102の一方の端部に設けられている。コネクター101は、例えば、一般的な4極φ3.5mmのミニプラグである。4極の内訳は、集音マイク105、第1スピーカー103、第2スピーカー104、グランド(GND)である。ケーブル102は、コネクター101の近傍において二分岐され、分岐されたケーブルの先端に第1スピーカー103が設けられている。ケーブル102の他方の端部には、第2スピーカー104と集音マイク105とが設けられている。複数のクリップ106は、ケーブル102上に所定の間隔で配置されている。
ステレオイヤホン100は、コネクター101をディスプレイ本体20のオーディオコネクター26に接続して使用される。ステレオイヤホン100が接続されると、ディスプレイ本体20の耳元スピーカー23と、表示部60の通話マイク37は無効化される。また表示部60の前方スピーカー70も必要に応じて無効化される。そして、ステレオイヤホン100の第1スピーカー103、第2スピーカー104、及び集音マイク105が有効化される。
ステレオイヤホン100の第1スピーカー103は、ディスプレイ本体20が配置された側のユーザーの耳に装着され、第2スピーカー104は第1スピーカー103と反対側の耳に装着される。このとき、ケーブル102は、クリップ106によって第2ヘッドバンド44に固定することができる。
また、ステレオイヤホン100の集音マイク105と、ディスプレイ本体20において筐体21Aの外側面に設けられた集音マイク24とにより、ステレオ録音が可能である。例えば、図3(A)に示すようにディスプレイ本体20が右眼側に配置されているとすれば、ディスプレイ本体20の集音マイク24はユーザーの右側の音を収集し、左耳に装着された集音マイク105はユーザーの左側の音を収集する。なお、ステレオイヤホン100の第1スピーカー103から右チャンネルの音声が出力され、第2スピーカー104からは左チャンネルの音声が出力される。
一方、図3(B)に示すように左眼側にディスプレイ本体20が配置されている場合には、ディスプレイ本体20の集音マイク24がユーザーの左側の音を収集し、右耳に装着された集音マイク105がユーザーの右側の音を収集する。ステレオイヤホン100の第1スピーカー103から左チャンネルの音声が出力され、第2スピーカー104からは右チャンネルの音声が出力される。
本実施形態の場合、集音マイク24、105はいずれもユーザーの耳の近傍に配置されるため、バイノーラル録音のような臨場感のある録音が可能である。また集音マイク24と集音マイク105に同じ特性のマイクを用いることで、左右の音の特性の差異を小さくすることができる。
図7は、ヘッドマウントディスプレイ1の機能ブロック図である。
ヘッドマウントディスプレイ1には、処理部123を中心として種々の電気回路が備えられている。ヘッドマウントディスプレイ1は、例えば、バックライト62、表示パネル63、カメラ64、撮像素子72、デコーダー121、フラッシュメモリー122、処理部123、LCDドライバ125、BLドライバ126、メモリー127、エンコーダー129、メインスイッチ28、操作スイッチ30、タッチスイッチ34、BT通信回路130、WiFi通信回路131、3G/LTE通信回路138、加速度センサー132、地磁気センサー133、角速度センサー134、及びGPSセンサー135を備えている。
なお、本実施形態において、カメラ64、撮像素子72、処理部123、メモリー127、エンコーダー129、メインスイッチ28、操作スイッチ30、タッチスイッチ34、BT通信回路130、WiFi通信回路131、3G/LTE通信回路138、加速度センサー132、地磁気センサー133、角速度センサー134、及びGPSセンサー135が入出力装置200(情報入出力装置)に対応する。すなわち、入出力装置200は、カメラ64、撮像素子72、処理部123、メモリー127、エンコーダー129、メインスイッチ28、操作スイッチ30、タッチスイッチ34、BT通信回路130、WiFi通信回路131、3G/LTE通信回路138、加速度センサー132、地磁気センサー133、角速度センサー134、及びGPSセンサー135を備えている。
処理部123は、例えば、CPU(Central Processing Unit)であり、ヘッドマウントディスプレイ1の各種回路と接続されるとともに、ヘッドマウントディスプレイ1を総合的に制御する。処理部123の詳細については、後述する。
本実施形態の場合、処理部123は、エンコーダー129、デコーダー121、電源回路120、操作スイッチ30、フラッシュメモリー122、BT通信回路130、WiFi通信回路131、加速度センサー132、地磁気センサー133、前方ライト68、3G/LTE通信回路138、レーザー発振器73、角速度センサー134、GPSセンサー135、温湿度センサー136、心拍数センサー137、BLドライバ126、メモリー127、メインスイッチ28、及びタッチスイッチ34に接続されている。
エンコーダー129は音声信号及び映像信号を所定方式の音声データ及び映像データにエンコード(符号化)する。エンコーダー129には、カメラ64、撮像素子72、集音マイク24、通話マイク37、オーディオコネクター26、ビデオコネクター27が接続されている。
エンコーダー129は、集音マイク24、通話マイク37、及び、オーディオコネクター26から供給される音声信号をエンコード(符号化)し、エンコードした音声信号(音声データ)を処理部123に供給する。また、エンコーダー129は、カメラ64、ユーザーの目元を撮像する撮像素子72、及びビデオコネクター27から入力される映像(画像)信号をエンコード(符号化)し、エンコードした映像(画像)信号(映像データ)を処理部123に供給する。供給された音声データ及び映像データは、処理部123による再生動作に用いられたり、フラッシュメモリー122(記憶部)に記録(記憶)される。
デコーダー121は、音声データ及び映像データを音声信号及び映像信号にデコード(復号化)する。デコーダー121には、LCDドライバ125、スピーカーアンプ162、オーディオコネクター26、及びビデオコネクター27が接続されている。すなわち、デコーダー121は、音声データを音声信号にデコード(復号化)し、デコードした音声信号をスピーカーアンプ162又はオーディオコネクター26に供給する。また、デコーダー121は、映像(画像)データを映像(画像)信号にデコード(復号化)し、デコードした映像信号をLCDドライバ125又はビデオコネクター27に供給する。
LCDドライバ125は、例えば、液晶パネル用の駆動制御装置であり、表示パネル36及び表示パネル63に接続されている。
スピーカーアンプ162は、音声信号を増幅してスピーカーに出力する装置であり、耳元スピーカー23及び前方スピーカー70に接続されている。
映像データを再生する場合、フラッシュメモリー122に記録された映像データ、あるいはエンコーダー129から入力される映像データは、処理部123を介してデコーダー121に入力される。デコーダー121に入力された映像データは、映像信号にデコードされた後、LCDドライバ125を介して表示パネル36、63に供給される。そして、映像信号が入力された表示パネル36又は表示パネル63に映像データに基づく映像が表示される。また、デコーダー121からビデオコネクター27に出力される映像信号は、ビデオコネクター27を介して外部機器に出力される。
また、映像の表示に際して、処理部123は、必要に応じて表示パネル36用のバックライト35、及び表示パネル63用のバックライト62を点灯させる。BLドライバ126は、バックライト用の駆動制御装置であり、バックライト35及びバックライト62に接続されている。処理部123は、BLドライバ126に駆動信号を送信し、BLドライバ126はバックライト35、62を個々に点灯させる。
音声データを再生する場合、フラッシュメモリー122に記録された音声データ、あるいはエンコーダー129から入力される音声データは、処理部123を介してデコーダー121に入力される。デコーダー121に入力された音声データは、音声信号にデコードされた後、スピーカーアンプ162を介して耳元スピーカー23及び前方スピーカー70のいずれか一方、又は両方に出力される。そして、音声信号を入力された耳元スピーカー23又は前方スピーカー70から音声が出力される。また、デコーダー121からオーディオコネクター26に出力される音声信号は、オーディオコネクター26を介してステレオイヤホン100に出力される。
本実施形態の場合、耳元スピーカー23及び前方スピーカー70は、モノラル音声の使用を想定しており、耳元スピーカー23及び前方スピーカー70からは左右の音声信号が合成された音が発せられる。
一方、ステレオイヤホン100に音声信号が出力される場合、第1スピーカー103及び第2スピーカー104のそれぞれ左チャンネル又は右チャンネルの音が出力される。ここで、本実施形態のヘッドマウントディスプレイ1は左右両用であるため、装着位置に応じてステレオイヤホン100への音声信号のチャンネルが切り替わる。すなわち、ディスプレイ本体20が右眼に装着されている場合には、第1スピーカー103に右チャンネル、第2スピーカー104に左チャンネルの音が出力される。ディスプレイ本体20が左眼に装着されている場合には第1スピーカー103に左チャンネル、第2スピーカー104に右チャンネルの音が出力される。
バッテリー33は、電源回路120を介してヘッドマウントディスプレイ1の各部に電力を供給する。
電源回路120は、処理部123から供給される制御信号に基づいて、バッテリー33から供給された電力の制御(例えば、電圧の変換、供給オンオフ)を行う。
メモリー127には、処理部123によって実行される制御プログラムが記憶されている。
全体の電源のオンオフを行うメインスイッチ28や、画面内でのポインティング操作を行うための操作スイッチ30、あるいはタッチ操作により各種操作を行うタッチスイッチ34がユーザーに操作されると、これらのスイッチから操作に基づく制御信号が処理部123へ出力される。処理部123は、制御信号により操作を検出し、上記の制御プログラムに規定された動作を実行する。
BT通信回路130は、他の機器とのBluetooth(登録商標)通信を行うための通信回路である。
WiFi通信回路131は、他の機器との無線LAN通信(IEEE 802.11)を行うための通信回路である。
3G/LTE通信回路138は、他の機器との移動通信を行うための通信回路である。
ここで、本実施形態において、BT通信回路130、WiFi通信回路131、又は3G/LTE通信回路138は、画像処理部205が出力する画像データを入出力装置200の外部に送信する送信部に対応する。
加速度センサー132(方向検出部)は、ヘッドマウントディスプレイ1の傾き検出に用いられる。例えば、加速度センサー132は、カメラ64の方向(例、仰角情報)を検出する。加速度センサー132は、検出した仰角情報を処理部123に供給する。
地磁気センサー133(方向検出部)は、ヘッドマウントディスプレイ1の方角検出に用いられる。例えば、地磁気センサー133は、カメラ64の方向(例、方位情報)を検出する。地磁気センサー133は、検出した方位情報を処理部123に供給する。
なお、本実施形態において、加速度センサー132又は地磁気センサー133は、方向検出部に対応し、カメラ64の方向を検出する。
また、例えば、地磁気センサー133は、後述するブレ検出(振れ検出)に用いられてもよい。この場合、地磁気センサー133は、カメラ64の光軸の変位を方位情報の変化として検出する変位検出部に対応する。ここで、カメラ64の光軸の変位とは、ユーザーの頭部の揺れ(振れ)により、カメラ64が有する光学系に生じる光軸のずれのことである。すなわち、カメラ64の光軸の変位は、被写体像にブレを生じさせるカメラ64の撮像方向のずれを示している。
角速度センサー(ジャイロセンサー)134は、ヘッドマウントディスプレイ1の回転検出に用いられる。例えば、角速度センサー134は、カメラ64の光軸の変位を角速度の変化として検出する。角速度センサー134は、検出した角速度を処理部123に供給する。
GPSセンサー135(位置検出部)は、GPS(Global Positioning System)を利用した測位検出に用いられる。例えば、GPSセンサー135は、カメラ64の位置(例、緯度経度)を検出する。GPSセンサー135は、検出したカメラ64の位置(例、緯度経度)を処理部123に供給する。
温湿度センサー136は、環境の温度、湿度の検出に用いられる。温湿度センサー136は、検出した環境の温度、及び湿度を処理部123に供給する。
心拍数センサー137は、ユーザーの頬に接触し、ユーザーの心拍数を検出する。心拍数センサー137は、検出したユーザーの心拍数を処理部123に供給する。
レーザー発振器73は、上述したように表示パネル63に表示された画像内の所定の位置に対応するターゲットにレーザー光(スポット光)を照射する。
処理部123は、上述したようにヘッドマウントディスプレイ1を総合的に制御する。処理部123は、例えば、集音マイク24、通話マイク37、又はオーディオコネクター26からエンコーダー129を介して供給された音声データをフラッシュメモリー122に記憶させる。処理部123は、例えば、集音マイク24、通話マイク37、又はオーディオコネクター26からエンコーダー129を介して供給された音声データをBT通信回路130、WiFi通信回路131、又は3G/LTE通信回路138を介して他の機器に送信する。
また、処理部123は、例えば、カメラ64、撮像素子72、又はビデオコネクター27からエンコーダー129を介して供給された映像(画像)データをフラッシュメモリー122に記憶させる。処理部123は、例えば、カメラ64、撮像素子72、又はビデオコネクター27からエンコーダー129を介して供給された映像(画像)データを、LCDドライバ125を介して表示パネル63に表示させる。処理部123は、例えば、カメラ64、撮像素子72、又はビデオコネクター27からエンコーダー129を介して供給された映像(画像)データをBT通信回路130、WiFi通信回路131、又は3G/LTE通信回路138を介して他の機器に送信する。
また、映像データを再生する場合、処理部123は、フラッシュメモリー122に記録された映像(画像)データ、あるいはエンコーダー129から入力される映像(画像)データを、デコーダー121及びLCDドライバ125を介して表示パネル36、63に供給する。これにより、映像信号が入力された表示パネル36又は表示パネル63に映像データに基づく映像が表示される。また、処理部123は、デコーダー121からビデオコネクター27に出力される映像信号を、ビデオコネクター27を介して外部機器に出力させる。
また、映像の表示に際して、処理部123は、必要に応じて表示パネル36用のバックライト35、及び表示パネル63用のバックライト62を点灯させる。すなわち、処理部123は、BLドライバ126に制御信号を供給し、BLドライバ126はバックライト(35,62)を個々に点灯させる。
また、処理部123は、例えば、制御信号により操作を検出し、上記の制御プログラムに規定された動作を実行する。
また、処理部123は、例えば、カメラ64によって撮像された画像(映像)に、カメラ64の撮像方向に基づく付加情報を重畳して表示パネル63に表示させる処理(AR(Augmented Reality)処理)を制御する。ここで、付加情報とは、例えば、カメラ64によって撮像された画像(映像)に含まれる対象物(山、建物、など)の対応する情報である。例えば、対象物が「山」である場合に、処理部123は、画像(映像)の「山」に対応する位置に、この「山」の名前を示す情報を表示させる。
また、処理部123は、例えば、カメラ64によって画像(映像)を撮像する際に、撮像範囲(画角)の拡大又は縮小を行うズーム処理を制御する。また、処理部123は、例えば、画像の振れ検出(ブレ検出)及び振れ補正(ブレ補正)の処理を制御するとともに、上述した付加情報を重畳させる位置の補正を行う。
処理部123は、例えば、振れ補正部201、ズーム制御部202、付加情報取得部203、AR位置補正部204、画像処理部205、表示制御部206、及びハイパスフィルタ207を備えている。
振れ補正部201(第1補正部)は、例えば、角速度センサー134が検出したカメラ64の光軸の変位に応じて、カメラ64が撮像する画像(映像)の揺れを補正する。すなわち、振れ補正部201は、カメラ64の光軸のずれに応じて、カメラ64が撮像する被写体像の揺れ(ブレ)を補正する。振れ補正部201は、例えば、電子式の振れ補正(ブレ補正)を行う。振れ補正部201は、例えば、角速度センサー134が検出した角速度の変化をカメラ64の光軸の変位として取得し、取得した光軸の変位に基づいて、振れによる撮像画像の変位量(例、dX、dY)を算出する。振れ補正部201は、算出した撮像画像の変位量(例、dX、dY)に基づいて、撮像画像の補正を行う。なお、この振れ補正部201による振れ補正については、詳細に後述する。
また、振れ補正部201は、この振れ補正の際に、ハイパスフィルタ207によってフィルタ処理された光軸の変位に応じて、カメラ64が撮像する画像の揺れを補正する。このことにより、光軸の変位のうち、パン操作などによる光軸の変位を除いた、ユーザーの頭の振れなどによる、補正の対象となる光軸の変位を適切に抽出することが可能になる。
ズーム制御部202(ズーム部)は、例えば、電子ズーム処理を行い、撮像画像の画角(又は撮像の際の表示範囲)を変更することにより、撮像画像に含まれる被写体像の大きさを変更する。ズーム制御部202は、例えば、所定の変更倍率(表示倍率)に基づいて、撮像画像の画角(又は撮像の際の表示範囲)を変更する。ズーム制御部202は、例えば、ユーザーが肉眼(裸眼)で直接被写体を観察した場合における被写体の大きさと対応する大きさ(等しい大きさ)を1倍の表示倍率として、撮像画像の画角を変更する。なお、ズーム制御部202における変更倍率の初期値は、肉眼(裸眼)の状態に対応する倍率(ここでは、1倍)に定めされている。
付加情報取得部203は、カメラ64の方向に基づいて、撮像画像に含まれる対象物(例、山や建物など)に対応する付加情報を取得するとともに、付加情報を重畳する位置を算出する。また、例えば、付加情報取得部203は、加速度センサー132及び地磁気センサー133によって検出されたカメラ64の方向と、GPSセンサー135によって検出されたカメラ64の位置(緯度経度情報)とに基づいて、対象物を検出する。付加情報取得部203は、検出した対象物に対応する情報(例えば、山の名前や気候情報など)を、例えば、BT通信回路130、WiFi通信回路131、又は3G/LTE通信回路138を介してネットワーク上のサーバーから取得する。
画像処理部205は、加速度センサー132又は地磁気センサー133によって検出されたカメラ64の方向に基づく上述の付加情報を、カメラ64が撮像した撮像画像に重畳した画像データを出力する。例えば、付加情報取得部203が算出した、カメラ64の方向に基づく付加情報の位置に、付加情報を重畳した画像データを生成し、生成した画像データをデコーダー121に出力する。すなわち、画像処理部205は、撮像画像に含まれる対象物に対応する位置(例えば、対象物の付近)に、対象物に対応する付加情報を重畳した画像データを生成する。
AR位置補正部204(第2補正部)は、振れ補正部201によって補正された撮像画像の変位と、付加情報を重畳する位置の変位とが一致するように、撮像画像上に付加情報を重畳する位置を補正する。ここで、撮像画像の変位とは、例えば、カメラ64をパン操作などにより撮像方向を移動する際の撮像画像(撮像画面)の位置変化のことである。AR位置補正部204は、例えば、角速度センサー134(又は地磁気センサー133)が検出した光軸の変位に応じて、付加情報を重畳する位置を補正する。例えば、AR位置補正部204は、光軸の変位量に基づいて、振れ補正部201による画像の揺れの補正量に対応する(相関する)補正量を算出し、算出した補正量に基づいて、付加情報を重畳する位置を補正する。
なお、ここで、AR位置補正部204は、ハイパスフィルタ207によってフィルタ処理した光軸の変位に応じて、付加情報を重畳する位置を補正する。このことにより、光軸の変位のうち、パン操作などによる光軸の変位を除いた、ユーザーの頭の振れなどによる光軸の変位を抽出することが可能になる。すなわち、AR位置補正部204は、このような振れ補正部201の補正対象となる光軸の変位に対して、適切に付加情報を重畳する位置を補正することができる。
表示制御部206(制御部)は、表示パネル63に画像(映像)を表示させる制御を行う。例えば、表示制御部206は、ズーム制御部202によって変更倍率により変更された撮像画像を表示パネル63に表示させる制御を行う。また、例えば、表示制御部206は、振れ補正部201が動作している場合に、AR位置補正部204に対して付加情報を重畳する位置を補正させる。表示制御部206は、R位置補正部204に対して位置を補正させるとともに、画像処理部205に対して振れ補正部201によって補正された撮像画像に、AR位置補正部204によって補正された位置に付加情報を重畳した画像データを出力させる。
また、表示制御部206は、撮像画像の基準画角に対応する被写体像の大きさに対する、ズーム制御部202によって変更される被写体像の大きさの変更倍率が、所定の倍率(例えば、1倍)より大きい場合に、振れ補正部201を動作させる。ここで、所定の倍率は、肉眼の状態に対応する倍率であってもよい。
また、表示制御部206は、例えば、BT通信回路130、WiFi通信回路131、又は3G/LTE通信回路138によって送信させる画像データに対応する撮像画像をカメラ64が撮像する場合に、振れ補正部201を動作させる。
また、表示制御部206は、例えば、フラッシュメモリー122によって記憶(記録)される画像データに対応する撮像画像をカメラ64が撮像する場合に、振れ補正部201を動作させる。
なお、表示制御部206は、上述したように、振れ補正部201が動作している場合に、AR位置補正部204に対して付加情報を重畳する位置を補正させる。
ハイパスフィルタ207は、例えば、所定の周波数以上の成分を通過させるフィルタ処理を行うフィルタ回路である。ハイパスフィルタ207は、例えば、角速度センサー134が検出したカメラ64の光軸の変位にフィルタ処理を行い、光軸の変位のうちの所定の周波数以上の成分を抽出する。これにより、パン操作などによる光軸の変位が振れ補正処理の対象から除外される。ここで、所定の周波数は、例えば、ユーザーの頭部の揺れによる画像(映像)の揺れによって、画像(映像)を見たユーザーが不快を感じる(画面のブレが気になる)周波数以上の成分(高周波成分)を抽出するように設定されている。
なお、ハイパスフィルタ207は、デジタル信号処理によってフィルタ処理を実現するものであってもよいし、アナログ信号処理によってフィルタ処理を実現するものであってもよい。
図8は、本実施形態に係るヘッドマウントディスプレイ1を含む通信システムのシステム構成図である。
この図においてヘッドマウントディスプレイをHMDと表記する。なお、HMD1は、ユーザー(本人)が使用するヘッドマウントディスプレイであり、HMD500は、他人が使用するヘッドマウントディスプレイである。この図において、接続に関して必要な要素のみを記載し、他は省略している。
図8は、ヘッドマウントディスプレイ1のネットワーク接続の一例を示す図である。
この図においてヘッドマウントディスプレイをHMDと表記する。なお、HMD1は、ユーザー(本人)が使用するヘッドマウントディスプレイであり、HMD500は、他人が使用するヘッドマウントディスプレイである。この図において、接続に関して必要な要素のみを記載し、他は省略している。
図8において、ヘッドマウントディスプレイ1(HMD1)は、ネットワーク220を介して、HMD500と、サーバー210とに接続されている。ここで、HMD1は、タッチスイッチ34、表示パネル63(LCD)、カメラ64、地磁気センサー133、処理部123、フラッシュメモリー122、及び通信インタフェース(131,138)を備えている。ここで、通信インタフェースは、例えば、WiFi通信回路131及び3G/LTE通信回路138である。
また、HMD500は、HMD1と同様の通信手段を有するヘッドマウントディスプレイである。HMD500は、HMD1と同様に、タッチスイッチ534、表示パネル563(表示部)、カメラ564、地磁気センサー533、処理部523、フラッシュメモリー522、及び通信インタフェース(531,538)を備えている。HMD500の各機能部は、HMD1の各機能部と同等である。
サーバー210は、処理部211、記憶部212、及び通信インタフェース213を備えている。処理部211は、各端末(HMD1、HMD500)から通信インタフェース213を介して受信した画像データ(動画、静止画、線画等)、音声データ、各端末の環境情報、及び各端末からの要求等の通信記録を、記憶部212に記録(記憶)させる。処理部211は、各端末の要求に応じて、記憶部212に記録してある画像データを読み出し、読み出した画像データを、通信インタフェース213を介して各端末に送信する。
記憶部212には、各端末から受信した画像データ(動画、静止画)、音声データ、各端末の環境情報、及び各端末からの要求等の通信記録が記録(記憶)されている。
通信インタフェース213は、例えば、WiFi通信回路、3G通信回路、LTE通信回路、有線LAN回路等を備えている。
HMD1は、例えば、通信インタフェース(131,138)を介してネットワーク220に接続し、HMD1は、例えば、通信インタフェース(131,138)を介して、上述の対象物に対応する付加情報をサーバー210から取得する。
次に、本実施形態におけるヘッドマウントディスプレイ1の動作について、図面を参照して説明する。
まず、ヘッドマウントディスプレイ1におけるヘッドバンド40の動作等について、図9を参照しつつ説明する。
図9は、本実施形態におけるヘッドバンド40の動作を説明する説明図である。
図3に示したように、本実施形態のヘッドマウントディスプレイ1は、図3(A)に示す右眼観察形態と、図3(B)に示す左眼観察形態を切り替えて使用することができる。
例えば、右眼観察形態から左眼観察形態へ切り替えるには、ヘッドバンド40に連結されたディスプレイ本体20を、ディスプレイヒンジ61の回転軸回り(図示A方向)に180°程度回転させる。また、ヘッドバンド40において、第2ヘッドバンド44を回動機構56,57の軸回りに揺動させ、第1ヘッドバンド43に対して反対側に移動させる。この操作により、図3(B)に示すように、ユーザーの左眼側にディスプレイ本体20が配置され、しかも第2ヘッドバンド44がユーザーの後頭部側に配置された左眼観察形態に切り替えることができる。
本実施形態では、図9に示すように、第1ヘッドバンド43の円弧高さr1を、第2ヘッドバンド44の円弧高さr2よりも小さくしている。これにより、第2ヘッドバンド44を第1ヘッドバンド43と交差させるように移動させても、互いに干渉することなく円滑に前後を入れ替えることができる。
図9に示す円弧高さr1は、同軸に配置された回動機構56、57の回転軸Lの中央位置Cから第1ヘッドバンド43までの距離の最大値である。また円弧高さr2は、回転軸Lの中央位置Cから第2ヘッドバンド44までの距離の最大値である。
なお、第1ヘッドバンド43の円弧高さr1を第2ヘッドバンド44の円弧高さr2よりも大きくし、第2ヘッドバンド44を第1ヘッドバンド43の内側で揺動させる構成としてもよい。
次に、本実施形態のヘッドマウントディスプレイ1(入出力装置200)における振れ補正及び付加情報の表示位置補正の動作について説明する。
図10は、本実施形態におけるヘッドマウントディスプレイ1の動作の一例を示す図である。図10は、ユーザーの眼前に広がる景色V1に対して、カメラ64で撮像(撮影)された撮像画像(映像)G14と、GPSセンサー135及び地磁気センサー133により取得した位置情報及び方位情報に基づいて、取得した付加情報を表示パネル63に表示する場合の一例を示している。
ここで、ユーザーの眼前の景色V1において、カメラ64によって撮像される範囲は点線の枠によって示されている。例えば、枠G10は、カメラ64によって撮像されている全範囲を示している。また、処理部123の表示制御部206及びズーム制御部202は、この枠G10(全範囲)の中から電子的な処理によって、枠G11や枠G12の範囲の画像が読み出され、拡大されて表示部60の表示パネル63に表示させる。表示制御部206及びズーム制御部202は、このことによっていわゆる電子ズームが可能としている。
また、枠G11は、ユーザーがカメラ64を起動した際に最初に表示パネル63に表示される範囲を示している。ここで、枠G11は、撮像画像の基準画角に対応し、ユーザーが表示部60の表示パネル63を観察した場合に、被写体像の大きさと、ユーザーが肉眼で直接被写体を観察した場合で大きさが等しくなるように設定されている。すなわち、ここで枠G11は、ズーム制御部202における表示倍率(変更倍率)が1倍となる撮像範囲である。
ズーム制御部202は、ユーザーによって操作スイッチ30が操作された場合に、例えば、画面中央部の枠G12の部分読み出して、撮像画像を生成する。表示制御部206は、ズーム制御部202によって生成された撮像画像(拡大された画像)を表示部60の表示パネル63に表示させる。すなわち、ズーム制御部202がズームアップした画像G14を、表示制御部206は、表示パネル63に表示させる。このように、画像G14は、表示パネル63に表示させる画面の様子を示している。
また、表示制御部206は、画像処理部205に対して、撮像画像に付加情報を重畳する処理を実行させる。
例えば、図10に示すように、ユーザーの前面には対象物である山OB1及び山OB2が存在している。画像処理部205は、付加情報取得部203によってネットワークを経由して取得された山OB1の名称である「○○山」といった地形情報I1を撮像画像G14に重畳させる。すなわち、付加情報取得部203は、加速度センサー132及び地磁気センサー133によって検出されたカメラ64の方向と、GPSセンサー135によって検出されたカメラ64の位置(緯度経度情報)とに基づいてネットワークを経由して付加情報(「○○山」という地形情報I1)を取得する。画像処理部205は、撮像画像G14に付加情報(「○○山」という地形情報I1)を重畳させる。そして、表示制御部206は、この付加情報を重畳した画像データを表示パネル63に表示させる。
また、例えば、付加情報取得部203は、ネットワークを経由して、山OB2の付近の気象情報を取得する。例えば、山OB2に雨雲がある場合には、付加情報取得部203は、付加情報として「雨雲あり」といった気象情報I2を取得する。画像処理部205は、撮像画像G14に付加情報(「雨雲あり」といった気象情報I2)を重畳させる。そして、表示制御部206は、この付加情報を重畳した画像データを表示パネル63に表示させる。
また、図10において、枠G13は、ヘッドマウントディスプレイ1を装着したユーザーの頭が回転(光軸が変位)し、カメラ64の方向がdx及びdyだけずれた場合に、振れ補正を行わずに読み出される範囲を示している。
次に、図11を参照して、本実施形態における振れ補正、及び付加情報の位置補正について説明する。
図11は、実施施形態におけるヘッドマウントディスプレイ1の動作の一例を示すフローチャートである。
図11において、まず、ユーザーによって操作スイッチ30が操作されることにより、カメラ64が動作を開始する(ステップS101)。
次に、処理部123のズーム制御部202は、電子ズーム倍率を所定の倍率に設定する(ステップS102)。すなわち、ズーム制御部202は、電子ズームの手法を用いて、カメラ64の読み出し範囲(枠G10)のうちの枠G11の範囲の画像を撮像画像としてカメラ64から読み出す。なお、枠G11の範囲は、表示倍率(変更倍率)“1”となる範囲であり、この枠G11の範囲は、表示パネル63に表示させた場合に、ユーザーが肉眼で観察する風景と同じ倍率に表示されるように設定されている。
このように、このように、ヘッドマウントディスプレイ1は、起動時に、ユーザーが実際の肉眼による視界と同じ倍率で画像が表示されるように制御される。これにより、ユーザーは、カメラ64が何処を向いているのかを容易に把握することが可能となっている。
次に、ヘッドマウントディスプレイ1は、カメラ64の画像を表示パネル63に表示する(ステップS103)。すなわち、表示制御部206は、ズーム制御部202がカメラ64から読み出した撮像画像を表示パネル63に表示させる。
次に、処理部123は、W側(ワイド側)へのズーム操作がされたか否かを判定する(ステップS104)。すなわち、ズーム制御部202は、ユーザーによって操作スイッチ30がW側に操作されたか否かを判定する。ズーム制御部202は、操作スイッチ30がW側に操作されたと判定した場合(ステップS104:Yes)に、処理をステップS105に進める。また、ズーム制御部202は、操作スイッチ30がW側に操作されていないと判定した場合(ステップS104:No)に、処理をステップS106に進める。
次に、ステップS105において、ズーム制御部202は、ワイド側へのズーム操作に応じて、カメラ64から読み出される撮像画像の範囲を広くする。すなわち、ズーム制御部202は、撮像画像の画角を変更することにより、撮像画像に含まれる被写体像の大きさが小さくなるように変更する。例えば、ズーム制御部202は、現在、枠G11の範囲をカメラ64から読み出されていた場合には、ワイド側へのズーム操作によって、さらに外側の枠G10の範囲が撮像画像として読み出されるように設定する。なお、ズーム制御部202は、例えば、読み出し範囲の変更をワイド側(広角側)、及び後述するテレ側(望遠側)ともに連続的に変更することが可能である。
次に、ステップS106において、処理部123は、T側(テレ側)へのズーム操作がされたか否かを判定する。すなわち、ズーム制御部202は、ユーザーによって操作スイッチ30がT側に操作されたか否かを判定する。ズーム制御部202は、操作スイッチ30がT側に操作されたと判定した場合(ステップS106:Yes)に、処理をステップS107に進める。また、ズーム制御部202は、操作スイッチ30がT側に操作されていないと判定した場合(ステップS106:No)に、処理をステップS108に進める。
次に、ステップS107において、ズーム制御部202は、テレ側へのズーム操作に応じて、カメラ64から読み出される撮像画像の範囲を狭くする。すなわち、ズーム制御部202は、撮像画像の画角を変更することにより、撮像画像に含まれる被写体像の大きさが大きくなるように変更する。例えば、ズーム制御部202は、現在、枠G11の範囲をカメラ64から読み出されていた場合には、テレ側へのズーム操作によって、さらに内側の枠G12の範囲が撮像画像として読み出されるように設定する。
次に、ステップS108において、処理部123の付加情報取得部203は、GPSセンサー135より位置情報(緯度経度情報)を取得する。このことにより、処理部123は、ユーザーの位置を取得できる。また、付加情報取得部203は、位置情報と合わせて時刻の情報も取得する。
次に、処理部123は、カメラ64の方位方向と仰角情報を取得する(ステップS109)。すなわち、処理部123の付加情報取得部203は、地磁気センサー133より方位情報を取得する。このことにより、付加情報取得部203は、ユーザーが景色を見ている方位を取得することができる。また、付加情報取得部203は、加速度センサー132より重力の方向を検出することによって、カメラ64の仰角情報を取得する。
次に、付加情報取得部203は、位置情報と方位情報とに基づいて付加情報を取得する(ステップS110)。付加情報取得部203は、例えば、付加情報をネットワーク経由で取得してもよいし、予めフラッシュメモリー122に記憶させている付加情報に基づいても取得してもよい。付加情報取得部203は、例えば、図11における「○○山」といった地形情報I1、及び「雨雲あり」といった気象情報I2を取得する。
次に、付加情報取得部203は、表示する付加情報の表示位置(付加情報を重畳する位置)(X2,Y2)を算出する(ステップS111)。すなわち、付加情報取得部203は、カメラ64の方向(方位)と、付加情報の方位との差分に基づいて、付加情報の画面上の位置(X2,Y2)を算出する。
ここでは、付加情報取得部203は、まず、山OB1における山頂部の画面上の座標(X1,Y1)を次のように算出する。
例えば、カメラ64が真北を向いており、山OB1が真北から10度東の方角に位置している場合、且つ、カメラ64の水平方向の画角が30度である場合について説明する。この場合、カメラ64の東側(中央から左側)の撮像範囲は、真北から15度東の範囲となる。すなわち、真北から10度東に存在する山OB1は、カメラ64の撮像画像の中心から左に2/3の位置に存在することになる。ここで、表示パネル63の横方向(水平方向)の画素数を、例えば、800画素とした場合に、付加情報取得部203は、以下の式(1)により、「○○山」の山頂の位置X1を算出する。
X1=800÷2×10/15≒267 ・・・(1)
また、付加情報取得部203は、次のように、加速度センサー132より取得したカメラ64の仰角情報、及びネットワークより取得した山OB1の高さ情報より山頂の高さである位置Y1の値を算出する。
例えば、カメラ64の仰角が0度、すなわち水平である場合、且つ、カメラ64から山OB1までの距離が10Km(キロメートル)、山OB1の高さが800m、ユーザー(カメラ64)が位置している標高が500mである場合に、付加情報取得部203は、OB1の山頂の仰角θ1を以下の式(2)により算出する。
θ1=sin−1((800−500)/10000)=1.7度 ・・・(2)
ここで、カメラ64の垂直方向の画角が20度であり、表示パネル63の縦方向(垂直方向)の画素数が、例えば、600画素である場合に、付加情報取得部203は、以下の式(3)により、「○○山」の山頂の位置Y1を算出する。
Y1=600÷2×1.7/10 =51 ・・・(3)
すなわち、「○○山」の山頂の位置Y1は、画面の垂直方向の中央から51画素分上の位置となる。
ここで、地形情報I1は、山頂位置に表示するのではなく、例えば、左右方向(水平方向)はそのままに、高さ方向を山頂より50画素ほど離した山OB1の上空に表示した方が好ましい。そこで、付加情報取得部203は、地形情報I1の表示位置(X2,Y2)を以下の式(4)及び式(5)により算出する。
X2=X1 ・・・(4)
Y2=Y1+50 ・・・(5)
次に、ズーム制御部202は、カメラ64から設定された変更倍率(表示倍率)に対応する撮像範囲の撮像画像として取得する(ステップS112)。
次に、表示制御部206は、ズーム倍率(変更倍率)が所定の変更倍率より大きいか否か、画像を録画しているか否か、又は画像をHMD500或いはサーバー210に配信中か否かを判定する(ステップS113)。
例えば、表示制御部206は、ズーム倍率(変更倍率)が1倍より大きいか否かを判定する。ここで、ズーム処理による表示倍率(変更倍率)が、ユーザーが肉眼で観察する場合よりも大きく表示パネル63に景色が表示される場合には、カメラ64を保持するユーザーの頭部の振れ(ブレ)などによって表示範囲の揺れが発生する。このような画像(映像)をユーザーが見た場合には、いわゆる映像酔いなどの不快な症状を発症することがある。そこで、表示制御部206は、ズーム倍率が1倍より大きい場合(ステップS113:Yes)に、処理をステップS114に進め、振れ補正部201に対して振れ補正処理(防振処理)を開始させる。また、表示制御部206は、表示制御部206は、ズーム倍率が1倍以下の場合(ステップS113:No)に、処理をステップS119に進める。
また、例えば、表示制御部206は、撮像画像をフラッシュメモリー122に記憶(記録)させているか否かを判定する。表示制御部206は、撮像画像をフラッシュメモリー122に記憶(記録)させている場合(ステップS113:Yes)に、処理をステップS114に進め、振れ補正部201に対して振れ補正処理(防振処理)を開始させる。また、表示制御部206は、撮像画像をフラッシュメモリー122に記憶(記録)させていない場合(ステップS113:No)に、処理をステップS119に進める。
また、例えば、表示制御部206は、撮像画像を他の端末、例えばHMD500又はサーバー210に送信(配信)しているか否かを判定する。表示制御部206は、例えば、BT通信回路130、WiFi通信回路131、又は3G/LTE通信回路138を介して、HMD500又はサーバー210に撮像画像を送信(配信)させている場合(ステップS113:Yes)に、処理をステップS114に進め、振れ補正部201に対して振れ補正処理(防振処理)を開始させる。また、表示制御部206は、BT通信回路130、WiFi通信回路131、又は3G/LTE通信回路138を介して、HMD500又はサーバー210に撮像画像を送信(配信)させていない場合(ステップS113:No)に、処理をステップS119に進める。
なお、ヘッドマウントディスプレイ1は、表示倍率が1以下の場合、且つ、画像(映像)を他の端末などに送信したり、録画(記録)したりする必要の無い場合には、撮像画像がブレる(揺れる)ことによってユーザーが画像酔いを起こすことはない。そのため、このような場合に、表示制御部206は、振れ補正処理(防振処理)を実行させない。
次に、ステップS114において、処理部123は、画像(映像)に振れ補正を行うために、角速度センサー134が検出した角速度の値を取得する。すなわち、処理部123は、角速度センサー134が検出した光軸の変位を所得する。
次に、処理部123は、角速度センサー134が検出した角速度の値をハイパスフィルタ207に通す(ステップS115)。すなわち、処理部123のハイパスフィルタ207は、角速度センサー134が検出した角速度の値(光軸の変位)のうちの、ユーザーにとって画面のブレが気になる(振れ補正処理が必要な)高周波成分を抽出する。
次に、振れ補正部201は、カメラ64の出力画像(撮像画像)の切り出し補正値(dX,dY)を算出する(ステップS116)。すなわち、振れ補正部201は、例えば、ハイパスフィルタ207を通過した角速度の値を積分することによって、振れによる撮像画像の変位量(例、dX、dY)を算出する。
次に、振れ補正部201は、カメラ64の出力画像(撮像画像)の切り出し位置を補正する(ステップS117)。すなわち、振れ補正部201は、算出した補正値(dX,dY)に基づいて、撮像画像の切り出し位置を補正する。
例えば、図10に示す一例は、カメラ64が枠G12の方向を向いている状態において、ユーザーの頭部の振れが生じて、枠G13の方向をカメラ64が向いてしまった場合を示している。この場合、振れ補正部201は、算出した補正値(dX,dY)に基づいて、枠G13より補正値(dX,dY)だけずれた枠G12を切り出し画面(撮像画像)として読み出す。このことにより、入出力装置200は、振れ(揺れ)のない撮像画像を出力する。つまり、ユーザーには、振れ(揺れ)のない撮像画像が供給される。
次に、処理部123のAR位置補正部204は、付加情報の表示位置を補正する(ステップS118)。すなわち、AR位置補正部204は、振れ補正部201が算出した補正値(dX,dY)に基づいて、付加情報を重畳する位置を補正する。AR位置補正部204は、例えば、振れ補正部201によって補正された撮像画像の変位と、付加情報を重畳する位置の変位とが一致するように、撮像画像上に付加情報を重畳する位置を補正する。例えば、AR位置補正部204は、上述の補正量(dX,dY)に対応する(相関する)補正量を算出し、算出した補正量に基づいて、付加情報を重畳する位置を補正する。
例えば、図10に示す一例の場合、カメラ64の方向が上述の(dX,dY)だけずれたことにより、地形情報I1、及び気象情報I2の方向が画像とずれて表示されてしまうことがある。すなわち、例えば、カメラ64が枠G13の方向を向いてしまった場合には、山OB1が枠G13の範囲外になるため、「○○山」という地形情報I1は、表示されなくなる。また、枠G13において、山OB2が中央に位置するため、気象情報I2は、画像(G14)の中央に表示されることになる。このような場合に、AR位置補正部204は、適切な位置に付加情報(地形情報I1及び気象情報I2)が表示されるように付加情報を重畳する位置を補正する。すなわち、AR位置補正部204は、付加情報(地形情報I1及び気象情報I2)を重畳する位置を、上述の補正量(dX,dY)だけ補正する。
次に、処理部123は、カメラ64の画像を切り出して表示する(ステップS119)。すなわち、処理部123の表示制御部206は、ズーム制御部202又は振れ補正部201によって切り出されたカメラ64の撮像画像を画像データとして、画像処理部205に出力させる。例えば、画像処理部205は、このカメラ64の撮像画像(画像データ)をデコーダー121及びLCDドライバ125を介して表示パネル63に出力し、表示パネル63に表示させる。
次に、処理部123は、表示パネル63に付加情報を表示する(ステップS120)。すなわち、処理部123の表示制御部206は、画像処理部205に、ズーム制御部202又は振れ補正部201によって切り出されたカメラ64の撮像画像に付加情報を重畳させた画像データを生成させる。画像処理部205は、生成した画像データを出力させる。例えば、画像処理部205は、この付加情報が重畳された画像データをデコーダー121及びLCDドライバ125を介して表示パネル63に出力し、表示パネル63に表示させる。
なお、表示制御部206は、撮像画像をフラッシュメモリー122に記憶する場合には、付加情報が重畳された画像データをフラッシュメモリー122に記憶(記録)させる。
また、上述のステップS119とステップS120との処理において、表示制御部206は、撮像画像と付加情報を重畳させた画像データとを個別(2回に分けて)に表示パネル63に表示させる一例を説明したが、付加情報を重畳させた画像データを一度に表示パネル63に表示させてもよい。
次に、処理部123の表示制御部206は、画像を配信するか否かを判定する(ステップS121)。すなわち、表示制御部206は、例えば、メモリー127に記憶されている配信するか否かの設定情報に基づいて、上述の撮像画像(画像データ)を、他の端末(例えば、HMD500又はサーバー210)に配信(送信)するか否かを判定する。表示制御部206は、撮像画像を配信すると判定した場合(ステップS121:Yes)に、処理をステップS122に進める。また、表示制御部206は、撮像画像を配信しないと判定した場合(ステップS121:No)に、処理をステップS123に進める。
次に、ステップS122において、表示制御部206は、交信する端末(例えば、HMD500又はサーバー210)に同情報(画像データ)を配信(送信)する。なお、配信する画像は動画でもよいし、静止画でもよい。また、画像データの配信は、HMD500にリアルタイムで動画を表示する他、HMD500又はサーバー210に動画又は静止画を記録(記憶)させる場合も含まれる。
次に、ステップS123において、処理部123は、ユーザーによる撮像(例、動画撮像)が終了か否かを判定する。処理部123は、撮像が終了である場合(ステップS123:Yes)に処理を終了させる。また、処理部123は、撮像が終了でない場合(ステップS123:No)に処理をステップS104に戻し、一連の処理を繰り返す。
以上説明したように、本実施形態における入出力装置200は、カメラ64と、角速度センサー134と、振れ補正部201と、方向検出部(加速度センサー132又は地磁気センサー133)と、画像処理部205と、AR位置補正部204とを備えている。カメラ64は、画像を撮像し、角速度センサー134は、カメラ64の光軸の変位を検出する。振れ補正部201は、角速度センサー134が検出した光軸の変位に応じて、カメラ64が撮像する画像の揺れを補正する。方向検出部(加速度センサー132又は地磁気センサー133)は、カメラ64の方向を検出する。画像処理部205は、方向検出部によって検出されたカメラ64の方向に基づく付加情報を、カメラ64が撮像した撮像画像に重畳した画像データを生成するとともに、生成した画像データを出力する。そして、AR位置補正部204は、振れ補正部201によって補正された撮像画像の変位と、付加情報を重畳する位置の変位とが一致するように、付加情報を重畳する位置を補正する。例えば、AR位置補正部204は、角速度センサー134が検出した光軸の変位に応じて、付加情報を重畳する位置を補正する。
これにより、本実施形態における入出力装置200は、例えば、振れ補正処理(防振処理)を実行する場合であっても、正しい位置に付加情報を表示させることができる。したがって、本実施形態における入出力装置200は、映像酔いなどの不快な症状を発症することを低減することができるので、利便性を向上させることができる。
また、本実施形態では、AR位置補正部204は、光軸の変位量に基づいて、振れ補正部201による画像の揺れの補正量に対応する補正量を算出し、算出した補正量に基づいて、付加情報を重畳する位置を補正する。
これにより、本実施形態における入出力装置200は、付加情報を重畳する位置の補正を、振れ補正部201による補正に対応させることができるので、振れ補正処理(防振処理)を実行する場合であっても、正しい位置に付加情報を表示させることができる。
また、本実施形態では、振れ補正部201は、ハイパスフィルタ207によってフィルタ処理した光軸の変位に応じて、カメラ64が撮像する画像の揺れを補正し、AR位置補正部204は、ハイパスフィルタ207によってフィルタ処理した光軸の変位に応じて、付加情報を重畳する位置を補正する。
これにより、振れ補正部201及びAR位置補正部204は、光軸の変位のうち、パン操作などによる光軸の変位を除いた、ユーザーの頭の振れなどによる光軸の変位を抽出することが可能になる。そのため、本実施形態における入出力装置200は、このような振れ補正部201の補正対象となる光軸の変位に対して、適切に付加情報を重畳する位置を補正することができる。
また、本実施形態における入出力装置200は、表示制御部206を備えている。表示制御部206は、振れ補正部201が動作している場合に、AR位置補正部204に対して付加情報を重畳する位置を補正させるとともに、画像処理部205に対して振れ補正部201によって補正された撮像画像に、AR位置補正部204によって補正された位置に付加情報を重畳した画像データを出力させる。
これにより、振れ補正部201が動作している場合に、AR位置補正部204に補正させ、振れ補正部201が動作していない場合には、AR位置補正部204に補正させないので、本実施形態における入出力装置200は、適切に付加情報を重畳する位置を補正することができる。
また、本実施形態における入出力装置200は、撮像画像の画角を変更することにより、撮像画像に含まれる被写体像の大きさを変更するズーム制御部202を備えている。表示制御部206は、撮像画像の基準画角に対応する被写体像の大きさに対する、ズーム制御部202によって変更される被写体像の大きさの変更倍率が、所定の倍率より大きい場合に、振れ補正部201を動作させる。上述の所定の倍率は、肉眼の状態に対応する倍率(例えば、1倍)である。
これにより、本実施形態における入出力装置200は、例えば、映像酔いなどの不快な症状を発症する場合に、振れ補正処理(防振処理)及び付加情報を重畳する位置の補正を適切に行うことができる。そのため、本実施形態における入出力装置200は、利便性を向上させることができる。
また、本実施形態では、ズーム制御部202における変更倍率の初期値は、肉眼の状態に対応する倍率(例、1倍)に定めされている。
これにより、本実施形態における入出力装置200は、起動時に、ユーザーが実際の肉眼による視界と同じ倍率で画像が表示されるように制御される。そのため、ユーザーは、カメラ64が何処を向いているのかを容易に把握することができる。
また、本実施形態における入出力装置200は、画像処理部205が出力する画像データを入出力装置200(自装置)の外部に送信する送信部(BT通信回路130、WiFi通信回路131、又は3G/LTE通信回路138)を備えている。表示制御部206は、この送信部によって送信させる画像データに対応する撮像画像をカメラ64が撮像する場合に、振れ補正部201を動作させる。
これにより、画像データの送信先の端末装置(例えば、HMD500)において、画像(映像)を見ているユーザーが、映像酔いなどの不快な症状を発症することを低減することができる。したがって、本実施形態における入出力装置200は、利便性を向上させることができる。
また、本実施形態における入出力装置200は、画像処理部205が出力する画像データを記憶するフラッシュメモリー122を備えている。表示制御部206は、フラッシュメモリー122によって記憶される画像データに対応する撮像画像をカメラ64が撮像する場合に、振れ補正部201を動作させる。
これにより、フラッシュメモリー122によって記憶される画像データを見る場合であっても、ユーザーが映像酔いなどの不快な症状を発症することを低減することができる。したがって、本実施形態における入出力装置200は、利便性を向上させることができる。
また、本実施形態における入出力装置200は、カメラ64の方向に基づいて、撮像画像に含まれる対象物に対応する付加情報を取得するとともに、付加情報を重畳する位置を算出する付加情報取得部203を備えている。
これにより、本実施形態における入出力装置200は、付加情報(例、地形情報I1や気象情報I2など)を適切に取得することができる。
また、本実施形態における入出力装置200は、カメラ64の位置を検出するGPSセンサー135を備えている。付加情報取得部203は、カメラ64の方向と、GPSセンサー135によって検出されたカメラ64の位置とに基づいて、対象物を検出する。
これにより、本実施形態における入出力装置200は、撮像画像に含まれる対象物を正確に検出することができるので、付加情報(例、地形情報I1や気象情報I2など)を正確に取得することができる。
また、本実施形態におけるヘッドマウントディスプレイ1は、入出力装置200と、画像処理部205が出力する画像データを表示する表示パネル63と、少なくともカメラ64及び表示パネル63をユーザーの頭部に装着可能なヘッドバンド40とを備えている。
上述した入出力装置200を備えているので、本実施形態におけるヘッドマウントディスプレイ1は、入出力装置200と同様の効果を得ることができる。すなわち、本実施形態におけるヘッドマウントディスプレイ1は、入出力装置200と同様に、利便性を向上させることができる。
[第2の実施形態]
次に、第2の実施形態について図面を参照して説明する。
第2の実施形態におけるヘッドマウントディスプレイ1の構成は、第1の実施形態と同様である。本実施形態では、角速度センサー134の代わりに、地磁気センサー133を用いて、振れ補正処理(防振処理)及び付加情報を重畳する位置の補正処理を行う場合の一例を示している。
図12は、本実施施形態におけるヘッドマウントディスプレイ1の動作の一例を示すフローチャートである。
図12において、ステップS201〜ステップS213までの処理は、図11におけるステップS101〜ステップS113までの処理と同様であり、ここでは説明を省略する。
ステップS214において、処理部123は、画像(映像)に振れ補正を行うために、地磁気センサー133が検出した方位情報の値を取得する。すなわち、処理部123は、地磁気センサー133が検出した光軸の変位を所得する。
次に、処理部123は、地磁気センサー133が検出した方位情報の値をハイパスフィルタ207に通す(ステップS215)。すなわち、処理部123のハイパスフィルタ207は、地磁気センサー133が検出した方位情報の値(光軸の変位)のうちの、ユーザーにとって画面のブレが気になる(振れ補正処理が必要な)高周波成分を抽出する。
次に、振れ補正部201は、カメラ64の出力画像(撮像画像)の切り出し補正値(dX,dY)を算出する(ステップS216)。すなわち、振れ補正部201は、例えば、ハイパスフィルタ207を通過した方位情報の値を積分することによって、振れによる撮像画像の変位量(例、dX、dY)を算出する。
続く、ステップS217〜ステップS223の処理は、図11におけるステップS117〜ステップS123までの処理と同様であり、ここでは説明を省略する。
以上説明したように、本実施形態では、角速度センサー134の代わりに、地磁気センサー133を変位検出部として用いて、光軸の変位を検出するようにしたので、本実施形態における入出力装置200及びヘッドマウントディスプレイ1は、第1の実施形態と同様の効果を得ることができる。すなわち、本実施形態における入出力装置200及びヘッドマウントディスプレイ1は、第1の実施形態と同様に、利便性を向上させることができる。
[第3の実施形態]
次に、第3の実施形態について図面を参照して説明する。
図13は、本実施形態におけるヘッドマウントディスプレイ1を示す機能ブロック図である。
本実施形態では、処理部123aがパターン取得部208を備え、AR位置補正部204aがパターン取得部208により取得した画像パターンに基づいて補正処理を行う点が、第1の実施形態と異なる。
図13において、入出力装置200aは、処理部123aを備えている。また、処理部123aは、例えば、振れ補正部201、ズーム制御部202、付加情報取得部203、AR位置補正部204a、画像処理部205、表示制御部206、ハイパスフィルタ207、及びパターン取得部208を備えている。
なお、図13において、図7と同一の構成については同一の符号を付し、その説明を省略する。
パターン取得部208は、撮像画像に含まれている画像パターンであって、付加情報を重畳する位置に対応する画像パターンを取得する。この画像パターンは、例えば、付加情報を重畳する位置を中心とした所定のサイズの部分画像であり、パターン取得部208は、例えば、図10に示すような画像パターンP1を取得する。
AR位置補正部204aは、光軸の変位に応じて振れ補正部201によって補正された画像に含まれる画像パターンP1を、例えば、パターン認識の手法を用いて検出し、検出した画像パターンP1の位置に基づいて、付加情報を重畳する位置を補正する。AR位置補正部204aは、例えば、付加情報を重畳する位置を、検出した画像パターンP1の中心位置に補正する。
次に、本実施形態におけるヘッドマウントディスプレイ1及び入出力装置200aの動作について、図面を参照して説明する。
図14は、本実施施形態におけるヘッドマウントディスプレイ1の動作の一例を示すフローチャートである。
図14において、ステップS301〜ステップS311までの処理は、図11におけるステップS101〜ステップS111までの処理と同様であり、ここでは説明を省略する。
ステップS312において、処理部123aのパターン取得部208は、付加情報の中心点である位置(X2,Y2)の周辺の画像パターン(例、画像パターンP1)を取得する。
次のステップS313〜ステップS318までの処理は、図11におけるステップS112〜ステップS115までの処理、ステップS118及びステップS119の処理と同様であり、ここでは説明を省略する。なお、ステップS314において、Yes判定の場合に処理をステップS315に進め、No判定の場合に処理をステップS318に進める。
次に、ステップS319において、処理部123aは、振れ補正部201によって補正された撮像画像(画像G14)に対して、ステップS312の処理において取得された画像パターンP1と一致する画像の位置を検出し、その中央の部分に付加情報を表示させる。例えば、AR位置補正部204aは、振れ補正部201によって補正された画像に含まれる画像パターンP1を検出し、検出した画像パターンP1の中心位置に付加情報を重畳する位置を補正する。そして、画像処理部205は、振れ補正部201によって補正された撮像画像(画像G14)におけるAR位置補正部204aが補正した位置に、付加情報を重畳した画像データを出力する。例えば、画像処理部205は、この画像データをデコーダー121及びLCDドライバ125を介して表示パネル63に出力し、表示パネル63に表示させる。
続く、ステップS320〜ステップS322の処理は、図11におけるステップS121〜ステップS123までの処理と同様であり、ここでは説明を省略する。
以上説明したように、本実施形態における入出力装置200aは、撮像画像に含まれている画像パターンであって、付加情報を重畳する位置に対応する画像パターンを取得するパターン取得部208を備えている。AR位置補正部204aは、光軸の変位に応じて振れ補正部201によって補正された画像に含まれる画像パターンを検出し、検出した画像パターンの位置に基づいて、付加情報を重畳する位置を補正する。
これにより、本実施形態における入出力装置200aは、付加情報が表示される位置の近傍の画像パターンを予め取得することで、カメラ64の向きが変わっても、付加情報を撮像画像の位置に正しくマッチングして表示することができる。
また、上述の画像パターンは、付加情報を重畳する位置を中心とした所定のサイズの部分画像である。AR位置補正部204aは、付加情報を重畳する位置を、検出した画像パターンの中心位置に補正する。
これにより、本実施形態における入出力装置200aは、簡易な構成により、付加情報を重畳する位置を正確に補正することができる。
このように、本実施形態における入出力装置200a及びヘッドマウントディスプレイ1は、第1の実施形態と同様に、利便性を向上させることができる。
[第4の実施形態]
次に、第4の実施形態について図面を参照して説明する。
第4の実施形態におけるヘッドマウントディスプレイ1の構成は、第3の実施形態と同様である。本実施形態では、AR位置補正部204aは、画像パターンに基づいて、付加情報を重畳する位置の補正量(dx2,dy2)を算出し、算出した補正量(dx2,dy2)に基づいて、付加情報を重畳する位置の補正する点が、第3の実施形態と異なる。
図15は、本実施施形態におけるヘッドマウントディスプレイ1の動作の一例を示すフローチャートである。
図15において、ステップS401〜ステップS418までの処理は、図14におけるステップS301〜ステップS318までの処理と同様であり、ここでは説明を省略する。
ステップS419において、AR位置補正部204aは、振れ補正部201によって補正された撮像画像(画像G14)に対して、ステップS412の処理において取得された画像パターンP1と一致する画像の位置を検出し、画像パターンP1に基づいて、付加情報を重畳する位置の補正量(dx2,dy2)を算出する。
次に、処理部123aは、付加情報の表示位置を補正して表示パネル63に表示させる(ステップS420)。すなわち、AR位置補正部204aは、振れ補正部201が算出した補正値(dX2,dY2)に基づいて、付加情報を重畳する位置を補正する。そして、画像処理部205は、振れ補正部201によって補正された撮像画像(画像G14)におけるAR位置補正部204aが補正した位置に、付加情報を重畳した画像データを出力する。例えば、画像処理部205は、この画像データをデコーダー121及びLCDドライバ125を介して表示パネル63に出力し、表示パネル63に表示させる。
続く、ステップS421〜ステップS423の処理は、図14におけるステップS320〜ステップS322までの処理と同様であり、ここでは説明を省略する。
以上説明したように、本実施形態では、AR位置補正部204aは、画像パターンP1に基づいて、付加情報を重畳する位置の補正量(dx2,dy2)を算出する。
これにより、本実施形態における入出力装置200aは、第3の実施形態と同様に、付加情報が表示される位置の近傍の画像パターンを予め取得することで、カメラ64の向きが変わっても、付加情報を撮像画像の位置に正しくマッチングして表示することができる。したがって、本実施形態における入出力装置200a及びヘッドマウントディスプレイ1は、第3の実施形態と同様に、利便性を向上させることができる。
[第5の実施形態]
次に、第5の実施形態について図面を参照して説明する。
図16は、本実施形態におけるヘッドマウントディスプレイ1を示す機能ブロック図である。
本実施形態では、処理部123bが、ローパスフィルタ209を備え、AR位置補正部204bが、ローパスフィルタ209によりフィルタ処理した地磁気センサー133の方位情報を用いて補正処理を行う点が第1の実施形態と異なる。
図16において、入出力装置200bは、処理部123bを備えている。また、処理部123bは、例えば、振れ補正部201、ズーム制御部202、付加情報取得部203、AR位置補正部204b、画像処理部205、表示制御部206、ハイパスフィルタ207、及びローパスフィルタ209を備えている。
なお、図16において、図7と同一の構成については同一の符号を付し、その説明を省略する。
ローパスフィルタ209は、例えば、所定の周波数以下の成分を通過させるフィルタ処理を行うフィルタ回路である。ローパスフィルタ209は、例えば、地磁気センサー133が検出したカメラ64の方向(の変化)にフィルタ処理を行い、カメラ64の方向(の変化)のうちの所定の周波数以下の成分を抽出する。ここで、ローパスフィルタ209の特性は、振れ補正部201によって補正された撮像画像の変位と、AR位置補正部204bによって補正された付加情報の位置の変位とが一致するように設定されている。ここで、ローパスフィルタ209の特性には、周波数特性や遅延特性などが含まれる。
なお、ローパスフィルタ209は、デジタル信号処理によってフィルタ処理を実現するものであってもよいし、アナログ信号処理によってフィルタ処理を実現するものであってもよい。
AR位置補正部204bは、地磁気センサー133が検出した検出値(例、方位情報)を、ローパスフィルタ209によってフィルタ処理したカメラ64の方向に基づいて、付加情報を重畳する位置を補正する。
次に、本実施形態におけるヘッドマウントディスプレイ1及び入出力装置200bの動作について、図面を参照して説明する。
図17は、本実施施形態におけるヘッドマウントディスプレイ1の動作の一例を示すフローチャートである。
図17において、ステップS501〜ステップS517までの処理は、図11におけるステップS101〜ステップS117までの処理と同様であり、ここでは説明を省略する。
ステップS518において、処理部123bは、地磁気センサー133が検出した検出値をローパスフィルタ209によってフィルタ処理させて、付加情報の表示位置を算出する。例えば、ローパスフィルタ209は、地磁気センサー133が検出した検出値(方位情報)をフィルタ処理してAR位置補正部204bに供給する。AR位置補正部204bは、ローパスフィルタ209によってフィルタ処理された方位情報に基づいて、付加情報を重畳する位置を補正した位置(表示位置)として算出する。
続く、ステップS519〜ステップS523の処理は、図11におけるステップS119〜ステップS123までの処理と同様であり、ここでは説明を省略する。
次に、図18を参照して本実施形態におけるヘッドマウントディスプレイ1及び入出力装置200bの動作の一例について説明する。
図18において、各グラフは、横軸が時間を示し、縦軸が変位を示している。波形W1は、振れ補正部201によって補正する前の撮像画像の変位を示している。この波形W1は、角速度センサー134の検出値の変化に対応する。また、波形W2は、地磁気センサー133が検出した検出値(例、方位情報)の変位を示している。また、波形W3は、振れ補正部201によって補正された後の撮像画像の変位を示している。また、波形W4は、AR位置補正部204bによって補正された後の付加情報を重畳する位置の変位を示している。
また、時刻T0から時刻T1までの期間R0は、ヘッドマウントディスプレイ1が停止している期間を示している。また、時刻T1から時刻T2までの期間R1は、ヘッドマウントディスプレイ1が振動している期間(振れている期間)を示している。また、時刻T2から時刻T3までの期間R2は、ヘッドマウントディスプレイ1にパン操作が行われ、ヘッドマウントディスプレイ1が振動しながら移動している期間を示している。また、時刻T3から時刻T4までの期間R3は、パン操作が終了したがヘッドマウントディスプレイ1がまだ振動している期間を示している。時刻T4から時刻T5までの期間R5は、ヘッドマウントディスプレイ1が再び停止している期間を示している。
図18に示すように、振れ補正部201は、波形W1により示される角速度センサー134の検出値をハイパスフィルタ207に通して得られた高周波成分(光軸の変位)に基づいて、電子的に画像の読み出し位置を逐次ずらすことで、細かな画像の揺れ(ブレ)を除去する補正をおこなっている。その結果、振れ補正部201は、波形W3に示すように、変位が滑らかな振れ(ブレ)のない補正された撮像画像を生成し、生成した画像が表示パネル63に表示される。すなわち、補正された撮像画像の変位は、波形W3に示すように、ヘッドマウントディスプレイ1が静止した状態から、滑らかにパン操作が行われ、最後にヘッドマウントディスプレイ1が静止したようになっている。
ここで、波形W3における変位量D1は、ヘッドマウントディスプレイ1の方向がパン操作によって意図的に変わったことを示している。
これに対して、AR位置補正部204bは、上述したステップS518において説明したように、地磁気センサー133の検出値(波形W2)をローパスフィルタ209に通して得られる方位情報に基づいて、付加情報を重畳する位置を補正する。その結果、AR位置補正部204bは、波形W4に示すような付加情報を重畳する位置の変位になるように補正する。ここで、ローパスフィルタ209の特性は、例えば、この補正による変位量D2が上述した波形W3における変位量D1に一致するように設定されている。なお、ローパスフィルタ209の特性は、例えば、波形W3の変位方向及び変位量と、波形W4の変位方向及び変位量とが一致するように定められている。
なお、ズーム制御部202による変更倍率が1倍以下である場合には、振れ補正部201及びAR位置補正部204bの補正処理は実行されない。この場合、撮像画像の変位は波形W1に対応し、付加情報を重畳する位置の変位は波形W2に対応する。このように、振れ補正部201及びAR位置補正部204bの補正処理は実行されない場合に撮像画像の変位と付加情報を重畳する位置の変位とは一致するので、入出力装置200bは、正しい位置に付加情報を重畳する。
以上説明したように、本実施形態では、振れ補正部201が、角速度センサー134が検出した検出値をハイパスフィルタ207によってフィルタ処理した光軸の変位に応じて、カメラ64が撮像する画像の揺れを補正する。AR位置補正部204bは、地磁気センサー133が検出した検出値を、ローパスフィルタ209によってフィルタ処理したカメラ64の方向に基づいて、付加情報を重畳する位置を補正する。ここで、ローパスフィルタ209の特性は、振れ補正部201によって補正された撮像画像の変位と、AR位置補正部204bによって補正された付加情報の位置の変位とが一致するように設定されている。
これにより、本実施形態による入出力装置200bは、図18の波形W3及び波形W4に示すように、例えば、パン操作などを補正から除外して、振れ補正及び付加情報を重畳する位置の補正を適切に行うことができる。なお、本実施形態では、AR位置補正部204bは、ローパスフィルタ209を用いることにより、補正量を算出する必要がなく、構成を簡略化することができる。したがって、本実施形態による入出力装置200bは、簡易な構成により、映像酔いなどの不快な症状を発症することを低減することができる。
このように、本実施形態による入出力装置200b及びヘッドマウントディスプレイ1は、上記の各実施形態と同様に、利便性を向上させることができる。
なお、本発明は、上記の各実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で変更可能である。
例えば、上記の各実施形態において、振れ補正部201は、電気的な防振技術を用いる形態を説明したが、これに限定されるものではなく、光学的な防振技術を用いる形態であってもよい。例えば、振れ補正部201は、カメラ64が有する光学系又は撮像素子を光軸の変位を打ち消すように操作することにより、防振処理を実現するものであってもよい。例えば、光学系(例、可動レンズ)を用いて防振処理を実現する場合には、可動レンズの移動量と付加情報の表示位置との間に所定の相関がある。この場合、AR位置補正部204は、光軸の変位量に基づいて、振れ補正部201による画像の揺れの補正量に対応する補正量をこの相関に基づいて算出し、算出した補正量に基づいて、付加情報を重畳する位置を補正してもよい。
また、上記の各実施形態において、ズーム制御部202は、電子的に読み出し範囲を変更する形態を説明したが、例えば、光学的なズームレンズを用いて光学的な撮像倍率を変更する形態であってもよい。
また、上記の第1、第2の実施形態において、AR位置補正部204は、振れ補正部201によって算出された補正量(dX,dY)を流用する形態を説明したが、独立に付加情報を重畳する位置の補正値を算出してもよい。
また、上記の各実施形態において、付加情報は一例として地形情報と気象情報を重畳させる形態を説明したが、これに限定されるものではない。例えば、付加情報は、特定の場所にある店舗情報および、その店舗情報に関連したネットワーク上の情報などでもよい。また、対象物(被写体)として、撮像画像に含まれる山を用いる一例を説明したが、これに限定されるものではない。対象物は、例えば、建物、人物、動物などでもよい。
また、上記の各実施形態において、入出力装置200(200a,200b)をヘッドマウントディスプレイ1に適用する形態を説明したが、これに限定されるものではなく、例えば、カメラ(撮像装置)や携帯電話などの携帯端末において適用してもよい。
上述のヘッドマウントディスプレイ1及び入出力装置200(200a,200b)は内部に、コンピュータシステムを有している。そして、上述した入出力装置200(200a,200b)の処理過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリー等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしてもよい。