JP6123160B2 - 電子機器、及び表示装置 - Google Patents

電子機器、及び表示装置 Download PDF

Info

Publication number
JP6123160B2
JP6123160B2 JP2012055865A JP2012055865A JP6123160B2 JP 6123160 B2 JP6123160 B2 JP 6123160B2 JP 2012055865 A JP2012055865 A JP 2012055865A JP 2012055865 A JP2012055865 A JP 2012055865A JP 6123160 B2 JP6123160 B2 JP 6123160B2
Authority
JP
Japan
Prior art keywords
display
hand
unit
image
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012055865A
Other languages
English (en)
Other versions
JP2013190926A (ja
Inventor
江島 聡
聡 江島
加藤 茂
茂 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2012055865A priority Critical patent/JP6123160B2/ja
Publication of JP2013190926A publication Critical patent/JP2013190926A/ja
Application granted granted Critical
Publication of JP6123160B2 publication Critical patent/JP6123160B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、電子機器、及び表示装置に関する。
使用者の頭部に装着し、表示部に表示される画像を観察させるヘッドマウントディスプレイ装置などの表示装置が知られている。このような表示装置には、入力装置としての機能を有するものがあり、例えば、発光部を装着した指をカメラなどの撮像部によって撮像することにより、指の位置を検出している(例えば、特許文献1を参照)。
特開2000−29619号公報
ところで、上述の表示装置は、入力装置として使用する場合に、例えば、指に装着した発光部の位置に対応する表示部の表示画像における位置にカーソルなどのマークを表示することにより所定の位置を指し示して、発光部が移動した軌跡と同様の軌跡をカーソルなどのマークが移動する。これにより、上述の表示装置は、マウスなどと同等の入力装置(ポインティングデバイス)を実現している。しかしながら、上述の表示装置は、例えば、発光部の位置に対応する表示部の表示画像における位置にカーソルなどのマークを表示するので、人間工学的に使い難いものであった。そのため、上述の表示装置は、入力装置として使用する場合に、利便性が悪いという問題があった。
本発明は、上記問題を解決すべくなされたもので、その目的は、利便性を向上させることができる電子機器、及び表示装置を提供することにある。
上記問題を解決するために、本発明の一実施形態は、撮像部によって撮像された画像からを検出する検出部と、前記検出部によって検出された前記手が所定の大きさ以上であると、前記手の指の向きと位置と長さに基づく指示位置を、操作を設定するための複数の画像が表示されている表示部に表示させる制御部と、を備える電子機器である。
撮像部によって撮像された画像から手を検出する検出部と、
また、本発明の一実施形態は、前記検出部によって検出された前記手が複数あると、複数の前記手のうちで大きさが最も大きい手の指の向きと位置と長さに基づく指示位置を、操作を設定するための複数の画像が表示されている表示部に表示させる制御部と、を備える電子機器である。
本発明によれば、利便性を向上させることができる。
本実施形態によるヘッドマウントディスプレイの斜視図である。 本実施形態におけるヘッドマウントディスプレイを背面側から見た斜視図である。 本実施形態におけるヘッドマウントディスプレイの装着形態を示す図である。 本実施形態におけるディスプレイ本体の水平断面図である。 本実施形態におけるリモコンを示す斜視図である。 本実施形態におけるステレオイヤホンを示す斜視図である。 本実施形態におけるヘッドマウントディスプレイの機能ブロック図である。 本実施形態における処理部の機能ブロック図である。 本実施形態におけるヘッドマウントディスプレイの右目装着時の撮像範囲を示す模式図である。 本実施形態におけるヘッドマウントディスプレイの左目装着時の撮像範囲を示す模式図である。 本実施形態におけるヘッドマウントディスプレイの撮像範囲及び表示範囲の切り替えを示す図である。 本実施形態におけるヘッドマウントディスプレイの撮像範囲及び表示範囲の切り替え処理を示すフローチャートである。 本実施形態における入力装置の処理を示すフローチャートの第1の図である。 本実施形態における入力装置の処理を示すフローチャートの第2の図である。 本実施形態におけるヘッドマウントディスプレイの動作の一例を示す第1の図である。 本実施形態におけるヘッドマウントディスプレイの動作の一例を示す第2の図である。 本実施形態におけるヘッドマウントディスプレイの動作の一例を示す第3の図である。 本実施形態におけるヘッドマウントディスプレイの動作の一例を示す第4の図である。 本実施形態におけるヘッドマウントディスプレイの動作の一例を示す第5の図である。 本実施形態におけるリモコンによるポイント指示の動作の一例を示す図である。
以下、本発明の一実施形態による入力装置及び表示装置について、図面を参照して説明する。
以下の説明においては、必要に応じてXYZ直交座標系を設定し、このXYZ直交座標系を参照しつつ各部の位置関係について説明する。水平面内の所定方向をX軸方向、水平面内においてX軸方向と直交する方向をY軸方向、X軸方向及びY軸方向のそれぞれと直交する方向(すなわち鉛直方向)をZ軸方向とする。また、X軸、Y軸、及びZ軸まわりの回転(傾斜)方向をそれぞれ、θX、θY、及びθZ方向とする。
図1は、本実施形態のヘッドマウントディスプレイの斜視図である。図2は、ヘッドマウントディスプレイを背面側から見た斜視図である。図3は、本実施形態のヘッドマウントディスプレイの装着形態を示す図である。
ヘッドマウントディスプレイ1(表示装置)は、ディスプレイ本体20と、ユーザー(使用者)の頭部に装着されディスプレイ本体20を支持するヘッドバンド40(装着部)と、を備えた単眼式のヘッドマウントディスプレイである。本実施形態のヘッドマウントディスプレイ1は、図3に示すように、両眼どちらでも使用可能である。図3(A)には、ユーザーが右眼(右目)で表示部60を見ている状態、図3(B)には左眼(左目)で見ている状態が示されている。ここで、ヘッドバンド40は、ディスプレイ本体20をユーザーの頭部に装着する。
また、図2に示すように、ディスプレイ本体20とヘッドバンド40とは、連結ピン41を介して着脱可能に構成されている。
なお、図1及び図2では、ディスプレイ本体20の長手方向をY軸方向、ヘッドバンド40がユーザーの頭部を挟持する方向をX軸方向としている。
以下、ヘッドマウントディスプレイ1の各部の構成について詳細に説明する。
ディスプレイ本体20は、主要回路を内蔵するとともに操作部や各種インターフェースを備えた装置本体部21と、装置本体部21の先端に連結された表示部60とを有する。
装置本体部21は、概略板状の筐体21A(図4)を有する。本実施形態では、装置本体部21においてヘッドバンド40との接続部が設けられている側の端部(+Y側の端部)を基端部とし、この基端部と反対側の端部(−Y側の端部)を先端部とする。また、装置本体部21をヘッドバンド40に装着した状態で、装置本体部21のヘッドバンド40側(+X側)を内側、ヘッドバンド40と反対側(−X側)を外側とする。
装置本体部21の外面には、図1に示すように、メインスイッチ28と、タッチスイッチ34と、集音マイク24とが、筐体21Aの長手方向に沿って配置されている。
メインスイッチ28は、ディスプレイ本体20の電源のオンオフ操作を行うスイッチである。タッチスイッチ34は、表面に手指等で触れることによりヘッドマウントディスプレイ1の各種操作を行うことができるタッチパネルである。集音マイク24は、環境音を収集する外部マイクである。
装置本体部21内面の基端部側に、図2に示すように、耳元スピーカー23と、オーディオコネクター26と、連結孔31を有するヘッドバンドヒンジ32とが設けられている。装置本体部21内面の中央部に心拍数センサー137が設けられている。装置本体部21の内側面の先端部には通話マイク37が設けられている。
耳元スピーカー23は、ユーザーの耳の近傍に配置される。耳元スピーカー23からユーザーに音声情報が伝えられる。オーディオコネクター26は、例えば図6に示すイヤホンが接続される音声入出力端子である。ヘッドバンドヒンジ32は、ヘッドバンド40とのジョイント部である。通話マイク37にはユーザーの音声が入力される。
心拍数センサー137は、ユーザーの顔の表面に接触させることでユーザーの心拍数を測定するセンサーである。心拍数センサー137は、発光ダイオード等を備えた発光部と、ユーザーの皮膚内部で反射した光を検知する受光部とを有する。心拍数センサー137は、血流の変化による反射光量の変化を検出することで心拍数をカウントする。心拍数センサー137はユーザーの目の近くに配置されるが、発光部から赤外域の光を射出させる構成とすればユーザーにまぶしさを感じさせることはない。
装置本体部21の基端部側の側端面には、USBコネクター25と、操作スイッチ30と、ビデオコネクター27とが設けられている。
USBコネクター25はUSB(Universal Serial Bus)デバイスの接続端子である。本実施形態では、例えば、図5に示すリモコン(リモートコントローラー)140が接続される。
操作スイッチ30は、例えばトラックボールやスティックなどのポインティングデバイスである。操作スイッチ30は表示部60に表示される画面に正対するように設けられている。これにより、操作スイッチ30における操作の左右方向と、上記画面の左右方向とが一致するので、ユーザーは画面を見ながら直感的に操作スイッチ30を操作することが可能である。
ビデオコネクター27は映像入出力端子である。
ヘッドバンド40は、図2に示すように、ユーザーの頭部を挟持する一対のヘッドパット(装着部材)46、47と、第1ヘッドバンド43と、第2ヘッドバンド44と、回動機構56、57とを備えている。
第1ヘッドバンド43は、全体として円弧状を成す弾性部材である。第1ヘッドバンド43の頂部に、第1ヘッドバンド43を折り曲げるためのジョイント部43aが設けられている。第1ヘッドバンド43の両端には、回動機構56、57を構成する軸受部43b、43cがそれぞれ設けられている。軸受部43b、43cよりもさらにバンド先端側に、ヘッドパット46、47が接続される軸受部43d、43eが設けられている。
第2ヘッドバンド44は、全体として円弧状を成す弾性部材である。第2ヘッドバンド44の頂部には、第2ヘッドバンド44を折り曲げるためのジョイント部44aが設けられている。第2ヘッドバンド44の両端には、それぞれ回動機構56、57を構成する軸部材44b、44cが設けられている。
また本実施形態において、第2ヘッドバンド44は、ステンレス等の金属からなるバネ部材48の表面を樹脂等の柔軟な材料で被覆した構成を有する。この第2ヘッドバンド44のバネ部材48においてユーザーの頭部を挟持するバネ力を発生させる。また第2ヘッドバンド44は第1ヘッドバンド43と比較して広い幅に形成されている。ジョイント部44aの形成部分は他のバンド部分よりもさらに広く形成された標章表示部49とされている。標章表示部49には、シールや印刷により製品タグ等が付される。なお、第2ヘッドバンド44の全体を金属で形成してもよい。
ヘッドパット46は、板状の支持板46aと、支持板46aの一面側に設けられた断面アーチ状の弾性部材46bとを有する。支持板46aの弾性部材46bと反対側の面に、当該面に垂直な姿勢で概略六角柱状の連結ピン41が立設されている。連結ピン41は、第1ヘッドバンド43の一方の先端に設けられた軸受部43dに軸支されている。これにより、ヘッドパット46は連結ピン41回りに回転可能である。
ヘッドパット47は、板状の支持板47aと、支持板47aの一方の面に設けられた断面アーチ状の弾性部材47bとを有する。支持板47aの弾性部材47bと反対側の面には、軸部材47cが設けられている。軸部材47cは、第1ヘッドバンド43の先端に設けられた軸受部43eに軸支されている。これにより、ヘッドパット47は、軸部材47c回りに回転可能である。
図4は、ディスプレイ本体20の水平断面図である。
図4に示すように、装置本体部21には、筐体21Aの長手方向に沿って延びる板状の回路基板29と、バッテリー33とが内蔵されている。回路基板29には、不図示の制御回路、電源回路等が実装されており、不図示の配線を介してディスプレイ本体20の各部と電気的に接続されている。
装置本体部21の外面に露出するタッチスイッチ34の内側には、液晶パネルからなる表示パネル36と、バックライト35とが配置されている。本実施形態では、表示パネル36の表示画像がタッチスイッチ34を透過して表示される。表示パネル36及びバックライト35を、有機ELパネルや電気泳動パネルとしてもよい。
ヘッドバンドヒンジ32は、筐体21Aに設けられた凹曲面状の収容部32aと、収容部32aに嵌合された球状部32bとからなるボールジョイントである。球状部32bは、球面状の側面部と、この側面部を挟むように互いに平行に形成された2つの平面部を有する。2つの平面部を垂直に貫くように連結孔31が形成されている。連結孔31は軸方向視で六角形状に形成されている。連結孔31にヘッドバンド40の連結ピン41が挿入されることによりディスプレイ本体20とヘッドバンド40とが連結される。
ヘッドバンドヒンジ32を備えていることで、ディスプレイ本体20は、図1に示したA方向(ヘッドバンドヒンジ32を中心とするX軸回り)に回動させることができる。本実施形態において、ディスプレイ本体20の回転可能範囲は270°程度とされる。このX軸回りの回転動作により、図3(A)に示す右目で画像を観察する形態と、図3(B)に示す左目で画像を観察する形態との切替機能が実現される。
また、ヘッドバンドヒンジ32は、ボールジョイントであるため、ディスプレイ本体20は図1に示すB方向(ヘッドバンドヒンジ32を中心とするZ軸回り)に揺動させることもできる。この揺動操作により、ディスプレイ本体20のユーザーの目や耳に対する位置を調整することができる。
ヘッドバンドヒンジ32近傍の心拍数センサー137は、装置本体部21の内面から突出するように設けられ、ヘッドマウントディスプレイ1の装着時にユーザーの顔の表面に当接可能とされている。バッテリー33は、充電式電池、使い捨て電池のいずれであってもよい。
表示部60は、図1及び図2に示すように、装置本体部21の先端部に連結されている。本実施形態において、表示部60のヘッドバンド40側を内側、ヘッドバンド40と反対側を外側とする。表示部60は、上面視(Z軸視)において湾曲した形状を有するアーム部材であり、装置本体部21との連結部から先端側へ向かうに従って内側へ湾曲する形状を有する。表示部60の内面に、ファインダー開口部67が設けられている。表示部60の外面には、カメラ64が設けられている。
図4に示すように、表示部60は、ディスプレイヒンジ61を介して装置本体部21と連結されている。ディスプレイヒンジ61は、表示部60の筐体60Aに形成された凹曲面状の収容部61aと、装置本体部21に形成され収容部61aに嵌合された球状部61bとからなるボールジョイントである。
装置本体部21の球状部61bは、装置本体部21の外面先端部に形成された筐体21Aの長手方向に対して斜めに延びる傾斜面に、この傾斜面の法線方向(図4のY’軸方向)に突出するようにして設けられている。表示部60は、ディスプレイヒンジ61の球状部61bに対してY’軸回りに自由に回転させることができる。
ディスプレイヒンジ61の球状部61bには、球状部61bを高さ方向(Y’軸方向)に貫通する貫通孔61cが形成されている。貫通孔61cを介して、表示部60の内部と装置本体部21の内部とが連通されている。貫通孔61cには不図示のケーブルが挿通される。挿通されたケーブルを介して回路基板29と表示部60の各部とが電気的に接続される。
表示部60の内部には、バックライト62と、表示パネル63と、カメラ64と、プリズム65と、反射ミラー66と、前方ライト68と、前方スピーカー70と、結像レンズ71と、撮像素子72とが設けられている。すなわち、表示部60は、バックライト62、表示パネル63、カメラ64、プリズム65、反射ミラー66、前方ライト68、前方スピーカー70、結像レンズ71、及び撮像素子72を備えている。
プリズム65は、上面視(Z軸視)で略三角形状の第1プリズム65aと第2プリズム65bとを互いの面で貼り合わせた構成を有する。この貼り合わせ面以外の第1プリズム65aの他の二面のうち、一方の面に対向する位置に、液晶パネルからなる表示パネル63が設けられている。表示パネル63の背面に表示パネル63を透過照明するバックライト62が配置されている。第1プリズム65aの他方の面に対向する位置に反射ミラー66が配置されている。反射ミラー66は、ファインダー開口部67のほぼ正面に位置する。
第2プリズム65bの貼り合わせ面以外の他の二面のうち、一方の面はファインダー開口部67に配置されたファインダー接眼面である。第2プリズム65bの他方の面に対向する位置には結像レンズ71を介して撮像素子72が対向配置されている。
表示部60において、表示パネル63に表示された画像は、第1プリズム65a、反射ミラー66、第2プリズム65bを介してファインダー開口部67から射出され、ユーザーに観察される。また、ファインダー開口部67を見ているユーザーの目元は、第2プリズム65b及び結像レンズ71を介して撮像素子72上に結像される。撮像素子72を介して取得された目元の画像は、ユーザーの視線の方向や瞬き、表情の解析に用いられる。すなわち、撮像素子72は、ユーザーの目元を撮像する撮像部として機能する。バックライト62は、撮像素子72による目元撮像の照明装置としても利用される。
カメラ64(撮像部)は、例えば500万画素〜1000万画素の撮像素子を有し、オートフォーカス動作が可能に構成される。
本実施形態の場合、カメラ64の撮像方向は、ユーザーの視線方向と一致するように設定される。すなわち、カメラ64は、ヘッドマウントディスプレイ1を装着したユーザーの視線方向の画像(映像)を撮像する。なお、撮像方向と視線方向との調整は、機械的に行ってもよく、画像処理により行ってもよい。例えば、カメラ64を広角の映像を取得可能に構成し、ユーザーの目元画像から取得した視線方向の情報に基づいて、電気的に捕らえた映像の一部を、視線方向の映像として抜き出して表示パネル63に表示させる。これにより、カメラ64に調整機構を設けることなくユーザー正面の映像(画像)の撮像、表示が可能となる。
前方ライト68は、例えば、LED(Light Emitting Diode)ライトである。前方ライト68は、赤、緑、青の各色の発光素子を有し、任意の色を任意のタイミングで発光させることが可能に構成してもよい。前方ライト68は、発光色や発光タイミングにより外部に対して情報を表示する装置として用いてもよく、カメラ64で撮像する際の照明装置として用いてもよい。
図5は、本実施形態のヘッドマウントディスプレイ1に付属のリモコンを示す斜視図である。
リモコン140は、筐体140Aと、タッチパッド141と、操作スイッチ147と、USBコネクター142と、インジケーター143a、143b、143cと、取付クリップ144と、インジケータースイッチ150と、を備えている。
リモコン140は、USBケーブル148の一方の端子をUSBコネクター142に接続し、他方の端子を装置本体部21のUSBコネクター25に接続することで、装置本体部21と電気的に接続される。USBケーブル148としては市販のUSBケーブルを用いることができる。本実施形態の場合、USBケーブル148の途中に複数のクリップ149が設けられている。複数のクリップ149は、例えばUSBケーブル148を第2ヘッドバンド44に沿わせた状態で固定するために用いることができる。
リモコン140には、ディスプレイ本体20や他の電子機器と無線通信を行うための通信回路が内蔵されている。通信回路の通信方式としては、例えば、Bluetooth(登録商標)、無線LAN、赤外線通信、UWB(Ultra Wide Band)、Transfer Jetなどを用いることができる。かかる通信回路により、USBケーブル148を接続していなくてもディスプレイ本体20との通信が可能である。
リモコン140には、Gセンサーや加速度センサー、方位センサーが内蔵されていてもよい。これらのセンサーで検出した情報についても、上記した通信回路を介してディスプレイ本体20へ通信可能である。
タッチパッド141は、筐体140Aの一方の主面に設けられている。タッチパッド141は、ユーザーがタッチすることによりディスプレイ本体20を操作するための操作部である。タッチパッド141の背面側の筐体140A内部には、装置本体部21のタッチスイッチ34と同様に表示パネルやバックライトが設けられていてもよい。
操作スイッチ147は、リモコン140やディスプレイ本体20を手動操作するためのスイッチである。操作スイッチ147は、必要に応じて設けられていればよい。筐体140Aの側面に設けられたインジケータースイッチ150は、インジケーター143a〜143cを利用した所定動作を行わせるためのスイッチである。
USBコネクター142は、装置本体部21との接続のほか、リモコン140が充電式のバッテリーを内蔵している場合にはリモコン140の充電端子や、PCとの接続にも用いられる。
また、USBコネクター142は、リモコン140がバッテリーを内蔵している場合には、装置本体部21への給電端子として用いることもできる。リモコン140のバッテリーを補助電源として使用可能にすることで、ヘッドマウントディスプレイ1は、装置本体部21のバッテリー容量を小さくでき、装置本体部21を小型軽量化することができる。
インジケーター143a、143b、143cは、タッチパッド141の周囲に配置されている。本実施形態では、タッチパッド141の一辺に沿う位置にインジケーター143aが配置され、インジケーター143aに対してタッチパッド141を挟んだ反対側にインジケーター143bとインジケーター143cとが配置されている。
インジケーター143a〜143cはLED等の発光素子を備えている。本実施形態では、インジケーター143aは緑色の発光素子、インジケーター143bはオレンジ色の発光素子、インジケーター143cは青色の発光素子をそれぞれ備えている。これらの発光素子は制御されたタイミングでパターン発光可能に構成されている。インジケーター143a〜143cの上記パターン発光は、筐体140A側面のインジケータースイッチ150を操作することでオンオフすることができる。
取付クリップ144は、筐体140Aのタッチパッド141と反対側の面に設けられている。本実施形態の場合、取付クリップ144は、一端を筐体140Aに固定された側面視S形のバネ板部材である。取付クリップ144により、リモコン140をユーザーの衣服やベルト等に装着することができる。
また、ヘッドマウントディスプレイ1は、取付クリップ144によりヘッドパット47の近傍を挟むことで、ヘッドバンド40にリモコン140を取り付けてもよい。ヘッドバンド40のヘッドパット46にディスプレイ本体20を取り付ける一方、ヘッドパット47側にリモコン140を取り付けることで、ヘッドマウントディスプレイ1における重量バランスの不均衡を低減することができる。
また、リモコン140をユーザーが手に持って操作スイッチ147を操作することで、インジケーター143a〜143cは、所定のパターンで点滅するように構成されている。例えば、インジケーター143aの色は緑、インジケーター143bはオレンジ、インジケーター143cは青色となっており、この3つのインジケーターの発光パターンを表示部60に設けられたカメラ64で捕らえることにより、リモコン140の上下左右の傾きを認識することが可能となっている。ここ結果、リモコン140とディスプレイ本体20とで後述するBluetooth(登録商標)による通信を行うことなく、すなわち消費電力を最小に押さえつつリモコン140の操作状態を本体側に伝えることが可能である。
図6は、本実施形態のヘッドマウントディスプレイに付属のステレオイヤホンを示す斜視図である。
ステレオイヤホン100は、コネクター101と、ケーブル102と、第1スピーカー103と、第2スピーカー104と、集音マイク105と、複数のクリップ106とを有している。
コネクター101は、ケーブル102の一方の端部に設けられている。コネクター101は、例えば、一般的な4極φ3.5mmのミニプラグである。4極の内訳は、集音マイク105、第1スピーカー103、第2スピーカー104、グランド(GND)である。ケーブル102は、コネクター101の近傍において二分岐され、分岐されたケーブルの先端に第1スピーカー103が設けられている。ケーブル102の他方の端部には、第2スピーカー104と集音マイク105とが設けられている。複数のクリップ106は、ケーブル102上に所定の間隔で配置されている。
ステレオイヤホン100の第1スピーカー103は、ディスプレイ本体20が配置された側のユーザーの耳に装着され、第2スピーカー104は第1スピーカー103と反対側の耳に装着される。このとき、ケーブル102は、クリップ106によって第2ヘッドバンド44に固定することができる。
また、ステレオイヤホン100の集音マイク105と、ディスプレイ本体20において筐体21Aの外側面に設けられた集音マイク24とにより、ステレオ録音が可能である。例えば、図3(A)に示すようにディスプレイ本体20が右眼側に配置されているとすれば、ディスプレイ本体20の集音マイク24はユーザーの右側の音を収集し、左耳に装着された集音マイク105はユーザーの左側の音を収集する。なお、ステレオイヤホン100の第1スピーカー103から右チャンネルの音声が出力され、第2スピーカー104からは左チャンネルの音声が出力される。
一方、図3(B)に示すように左眼側にディスプレイ本体20が配置されている場合には、ディスプレイ本体20の集音マイク24がユーザーの左側の音を収集し、右耳に装着された集音マイク105がユーザーの右側の音を収集する。ステレオイヤホン100の第1スピーカー103から左チャンネルの音声が出力され、第2スピーカー104からは右チャンネルの音声が出力される。
図7は、ヘッドマウントディスプレイ1の機能ブロック図である。
ヘッドマウントディスプレイ1は、処理部123を中心として種々の電気回路を備えている。ヘッドマウントディスプレイ1は、例えば、バックライト62、表示パネル63、カメラ64、撮像素子72、デコーダー121、フラッシュメモリー122、処理部123、LCDドライバ125、BLドライバ126、メモリー127、エンコーダー129、メインスイッチ28、操作スイッチ30、及びタッチスイッチ34を備えている。
なお、本実施形態において、カメラ64、撮像素子72、処理部123、メモリー127、エンコーダー129、メインスイッチ28、操作スイッチ30、及びタッチスイッチ34が入力装置200に対応する。すなわち、入力装置200は、カメラ64、撮像素子72、処理部123、メモリー127、エンコーダー129、メインスイッチ28、操作スイッチ30、及びタッチスイッチ34を備えている。
処理部123は、例えば、CPU(Central Processing Unit)であり、ヘッドマウントディスプレイ1の各種回路と接続されるとともに、ヘッドマウントディスプレイ1を総合的に制御する。処理部123の詳細については、後述する。
本実施形態の場合、エンコーダー129、デコーダー121、電源回路120、操作スイッチ30、フラッシュメモリー122、BT通信回路130、WiFi通信回路131、加速度センサー132、地磁気センサー133、前方ライト68、3G/LTE通信回路138、レーザー発振器73、角速度センサー134、GPSセンサー135、温湿度センサー136、心拍数センサー137、BLドライバ126、メモリー127、メインスイッチ28、及びタッチスイッチ34は、処理部123に接続されている。
エンコーダー129は、音声信号及び映像信号を所定方式の音声データ及び映像データにエンコード(符号化)する。エンコーダー129には、カメラ64、撮像素子72、集音マイク24、通話マイク37、オーディオコネクター26、ビデオコネクター27が接続されている。
エンコーダー129は、集音マイク24、通話マイク37、及び、オーディオコネクター26から供給される音声信号をエンコード(符号化)し、エンコードした音声信号を処理部123に供給する。また、エンコーダー129は、カメラ64、ユーザーの目元を撮像する撮像素子72、及びビデオコネクター27から入力される映像(画像)信号をエンコード(符号化)し、エンコードした映像(画像)信号を処理部123に供給する。
デコーダー121は、音声データ及び映像データを音声信号及び映像信号にデコード(復号化)する。デコーダー121には、LCDドライバ125、スピーカーアンプ162、オーディオコネクター26、及びビデオコネクター27が接続されている。すなわち、デコーダー121は、音声データを音声信号にデコード(復号化)し、デコードした音声信号をスピーカーアンプ162又はオーディオコネクター26に供給する。また、デコーダー121は、映像(画像)データを映像(画像)信号にデコード(復号化)し、デコードした映像信号をLCDドライバ125又はビデオコネクター27に供給する。
LCDドライバ125は、例えば、液晶パネル用の駆動信号を生成する回路であり、表示パネル36及び表示パネル63に接続されている。すなわち、LCDドライバ125は、処理部123からデコーダー121を介して供給された映像(画像)信号に基づいて液晶パネル用の駆動信号を生成し、生成した液晶パネル用の駆動信号を表示パネル36又は表示パネル63に供給する。
表示パネル63(表示部)は、例えば、液晶表示パネルであり、LCDドライバ125から供給される駆動信号に基づいて、映像(画像)を表示する。表示パネル63は、例えば、カメラ64によって撮像された画像、及びメニュー画面などを表示する。
BLドライバ126は、例えば、バックライト用の駆動信号を生成する回路であり、バックライト35及びバックライト62に接続されている。すなわち、BLドライバ126は、処理部123から供給された制御信号に基づいて、バックライト用の駆動信号を生成し、生成したバックライト用の駆動信号をバックライト35及びバックライト62に供給する。
バッテリー33は、電源回路120を介してヘッドマウントディスプレイ1の各部に電力を供給する。
電源回路120は、処理部123から供給される制御信号に基づいて、バッテリー33から供給された電力の制御(例えば、電圧の変換、供給オンオフ)を行う。
スピーカーアンプ162は、例えば、音声信号を増幅してスピーカーに出力する回路であり、耳元スピーカー23及び前方スピーカー70に接続されている。スピーカーアンプ162は、処理部123からデコーダー121を介して供給された音声信号を増幅し、増幅した音声信号を耳元スピーカー23又は前方スピーカー70に供給する。
本実施形態の場合、耳元スピーカー23及び前方スピーカー70は、モノラル音声の使用を想定しており、耳元スピーカー23及び前方スピーカー70は、左右の音声信号が合成された音を出力する。
メモリー127は、処理部123によって実行される制御プログラムを記憶している。
メインスイッチ28は、全体の電源のオンオフを行うスイッチであり、ユーザーが操作することにより、操作に基づく制御信号を処理部123に供給する。
操作スイッチ30は、画面内でのポインティング操作を行うためのスイッチであり、ユーザーが操作することにより、操作に基づく制御信号を処理部123に供給する。
タッチスイッチ34は、タッチ操作により各種操作を行うスイッチであり、ユーザーが操作することにより、操作に基づく制御信号を処理部123に供給する。
なお、ディスプレイ本体20は、メインスイッチ28、操作スイッチ30、及びタッチスイッチ34を備えており、ディスプレイ本体20は、ユーザーの身体における右側及び左側のいずれかの位置に装着可能である。そのため、ディスプレイ本体20は、メインスイッチ28、操作スイッチ30、及びタッチスイッチ34は、ユーザーの身体における右側及び左側のいずれかの位置に装着可能であって、入力装置を操作する。
BT通信回路130は、他の機器とのBluetooth(登録商標)通信を行うための通信回路である。
WiFi通信回路131は、他の機器との無線LAN通信(IEEE 802.11)を行うための通信回路である。
3G/LTE通信回路138は、他の機器との移動通信を行うための通信回路である。
BT通信回路130、WiFi通信回路131、及び3G/LTE通信回路138は、他の機器との間で、音声データや映像(画像)データなどの情報の送信/受信を行う。
加速度センサー132(Gセンサー)は、加速度情報(例えば、加速度及び重力)を検出し、ヘッドマウントディスプレイ1の傾き検出に用いられる。加速度センサー132は、検出した加速度情報を処理部123に供給する。
地磁気センサー133は、地磁気に基づいて方位情報を検出し、ヘッドマウントディスプレイ1の方角検出に用いられる。地磁気センサー133は、検出した方位情報を処理部123に供給する。
角速度センサー134(ジャイロセンサー)は、角速度を検出し、ヘッドマウントディスプレイ1の回転検出に用いられる。角速度センサー134は、検出した角速度を処理部123に供給する。
GPSセンサー135は、GPS(Global Positioning System)を利用した測位検出に用いられ、ヘッドマウントディスプレイ1の緯度経度を測定する。GPSセンサー135は、測定したヘッドマウントディスプレイ1の緯度経度を処理部123に供給する。
温湿度センサー136は、環境の温度、及び湿度を検出する。温湿度センサー136は、検出した環境の温度、及び湿度を処理部123に供給する。
心拍数センサー137は、ユーザーの頬に接触し、ユーザーの心拍数を検出する。すなわち、心拍数センサー137は、ヘッドマウントディスプレイ1がユーザーに装着されているか否かを検出する。心拍数センサー137は、検出したユーザーの心拍数を処理部123に供給する。
レーザー発振器73は、上述したように表示パネル63に表示された画像内の所定の位置に対応するターゲット(対象物)にレーザー光(スポット光)を照射する。
カメラ64(撮像部)は、オートフォーカス動作が可能に構成されており、光学系641と撮像素子642とを備えている。また、カメラ64は、比較的深い被写界深度を有しており、例えば、1m(メートル)〜無限遠方まではいわゆるパンフォーカスとして扱うことも可能である。したがって、カメラ64は、無限遠方の被写体に合焦していたとしても、例えば、1m以内にある手に対して、この段階では厳密に手にピントが合っていないとしても、手の検出は可能となっている。
光学系641は、例えば、複数のレンズを備え、被写体像である画像を撮像素子642の受光面に結像させる。なお、光学系641は、オートフォーカス動作の再に、処理部123から供給される制御信号に基づいてレンズが駆動され、画像を撮像素子642に合焦する。
撮像素子642は、例えば、CCDイメージセンサ(Charge Coupled Device Image Sensor)などの撮像素子であり、光学系641によって結像された画像を撮像する。撮像素子642は、例えば、光学系641によって結像された被写体像を電気信号に変換し、画像データとしてエンコーダー129に出力する。
処理部123は、上述したようにヘッドマウントディスプレイ1を総合的に制御する。処理部123は、例えば、集音マイク24、通話マイク37、又はオーディオコネクター26からエンコーダー129を介して供給された音声データをフラッシュメモリー122に記憶させる。処理部123は、例えば、集音マイク24、通話マイク37、又はオーディオコネクター26からエンコーダー129を介して供給された音声データをBT通信回路130、WiFi通信回路131、又は3G/LTE通信回路138を介して他の機器に送信する。
また、処理部123は、例えば、カメラ64、撮像素子72、又はビデオコネクター27からエンコーダー129を介して供給された映像(画像)データをフラッシュメモリー122に記憶させる。処理部123は、例えば、カメラ64、撮像素子72、又はビデオコネクター27からエンコーダー129を介して供給された映像(画像)データを、LCDドライバ125を介して表示パネル63に表示させる。処理部123は、例えば、カメラ64、撮像素子72、又はビデオコネクター27からエンコーダー129を介して供給された映像(画像)データをBT通信回路130、WiFi通信回路131、又は3G/LTE通信回路138を介して他の機器に送信する。
また、映像データを再生する場合、処理部123は、フラッシュメモリー122に記録された映像(画像)データ、あるいはエンコーダー129から入力される映像(画像)データを、デコーダー121及びLCDドライバ125を介して表示パネル36、63に供給する。これにより、映像信号が入力された表示パネル36又は表示パネル63に映像データに基づく映像が表示される。また、処理部123は、デコーダー121から出力される映像信号を、ビデオコネクター27を介して外部機器に出力させる。
また、映像の表示に際して、処理部123は、必要に応じて表示パネル36用のバックライト35、及び表示パネル63用のバックライト62を点灯させる。すなわち、処理部123は、BLドライバ126に制御信号を供給し、BLドライバ126はバックライト(35,62)を個々に点灯させる。
また、処理部123は、例えば、制御信号により操作を検出し、上記の制御プログラムに規定された動作を実行する。
また、処理部123は、カメラ64によって撮像された映像(画像)に基づいて、レーザー発振器73によるレーザー光の照射を制御する。
また、本実施形態において、処理部123は、パターン認識部201、入力制御部202、AF(オートフォーカス)制御部203、メニュー選択処理部204、表示制御部205、目元検出部206、及び表示切替部207を備えている。
図8は、本実施形態における処理部123の一例を示す機能ブロック図である。
以下、図7及び図8を参照して、本実施形態における処理部123の各部について説明する。
パターン認識部201(認識部)は、カメラ64によって撮像された画像に含まれる予め定められた指示部(例えば、人の手の形状)を認識する。ここで指示部とは、ヘッドマウントディスプレイ1の操作(例えば、表示パネル63の画面上の所定の位置を指示、メニュー選択、及び情報の入力などの操作)を行うために用いる所定の形状である。パターン認識部201は、例えば、予め定められている手の形状のパターンと画像に含まれるパターンとが一致するか否かを判定するパターンマッチングを用いて、人の手を認識する。なお、予め定められている手の形状のパターンは、メモリー127に記憶させておいてもよい。ここで、手の形状とは、カメラ64によって撮像された画像における手の形状のパターン領域を示す。
パターン認識部201は、人の手を認識した場合に、認識した人の手に関する情報を入力制御部202に供給する。なお、人の手に関する情報とは、例えば、撮像された画像上の位置情報、手の形状の大きさ、指の位置や指の長さ、指の向きなどの情報である。
AF制御部203(合焦部)は、カメラ64の光学系641を駆動して撮像素子642に被写体像などの画像を合焦させる。AF制御部203は、入力制御部202から供給される制御指令に基づいて、カメラ64によって撮像される画像における所定の画素位置に合焦するように、光学系641を駆動する制御を行う。
メニュー選択処理部204(操作部)は、後述する入力制御部202が算出した手が指示する指示位置に応じて、入力を操作する。例えば、メニュー選択処理部204は、表示パネル63に表示された複数の操作メニュー(例えば、アイコンなど)を、手による指示位置に応じて選択する。メニュー選択処理部204は、例えば、手による指示位置に応じて、少なくとも1つの操作メニューを選択するような操作処理を行う。すなわち、メニュー選択処理部204は、手による指示位置に応じて、操作メニューを操作する。
表示制御部205は、表示パネル63及び表示パネル36に映像(画像)及び各種表示を表示させる制御を行う。表示制御部205は、例えば、カメラ64によって撮像された映像(画像)内における入力制御部202によって指示された位置に、カーソルなどのマークを表示パネル63に表示させる制御を行う。表示制御部205は、表示パネル63に表示させる映像(画像)データを、表示切替部207を介してデコーダー121に供給する。
目元検出部206は、ユーザーの目元を撮像する撮像素子72が撮像した画像に基づいて、ヘッドマウントディスプレイ1がユーザーに装着されているか否かを検出する。また、目元検出部206は、撮像素子72が撮像した画像に基づいて、例えば、ユーザーの目元のパターンマッチングを行うことにより、表示部60が装着されている左右の位置を検出する。すなわち、目元検出部206は、表示部60(操作スイッチ30)がユーザーに装着されている位置であって、例えば、ユーザーの身体における右側及び左側のいずれかの位置であるかを検出する。目元検出部206は、検出したユーザーの左右のいずれかに表示部60が装着されているかの情報を表示切替部207及び入力制御部202に供給する。
表示切替部207は、目元検出部206によって検出されたユーザーの左右のいずれかに表示部60が装着されているかの情報に応じて、表示制御部205から供給された画像情報を、ユーザーが正しく視認できるように表示を切り替える。表示の切り替え処理の詳細については、後述する。表示切替部207は、目元検出部206によって検出されたユーザーの左右のいずれかに表示部60が装着されているかの情報に応じて切り替えた画像データを、デコーダー121を介してLCDドライバ125に供給することにより、表示パネル63に表示させる。
入力制御部202(制御部)は、パターン認識部201によって認識された手の大きさに応じて、予め定められた所定の処理を実行させるか否かを制御する。ここで、予め定められた所定の処理とは、例えば、AF制御部203に光学系641を合焦させる処理であるオートフォーカス処理やメニュー選択処理部204による操作メニューを選択する処理などである。
入力制御部202は、手の形状の大きさが予め定められた所定の大きさ以上である場合に、上述の所定の処理を実行させる。ここで、「予め定められた所定の大きさ」は、カメラ64によって撮像される画像において、カメラ64から予め定められた所定の距離に対応する手の大きさである。一般に、ヘッドマウントディスプレイ1を頭部に装着した場合には、ユーザーの手が最も遠い場合でも1m以上離れることはない。そこで、手の形状の「予め定められた所定の大きさ」とは、例えば、1m以内における手に対応する大きさである。例えば、「予め定められた所定の大きさ」は、パターン認識部201によって手の形状として認識されるパターンの横方向の画素数が、カメラ64の画素数とレンズの画角と手と頭との距離より算出される値として、例えば、手の幅が200画素以上であればユーザーの「手」とする。
また、入力制御部202は、パターン認識部201によって複数の手の形状が認識された場合に、最も大きい手の形状の大きさに応じて、上述の所定の処理を実行させるか否かを制御する。これは、例えば、1m以内に複数の「手」があった場合に、入力制御部202は、最も近くにある手をユーザーの手として判定するためである。
また、入力制御部202は、例えば、画像を表示する表示パネル63にカメラ64によって撮像された画像が表示されている場合に、AF制御部203に手の形状の背景に対して光学系641を合焦させる制御を行う。すなわち、この場合、ユーザーが背景の部分を手によって差し示している可能性が高いため、入力制御部202は、手の形状の背景に対して光学系641を合焦させる制御を行う。ここで、背景とは、表示パネル63に表示されている画像のうちの手の形状を除く領域を示す。
また、入力制御部202は、例えば、画像を表示する表示パネル63に後述するメニュー画面などが表示されており、カメラ64によって撮像された画像が表示されていない場合に、AF制御部203に手の形状に対して光学系641を合焦させる。すなわち、この場合、ユーザーが手によってメニュー選択処理部204により選択処理を行う可能性が高いため、手の形状を詳細に認識する必要があるので、入力制御部202は、手の形状に対して光学系641を合焦させる制御を行う。ここで、手の形状に対して光学系641を合焦させるとは、カメラ64によって撮像された画像内の手の形状の画素位置(画素領域)に合焦する(ピントを合わせる)ように、光学系641を駆動させることである。
また、入力制御部202は、例えば、パターン認識部201によって認識された手の形状に基づいて、手が物を持っている状態か否かを判定する。入力制御部202は、手が物を持っている状態であると判定した場合に、AF制御部203に、手の形状に対して光学系641を合焦させる。この場合、ユーザーは、手に持っている物を指し示している可能性が高いため、入力制御部202は、AF制御部203に手の形状に対して光学系641を合焦させる。
また、入力制御部202は、例えば、パターン認識部201によって複数の手の形状が認識された場合、且つ、左右の手の形状が認識された場合に、目元検出部206によって検出された操作スイッチ30がユーザーに装着されている左右のいずれかの位置に応じて、左右の手の形状のうちのいずれかの手の形状を選択する。入力制御部202は、選択したこの左右のいずれかの手の形状の大きさに応じて、上述の所定の処理を実行させるか否かを制御する。
例えば、ここでヘッドマウントディスプレイ1が図3(A)に示すように右目用で使用されている場合には、タッチスイッチ34や操作スイッチ30なども右側に配置されているため、ユーザーが右利きである可能性が高い。この場合には、例えば、ユーザーの左手は体を支えるなどの用途に使われており、右手は細かな操作及び指示に使われる可能性が高いので、入力制御部202は、右手を優先して選択する。なお、入力制御部202は、右手と左手との認識に手の形や手の掌紋(手のシワ)などに基づいて検出してもよい。
また、入力制御部202は、パターン認識部201によって認識された手の位置と、手が有する所定の部分(例えば、人差し指)の向き及び長さとに基づいて、ユーザーの手が指示する指示位置を算出する。なお、ここでの「手の位置」とは、カメラ64によって撮像された撮像画像上の位置のことである。例えば、入力制御部202は、手の先端(例えば、人差し指の先端)から人差し指の向きに人差し指の長さに応じて延長した位置を指示位置として算出する。具体的に、入力制御部202は、例えば、入力制御部202は、手の先端から人差し指の向きに人差し指の長さを所定の係数倍(例えば、2倍)して延長した位置を指示位置として算出する。この指示位置の算出処理の詳細については、後述する。
入力制御部202は、画像を表示する表示パネル63の表示画像における、算出した指示位置に対応する位置に指示位置を示すカーソル(マーク)を表示させる。例えば、入力制御部202は、算出した指示位置を表示制御部205に供給することにより、表示パネル63の指示位置に対応する位置にカーソル(マーク)を表示させる。
また、入力制御部202は、算出した指示位置に応じて、メニュー選択処理部204に入力を操作させる制御を行う。例えば、入力制御部202は、メニュー選択処理部204は、指示位置に応じて、複数の操作メニューのうちの1つを選択させるように制御を行う。
次に、本実施形態におけるヘッドマウントディスプレイ1の動作について説明する。
まず、本実施形態におけるヘッドマウントディスプレイ1の動作を説明する上で前提となるカメラ64の撮像範囲について、図9及び図10を参照して説明する。
図9は、本実施形態におけるヘッドマウントディスプレイ1の右目装着時の撮像範囲を示す模式図である。
この図において、表示部60は、右目の正面を向いた場合の視線方向に対して角度αの方向の下方に配置されている。この場合、カメラ64は、撮像範囲Qの範囲を撮像する。なお、撮像範囲Pには、右目装着時の上半分の範囲Qと、左目装着時の下半分の範囲Rとが含まれている。
また、図10は、本実施形態におけるヘッドマウントディスプレイ1の左目装着時の撮像範囲を示す模式図である。
この図において、表示部60は、左目の正面を向いた場合の視線方向に対して角度αの方向の下方に配置されている。この場合、カメラ64は、撮像範囲Rの範囲を撮像する。
次に、図11及び図12を参照して、ヘッドマウントディスプレイ1における撮像範囲及び表示範囲の切り替え処理について説明する。
図11は、本実施形態におけるヘッドマウントディスプレイ1の撮像範囲及び表示範囲の切り替えを示す図である。
図11において、撮像範囲Pは、カメラ64の全撮像範囲を示している。ここでは、4対3のアスペクト比を有するカメラ64(撮像素子642)を用いて、撮像範囲が縦長になるようにカメラが配置されている。
また、図12は、本実施形態におけるヘッドマウントディスプレイ1の撮像範囲及び表示範囲の切り替え処理を示すフローチャートである。
図12において、まず、ヘッドマウントディスプレイ1の処理部123は、ユーザーがまず右目で表示パネル63を見ていることを想定して、映像(画像)の読み出し範囲(表示範囲)として範囲Qを選択する(ステップS1)。すなわち、処理部123は、図9に示すように、撮像範囲Pにおけるユーザーから見た上の方(上半分)の範囲Qを読み出して、表示制御部205及び表示切替部207により表示パネル63に表示させる。
次に、処理部123は、ユーザーが右目で観察しているか否かを判定する(ステップS2)。ここで、処理部123は、ユーザーが観察している目に関する情報(ユーザーの左右のいずれかに表示部60が装着されているかの情報)を検出する。すなわち、処理部123の目元検出部206は、撮像素子72によってユーザーの瞼を含めた目元を撮影した画像に基づいて、ユーザーが観察している目に関する情報を検出する。
処理部123は、ユーザーが右目で観察していると判定した場合(ステップS2:Yes)に、処理をステップS6に進める。また、処理部123は、ユーザーが右目で観察していない(左目で観察している)と判定した場合(ステップS2:No)に、処理をステップS3に進める。この場合、ユーザーは、図10に示すようにヘッドマウントディスプレイ1を装着していることになる。
次に、ステップS3において、処理部123は、映像(画像)の読み出し範囲(表示範囲)として範囲Rを選択する。範囲Rは、図11における下側の点線で示された枠であるが、図10に示すように左目でヘッドマウントディスプレイ1を使用する場合には、撮像範囲Pにおけるユーザーから見た上の方が読み出されることになる。すなわち、処理部123は、図10に示すように、撮像範囲Pにおけるユーザーから見た上の方(上半分)の範囲Rを読み出して、表示制御部205及び表示切替部207により表示パネル63に表示させる。
次に、処理部123は、撮像範囲Pにおける読み出し範囲の上下を反転させる(ステップS4)。すなわち、処理部123は、カメラ64が180度回転していることから、読み出し範囲におけるカメラの映像(画像)を180度回転させる。
次に、処理部123は、表示画像を180度回転させる(ステップS5)。すなわち、処理部123の表示切替部207は、目元検出部206によって検出されたユーザーが観察している目に関する情報に応じて、表示制御部205から供給された画像を180度回転させるか否かを切り替える。表示切替部207は、切り替えた画像データを、デコーダー121を介してLCDドライバ125に供給することにより、表示パネル63に表示させる。
次に、処理部123は、被写体までの測距値とズーム値とに応じて、画像の読み出し範囲を変更する(ステップS6)。すなわち、処理部123は、被写体とカメラのズーム倍率に応じて、撮像範囲Pのうちの画像の読み出し範囲(表示範囲)を変更する。例えば、表示部60が右目で観察されている場合(ヘッドマウントディスプレイ1を右目で使用している場合)には、処理部123は、図11に示す読み出し範囲Qを表示パネル63に表示させている。この場合においてユーザーが被写体の一部を拡大するズーミング指示を操作スイッチ30などによって行った場合に、処理部123は、まず、被写体までの距離を、カメラ64を用いた公知の測距技術により測距する。処理部123は、被写体までの距離が十分に遠い場合には、遠方を見る人間の目も顔の正面を見ているので、読み出し範囲として画面の中央の範囲S(図11)を読み出し、表示パネル63に表示させる。また、処理部123は、被写体までの距離が極近い場合には、人の目は中央に寄ることから、範囲T(図11)を読み出し、表示パネル63に表示させる。なお、処理部123は、この読み出し範囲Tから範囲Sまでを被写体までの距離に応じてほぼ連続的に変化させる。
また、処理部123は、広い範囲を映したい場合、すなわちズーミングがワイド側にあり、範囲Qを読み出している場合には、特に読み出し範囲の移動は行わない。
また、例えば、表示部60が左目で観察されている場合(ヘッドマウントディスプレイ1を左目で使用している場合)には、処理部123は、図11に示す読み出し範囲Rを表示パネル63に表示させている。この場合においても上記と同様に、処理部123は、被写体がズーミングされて被写体までの距離が十分に遠い場合には範囲U(図11)を読み出し、また、被写体までの距離が極近い場合には範囲V(図11)を読み出し、表示パネル63に表示させる。
このように、本実施形態におけるヘッドマウントディスプレイ1は、ユーザーが見ている範囲と、カメラ64によって撮像される範囲との差異を低減し、使用時に違和感のない使い易い(利便性のよい)システムを提供することができる。
次に、処理部123は、スピーカー(第1スピーカー103、第2スピーカー104)の左右の音を設定する(ステップS7)。すなわち、処理部123は、上述したユーザーが観察している目に関する情報(ユーザーの左右のいずれかに表示部60が装着されているかの情報)に応じて、スピーカー(第1スピーカー103、第2スピーカー104)の左右の音を設定する。
次に、処理部123は、ステレオマイク(集音マイク105、集音マイク24)の左右の音を設定する(ステップS8)。すなわち、処理部123は、上述したユーザーが観察している目に関する情報(ユーザーの左右のいずれかに表示部60が装着されているかの情報)に応じて、ステレオマイク(集音マイク105、集音マイク24)の左右の音を設定する。
図9〜図12を参照して説明したように、本実施形態におけるヘッドマウントディスプレイ1は、ディスプレイ本体20や表示部60をユーザーの目の正面に配置する必要がなく、正面よりも下に配置することができるので通話マイク37を口の比較的近傍に配置することが可能である。このため、本実施形態におけるヘッドマウントディスプレイ1は、音声を明瞭に記録することができる。
また、本実施形態におけるヘッドマウントディスプレイ1は、右目で表示部60を観察する場合及び左目で表示部60を観察する場合のいずれの場合においても、適切な範囲を読み出して表示パネル63に表示させることができる。そのため、本実施形態におけるヘッドマウントディスプレイ1は、利便性の高いシステムを提供することができる。さらに、本実施形態におけるヘッドマウントディスプレイ1は、被写体までの距離が近い場合にも、ユーザーが観察する方向とカメラ64の撮影範囲の中心が一致するので、パララックスの無い使い易いシステムを提供することができる。
次に、ヘッドマウントディスプレイ1が備えている入力装置200の動作について説明する。
図13A及び図13Bは、本実施形態における入力装置200の処理を示すフローチャートである。
この図において、まずはカメラ64が図14(B)に示すように、横長の範囲の画像G2を撮影しており、その全ての撮影範囲が読み取られて、表示部60の表示パネル63に表示される場合について説明する。
まず、入力装置200は、カメラ64からの画像が表示されているか否かを判定する(ステップS101)。すなわち、処理部123の入力制御部202は、カメラ64によって撮像された画像が、表示部60の表示パネル63に表示されているか否かを判定する。入力制御部202は、カメラ64によって撮像された画像が表示部60の表示パネル63に表示されている場合(ステップS101:Yes)に、処理をステップS102に進める。また、入力制御部202は、カメラ64によって撮像された画像が表示部60の表示パネル63に表示されていない場合(ステップS101:No)に、処理をステップS116に進める。なお、カメラ64によって撮像された画像が表示部60の表示パネル63に表示されていない場合には、表示パネル63は、例えば、図14(A)に示すようなメニューアイコンI1〜I9などを含む画像G1が表示されている。ここで、この画像G1は、カメラ64によって撮像された画像に依存しない画像である。
ステップS116において、入力装置200は、カメラ64によって撮像された画像に予め定められた所定以上の大きさの手があるか否かを判定する。すなわち、入力装置200は、カメラ64においてユーザーの「手」が認識できるか否かを手の大きさによって判定する。この場合、まず、例えば、処理部123のパターン認識部201は、カメラ64によって撮像された画像に含まれる人の手を認識し、認識した手に関する情報を入力制御部202に供給する。なお、ここでは、人の手に合焦されていなくてもよく、大雑把に手をパターン認識部201が認識できればよい。入力制御部202は、パターン認識部201から供給された手に関する情報に基づいてユーザーの「手」が認識できるか否かを判定する。例えば、入力制御部202は、パターン認識部201によって手として認識されるパターンの横方向の画素数が、カメラ64の画素数とレンズの画角と手と頭との距離より算出される値として、例えば、手の幅が200画素以上(例えば、1m以内の手)であればユーザーの「手」と判定する。
入力制御部202は、手の形状の大きさが予め定められた所定の大きさ以上である場合(ステップS116:Yes)に、処理をステップS117に進める。また、入力制御部202は、手の形状の大きさが予め定められた所定の大きさ未満である場合(ステップS116:No)に、処理を終了させる。
次に、ステップS117において、入力装置200は、至近の「手」にピントを合わせる。すなわち、入力制御部202は、AF制御部203に至近の手の形状に対して光学系641を合焦させる。これは、入力制御部202は、1m以内に複数の「手」があった場合に、最も近くにある手をユーザーの「手」として判定するためである。
さらに、入力制御部202は、ユーザーの右手と左手の両方が存在される場合には、いずれかの手を優先させる。ここで、ヘッドマウントディスプレイ1が図3(A)のように右目用で使用されている場合には、タッチスイッチ34、操作スイッチ30なども右側に配置されており、ユーザーが右利きである可能性が高い。この場合には、ユーザーの左手は体を支えるなどの用途に使われており、右手は細かな操作及び指示に使われる可能性が高いので、入力制御部202は、右手を優先してピントを合わせる(AF制御部203に光学系641を合焦させる)。
次に、入力装置200は、公知のパターン認識の処理によって手の形を認識する(ステップS118)。すなわち、パターン認識部201は、公知のパターン認識の処理によって手の形を認識し、認識した手の形状に関する情報を入力制御部202に供給する。
次に、入力装置200は、操作スイッチ30等の操作部が操作されているか否かを検出する(ステップS119)。すなわち、入力制御部202は、操作スイッチ30等の操作部が操作されているか否かを検出する。入力制御部202は、操作スイッチ30等が操作されている場合(ステップS119:Yes)に、ユーザーの手が操作スイッチ30等に置かれているはずであるから、他人の手が写っている可能性もあるので、操作スイッチ30等の操作を優先し、処理をステップS120に進める。また、入力制御部202は、操作スイッチ30等が操作されていない場合(ステップS119:No)に、処理をステップS121に進める。
ステップS120において、入力装置200は、操作スイッチ30等が操作された場合の所定の表示を表示パネル63に行い、操作スイッチ30等が操作された場合の操作に従った処理を行う。
一方、操作スイッチ30等の操作が無い場合にはステップS121において、入力装置200は、人差し指の位置に対応して画面にカーソル(図14(A)のカーソルM1)を重畳表示する。すなわち、入力制御部202は、例えば、図14に示すように、表示制御部205に対して、人差し指の長さを2倍した人差し指の延長方向に対応する位置P1に対応する箇所に図14(A)に示すところのカーソルM1を表示させる。ここでは、カーソルM1によって封筒のアイコンI8封筒のアイコンI8が選択されていることが分かる。
ここで、カメラ64には、図14(B)に示すようにユーザーの手H1が撮影されており、入力制御部202は、パターン認識によって破線で示すように、ユーザーの人差し指の延長線上であって、画面上で測定できる人差し指の長さL1を約2倍延長した位置P1(指先から距離L2の位置)を計算する。入力制御部202は、表示制御部205に対して、位置P1に対応する表示パネル63の表示画像上の位置に、図14(A)で示すように、カーソルM1を表示させる。すなわち、入力制御部202は、パターン認識部201によって認識された手の位置と、手の所定の部分(例えば、人差し指)の向き及び長さとに基づいて、ユーザーの手が指示する指示位置(位置P1)を算出する。入力制御部202は、算出した指示位置に対応する表示パネル63の表示画像における位置に指示位置(位置P1)を示すカーソルM1(マーク)を表示させる。
なお、入力制御部202は、下記の式(1)及び式(2)に基づいて、位置P1を算出する。
X3=X1+2×(X1−X2) ・・・(1)
Y3=Y1+2×(Y1−Y2) ・・・(2)
ここで、変数X1及び変数Y1は図14(B)における人差し指の先端の座標(X1,Y1)に対応し、変数X2及び変数Y2は人差し指の根もとの座標(X2、Y2)に対応する。また、変数X3及び変数Y3は位置P1の座標であり、すなわちカーソルM1の座標(X3,Y3)に対応する。
例えば、カメラ64の光軸に略平行に人差し指を向けた場合には、カメラ64には人差し指が短く写るので、カーソルM1は、人差し指先端の近傍となる。また、例えば、カメラ64の光軸と直交するように人差し指を置いた場合には、最も離れた箇所にカーソルM1が表示される。このように、人差し指の位置、傾き、及び方向をユーザーが変えることで、自由に画面内の位置を指示(ポインティング)することが可能である。
なお、ここでは、図14(A)に示すようなメニュー画面G1を表示パネル63に表示しているので、入力装置200は、図14(B)に示すカメラ64の画像G2を表示パネル63に表示させることはない。
次に、入力装置200は、カーソルM1がアイコン(例えば、アイコンI8)の上で所定の時間だけ静止したか否かを判定する(ステップS122)。すなわち、メニュー選択処理部204は、入力制御部202から取得したカーソルM1の位置情報に基づいて、カーソルM1がアイコンの上で所定の時間だけ静止したか否かを判定する。メニュー選択処理部204は、カーソルM1がアイコンの上で所定の時間だけ静止したと判定された場合(ステップS122:Yes)に、処理をステップS123に進める。また、メニュー選択処理部204は、カーソルM1がアイコンの上で所定の時間静止していないと判定された場合(ステップS122:No)に、処理を終了させる。
ステップS123において、入力装置200は、アイコンが選択された場合に対応する所定の処理を行う。すなわち、メニュー選択処理部204は、例えば、封筒のアイコンI8を選択し、処理部123は、選択された封筒のアイコンI8に対応する処理を実行する。
なお、メニュー選択処理部204は、親指と人差し指を特定のパターンに形成したり、その形を変化させたりすることを検出することにより、メニュー選択などの操作を行うことも可能である。例えば、メニュー選択処理部204は、メニュー画面などで「YES/NO」などの2択の選択を迫られた場合にも、ユーザーがあえて一方の選択肢を選ばすに、親指と人差し指とで作ったOKサインを検出することにより設定(選択)を行ってもよい。
このように、手にピントがあっている場合には、細かい手の動きをカメラ64で読み取ることが可能であるため、入力装置200は、指のパターンの詳細な読み取りが可能となっており、図14(A)に示すような細かなアイコンの選択が可能となっている。そのため、入力制御部202は、手の形状に対して光学系641を合焦させる場合に、メニュー選択処理部204によって選択可能な操作メニューの数を、後述する手の形状の背景に対して光学系641を合焦させる場合よりも多く表示パネル63に表示させる。
次に、カメラ64からの画像が表示されている場合について説明する。
ステップS102において、入力装置200は、ステップS116と同様に、カメラ64によって撮像された画像に予め定められた所定以上の大きさの手があるか否かを判定する。すなわち、入力制御部202は、パターン認識部201から供給された手に関する情報に基づいて手の形状の大きさが予め定められた所定の大きさ以上であるか否かを判定する。入力制御部202は、手の形状の大きさが予め定められた所定の大きさ以上である場合(ステップS102:Yes)に、処理をステップS104に進める。また、入力制御部202は、手の形状の大きさが予め定められた所定の大きさ未満である場合(ステップS102:No)に、処理をステップS103に進める。
次に、ステップS103において、入力装置200は、至近の被写体に焦点と露出とを合わせる。すなわち、入力制御部202は、AF制御部203に至近の被写体に対して光学系641を合焦させる制御を行い、処理部123は、カメラ64に対して至近の被写体に露出を合わせる制御を行う。なお、極至近(例えば、5cmなど指が入らない距離)の被写体などで光学系641の制約によってピントを合わせることが不可能な被写体などは、レンズ上のゴミの可能性もあるので、入力制御部202は、AF制御部203に次に合焦可能な至近の被写体に合焦させる。また、入力制御部202は、いわゆる顔認識技術によって人物を検出した場合には、人物にピントを合わる制御を行ってもよい。また、AF制御部203は、ピント合わせ(合焦)については公知の手段を用いる。入力制御部202は、至近の被写体に合焦させる制御を行った後、処理をステップS114に進める。
一方、ステップS102で手の大きさが所定以上であると判断された場合、ステップS104において、入力装置200は、手に物を持っているか否かを判定する。すなわち、入力制御部202は、例えば、パターン認識部201によって認識された手の形状に基づいて、手が物を持っているか否かを判定する。入力制御部202は、手が物を持っていると判定した場合(ステップS104:Yes)に、処理をステップS105に進め、手が物を持っていないと判定した場合(ステップS104:No)に、処理をステップS106に進める。
次に、ステップS105において、入力装置200は、手の近傍の被写体に焦点を合わせる。この場合、ユーザーが手に物を持っていて、それがカメラ64に写っている場合には、手に持っている物が他の通信端末(他の機器)にも伝えたい物であると推定できる。そのため、入力制御部202は、手が物を持っている状態であると判定した場合に、AF制御部203に、手の形状又は手の近傍の被写体に対して光学系641を合焦させる。入力制御部202は、手の形状又は手の近傍の被写体に合焦させる制御を行った後、処理をステップS109に進める。
一方、ステップS106において、入力装置200は、ユーザーの手を避けて背景に焦点を合わせる。この場合、ユーザーが背景の部分を手によって差し示している可能性が高いため、入力制御部202は、手の形状の背景に対して光学系641を合焦させる制御を行う。これは、例えば、図15に示すように、幾つかある商品の中から一つを指し示すような場合において、手にピントが合った画像を他者に伝えるよりも、背景にピントの合った画像を伝えることが重要だからである。このことで、入力装置200は、情報(画像など)を伝達する相手にとってわかり易いコミュニケーションを取ることが可能になる。
なお、他の通信端末に画像を送信する際に、例えば、VGA(Video Graphics Array:640×480画素)などの低解像度で送信を行っている場合、且つ、カメラ64の被写界深度と解像度との関係により手に合焦していても背景がボケないと判定される場合には、入力装置200は、ステップS106の処理をスキップしてもよい。また、入力装置200は、他の通信端末に画像を送信する際の解像度が高い(例えば、800×600画素やハイビジョン(1080i)など)場合のみに、ステップS106の処理を実行してもよい。
次に、入力装置200は、複数の手が存在した場合を想定して、最も大きな手のパターン(手の形状)を認識する(ステップS107)。すなわち、入力制御部202は、パターン認識部201から供給された手に関する情報に基づいて、最も大きな手の形状を認識する。ここで、最も大きな手を認識するのは、複数の手が画面内に存在した場合に、最も大きな手が最も至近にあり、それがユーザーの手である可能性が高いためである。
なお、ステップS116では至近の手を認識していたが、ステップS107においては手に対してのピント合わせを行っていないため、複数の手があってもどれが至近の手であるか判定できない。そのため、入力制御部202は、最も大きな手をユーザーの手として判定(認識)する。また、右手と左手とが検出された場合の処理は、ステップS117と同様である。
次に、入力装置200は、最も大きな手の輪郭を強調する(ステップS108)。すなわち、入力制御部202は、認識した手のパターンの輪郭を強調して、表示制御部205に表示させる。これはピントが合っていない手を少しでもハッキリ表示するための処理である。また、入力制御部202は、手が背景に紛れて見難い場合には、手の輪郭を赤色などで強調してもよい。
次に、入力装置200は、ステップS119と同様に、操作スイッチ30等の操作部が操作されているか否かを検出する(ステップS109)。入力制御部202は、操作スイッチ30等が操作されている場合(ステップS109:Yes)に、操作スイッチ30等の操作を優先し、処理をステップS110に進める。また、入力制御部202は、操作スイッチ30等が操作されていない場合(ステップS109:No)に、処理をステップS111に進める。
ステップS110において、ステップS120と同様に、入力装置200は、操作スイッチ30等が操作された場合の所定の表示を表示パネル63に行う等、操作スイッチ30等が操作された場合の操作に従った処理を行う。
一方、ステップS111において、入力装置200は、人差し指を検出し、検出した人差し指の先にカーソル(図15のカーソルM2)を表示パネル63に表示させる。ここで、入力制御部202は、パターン認識部201から供給された手に関する情報に基づいて、予め定められた所定の指(例えば、人差し指)を検出する。入力制御部202は、例えば、図15に示すように、検出した人差し指の先端から当該指の長さを所定の係数倍(例えば、2倍)して延長した位置にカーソルM2を、表示制御部205に対して表示させる。
なお、図15において、画像G3は、カメラ64(撮像素子642)によって撮像されている画像を示し、手の形状H2は、カメラ64によって撮像されている手を示している。
次に、入力装置200は、カーソルが示す背景に焦点と露出とを合わせる(ステップS112)。例えば、入力制御部202は、図15のカーソルM2が示すところの背景の近傍に対して、AF制御部203に光学系641を合焦させる制御を行い、処理部123は、カメラ64に対してカーソルM2が示す背景の近傍に露出を合わせる制御を行う。すなわち、入力制御部202は、検出した人差し指の先端から当該指の長さを所定の係数倍(例えば、2倍)して延長した位置の背景に対して光学系641を合焦させる。このことで、手前の指ではなく背景を鮮明に撮像することが可能になるので、ヘッドマウントディスプレイ1は、通信を行っている他の通信端末に対しても明瞭な画像(明確な画像)を表示させることができる。そのため、入力装置200は、コミュニケーションのミスが発生する可能性を低減することが可能である。
次に、入力装置200は、操作に応じてカーソル/軌跡を表示パネル63に表示させる(ステップS113)。すなわち、入力制御部202は、表示制御部205に対して、所定の指(例えば、人差し指)の動きに応じてカーソルを引き続き表示させるか、あるいはカーソルの軌跡を表示させる。
なお、この場合には、指に厳密にピントが合っていないので、細かな指の動作に基づいてヘッドマウントディスプレイ1を制御することは難しい。よって、入力装置200は、指に合焦していない場合に、指の画像認識で制御可能なメニューに限定した入力制御を行う。ここでは、指の画像認識で制御可能なメニューは、例えば、カーソルの表示の他、線画を描くなどの限定された項目である。
次に、ヘッドマウントディスプレイ1(入力装置200を含む)は、通信を行っている他の通信端末に対して逐次画像を送信する(ステップS114)とともに、表示パネル63にも上述の入力制御の結果を表示する(ステップS115)。入力装置200は、ステップS115の処理後に処理を終了する。なお、本実施形態において、入力装置200は、この入力制御の処理(ステップS101からステップS123の処理)を繰り返し実行する。
次に、ヘッドマウントディスプレイ1がカメラ64の画像を上下に分けて使用する場合の一例について説明する。
図12のフローチャートにおいて、カメラ64の読み出し領域として上半分を使用する一例を説明したが、図16では、図3(A)に示すように、右目で表示を観察している状態を示している。図16において、ヘッドマウントディスプレイ1と通信相手の他の通信端末とは、カメラ64の撮像範囲Pのうちの範囲Qの画像を表示パネル63に表示する。また、ヘッドマウントディスプレイ1(入力装置200)は、範囲Rをユーザーの手の認識用の領域として使用する。この場合、表示パネル63の表示画面には、図15に示すようなユーザーの手H3が写り込まずに、カーソルM3のみが表示される。
また、上述のように、ヘッドマウントディスプレイ1(入力装置200)は、指の長さの延長上を計算してカーソルを置いてもよいが、範囲Rにおける人差し指の先部の位置P2を検出し、人差し指の長さを2倍程度まで拡大し、範囲Qで撮像された画像に重畳してカーソルM3を表示してもよい。この場合においても、入力装置200は、ユーザーの手にはピントを合わせず、カーソルM3が示す背景に焦点を合焦させる。
このように、図16に示すように、表示パネル63は、カメラ64が撮像した撮像範囲Pのうちの一部である表示領域(例えば、範囲Q)の画像を表示する。入力制御部202は、表示領域(例えば、範囲Q)の画像に手が含まれていない場合に、手の位置と人差し指の向き及び長さとに基づいて、指示位置を算出する。そして、入力制御部202は、算出した指示位置に対応する表示パネル63における位置にマーク(例えば、図16のカーソルM3)を表示させる制御を表示制御部205に対して行う。
なお、図16は、撮影画像に対してカーソルを表示する一例を示しているが、図14(A)に示すようなアイコンの選択において、範囲Rの領域を手のパターン認識用に用いてもよい。この場合には、入力装置200は、上述したようにユーザーの手に焦点を合焦させる。
また、図3(B)に示すように、左目で表示を観察している場合は、ヘッドマウントディスプレイ1(入力装置200)は、背景画像の読み取り領域が範囲Rに、また、手のパターン認識用の領域が範囲Qに変更する。また、この場合、カメラ64が180度回転して使用されることになるため、処理部123は、図12に示すように表示パネル63への表示を180度回転するとともに、指の移動方向の認識も180度回転させる。
このように、ヘッドマウントディスプレイ1(入力装置200)は、カメラ64によって撮像された画像において、表示に使用しない領域を手のパターン認識に用いる。これにより、ヘッドマウントディスプレイ1(入力装置200)は、図15に示すように画面中にユーザーの手が映り込むことが無くなり、背景の映像が見やすくなると言う利点がある。さらに、ヘッドマウントディスプレイ1(入力装置200)は、指示するための指を目の正面まで高く上げる必要がなく、図10に示すように、範囲Qに示される画角の範囲に手があればよいので、手が疲れることなく使いやすいシステムを提供することができる。
また、ヘッドマウントディスプレイ1(入力装置200)は、ユーザーが図17に示すように表示領域である範囲Q内に手H4をもって行った場合に、画像中にユーザーの手を表示することも可能である。この場合には、ユーザーが人差し指で画面上の一点を指示するだけではなく、両手や複数の指を使って様々な情報を相手に伝えたい場合が想定される。そこで、この場合には、手の形の情報が重要であるから、ヘッドマウントディスプレイ1(入力装置200)は、指先のポイントを表示するカーソルを消す(表示させない)制御を行ってもよい。すなわち、入力制御部202は、表示領域(例えば、範囲Q)の画像に手H4が含まれる場合に、カーソルを表示パネル63に表示させない制御を行う。このことにより、ヘッドマウントディスプレイ1は、情報を受信する他の通信端末にとって分かりやすい情報を送ることが可能になる。
さらに、例えば、夕方などの手と背景のコントラストが低くなる場合には、ヘッドマウントディスプレイ1は、図18に示すように手H5の指先にカーソルM4を表示することで指先の位置を見やすく表示してもよい。すなわち、入力制御部202は、表示領域(例えば、範囲Q)の画像に手H5が含まれる場合に、手H5の先端の位置を指示位置として算出する。そして、入力制御部202は、算出した指示位置に対応する表示パネル63の表示画像における位置にカーソル(例えば、図17のカーソルM4)を表示させる制御を表示制御部205に対して行う。
以上説明したように、本実施形態における入力装置200は、カメラ64が画像を撮像し、パターン認識部201がカメラ64によって撮像された画像に含まれる予め定められた指示部(例えば、手)を認識する。入力制御部202は、パターン認識部201によって認識された指示部の位置と、指示部が有する所定の部分(例えば、人差し指)の向き及び長さとに基づいて、指示部が指示する指示位置を算出する。入力制御部202は、算出した指示位置に対応する表示パネル63の表示画像における位置に指示位置を示すマーク(例えば、カーソル)を表示させる。
これにより、本実施形態における入力装置200は、指示部(例えば、手)の位置と所定の部分(例えば、人差し指)の向き及び長さとに基づいて算出した指示位置にマークを表示させるので、利便性を向上させることができる。
例えば、指で文字などを書く場合に、人は指の位置と傾きとの変化を上手く使って文字などを書く行為を行っている。このような場合に、本実施形態における入力装置200は、手の位置と、例えば、人差し指の向き及び長さとに基づいて指の位置と傾きとの変化を考慮した指示位置にマークを表示させる。そのため、本実施形態における入力装置200は、適切に指示位置を指し示すことができるとともに、人間工学的に使い易い指示位置の移動が可能となる。よって、本実施形態における入力装置200は、利便性を向上させることができる。
また、本実施形態における入力装置200は、カメラ64に指示部を撮像させることで適切に指示位置を指し示すことができるため、指示部(例えば、手)に動作や姿勢を検出するためのセンサーを装着する必要がない。そのため、本実施形態における入力装置200は、構成を簡略化しつつ、利便性を向上させることができる。
また、本実施形態では、入力制御部202は、指示部の先端から所定の部分の向きに所定の部分の長さに応じて延長した位置を指示位置として算出する。例えば、入力制御部202は、指示部の先端から所定の部分の向きに所定の部分の長さを所定の係数倍(例えば、2倍)して延長した位置を指示位置として算出する。
これにより、本実施形態における入力装置200は、指示部の位置、傾き、及び方向をユーザーが変えることで、自由に画面内の位置を指示することが可能になる。よって、本実施形態における入力装置200は、利便性を向上させることができる。
また、本実施形態における入力装置200は、指示位置に応じて、入力を操作する操作部(例えば、メニュー選択処理部204)を備える。メニュー選択処理部204は、指示位置に応じて、操作メニューを操作する。入力制御部202は、算出した指示位置に応じて、メニュー選択処理部204に入力を操作させる制御を行う。
これにより、本実施形態における入力装置200は、指示部(例えば、手)により、入力の操作を適切に行うことができる。本実施形態における入力装置200は、例えば、図14(A)に示すような、複数の操作メニュー(複数のメニューアイコンI1〜I9)のうちの1つを選択する操作を適切に行うことができる。
また、本実施形態では、表示パネル63は、カメラ64が撮像した撮像範囲(例えば範囲P)のうちの一部である表示領域(例えば、範囲Q)の画像を表示する。入力制御部202は、表示領域の画像に指示部(例えば、手)が含まれる場合に、指示部の先端の位置を指示位置として算出する。また、入力制御部202は、表示領域の画像に指示部(例えば、手)が含まれていない場合に、指示部の位置と所定の部分(例えば、人差し指)の向き及び長さとに基づいて、指示位置を算出する。
これにより、本実施形態における入力装置200は、撮像範囲のうちの表示領域以外の領域(画像)において指示部による適切な操作を行いつつ、表示領域の画像にある対象物を指示部により直接指し示すことができる。そのため、本実施形態における入力装置200は、利便性を向上させることができる。
また、本実施形態では、表示パネル63は、カメラ64が撮像した撮像範囲(例えば範囲P)のうちの一部である表示領域(例えば、範囲Q)の画像を表示する。入力制御部202は、表示領域の画像に指示部(例えば、手)が含まれる場合に、カーソルなどのマークを表示させない制御を行う。また、入力制御部202は、表示領域の画像に指示部(例えば、手)が含まれていない場合に、算出した指示位置に対応する表示パネル63の表示画像における位置にカーソルなどのマークを表示させる。
例えば、ユーザーが人差し指で画面上の一点を指示するだけではなく、両手や複数の指を使って様々な情報を相手に伝えたい場合には、手の形の情報が重要であるから、本実施形態における入力装置200は、指先のポイントを表示するカーソルを消す(表示させない)制御を行う。これにより、入力装置200は、情報を受信する他の通信端末にとって分かりやすい情報を送ることが可能になる。よって、本実施形態における入力装置200は、利便性を向上させることができる。
また、本実施形態では、指示部には、手が含まれ、所定の部分には、手における予め定められた指(例えば、人差し指)が含まれる。
これにより、本実施形態における入力装置200は、ユーザーの手を使用して、適切にヘッドマウントディスプレイ1の操作を行うことができる。本実施形態における入力装置200は、例えば、ユーザーの前方の景色を第三者に伝えつつ、問題箇所などをユーザーの手を使用して、適切に指し示すことができる。
なお、本実施形態におけるヘッドマウントディスプレイ1(表示装置)は、上述の入力装置200と、少なくともカメラ64によって撮像された画像を表示する表示パネル63と、少なくともカメラ64及び表示パネル63をユーザーの頭部に装着するヘッドバンド40と、を備えている。
これにより、本実施形態におけるヘッドマウントディスプレイ1は、上述した入力装置200を備えているので、上述した入力装置200と同様の効果を奏し、利便性を向上させることができる。
なお、本発明は、上記の各実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で変更可能である。
例えば、上記の各実施形態において、所定の形状が手の形状である形態について説明したが、これに限定されるものではない。例えば、図19に示すように、所定の形状が、入力装置200を操作するためのリモコン140の形状であってもよい。図19において、画像G4は、カメラ64によって撮像されている画像を示している。リモコン140には3つのインジケーター143a〜143cが設けられていて、このインジケーターの発光をカメラ64で捕らえることにより、ユーザーの手の代用とすることが可能である。入力制御部202は、手の場合と同様に、リモコン140のインジケーター143a〜143cによって指し示される位置P3において、所定の処理(例えば、合焦処理やメニュー選択処理)を制御する形態でもよい。
ここで、リモコン140をユーザーの手の代用とした場合には、入力制御部202は、図19に示される位置P3の座標(X8,Y8)を以下のように算出する。まず、入力制御部202は、下記の式(3)及び式(4)に基づいて、インジケーター143bとインジケーター143cとの中央の仮想位置P4の座標(X7,Y7)を算出する。すなわち、入力制御部202は、インジケーター143aの座標(X4,Y4)と、インジケーター143bの座標(X5,Y5)と、インジケーター143cの座標(X6,Y6)とに基づいて、仮想位置P4の座標(X7,Y7)を算出する。
X7=(X5+X6)/2 ・・・(3)
Y7=(Y5+Y6)/2 ・・・(4)
次に、入力制御部202は、下記の式(5)及び式(6)に基づいて、インジケーター143aと仮想位置P4とを結んだ線分を2倍延長した先の位置P3の座標(X8,Y8)を算出する。
X8=X4+2×(X4―X7)=3×X4−X5−X6 ・・・(5)
Y8=Y4+2×(Y4―Y7)=3×Y4−Y5−Y6 ・・・(6)
さらに、リモコン140ではインジケーター(LED)を3個用いている。このことにより、入力制御部202は、インジケーターの座標より図19に示すα方向、β方向、及びγ方向における、ヘッドマウントディスプレイ1とリモコン140との相対距離、ならびに各3軸回りの回転角度を撮像画像から算出することが可能となっている。
このように、指示部には、少なくとも2つのインジケーター(発光部)を有し、入力装置200を操作するためのリモコン140が含まれ、所定の部分には、少なくとも2つのインジケーターが含まれる。入力制御部202は、リモコン140の位置と、少なくとも2つのインジケーターの位置に基づいて定められる向き及び長さとに基づいて、指示位置を算出する。
これにより、ユーザーの手により操作した場合と同様に、入力装置200は、リモコン140により適切に操作することができる。この場合、インジケーター143a〜143cは発光させることができるので、入力装置200は、撮像画像が暗い場合であっても、正確に操作することができる。すなわち、入力装置200は、リモコン140のインジケーター143a〜143c(発光部)の発光を用いる場合、暗いところでもパターンをハッキリと認識することが可能であり、暗いところでも使いやすいシステムが提供できる。
また、図19では3つのインジケーター143a〜143cを使用することで座標認識の精度を向上させているが、インジケーターが2つであってもよいし、4つ以上であってもよい。
また、指示部には、上述したリモコン140の他に、例えば、ペンなどの棒状の指示棒などを用いる形態でもよい。
また、上記の各実施形態において、入力装置200は、操作部の一例として、複数の操作メニュー(複数のメニューアイコンI1〜I9)のうちの1つを選択する操作を行うメニュー選択処理部204を備える形態を説明したが、これに限定されるものではない。例えば、入力装置200は、メニュー選択の他に、手書きによる文字の入力や、画面上に表示されたキーボードによる情報の入力などの操作を行う操作部を備える形態でもよい。
また、上記の各実施形態において、入力装置200は、カーソルを表示させる形態を説明したが、カーソルの代わりにAR(Augmented Reality)ペンを表示させる形態でもよい。また、入力装置200は、例えば、操作に応じて、カーソルの色や形状を変更する形態でもよい。
また、上記の各実施形態において、ヘッドマウントディスプレイ1が右側及び左側のいずれの側(位置)に装着されているのかを撮像素子72及び目元検出部206によって判定する形態を説明したが、これに限定されるものではない。ヘッドマウントディスプレイ1は、例えば、ヘッドバンド40に対するディスプレイ本体20の角度に基づいて、右側及び左側のいずれの側(位置)に装着されているのかを判定してもよい。また、ヘッドマウントディスプレイ1は、不図示の設定手段をユーザーが操作することで設定してもよい。また、ヘッドマウントディスプレイ1は、例えば、加速度センサー132によって測定される重力の方向より、右側及び左側のいずれの側(位置)に装着されているのかを判定してもよい。
また、カメラ64における読み取り領域の変更は、電子的な手法に限定されるものではなく、ユーザーの両耳を結ぶ軸に略平行な回転軸周りに機械的にカメラ64を回転させてもよい。この場合には、ユーザーが不図示のノブを回してカメラ64の方向を設定することが可能である。
また、上記の各実施形態において、AF制御部203は、光学系641を駆動して合焦させる形態を説明したが、撮像素子642を移動させて合焦させる形態でもよい。
また、上記の各実施形態において、ユーザーが、所定のパターンを印刷した手袋等を事前に装着しておき、その色や印刷されたパターンに基づいて、入力装置200が他の手と異なることを認識する形態でもよい。さらに、右手用の手袋と左手用の手袋で、表面に印刷するパターンを変えることで、右手と左手との認識を容易にすることも可能である。この場合、手袋の手の甲に位置するところに、例えばQRコード(登録商標)を印刷するとともに、指先の認識が容易なように、各指の先端に例えば「▲」マークを印刷してもよい。
上述のヘッドマウントディスプレイ1及び入力装置200は内部に、コンピュータシステムを有している。そして、上述した入力装置200の処理過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリー等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしてもよい。
1…ヘッドマウントディスプレイ、40…ヘッドバンド、63…表示パネル、64…カメラ、123…処理部、140…リモコン、200…入力装置、201…パターン認識部、202…入力制御部、204…メニュー選択処理部

Claims (7)

  1. 撮像部によって撮像された画像からを検出する検出部と、
    前記検出部によって検出された前記手が所定の大きさ以上であると、前記手の指の向きと位置と長さに基づく指示位置を、操作を設定するための複数の画像が表示されている表示部に表示させる制御部と、
    を備える電子機器。
  2. 前記制御部は、前記検出部によって検出された前記手が所定の大きさより小さいと、前記表示部への前記指示位置の表示を行わない
    請求項1に記載の電子機器。
  3. 撮像部によって撮像された画像から手を検出する検出部と、
    前記検出部によって検出された前記手が複数あると、複数の前記手のうちで大きさが最も大きい手の指の向きと位置と長さに基づく指示位置を、操作を設定するための複数の画像が表示されている表示部に表示させる制御部と、
    を備える電子機器。
  4. 前記制御部は、
    前記操作を設定するための複数の画像のうちの前記指示位置の画像に基づく操作を選択する
    請求項1から請求項3のいずれか一項に記載の電子機器。
  5. 前記制御部は、
    前記表示部の前記指示位置にマークを表示させる
    請求項1から請求項4のいずれか一項に記載の電子機器。
  6. 前記撮像部と前記表示部とを備える
    請求項1から請求項のいずれか一項に記載の電子機器。
  7. 請求項1から請求項のいずれか一項に記載の電子機器と、
    前記撮像部及び前記表示部を頭部に装着する装着部と、
    を備える表示装置。
JP2012055865A 2012-03-13 2012-03-13 電子機器、及び表示装置 Active JP6123160B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012055865A JP6123160B2 (ja) 2012-03-13 2012-03-13 電子機器、及び表示装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012055865A JP6123160B2 (ja) 2012-03-13 2012-03-13 電子機器、及び表示装置

Publications (2)

Publication Number Publication Date
JP2013190926A JP2013190926A (ja) 2013-09-26
JP6123160B2 true JP6123160B2 (ja) 2017-05-10

Family

ID=49391119

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012055865A Active JP6123160B2 (ja) 2012-03-13 2012-03-13 電子機器、及び表示装置

Country Status (1)

Country Link
JP (1) JP6123160B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6041016B2 (ja) 2014-07-25 2016-12-07 裕行 池田 眼鏡型端末
EP3985486B1 (en) 2020-10-13 2024-04-17 Hiroyuki Ikeda Glasses-type terminal

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH086708A (ja) * 1994-04-22 1996-01-12 Canon Inc 表示装置
JPH1139095A (ja) * 1997-07-18 1999-02-12 Canon Inc プレゼンテーション装置、その方法、及びペン入力装置
US6215498B1 (en) * 1998-09-10 2001-04-10 Lionhearth Technologies, Inc. Virtual command post
JP2003044222A (ja) * 2001-07-31 2003-02-14 Fuji Photo Optical Co Ltd プレゼンテーションシステムおよびプレゼンテーション方法
JP2003085590A (ja) * 2001-09-13 2003-03-20 Nippon Telegr & Teleph Corp <Ntt> 3次元情報操作方法およびその装置,3次元情報操作プログラムならびにそのプログラムの記録媒体
JP2005032254A (ja) * 2003-07-10 2005-02-03 Masanori Idesawa 実空間内での指示対象物検知装置
CN101308442B (zh) * 2004-10-12 2012-04-04 日本电信电话株式会社 三维指示方法和三维指示装置
JP4533087B2 (ja) * 2004-10-28 2010-08-25 キヤノン株式会社 画像処理方法、画像処理装置
JP5250834B2 (ja) * 2008-04-03 2013-07-31 コニカミノルタ株式会社 頭部装着式映像表示装置
KR20100048090A (ko) * 2008-10-30 2010-05-11 삼성전자주식회사 터치와 모션을 통해 제어 명령을 생성하는 인터페이스 장치, 인터페이스 시스템 및 이를 이용한 인터페이스 방법
JP5416489B2 (ja) * 2009-06-17 2014-02-12 日本電信電話株式会社 三次元指先位置検出方法、三次元指先位置検出装置、およびプログラム

Also Published As

Publication number Publication date
JP2013190926A (ja) 2013-09-26

Similar Documents

Publication Publication Date Title
JP2013190941A (ja) 情報入出力装置、及び頭部装着表示装置
JP6719418B2 (ja) 電子機器
CN108205197B (zh) 显示装置和显示装置的控制方法
JP6136090B2 (ja) 電子機器、及び表示装置
JP6318462B2 (ja) 表示装置
US10976836B2 (en) Head-mounted display apparatus and method of controlling head-mounted display apparatus
JP6011072B2 (ja) 制御装置、及びプログラム
JP6123180B2 (ja) 表示装置
US10718948B2 (en) Head-mounted display apparatus, display control method, and computer program
JP2018082363A (ja) 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム
JP2018124651A (ja) 表示システム
JP2018124721A (ja) 頭部装着型表示装置、及び頭部装着型表示装置の制御方法
JP2019164420A (ja) 透過型頭部装着型表示装置および透過型頭部装着型表示装置の制御方法、透過型頭部装着型表示装置の制御のためのコンピュータープログラム
JP7247519B2 (ja) 表示装置、及び、表示装置の制御方法
JP6996115B2 (ja) 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
JP6015223B2 (ja) 電子機器、及び表示装置
JP2013175909A (ja) 頭部装着装置
JP2014021272A (ja) 情報入出力装置、及び情報入出力方法
JP6123160B2 (ja) 電子機器、及び表示装置
JP6717393B2 (ja) 電子機器
JP2014022937A (ja) 頭部装着型情報入出力装置、及び頭部装着型情報入出力方法
JP2013174730A (ja) 情報表示装置
JP6932917B2 (ja) 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
US20180260068A1 (en) Input device, input control method, and computer program
JP2013174729A (ja) 情報表示装置、及び情報表示方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160502

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170320

R150 Certificate of patent or registration of utility model

Ref document number: 6123160

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250