JP6136090B2 - 電子機器、及び表示装置 - Google Patents

電子機器、及び表示装置 Download PDF

Info

Publication number
JP6136090B2
JP6136090B2 JP2012055864A JP2012055864A JP6136090B2 JP 6136090 B2 JP6136090 B2 JP 6136090B2 JP 2012055864 A JP2012055864 A JP 2012055864A JP 2012055864 A JP2012055864 A JP 2012055864A JP 6136090 B2 JP6136090 B2 JP 6136090B2
Authority
JP
Japan
Prior art keywords
display
unit
hand
user
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012055864A
Other languages
English (en)
Other versions
JP2013190925A (ja
Inventor
江島 聡
聡 江島
加藤 茂
茂 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2012055864A priority Critical patent/JP6136090B2/ja
Publication of JP2013190925A publication Critical patent/JP2013190925A/ja
Application granted granted Critical
Publication of JP6136090B2 publication Critical patent/JP6136090B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、電子機器、及び表示装置に関する。
使用者の頭部に装着し、表示部に表示される画像を観察させるヘッドマウントディスプレイ装置などの表示装置が知られている(例えば、特許文献1を参照)。このような表示装置には、入力装置としての機能を有するものがあり、例えば、表示部に仮想パネルを表示して、手や指の位置から仮想パネルを選択するか否かを検出している。
特開2010−146481号公報
ところで、特許文献1に記載の表示装置は、入力装置として使用する場合、表示部に複数の仮想パネルを奥行き方向に積層配置した立体視画像を表示して、いずれの仮想パネルの位置に手や指の位置が重なったか否かを検出して仮想パネルを選択している。しかしながら、上述の表示装置は、例えば、手や指の奥行き方向の位置を正確に検出する必要があるが、手や指の奥行き方向の位置を正確に検出することが困難であった。そのため、上述の表示装置は、入力装置として使用する場合に、誤検出が発生する場合があるために、利便性が悪いという問題があった。
本発明は、上記問題を解決すべくなされたもので、その目的は、利便性を向上させることができる電子機器、及び表示装置を提供することにある。
上記問題を解決するために、本発明の一実施形態は、撮像部によって撮像された画像から対象物を検出する検出部と、前記検出部によって検出された前記対象物の大きさに基づき、前記撮像部の焦点調節部を制御するとともに、前記検出部によって検出された前記対象物の位置に基づく指示位置を、操作を設定するための複数の画像が表示されている表示部に表示させる制御部と、を備える電子機器である。
また、本発明の一実施形態は、上記の電子機器、前記撮像部及び前記表示部を頭部に装着する装着部と、を備える表示装置である。
本発明によれば、利便性を向上させることができる。
本実施形態によるヘッドマウントディスプレイの斜視図である。 本実施形態におけるヘッドマウントディスプレイを背面側から見た斜視図である。 本実施形態におけるヘッドマウントディスプレイの装着形態を示す図である。 本実施形態におけるディスプレイ本体の水平断面図である。 本実施形態におけるリモコンを示す斜視図である。 本実施形態におけるステレオイヤホンを示す斜視図である。 本実施形態におけるヘッドマウントディスプレイの機能ブロック図である。 本実施形態における処理部の機能ブロック図である。 本実施形態におけるヘッドマウントディスプレイの右目装着時の撮像範囲を示す模式図である。 本実施形態におけるヘッドマウントディスプレイの左目装着時の撮像範囲を示す模式図である。 本実施形態におけるヘッドマウントディスプレイの撮像範囲及び表示範囲の切り替えを示す図である。 本実施形態におけるヘッドマウントディスプレイの撮像範囲及び表示範囲の切り替え処理を示すフローチャートである。 本実施形態における入力装置の処理を示すフローチャートの第1の図である。 本実施形態における入力装置の処理を示すフローチャートの第2の図である。 本実施形態におけるヘッドマウントディスプレイの動作の一例を示す第1の図である。 本実施形態におけるヘッドマウントディスプレイの動作の一例を示す第2の図である。 本実施形態におけるヘッドマウントディスプレイの動作の一例を示す第3の図である。 本実施形態におけるヘッドマウントディスプレイの動作の一例を示す第4の図である。 本実施形態におけるヘッドマウントディスプレイの動作の一例を示す第5の図である。 本実施形態におけるリモコンによるポイント指示の動作の一例を示す図である。
以下、本発明の一実施形態による入力装置及び表示装置について、図面を参照して説明する。
以下の説明においては、必要に応じてXYZ直交座標系を設定し、このXYZ直交座標系を参照しつつ各部の位置関係について説明する。水平面内の所定方向をX軸方向、水平面内においてX軸方向と直交する方向をY軸方向、X軸方向及びY軸方向のそれぞれと直交する方向(すなわち鉛直方向)をZ軸方向とする。また、X軸、Y軸、及びZ軸まわりの回転(傾斜)方向をそれぞれ、θX、θY、及びθZ方向とする。
図1は、本実施形態のヘッドマウントディスプレイの斜視図である。図2は、ヘッドマウントディスプレイを背面側から見た斜視図である。図3は、本実施形態のヘッドマウントディスプレイの装着形態を示す図である。
ヘッドマウントディスプレイ1(表示装置)は、ディスプレイ本体20と、ユーザー(使用者)の頭部に装着されディスプレイ本体20を支持するヘッドバンド40(装着部)と、を備えた単眼式のヘッドマウントディスプレイである。本実施形態のヘッドマウントディスプレイ1は、図3に示すように、両眼どちらでも使用可能である。図3(A)には、ユーザーが右眼(右目)で表示部60を見ている状態、図3(B)には左眼(左目)で見ている状態が示されている。ここで、ヘッドバンド40は、ディスプレイ本体20をユーザーの頭部に装着する。
また、図2に示すように、ディスプレイ本体20とヘッドバンド40とは、連結ピン41を介して着脱可能に構成されている。
なお、図1及び図2では、ディスプレイ本体20の長手方向をY軸方向、ヘッドバンド40がユーザーの頭部を挟持する方向をX軸方向としている。
以下、ヘッドマウントディスプレイ1の各部の構成について詳細に説明する。
ディスプレイ本体20は、主要回路を内蔵するとともに操作部や各種インターフェースを備えた装置本体部21と、装置本体部21の先端に連結された表示部60とを有する。
装置本体部21は、概略板状の筐体21A(図4)を有する。本実施形態では、装置本体部21においてヘッドバンド40との接続部が設けられている側の端部(+Y側の端部)を基端部とし、この基端部と反対側の端部(−Y側の端部)を先端部とする。また、装置本体部21をヘッドバンド40に装着した状態で、装置本体部21のヘッドバンド40側(+X側)を内側、ヘッドバンド40と反対側(−X側)を外側とする。
装置本体部21の外面には、図1に示すように、メインスイッチ28と、タッチスイッチ34と、集音マイク24とが、筐体21Aの長手方向に沿って配置されている。
メインスイッチ28は、ディスプレイ本体20の電源のオンオフ操作を行うスイッチである。タッチスイッチ34は、表面に手指等で触れることによりヘッドマウントディスプレイ1の各種操作を行うことができるタッチパネルである。集音マイク24は、環境音を収集する外部マイクである。
装置本体部21内面の基端部側に、図2に示すように、耳元スピーカー23と、オーディオコネクター26と、連結孔31を有するヘッドバンドヒンジ32とが設けられている。装置本体部21内面の中央部に心拍数センサー137が設けられている。装置本体部21の内側面の先端部には通話マイク37が設けられている。
耳元スピーカー23は、ユーザーの耳の近傍に配置される。耳元スピーカー23からユーザーに音声情報が伝えられる。オーディオコネクター26は、例えば図6に示すイヤホンが接続される音声入出力端子である。ヘッドバンドヒンジ32は、ヘッドバンド40とのジョイント部である。通話マイク37にはユーザーの音声が入力される。
心拍数センサー137は、ユーザーの顔の表面に接触させることでユーザーの心拍数を測定するセンサーである。心拍数センサー137は、発光ダイオード等を備えた発光部と、ユーザーの皮膚内部で反射した光を検知する受光部とを有する。心拍数センサー137は、血流の変化による反射光量の変化を検出することで心拍数をカウントする。心拍数センサー137はユーザーの目の近くに配置されるが、発光部から赤外域の光を射出させる構成とすればユーザーにまぶしさを感じさせることはない。
装置本体部21の基端部側の側端面には、USBコネクター25と、操作スイッチ30と、ビデオコネクター27とが設けられている。
USBコネクター25はUSB(Universal Serial Bus)デバイスの接続端子である。本実施形態では、例えば、図5に示すリモコン(リモートコントローラー)140が接続される。
操作スイッチ30(操作部)は、例えばトラックボールやスティックなどのポインティングデバイスである。操作スイッチ30は表示部60に表示される画面に正対するように設けられている。これにより、操作スイッチ30における操作の左右方向と、上記画面の左右方向とが一致するので、ユーザーは画面を見ながら直感的に操作スイッチ30を操作することが可能である。
ビデオコネクター27は映像入出力端子である。
ヘッドバンド40は、図2に示すように、ユーザーの頭部を挟持する一対のヘッドパット(装着部材)46、47と、第1ヘッドバンド43と、第2ヘッドバンド44と、回動機構56、57とを備えている。
第1ヘッドバンド43は、全体として円弧状を成す弾性部材である。第1ヘッドバンド43の頂部に、第1ヘッドバンド43を折り曲げるためのジョイント部43aが設けられている。第1ヘッドバンド43の両端には、回動機構56、57を構成する軸受部43b、43cがそれぞれ設けられている。軸受部43b、43cよりもさらにバンド先端側に、ヘッドパット46、47が接続される軸受部43d、43eが設けられている。
第2ヘッドバンド44は、全体として円弧状を成す弾性部材である。第2ヘッドバンド44の頂部には、第2ヘッドバンド44を折り曲げるためのジョイント部44aが設けられている。第2ヘッドバンド44の両端には、それぞれ回動機構56、57を構成する軸部材44b、44cが設けられている。
また本実施形態において、第2ヘッドバンド44は、ステンレス等の金属からなるバネ部材48の表面を樹脂等の柔軟な材料で被覆した構成を有する。この第2ヘッドバンド44のバネ部材48においてユーザーの頭部を挟持するバネ力を発生させる。また第2ヘッドバンド44は第1ヘッドバンド43と比較して広い幅に形成されている。ジョイント部44aの形成部分は他のバンド部分よりもさらに広く形成された標章表示部49とされている。標章表示部49には、シールや印刷により製品タグ等が付される。なお、第2ヘッドバンド44の全体を金属で形成してもよい。
ヘッドパット46は、板状の支持板46aと、支持板46aの一面側に設けられた断面アーチ状の弾性部材46bとを有する。支持板46aの弾性部材46bと反対側の面に、当該面に垂直な姿勢で概略六角柱状の連結ピン41が立設されている。連結ピン41は、第1ヘッドバンド43の一方の先端に設けられた軸受部43dに軸支されている。これにより、ヘッドパット46は連結ピン41回りに回転可能である。
ヘッドパット47は、板状の支持板47aと、支持板47aの一方の面に設けられた断面アーチ状の弾性部材47bとを有する。支持板47aの弾性部材47bと反対側の面には、軸部材47cが設けられている。軸部材47cは、第1ヘッドバンド43の先端に設けられた軸受部43eに軸支されている。これにより、ヘッドパット47は、軸部材47c回りに回転可能である。
図4は、ディスプレイ本体20の水平断面図である。
図4に示すように、装置本体部21には、筐体21Aの長手方向に沿って延びる板状の回路基板29と、バッテリー33とが内蔵されている。回路基板29には、不図示の制御回路、電源回路等が実装されており、不図示の配線を介してディスプレイ本体20の各部と電気的に接続されている。
装置本体部21の外面に露出するタッチスイッチ34の内側には、液晶パネルからなる表示パネル36と、バックライト35とが配置されている。本実施形態では、表示パネル36の表示画像がタッチスイッチ34を透過して表示される。表示パネル36及びバックライト35を、有機ELパネルや電気泳動パネルとしてもよい。
ヘッドバンドヒンジ32は、筐体21Aに設けられた凹曲面状の収容部32aと、収容部32aに嵌合された球状部32bとからなるボールジョイントである。球状部32bは、球面状の側面部と、この側面部を挟むように互いに平行に形成された2つの平面部を有する。2つの平面部を垂直に貫くように連結孔31が形成されている。連結孔31は軸方向視で六角形状に形成されている。連結孔31にヘッドバンド40の連結ピン41が挿入されることによりディスプレイ本体20とヘッドバンド40とが連結される。
ヘッドバンドヒンジ32を備えていることで、ディスプレイ本体20は、図1に示したA方向(ヘッドバンドヒンジ32を中心とするX軸回り)に回動させることができる。本実施形態において、ディスプレイ本体20の回転可能範囲は270°程度とされる。このX軸回りの回転動作により、図3(A)に示す右目で画像を観察する形態と、図3(B)に示す左目で画像を観察する形態との切替機能が実現される。
また、ヘッドバンドヒンジ32は、ボールジョイントであるため、ディスプレイ本体20は図1に示すB方向(ヘッドバンドヒンジ32を中心とするZ軸回り)に揺動させることもできる。この揺動操作により、ディスプレイ本体20のユーザーの目や耳に対する位置を調整することができる。
ヘッドバンドヒンジ32近傍の心拍数センサー137は、装置本体部21の内面から突出するように設けられ、ヘッドマウントディスプレイ1の装着時にユーザーの顔の表面に当接可能とされている。バッテリー33は、充電式電池、使い捨て電池のいずれであってもよい。
表示部60は、図1及び図2に示すように、装置本体部21の先端部に連結されている。本実施形態において、表示部60のヘッドバンド40側を内側、ヘッドバンド40と反対側を外側とする。表示部60は、上面視(Z軸視)において湾曲した形状を有するアーム部材であり、装置本体部21との連結部から先端側へ向かうに従って内側へ湾曲する形状を有する。表示部60の内面に、ファインダー開口部67が設けられている。表示部60の外面には、カメラ64が設けられている。
図4に示すように、表示部60は、ディスプレイヒンジ61を介して装置本体部21と連結されている。ディスプレイヒンジ61は、表示部60の筐体60Aに形成された凹曲面状の収容部61aと、装置本体部21に形成され収容部61aに嵌合された球状部61bとからなるボールジョイントである。
装置本体部21の球状部61bは、装置本体部21の外面先端部に形成された筐体21Aの長手方向に対して斜めに延びる傾斜面に、この傾斜面の法線方向(図4のY’軸方向)に突出するようにして設けられている。表示部60は、ディスプレイヒンジ61の球状部61bに対してY’軸回りに自由に回転させることができる。
ディスプレイヒンジ61の球状部61bには、球状部61bを高さ方向(Y’軸方向)に貫通する貫通孔61cが形成されている。貫通孔61cを介して、表示部60の内部と装置本体部21の内部とが連通されている。貫通孔61cには不図示のケーブルが挿通される。挿通されたケーブルを介して回路基板29と表示部60の各部とが電気的に接続される。
表示部60の内部には、バックライト62と、表示パネル63と、カメラ64と、プリズム65と、反射ミラー66と、前方ライト68と、前方スピーカー70と、結像レンズ71と、撮像素子72とが設けられている。すなわち、表示部60は、バックライト62、表示パネル63、カメラ64、プリズム65、反射ミラー66、前方ライト68、前方スピーカー70、結像レンズ71、及び撮像素子72を備えている。
プリズム65は、上面視(Z軸視)で略三角形状の第1プリズム65aと第2プリズム65bとを互いの面で貼り合わせた構成を有する。この貼り合わせ面以外の第1プリズム65aの他の二面のうち、一方の面に対向する位置に、液晶パネルからなる表示パネル63が設けられている。表示パネル63の背面に表示パネル63を透過照明するバックライト62が配置されている。第1プリズム65aの他方の面に対向する位置に反射ミラー66が配置されている。反射ミラー66は、ファインダー開口部67のほぼ正面に位置する。
第2プリズム65bの貼り合わせ面以外の他の二面のうち、一方の面はファインダー開口部67に配置されたファインダー接眼面である。第2プリズム65bの他方の面に対向する位置には結像レンズ71を介して撮像素子72が対向配置されている。
表示部60において、表示パネル63に表示された画像は、第1プリズム65a、反射ミラー66、第2プリズム65bを介してファインダー開口部67から射出され、ユーザーに観察される。また、ファインダー開口部67を見ているユーザーの目元は、第2プリズム65b及び結像レンズ71を介して撮像素子72上に結像される。撮像素子72を介して取得された目元の画像は、ユーザーの視線の方向や瞬き、表情の解析に用いられる。すなわち、撮像素子72は、ユーザーの目元を撮像する撮像部として機能する。バックライト62は、撮像素子72による目元撮像の照明装置としても利用される。
カメラ64は、例えば500万画素〜1000万画素の撮像素子を有し、オートフォーカス動作が可能に構成される。
本実施形態の場合、カメラ64の撮像方向は、ユーザーの視線方向と一致するように設定される。すなわち、カメラ64は、ヘッドマウントディスプレイ1を装着したユーザーの視線方向の画像(映像)を撮像する。なお、撮像方向と視線方向との調整は、機械的に行ってもよく、画像処理により行ってもよい。例えば、カメラ64を広角の映像を取得可能に構成し、ユーザーの目元画像から取得した視線方向の情報に基づいて、電気的に捕らえた映像の一部を、視線方向の映像として抜き出して表示パネル63に表示させる。これにより、カメラ64に調整機構を設けることなくユーザー正面の映像(画像)の撮像、表示が可能となる。
前方ライト68は、例えば、LED(Light Emitting Diode)ライトである。前方ライト68は、赤、緑、青の各色の発光素子を有し、任意の色を任意のタイミングで発光させることが可能に構成してもよい。前方ライト68は、発光色や発光タイミングにより外部に対して情報を表示する装置として用いてもよく、カメラ64で撮像する際の照明装置として用いてもよい。
図5は、本実施形態のヘッドマウントディスプレイ1に付属のリモコンを示す斜視図である。
リモコン140は、筐体140Aと、タッチパッド141と、操作スイッチ147と、USBコネクター142と、インジケーター143a、143b、143cと、取付クリップ144と、インジケータースイッチ150と、を備えている。
リモコン140は、USBケーブル148の一方の端子をUSBコネクター142に接続し、他方の端子を装置本体部21のUSBコネクター25に接続することで、装置本体部21と電気的に接続される。USBケーブル148としては市販のUSBケーブルを用いることができる。本実施形態の場合、USBケーブル148の途中に複数のクリップ149が設けられている。複数のクリップ149は、例えばUSBケーブル148を第2ヘッドバンド44に沿わせた状態で固定するために用いることができる。
リモコン140には、ディスプレイ本体20や他の電子機器と無線通信を行うための通信回路が内蔵されている。通信回路の通信方式としては、例えば、Bluetooth(登録商標)、無線LAN、赤外線通信、UWB(Ultra Wide Band)、Transfer Jetなどを用いることができる。かかる通信回路により、USBケーブル148を接続していなくてもディスプレイ本体20との通信が可能である。
リモコン140には、Gセンサーや加速度センサー、方位センサーが内蔵されていてもよい。これらのセンサーで検出した情報についても、上記した通信回路を介してディスプレイ本体20へ通信可能である。
タッチパッド141は、筐体140Aの一方の主面に設けられている。タッチパッド141は、ユーザーがタッチすることによりディスプレイ本体20を操作するための操作部である。タッチパッド141の背面側の筐体140A内部には、装置本体部21のタッチスイッチ34と同様に表示パネルやバックライトが設けられていてもよい。
操作スイッチ147は、リモコン140やディスプレイ本体20を手動操作するためのスイッチである。操作スイッチ147は、必要に応じて設けられていればよい。筐体140Aの側面に設けられたインジケータースイッチ150は、インジケーター143a〜143cを利用した所定動作を行わせるためのスイッチである。
USBコネクター142は、装置本体部21との接続のほか、リモコン140が充電式のバッテリーを内蔵している場合にはリモコン140の充電端子や、PCとの接続にも用いられる。
また、USBコネクター142は、リモコン140がバッテリーを内蔵している場合には、装置本体部21への給電端子として用いることもできる。リモコン140のバッテリーを補助電源として使用可能にすることで、ヘッドマウントディスプレイ1は、装置本体部21のバッテリー容量を小さくでき、装置本体部21を小型軽量化することができる。
インジケーター143a、143b、143cは、タッチパッド141の周囲に配置されている。本実施形態では、タッチパッド141の一辺に沿う位置にインジケーター143aが配置され、インジケーター143aに対してタッチパッド141を挟んだ反対側にインジケーター143bとインジケーター143cとが配置されている。
インジケーター143a〜143cはLED等の発光素子を備えている。本実施形態では、インジケーター143aは緑色の発光素子、インジケーター143bはオレンジ色の発光素子、インジケーター143cは青色の発光素子をそれぞれ備えている。これらの発光素子は制御されたタイミングでパターン発光可能に構成されている。インジケーター143a〜143cの上記パターン発光は、筐体140A側面のインジケータースイッチ150を操作することでオンオフすることができる。
取付クリップ144は、筐体140Aのタッチパッド141と反対側の面に設けられている。本実施形態の場合、取付クリップ144は、一端を筐体140Aに固定された側面視S形のバネ板部材である。取付クリップ144により、リモコン140をユーザーの衣服やベルト等に装着することができる。
また、ヘッドマウントディスプレイ1は、取付クリップ144によりヘッドパット47の近傍を挟むことで、ヘッドバンド40にリモコン140を取り付けてもよい。ヘッドバンド40のヘッドパット46にディスプレイ本体20を取り付ける一方、ヘッドパット47側にリモコン140を取り付けることで、ヘッドマウントディスプレイ1における重量バランスの不均衡を低減することができる。
また、リモコン140をユーザーが手に持って操作スイッチ147を操作することで、インジケーター143a〜143cは、所定のパターンで点滅するように構成されている。例えば、インジケーター143aの色は緑、インジケーター143bはオレンジ、インジケーター143cは青色となっており、この3つのインジケーターの発光パターンを表示部60に設けられたカメラ64で捕らえることにより、リモコン140の上下左右の傾きを認識することが可能となっている。ここ結果、リモコン140とディスプレイ本体20とで後述するBluetooth(登録商標)による通信を行うことなく、すなわち消費電力を最小に押さえつつリモコン140の操作状態を本体側に伝えることが可能である。
図6は、本実施形態のヘッドマウントディスプレイに付属のステレオイヤホンを示す斜視図である。
ステレオイヤホン100は、コネクター101と、ケーブル102と、第1スピーカー103と、第2スピーカー104と、集音マイク105と、複数のクリップ106とを有している。
コネクター101は、ケーブル102の一方の端部に設けられている。コネクター101は、例えば、一般的な4極φ3.5mmのミニプラグである。4極の内訳は、集音マイク105、第1スピーカー103、第2スピーカー104、グランド(GND)である。ケーブル102は、コネクター101の近傍において二分岐され、分岐されたケーブルの先端に第1スピーカー103が設けられている。ケーブル102の他方の端部には、第2スピーカー104と集音マイク105とが設けられている。複数のクリップ106は、ケーブル102上に所定の間隔で配置されている。
ステレオイヤホン100の第1スピーカー103は、ディスプレイ本体20が配置された側のユーザーの耳に装着され、第2スピーカー104は第1スピーカー103と反対側の耳に装着される。このとき、ケーブル102は、クリップ106によって第2ヘッドバンド44に固定することができる。
また、ステレオイヤホン100の集音マイク105と、ディスプレイ本体20において筐体21Aの外側面に設けられた集音マイク24とにより、ステレオ録音が可能である。例えば、図3(A)に示すようにディスプレイ本体20が右眼側に配置されているとすれば、ディスプレイ本体20の集音マイク24はユーザーの右側の音を収集し、左耳に装着された集音マイク105はユーザーの左側の音を収集する。なお、ステレオイヤホン100の第1スピーカー103から右チャンネルの音声が出力され、第2スピーカー104からは左チャンネルの音声が出力される。
一方、図3(B)に示すように左眼側にディスプレイ本体20が配置されている場合には、ディスプレイ本体20の集音マイク24がユーザーの左側の音を収集し、右耳に装着された集音マイク105がユーザーの右側の音を収集する。ステレオイヤホン100の第1スピーカー103から左チャンネルの音声が出力され、第2スピーカー104からは右チャンネルの音声が出力される。
図7は、ヘッドマウントディスプレイ1の機能ブロック図である。
ヘッドマウントディスプレイ1は、処理部123を中心として種々の電気回路を備えている。ヘッドマウントディスプレイ1は、例えば、バックライト62、表示パネル63、カメラ64、撮像素子72、デコーダー121、フラッシュメモリー122、処理部123、LCDドライバ125、BLドライバ126、メモリー127、エンコーダー129、メインスイッチ28、操作スイッチ30、及びタッチスイッチ34を備えている。
なお、本実施形態において、カメラ64、撮像素子72、処理部123、メモリー127、エンコーダー129、メインスイッチ28、操作スイッチ30、及びタッチスイッチ34が入力装置200に対応する。すなわち、入力装置200は、カメラ64、撮像素子72、処理部123、メモリー127、エンコーダー129、メインスイッチ28、操作スイッチ30、及びタッチスイッチ34を備えている。
処理部123は、例えば、CPU(Central Processing Unit)であり、ヘッドマウントディスプレイ1の各種回路と接続されるとともに、ヘッドマウントディスプレイ1を総合的に制御する。処理部123の詳細については、後述する。
本実施形態の場合、エンコーダー129、デコーダー121、電源回路120、操作スイッチ30、フラッシュメモリー122、BT通信回路130、WiFi通信回路131、加速度センサー132、地磁気センサー133、前方ライト68、3G/LTE通信回路138、レーザー発振器73、角速度センサー134、GPSセンサー135、温湿度センサー136、心拍数センサー137、BLドライバ126、メモリー127、メインスイッチ28、及びタッチスイッチ34は、処理部123に接続されている。
エンコーダー129は、音声信号及び映像信号を所定方式の音声データ及び映像データにエンコード(符号化)する。エンコーダー129には、カメラ64、撮像素子72、集音マイク24、通話マイク37、オーディオコネクター26、ビデオコネクター27が接続されている。
エンコーダー129は、集音マイク24、通話マイク37、及び、オーディオコネクター26から供給される音声信号をエンコード(符号化)し、エンコードした音声信号を処理部123に供給する。また、エンコーダー129は、カメラ64、ユーザーの目元を撮像する撮像素子72、及びビデオコネクター27から入力される映像(画像)信号をエンコード(符号化)し、エンコードした映像(画像)信号を処理部123に供給する。
デコーダー121は、音声データ及び映像データを音声信号及び映像信号にデコード(復号化)する。デコーダー121には、LCDドライバ125、スピーカーアンプ162、オーディオコネクター26、及びビデオコネクター27が接続されている。すなわち、デコーダー121は、音声データを音声信号にデコード(復号化)し、デコードした音声信号をスピーカーアンプ162又はオーディオコネクター26に供給する。また、デコーダー121は、映像(画像)データを映像(画像)信号にデコード(復号化)し、デコードした映像信号をLCDドライバ125又はビデオコネクター27に供給する。
LCDドライバ125は、例えば、液晶パネル用の駆動信号を生成する回路であり、表示パネル36及び表示パネル63に接続されている。すなわち、LCDドライバ125は、処理部123からデコーダー121を介して供給された映像(画像)信号に基づいて液晶パネル用の駆動信号を生成し、生成した液晶パネル用の駆動信号を表示パネル36又は表示パネル63に供給する。
表示パネル63(表示部)は、例えば、液晶表示パネルであり、LCDドライバ125から供給される駆動信号に基づいて、映像(画像)を表示する。表示パネル63は、例えば、カメラ64によって撮像された画像、及びメニュー画面などを表示する。
BLドライバ126は、例えば、バックライト用の駆動信号を生成する回路であり、バックライト35及びバックライト62に接続されている。すなわち、BLドライバ126は、処理部123から供給された制御信号に基づいて、バックライト用の駆動信号を生成し、生成したバックライト用の駆動信号をバックライト35及びバックライト62に供給する。
バッテリー33は、電源回路120を介してヘッドマウントディスプレイ1の各部に電力を供給する。
電源回路120は、処理部123から供給される制御信号に基づいて、バッテリー33から供給された電力の制御(例えば、電圧の変換、供給オンオフ)を行う。
スピーカーアンプ162は、例えば、音声信号を増幅してスピーカーに出力する回路であり、耳元スピーカー23及び前方スピーカー70に接続されている。スピーカーアンプ162は、処理部123からデコーダー121を介して供給された音声信号を増幅し、増幅した音声信号を耳元スピーカー23又は前方スピーカー70に供給する。
本実施形態の場合、耳元スピーカー23及び前方スピーカー70は、モノラル音声の使用を想定しており、耳元スピーカー23及び前方スピーカー70は、左右の音声信号が合成された音を出力する。
メモリー127は、処理部123によって実行される制御プログラムを記憶している。
メインスイッチ28は、全体の電源のオンオフを行うスイッチであり、ユーザーが操作することにより、操作に基づく制御信号を処理部123に供給する。
操作スイッチ30(操作部)は、画面内でのポインティング操作を行うためのスイッチであり、ユーザーが操作することにより、操作に基づく制御信号を処理部123に供給する。
タッチスイッチ34は、タッチ操作により各種操作を行うスイッチであり、ユーザーが操作することにより、操作に基づく制御信号を処理部123に供給する。
なお、ディスプレイ本体20は、メインスイッチ28、操作スイッチ30、及びタッチスイッチ34を備えており、ディスプレイ本体20は、ユーザーの身体における右側及び左側のいずれかの位置に装着可能である。そのため、ディスプレイ本体20は、メインスイッチ28、操作スイッチ30、及びタッチスイッチ34は、ユーザーの身体における右側及び左側のいずれかの位置に装着可能であって、入力装置を操作する。
BT通信回路130は、他の機器とのBluetooth(登録商標)通信を行うための通信回路である。
WiFi通信回路131は、他の機器との無線LAN通信(IEEE 802.11)を行うための通信回路である。
3G/LTE通信回路138は、他の機器との移動通信を行うための通信回路である。
BT通信回路130、WiFi通信回路131、及び3G/LTE通信回路138は、他の機器との間で、音声データや映像(画像)データなどの情報の送信/受信を行う。
加速度センサー132(Gセンサー)は、加速度情報(例えば、加速度及び重力)を検出し、ヘッドマウントディスプレイ1の傾き検出に用いられる。加速度センサー132は、検出した加速度情報を処理部123に供給する。
地磁気センサー133は、地磁気に基づいて方位情報を検出し、ヘッドマウントディスプレイ1の方角検出に用いられる。地磁気センサー133は、検出した方位情報を処理部123に供給する。
角速度センサー134(ジャイロセンサー)は、角速度を検出し、ヘッドマウントディスプレイ1の回転検出に用いられる。角速度センサー134は、検出した角速度を処理部123に供給する。
GPSセンサー135は、GPS(Global Positioning System)を利用した測位検出に用いられ、ヘッドマウントディスプレイ1の緯度経度を測定する。GPSセンサー135は、測定したヘッドマウントディスプレイ1の緯度経度を処理部123に供給する。
温湿度センサー136は、環境の温度、及び湿度を検出する。温湿度センサー136は、検出した環境の温度、及び湿度を処理部123に供給する。
心拍数センサー137は、ユーザーの頬に接触し、ユーザーの心拍数を検出する。すなわち、心拍数センサー137は、ヘッドマウントディスプレイ1がユーザーに装着されているか否かを検出する。心拍数センサー137は、検出したユーザーの心拍数を処理部123に供給する。
レーザー発振器73は、上述したように表示パネル63に表示された画像内の所定の位置に対応するターゲット(対象物)にレーザー光(スポット光)を照射する。
カメラ64は、オートフォーカス動作が可能に構成されており、光学系641と撮像部642とを備えている。また、カメラ64は、比較的深い被写界深度を有しており、例えば、1m(メートル)〜無限遠方まではいわゆるパンフォーカスとして扱うことも可能である。したがって、カメラ64は、無限遠方の被写体に合焦していたとしても、例えば、1m以内にある手に対して、この段階では厳密に手にピントが合っていないとしても、手の検出は可能となっている。
光学系641は、例えば、複数のレンズを備え、被写体像である画像を撮像部642の受光面に結像させる。なお、光学系641は、オートフォーカス動作の再に、処理部123から供給される制御信号に基づいてレンズが駆動され、画像を撮像部642に合焦する。
撮像部642は、例えば、撮像素子であり、光学系641によって結像された画像を撮像する。撮像部642は、例えば、光学系641によって結像された被写体像を電気信号に変換し、画像データとしてエンコーダー129に出力する。
処理部123は、上述したようにヘッドマウントディスプレイ1を総合的に制御する。処理部123は、例えば、集音マイク24、通話マイク37、又はオーディオコネクター26からエンコーダー129を介して供給された音声データをフラッシュメモリー122に記憶させる。処理部123は、例えば、集音マイク24、通話マイク37、又はオーディオコネクター26からエンコーダー129を介して供給された音声データをBT通信回路130、WiFi通信回路131、又は3G/LTE通信回路138を介して他の機器に送信する。
また、処理部123は、例えば、カメラ64、撮像素子72、又はビデオコネクター27からエンコーダー129を介して供給された映像(画像)データをフラッシュメモリー122に記憶させる。処理部123は、例えば、カメラ64、撮像素子72、又はビデオコネクター27からエンコーダー129を介して供給された映像(画像)データを、LCDドライバ125を介して表示パネル63に表示させる。処理部123は、例えば、カメラ64、撮像素子72、又はビデオコネクター27からエンコーダー129を介して供給された映像(画像)データをBT通信回路130、WiFi通信回路131、又は3G/LTE通信回路138を介して他の機器に送信する。
また、映像データを再生する場合、処理部123は、フラッシュメモリー122に記録された映像(画像)データ、あるいはエンコーダー129から入力される映像(画像)データを、デコーダー121及びLCDドライバ125を介して表示パネル36、63に供給する。これにより、映像信号が入力された表示パネル36又は表示パネル63に映像データに基づく映像が表示される。また、処理部123は、デコーダー121から出力される映像信号を、ビデオコネクター27を介して外部機器に出力させる。
また、映像の表示に際して、処理部123は、必要に応じて表示パネル36用のバックライト35、及び表示パネル63用のバックライト62を点灯させる。すなわち、処理部123は、BLドライバ126に制御信号を供給し、BLドライバ126はバックライト(35,62)を個々に点灯させる。
また、処理部123は、例えば、制御信号により操作を検出し、上記の制御プログラムに規定された動作を実行する。
また、処理部123は、カメラ64によって撮像された映像(画像)に基づいて、レーザー発振器73によるレーザー光の照射を制御する。
また、本実施形態において、処理部123は、パターン認識部201、入力制御部202、AF(オートフォーカス)制御部203、メニュー選択処理部204、表示制御部205、目元検出部206、及び表示切替部207を備えている。
図8は、本実施形態における処理部123の一例を示す機能ブロック図である。
以下、図7及び図8を参照して、本実施形態における処理部123の各部について説明する。
パターン認識部201(認識部)は、撮像部642によって撮像された画像に含まれる予め定められた所定の形状(例えば、人の手の形状)を認識する。パターン認識部201は、例えば、予め定められている手の形状のパターンと画像に含まれるパターンとが一致するか否かを判定するパターンマッチングを用いて、手の形状を認識する。なお、予め定められている手の形状のパターンは、メモリー127に記憶させておいてもよい。ここで、手の形状とは、撮像部642によって撮像された画像における手の形状のパターン領域を示す。
パターン認識部201は、手の形状を認識した場合に、認識した手の形状に関する情報を入力制御部202に供給する。なお、手の形状に関する情報とは、例えば、撮像された画像上の位置情報、手の形状の大きさ、指の位置や指の長さなどの情報である。
AF制御部203(合焦部)は、カメラ64の光学系641を駆動して撮像部642に被写体像などの画像を合焦させる。AF制御部203は、入力制御部202から供給される制御指令に基づいて、撮像部642によって撮像される画像における所定の画素位置に合焦するように、光学系641を駆動する制御を行う。
メニュー選択処理部204(選択部)は、後述する入力制御部202が算出した手が指示する指示位置に応じて、入力を操作する。例えば、メニュー選択処理部204は、表示パネル63に表示された複数の操作メニュー(例えば、アイコンなど)を、手による指示位置に応じて選択する。メニュー選択処理部204は、例えば、手による指示位置に応じて、少なくとも1つの操作メニューを選択するような操作処理を行う。すなわち、メニュー選択処理部204は、手による指示位置に応じて、操作メニューを操作する。
表示制御部205は、表示パネル63及び表示パネル36に映像(画像)及び各種表示を表示させる制御を行う。表示制御部205は、例えば、カメラ64によって撮像された映像(画像)内における入力制御部202によって指示された位置に、カーソルマークを表示パネル63に表示させる制御を行う。表示制御部205は、表示パネル63に表示させる映像(画像)データを、表示切替部207を介してデコーダー121に供給する。
目元検出部206(検出部)は、ユーザーの目元を撮像する撮像素子72が撮像した画像に基づいて、ヘッドマウントディスプレイ1がユーザーに装着されているか否かを検出する。また、目元検出部206は、撮像素子72が撮像した画像に基づいて、例えば、ユーザーの目元のパターンマッチングを行うことにより、表示部60が装着されている左右の位置を検出する。すなわち、目元検出部206は、表示部60(操作スイッチ30)がユーザーに装着されている位置であって、例えば、ユーザーの身体における右側及び左側のいずれかの位置であるかを検出する。目元検出部206は、検出したユーザーの左右のいずれかに表示部60が装着されているかの情報を表示切替部207及び入力制御部202に供給する。
表示切替部207は、目元検出部206によって検出されたユーザーの左右のいずれかに表示部60が装着されているかの情報に応じて、表示制御部205から供給された画像情報を、ユーザーが正しく視認できるように表示を切り替える。表示の切り替え処理の詳細については、後述する。表示切替部207は、目元検出部206によって検出されたユーザーの左右のいずれかに表示部60が装着されているかの情報に応じて切り替えた画像データを、デコーダー121を介してLCDドライバ125に供給することにより、表示パネル63に表示させる。
入力制御部202(制御部)は、パターン認識部201によって認識された手の形状の大きさに応じて、予め定められた所定の処理を実行させるか否かを制御する。ここで、予め定められた所定の処理とは、例えば、AF制御部203に光学系641を合焦させる処理であるオートフォーカス処理やメニュー選択処理部204による操作メニューを選択する処理などである。
入力制御部202は、手の形状の大きさが予め定められた所定の大きさ以上である場合に、上述の所定の処理を実行させる。ここで、「予め定められた所定の大きさ」は、撮像部642によって撮像される画像において、撮像部642から予め定められた所定の距離に対応する手の形状の大きさである。一般に、ヘッドマウントディスプレイ1を頭部に装着した場合には、ユーザーの手が最も遠い場合でも1m以上離れることはない。そこで、手の形状における「予め定められた所定の大きさ」とは、例えば、1m以内における手に対応する大きさである。例えば、「予め定められた所定の大きさ」は、パターン認識部201によって手の形状として認識されるパターンの横方向の画素数が、カメラ64の画素数とレンズの画角と手と頭との距離より算出される値として、例えば、手の幅が200画素以上であればユーザーの「手」とする。
また、入力制御部202は、パターン認識部201によって複数の手の形状が認識された場合に、最も大きい手の形状の大きさに応じて、上述の所定の処理を実行させるか否かを制御する。これは、例えば、1m以内に複数の「手」があった場合に、入力制御部202は、最も近くにある手をユーザーの手として判定するためである。
また、入力制御部202は、例えば、画像を表示する表示パネル63に撮像部642によって撮像された画像が表示されている場合に、AF制御部203に手の形状の背景に対して光学系641を合焦させる制御を行う。すなわち、この場合、ユーザーが背景の部分を手によって差し示している可能性が高いため、入力制御部202は、手の形状の背景に対して光学系641を合焦させる制御を行う。ここで、背景とは、表示パネル63に表示されている画像のうちの手の形状を除く領域を示す。
また、入力制御部202は、例えば、画像を表示する表示パネル63に後述するメニュー画面などが表示されており、撮像部642によって撮像された画像が表示されていない場合に、AF制御部203に手(手の形状)に対して光学系641を合焦させる。すなわち、この場合、ユーザーが手によってメニュー選択処理部204により選択処理を行う可能性が高いため、手の形状を詳細に認識する必要があるので、入力制御部202は、手に対して光学系641を合焦させる制御を行う。ここで、手(手の形状)に対して光学系641を合焦させるとは、カメラ64によって撮像された画像内の手の形状の画素位置(画素領域)に合焦する(ピントを合わせる)ように、光学系641を駆動させることである。
また、入力制御部202は、例えば、パターン認識部201によって認識された手の形状に基づいて、手が物を持っている状態か否かを判定する。入力制御部202は、手が物を持っている状態であると判定した場合に、AF制御部203に、手に対して光学系641を合焦させる。この場合、ユーザーは、手に持っている物を指し示している可能性が高いため、入力制御部202は、AF制御部203に手に対して光学系641を合焦させる。
また、入力制御部202は、例えば、パターン認識部201によって複数の手の形状が認識された場合、且つ、左右の手の形状が認識された場合に、目元検出部206によって検出された操作スイッチ30がユーザーに装着されている左右のいずれかの位置に応じて、左右の手の形状のうちのいずれかの手の形状を選択する。入力制御部202は、選択したこの左右のいずれかの手の形状の大きさに応じて、上述の所定の処理を実行させるか否かを制御する。
例えば、ここでヘッドマウントディスプレイ1が図3(A)に示すように右目用で使用されている場合には、タッチスイッチ34や操作スイッチ30なども右側に配置されているため、ユーザーが右利きである可能性が高い。この場合には、例えば、ユーザーの左手は体を支えるなどの用途に使われており、右手は細かな操作及び指示に使われる可能性が高いので、入力制御部202は、右手を優先して選択する。なお、入力制御部202は、右手と左手との認識に手の形や手の掌紋(手のシワ)などに基づいて検出してもよい。
次に、本実施形態におけるヘッドマウントディスプレイ1の動作について説明する。
まず、本実施形態におけるヘッドマウントディスプレイ1の動作を説明する上で前提となるカメラ64(撮像部642)の撮像範囲について、図9及び図10を参照して説明する。
図9は、本実施形態におけるヘッドマウントディスプレイ1の右目装着時の撮像範囲を示す模式図である。
この図において、表示部60は、右目の正面を向いた場合の視線方向に対して角度αの方向の下方に配置されている。この場合、カメラ64の撮像部642は、撮像範囲Qの範囲を撮像する。なお、撮像範囲Pには、右目装着時の上半分の範囲Qと、左目装着時の下半分の範囲Rとが含まれている。
また、図10は、本実施形態におけるヘッドマウントディスプレイ1の左目装着時の撮像範囲を示す模式図である。
この図において、表示部60は、左目の正面を向いた場合の視線方向に対して角度αの方向の下方に配置されている。この場合、カメラ64の撮像部642は、撮像範囲Rの範囲を撮像する。
次に、図11及び図12を参照して、ヘッドマウントディスプレイ1における撮像範囲及び表示範囲の切り替え処理について説明する。
図11は、本実施形態におけるヘッドマウントディスプレイ1の撮像範囲及び表示範囲の切り替えを示す図である。
図11において、撮像範囲Pは、カメラ64の全撮像範囲を示している。ここでは、4対3のアスペクト比を有する撮像部642(撮像素子)を用いて、撮像範囲が縦長になるようにカメラが配置されている。
また、図12は、本実施形態におけるヘッドマウントディスプレイ1の撮像範囲及び表示範囲の切り替え処理を示すフローチャートである。
図12において、まず、ヘッドマウントディスプレイ1の処理部123は、ユーザーがまず右目で表示パネル63を見ていることを想定して、映像(画像)の読み出し範囲(表示範囲)として範囲Qを選択する(ステップS1)。すなわち、処理部123は、図9に示すように、撮像範囲Pにおけるユーザーから見た上の方(上半分)の範囲Qを読み出して、表示制御部205及び表示切替部207により表示パネル63に表示させる。
次に、処理部123は、ユーザーが右目で観察しているか否かを判定する(ステップS2)。ここで、処理部123は、ユーザーが観察している目に関する情報(ユーザーの左右のいずれかに表示部60が装着されているかの情報)を検出する。すなわち、処理部123の目元検出部206は、撮像素子72によってユーザーの瞼を含めた目元を撮影した画像に基づいて、ユーザーが観察している目に関する情報を検出する。
処理部123は、ユーザーが右目で観察していると判定した場合(ステップS2:Yes)に、処理をステップS6に進める。また、処理部123は、ユーザーが右目で観察していない(左目で観察している)と判定した場合(ステップS2:No)に、処理をステップS3に進める。この場合、ユーザーは、図10に示すようにヘッドマウントディスプレイ1を装着していることになる。
次に、ステップS3において、処理部123は、映像(画像)の読み出し範囲(表示範囲)として範囲Rを選択する。範囲Rは、図11における下側の点線で示された枠であるが、図10に示すように左目でヘッドマウントディスプレイ1を使用する場合には、撮像範囲Pにおけるユーザーから見た上の方が読み出されることになる。すなわち、処理部123は、図10に示すように、撮像範囲Pにおけるユーザーから見た上の方(上半分)の範囲Rを読み出して、表示制御部205及び表示切替部207により表示パネル63に表示させる。
次に、処理部123は、撮像範囲Pにおける読み出し範囲の上下を反転させる(ステップS4)。すなわち、処理部123は、カメラ64が180度回転していることから、読み出し範囲におけるカメラの映像(画像)を180度回転させる。
次に、処理部123は、表示画像を180度回転させる(ステップS5)。すなわち、処理部123の表示切替部207は、目元検出部206によって検出されたユーザーが観察している目に関する情報に応じて、表示制御部205から供給された画像を180度回転させるか否かを切り替える。表示切替部207は、切り替えた画像データを、デコーダー121を介してLCDドライバ125に供給することにより、表示パネル63に表示させる。
次に、処理部123は、被写体までの測距値とズーム値とに応じて、画像の読み出し範囲を変更する(ステップS6)。すなわち、処理部123は、被写体とカメラのズーム倍率に応じて、撮像範囲Pのうちの画像の読み出し範囲(表示範囲)を変更する。例えば、表示部60が右目で観察されている場合(ヘッドマウントディスプレイ1を右目で使用している場合)には、処理部123は、図11に示す読み出し範囲Qを表示パネル63に表示させている。この場合においてユーザーが被写体の一部を拡大するズーミング指示を操作スイッチ30などによって行った場合に、処理部123は、まず、被写体までの距離を、カメラ64を用いた公知の測距技術により測距する。処理部123は、被写体までの距離が十分に遠い場合には、遠方を見る人間の目も顔の正面を見ているので、読み出し範囲として画面の中央の範囲S(図11)を読み出し、表示パネル63に表示させる。また、処理部123は、被写体までの距離が極近い場合には、人の目は中央に寄ることから、範囲T(図11)を読み出し、表示パネル63に表示させる。なお、処理部123は、この読み出し範囲Tから範囲Sまでを被写体までの距離に応じてほぼ連続的に変化させる。
また、処理部123は、広い範囲を映したい場合、すなわちズーミングがワイド側にあり、範囲Qを読み出している場合には、特に読み出し範囲の移動は行わない。
また、例えば、表示部60が左目で観察されている場合(ヘッドマウントディスプレイ1を左目で使用している場合)には、処理部123は、図11に示す読み出し範囲Rを表示パネル63に表示させている。この場合においても上記と同様に、処理部123は、被写体がズーミングされて被写体までの距離が十分に遠い場合には範囲U(図11)を読み出し、また、被写体までの距離が極近い場合には範囲V(図11)を読み出し、表示パネル63に表示させる。
このように、本実施形態におけるヘッドマウントディスプレイ1は、ユーザーが見ている範囲と、カメラ64によって撮像される範囲との差異を低減し、使用時に違和感のない使い易い(利便性のよい)システムを提供することができる。
次に、処理部123は、スピーカー(第1スピーカー103、第2スピーカー104)の左右の音を設定する(ステップS7)。すなわち、処理部123は、上述したユーザーが観察している目に関する情報(ユーザーの左右のいずれかに表示部60が装着されているかの情報)に応じて、スピーカー(第1スピーカー103、第2スピーカー104)の左右の音を設定する。
次に、処理部123は、ステレオマイク(集音マイク105、集音マイク24)の左右の音を設定する(ステップS8)。すなわち、処理部123は、上述したユーザーが観察している目に関する情報(ユーザーの左右のいずれかに表示部60が装着されているかの情報)に応じて、ステレオマイク(集音マイク105、集音マイク24)の左右の音を設定する。
図9〜図12を参照して説明したように、本実施形態におけるヘッドマウントディスプレイ1は、ディスプレイ本体20や表示部60をユーザーの目の正面に配置する必要がなく、正面よりも下に配置することができるので通話マイク37を口の比較的近傍に配置することが可能である。このため、本実施形態におけるヘッドマウントディスプレイ1は、音声を明瞭に記録することができる。
また、本実施形態におけるヘッドマウントディスプレイ1は、右目で表示部60を観察する場合及び左目で表示部60を観察する場合のいずれの場合においても、適切な範囲を読み出して表示パネル63に表示させることができる。そのため、本実施形態におけるヘッドマウントディスプレイ1は、利便性の高いシステムを提供することができる。さらに、本実施形態におけるヘッドマウントディスプレイ1は、被写体までの距離が近い場合にも、ユーザーが観察する方向とカメラ64の撮影範囲の中心が一致するので、パララックスの無い使い易いシステムを提供することができる。
次に、ヘッドマウントディスプレイ1が備えている入力装置200の動作について説明する。
図13A及び図13Bは、本実施形態における入力装置200の処理を示すフローチャートである。
この図において、まずはカメラ64が図14(B)に示すように、横長の範囲の画像G2を撮影しており、その全ての撮影範囲が読み取られて、表示部60の表示パネル63に表示される場合について説明する。
まず、入力装置200は、カメラ64からの画像が表示されているか否かを判定する(ステップS101)。すなわち、処理部123の入力制御部202は、カメラ64の撮像部642によって撮像された画像が、表示部60の表示パネル63に表示されているか否かを判定する。入力制御部202は、撮像部642によって撮像された画像が表示部60の表示パネル63に表示されている場合(ステップS101:Yes)に、処理をステップS102に進める。また、入力制御部202は、撮像部642によって撮像された画像が表示部60の表示パネル63に表示されていない場合(ステップS101:No)に、処理をステップS116に進める。なお、撮像部642によって撮像された画像が表示部60の表示パネル63に表示されていない場合には、表示パネル63は、例えば、図14(A)に示すようなメニューアイコンI1〜I9などを含む画像G1が表示されている。ここで、この画像G1は、カメラ64によって撮像された画像に依存しない画像である。
ステップS116において、入力装置200は、カメラ64によって撮像された画像に予め定められた所定以上の大きさの手があるか否かを判定する。すなわち、入力装置200は、カメラ64においてユーザーの「手」が認識できるか否かを手の大きさによって判定する。この場合、まず、例えば、処理部123のパターン認識部201は、撮像部642によって撮像された画像に含まれる人の手を認識し、認識した手に関する情報を入力制御部202に供給する。なお、ここでは、人の手に合焦されていなくてもよく、大雑把に手をパターン認識部201が認識できればよい。入力制御部202は、パターン認識部201から供給された手に関する情報に基づいてユーザーの「手」が認識できるか否かを判定する。例えば、入力制御部202は、パターン認識部201によって手として認識されるパターンの横方向の画素数が、カメラ64の画素数とレンズの画角と手と頭との距離より算出される値として、例えば、手の幅が200画素以上(例えば、1m以内の手)であればユーザーの「手」と判定する。
入力制御部202は、手の形状の大きさが予め定められた所定の大きさ以上である場合(ステップS116:Yes)に、処理をステップS117に進める。また、入力制御部202は、手の形状の大きさが予め定められた所定の大きさ未満である場合(ステップS116:No)に、処理を終了させる。
次に、ステップS117において、入力装置200は、至近の「手」にピントを合わせる。すなわち、入力制御部202は、AF制御部203に至近の手の形状に対して光学系641を合焦させる。これは、入力制御部202は、1m以内に複数の「手」があった場合に、最も近くにある手をユーザーの「手」として判定するためである。
さらに、入力制御部202は、ユーザーの右手と左手の両方が存在される場合には、いずれかの手を優先させる。ここで、ヘッドマウントディスプレイ1が図3(A)のように右目用で使用されている場合には、タッチスイッチ34、操作スイッチ30なども右側に配置されており、ユーザーが右利きである可能性が高い。この場合には、ユーザーの左手は体を支えるなどの用途に使われており、右手は細かな操作及び指示に使われる可能性が高いので、入力制御部202は、右手を優先してピントを合わせる(AF制御部203によって光学系641を合焦させる)。
次に、入力装置200は、公知のパターン認識の処理によって手の形を認識する(ステップS118)。すなわち、パターン認識部201は、公知のパターン認識の処理によって手の形を認識し、認識した手の形状に関する情報を入力制御部202に供給する。
次に、入力装置200は、操作スイッチ30等の操作部が操作されているか否かを検出する(ステップS119)。すなわち、入力制御部202は、操作スイッチ30等の操作部が操作されているか否かを検出する。入力制御部202は、操作スイッチ30等が操作されている場合(ステップS119:Yes)に、ユーザーの手が操作スイッチ30等に置かれているはずであるから、他人の手が写っている可能性もあるので、操作スイッチ30等の操作を優先し、処理をステップS120に進める。また、入力制御部202は、操作スイッチ30等が操作されていない場合(ステップS119:No)に、処理をステップS121に進める。
ステップS120において、入力装置200は、操作スイッチ30等が操作された場合の所定の表示を表示パネル63に行い、操作スイッチ30等が操作された場合の操作に従った処理を行う。
一方、操作スイッチ30等の操作が無い場合にはステップS121において、入力装置200は、人差し指の位置に対応して画面にカーソル(図14(A)のカーソルM1)を重畳表示する。すなわち、入力制御部202は、例えば、図14(B)に示すように、表示制御部205に対して、人差し指の長さを2倍した人差し指の延長方向に対応する位置P1に対応する箇所に図14(A)に示すところのカーソルM1を表示させる。ここでは、カーソルM1によって封筒のアイコンI8が選択されていることが分かる。
ここで、カメラ64には、図14(B)に示すようにユーザーの手H1が撮影されており、入力制御部202は、パターン認識によって破線で示すように、ユーザーの人差し指の延長線上であって、画面上で測定できる人差し指の長さL1を約2倍延長した位置P1(指先から距離L2の位置)を計算する。入力制御部202は、表示制御部205に対して、位置P1に対応する表示パネル63の画像上の位置に、図14(A)で示すように、カーソルM1を表示させる。
なお、入力制御部202は、下記の式(1)及び式(2)に基づいて、位置P1を算出する。
X3=X1+2×(X1−X2) ・・・(1)
Y3=Y1+2×(Y1−Y2) ・・・(2)
ここで、変数X1及び変数Y1は図14(B)における人差し指の先端の座標(X1,Y1)に対応し、変数X2及び変数Y2は人差し指の根もとの座標(X2、Y2)に対応する。また、変数X3及び変数Y3は位置P1の座標であり、すなわちカーソルM1の座標(X3,Y3)に対応する。
例えば、カメラ64の光軸に略平行に人差し指を向けた場合には、カメラ64には人差し指が短く写るので、カーソルM1は、人差し指先端の近傍となる。また、例えば、カメラ64の光軸と直交するように人差し指を置いた場合には、最も離れた箇所にカーソルM1が表示される。このように、人差し指の位置、傾き、及び方向をユーザーが変えることで、自由に画面内の位置を指示(ポインティング)することが可能である。
なお、ここでは、図14(A)に示すようなメニュー画面G1を表示パネル63に表示しているので、入力装置200は、図14(B)に示すカメラ64の画像G2を表示パネル63に表示させることはない。
次に、入力装置200は、カーソルM1がアイコン(例えば、アイコンI8)の上で所定の時間だけ静止したか否かを判定する(ステップS122)。すなわち、メニュー選択処理部204は、入力制御部202から取得したカーソルM1の位置情報に基づいて、カーソルM1がアイコンの上で所定の時間だけ静止したか否かを判定する。メニュー選択処理部204は、カーソルM1がアイコンの上で所定の時間だけ静止したと判定された場合(ステップS122:Yes)に、処理をステップS123に進める。また、メニュー選択処理部204は、カーソルM1がアイコンの上で所定の時間静止していないと判定された場合(ステップS122:No)に、処理を終了させる。
ステップS123において、入力装置200は、アイコンが選択された場合に対応する所定の処理を行う。すなわち、メニュー選択処理部204は、例えば、封筒のアイコンI8を選択し、処理部123は、選択された封筒のアイコンI8に対応する処理を実行する。
なお、メニュー選択処理部204は、親指と人差し指を特定のパターンに形成したり、その形を変化させたりすることを検出することにより、メニュー選択などの操作を行うことも可能である。例えば、メニュー選択処理部204は、メニュー画面などで「YES/NO」などの2択の選択を迫られた場合にも、ユーザーがあえて一方の選択肢を選ばすに、親指と人差し指とで作ったOKサインを検出することにより設定(選択)を行ってもよい。
このように、手にピントがあっている場合には、細かい手の動きをカメラ64で読み取ることが可能であるため、入力装置200は、指のパターンの詳細な読み取りが可能となっており、図14(A)に示すような細かなアイコンの選択が可能となっている。そのため、入力制御部202は、手の形状に対して光学系641を合焦させる場合に、メニュー選択処理部204によって選択可能な操作メニューの数を、後述する手の形状の背景に対して光学系641を合焦させる場合よりも多く表示パネル63に表示させる。
次に、カメラ64からの画像が表示されている場合について説明する。
ステップS102において、入力装置200は、ステップS116と同様に、カメラ64によって撮像された画像に予め定められた所定以上の大きさの手があるか否かを判定する。すなわち、入力制御部202は、パターン認識部201から供給された手に関する情報に基づいて手の形状の大きさが予め定められた所定の大きさ以上であるか否かを判定する。入力制御部202は、手の形状の大きさが予め定められた所定の大きさ以上である場合(ステップS102:Yes)に、処理をステップS104に進める。また、入力制御部202は、手の形状の大きさが予め定められた所定の大きさ未満である場合(ステップS102:No)に、処理をステップS103に進める。
次に、ステップS103において、入力装置200は、至近の被写体に焦点と露出とを合わせる。すなわち、入力制御部202は、AF制御部203に至近の被写体に対して光学系641を合焦させる制御を行い、処理部123は、カメラ64に対して至近の被写体に露出を合わせる制御を行う。なお、極至近(例えば、5cmなど指が入らない距離)の被写体などで光学系641の制約によってピントを合わせることが不可能な被写体などは、レンズ上のゴミの可能性もあるので、入力制御部202は、AF制御部203に次に合焦可能な至近の被写体に合焦させる。また、入力制御部202は、いわゆる顔認識技術によって人物を検出した場合には、人物にピントを合わる制御を行ってもよい。また、AF制御部203は、ピント合わせ(合焦)については公知の手段を用いる。入力制御部202は、至近の被写体に合焦させる制御を行った後、処理をステップS114に進める。
一方、ステップS102で手の大きさが所定以上であると判断された場合、ステップS104において、入力装置200は、手に物を持っているか否かを判定する。すなわち、入力制御部202は、例えば、パターン認識部201によって認識された手の形状に基づいて、手が物を持っているか否かを判定する。入力制御部202は、手が物を持っていると判定した場合(ステップS104:Yes)に、処理をステップS105に進め、手が物を持っていないと判定した場合(ステップS104:No)に、処理をステップS106に進める。
次に、ステップS105において、入力装置200は、手の近傍の被写体に焦点を合わせる。この場合、ユーザーが手に物を持っていて、それがカメラ64に写っている場合には、手に持っている物が他の通信端末(他の機器)にも伝えたい物であると推定できる。そのため、入力制御部202は、手が物を持っている状態であると判定した場合に、AF制御部203に、手の形状又は手の近傍の被写体に対して光学系641を合焦させる。入力制御部202は、手の形状又は手の近傍の被写体に合焦させる制御を行った後、処理をステップS109に進める。
一方、ステップS106において、入力装置200は、ユーザーの手を避けて背景に焦点を合わせる。この場合、ユーザーが背景の部分を手によって差し示している可能性が高いため、入力制御部202は、手の形状の背景に対して光学系641を合焦させる制御を行う。これは、例えば、図15に示すように、幾つかある商品の中から一つを指し示すような場合において、手にピントが合った画像を他者に伝えるよりも、背景にピントの合った画像を伝えることが重要だからである。このことで、入力装置200は、情報(画像など)を伝達する相手にとってわかり易いコミュニケーションを取ることが可能になる。
なお、他の通信端末に画像を送信する際に、例えば、VGA(Video Graphics Array:640×480画素)などの低解像度で送信を行っている場合、且つ、カメラ64の被写界深度と解像度との関係により手に合焦していても背景がボケないと判定される場合には、入力装置200は、ステップS106の処理をスキップしてもよい。また、入力装置200は、他の通信端末に画像を送信する際の解像度が高い(例えば、800×600画素やハイビジョン(1080i)など)場合のみに、ステップS106の処理を実行してもよい。
次に、入力装置200は、複数の手が存在した場合を想定して、最も大きな手のパターン(手の形状)を認識する(ステップS107)。すなわち、入力制御部202は、パターン認識部201から供給された手に関する情報に基づいて、最も大きな手の形状を認識する。ここで、最も大きな手を認識するのは、複数の手が画面内に存在した場合に、最も大きな手が最も至近にあり、それがユーザーの手である可能性が高いためである。
なお、ステップS116では至近の手を認識していたが、ステップS107においては手に対してのピント合わせを行っていないため、複数の手があってもどれが至近の手であるか判定できない。そのため、入力制御部202は、最も大きな手をユーザーの手として判定(認識)する。また、右手と左手とが検出された場合の処理は、ステップS117と同様である。
次に、入力装置200は、最も大きな手の輪郭を強調する(ステップS108)。すなわち、入力制御部202は、認識した手のパターンの輪郭を強調して、表示制御部205に表示させる。これはピントが合っていない手を少しでもハッキリ表示するための処理である。また、入力制御部202は、手が背景に紛れて見難い場合には、手の輪郭を赤色などで強調してもよい。
次に、入力装置200は、ステップS119と同様に、操作スイッチ30等の操作部が操作されているか否かを検出する(ステップS109)。入力制御部202は、操作スイッチ30等が操作されている場合(ステップS109:Yes)に、操作スイッチ30等の操作を優先し、処理をステップS110に進める。また、入力制御部202は、操作スイッチ30等が操作されていない場合(ステップS109:No)に、処理をステップS111に進める。
ステップS110において、ステップS120と同様に、入力装置200は、操作スイッチ30等が操作された場合の所定の表示を表示パネル63に行う等、操作スイッチ30等が操作された場合の操作に従った処理を行う。
一方、ステップS111において、入力装置200は、人差し指を検出し、検出した人差し指の先にカーソル(図15のカーソルM2)を表示パネル63に表示させる。ここで、入力制御部202は、パターン認識部201から供給された手に関する情報に基づいて、予め定められた所定の指(例えば、人差し指)を検出する。入力制御部202は、例えば、図15に示すように、検出した人差し指の先端から当該指の長さを所定の係数倍(例えば、2倍)して延長した位置にカーソルM2を、表示制御部205に対して表示させる。
なお、図15において、画像G3は、カメラ64(撮像部642)によって撮像されている画像を示し、手の形状H2は、カメラ64(撮像部642)によって撮像されている手を示している。
次に、入力装置200は、カーソルが示す背景に焦点と露出とを合わせる(ステップS112)。例えば、入力制御部202は、図15のカーソルM2が示すところの背景の近傍に対して、AF制御部203に光学系641を合焦させる制御を行い、処理部123は、カメラ64に対してカーソルM2が示す背景の近傍に露出を合わせる制御を行う。すなわち、入力制御部202は、検出した人差し指の先端から当該指の長さを所定の係数倍(例えば、2倍)して延長した位置の背景に対して光学系641を合焦させる。このことで、手前の指ではなく背景を鮮明に撮像することが可能になるので、ヘッドマウントディスプレイ1は、通信を行っている他の通信端末に対しても明瞭な画像(明確な画像)を表示させることができる。そのため、入力装置200は、コミュニケーションのミスが発生する可能性を低減することが可能である。
次に、入力装置200は、操作に応じてカーソル/軌跡を表示パネル63に表示させる(ステップS113)。すなわち、入力制御部202は、表示制御部205に対して、所定の指(例えば、人差し指)の動きに応じてカーソルを引き続き表示させるか、あるいはカーソルの軌跡を表示させる。
なお、この場合には、指に厳密にピントが合っていないので、細かな指の動作に基づいてヘッドマウントディスプレイ1を制御することは難しい。よって、入力装置200は、指に合焦していない場合に、指の画像認識で制御可能なメニューに限定した入力制御を行う。ここでは、指の画像認識で制御可能なメニューは、例えば、カーソルの表示の他、線画を描くなどの限定された項目である。
次に、ヘッドマウントディスプレイ1(入力装置200を含む)は、通信を行っている他の通信端末に対して逐次画像を送信する(ステップS114)とともに、表示パネル63にも上述の入力制御の結果を表示する(ステップS115)。入力装置200は、ステップS115の処理後に処理を終了する。なお、本実施形態において、入力装置200は、この入力制御の処理(ステップS101からステップS123の処理)を繰り返し実行する。
次に、ヘッドマウントディスプレイ1がカメラ64の画像を上下に分けて使用する場合の一例について説明する。
図12のフローチャートにおいて、カメラ64の読み出し領域として上半分を使用する一例を説明したが、図16では、図3(A)に示すように、右目で表示を観察している状態を示している。図16において、ヘッドマウントディスプレイ1と通信相手の他の通信端末とは、カメラ64の撮像範囲Pのうちの範囲Qの画像を表示パネル63に表示する。また、ヘッドマウントディスプレイ1(入力装置200)は、範囲Rをユーザーの手の認識用の領域として使用する。この場合、表示パネル63の表示画面には、図15に示すようなユーザーの手H3が写り込まずに、カーソルM3のみが表示される。
また、上述のように、ヘッドマウントディスプレイ1(入力装置200)は、指の長さの延長上を計算してカーソルを置いてもよいが、範囲Rにおける人差し指の先部の位置P2を検出し、人差し指の長さを2倍程度まで拡大し、範囲Qで撮像された画像に重畳してカーソルM3を表示してもよい。この場合においても、入力装置200は、ユーザーの手にはピントを合わせず、カーソルM3が示す背景に焦点を合焦させる。
なお、図16は、撮影画像に対してカーソルを表示する一例を示しているが、図14(A)に示すようなアイコンの選択において、範囲Rの領域を手のパターン認識用に用いてもよい。この場合には、入力装置200は、上述したようにユーザーの手に焦点を合焦させる。
また、図3(B)に示すように、左目で表示を観察している場合は、ヘッドマウントディスプレイ1(入力装置200)は、背景画像の読み取り領域が範囲Rに、また、手のパターン認識用の領域が範囲Qに変更する。また、この場合、カメラ64が180度回転して使用されることになるため、処理部123は、図12に示すように表示パネル63への表示を180度回転するとともに、指の移動方向の認識も180度回転させる。
このように、ヘッドマウントディスプレイ1(入力装置200)は、カメラ64によって撮像された画像において、表示に使用しない領域を手のパターン認識に用いる。これにより、ヘッドマウントディスプレイ1(入力装置200)は、図15に示すように画面中にユーザーの手が映り込むことが無くなり、背景の映像が見やすくなると言う利点がある。さらに、ヘッドマウントディスプレイ1(入力装置200)は、指示するための指を目の正面まで高く上げる必要がなく、図10に示すように、範囲Qに示される画角の範囲に手があればよいので、手が疲れることなく使いやすいシステムを提供することができる。
また、ヘッドマウントディスプレイ1(入力装置200)は、ユーザーが図17に示すように表示領域である範囲Q内に手H4をもって行った場合に、画像中にユーザーの手を表示することも可能である。この場合には、ユーザーが人差し指で画面上の一点を指示するだけではなく、両手や複数の指を使って様々な情報を相手に伝えたい場合が想定される。そこで、この場合には、手の形の情報が重要であるから、ヘッドマウントディスプレイ1(入力装置200)は、指先のポイントを表示するカーソルを消す(表示させない)制御を行ってもよい。このことにより、ヘッドマウントディスプレイ1は、情報を受信する他の通信端末にとって分かりやすい情報を送ることが可能になる。
さらに、例えば、夕方などの手と背景のコントラストが低くなる場合には、ヘッドマウントディスプレイ1は、図18に示すように手H5の指先にカーソルM4を表示することで指先の位置を見やすく表示してもよい。
以上説明したように、本実施形態における入力装置200は、撮像部642が光学系641によって結像された画像を撮像し、パターン認識部201が撮像部642によって撮像された画像に含まれる予め定められた所定の形状(例えば、手の形状)を認識する。入力制御部202は、パターン認識部201によって認識された所定の形状の大きさに応じて、予め定められた所定の処理(例えば、合焦処理やメニュー選択処理)を実行させるか否かを制御する。
これにより、本実施形態における入力装置200は、所定の形状(例えば、手の形状)の大きさに応じて、所定の処理の操作を指示する物(例えば、ユーザーの手)を認識し、認識した例えばユーザーの手の動作により、所定の処理を実行させるか否かを制御することができる。そのため、ユーザーは、所定の形状を撮像部642に撮像させることで、容易に所定の処理の操作を指示することができる。よって、本実施形態における入力装置200は、利便性を向上させることができる。なお、本実施形態における入力装置200は、手や指の奥行き方向の位置を正確に検出する必要はなく、所定の形状の大きさにより所定の処理の実行を制御するので、所定の処理を実行させる上で利便性を向上させることができる。
また、本実施形態では、入力制御部202は、所定の形状の大きさが予め定められた所定の大きさ以上である場合に、所定の処理を実行させる。所定の大きさは、撮像部642によって撮像される画像において、撮像部642から予め定められた所定の距離(例えば、1m)に対応する所定の形状の大きさに基づいて定められている。例えば、所定の形状を手の形状とした場合に、ユーザの手は1m以内になる。そのため、入力制御部202は、1m以内に対応する手の形状をユーザーの手と判定し、所定の処理を実行させる。
これにより、入力装置200は、ユーザーが操作を指示するために用いる所定の形状(例えば、ユーザーの手)を正確に検出することができるので、例えば、他人の手により誤操作されることを低減することができる。よって、本実施形態における入力装置200は、利便性を向上させることができる。
また、本実施形態では、入力制御部202は、パターン認識部201によって複数の所定の形状が認識された場合に、認識された複数の所定の形状のうちの最も大きい所定の形状の大きさに応じて、所定の処理を実行させるか否かを制御する。すなわち、入力制御部202は、複数の手の形状が認識された場合に、最も大きい手の形状の大きさに応じて、所定の処理を実行させるか否かを制御する。
これにより、入力装置200は、ユーザーが操作を指示するために用いる所定の形状(例えば、ユーザーの手)を簡易な手段により、正確に検出することができる。
また、本実施形態における入力装置200は、光学系641を駆動して撮像部642に合焦させるAF制御部203を備えている。すなわち、入力装置200は、光学系641からの像を撮像部642に合焦させるAF制御部203を備えている。そして、上述の所定の処理は、AF制御部203に光学系641を合焦させる処理を含む。
これにより、ユーザーは、所定の形状を撮像部642に撮像させることにより、AF制御部203により合焦処理を指示(操作)することができる。そのため、本実施形態における入力装置200は、利便性を向上させることができる。
また、本実施形態では、入力制御部202は、撮像部642によって撮像された画像が表示パネル63に表示されているか否かに応じて、AF制御部203に光学系641を合焦させる処理を変更する。例えば、入力制御部202は、表示パネル63に撮像部642によって撮像された画像が表示されている場合に、AF制御部203に表示パネル63に表示されている画像のうちの所定の形状を除く領域を示す背景に対して光学系641を合焦させる。
これにより、本実施形態における入力装置200は、例えば、情報(画像など)を伝達する相手にとってわかり易いコミュニケーションを取ることが可能になる。そのため、本実施形態における入力装置200は、利便性を向上させることができる。
また、本実施形態では、入力制御部202は、表示パネル63に撮像部642によって撮像された画像が表示されていない場合に、AF制御部203に所定の形状に対して光学系641を合焦させる。
これにより、本実施形態における入力装置200は、例えば、メニュー選択などを行う場合に、所定の形状(例えば、ユーザーの手)の動作や形状を正確に認識することが可能になる。そのため、本実施形態における入力装置200は、利便性を向上させることができる。
また、本実施形態における入力装置200は、所定の形状の位置に応じて、少なくとも1つの操作メニューを選択可能なメニュー選択処理部204を備えている。そして、所定の処理は、メニュー選択処理部204による操作メニューを選択する処理を含む。
これにより、ユーザーは、所定の形状を撮像部642に撮像させることにより、メニュー選択処理部204による操作メニューを選択する処理を行うことができる。そのため、本実施形態における入力装置200は、利便性を向上させることができる。
また、本実施形態では、入力制御部202は、所定の形状に対して光学系641を合焦させる場合に、メニュー選択処理部204によって選択可能な操作メニューの数を、所定の形状の背景に対して光学系641を合焦させる場合よりも多く表示パネル63に表示させる。
これにより、所定の形状(例えば、ユーザーの手)の動作や形状を正確に認識する場合に、操作メニューの数を多くするので、本実施形態における入力装置200は、適切に操作メニューを選択する処理を行うことができる。そのため、本実施形態における入力装置200は、利便性を向上させることができる。
また、本実施形態では、上述の所定の形状は、手の形状に基づいて定められている。
これにより、ユーザーは、手を撮像部642に撮像させることにより、ヘッドマウントディスプレイ1を操作することができる。そのため、本実施形態における入力装置200は、利便性を向上させることができる。
また、本実施形態における入力装置200は、ユーザーの身体における右側及び左側のいずれかの位置に装着可能な操作部であって、入力装置200を操作する操作スイッチ30と、操作スイッチ30がユーザーに装着されている位置を検出する目元検出部206と、を備えている。所定の形状は、手の形状に基づいて定められており、入力制御部202は、パターン認識部201によって複数の手の形状が認識された場合、且つ、左手の形状と右手の形状とが認識された場合に、目元検出部206によって検出された操作スイッチ30がユーザーに装着されている右側及び左側のいずれかの位置に応じて、左手の形状と右手の形状とのうちのいずれかの手の形状を選択する。そして、入力制御部202は、選択した手の形状の大きさに応じて、上述の所定の処理を実行させるか否かを制御する。
これにより、ユーザーが左右の手のうちの操作に使用する手を検出するので、本実施形態における入力装置200は、ユーザーの手による使い易い操作が可能となる。
また、本実施形態では、入力制御部202は、パターン認識部201によって認識された手の形状に基づいて、手が把持している(手が物を持っている)状態か否かを判定し、手が把持している(手が物を持っている)状態であると判定した場合に、AF制御部203に、把持している手に対して光学系641を合焦させる。ユーザーが手に物を持っていて、それがカメラ64に写っている場合には、手に持っている物が他の通信端末にも伝えたい物であると推定できる。そのため、本実施形態における入力装置200は、このような場合に、把持している手に対して合焦させるので、例えば、情報(画像など)を伝達する相手にとってわかり易いコミュニケーションを取ることが可能になる。
また、本実施形態では、入力制御部202は、AF制御部203に手の形状の背景に対して光学系641を合焦させる場合に、予め定められた所定の指(例えば、人差し指)の先端から当該指の長さを所定の係数倍して延長した位置の背景に対して光学系641を合焦させる。すなわち、入力制御部202は、AF制御部203に背景に対して光学系641を合焦させる場合に、予め定められた所定の指(例えば、人差し指)を延長した位置に対応する背景に対して光学系641を合焦させる。
これにより、ユーザーは、画像内に指し示したい対象物を操作性よく指し示すことができる。そのため、本実施形態における入力装置200は、例えば、情報(画像など)を伝達する相手にとってわかり易いコミュニケーションを取ることが可能になる。
なお、本実施形態におけるヘッドマウントディスプレイ1(表示装置)は、上述の入力装置200と、少なくとも撮像部642によって撮像された画像を表示する表示パネル63と、少なくとも撮像部642及び表示パネル63をユーザーの頭部に装着するヘッドバンド40と、を備えている。
これにより、本実施形態におけるヘッドマウントディスプレイ1は、上述した入力装置200を備えているので、上述した入力装置200と同様の効果を奏し、利便性を向上させることができる。
なお、本発明は、上記の各実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で変更可能である。
例えば、上記の各実施形態において、所定の形状が手の形状である形態について説明したが、これに限定されるものではない。例えば、図19に示すように、所定の形状が、入力装置200を操作するためのリモコン140の形状であってもよい。すなわち、所定の形状が、リモコン140の形状に基づいて定められていてもよい。図19において、画像G4は、撮像部642によって撮像されている画像を示している。リモコン140には3つのインジケーター143a〜143cが設けられていて、このインジケーターの発光をカメラ64で捕らえることにより、ユーザーの手の代用とすることが可能である。入力制御部202は、手の場合と同様に、リモコン140のインジケーター143a〜143cによって指し示される位置P3において、所定の処理(例えば、合焦処理やメニュー選択処理)を制御する形態でもよい。インジケーター143a〜143cは発光させることができるので、入力装置200は、撮像画像が暗い場合であっても、正確に操作することができる。すなわち、入力装置200は、リモコン140のインジケーター143a〜143cの発光を用いる場合、暗いところでもパターンをハッキリと認識することが可能であり、暗いところでも使いやすいシステムが提供できる。
また、図19では3つのインジケーター143a〜143cを使用することで座標認識の精度を向上させているが、インジケーターが2つであってもよいし、4つ以上であってもよい。
また、上記の各実施形態において、ヘッドマウントディスプレイ1が右側及び左側のいずれの側(位置)に装着されているのかを撮像素子72及び目元検出部206によって判定する形態を説明したが、これに限定されるものではない。ヘッドマウントディスプレイ1は、例えば、ヘッドバンド40に対するディスプレイ本体20の角度に基づいて、右側及び左側のいずれの側(位置)に装着されているのかを判定してもよい。また、ヘッドマウントディスプレイ1は、不図示の設定手段をユーザーが操作することで設定してもよい。また、ヘッドマウントディスプレイ1は、例えば、加速度センサー132によって測定される重力の方向より、右側及び左側のいずれの側(位置)に装着されているのかを判定してもよい。
また、カメラ64における読み取り領域の変更は、電子的な手法に限定されるものではなく、ユーザーの両耳を結ぶ軸に略平行な回転軸周りに機械的にカメラ64を回転させてもよい。この場合には、ユーザーが不図示のノブを回してカメラ64の方向を設定することが可能である。
また、上記の各実施形態において、AF制御部203は、光学系641を駆動して合焦させる形態を説明したが、撮像部642を移動させて合焦させる形態でもよい。
また、上記の各実施形態において、ユーザーが、所定のパターンを印刷した手袋等を事前に装着しておき、その色や印刷されたパターンに基づいて、入力装置200が他の手と異なることを認識する形態でもよい。さらに、右手用の手袋と左手用の手袋で、表面に印刷するパターンを変えることで、右手と左手との認識を容易にすることも可能である。この場合、手袋の手の甲に位置するところに、例えばQRコード(登録商標)を印刷するとともに、指先の認識が容易なように、各指の先端に例えば「▲」マークを印刷してもよい。
上述のヘッドマウントディスプレイ1及び入力装置200は内部に、コンピュータシステムを有している。そして、上述した入力装置200の処理過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリー等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしてもよい。
1…ヘッドマウントディスプレイ、30…操作スイッチ、40…ヘッドバンド、63…表示パネル、64…カメラ、123…処理部、140…リモコン、200…入力装置、201…パターン認識部、202…入力制御部、203…AF制御部、204…メニュー選択処理部、206…目元検出部、641…光学系、642…撮像部

Claims (10)

  1. 撮像部によって撮像された画像から対象物を検出する検出部と、
    前記検出部によって検出された前記対象物の大きさに基づき、前記撮像部の焦点調節部を制御するとともに、前記検出部によって検出された前記対象物の位置に基づく指示位置を、操作を設定するための複数の画像が表示されている表示部に表示させる制御部と、
    を備える電子機器。
  2. 前記制御部は、前記対象物の大きさが所定の大きさ以上であると、前記撮像部の焦点調節部を制御する請求項1に記載の電子機器。
  3. 前記制御部は、前記検出部によって複数の前記対象物が検出されると、最も大きい前記対象物の大きさに基づき、前記撮像部の焦点調節部を制御する請求項1又は請求項2に記載の電子機器。
  4. 前記制御部は、前記撮像部の焦点調節部を制御することにより前記撮像部の光学系を前記対象物に合焦させる請求項1から請求項3のいずれか一項に記載の電子機器。
  5. 前記制御部は、前記操作を設定するための複数の画像のうちの前記指示位置の画像に基づく操作を選択する請求項1から請求項4のいずれか一項に記載の電子機器。
  6. 前記制御部は、選択された前記操作を実行する請求項に記載の電子機器。
  7. 前記制御部は、前記表示部の前記指示位置にマークを表示させる請求項から請求項のいずれか一項に記載の電子機器。
  8. 前記対象物は、手である請求項1から請求項のいずれか一項に記載の電子機器。
  9. 前記撮像部と前記表示部とを備える請求項1から請求項のいずれか一項に記載の電子機器。
  10. 請求項から請求項8のいずれか一項に記載の電子機器と、
    前記撮像部及び前記表示部を頭部に装着する装着部と、
    を備える表示装置。
JP2012055864A 2012-03-13 2012-03-13 電子機器、及び表示装置 Active JP6136090B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012055864A JP6136090B2 (ja) 2012-03-13 2012-03-13 電子機器、及び表示装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012055864A JP6136090B2 (ja) 2012-03-13 2012-03-13 電子機器、及び表示装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017092307A Division JP6719418B2 (ja) 2017-05-08 2017-05-08 電子機器

Publications (2)

Publication Number Publication Date
JP2013190925A JP2013190925A (ja) 2013-09-26
JP6136090B2 true JP6136090B2 (ja) 2017-05-31

Family

ID=49391118

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012055864A Active JP6136090B2 (ja) 2012-03-13 2012-03-13 電子機器、及び表示装置

Country Status (1)

Country Link
JP (1) JP6136090B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10394330B2 (en) * 2014-03-10 2019-08-27 Qualcomm Incorporated Devices and methods for facilitating wireless communications based on implicit user cues
JP6340301B2 (ja) 2014-10-22 2018-06-06 株式会社ソニー・インタラクティブエンタテインメント ヘッドマウントディスプレイ、携帯情報端末、画像処理装置、表示制御プログラム、表示制御方法、及び表示システム
US10477090B2 (en) 2015-02-25 2019-11-12 Kyocera Corporation Wearable device, control method and non-transitory storage medium
JP6483514B2 (ja) * 2015-04-28 2019-03-13 京セラ株式会社 ウェアラブル装置、制御方法及び制御プログラム
WO2018185830A1 (ja) * 2017-04-04 2018-10-11 株式会社オプティム 情報処理システム、情報処理方法、情報処理装置、及びプログラム
JP2018160249A (ja) * 2018-05-14 2018-10-11 株式会社ソニー・インタラクティブエンタテインメント ヘッドマウントディスプレイシステム、ヘッドマウントディスプレイ、表示制御プログラム、及び表示制御方法
JP6717393B2 (ja) * 2019-01-08 2020-07-01 株式会社ニコン 電子機器

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0784715A (ja) * 1993-09-10 1995-03-31 Hitachi Ltd 情報処理装置
JPH086078A (ja) * 1994-06-22 1996-01-12 Matsushita Electric Ind Co Ltd 外部変調光送信装置
JP5258399B2 (ja) * 2008-06-06 2013-08-07 キヤノン株式会社 画像投影装置及びその制御方法
JP2010122735A (ja) * 2008-11-17 2010-06-03 Toshiba Information Systems (Japan) Corp インタフェース装置及びインタフェース用プログラム
JP5620651B2 (ja) * 2009-06-26 2014-11-05 キヤノン株式会社 再生装置、撮像装置、及びその制御方法
JP2011095985A (ja) * 2009-10-29 2011-05-12 Nikon Corp 画像表示装置
JP5459031B2 (ja) * 2010-04-13 2014-04-02 ソニー株式会社 情報処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
JP2013190925A (ja) 2013-09-26

Similar Documents

Publication Publication Date Title
JP6719418B2 (ja) 電子機器
CN108205197B (zh) 显示装置和显示装置的控制方法
JP2013190941A (ja) 情報入出力装置、及び頭部装着表示装置
JP6136090B2 (ja) 電子機器、及び表示装置
US10976836B2 (en) Head-mounted display apparatus and method of controlling head-mounted display apparatus
JP6011072B2 (ja) 制御装置、及びプログラム
JP6318462B2 (ja) 表示装置
JP6123180B2 (ja) 表示装置
JP2018082363A (ja) 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム
JP2018124721A (ja) 頭部装着型表示装置、及び頭部装着型表示装置の制御方法
JP2019082891A (ja) 頭部装着型表示装置、表示制御方法、およびコンピュータープログラム
JP2019164420A (ja) 透過型頭部装着型表示装置および透過型頭部装着型表示装置の制御方法、透過型頭部装着型表示装置の制御のためのコンピュータープログラム
JP7247519B2 (ja) 表示装置、及び、表示装置の制御方法
JP6996115B2 (ja) 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
JP6015223B2 (ja) 電子機器、及び表示装置
JP2013175947A (ja) 頭部装着装置
JP2018206080A (ja) 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
JP2013175909A (ja) 頭部装着装置
JP2014021272A (ja) 情報入出力装置、及び情報入出力方法
JP6717393B2 (ja) 電子機器
JP6123160B2 (ja) 電子機器、及び表示装置
JP2014022937A (ja) 頭部装着型情報入出力装置、及び頭部装着型情報入出力方法
JP2013174730A (ja) 情報表示装置
JP2014022942A (ja) 頭部装着装置
JP6932917B2 (ja) 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170417

R150 Certificate of patent or registration of utility model

Ref document number: 6136090

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250