JP6123160B2 - 電子機器、及び表示装置 - Google Patents
電子機器、及び表示装置 Download PDFInfo
- Publication number
- JP6123160B2 JP6123160B2 JP2012055865A JP2012055865A JP6123160B2 JP 6123160 B2 JP6123160 B2 JP 6123160B2 JP 2012055865 A JP2012055865 A JP 2012055865A JP 2012055865 A JP2012055865 A JP 2012055865A JP 6123160 B2 JP6123160 B2 JP 6123160B2
- Authority
- JP
- Japan
- Prior art keywords
- display
- hand
- unit
- image
- control unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003384 imaging method Methods 0.000 claims description 46
- 238000001514 detection method Methods 0.000 claims description 20
- 238000012545 processing Methods 0.000 description 109
- 210000003811 finger Anatomy 0.000 description 66
- 238000000034 method Methods 0.000 description 45
- 238000004891 communication Methods 0.000 description 43
- 230000008569 process Effects 0.000 description 40
- 238000003909 pattern recognition Methods 0.000 description 29
- 230000003287 optical effect Effects 0.000 description 28
- 210000003128 head Anatomy 0.000 description 19
- 210000004247 hand Anatomy 0.000 description 14
- 238000010586 diagram Methods 0.000 description 10
- 230000005236 sound signal Effects 0.000 description 10
- 230000001133 acceleration Effects 0.000 description 8
- 239000004973 liquid crystal related substance Substances 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000005452 bending Methods 0.000 description 2
- 210000005069 ears Anatomy 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 210000003813 thumb Anatomy 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000017531 blood circulation Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000001962 electrophoresis Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000005057 finger movement Effects 0.000 description 1
- 230000004313 glare Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 239000011347 resin Substances 0.000 description 1
- 229920005989 resin Polymers 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 229910001220 stainless steel Inorganic materials 0.000 description 1
- 239000010935 stainless steel Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Description
撮像部によって撮像された画像から手を検出する検出部と、
また、本発明の一実施形態は、前記検出部によって検出された前記手が複数あると、複数の前記手のうちで大きさが最も大きい手の指の向きと位置と長さに基づく指示位置を、操作を設定するための複数の画像が表示されている表示部に表示させる制御部と、を備える電子機器である。
以下の説明においては、必要に応じてXYZ直交座標系を設定し、このXYZ直交座標系を参照しつつ各部の位置関係について説明する。水平面内の所定方向をX軸方向、水平面内においてX軸方向と直交する方向をY軸方向、X軸方向及びY軸方向のそれぞれと直交する方向(すなわち鉛直方向)をZ軸方向とする。また、X軸、Y軸、及びZ軸まわりの回転(傾斜)方向をそれぞれ、θX、θY、及びθZ方向とする。
また、図2に示すように、ディスプレイ本体20とヘッドバンド40とは、連結ピン41を介して着脱可能に構成されている。
なお、図1及び図2では、ディスプレイ本体20の長手方向をY軸方向、ヘッドバンド40がユーザーの頭部を挟持する方向をX軸方向としている。
ディスプレイ本体20は、主要回路を内蔵するとともに操作部や各種インターフェースを備えた装置本体部21と、装置本体部21の先端に連結された表示部60とを有する。
メインスイッチ28は、ディスプレイ本体20の電源のオンオフ操作を行うスイッチである。タッチスイッチ34は、表面に手指等で触れることによりヘッドマウントディスプレイ1の各種操作を行うことができるタッチパネルである。集音マイク24は、環境音を収集する外部マイクである。
USBコネクター25はUSB(Universal Serial Bus)デバイスの接続端子である。本実施形態では、例えば、図5に示すリモコン(リモートコントローラー)140が接続される。
ビデオコネクター27は映像入出力端子である。
図4に示すように、装置本体部21には、筐体21Aの長手方向に沿って延びる板状の回路基板29と、バッテリー33とが内蔵されている。回路基板29には、不図示の制御回路、電源回路等が実装されており、不図示の配線を介してディスプレイ本体20の各部と電気的に接続されている。
本実施形態の場合、カメラ64の撮像方向は、ユーザーの視線方向と一致するように設定される。すなわち、カメラ64は、ヘッドマウントディスプレイ1を装着したユーザーの視線方向の画像(映像)を撮像する。なお、撮像方向と視線方向との調整は、機械的に行ってもよく、画像処理により行ってもよい。例えば、カメラ64を広角の映像を取得可能に構成し、ユーザーの目元画像から取得した視線方向の情報に基づいて、電気的に捕らえた映像の一部を、視線方向の映像として抜き出して表示パネル63に表示させる。これにより、カメラ64に調整機構を設けることなくユーザー正面の映像(画像)の撮像、表示が可能となる。
リモコン140は、筐体140Aと、タッチパッド141と、操作スイッチ147と、USBコネクター142と、インジケーター143a、143b、143cと、取付クリップ144と、インジケータースイッチ150と、を備えている。
また、USBコネクター142は、リモコン140がバッテリーを内蔵している場合には、装置本体部21への給電端子として用いることもできる。リモコン140のバッテリーを補助電源として使用可能にすることで、ヘッドマウントディスプレイ1は、装置本体部21のバッテリー容量を小さくでき、装置本体部21を小型軽量化することができる。
ステレオイヤホン100は、コネクター101と、ケーブル102と、第1スピーカー103と、第2スピーカー104と、集音マイク105と、複数のクリップ106とを有している。
ヘッドマウントディスプレイ1は、処理部123を中心として種々の電気回路を備えている。ヘッドマウントディスプレイ1は、例えば、バックライト62、表示パネル63、カメラ64、撮像素子72、デコーダー121、フラッシュメモリー122、処理部123、LCDドライバ125、BLドライバ126、メモリー127、エンコーダー129、メインスイッチ28、操作スイッチ30、及びタッチスイッチ34を備えている。
なお、本実施形態において、カメラ64、撮像素子72、処理部123、メモリー127、エンコーダー129、メインスイッチ28、操作スイッチ30、及びタッチスイッチ34が入力装置200に対応する。すなわち、入力装置200は、カメラ64、撮像素子72、処理部123、メモリー127、エンコーダー129、メインスイッチ28、操作スイッチ30、及びタッチスイッチ34を備えている。
本実施形態の場合、エンコーダー129、デコーダー121、電源回路120、操作スイッチ30、フラッシュメモリー122、BT通信回路130、WiFi通信回路131、加速度センサー132、地磁気センサー133、前方ライト68、3G/LTE通信回路138、レーザー発振器73、角速度センサー134、GPSセンサー135、温湿度センサー136、心拍数センサー137、BLドライバ126、メモリー127、メインスイッチ28、及びタッチスイッチ34は、処理部123に接続されている。
表示パネル63(表示部)は、例えば、液晶表示パネルであり、LCDドライバ125から供給される駆動信号に基づいて、映像(画像)を表示する。表示パネル63は、例えば、カメラ64によって撮像された画像、及びメニュー画面などを表示する。
電源回路120は、処理部123から供給される制御信号に基づいて、バッテリー33から供給された電力の制御(例えば、電圧の変換、供給オンオフ)を行う。
メモリー127は、処理部123によって実行される制御プログラムを記憶している。
操作スイッチ30は、画面内でのポインティング操作を行うためのスイッチであり、ユーザーが操作することにより、操作に基づく制御信号を処理部123に供給する。
タッチスイッチ34は、タッチ操作により各種操作を行うスイッチであり、ユーザーが操作することにより、操作に基づく制御信号を処理部123に供給する。
なお、ディスプレイ本体20は、メインスイッチ28、操作スイッチ30、及びタッチスイッチ34を備えており、ディスプレイ本体20は、ユーザーの身体における右側及び左側のいずれかの位置に装着可能である。そのため、ディスプレイ本体20は、メインスイッチ28、操作スイッチ30、及びタッチスイッチ34は、ユーザーの身体における右側及び左側のいずれかの位置に装着可能であって、入力装置を操作する。
WiFi通信回路131は、他の機器との無線LAN通信(IEEE 802.11)を行うための通信回路である。
3G/LTE通信回路138は、他の機器との移動通信を行うための通信回路である。
BT通信回路130、WiFi通信回路131、及び3G/LTE通信回路138は、他の機器との間で、音声データや映像(画像)データなどの情報の送信/受信を行う。
地磁気センサー133は、地磁気に基づいて方位情報を検出し、ヘッドマウントディスプレイ1の方角検出に用いられる。地磁気センサー133は、検出した方位情報を処理部123に供給する。
GPSセンサー135は、GPS(Global Positioning System)を利用した測位検出に用いられ、ヘッドマウントディスプレイ1の緯度経度を測定する。GPSセンサー135は、測定したヘッドマウントディスプレイ1の緯度経度を処理部123に供給する。
心拍数センサー137は、ユーザーの頬に接触し、ユーザーの心拍数を検出する。すなわち、心拍数センサー137は、ヘッドマウントディスプレイ1がユーザーに装着されているか否かを検出する。心拍数センサー137は、検出したユーザーの心拍数を処理部123に供給する。
レーザー発振器73は、上述したように表示パネル63に表示された画像内の所定の位置に対応するターゲット(対象物)にレーザー光(スポット光)を照射する。
撮像素子642は、例えば、CCDイメージセンサ(Charge Coupled Device Image Sensor)などの撮像素子であり、光学系641によって結像された画像を撮像する。撮像素子642は、例えば、光学系641によって結像された被写体像を電気信号に変換し、画像データとしてエンコーダー129に出力する。
また、処理部123は、例えば、カメラ64、撮像素子72、又はビデオコネクター27からエンコーダー129を介して供給された映像(画像)データをフラッシュメモリー122に記憶させる。処理部123は、例えば、カメラ64、撮像素子72、又はビデオコネクター27からエンコーダー129を介して供給された映像(画像)データを、LCDドライバ125を介して表示パネル63に表示させる。処理部123は、例えば、カメラ64、撮像素子72、又はビデオコネクター27からエンコーダー129を介して供給された映像(画像)データをBT通信回路130、WiFi通信回路131、又は3G/LTE通信回路138を介して他の機器に送信する。
また、処理部123は、例えば、制御信号により操作を検出し、上記の制御プログラムに規定された動作を実行する。
また、本実施形態において、処理部123は、パターン認識部201、入力制御部202、AF(オートフォーカス)制御部203、メニュー選択処理部204、表示制御部205、目元検出部206、及び表示切替部207を備えている。
図8は、本実施形態における処理部123の一例を示す機能ブロック図である。
以下、図7及び図8を参照して、本実施形態における処理部123の各部について説明する。
パターン認識部201は、人の手を認識した場合に、認識した人の手に関する情報を入力制御部202に供給する。なお、人の手に関する情報とは、例えば、撮像された画像上の位置情報、手の形状の大きさ、指の位置や指の長さ、指の向きなどの情報である。
また、入力制御部202は、例えば、画像を表示する表示パネル63にカメラ64によって撮像された画像が表示されている場合に、AF制御部203に手の形状の背景に対して光学系641を合焦させる制御を行う。すなわち、この場合、ユーザーが背景の部分を手によって差し示している可能性が高いため、入力制御部202は、手の形状の背景に対して光学系641を合焦させる制御を行う。ここで、背景とは、表示パネル63に表示されている画像のうちの手の形状を除く領域を示す。
また、入力制御部202は、例えば、パターン認識部201によって認識された手の形状に基づいて、手が物を持っている状態か否かを判定する。入力制御部202は、手が物を持っている状態であると判定した場合に、AF制御部203に、手の形状に対して光学系641を合焦させる。この場合、ユーザーは、手に持っている物を指し示している可能性が高いため、入力制御部202は、AF制御部203に手の形状に対して光学系641を合焦させる。
また、入力制御部202は、算出した指示位置に応じて、メニュー選択処理部204に入力を操作させる制御を行う。例えば、入力制御部202は、メニュー選択処理部204は、指示位置に応じて、複数の操作メニューのうちの1つを選択させるように制御を行う。
まず、本実施形態におけるヘッドマウントディスプレイ1の動作を説明する上で前提となるカメラ64の撮像範囲について、図9及び図10を参照して説明する。
図9は、本実施形態におけるヘッドマウントディスプレイ1の右目装着時の撮像範囲を示す模式図である。
この図において、表示部60は、右目の正面を向いた場合の視線方向に対して角度αの方向の下方に配置されている。この場合、カメラ64は、撮像範囲Qの範囲を撮像する。なお、撮像範囲Pには、右目装着時の上半分の範囲Qと、左目装着時の下半分の範囲Rとが含まれている。
この図において、表示部60は、左目の正面を向いた場合の視線方向に対して角度αの方向の下方に配置されている。この場合、カメラ64は、撮像範囲Rの範囲を撮像する。
図11は、本実施形態におけるヘッドマウントディスプレイ1の撮像範囲及び表示範囲の切り替えを示す図である。
図11において、撮像範囲Pは、カメラ64の全撮像範囲を示している。ここでは、4対3のアスペクト比を有するカメラ64(撮像素子642)を用いて、撮像範囲が縦長になるようにカメラが配置されている。
また、図12は、本実施形態におけるヘッドマウントディスプレイ1の撮像範囲及び表示範囲の切り替え処理を示すフローチャートである。
処理部123は、ユーザーが右目で観察していると判定した場合(ステップS2:Yes)に、処理をステップS6に進める。また、処理部123は、ユーザーが右目で観察していない(左目で観察している)と判定した場合(ステップS2:No)に、処理をステップS3に進める。この場合、ユーザーは、図10に示すようにヘッドマウントディスプレイ1を装着していることになる。
また、処理部123は、広い範囲を映したい場合、すなわちズーミングがワイド側にあり、範囲Qを読み出している場合には、特に読み出し範囲の移動は行わない。
このように、本実施形態におけるヘッドマウントディスプレイ1は、ユーザーが見ている範囲と、カメラ64によって撮像される範囲との差異を低減し、使用時に違和感のない使い易い(利便性のよい)システムを提供することができる。
また、本実施形態におけるヘッドマウントディスプレイ1は、右目で表示部60を観察する場合及び左目で表示部60を観察する場合のいずれの場合においても、適切な範囲を読み出して表示パネル63に表示させることができる。そのため、本実施形態におけるヘッドマウントディスプレイ1は、利便性の高いシステムを提供することができる。さらに、本実施形態におけるヘッドマウントディスプレイ1は、被写体までの距離が近い場合にも、ユーザーが観察する方向とカメラ64の撮影範囲の中心が一致するので、パララックスの無い使い易いシステムを提供することができる。
図13A及び図13Bは、本実施形態における入力装置200の処理を示すフローチャートである。
この図において、まずはカメラ64が図14(B)に示すように、横長の範囲の画像G2を撮影しており、その全ての撮影範囲が読み取られて、表示部60の表示パネル63に表示される場合について説明する。
さらに、入力制御部202は、ユーザーの右手と左手の両方が存在される場合には、いずれかの手を優先させる。ここで、ヘッドマウントディスプレイ1が図3(A)のように右目用で使用されている場合には、タッチスイッチ34、操作スイッチ30なども右側に配置されており、ユーザーが右利きである可能性が高い。この場合には、ユーザーの左手は体を支えるなどの用途に使われており、右手は細かな操作及び指示に使われる可能性が高いので、入力制御部202は、右手を優先してピントを合わせる(AF制御部203に光学系641を合焦させる)。
次に、入力装置200は、操作スイッチ30等の操作部が操作されているか否かを検出する(ステップS119)。すなわち、入力制御部202は、操作スイッチ30等の操作部が操作されているか否かを検出する。入力制御部202は、操作スイッチ30等が操作されている場合(ステップS119:Yes)に、ユーザーの手が操作スイッチ30等に置かれているはずであるから、他人の手が写っている可能性もあるので、操作スイッチ30等の操作を優先し、処理をステップS120に進める。また、入力制御部202は、操作スイッチ30等が操作されていない場合(ステップS119:No)に、処理をステップS121に進める。
一方、操作スイッチ30等の操作が無い場合にはステップS121において、入力装置200は、人差し指の位置に対応して画面にカーソル(図14(A)のカーソルM1)を重畳表示する。すなわち、入力制御部202は、例えば、図14に示すように、表示制御部205に対して、人差し指の長さを2倍した人差し指の延長方向に対応する位置P1に対応する箇所に図14(A)に示すところのカーソルM1を表示させる。ここでは、カーソルM1によって封筒のアイコンI8封筒のアイコンI8が選択されていることが分かる。
ここで、カメラ64には、図14(B)に示すようにユーザーの手H1が撮影されており、入力制御部202は、パターン認識によって破線で示すように、ユーザーの人差し指の延長線上であって、画面上で測定できる人差し指の長さL1を約2倍延長した位置P1(指先から距離L2の位置)を計算する。入力制御部202は、表示制御部205に対して、位置P1に対応する表示パネル63の表示画像上の位置に、図14(A)で示すように、カーソルM1を表示させる。すなわち、入力制御部202は、パターン認識部201によって認識された手の位置と、手の所定の部分(例えば、人差し指)の向き及び長さとに基づいて、ユーザーの手が指示する指示位置(位置P1)を算出する。入力制御部202は、算出した指示位置に対応する表示パネル63の表示画像における位置に指示位置(位置P1)を示すカーソルM1(マーク)を表示させる。
なお、入力制御部202は、下記の式(1)及び式(2)に基づいて、位置P1を算出する。
Y3=Y1+2×(Y1−Y2) ・・・(2)
例えば、カメラ64の光軸に略平行に人差し指を向けた場合には、カメラ64には人差し指が短く写るので、カーソルM1は、人差し指先端の近傍となる。また、例えば、カメラ64の光軸と直交するように人差し指を置いた場合には、最も離れた箇所にカーソルM1が表示される。このように、人差し指の位置、傾き、及び方向をユーザーが変えることで、自由に画面内の位置を指示(ポインティング)することが可能である。
なお、ここでは、図14(A)に示すようなメニュー画面G1を表示パネル63に表示しているので、入力装置200は、図14(B)に示すカメラ64の画像G2を表示パネル63に表示させることはない。
なお、メニュー選択処理部204は、親指と人差し指を特定のパターンに形成したり、その形を変化させたりすることを検出することにより、メニュー選択などの操作を行うことも可能である。例えば、メニュー選択処理部204は、メニュー画面などで「YES/NO」などの2択の選択を迫られた場合にも、ユーザーがあえて一方の選択肢を選ばすに、親指と人差し指とで作ったOKサインを検出することにより設定(選択)を行ってもよい。
ステップS102において、入力装置200は、ステップS116と同様に、カメラ64によって撮像された画像に予め定められた所定以上の大きさの手があるか否かを判定する。すなわち、入力制御部202は、パターン認識部201から供給された手に関する情報に基づいて手の形状の大きさが予め定められた所定の大きさ以上であるか否かを判定する。入力制御部202は、手の形状の大きさが予め定められた所定の大きさ以上である場合(ステップS102:Yes)に、処理をステップS104に進める。また、入力制御部202は、手の形状の大きさが予め定められた所定の大きさ未満である場合(ステップS102:No)に、処理をステップS103に進める。
なお、ステップS116では至近の手を認識していたが、ステップS107においては手に対してのピント合わせを行っていないため、複数の手があってもどれが至近の手であるか判定できない。そのため、入力制御部202は、最も大きな手をユーザーの手として判定(認識)する。また、右手と左手とが検出された場合の処理は、ステップS117と同様である。
なお、図15において、画像G3は、カメラ64(撮像素子642)によって撮像されている画像を示し、手の形状H2は、カメラ64によって撮像されている手を示している。
なお、この場合には、指に厳密にピントが合っていないので、細かな指の動作に基づいてヘッドマウントディスプレイ1を制御することは難しい。よって、入力装置200は、指に合焦していない場合に、指の画像認識で制御可能なメニューに限定した入力制御を行う。ここでは、指の画像認識で制御可能なメニューは、例えば、カーソルの表示の他、線画を描くなどの限定された項目である。
図12のフローチャートにおいて、カメラ64の読み出し領域として上半分を使用する一例を説明したが、図16では、図3(A)に示すように、右目で表示を観察している状態を示している。図16において、ヘッドマウントディスプレイ1と通信相手の他の通信端末とは、カメラ64の撮像範囲Pのうちの範囲Qの画像を表示パネル63に表示する。また、ヘッドマウントディスプレイ1(入力装置200)は、範囲Rをユーザーの手の認識用の領域として使用する。この場合、表示パネル63の表示画面には、図15に示すようなユーザーの手H3が写り込まずに、カーソルM3のみが表示される。
また、上述のように、ヘッドマウントディスプレイ1(入力装置200)は、指の長さの延長上を計算してカーソルを置いてもよいが、範囲Rにおける人差し指の先部の位置P2を検出し、人差し指の長さを2倍程度まで拡大し、範囲Qで撮像された画像に重畳してカーソルM3を表示してもよい。この場合においても、入力装置200は、ユーザーの手にはピントを合わせず、カーソルM3が示す背景に焦点を合焦させる。
これにより、本実施形態における入力装置200は、指示部(例えば、手)の位置と所定の部分(例えば、人差し指)の向き及び長さとに基づいて算出した指示位置にマークを表示させるので、利便性を向上させることができる。
また、本実施形態における入力装置200は、カメラ64に指示部を撮像させることで適切に指示位置を指し示すことができるため、指示部(例えば、手)に動作や姿勢を検出するためのセンサーを装着する必要がない。そのため、本実施形態における入力装置200は、構成を簡略化しつつ、利便性を向上させることができる。
これにより、本実施形態における入力装置200は、指示部の位置、傾き、及び方向をユーザーが変えることで、自由に画面内の位置を指示することが可能になる。よって、本実施形態における入力装置200は、利便性を向上させることができる。
これにより、本実施形態における入力装置200は、指示部(例えば、手)により、入力の操作を適切に行うことができる。本実施形態における入力装置200は、例えば、図14(A)に示すような、複数の操作メニュー(複数のメニューアイコンI1〜I9)のうちの1つを選択する操作を適切に行うことができる。
これにより、本実施形態における入力装置200は、撮像範囲のうちの表示領域以外の領域(画像)において指示部による適切な操作を行いつつ、表示領域の画像にある対象物を指示部により直接指し示すことができる。そのため、本実施形態における入力装置200は、利便性を向上させることができる。
例えば、ユーザーが人差し指で画面上の一点を指示するだけではなく、両手や複数の指を使って様々な情報を相手に伝えたい場合には、手の形の情報が重要であるから、本実施形態における入力装置200は、指先のポイントを表示するカーソルを消す(表示させない)制御を行う。これにより、入力装置200は、情報を受信する他の通信端末にとって分かりやすい情報を送ることが可能になる。よって、本実施形態における入力装置200は、利便性を向上させることができる。
これにより、本実施形態における入力装置200は、ユーザーの手を使用して、適切にヘッドマウントディスプレイ1の操作を行うことができる。本実施形態における入力装置200は、例えば、ユーザーの前方の景色を第三者に伝えつつ、問題箇所などをユーザーの手を使用して、適切に指し示すことができる。
これにより、本実施形態におけるヘッドマウントディスプレイ1は、上述した入力装置200を備えているので、上述した入力装置200と同様の効果を奏し、利便性を向上させることができる。
例えば、上記の各実施形態において、所定の形状が手の形状である形態について説明したが、これに限定されるものではない。例えば、図19に示すように、所定の形状が、入力装置200を操作するためのリモコン140の形状であってもよい。図19において、画像G4は、カメラ64によって撮像されている画像を示している。リモコン140には3つのインジケーター143a〜143cが設けられていて、このインジケーターの発光をカメラ64で捕らえることにより、ユーザーの手の代用とすることが可能である。入力制御部202は、手の場合と同様に、リモコン140のインジケーター143a〜143cによって指し示される位置P3において、所定の処理(例えば、合焦処理やメニュー選択処理)を制御する形態でもよい。
Y7=(Y5+Y6)/2 ・・・(4)
Y8=Y4+2×(Y4―Y7)=3×Y4−Y5−Y6 ・・・(6)
このように、指示部には、少なくとも2つのインジケーター(発光部)を有し、入力装置200を操作するためのリモコン140が含まれ、所定の部分には、少なくとも2つのインジケーターが含まれる。入力制御部202は、リモコン140の位置と、少なくとも2つのインジケーターの位置に基づいて定められる向き及び長さとに基づいて、指示位置を算出する。
これにより、ユーザーの手により操作した場合と同様に、入力装置200は、リモコン140により適切に操作することができる。この場合、インジケーター143a〜143cは発光させることができるので、入力装置200は、撮像画像が暗い場合であっても、正確に操作することができる。すなわち、入力装置200は、リモコン140のインジケーター143a〜143c(発光部)の発光を用いる場合、暗いところでもパターンをハッキリと認識することが可能であり、暗いところでも使いやすいシステムが提供できる。
また、指示部には、上述したリモコン140の他に、例えば、ペンなどの棒状の指示棒などを用いる形態でもよい。
また、上記の各実施形態において、入力装置200は、カーソルを表示させる形態を説明したが、カーソルの代わりにAR(Augmented Reality)ペンを表示させる形態でもよい。また、入力装置200は、例えば、操作に応じて、カーソルの色や形状を変更する形態でもよい。
また、上記の各実施形態において、AF制御部203は、光学系641を駆動して合焦させる形態を説明したが、撮像素子642を移動させて合焦させる形態でもよい。
Claims (7)
- 撮像部によって撮像された画像から手を検出する検出部と、
前記検出部によって検出された前記手が所定の大きさ以上であると、前記手の指の向きと位置と長さに基づく指示位置を、操作を設定するための複数の画像が表示されている表示部に表示させる制御部と、
を備える電子機器。 - 前記制御部は、前記検出部によって検出された前記手が所定の大きさより小さいと、前記表示部への前記指示位置の表示を行わない
請求項1に記載の電子機器。 - 撮像部によって撮像された画像から手を検出する検出部と、
前記検出部によって検出された前記手が複数あると、複数の前記手のうちで大きさが最も大きい手の指の向きと位置と長さに基づく指示位置を、操作を設定するための複数の画像が表示されている表示部に表示させる制御部と、
を備える電子機器。 - 前記制御部は、
前記操作を設定するための複数の画像のうちの前記指示位置の画像に基づく操作を選択する
請求項1から請求項3のいずれか一項に記載の電子機器。 - 前記制御部は、
前記表示部の前記指示位置にマークを表示させる
請求項1から請求項4のいずれか一項に記載の電子機器。 - 前記撮像部と前記表示部とを備える
請求項1から請求項5のいずれか一項に記載の電子機器。 - 請求項1から請求項6のいずれか一項に記載の電子機器と、
前記撮像部及び前記表示部を頭部に装着する装着部と、
を備える表示装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012055865A JP6123160B2 (ja) | 2012-03-13 | 2012-03-13 | 電子機器、及び表示装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012055865A JP6123160B2 (ja) | 2012-03-13 | 2012-03-13 | 電子機器、及び表示装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013190926A JP2013190926A (ja) | 2013-09-26 |
JP6123160B2 true JP6123160B2 (ja) | 2017-05-10 |
Family
ID=49391119
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012055865A Active JP6123160B2 (ja) | 2012-03-13 | 2012-03-13 | 電子機器、及び表示装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6123160B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6041016B2 (ja) | 2014-07-25 | 2016-12-07 | 裕行 池田 | 眼鏡型端末 |
EP3985486B1 (en) | 2020-10-13 | 2024-04-17 | Hiroyuki Ikeda | Glasses-type terminal |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH086708A (ja) * | 1994-04-22 | 1996-01-12 | Canon Inc | 表示装置 |
JPH1139095A (ja) * | 1997-07-18 | 1999-02-12 | Canon Inc | プレゼンテーション装置、その方法、及びペン入力装置 |
US6215498B1 (en) * | 1998-09-10 | 2001-04-10 | Lionhearth Technologies, Inc. | Virtual command post |
JP2003044222A (ja) * | 2001-07-31 | 2003-02-14 | Fuji Photo Optical Co Ltd | プレゼンテーションシステムおよびプレゼンテーション方法 |
JP2003085590A (ja) * | 2001-09-13 | 2003-03-20 | Nippon Telegr & Teleph Corp <Ntt> | 3次元情報操作方法およびその装置,3次元情報操作プログラムならびにそのプログラムの記録媒体 |
JP2005032254A (ja) * | 2003-07-10 | 2005-02-03 | Masanori Idesawa | 実空間内での指示対象物検知装置 |
CN101308442B (zh) * | 2004-10-12 | 2012-04-04 | 日本电信电话株式会社 | 三维指示方法和三维指示装置 |
JP4533087B2 (ja) * | 2004-10-28 | 2010-08-25 | キヤノン株式会社 | 画像処理方法、画像処理装置 |
JP5250834B2 (ja) * | 2008-04-03 | 2013-07-31 | コニカミノルタ株式会社 | 頭部装着式映像表示装置 |
KR20100048090A (ko) * | 2008-10-30 | 2010-05-11 | 삼성전자주식회사 | 터치와 모션을 통해 제어 명령을 생성하는 인터페이스 장치, 인터페이스 시스템 및 이를 이용한 인터페이스 방법 |
JP5416489B2 (ja) * | 2009-06-17 | 2014-02-12 | 日本電信電話株式会社 | 三次元指先位置検出方法、三次元指先位置検出装置、およびプログラム |
-
2012
- 2012-03-13 JP JP2012055865A patent/JP6123160B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2013190926A (ja) | 2013-09-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2013190941A (ja) | 情報入出力装置、及び頭部装着表示装置 | |
JP6719418B2 (ja) | 電子機器 | |
CN108205197B (zh) | 显示装置和显示装置的控制方法 | |
JP6136090B2 (ja) | 電子機器、及び表示装置 | |
JP6318462B2 (ja) | 表示装置 | |
US10976836B2 (en) | Head-mounted display apparatus and method of controlling head-mounted display apparatus | |
JP6011072B2 (ja) | 制御装置、及びプログラム | |
JP6123180B2 (ja) | 表示装置 | |
US10718948B2 (en) | Head-mounted display apparatus, display control method, and computer program | |
JP2018082363A (ja) | 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム | |
JP2018124651A (ja) | 表示システム | |
JP2018124721A (ja) | 頭部装着型表示装置、及び頭部装着型表示装置の制御方法 | |
JP2019164420A (ja) | 透過型頭部装着型表示装置および透過型頭部装着型表示装置の制御方法、透過型頭部装着型表示装置の制御のためのコンピュータープログラム | |
JP7247519B2 (ja) | 表示装置、及び、表示装置の制御方法 | |
JP6996115B2 (ja) | 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 | |
JP6015223B2 (ja) | 電子機器、及び表示装置 | |
JP2013175909A (ja) | 頭部装着装置 | |
JP2014021272A (ja) | 情報入出力装置、及び情報入出力方法 | |
JP6123160B2 (ja) | 電子機器、及び表示装置 | |
JP6717393B2 (ja) | 電子機器 | |
JP2014022937A (ja) | 頭部装着型情報入出力装置、及び頭部装着型情報入出力方法 | |
JP2013174730A (ja) | 情報表示装置 | |
JP6932917B2 (ja) | 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 | |
US20180260068A1 (en) | Input device, input control method, and computer program | |
JP2013174729A (ja) | 情報表示装置、及び情報表示方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150310 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160127 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160301 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160502 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160913 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161114 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170307 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170320 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6123160 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |