JP6136090B2 - 電子機器、及び表示装置 - Google Patents
電子機器、及び表示装置 Download PDFInfo
- Publication number
- JP6136090B2 JP6136090B2 JP2012055864A JP2012055864A JP6136090B2 JP 6136090 B2 JP6136090 B2 JP 6136090B2 JP 2012055864 A JP2012055864 A JP 2012055864A JP 2012055864 A JP2012055864 A JP 2012055864A JP 6136090 B2 JP6136090 B2 JP 6136090B2
- Authority
- JP
- Japan
- Prior art keywords
- display
- unit
- hand
- user
- control unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003384 imaging method Methods 0.000 claims description 84
- 230000003287 optical effect Effects 0.000 claims description 43
- 238000001514 detection method Methods 0.000 claims description 24
- 238000012545 processing Methods 0.000 description 118
- 238000000034 method Methods 0.000 description 53
- 210000003811 finger Anatomy 0.000 description 51
- 230000008569 process Effects 0.000 description 48
- 238000004891 communication Methods 0.000 description 46
- 238000003909 pattern recognition Methods 0.000 description 30
- 210000003128 head Anatomy 0.000 description 20
- 210000004247 hand Anatomy 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 230000005236 sound signal Effects 0.000 description 10
- 230000001133 acceleration Effects 0.000 description 8
- 239000004973 liquid crystal related substance Substances 0.000 description 6
- 230000008859 change Effects 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000005452 bending Methods 0.000 description 2
- 210000005069 ears Anatomy 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 210000003813 thumb Anatomy 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000017531 blood circulation Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000001962 electrophoresis Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000005057 finger movement Effects 0.000 description 1
- 230000004313 glare Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 239000011347 resin Substances 0.000 description 1
- 229920005989 resin Polymers 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 229910001220 stainless steel Inorganic materials 0.000 description 1
- 239000010935 stainless steel Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Images
Landscapes
- Position Input By Displaying (AREA)
- Studio Devices (AREA)
- User Interface Of Digital Computer (AREA)
Description
以下の説明においては、必要に応じてXYZ直交座標系を設定し、このXYZ直交座標系を参照しつつ各部の位置関係について説明する。水平面内の所定方向をX軸方向、水平面内においてX軸方向と直交する方向をY軸方向、X軸方向及びY軸方向のそれぞれと直交する方向(すなわち鉛直方向)をZ軸方向とする。また、X軸、Y軸、及びZ軸まわりの回転(傾斜)方向をそれぞれ、θX、θY、及びθZ方向とする。
また、図2に示すように、ディスプレイ本体20とヘッドバンド40とは、連結ピン41を介して着脱可能に構成されている。
なお、図1及び図2では、ディスプレイ本体20の長手方向をY軸方向、ヘッドバンド40がユーザーの頭部を挟持する方向をX軸方向としている。
ディスプレイ本体20は、主要回路を内蔵するとともに操作部や各種インターフェースを備えた装置本体部21と、装置本体部21の先端に連結された表示部60とを有する。
メインスイッチ28は、ディスプレイ本体20の電源のオンオフ操作を行うスイッチである。タッチスイッチ34は、表面に手指等で触れることによりヘッドマウントディスプレイ1の各種操作を行うことができるタッチパネルである。集音マイク24は、環境音を収集する外部マイクである。
USBコネクター25はUSB(Universal Serial Bus)デバイスの接続端子である。本実施形態では、例えば、図5に示すリモコン(リモートコントローラー)140が接続される。
ビデオコネクター27は映像入出力端子である。
図4に示すように、装置本体部21には、筐体21Aの長手方向に沿って延びる板状の回路基板29と、バッテリー33とが内蔵されている。回路基板29には、不図示の制御回路、電源回路等が実装されており、不図示の配線を介してディスプレイ本体20の各部と電気的に接続されている。
本実施形態の場合、カメラ64の撮像方向は、ユーザーの視線方向と一致するように設定される。すなわち、カメラ64は、ヘッドマウントディスプレイ1を装着したユーザーの視線方向の画像(映像)を撮像する。なお、撮像方向と視線方向との調整は、機械的に行ってもよく、画像処理により行ってもよい。例えば、カメラ64を広角の映像を取得可能に構成し、ユーザーの目元画像から取得した視線方向の情報に基づいて、電気的に捕らえた映像の一部を、視線方向の映像として抜き出して表示パネル63に表示させる。これにより、カメラ64に調整機構を設けることなくユーザー正面の映像(画像)の撮像、表示が可能となる。
リモコン140は、筐体140Aと、タッチパッド141と、操作スイッチ147と、USBコネクター142と、インジケーター143a、143b、143cと、取付クリップ144と、インジケータースイッチ150と、を備えている。
また、USBコネクター142は、リモコン140がバッテリーを内蔵している場合には、装置本体部21への給電端子として用いることもできる。リモコン140のバッテリーを補助電源として使用可能にすることで、ヘッドマウントディスプレイ1は、装置本体部21のバッテリー容量を小さくでき、装置本体部21を小型軽量化することができる。
ステレオイヤホン100は、コネクター101と、ケーブル102と、第1スピーカー103と、第2スピーカー104と、集音マイク105と、複数のクリップ106とを有している。
ヘッドマウントディスプレイ1は、処理部123を中心として種々の電気回路を備えている。ヘッドマウントディスプレイ1は、例えば、バックライト62、表示パネル63、カメラ64、撮像素子72、デコーダー121、フラッシュメモリー122、処理部123、LCDドライバ125、BLドライバ126、メモリー127、エンコーダー129、メインスイッチ28、操作スイッチ30、及びタッチスイッチ34を備えている。
なお、本実施形態において、カメラ64、撮像素子72、処理部123、メモリー127、エンコーダー129、メインスイッチ28、操作スイッチ30、及びタッチスイッチ34が入力装置200に対応する。すなわち、入力装置200は、カメラ64、撮像素子72、処理部123、メモリー127、エンコーダー129、メインスイッチ28、操作スイッチ30、及びタッチスイッチ34を備えている。
本実施形態の場合、エンコーダー129、デコーダー121、電源回路120、操作スイッチ30、フラッシュメモリー122、BT通信回路130、WiFi通信回路131、加速度センサー132、地磁気センサー133、前方ライト68、3G/LTE通信回路138、レーザー発振器73、角速度センサー134、GPSセンサー135、温湿度センサー136、心拍数センサー137、BLドライバ126、メモリー127、メインスイッチ28、及びタッチスイッチ34は、処理部123に接続されている。
表示パネル63(表示部)は、例えば、液晶表示パネルであり、LCDドライバ125から供給される駆動信号に基づいて、映像(画像)を表示する。表示パネル63は、例えば、カメラ64によって撮像された画像、及びメニュー画面などを表示する。
電源回路120は、処理部123から供給される制御信号に基づいて、バッテリー33から供給された電力の制御(例えば、電圧の変換、供給オンオフ)を行う。
メモリー127は、処理部123によって実行される制御プログラムを記憶している。
操作スイッチ30(操作部)は、画面内でのポインティング操作を行うためのスイッチであり、ユーザーが操作することにより、操作に基づく制御信号を処理部123に供給する。
タッチスイッチ34は、タッチ操作により各種操作を行うスイッチであり、ユーザーが操作することにより、操作に基づく制御信号を処理部123に供給する。
なお、ディスプレイ本体20は、メインスイッチ28、操作スイッチ30、及びタッチスイッチ34を備えており、ディスプレイ本体20は、ユーザーの身体における右側及び左側のいずれかの位置に装着可能である。そのため、ディスプレイ本体20は、メインスイッチ28、操作スイッチ30、及びタッチスイッチ34は、ユーザーの身体における右側及び左側のいずれかの位置に装着可能であって、入力装置を操作する。
WiFi通信回路131は、他の機器との無線LAN通信(IEEE 802.11)を行うための通信回路である。
3G/LTE通信回路138は、他の機器との移動通信を行うための通信回路である。
BT通信回路130、WiFi通信回路131、及び3G/LTE通信回路138は、他の機器との間で、音声データや映像(画像)データなどの情報の送信/受信を行う。
地磁気センサー133は、地磁気に基づいて方位情報を検出し、ヘッドマウントディスプレイ1の方角検出に用いられる。地磁気センサー133は、検出した方位情報を処理部123に供給する。
GPSセンサー135は、GPS(Global Positioning System)を利用した測位検出に用いられ、ヘッドマウントディスプレイ1の緯度経度を測定する。GPSセンサー135は、測定したヘッドマウントディスプレイ1の緯度経度を処理部123に供給する。
心拍数センサー137は、ユーザーの頬に接触し、ユーザーの心拍数を検出する。すなわち、心拍数センサー137は、ヘッドマウントディスプレイ1がユーザーに装着されているか否かを検出する。心拍数センサー137は、検出したユーザーの心拍数を処理部123に供給する。
レーザー発振器73は、上述したように表示パネル63に表示された画像内の所定の位置に対応するターゲット(対象物)にレーザー光(スポット光)を照射する。
撮像部642は、例えば、撮像素子であり、光学系641によって結像された画像を撮像する。撮像部642は、例えば、光学系641によって結像された被写体像を電気信号に変換し、画像データとしてエンコーダー129に出力する。
また、処理部123は、例えば、カメラ64、撮像素子72、又はビデオコネクター27からエンコーダー129を介して供給された映像(画像)データをフラッシュメモリー122に記憶させる。処理部123は、例えば、カメラ64、撮像素子72、又はビデオコネクター27からエンコーダー129を介して供給された映像(画像)データを、LCDドライバ125を介して表示パネル63に表示させる。処理部123は、例えば、カメラ64、撮像素子72、又はビデオコネクター27からエンコーダー129を介して供給された映像(画像)データをBT通信回路130、WiFi通信回路131、又は3G/LTE通信回路138を介して他の機器に送信する。
また、処理部123は、例えば、制御信号により操作を検出し、上記の制御プログラムに規定された動作を実行する。
また、本実施形態において、処理部123は、パターン認識部201、入力制御部202、AF(オートフォーカス)制御部203、メニュー選択処理部204、表示制御部205、目元検出部206、及び表示切替部207を備えている。
図8は、本実施形態における処理部123の一例を示す機能ブロック図である。
以下、図7及び図8を参照して、本実施形態における処理部123の各部について説明する。
パターン認識部201は、手の形状を認識した場合に、認識した手の形状に関する情報を入力制御部202に供給する。なお、手の形状に関する情報とは、例えば、撮像された画像上の位置情報、手の形状の大きさ、指の位置や指の長さなどの情報である。
また、入力制御部202は、例えば、画像を表示する表示パネル63に撮像部642によって撮像された画像が表示されている場合に、AF制御部203に手の形状の背景に対して光学系641を合焦させる制御を行う。すなわち、この場合、ユーザーが背景の部分を手によって差し示している可能性が高いため、入力制御部202は、手の形状の背景に対して光学系641を合焦させる制御を行う。ここで、背景とは、表示パネル63に表示されている画像のうちの手の形状を除く領域を示す。
また、入力制御部202は、例えば、パターン認識部201によって認識された手の形状に基づいて、手が物を持っている状態か否かを判定する。入力制御部202は、手が物を持っている状態であると判定した場合に、AF制御部203に、手に対して光学系641を合焦させる。この場合、ユーザーは、手に持っている物を指し示している可能性が高いため、入力制御部202は、AF制御部203に手に対して光学系641を合焦させる。
まず、本実施形態におけるヘッドマウントディスプレイ1の動作を説明する上で前提となるカメラ64(撮像部642)の撮像範囲について、図9及び図10を参照して説明する。
図9は、本実施形態におけるヘッドマウントディスプレイ1の右目装着時の撮像範囲を示す模式図である。
この図において、表示部60は、右目の正面を向いた場合の視線方向に対して角度αの方向の下方に配置されている。この場合、カメラ64の撮像部642は、撮像範囲Qの範囲を撮像する。なお、撮像範囲Pには、右目装着時の上半分の範囲Qと、左目装着時の下半分の範囲Rとが含まれている。
この図において、表示部60は、左目の正面を向いた場合の視線方向に対して角度αの方向の下方に配置されている。この場合、カメラ64の撮像部642は、撮像範囲Rの範囲を撮像する。
図11は、本実施形態におけるヘッドマウントディスプレイ1の撮像範囲及び表示範囲の切り替えを示す図である。
図11において、撮像範囲Pは、カメラ64の全撮像範囲を示している。ここでは、4対3のアスペクト比を有する撮像部642(撮像素子)を用いて、撮像範囲が縦長になるようにカメラが配置されている。
また、図12は、本実施形態におけるヘッドマウントディスプレイ1の撮像範囲及び表示範囲の切り替え処理を示すフローチャートである。
処理部123は、ユーザーが右目で観察していると判定した場合(ステップS2:Yes)に、処理をステップS6に進める。また、処理部123は、ユーザーが右目で観察していない(左目で観察している)と判定した場合(ステップS2:No)に、処理をステップS3に進める。この場合、ユーザーは、図10に示すようにヘッドマウントディスプレイ1を装着していることになる。
また、処理部123は、広い範囲を映したい場合、すなわちズーミングがワイド側にあり、範囲Qを読み出している場合には、特に読み出し範囲の移動は行わない。
このように、本実施形態におけるヘッドマウントディスプレイ1は、ユーザーが見ている範囲と、カメラ64によって撮像される範囲との差異を低減し、使用時に違和感のない使い易い(利便性のよい)システムを提供することができる。
また、本実施形態におけるヘッドマウントディスプレイ1は、右目で表示部60を観察する場合及び左目で表示部60を観察する場合のいずれの場合においても、適切な範囲を読み出して表示パネル63に表示させることができる。そのため、本実施形態におけるヘッドマウントディスプレイ1は、利便性の高いシステムを提供することができる。さらに、本実施形態におけるヘッドマウントディスプレイ1は、被写体までの距離が近い場合にも、ユーザーが観察する方向とカメラ64の撮影範囲の中心が一致するので、パララックスの無い使い易いシステムを提供することができる。
図13A及び図13Bは、本実施形態における入力装置200の処理を示すフローチャートである。
この図において、まずはカメラ64が図14(B)に示すように、横長の範囲の画像G2を撮影しており、その全ての撮影範囲が読み取られて、表示部60の表示パネル63に表示される場合について説明する。
さらに、入力制御部202は、ユーザーの右手と左手の両方が存在される場合には、いずれかの手を優先させる。ここで、ヘッドマウントディスプレイ1が図3(A)のように右目用で使用されている場合には、タッチスイッチ34、操作スイッチ30なども右側に配置されており、ユーザーが右利きである可能性が高い。この場合には、ユーザーの左手は体を支えるなどの用途に使われており、右手は細かな操作及び指示に使われる可能性が高いので、入力制御部202は、右手を優先してピントを合わせる(AF制御部203によって光学系641を合焦させる)。
次に、入力装置200は、操作スイッチ30等の操作部が操作されているか否かを検出する(ステップS119)。すなわち、入力制御部202は、操作スイッチ30等の操作部が操作されているか否かを検出する。入力制御部202は、操作スイッチ30等が操作されている場合(ステップS119:Yes)に、ユーザーの手が操作スイッチ30等に置かれているはずであるから、他人の手が写っている可能性もあるので、操作スイッチ30等の操作を優先し、処理をステップS120に進める。また、入力制御部202は、操作スイッチ30等が操作されていない場合(ステップS119:No)に、処理をステップS121に進める。
一方、操作スイッチ30等の操作が無い場合にはステップS121において、入力装置200は、人差し指の位置に対応して画面にカーソル(図14(A)のカーソルM1)を重畳表示する。すなわち、入力制御部202は、例えば、図14(B)に示すように、表示制御部205に対して、人差し指の長さを2倍した人差し指の延長方向に対応する位置P1に対応する箇所に図14(A)に示すところのカーソルM1を表示させる。ここでは、カーソルM1によって封筒のアイコンI8が選択されていることが分かる。
ここで、カメラ64には、図14(B)に示すようにユーザーの手H1が撮影されており、入力制御部202は、パターン認識によって破線で示すように、ユーザーの人差し指の延長線上であって、画面上で測定できる人差し指の長さL1を約2倍延長した位置P1(指先から距離L2の位置)を計算する。入力制御部202は、表示制御部205に対して、位置P1に対応する表示パネル63の画像上の位置に、図14(A)で示すように、カーソルM1を表示させる。
なお、入力制御部202は、下記の式(1)及び式(2)に基づいて、位置P1を算出する。
Y3=Y1+2×(Y1−Y2) ・・・(2)
例えば、カメラ64の光軸に略平行に人差し指を向けた場合には、カメラ64には人差し指が短く写るので、カーソルM1は、人差し指先端の近傍となる。また、例えば、カメラ64の光軸と直交するように人差し指を置いた場合には、最も離れた箇所にカーソルM1が表示される。このように、人差し指の位置、傾き、及び方向をユーザーが変えることで、自由に画面内の位置を指示(ポインティング)することが可能である。
なお、ここでは、図14(A)に示すようなメニュー画面G1を表示パネル63に表示しているので、入力装置200は、図14(B)に示すカメラ64の画像G2を表示パネル63に表示させることはない。
なお、メニュー選択処理部204は、親指と人差し指を特定のパターンに形成したり、その形を変化させたりすることを検出することにより、メニュー選択などの操作を行うことも可能である。例えば、メニュー選択処理部204は、メニュー画面などで「YES/NO」などの2択の選択を迫られた場合にも、ユーザーがあえて一方の選択肢を選ばすに、親指と人差し指とで作ったOKサインを検出することにより設定(選択)を行ってもよい。
ステップS102において、入力装置200は、ステップS116と同様に、カメラ64によって撮像された画像に予め定められた所定以上の大きさの手があるか否かを判定する。すなわち、入力制御部202は、パターン認識部201から供給された手に関する情報に基づいて手の形状の大きさが予め定められた所定の大きさ以上であるか否かを判定する。入力制御部202は、手の形状の大きさが予め定められた所定の大きさ以上である場合(ステップS102:Yes)に、処理をステップS104に進める。また、入力制御部202は、手の形状の大きさが予め定められた所定の大きさ未満である場合(ステップS102:No)に、処理をステップS103に進める。
なお、ステップS116では至近の手を認識していたが、ステップS107においては手に対してのピント合わせを行っていないため、複数の手があってもどれが至近の手であるか判定できない。そのため、入力制御部202は、最も大きな手をユーザーの手として判定(認識)する。また、右手と左手とが検出された場合の処理は、ステップS117と同様である。
なお、図15において、画像G3は、カメラ64(撮像部642)によって撮像されている画像を示し、手の形状H2は、カメラ64(撮像部642)によって撮像されている手を示している。
なお、この場合には、指に厳密にピントが合っていないので、細かな指の動作に基づいてヘッドマウントディスプレイ1を制御することは難しい。よって、入力装置200は、指に合焦していない場合に、指の画像認識で制御可能なメニューに限定した入力制御を行う。ここでは、指の画像認識で制御可能なメニューは、例えば、カーソルの表示の他、線画を描くなどの限定された項目である。
図12のフローチャートにおいて、カメラ64の読み出し領域として上半分を使用する一例を説明したが、図16では、図3(A)に示すように、右目で表示を観察している状態を示している。図16において、ヘッドマウントディスプレイ1と通信相手の他の通信端末とは、カメラ64の撮像範囲Pのうちの範囲Qの画像を表示パネル63に表示する。また、ヘッドマウントディスプレイ1(入力装置200)は、範囲Rをユーザーの手の認識用の領域として使用する。この場合、表示パネル63の表示画面には、図15に示すようなユーザーの手H3が写り込まずに、カーソルM3のみが表示される。
また、上述のように、ヘッドマウントディスプレイ1(入力装置200)は、指の長さの延長上を計算してカーソルを置いてもよいが、範囲Rにおける人差し指の先部の位置P2を検出し、人差し指の長さを2倍程度まで拡大し、範囲Qで撮像された画像に重畳してカーソルM3を表示してもよい。この場合においても、入力装置200は、ユーザーの手にはピントを合わせず、カーソルM3が示す背景に焦点を合焦させる。
さらに、例えば、夕方などの手と背景のコントラストが低くなる場合には、ヘッドマウントディスプレイ1は、図18に示すように手H5の指先にカーソルM4を表示することで指先の位置を見やすく表示してもよい。
これにより、本実施形態における入力装置200は、所定の形状(例えば、手の形状)の大きさに応じて、所定の処理の操作を指示する物(例えば、ユーザーの手)を認識し、認識した例えばユーザーの手の動作により、所定の処理を実行させるか否かを制御することができる。そのため、ユーザーは、所定の形状を撮像部642に撮像させることで、容易に所定の処理の操作を指示することができる。よって、本実施形態における入力装置200は、利便性を向上させることができる。なお、本実施形態における入力装置200は、手や指の奥行き方向の位置を正確に検出する必要はなく、所定の形状の大きさにより所定の処理の実行を制御するので、所定の処理を実行させる上で利便性を向上させることができる。
これにより、入力装置200は、ユーザーが操作を指示するために用いる所定の形状(例えば、ユーザーの手)を正確に検出することができるので、例えば、他人の手により誤操作されることを低減することができる。よって、本実施形態における入力装置200は、利便性を向上させることができる。
これにより、入力装置200は、ユーザーが操作を指示するために用いる所定の形状(例えば、ユーザーの手)を簡易な手段により、正確に検出することができる。
これにより、ユーザーは、所定の形状を撮像部642に撮像させることにより、AF制御部203により合焦処理を指示(操作)することができる。そのため、本実施形態における入力装置200は、利便性を向上させることができる。
これにより、本実施形態における入力装置200は、例えば、情報(画像など)を伝達する相手にとってわかり易いコミュニケーションを取ることが可能になる。そのため、本実施形態における入力装置200は、利便性を向上させることができる。
これにより、本実施形態における入力装置200は、例えば、メニュー選択などを行う場合に、所定の形状(例えば、ユーザーの手)の動作や形状を正確に認識することが可能になる。そのため、本実施形態における入力装置200は、利便性を向上させることができる。
これにより、ユーザーは、所定の形状を撮像部642に撮像させることにより、メニュー選択処理部204による操作メニューを選択する処理を行うことができる。そのため、本実施形態における入力装置200は、利便性を向上させることができる。
これにより、所定の形状(例えば、ユーザーの手)の動作や形状を正確に認識する場合に、操作メニューの数を多くするので、本実施形態における入力装置200は、適切に操作メニューを選択する処理を行うことができる。そのため、本実施形態における入力装置200は、利便性を向上させることができる。
これにより、ユーザーは、手を撮像部642に撮像させることにより、ヘッドマウントディスプレイ1を操作することができる。そのため、本実施形態における入力装置200は、利便性を向上させることができる。
これにより、ユーザーが左右の手のうちの操作に使用する手を検出するので、本実施形態における入力装置200は、ユーザーの手による使い易い操作が可能となる。
これにより、ユーザーは、画像内に指し示したい対象物を操作性よく指し示すことができる。そのため、本実施形態における入力装置200は、例えば、情報(画像など)を伝達する相手にとってわかり易いコミュニケーションを取ることが可能になる。
これにより、本実施形態におけるヘッドマウントディスプレイ1は、上述した入力装置200を備えているので、上述した入力装置200と同様の効果を奏し、利便性を向上させることができる。
例えば、上記の各実施形態において、所定の形状が手の形状である形態について説明したが、これに限定されるものではない。例えば、図19に示すように、所定の形状が、入力装置200を操作するためのリモコン140の形状であってもよい。すなわち、所定の形状が、リモコン140の形状に基づいて定められていてもよい。図19において、画像G4は、撮像部642によって撮像されている画像を示している。リモコン140には3つのインジケーター143a〜143cが設けられていて、このインジケーターの発光をカメラ64で捕らえることにより、ユーザーの手の代用とすることが可能である。入力制御部202は、手の場合と同様に、リモコン140のインジケーター143a〜143cによって指し示される位置P3において、所定の処理(例えば、合焦処理やメニュー選択処理)を制御する形態でもよい。インジケーター143a〜143cは発光させることができるので、入力装置200は、撮像画像が暗い場合であっても、正確に操作することができる。すなわち、入力装置200は、リモコン140のインジケーター143a〜143cの発光を用いる場合、暗いところでもパターンをハッキリと認識することが可能であり、暗いところでも使いやすいシステムが提供できる。
また、図19では3つのインジケーター143a〜143cを使用することで座標認識の精度を向上させているが、インジケーターが2つであってもよいし、4つ以上であってもよい。
また、上記の各実施形態において、AF制御部203は、光学系641を駆動して合焦させる形態を説明したが、撮像部642を移動させて合焦させる形態でもよい。
Claims (10)
- 撮像部によって撮像された画像から対象物を検出する検出部と、
前記検出部によって検出された前記対象物の大きさに基づき、前記撮像部の焦点調節部を制御するとともに、前記検出部によって検出された前記対象物の位置に基づく指示位置を、操作を設定するための複数の画像が表示されている表示部に表示させる制御部と、
を備える電子機器。 - 前記制御部は、前記対象物の大きさが所定の大きさ以上であると、前記撮像部の焦点調節部を制御する請求項1に記載の電子機器。
- 前記制御部は、前記検出部によって複数の前記対象物が検出されると、最も大きい前記対象物の大きさに基づき、前記撮像部の焦点調節部を制御する請求項1又は請求項2に記載の電子機器。
- 前記制御部は、前記撮像部の焦点調節部を制御することにより前記撮像部の光学系を前記対象物に合焦させる請求項1から請求項3のいずれか一項に記載の電子機器。
- 前記制御部は、前記操作を設定するための複数の画像のうちの前記指示位置の画像に基づく操作を選択する請求項1から請求項4のいずれか一項に記載の電子機器。
- 前記制御部は、選択された前記操作を実行する請求項5に記載の電子機器。
- 前記制御部は、前記表示部の前記指示位置にマークを表示させる請求項1から請求項6のいずれか一項に記載の電子機器。
- 前記対象物は、手である請求項1から請求項7のいずれか一項に記載の電子機器。
- 前記撮像部と前記表示部とを備える請求項1から請求項8のいずれか一項に記載の電子機器。
- 請求項1から請求項8のいずれか一項に記載の電子機器と、
前記撮像部及び前記表示部を頭部に装着する装着部と、
を備える表示装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012055864A JP6136090B2 (ja) | 2012-03-13 | 2012-03-13 | 電子機器、及び表示装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012055864A JP6136090B2 (ja) | 2012-03-13 | 2012-03-13 | 電子機器、及び表示装置 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017092307A Division JP6719418B2 (ja) | 2017-05-08 | 2017-05-08 | 電子機器 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013190925A JP2013190925A (ja) | 2013-09-26 |
JP6136090B2 true JP6136090B2 (ja) | 2017-05-31 |
Family
ID=49391118
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012055864A Active JP6136090B2 (ja) | 2012-03-13 | 2012-03-13 | 電子機器、及び表示装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6136090B2 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10394330B2 (en) * | 2014-03-10 | 2019-08-27 | Qualcomm Incorporated | Devices and methods for facilitating wireless communications based on implicit user cues |
JP6340301B2 (ja) | 2014-10-22 | 2018-06-06 | 株式会社ソニー・インタラクティブエンタテインメント | ヘッドマウントディスプレイ、携帯情報端末、画像処理装置、表示制御プログラム、表示制御方法、及び表示システム |
US10477090B2 (en) | 2015-02-25 | 2019-11-12 | Kyocera Corporation | Wearable device, control method and non-transitory storage medium |
JP6483514B2 (ja) * | 2015-04-28 | 2019-03-13 | 京セラ株式会社 | ウェアラブル装置、制御方法及び制御プログラム |
WO2018185830A1 (ja) * | 2017-04-04 | 2018-10-11 | 株式会社オプティム | 情報処理システム、情報処理方法、情報処理装置、及びプログラム |
JP2018160249A (ja) * | 2018-05-14 | 2018-10-11 | 株式会社ソニー・インタラクティブエンタテインメント | ヘッドマウントディスプレイシステム、ヘッドマウントディスプレイ、表示制御プログラム、及び表示制御方法 |
JP6717393B2 (ja) * | 2019-01-08 | 2020-07-01 | 株式会社ニコン | 電子機器 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0784715A (ja) * | 1993-09-10 | 1995-03-31 | Hitachi Ltd | 情報処理装置 |
JPH086078A (ja) * | 1994-06-22 | 1996-01-12 | Matsushita Electric Ind Co Ltd | 外部変調光送信装置 |
JP5258399B2 (ja) * | 2008-06-06 | 2013-08-07 | キヤノン株式会社 | 画像投影装置及びその制御方法 |
JP2010122735A (ja) * | 2008-11-17 | 2010-06-03 | Toshiba Information Systems (Japan) Corp | インタフェース装置及びインタフェース用プログラム |
JP5620651B2 (ja) * | 2009-06-26 | 2014-11-05 | キヤノン株式会社 | 再生装置、撮像装置、及びその制御方法 |
JP2011095985A (ja) * | 2009-10-29 | 2011-05-12 | Nikon Corp | 画像表示装置 |
JP5459031B2 (ja) * | 2010-04-13 | 2014-04-02 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
-
2012
- 2012-03-13 JP JP2012055864A patent/JP6136090B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2013190925A (ja) | 2013-09-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6719418B2 (ja) | 電子機器 | |
CN108205197B (zh) | 显示装置和显示装置的控制方法 | |
JP2013190941A (ja) | 情報入出力装置、及び頭部装着表示装置 | |
JP6136090B2 (ja) | 電子機器、及び表示装置 | |
US10976836B2 (en) | Head-mounted display apparatus and method of controlling head-mounted display apparatus | |
JP6011072B2 (ja) | 制御装置、及びプログラム | |
JP6318462B2 (ja) | 表示装置 | |
JP6123180B2 (ja) | 表示装置 | |
JP2018082363A (ja) | 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム | |
JP2018124721A (ja) | 頭部装着型表示装置、及び頭部装着型表示装置の制御方法 | |
JP2019082891A (ja) | 頭部装着型表示装置、表示制御方法、およびコンピュータープログラム | |
JP2019164420A (ja) | 透過型頭部装着型表示装置および透過型頭部装着型表示装置の制御方法、透過型頭部装着型表示装置の制御のためのコンピュータープログラム | |
JP7247519B2 (ja) | 表示装置、及び、表示装置の制御方法 | |
JP6996115B2 (ja) | 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 | |
JP6015223B2 (ja) | 電子機器、及び表示装置 | |
JP2013175947A (ja) | 頭部装着装置 | |
JP2018206080A (ja) | 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 | |
JP2013175909A (ja) | 頭部装着装置 | |
JP2014021272A (ja) | 情報入出力装置、及び情報入出力方法 | |
JP6717393B2 (ja) | 電子機器 | |
JP6123160B2 (ja) | 電子機器、及び表示装置 | |
JP2014022937A (ja) | 頭部装着型情報入出力装置、及び頭部装着型情報入出力方法 | |
JP2013174730A (ja) | 情報表示装置 | |
JP2014022942A (ja) | 頭部装着装置 | |
JP6932917B2 (ja) | 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150310 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160208 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160329 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160530 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161004 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161202 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170404 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170417 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6136090 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |