JP2012194626A - 表示装置 - Google Patents
表示装置 Download PDFInfo
- Publication number
- JP2012194626A JP2012194626A JP2011056250A JP2011056250A JP2012194626A JP 2012194626 A JP2012194626 A JP 2012194626A JP 2011056250 A JP2011056250 A JP 2011056250A JP 2011056250 A JP2011056250 A JP 2011056250A JP 2012194626 A JP2012194626 A JP 2012194626A
- Authority
- JP
- Japan
- Prior art keywords
- image
- hand
- user
- unit
- operation unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
【課題】使用者に手と操作部との位置関係を視認させることにより操作性を向上させた表示装置を提供する。
【解決手段】使用者の頭部に固定する頭部固定部8と、前記頭部固定部に配置された操作部10と、使用者の目に入力する映像を表示する表示部16と、前記操作部に近づけられた使用者の手の位置を検出する検出部13と、前記検出部により検出された前記使用者の手の位置に基づいて、前記操作部と前記使用者の手との位置関係を示す画像を生成する画像生成部30と、前記画像生成部により生成された前記画像を前記表示部に表示させる表示制御部42とを備える。
【選択図】 図2
【解決手段】使用者の頭部に固定する頭部固定部8と、前記頭部固定部に配置された操作部10と、使用者の目に入力する映像を表示する表示部16と、前記操作部に近づけられた使用者の手の位置を検出する検出部13と、前記検出部により検出された前記使用者の手の位置に基づいて、前記操作部と前記使用者の手との位置関係を示す画像を生成する画像生成部30と、前記画像生成部により生成された前記画像を前記表示部に表示させる表示制御部42とを備える。
【選択図】 図2
Description
本発明は、表示装置に関するものである。
従来、操作部をヘッドホンの側面に配置したヘッドマウントディスプレイ(以下、HMDという。)が知られている(例えば、特許文献1参照)。このHMDにおいては、操作部の表面に凹凸が設けられており、この凹凸によって使用者は操作部に設けられたボタンの位置を確認している。
しかしながら、上述のHMDにおいては、使用者が操作部を操作するとき、自身の手と操作部との位置関係を視覚的に把握できないので、手探りで操作部を探してから操作部を操作する必要が有り、操作性が悪いという問題があった。
本発明の目的は、使用者に自身の手と操作部との位置関係を視認させることにより操作性を向上させた表示装置を提供することである。
本発明の表示装置は、使用者の頭部に固定する頭部固定部と、前記頭部固定部に配置された操作部と、使用者の目に入力する映像を表示する表示部と、前記操作部に近づけられた使用者の手の位置を検出する検出部と、前記検出部により検出された前記使用者の手の位置に基づいて、前記操作部と前記使用者の手との位置関係を示す画像を生成する画像生成部と、前記画像生成部により生成された前記画像を前記表示部に表示させる表示制御部とを備えることを特徴とする。
本発明によれば、使用者に手と操作部との位置関係を認識させることができ、表示装置の操作性を向上させることができる。
以下、図面を参照して、本発明の実施の形態に係る表示装置としての単眼式のHMDについて説明する。図1は第1の実施の形態に係るHMDの外観を示す図である。図1に示すようにHMD2は、音声を出力する2つのヘッドホン4、6を有し、これらは頭部固定部8により結合されている。ヘッドホン4、6にはそれぞれ後述するスピーカ32、34(図2参照)が収納されている。頭部固定部8は、弾性を有してその弾性力によってヘッドホン4、6を使用者の左右の耳を押圧し、これによってHMD2が使用者の頭部に固定される。
また、ヘッドホン4の外側には操作部10と、カメラ13が設けられている。操作部10は中央部に位置する回転型セレクタ11と、回転型セレクタ11の周りを囲むように上ボタン、下ボタン、右ボタン、左ボタンを配置した十字キー12から構成されている。カメラ13は操作部10の上部に撮影方向を斜め下に向けて設けられている。これによりカメラ13は、操作部10の近傍を含んだ領域の撮影を行う。ヘッドホン6の外側にはディスプレイアーム14が図示しない回転部を介して回転可能に設けられる。ディスプレイアーム14の先端部には画像や映像を表示する表示部16が設けられている。
表示部16の内部には、画像や映像等の映像情報を電気的に表示するLCD18、LCD18の背面に配置されたバックライト38(図2参照)、反射鏡20及び接眼レンズ22が設けられ、バックライト38から射出された照明光によってLCD18に表示された映像情報を照明する。LCD18に表示された映像情報は、反射鏡20により反射された後、接眼レンズ22によりサイズが変更されて使用者の眼に入力される。
図2は第1の実施の形態に係るHMDのシステム構成を示すブロック図である。図2に示すようにHMD2はCPU30を備え、CPU30には操作部10、ヘッドホン4、6に収納されたスピーカ32、34、表示部16の内部に設けられたバックライト38の制御を行うバックライトドライバ40、LCD18に表示する映像の出力制御を行う表示制御部42、ディスプレイアーム14の回転方向を検知するセンサ44、カメラ13の制御を行うカメラドライバ46、メモリ48が接続されている。
メモリ48には、カメラ13によって撮影された映像が記憶される他、HMD2を装着した頭部を示す頭部のイメージ画像の情報、操作部10を操作する手のイメージ画像の情報、及び使用者の手と操作部10との位置関係を示す画像を生成するための情報が記憶される。頭部のイメージ画像の情報は、操作部10が右側頭部に位置する場合に対応した頭部のイメージ画像、及び操作部10が左側頭部に位置する場合に対応した頭部のイメージ画像の情報である。手のイメージ画像の情報は、右手及び左手の人差し指だけを伸ばした手の形状や、人差し指と中指とを伸ばした手の形状等の手のイメージ画像の情報である。
次に、図面を参照して第1の実施の形態に係るHMD2における手と操作部との位置関係を示した画像の表示について説明する。図3は第1の実施の形態に係るHMDを装着した使用者を示す図である。この実施の形態においては図3に示すように表示部16が使用者の右眼前方にあり、かつ操作部10が左側頭部に位置する向きでHMD2が使用者の頭部に装着されているものとする。使用者が図示しない電源スイッチをオンするとCPU30が起動してカメラ13によって撮影された画像に基づいて使用者の手と操作部10との位置関係を示す画像である位置画像を生成し、その位置画像を含んだ映像を表示部16のLCD18に表示して使用者の右眼に入力することによって映像情報を提供する。
図4は第1の実施の形態に係るHMDによって使用者に提供される映像を示す図である。CPU30は表示制御部42を制御して図4に示すように文字入力画面60と位置画像62とを分割表示した映像を表示部16に表示させる。なお、文字入力画面60は、入力する文字を選択させる選択文字欄60a、選択文字欄60aにおいて入力対象を示すカーソル60b、入力された文字を表示する文字入力欄60cからなり、使用者が文字入力を行う画面である。
CPU30は、使用者の左側頭部に操作部10が位置することに対応させて文字入力画面60を右側、位置画像62を左側に配置した映像を生成し、表示制御部42を制御して生成した映像を表示部16に表示させる。ここで位置画像62の生成について説明する。先ずCPU30は、起動時にセンサ44により検出されたディスプレイアーム14の回転方向の検知によって、頭部固定部8が使用者の頭部に装着された向きを認識する。CPU30は頭部固定部8が装着された向きに基づき、操作部10が左側頭部に位置する頭部のイメージ画像の情報をメモリ48から読み出す。
次に、CPU30は、カメラ13により撮影された画像に使用者の手が映っているか否かを検出する。そして撮影された画像に手が映っていないとき、CPU30は、頭部のイメージ画像の情報だけを用いて位置画像62を生成する。そして表示部16に表示される位置画像62には、図4に示すようにHMD2を装着した頭部のイメージ画像だけが示される。表示される頭部のイメージ画像は、操作部10を示す箇所が前面で表示されるように横向き、つまり本実施の形態においては左向きとなっている。
一方、撮影された画像に手が映っているとき、CPU30は、撮影された画像に基づいて操作部10に近づけられた使用者の手の位置を検出する。即ちCPU30は、使用者の指先の位置を検出し、その検出した位置を後述する手のイメージ画像の配置場所として定める。またCPU30は、撮影された画像に基づいて伸びている指の本数を検出する。
CPU30は、映っている手が左手または右手の何れであるかを頭部固定部8が装着された向きに基づいて特定する。ここでは、操作部10が使用者の左側頭部に位置するため、CPU30は、映っている手を左手として特定する。CPU30は、検出した指の本数と特定した手とに基づいてメモリ48に記憶されている手のイメージ画像の情報を検索し、該当する手のイメージ画像の情報を読み出す。例えば指を1本伸ばした手が映っていた場合、CPU30は左手の人差し指を伸ばした手のイメージ画像の情報を読み出し、指を2本伸ばした手が映っていた場合、左手の人差し指と中指とを伸ばした手のイメージ画像の情報を読み出す。
CPU30は、読み出した頭部のイメージ画像の情報と手のイメージ画像の情報及び定めた配置場所に基づいて手のイメージ画像を頭部のイメージ画像に重畳させた位置画像62を生成する。例えば使用者の指先が回転型セレクタ11に近接した位置にある場合、CPU30は、回転型セレクタ11の場所に指先が重なるように頭部のイメージ画像に手のイメージ画像を重畳させた位置画像62を生成する。また、CPU30は、使用者が操作部10に近づけている手を動かしたときに、その実際の手の移動に対応して手のイメージ画像が移動するように、配置場所を定める処理を継続して行いその処理結果に応じて位置画像62を更新する。
そのため、表示部16に表示される位置画像62は、例えば使用者が図5に示すように指を1本伸ばした手を操作部10に近づけた場合には、図6に示すように人差し指だけが伸びている手のイメージ画像が頭部のイメージ画像に重畳した画像となる。そして使用者が操作部10に近づけている手を動かした場合、位置画像62は、頭部のイメージ画像に重畳する手のイメージ画像が実際の使用者の手の動きに応じた場所へと移動する画像となる。
本実施の形態によれば、使用者は表示部16に表示された位置画像62によって自身の手と操作部10との位置関係を視認することができるため、操作部10の操作性が向上する。
なお、上述の実施の形態においては、使用者が指を1本伸ばした手を操作部10に近づけたときの位置画像62を生成しているが、図7に示すように2本の指が操作部10に近づけられたとき、CPU30は、図8に示すように人差し指と中指が伸びる手のイメージ画像を頭部のイメージ画像に重畳させた位置画像62を生成する。このときCPU30は、2本の指先の位置と、手のイメージ画像の人差し指及び中指の指先の位置とが対応するように手のイメージ画像の配置場所を定め、位置画像62を生成する。これにより使用者は2本の指で操作部10を操作するときに、各指と操作部10との位置関係を視認することができるため、操作部10の操作性が向上する。
また、上述の実施の形態においては、指を1本伸ばした手が映っていた場合、CPU30は左手の人差し指を伸ばした手のイメージ画像の情報を読み出していたが、そうでなくてもよい。例えば、あらかじめ全ての指において、指を1本だけを伸ばした手の形状のイメージ画像をメモリ48に記憶させておく。そして、操作部10を操作する使用者の手をカメラ13で撮影し、使用者が伸ばしている指と対応する手の形状の画像を手のイメージ画像として使用してもよい。また指を2本以上伸ばした手が映っていた場合も同様に、あらかじ様々な指を伸ばした手の形状のイメージ画像をメモリ48に記憶させておき、使用者が伸ばした指と同じ指を伸ばした手の形状の画像をイメージ画像として使用してもよい。また、指を3本以上伸ばした指先の位置と、手のイメージ画像の指先の位置とが対応するように手のイメージ画像の配置場所を定め、位置画像62を生成してもよい。これにより使用者は、各指と操作部10との位置関係がわかりやすくなり、操作部10の操作性が向上する。
また、上述の実施の形態においては、使用者の左側頭部に操作部10を位置させているが、図9に示すように操作部10を右側頭部に位置させる場合、CPU30は、図10に示すように右向きの頭部のイメージ画像に右手のイメージ画像を重畳させた位置画像62を生成する。また右側頭部に操作部10が位置しているので、CPU30は、表示制御部42を制御して文字入力画面60を左側、位置画像62を右側に配置した映像を表示部16に表示させる。
また、上述の実施の形態においては、カメラ13によって撮影した画像に基づいて操作部10から手まで距離を検出し、その距離に応じて手のイメージ画像の大きさを変更するようにしてもよい。例えば手と操作部10との間隔が広くなると手のイメージ画像を小さくし、手と操作部10との間隔が狭くなると手のイメージ画像を大きくする。最終的に手が操作部10に接触したときには、指先が十字キーの各ボタンと略同一の大きさになるように手のイメージ画像の大きさを決定する。これにより使用者は手が操作部10からどの程度離れているかを認識することができる。
さらに、上述の実施の形態においては、カメラ13を操作部10の上部に設けたが、操作部10から回転型セレクタ11を取り除いてその部分にカメラ13を配置してもよい。このようにすればカメラ13が操作部10の中央部に配置されるため、CPU30は操作部10と使用者の手との位置関係をより正確に検出できる。また操作部10の表面を移動する指の動きをカメラ13で撮影し、その指の動きを回転型セレクタ11を操作する動きとして認識するようにしてもよい。
また、カメラ13の代わりに、赤外線カメラを設けてもよい。この場合には操作部10の表面を赤外線のみを透過するフィルタによって形成し、操作部10の内部に赤外線カメラを配置する。このようにすれば、操作部10に近づけられる指から出る赤外線を赤外線カメラによって撮影し、使用者の手を検知することができ、更にカメラが操作部10の内部に隠れるのでHMDの外観が向上する。
また、上述の実施の形態においては、カメラ13を操作部10の上部に設けているが、HMD2の前後方向に向いたヘッドホン4の側面のどちらか一方にカメラ13を設けてもよい。この場合には操作部10に近づけられた使用者の手がカメラ13による撮影視野内に入るようにカメラ13を広角が撮影できるカメラとする。
次に第2の実施の形態に係るHMD2について説明する。本実施の形態に係るHMD2は、第1の実施の形態のカメラ13の代わりに近接センサ70を設けたものである。なお第1の実施の形態と同一の構成については同一の符号を付してその説明を省略する。図11は第2の実施の形態に係るHMDの外観を示す図である。図11に示す近接センサ70は、可撓性を有するパネルを備えた静電容量方式のセンサであり、操作部10に近づけられた使用者の手を検知する。
近接センサ70のパネルは、操作部10の表面に重ねて取り付けられ、使用者による回転型セレクタ11の操作を妨げないように回転型セレクタ11に重なる部分が切り取られた形状となっている。なお近接センサ70に可撓性を有するパネルを用いているため、使用者が十字キー12のボタン入力のためにパネルの表面を押圧したとき、ボタンを押下した感覚が使用者に伝わるようになっている。
次に第2の実施の形態における位置画像の生成について説明する。CPU30は、頭部のイメージ画像の情報を第1の実施の形態と同様の方法によってメモリ48から読み出す。またCPU30は使用者が操作部10をどちらの手で操作しているかを第1の実施の形態と同様の方法によって特定する。
図11に示すように使用者が操作部10に手を近づけたとき、CPU30は、近接センサ70により使用者の手を検知する。例えば使用者が指を1本伸ばして操作部10に近づけた場合、CPU30は、近接センサ70による検知結果に基づいて指を1本伸ばした手が近づけられたことを検出し、メモリ48に記憶されている手のイメージ画像の情報から使用者が操作部10の操作に用いている右手または左手の人差し指を1本伸ばした手のイメージ画像を読み出す。
さらにCPU30は、近接センサ70による検知結果に基づいて使用者の手の指先の位置を特定し、手のイメージ画像の配置場所を定める。CPU30は、頭部のイメージ画像の情報と手のイメージ画像の情報及び定めた配置場所に基づいて、頭部のイメージ画像に手のイメージ画像を重畳させた位置画像62を生成する。
この第2の実施の形態によれば、使用者は位置画像62によって自身の手と操作部10との位置関係を視認することができるため操作部10の操作性が向上する。
次に第3の実施の形態に係るHMD2について説明する。ここでは特定の空間内でHMD2を利用する使用者を外部カメラ82により撮影し、CPU30は、撮影された画像に基づいて位置画像62を生成する。そのため図12に示すように使用者は特定の空間内としての部屋80の中でHMD2を利用する。部屋80内には、中央部に机81、机81の左右両側に外部カメラ82が配置されている。HMD2と外部カメラ82は、互いに無線通信を行う通信機能を備えており、これにより外部カメラ82によって撮影された画像はHMD2に送信され、HMD2により受信される。外部カメラ82が使用者の左右両側に配置されていることから、外部カメラ82により使用者が操作部10に手を近づける様子を確実に撮影することができる。
次に第3の実施の形態における位置画像の生成について説明する。CPU30は、頭部のイメージ画像の情報を第1の実施の形態と同様の方法によってメモリ48から読み出す。またCPU30は使用者が操作部10をどちらの手で操作しているかを第1の実施の形態と同様の方法によって特定する。CPU30は、外部カメラ82から画像を受信し、その画像に基づいて使用者が操作部10に手を近づけているか否かを検出する。
使用者が手を操作部10に近づけた場合、CPU30は、外部カメラ82によって撮影された画像に基づき操作部10に近づけられている使用者の手の位置と、操作部10に近づけられた指の本数とを検出する。CPU30は、特定した使用者が操作部10の操作に用いている手と、検出した指の本数とに基づいてメモリ46を検索し、該当する手のイメージ画像の情報を読み出す。CPU30は検出した使用者の手の位置に基づいて手のイメージ画像の配置場所を定める。そしてCPU30は、読み出した頭部のイメージ画像の情報と手のイメージ画像の情報及び定めた配置場所に従って手のイメージ画像を頭部のイメージ画像に重畳させた位置画像62を生成する。
このように第3の実施の形態によれば、特定の空間内でHMD2が使用されるときにはカメラ13や近接センサ70を利用しなくても、外部カメラ82で撮影した画像によって位置画像62を生成することができる。使用者は位置画像62によって自身の手と操作部10との位置関係を視認できるため操作部10の操作性が向上する。
なお、上述の各実施の形態においては、文字入力画面60と位置画像62とを分割表示した映像を表示する場合を例に説明したが、動画の表示中に動画と位置画像62とを分割表示すると動画が小さくなり使用者にとって見難くなる。そのため動画を表示しているときは位置画像62を半透明にして表示中の動画に重畳させて表示させてもよい。このように文字入力画面60や動画等の映像の種類に応じて位置画像62の表示方法を変更すれば、使用者による映像の鑑賞を妨げることがない。
また、位置画像62を動画に重畳させる場合、使用者が手を操作部10に近づけている間だけ位置画像62を表示させるようにすれば、位置画像62が使用者の動画鑑賞の妨げになるのを防止することができる。同様に、分割表示した映像を表示する場合においても、使用者が手を操作部10に近づけている間だけ位置画像62を表示させるようにすれば位置画像62が使用者の映像の鑑賞の妨げになるのを防止することができる。
また、位置画像62を半透明にして動画に重畳させる場合に、HMD2の電源スイッチをオンした回数や、回転型セレクタ11の操作回数や十字キー12の押下回数等の操作部10の操作回数に基づく熟練度を設定し、使用者の熟練度に応じて位置画像62の透過率を変化させてもよい。そして熟練度が高い程、動画の透過率が高くなるようにして最終的に位置画像62を表示させないようにすれば、操作に慣れて位置画像62を必要としない使用者にとってはより快適に動画を鑑賞することができ、利便性が向上する。
さらに、上述したカメラ13と近接センサ70の両方をHMD2に設けて操作部10と使用者の手との位置関係を検出してもよい。このようにすれば近接センサ70が検知できない程度に手が操作部10から離れているときはカメラ13によって撮影した映像に基づいて手の位置を検出し、手が近づきすぎてカメラ13により撮影される画像に指先が映らないときは近接センサ70による検知に基づいて手の位置を検出する。これにより更に正確に操作部10と手との位置関係を検出することができる。
また、上述の各実施の形態においては、ヘッドホンを備えたHMDにカメラ13や近接センサ70を設けたが、これに限らず眼鏡型でつるの部分に操作部を設けたHMDにカメラ13や近接センサ70を設け、カメラ13によって撮影した画像や、近接センサ70による検知結果に基づいて位置画像62を生成すれば、上述した各実施例と同様に使用者は位置画像62によって自身の手と操作部10との位置関係を視認できるため操作部10の操作性が向上する。
2…HMD、10…操作部、13…カメラ、11…回転型セレクタ、12…十字キー、16…表示部、30…CPU、42…表示制御部、48…メモリ、70…近接センサ、82…外部カメラ。
Claims (13)
- 使用者の頭部に固定する頭部固定部と、
前記頭部固定部に配置された操作部と、
映像を表示する表示部と、
前記操作部に近づいた使用者の手の位置を検出する検出部と、
前記検出部により検出された前記使用者の手の位置に基づいて、前記操作部と前記使用者の手との位置関係を示す画像を生成する画像生成部と、
前記画像生成部により生成された前記画像を前記表示部に表示させる表示制御部と、
を備えることを特徴とする表示装置。 - 前記検出部は、前記操作部の近傍を撮影するカメラを備えることを特徴とする請求項1に記載の表示装置。
- 前記検出部は、前記操作部に近づけられた前記使用者の手を検出する近接センサを備えることを特徴とする請求項1または請求項2に記載の表示装置。
- 前記検出部は、外部カメラにより撮影された前記操作部と使用者の手との位置関係を示す画像に基づいて前記操作部に対する使用者の手の位置を検出することを特徴とする請求項1に記載の表示装置。
- 前記頭部固定部が使用者の頭部に装着された向きに基づいて前記操作部を操作する使用者の左右の手を特定する手特定部を備え、
前記画像生成部は、前記手特定部により左右の手の何れが特定されたかに基づいて手のイメージ画像を含む前記画像を生成することを特徴とする請求項1〜4の何れか一項に記載の表示装置。 - 前記検出部は、前記操作部に近づけられた指の本数を検出し、
前記画像生成部は、前記検出部により検出された指の本数に基づいて手のイメージ画像を含む前記画像を生成することを特徴とする請求項1〜請求項5の何れか一項に記載の表示装置。 - 前記画像生成部は、使用者の手が前記検出部に近づくに従って前記手のイメージ画像の大きさを変化させていくことを特徴とする請求項5または請求項6に記載の表示装置。
- 前記表示制御部は、前記表示部に表示中の映像の種類に基づいて、前記画像の表示方法を変更することを特徴とする請求項1〜請求項7の何れか一項に記載の表示装置。
- 前記表示方法は、前記画像を半透明状にして前記映像に重畳させて表示することを特徴とする請求項8に記載の表示装置。
- 前記表示方法は、使用者の熟練度に応じて、前記画像の透過率を変化させることを特徴とする請求項9に記載の表示装置。
- 前記熟練度は、使用者による前記操作部の操作回数に基づいて定めることを特徴とする請求項10に記載の表示装置。
- 前記表示方法は、前記画像と前記映像とを分割して表示することを特徴とする請求項8に記載の表示装置。
- 前記表示制御部は、使用者の手が前記検出部に検出されている間のみ前記画像を前記表示部に表示することを特徴とする請求項1〜請求項12の何れか一項に記載の表示装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011056250A JP2012194626A (ja) | 2011-03-15 | 2011-03-15 | 表示装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011056250A JP2012194626A (ja) | 2011-03-15 | 2011-03-15 | 表示装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012194626A true JP2012194626A (ja) | 2012-10-11 |
Family
ID=47086500
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011056250A Withdrawn JP2012194626A (ja) | 2011-03-15 | 2011-03-15 | 表示装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012194626A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016017250A1 (ja) * | 2014-08-01 | 2016-02-04 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
WO2016052134A1 (ja) * | 2014-09-30 | 2016-04-07 | コニカミノルタ株式会社 | ヘッドマウントディスプレイ |
WO2016052135A1 (ja) * | 2014-09-30 | 2016-04-07 | コニカミノルタ株式会社 | ヘッドマウントディスプレイ及びウェアラブルコンピューター |
JP2016100836A (ja) * | 2014-11-25 | 2016-05-30 | オンキヨー株式会社 | ヘッドホン |
-
2011
- 2011-03-15 JP JP2011056250A patent/JP2012194626A/ja not_active Withdrawn
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016017250A1 (ja) * | 2014-08-01 | 2016-02-04 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
WO2016052134A1 (ja) * | 2014-09-30 | 2016-04-07 | コニカミノルタ株式会社 | ヘッドマウントディスプレイ |
WO2016052135A1 (ja) * | 2014-09-30 | 2016-04-07 | コニカミノルタ株式会社 | ヘッドマウントディスプレイ及びウェアラブルコンピューター |
JPWO2016052135A1 (ja) * | 2014-09-30 | 2017-07-13 | コニカミノルタ株式会社 | ヘッドマウントディスプレイ及びウェアラブルコンピューター |
JP2016100836A (ja) * | 2014-11-25 | 2016-05-30 | オンキヨー株式会社 | ヘッドホン |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11209939B2 (en) | External user interface for head worn computing | |
US10133407B2 (en) | Display apparatus, display system, method for controlling display apparatus, and program | |
US9110502B2 (en) | Motion sensing display apparatuses | |
JP2010145861A (ja) | ヘッドマウントディスプレイ | |
WO2013088725A1 (en) | Head-mounted display and information display apparatus | |
JP2010145860A (ja) | ヘッドマウントディスプレイ | |
JP6264871B2 (ja) | 情報処理装置および情報処理装置の制御方法 | |
JPH0749744A (ja) | 頭部搭載型表示入力装置 | |
JP6339887B2 (ja) | 画像表示装置 | |
WO2017015093A1 (en) | External user interface for head worn computing | |
US20160216792A1 (en) | Head mounted display, and control method and control program for head mounted display | |
KR102110208B1 (ko) | 안경형 단말기 및 이의 제어방법 | |
US11681433B2 (en) | Display system, controller, display system control method, and program for receiving input corresponding to image displayed based on head movement | |
KR20170133754A (ko) | 동작 인식 기반의 스마트 글래스 장치 | |
JP2018124721A (ja) | 頭部装着型表示装置、及び頭部装着型表示装置の制御方法 | |
JP2001154794A (ja) | まばたきによるクリック機能を有するポインティング装置 | |
JP2012194626A (ja) | 表示装置 | |
JP6638392B2 (ja) | 表示装置、表示システム、表示装置の制御方法、及び、プログラム | |
JP2018022426A (ja) | 表示装置、頭部装着型表示装置、及び、表示装置の制御方法 | |
JP6740613B2 (ja) | 表示装置、表示装置の制御方法、及び、プログラム | |
JP2011170585A (ja) | ポインティングデバイス及び情報処理システム | |
JP2016139174A (ja) | ヘッドマウントディスプレイ、ヘッドマウントディスプレイの制御方法および制御プログラム | |
WO2016072271A1 (ja) | 表示装置、表示装置の制御方法及びその制御プログラム | |
US10691250B2 (en) | Information processing device, information processing method, and program for preventing reflection of an operation in an output | |
WO2023181549A1 (ja) | 制御装置、制御方法、プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140603 |