JP2013131884A - 眼鏡 - Google Patents
眼鏡 Download PDFInfo
- Publication number
- JP2013131884A JP2013131884A JP2011279361A JP2011279361A JP2013131884A JP 2013131884 A JP2013131884 A JP 2013131884A JP 2011279361 A JP2011279361 A JP 2011279361A JP 2011279361 A JP2011279361 A JP 2011279361A JP 2013131884 A JP2013131884 A JP 2013131884A
- Authority
- JP
- Japan
- Prior art keywords
- position information
- relative position
- glasses
- television
- mask control
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
【課題】HMD(ヘッドマウントディスプレイ)のような頭部に装着して用いられる表示装置と異なり、映像表示機能を備えない簡易な構成をとるテレビ視聴用の眼鏡であって、かつ、高い没入感を得ることを可能とする眼鏡を提供する。
【解決手段】テレビ視聴用の眼鏡であって、眼鏡とテレビとの相対位置情報を取得する相対位置情報取得部と、取得した相対位置情報を利用して眼鏡のレンズのうちテレビ画面の視野として利用されていない部分を光透過しないようマスク制御するマスク制御部と、マスク制御部によって制御されるレンズに配置されたマイクロシャッター部と、からなる眼鏡。
【選択図】図1
【解決手段】テレビ視聴用の眼鏡であって、眼鏡とテレビとの相対位置情報を取得する相対位置情報取得部と、取得した相対位置情報を利用して眼鏡のレンズのうちテレビ画面の視野として利用されていない部分を光透過しないようマスク制御するマスク制御部と、マスク制御部によって制御されるレンズに配置されたマイクロシャッター部と、からなる眼鏡。
【選択図】図1
Description
本発明は、3Dテレビ(映像をあたかも立体であるかのように視聴可能なテレビ)等を視聴する際に用いられるテレビ視聴用の眼鏡に関する。
3Dテレビは、通常の平面的な映像を視聴するためのテレビと比較して、没入感(実際その場に身を置いているかのような感じ)を得られやすい。しかしながら、テレビ画面を見る時に、同時に、映像が表示されたテレビ画面の枠や、テレビの周囲に置かれた物などの映像以外の物が目に入ることで、没入感が阻害される。そこで、視聴者に高い没入感を与える3D映像表示装置として、HMD(ヘッドマウントディスプレイ)が挙げられる。HMDは、頭部に装着して用いられる表示装置である。ヘルメットやゴーグルのような形をしている場合が多く、頭部に装着して利用するときに右目と左目とでそれぞれ視認可能な2つの小型ディスプレイが備わっている。両目の前に配置された小型ディスプレイの画面を光学系によって拡大し、前方数メートル先に大画面スクリーンがあるかのような視覚効果(虚像)を作り出す。製品の一例として非特許文献1に記載のHMDなどがある。
ソニーマーケティング株式会社ホームページ、製品情報「3D対応ヘッドマウントディスプレイHMZ-T1」(http://www.sony.jp/hmd/products/HMZ-T1/)
非特許文献1に記載のHMDを含むHMDは、視聴者の全視野を覆い、HMDに設けられた画面を見るとの構成により、映像のみを視聴することを可能とするため、没入感を得られやすい。しかしながら、映像表示装置の機能を実現するために装置が大きく、重くなりやすく、装着時に視聴者が負担に感じるおそれがある。
また、HMDでは装置を小さくする必要などのために一般に画角が狭いが、画角が狭いことによって没入感が阻害されるおそれがある。
そこで、映像表示機能を備えない簡易な構成をとるテレビ視聴用の眼鏡であって、かつ、高い没入感を得ることを可能とする眼鏡が必要であった。
以上の課題を解決するため、本願出願人は、次の眼鏡を提案する。
すなわち、第一の発明として、テレビ視聴用の眼鏡であって、眼鏡とテレビとの相対位置情報を取得する相対位置情報取得部と、取得した相対位置情報を利用して眼鏡のレンズのうちテレビ画面の視野として利用されていない部分を光透過しないようマスク制御するマスク制御部と、マスク制御部によって制御されるレンズに配置されたマイクロシャッター部と、からなる眼鏡、を提案する。
第二の発明として、相対位置情報取得部は、相対位置情報を取得するためにテレビ画面枠を含む領域を撮影するカメラを有している第一の発明に記載の眼鏡、を提案する。
第三の発明として、相対位置情報取得部は、テレビ画面枠に配置されるマーカーを撮影することで相対位置情報を取得するマーカー撮像手段を有する第二の発明に記載の眼鏡、を提案する。
第四の発明として、相対位置情報取得部は、相対位置情報を取得するためにテレビに設けられたカメラから相対位置情報を取得する外部取得手段を有する第一の発明から第三の発明のいずれか一に記載の眼鏡、を提案する。
第五の発明として、マイクロシャッター部は、複数の開閉可能な液晶セルを有する、第一の発明から第四の発明のいずれか一に記載の眼鏡、を提案する。
第六の発明として、マスク制御部は、マイクロシャッター部を、3D画像視聴用にも駆動する3D用駆動手段を有する第一の発明から第五の発明のいずれか一に記載の眼鏡、を提案する。
本件発明の眼鏡は、テレビ視聴用の眼鏡であり、眼鏡自体には映像表示機能を備えていない。このため、簡易な構成をとることが可能である。また、マスク制御によりテレビ画面以外の部分について視聴者の視野を制限することで、高い没入感を得ることが可能である。
以下、本件発明の実施の形態について、添付の図面を用いて説明する。なお、本件発明は、これら実施の形態に何ら限定されるべきものではなく、その要旨を逸脱しない範囲において、種々なる態様で実施し得る。なお、実施形態1は、主に請求項1などに関する。実施形態2は、主に請求項2などに関する。実施形態3は、主に請求項3などに関する。実施形態4は、主に請求項4などに関する。実施形態5は、主に請求項5などに関する。実施形態6は、主に請求項6などに関する。実施形態7はその他の実施形態に関する。
<<実施形態1>>
<実施形態1:概要>
本実施形態の眼鏡は、眼鏡とテレビとの相対位置情報を利用して眼鏡のレンズのうちテレビ画面の視野として利用されていない部分をマスク制御する点に特徴を有する。
<実施形態1:概要>
本実施形態の眼鏡は、眼鏡とテレビとの相対位置情報を利用して眼鏡のレンズのうちテレビ画面の視野として利用されていない部分をマスク制御する点に特徴を有する。
<実施形態1:機能的構成>
図1は、本実施形態の眼鏡の一例を示す機能ブロック図である。
図1は、本実施形態の眼鏡の一例を示す機能ブロック図である。
本実施形態の眼鏡(0101)は、相対位置情報取得部(0102)と、マスク制御部(0103)と、マイクロシャッター部(0104)と、からなる。
なお、以下に詳述する本発明の構成要素である各部は、ハードウェア、ソフトウェア、ハードウェアとソフトウェアの両方のいずれかによって構成される。例えば、これらを実現する一例として、コンピュータを利用する場合には、CPU、バス、メモリ、インタフェース、周辺装置などで構成されるハードウェアと、それらハードウェア上で実行可能なソフトウェアがある。ソフトウェアとしては、メモリ上に展開されたプログラムを順次実行することで、メモリ上のデータや、インタフェースを介して入力されるデータの加工、保存、出力などにより各部の機能が実現される(明細書の全体を通じて同様である。)。
本実施形態の「眼鏡」は、頭部に装着して用いられるテレビ視聴用の装置である。眼鏡自体は映像表示機能を有しておらず、視聴者は、テレビ画面に表示された映像を眼鏡のレンズを通して視聴する。なお、「つる」の部分を耳にかけることで頭部に装着するタイプだけでなく、バンドで装着するタイプや、ゴーグル型、ヘルメット型の場合も、本実施形態の眼鏡に含む。
「相対位置情報取得部」は、眼鏡とテレビとの相対位置情報を取得する機能を有する。「相対位置情報」とは、眼鏡とテレビとの相互の位置関係(距離等)の情報である。眼鏡の「レンズ」は、光学素子としての意味ではなく、視力矯正用の眼鏡のレンズと類似した外観から使用する用語である。「眼鏡のレンズ」は、その部分を通して視聴者がテレビ画面を視聴することのできる光を透過する(マスク制御される場合には光を透過しない場合もある)部材である。
「相対位置情報取得部」による相対位置情報の取得は、例えば、テレビ画面枠を含む領域を撮影するカメラによって取得された画像に基づいて算出されてもよい。この点については、実施形態2及び3で詳述する。
あるいは、相対位置情報は、テレビに設けられたカメラによって取得された画像に基づいて算出されてもよい。この点については、実施形態4で詳述する。
「マスク制御部」は、眼鏡のレンズのうちテレビ画面の視野として利用されていない部分を光透過しないようマスク制御する機能を有する。「テレビ画面の視野」とは、テレビ画面を見ることのできる範囲をいう。「眼鏡のレンズのうちテレビ画面の視野として利用されていない部分」とは、視聴者が、眼鏡のレンズを通して、テレビ画面等を見る場合に、テレビ画面を見るのに利用していない部分をいう。テレビ画面の視野として利用されていない部分を通して、視聴者は、テレビ画面以外のもの(テレビ画面枠やテレビの周辺に置かれた物など)を見ることとなる。そこで、眼鏡のレンズのうちテレビ画面の視野として利用されていない部分を光透過しないようにマスク制御することにより、テレビ画面以外の物が視聴者の目に入るのを防止できる。「マスク制御」とは、眼鏡のレンズのうちどの部分を光が透過しないようにマスクするかどうかを制御することをいう。
眼鏡のレンズのうちテレビ画面の視野として利用されていない部分は、相対位置情報取得部にて取得した相対位置情報を利用して算出される。
図2(a)は、テレビ視聴時のテレビ画面(0201)と眼鏡のレンズ(0202)、視聴者の視点(0203)を模式的に示した図である。この図を用いて、テレビ画面の視野として利用されていない部分について説明する。視聴者の目の位置を頂点とし、テレビ画面を底面とし、この頂点と底面で構成する仮想的な四角錘を作る。このとき、眼鏡のレンズのうちこの仮想的な四角錘の外側にある部分(図2の眼鏡のレンズにおいて網掛けされた部分)がテレビ画面の視野として利用されていない部分である。視聴者は、眼鏡のレンズのうち仮想的な四角錐の内側にある部分を通して、テレビ画面を視聴している状態にある。図2(b)のように仮想的な四角錐を四角錐OACBDとした場合、眼鏡のレンズ上の任意の点Pが仮想的な四角錐の内側にあるか否かを以下の条件式に当てはめて判定すればよい。
「マイクロシャッター部」は、マスク制御部によって制御されるレンズに配置される。「マイクロシャッター」は、自在に開閉できる微小なシャッターである。開閉可能な各単位を、以下「セル」と呼んで説明する。マイクロシャッター部は、テレビ画面の視野として利用されていない部分について光を透過させないように、眼鏡のレンズを複数のセルに分割して、マスク制御されるべき部分についてシャッターを閉じる機能を有する。マイクロシャッターは、機械式シャッターであってもよいし、液晶シャッターであってもよい。例えば右目用、左目用の各レンズは、縦100×横200程度の液晶セルを配置しており、この液晶セルに、電圧を印加することによって、各液晶セルが閉じたり(光を透過しない)、開いたり(光を透過する)するといった具合である。なお、液晶シャッターを完全に(100%)開にしたとき以外は、「光を透過しない」といえる。例えば、以下のような応用例も、本実施形態の眼鏡に含まれる。
(応用例1:シャッターの開口率の調整)
マイクロシャッター部におけるシャッター閉状態において、シャッターの開口率を0%としシャッターを完全に閉じるのではなく、開口率を調整可能としてもよい。例えば、完全な開状態を開口率100%としたときに、開口率50%とか60%程度、あるいはそれ以下の開口率とするといった具合である。具体的には、開口率を20%程度とすることで少しだけテレビ画面の周囲環境を視認することができるようにしてもよい。これによって、没入感を一定程度確保しつつ、周囲に置かれている物を手に取ったり、移動したりする際の利便性や安全性を向上させることができる。
マイクロシャッター部におけるシャッター閉状態において、シャッターの開口率を0%としシャッターを完全に閉じるのではなく、開口率を調整可能としてもよい。例えば、完全な開状態を開口率100%としたときに、開口率50%とか60%程度、あるいはそれ以下の開口率とするといった具合である。具体的には、開口率を20%程度とすることで少しだけテレビ画面の周囲環境を視認することができるようにしてもよい。これによって、没入感を一定程度確保しつつ、周囲に置かれている物を手に取ったり、移動したりする際の利便性や安全性を向上させることができる。
(応用例2:視聴者の移動時の処理)
視聴者が眼鏡をかけたまま移動する際には、テレビ画面以外の足元などに視線を向ける。しかし、本実施形態の眼鏡では、足元を見る部分は仮想的な四角錘の外側(テレビ画面の視野として利用されていない部分)であり、マイクロシャッターは閉じられた状態となっている。この状態のままでは、視聴者は、足元が見えず不安定な歩行となる。本実施形態の眼鏡では、眼鏡とテレビとの相対位置情報を取得可能であるので、この相対位置関係の変動が大きい時にはマイクロシャッターを全て開にする(眼鏡のレンズ全体が光を透過するようにする)ことで、安全に歩行することができる。その他、眼鏡のレンズのうちテレビ画面の視野として利用されている部分がない場合(テレビ画面の方向を向いていない場合)に、マイクロシャッターを全て開にすることとしても良い。あるいは、電話、玄関チャイム、家電製品からの報知音が鳴った場合など、視聴者が移動を開始する蓋然性が高い場合に、マイクロシャッターを全て開にしても良い。
視聴者が眼鏡をかけたまま移動する際には、テレビ画面以外の足元などに視線を向ける。しかし、本実施形態の眼鏡では、足元を見る部分は仮想的な四角錘の外側(テレビ画面の視野として利用されていない部分)であり、マイクロシャッターは閉じられた状態となっている。この状態のままでは、視聴者は、足元が見えず不安定な歩行となる。本実施形態の眼鏡では、眼鏡とテレビとの相対位置情報を取得可能であるので、この相対位置関係の変動が大きい時にはマイクロシャッターを全て開にする(眼鏡のレンズ全体が光を透過するようにする)ことで、安全に歩行することができる。その他、眼鏡のレンズのうちテレビ画面の視野として利用されている部分がない場合(テレビ画面の方向を向いていない場合)に、マイクロシャッターを全て開にすることとしても良い。あるいは、電話、玄関チャイム、家電製品からの報知音が鳴った場合など、視聴者が移動を開始する蓋然性が高い場合に、マイクロシャッターを全て開にしても良い。
<実施形態1:ハードウェア構成>
次に、本実施形態の眼鏡のハードウェア構成について説明する。図3は、本実施形態の眼鏡のハードウェア構成の一例を示す概略図である。この図にあるように、本実施形態の眼鏡は、「CPU」(0301)と、「主メモリ」(0302)と、「記憶装置」(0303)と、「I/O」(0304)と、I/Oに接続された「マイクロシャッター」(0305)と、から構成され、それらが「システムバス」(0306)などのデータ通信経路によって相互に接続され、情報の送受信や処理を行う。また、後述するフロー処理の一部を外部機器(テレビなど)により行わせるために、外部機器とのデータの通信を可能とするような通信デバイスをさらに有していてもよい。
次に、本実施形態の眼鏡のハードウェア構成について説明する。図3は、本実施形態の眼鏡のハードウェア構成の一例を示す概略図である。この図にあるように、本実施形態の眼鏡は、「CPU」(0301)と、「主メモリ」(0302)と、「記憶装置」(0303)と、「I/O」(0304)と、I/Oに接続された「マイクロシャッター」(0305)と、から構成され、それらが「システムバス」(0306)などのデータ通信経路によって相互に接続され、情報の送受信や処理を行う。また、後述するフロー処理の一部を外部機器(テレビなど)により行わせるために、外部機器とのデータの通信を可能とするような通信デバイスをさらに有していてもよい。
記憶装置はCPUによって実行される各種プログラムなどを記憶している。また主メモリは、プログラムがCPUによって実行される際の作業領域であるワーク領域を提供する。また、この主メモリや記憶装置にはそれぞれ複数のメモリアドレスが割り当てられており、CPUで実行されるプログラムは、そのメモリアドレスを特定しアクセスすることで相互にデータのやりとりを行い、処理を行うことが可能になっている。
本実施形態の眼鏡の電源が入れられると(あるいは、テレビなどの外部機器の電源が入れられると)、記憶装置に保持されている相対位置情報取得プログラム、マスク制御プログラム等のプログラムが主メモリ上に展開される。
そして、相対位置情報取得部を構成するCPUは、主メモリ上に展開された相対位置情報取得プログラムに従って、相対位置情報を取得し、取得された相対位置情報を、メモリに一時的に記憶する。例えば、外部機器により相対位置情報が取得される場合には、通信デバイスを通して相対位置情報を読み込む。
また、マスク制御部を構成するCPUは、主メモリ上に展開されたマスク制御プログラムにしたがって、主メモリに一時的に記憶された相対位置情報を利用して眼鏡のレンズのうちテレビ画面の視野として利用されていない部分を演算し、この部分を光透過しないようマスク制御することを決定する。そして、テレビ画面の視野として利用されていない部分(マスク制御すべき部分)のマイクロシャッターを閉じるように制御が行われる。
<実施形態1:処理の流れ>
<実施形態1:処理の流れ>
図4は、本実施形態の眼鏡における処理の流れの一例を表すフローチャートである。なお、以下に示すステップは、上記のような計算機の各ハードウェア構成によって実行されるステップであっても良いし、あるいは媒体に記録され計算機を制御するためのプログラムを構成する処理ステップであっても構わない。
本実施形態の眼鏡における処理の流れは、「相対位置情報取得ステップ」(0401)と、「マスク制御ステップ」(0402)と、「マイクロシャッターステップ」(0403)と、からなる。
相対位置情報取得ステップでは、眼鏡とテレビとの相対位置情報が取得される。そして、マスク制御ステップでは、取得した相対位置情報を利用して、眼鏡のレンズのうちテレビ画面の視野として利用されていない部分を光透過しないようマスク制御する。マイクロシャッターステップでは、マスク制御部によって制御されるマイクロシャッターが開閉される。
以上の処理ステップは、視聴者によるテレビの視聴が終了するまで(テレビの電源が切られるまで)繰り返されることが好ましい。
<実施形態1:効果>
本実施形態の眼鏡は、テレビ画面の視野として利用されていない部分を光透過しないようマスク制御することにより、テレビ画面以外の物(テレビ画面枠やテレビの周囲に置かれた物など)が視聴者の視界に入ることを防止する。これにより視聴者は、高い没入感を得ることが可能である。
本実施形態の眼鏡は、テレビ画面の視野として利用されていない部分を光透過しないようマスク制御することにより、テレビ画面以外の物(テレビ画面枠やテレビの周囲に置かれた物など)が視聴者の視界に入ることを防止する。これにより視聴者は、高い没入感を得ることが可能である。
<<実施形態2>>
<実施形態2:概要>
本実施形態の眼鏡は、実施形態1を基本としつつ、相対位置情報取得部の構成に特徴を有する。
<実施形態2:概要>
本実施形態の眼鏡は、実施形態1を基本としつつ、相対位置情報取得部の構成に特徴を有する。
<実施形態2:機能的構成>
再び図1を参照する。本実施形態の眼鏡(0101)は、相対位置情報取得部(0102)と、マスク制御部(0103)と、マイクロシャッター部(0104)と、からなる。相対位置情報取得部、マスク制御部、マイクロシャッター部については、以下に述べる点を除き、実施形態1と同様であるので説明を省略する。
再び図1を参照する。本実施形態の眼鏡(0101)は、相対位置情報取得部(0102)と、マスク制御部(0103)と、マイクロシャッター部(0104)と、からなる。相対位置情報取得部、マスク制御部、マイクロシャッター部については、以下に述べる点を除き、実施形態1と同様であるので説明を省略する。
図5は、本実施形態の眼鏡の概念斜視図である。本実施形態の眼鏡の相対位置情報取得部は、相対位置情報を取得するためにテレビ画面枠を含む領域を撮影するカメラを有している。図5において、眼鏡(0501)の右目用レンズ(0502R)と左目用レンズ(0502L)の間に、カメラ(0503)が備えられているといった具合である。カメラは、視聴者がテレビを視聴している際に、テレビ画面枠を含む領域を撮影可能である。撮影時に、カメラが、視聴者の視点と近い位置に、視聴者の視線と同じ向きとなるように構成されていると良い。本実施形態の眼鏡は、カメラによって撮影された画像から、テレビ画面枠を抽出し、テレビ画面枠の大きさや形と、あらかじめ相対位置情報取得部にて記憶されたテレビ画面枠の大きさや形に関する情報とを用いて、眼鏡とカメラとの相対位置情報を取得可能である。相対位置情報を取得するための具体的な計算等については、実施形態3において述べる。実施形態3では、テレビ画面枠に配置されるマーカーの座標位置を利用する例が記述されている。本実施形態においても、テレビ画面枠の輪郭を抽出し、テレビ画面枠の四隅の座標位置を認識して利用することにより、同様の計算を行うことができる。
なお、図5(b)は、マイクロシャッターが開閉されて、テレビ画面の視野として利用されていない部分がマスクされている状態の一例を示している。
<実施形態2:ハードウェア構成>
本実施形態の眼鏡のハードウェア構成は、実施形態1で記載したところと同様であっても良い。つまり、相対位置情報取得部を構成するカメラ(I/Oを介して接続されている)をさらに備え、相対位置情報取得部を構成するCPUは、カメラを介して取得された画像に基づく演算により相対位置情報を取得しても良い。
本実施形態の眼鏡のハードウェア構成は、実施形態1で記載したところと同様であっても良い。つまり、相対位置情報取得部を構成するカメラ(I/Oを介して接続されている)をさらに備え、相対位置情報取得部を構成するCPUは、カメラを介して取得された画像に基づく演算により相対位置情報を取得しても良い。
あるいは、電子回路とMPUとによって構成することもできる(実施形態1でも同様である)。
図6は、本実施形態の眼鏡のハードウェア構成の他の一例を示す図である。本実施形態の眼鏡(0601)は、カメラモジュール(0602)と、TFT液晶ドライバ(0603)と、液晶シャッター(0604)と、演算回路(相対位置情報取得回路0605、マスク制御回路0606)とによって構成されている。
相対位置情報取得部は、カメラモジュールと相対位置情報取得回路(演算回路)とにより構成される。「カメラモジュール」は、光学系の情報を処理するレンズユニットと、光学信号を電気信号に変換するイメージセンサーとからなる電子部品である(画像情報を処理するための演算回路が組み込まれている場合もある)。カメラモジュールによって取得された画像データに基づき、相対位置情報取得回路によって、相対位置情報が取得可能となる。
マスク制御部は、マスク制御回路(演算回路)により構成される。マスク制御回路は、相対位置情報に基づいて、眼鏡のレンズの中でテレビ画面の視野として利用されていない部分を演算する。
マイクロシャッター部は、液晶シャッターとこの液晶シャッターを駆動させるためのTFT液晶ドライバとにより構成され、マスク制御回路による演算結果に基づいて、液晶シャッターを開閉する。
<実施形態2:処理の流れ>
本実施形態の眼鏡における処理の流れは実施形態1と同様である。また、相対位置情報取得ステップにおける具体的な処理の流れは、実施形態3の「マーカー撮像手段による相対位置情報取得の流れ」で詳述する。実施形態3では、テレビ画面枠に配置されるマーカーの座標位置を利用する例が記述されている。本実施形態においても、テレビ画面枠の輪郭を抽出し、テレビ画面枠の四隅の座標位置を認識して利用することにより、同様の計算を行うことができる。
本実施形態の眼鏡における処理の流れは実施形態1と同様である。また、相対位置情報取得ステップにおける具体的な処理の流れは、実施形態3の「マーカー撮像手段による相対位置情報取得の流れ」で詳述する。実施形態3では、テレビ画面枠に配置されるマーカーの座標位置を利用する例が記述されている。本実施形態においても、テレビ画面枠の輪郭を抽出し、テレビ画面枠の四隅の座標位置を認識して利用することにより、同様の計算を行うことができる。
<実施形態2:効果>
本実施形態の眼鏡は、テレビ画面の視野として利用されていない部分を光透過しないようマスク制御することにより、テレビ画面以外の物(テレビ画面枠やテレビの周囲に置かれた物など)が視聴者の視界に入ることを防止する。これにより視聴者は、高い没入感を得ることが可能である。
本実施形態の眼鏡は、テレビ画面の視野として利用されていない部分を光透過しないようマスク制御することにより、テレビ画面以外の物(テレビ画面枠やテレビの周囲に置かれた物など)が視聴者の視界に入ることを防止する。これにより視聴者は、高い没入感を得ることが可能である。
さらに、カメラを有することにより、個々の視聴者とテレビとの相対位置情報を個別に容易に把握可能であるので、眼鏡が複数個である場合(テレビを複数人で視聴する場合)にも、個々のカメラの制御の競合などが生じにくい。
<<実施形態3>>
<実施形態3:概要>
本実施形態の眼鏡は、実施形態2を基本としつつ、テレビ画面枠に配置されるマーカーを撮影することで相対位置情報を取得する点に特徴を有する。
<実施形態3:概要>
本実施形態の眼鏡は、実施形態2を基本としつつ、テレビ画面枠に配置されるマーカーを撮影することで相対位置情報を取得する点に特徴を有する。
<実施形態3:構成>
再び図1を参照する。本実施形態の眼鏡(0101)は、相対位置情報取得部(0102)と、マスク制御部(0103)と、マイクロシャッター部(0104)と、からなり、相対位置情報取得部はカメラを有している。相対位置情報取得部、マスク制御部、マイクロシャッター部については、以下に述べる点を除き、実施形態1又は2と同様であるので説明を省略する。
再び図1を参照する。本実施形態の眼鏡(0101)は、相対位置情報取得部(0102)と、マスク制御部(0103)と、マイクロシャッター部(0104)と、からなり、相対位置情報取得部はカメラを有している。相対位置情報取得部、マスク制御部、マイクロシャッター部については、以下に述べる点を除き、実施形態1又は2と同様であるので説明を省略する。
本実施形態の眼鏡の相対位置情報取得部は、マーカー撮像手段を有する。「マーカー撮像手段」は、テレビ画面枠に配置されるマーカーを撮影することで相対位置情報を取得する機能を有する。マーカーは、他の物(テレビ画面枠や、テレビの周囲に置かれる物)から識別しやすいことが好ましい。このマーカーは、テレビ画面枠の所定の点(例えば四隅)から所定の位置に配置される。配置位置や個数については、特に限定されない。マーカーの画像情報と、位置情報(世界座標)は、あらかじめ演算のために本実施形態の眼鏡のメモリ等に記憶されている。このため、マーカーをカメラにより撮影し、撮影された画像と記憶されたマーカーの画像情報とを比較することで、マーカーとその位置が意味づけられる。この意味づけられた情報に基づいて、眼鏡とテレビ画面との相対位置情報を取得することができる。以下、テレビ画面枠にn個のマーカーを配置した場合の処理の流れについて述べる。
(マーカー撮像手段による相対位置情報取得の流れ)
マーカー撮像手段による相対位置情報取得には、カメラキャリブレーションを用いることができる。「カメラキャリブレーション」とは、画像生成過程のモデル化を行った際の各種パラメータを推定するための方法である。カメラのレンズの焦点距離などの情報を含む内部パラメータと、カメラの位置や姿勢の情報を含む外部パラメータを算出可能である。ここでは、テレビ画面枠の世界座標(あらかじめ保持されている)に対して、カメラの位置や姿勢の情報を取得するために用いる。
マーカー撮像手段による相対位置情報取得には、カメラキャリブレーションを用いることができる。「カメラキャリブレーション」とは、画像生成過程のモデル化を行った際の各種パラメータを推定するための方法である。カメラのレンズの焦点距離などの情報を含む内部パラメータと、カメラの位置や姿勢の情報を含む外部パラメータを算出可能である。ここでは、テレビ画面枠の世界座標(あらかじめ保持されている)に対して、カメラの位置や姿勢の情報を取得するために用いる。
具体的には、参照物体を用いてカメラキャリブレーションを行うZhangの手法やTsaiの手法などを用いることができる。カメラキャリブレーションによれば、n個のマーカーの世界座標(既知の情報として眼鏡のメモリ等に記憶されている)と、このマーカーを撮影したマーカー撮像画像上のマーカーの平面座標とから、カメラの位置や姿勢の情報を取得可能となる。
具体的には、以下のような処理を行う。まず、カメラモジュールにて撮影したマーカー撮像画像を相対位置情報取得回路に送る。このマーカー撮像画像の中から、マーカーかもしれない画像を特徴点として検出する。すると、画像中の特徴点の座標PICTURE (X_char_N,Y_char_N)(N=1,2,3,…マーカーの個数)が得られる。
検出された特徴点の中から、テンプレートマッチングなどの画像処理によってあらかじめメモリ等に画像情報が保持されている複数のマーカーを抽出する。そして、抽出されたマーカーの3次元位置と画像中の2次元座標を対応付ける。図7は、対応付けのイメージ図である。例えば、テレビの画面枠の四隅に配置された4つのマーカーをそれぞれマーカー1〜4とすると、マーカー1についてPICTURE(50,50)⇔WORLD(0,0,0)が対応付けられている(数値は一例である。以下同様である。)。同様にマーカー2についてPICTURE(45,250)⇔WORLD(0,600,0)が対応付けられている。マーカー3についてPICTURE(400,40)⇔WORLD(800,0,0)が対応付けられている。マーカー4についてPICTURE(385,200)⇔WORLD(800,600,0)が対応付けられている。
このマーカーの世界座標WORLD (Xn,Yn,Zn)と、マーカー撮像画像中座標PICTURE (xn,yn)を入力とし、カメラの外部パラメータであるカメラの世界座標WORLD(X_camera,Y_camera,Z_camera)と向き(θ、ψ、φ)、カメラの内部パラメータである焦点距離f(1自由度)と画像中心(2自由度)とアスペクト比(1自由度)とスキュー歪み(1自由度)の11のパラメータを求めることによりカメラの焦点の3次元位置と方向を演算することが出来る。
図8は、基本的なキャリブレーションの説明のための図である。世界座標中の任意の点(X,Y,Z)がカメラによって撮影された撮像画像(ピンホールカメラモデルによる仮想的な投影図である。)中の位置(x,y)について透視変換の同次座標表現を行うと、3×4の行列を用いて以下の数式で表すことができる。
このc11〜c14、c21〜c24、c31〜c33までのパラメータを、未知数11、式 2n(n:特徴点数)、最小二乗法で解くことにより、カメラの世界座標などのカメラとテレビ画面の相対位置に関する情報を取得できる。
(マスク制御部における具体的な処理の流れ)
図9は、相対位置情報相互の関係を示している。また、図10は、マスク制御部における具体的な処理の流れの一例を示すフローチャートである。
図9は、相対位置情報相互の関係を示している。また、図10は、マスク制御部における具体的な処理の流れの一例を示すフローチャートである。
マスク制御部において、まず、仮想的な四角錐の頂点及び仮想的な四角錐の底面の座標をそれぞれ入力する。
テレビ画面枠の各世界座標(あらかじめ保持されている)に対する眼鏡の相対位置(ここでは眼鏡の有するカメラ焦点の世界座標)が上記の計算によって得られる。眼鏡に配置されたカメラと視点との位置関係は略一定と考えられるので、カメラの焦点位置から視聴者の視点へのベクトルを用いて視聴者の視点(仮想的な四角錐の頂点O)の世界座標WORLD(X_eye,Y_eye,Z_eye)は、WORLD(X_camera,Y_camera,Z_camera)+ (X_eye,Y_eye,Z_eye)となる。なお、カメラの焦点から視聴者の視点への相対的な位置関係を表すベクトル(X_eye,Y_eye,Z_eye)はあらかじめ保持されている。
また、テレビ画面の四隅(仮想的な四角錐の底面ACBD)の座標WORLD(X_corner_n,Y_corner_n,Z_corner_n)(n=1,2,3,4)は、あらかじめ保持されている。
次に、セルの座標R(i,j)又はL(i,j)の位置Pの世界座標WORLD(X_n,Y_n,Z_n) (nは右目用レンズの座標R(i,j)又は左目用レンズの座標L(i,j)を示す。)を計算する。
カメラの焦点とマイクロシャッターの各セルの位置関係は、一定であるので、セルの座標R(i,j)又はL(i,j)の位置Pの世界座標は、WORLD (X_camera,Y_camera,Z_camera)+(X_n,Y_n,Z_n)となる。なお、カメラの焦点からマイクロシャッターの各セルへのベクトル(Xn,Yn,Zn)(nは右目用レンズの座標R(i,j)又は左目用レンズの座標L(i,j)を示す。)は、あらかじめ保持されている。
そして、仮想的な四角錐OACBDと、Pとの座標から眼鏡のレンズ上の任意の各セルPが仮想的な四角錐の内側にあるか否かを判定すればよい。なお、計算式は、実施形態1で説明したとおりである。
そして、仮想的な四角錐の外側にある場合には、シャッターを閉じるよう制御することを決定する。
この処理は、すべてのセルについて処理が終了するまで繰り返される。なお、図10では、セルの数が100×200の場合について記載している。
(応用例3:マスク制御部における処理の簡素化)
前述のフローチャートでは3Dメガネのセル1つ1つについて仮想的な四角錘の内側か外側かを演算しているが、テレビの画面の四隅全てが視聴者の視野に入っている場合、テレビ画面の四隅と視聴者の視点を結ぶ四角錘の稜線と交わる4つのセルを先に算出することで、4つのセルを繋いだ四角形の内側か外側かという判定によって、シャッターを閉じるかを決定する。
前述のフローチャートでは3Dメガネのセル1つ1つについて仮想的な四角錘の内側か外側かを演算しているが、テレビの画面の四隅全てが視聴者の視野に入っている場合、テレビ画面の四隅と視聴者の視点を結ぶ四角錘の稜線と交わる4つのセルを先に算出することで、4つのセルを繋いだ四角形の内側か外側かという判定によって、シャッターを閉じるかを決定する。
この方法によって、演算処理の簡素化が可能となる。
<実施形態3:効果>
本実施形態の眼鏡は、テレビ画面の視野として利用されていない部分を光透過しないようマスク制御することにより、テレビ画面以外の物(テレビ画面枠やテレビの周囲に置かれた物など)が視聴者の視界に入ることを防止する。これにより視聴者は、高い没入感を得ることが可能である。
本実施形態の眼鏡は、テレビ画面の視野として利用されていない部分を光透過しないようマスク制御することにより、テレビ画面以外の物(テレビ画面枠やテレビの周囲に置かれた物など)が視聴者の視界に入ることを防止する。これにより視聴者は、高い没入感を得ることが可能である。
<<実施形態4>>
<実施形態4:概要>
本実施形態の眼鏡は、実施形態1から3のいずれか一を基本とする。本実施形態の眼鏡は、テレビに設けられたカメラから相対位置情報を取得する点に特徴を有する。
<実施形態4:概要>
本実施形態の眼鏡は、実施形態1から3のいずれか一を基本とする。本実施形態の眼鏡は、テレビに設けられたカメラから相対位置情報を取得する点に特徴を有する。
<実施形態4:構成>
再び図1を参照する。本実施形態の眼鏡(0101)は、相対位置情報取得部(0102)と、マスク制御部(0103)と、マイクロシャッター部(0104)と、からなる。相対位置情報取得部、マスク制御部、マイクロシャッター部については、以下に述べる点を除き、実施形態1から3と同様であるので説明を省略する。
再び図1を参照する。本実施形態の眼鏡(0101)は、相対位置情報取得部(0102)と、マスク制御部(0103)と、マイクロシャッター部(0104)と、からなる。相対位置情報取得部、マスク制御部、マイクロシャッター部については、以下に述べる点を除き、実施形態1から3と同様であるので説明を省略する。
本実施形態の眼鏡の相対位置情報取得部は、外部取得手段を有する。「外部取得手段」は、相対位置情報を取得するためにテレビに設けられたカメラから相対位置情報を取得する機能を有する。具体的には、テレビに設けられたカメラによって撮影された画像から、眼鏡の位置や方向を算出したり、人の顔(又は目)の位置を算出したりするといった具合である。眼鏡にマーカーを配置しても良い。あるいは、テレビにはさらに近赤外線を発する機能が備えられており、放射された近赤外線の当たった対象物をカメラで撮影することにより、対象物(例えば人の顔)とテレビとの相対的な位置関係を取得しても良い。眼鏡は、視聴者の頭部に、両目の前にレンズが位置するような関係で装着して利用されるので、視聴者の顔や目の位置により、眼鏡の位置も間接的に取得することができる。
<実施形態4:効果>
本実施形態の眼鏡は、テレビ画面の視野として利用されていない部分を光透過しないようマスク制御することにより、テレビ画面以外の物(テレビ画面枠やテレビの周囲に置かれた物など)が視聴者の視界に入ることを防止する。これにより視聴者は、高い没入感を得ることが可能である。
本実施形態の眼鏡は、テレビ画面の視野として利用されていない部分を光透過しないようマスク制御することにより、テレビ画面以外の物(テレビ画面枠やテレビの周囲に置かれた物など)が視聴者の視界に入ることを防止する。これにより視聴者は、高い没入感を得ることが可能である。
<<実施形態5>>
<実施形態5:概要>
本実施形態の眼鏡は、実施形態1から4のいずれか一を基本とする。実施形態1から4の眼鏡では、マイクロシャッター部は、機械式シャッターであると液晶シャッターであるとを問わない。本実施形態の眼鏡は、マイクロシャッター部が液晶セルを有する点に特徴がある。
<実施形態5:概要>
本実施形態の眼鏡は、実施形態1から4のいずれか一を基本とする。実施形態1から4の眼鏡では、マイクロシャッター部は、機械式シャッターであると液晶シャッターであるとを問わない。本実施形態の眼鏡は、マイクロシャッター部が液晶セルを有する点に特徴がある。
<実施形態5:構成>
再び図1を参照する。本実施形態の眼鏡(0101)は、相対位置情報取得部(0102)と、マスク制御部(0103)と、マイクロシャッター部(0104)と、からなる。相対位置情報取得部、マスク制御部、マイクロシャッター部については、以下に述べる点を除き、実施形態1から4と同様であるので説明を省略する。
再び図1を参照する。本実施形態の眼鏡(0101)は、相対位置情報取得部(0102)と、マスク制御部(0103)と、マイクロシャッター部(0104)と、からなる。相対位置情報取得部、マスク制御部、マイクロシャッター部については、以下に述べる点を除き、実施形態1から4と同様であるので説明を省略する。
マイクロシャッター部は、複数の開閉可能な液晶セルを有する。
「液晶セル」は、液晶シャッターの開閉可能な各単位である。液晶セルに電圧をかけることで液晶の向きが変わり、液晶シャッターの開閉が可能となる。
<実施形態5:効果>
本実施形態の眼鏡は、テレビ画面の視野として利用されていない部分を光透過しないようマスク制御することにより、テレビ画面以外の物(テレビ画面枠やテレビの周囲に置かれた物など)が視聴者の視界に入ることを防止する。これにより視聴者は、高い没入感を得ることが可能である。
本実施形態の眼鏡は、テレビ画面の視野として利用されていない部分を光透過しないようマスク制御することにより、テレビ画面以外の物(テレビ画面枠やテレビの周囲に置かれた物など)が視聴者の視界に入ることを防止する。これにより視聴者は、高い没入感を得ることが可能である。
<<実施形態6>>
<実施形態6:概要>
本実施形態の眼鏡は、実施形態1から5のいずれか一を基本とする。本実施形態の眼鏡は、3D画像視聴用眼鏡と共通に用いることができる点に特徴がある。
<実施形態6:概要>
本実施形態の眼鏡は、実施形態1から5のいずれか一を基本とする。本実施形態の眼鏡は、3D画像視聴用眼鏡と共通に用いることができる点に特徴がある。
<実施形態6:構成>
再び図1を参照する。本実施形態の眼鏡(0101)は、相対位置情報取得部(0102)と、マスク制御部(0103)と、マイクロシャッター部(0104)と、からなる。相対位置情報取得部、マスク制御部、マイクロシャッター部については、以下に述べる点を除き、実施形態1から5と同様であるので説明を省略する。
再び図1を参照する。本実施形態の眼鏡(0101)は、相対位置情報取得部(0102)と、マスク制御部(0103)と、マイクロシャッター部(0104)と、からなる。相対位置情報取得部、マスク制御部、マイクロシャッター部については、以下に述べる点を除き、実施形態1から5と同様であるので説明を省略する。
本実施形態の眼鏡のマスク制御部は、3D用駆動手段を有する。「3D用駆動手段」は、マイクロシャッター部を、3D画像視聴用にも駆動する機能を有する。「3D画像」は、あたかも立体であるかのように感じられる画像である。3D画像の視聴方式として、従来、シャッター眼鏡を用いた時分割立体視方式がある。これは、左右画像を時間的に交互に高速度で切り替えて両目に提示し、これに同期して開閉するシャッター眼鏡(レンズにマイクロシャッターを備えた眼鏡)を用いて立体視を可能とする方式である。
図11は、本実施形態の眼鏡における処理の一例を示すフローチャートである。マイクロシャッター部は、液晶セルを有する場合を例として記載されている。
相対位置情報取得ステップにおいて、視聴者の視点を頂点とし、テレビ画面を底面とする仮想的な四角錐の頂点と底面の位置が取得される。マスク制御ステップでは、各液晶セルの位置データを順に入力し、n番目の液晶セルの位置が四角錐の外側であれば、マスク制御する(シャッターを閉じる)ことを決定する。マイクロシャッターステップは、この決定に基づいて液晶セルを閉じる。一方、n番目の液晶セルの位置が四角錐の内側であれば、マイクロシャッター部を3D画像視聴用に駆動して、液晶セルを3D映像に同期させる。
<実施形態6:効果>
本実施形態の眼鏡は、テレビ画面の視野として利用されていない部分を光透過しないようマスク制御することにより、テレビ画面以外の物(テレビ画面枠やテレビの周囲に置かれた物など)が視聴者の視界に入ることを防止する。これにより視聴者は、高い没入感を得ることが可能である。
本実施形態の眼鏡は、テレビ画面の視野として利用されていない部分を光透過しないようマスク制御することにより、テレビ画面以外の物(テレビ画面枠やテレビの周囲に置かれた物など)が視聴者の視界に入ることを防止する。これにより視聴者は、高い没入感を得ることが可能である。
さらに、本実施形態の眼鏡は、従来の3D画像視聴用眼鏡と共通に利用することができる。
<<実施形態7>>
<実施形態7:概要>
本実施形態の眼鏡は、テレビを視聴しやすい位置に視聴者を誘導可能となるように、眼鏡のレンズに、最適な視聴位置におけるテレビ画面枠の位置に対応する目印を表示する点に特徴を有する。
<実施形態7:概要>
本実施形態の眼鏡は、テレビを視聴しやすい位置に視聴者を誘導可能となるように、眼鏡のレンズに、最適な視聴位置におけるテレビ画面枠の位置に対応する目印を表示する点に特徴を有する。
実施形態1から6の眼鏡は、テレビの画面以外を見えなくすることで高い没入感が得られるが、テレビの最適な視聴位置に視聴者が居るとは限らない。そこで、構成するハードウェアを共通としつつ、最適な視聴位置に視聴者を誘導可能とすることが好ましい。
一般的に最適なテレビの視聴位置は、方向はテレビの正面、距離はテレビの高さの3倍、とされている。また最適な視聴位置から見ることを前提に、テレビの画質および音質設計が行われている。特に3D映像では映像の飛び出し具合が変わるため、最適な視聴位置から視聴することが望ましい。しかし一般的な家庭ではテレビを最適な視聴位置から視聴しているとは限らず、視聴者が最適な視聴位置を知らないことも多い。
本実施形態の眼鏡は、テレビを視聴すべき最適な視聴位置に視聴者を誘導可能とすることにより、特に高い没入感を得られるように構成されている。
<実施形態7:構成>
本実施形態の眼鏡は、相対位置情報取得部と、マスク制御部と、マイクロシャッター部と、からなる。さらに、視聴者が最適な視聴位置にいるかどうかを判断する最適視聴位置演算部を有する。
本実施形態の眼鏡は、相対位置情報取得部と、マスク制御部と、マイクロシャッター部と、からなる。さらに、視聴者が最適な視聴位置にいるかどうかを判断する最適視聴位置演算部を有する。
図12は、本実施形態の眼鏡において最適な視聴位置に視聴者を誘導する処理の流れの一例を示すフローチャートである。本実施形態の眼鏡においてマスク制御部及びマイクロシャッター部は、以下の機能をも有する。マスク制御部は、あらかじめ保持されている最適な視聴位置において眼鏡のレンズのなかでテレビ画面枠の位置に相当する目印を表示可能となるように、マスク制御を行う。例えば、テレビ画面枠の形を表示するようマイクロシャッター部を制御して、テレビ画面枠の位置に対応する部分のマイクロシャッターを閉じるといった具合である。最適な視聴位置に関する視聴位置情報の一例について、図12を用いて説明する。一般的に最適なテレビの視聴位置はテレビ画面の高さの3倍の距離とされている。図13(a)は、テレビ画面と視聴者の視点とを正面から観察した図であり、(b)は、テレビ画面と視聴者の視点とを上から観察した図である。これらの図のように、テレビ画面の高さの3倍の距離から見たときのテレビ画面は、縦横比9:16のとき、左右の視野角が33degに相当し、上下の視野角は19degに相当する。そこで、眼鏡のレンズのうち、視点から左右33deg、上下19degの範囲を示す枠線を、その部分のマイクロシャッターを閉じることにより表示するといった具合である。図14は、最適な視聴位置におけるテレビ画面枠に対応する枠線を表示した眼鏡のレンズの一例である。この図では、レンズの一方のみを模式的に示しており、黒く示されている部分(シャッター閉状態を示す。)がテレビ画面枠に対応する枠線である。
再び図12を参照する。次に、眼鏡の相対位置情報取得部のカメラ等により、実施形態1から6で述べたところと同様に、テレビと眼鏡(眼鏡に設けられたカメラであってもよい)との相対位置情報を取得する。
最適視聴位置演算部は、あらかじめ最適な視聴位置に視聴者がいる際の視聴位置情報を保持している。相対位置情報取得部では、視聴者の視点とテレビ画面枠とからなる仮想的な四角錐が得られる。そこで、この四角錐から左右視野角、上下視野角を算出可能である。最適視聴位置演算部は、あらかじめ保持している理想的な視野角と、実際の視野角とを比較し、所定の差分であるかを判定する。あるいは、この条件を満たすようなカメラ焦点の世界座標をあらかじめ保持しておき、この数値とカメラ焦点の世界座標とが所定範囲内にあるかどうかを判定しても良い。そして、所定の差分である場合、表示されているテレビ画面枠の位置に相当する目印を表示しないようにする。
視聴者は、テレビ画面枠を参考に最適な視聴位置に移動することができる。また、最適な視聴位置になった場合には、テレビ画面枠を表示しないようにすることにより、最適な視聴位置となったことを視聴者が直感的に把握しやすくなる。
(複数人でテレビを視聴している場合)
また、複数人でテレビを視聴している場合には、視聴者同士がぶつかることのない最適な視聴位置への誘導を可能とするように構成されていても良い。すなわち、最適な視聴位置情報は、視聴者の人数に応じて、それぞれ最適となるように保持されていても良い。具体的には、視聴者が2人(又は3人、4人・・・n人)である場合の各視聴者の最適な視聴位置に関する眼鏡とテレビとの相対位置情報を保持しているといった具合である。
また、複数人でテレビを視聴している場合には、視聴者同士がぶつかることのない最適な視聴位置への誘導を可能とするように構成されていても良い。すなわち、最適な視聴位置情報は、視聴者の人数に応じて、それぞれ最適となるように保持されていても良い。具体的には、視聴者が2人(又は3人、4人・・・n人)である場合の各視聴者の最適な視聴位置に関する眼鏡とテレビとの相対位置情報を保持しているといった具合である。
(音声での案内)
また、視聴者を最適な視聴位置に誘導する手段としては、テレビ画面枠の位置に相当する目印を表示する場合のほか、音声で案内することとしても良い。眼鏡、あるいは外部機器(テレビなど)から「もっと左(又は右)に移動してください」「もっと前(又は)後ろに移動してください」などの音声が出力されるといった具合である。
また、視聴者を最適な視聴位置に誘導する手段としては、テレビ画面枠の位置に相当する目印を表示する場合のほか、音声で案内することとしても良い。眼鏡、あるいは外部機器(テレビなど)から「もっと左(又は右)に移動してください」「もっと前(又は)後ろに移動してください」などの音声が出力されるといった具合である。
<実施形態7:効果>
本実施形態の眼鏡により、視聴者は最適な視聴位置からテレビを視聴することができる。視聴者が最適な視聴位置から視聴を行うことにより、さらに高い没入感を得られる。
本実施形態の眼鏡により、視聴者は最適な視聴位置からテレビを視聴することができる。視聴者が最適な視聴位置から視聴を行うことにより、さらに高い没入感を得られる。
眼鏡 0101
相対位置情報取得部 0102
マスク制御部 0103
マイクロシャッター部 0104
相対位置情報取得部 0102
マスク制御部 0103
マイクロシャッター部 0104
Claims (6)
- テレビ視聴用の眼鏡であって、
眼鏡とテレビとの相対位置情報を取得する相対位置情報取得部と、
取得した相対位置情報を利用して眼鏡のレンズのうちテレビ画面の視野として利用されていない部分を光透過しないようマスク制御するマスク制御部と、
マスク制御部によって制御されるレンズに配置されたマイクロシャッター部と、
からなる眼鏡。 - 相対位置情報取得部は、相対位置情報を取得するためにテレビ画面枠を含む領域を撮影するカメラを有している請求項1に記載の眼鏡。
- 相対位置情報取得部は、テレビ画面枠に配置されるマーカーを撮影することで相対位置情報を取得するマーカー撮像手段を有する請求項2に記載の眼鏡。
- 相対位置情報取得部は、相対位置情報を取得するためにテレビに設けられたカメラから相対位置情報を取得する外部取得手段を有する請求項1から3のいずれか一に記載の眼鏡。
- マイクロシャッター部は、複数の開閉可能な液晶セルを有する、請求項1から4のいずれか一に記載の眼鏡。
- マスク制御部は、マイクロシャッター部を、3D画像視聴用にも駆動する3D用駆動手段を有する請求項1から5のいずれか一に記載の眼鏡。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011279361A JP2013131884A (ja) | 2011-12-21 | 2011-12-21 | 眼鏡 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011279361A JP2013131884A (ja) | 2011-12-21 | 2011-12-21 | 眼鏡 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013131884A true JP2013131884A (ja) | 2013-07-04 |
Family
ID=48909136
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011279361A Pending JP2013131884A (ja) | 2011-12-21 | 2011-12-21 | 眼鏡 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013131884A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021128320A (ja) * | 2020-02-10 | 2021-09-02 | 金喜燦 | 没入促進アイウェア |
-
2011
- 2011-12-21 JP JP2011279361A patent/JP2013131884A/ja active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021128320A (ja) * | 2020-02-10 | 2021-09-02 | 金喜燦 | 没入促進アイウェア |
JP7160853B2 (ja) | 2020-02-10 | 2022-10-25 | 金喜燦 | 没入促進アイウェア |
JP7548894B2 (ja) | 2020-02-10 | 2024-09-10 | 金喜燦 | 没入促進アイウェア |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11651565B2 (en) | Systems and methods for presenting perspective views of augmented reality virtual object | |
EP3294428B1 (en) | Method for displaying augmented reality with privacy-sensitive consumer cameras coupled to augmented reality systems | |
US9684173B2 (en) | Image processing device, image processing method, and image processing system | |
JP2014219621A (ja) | 表示装置、表示制御プログラム | |
JP2011248466A (ja) | 映像処理装置、映像処理方法、および映像通信システム | |
CN205195880U (zh) | 观看设备及观看系统 | |
JPWO2016013272A1 (ja) | 情報処理装置及び情報処理方法、並びに画像表示システム | |
CN110275602A (zh) | 人工现实系统和头戴式显示器 | |
CN114371779B (zh) | 一种视线深度引导的视觉增强方法 | |
JP6576639B2 (ja) | 電子眼鏡および電子眼鏡の制御方法 | |
JP2017191546A (ja) | 医療用ヘッドマウントディスプレイ、医療用ヘッドマウントディスプレイのプログラムおよび医療用ヘッドマウントディスプレイの制御方法 | |
JP2017046233A (ja) | 表示装置及び情報処理装置及びその制御方法 | |
WO2017163649A1 (ja) | 画像処理装置 | |
CN111736692B (zh) | 显示方法、显示装置、存储介质与头戴式设备 | |
JP2013131884A (ja) | 眼鏡 | |
WO2017191703A1 (ja) | 画像処理装置 | |
JP5037713B1 (ja) | 立体画像表示装置および立体画像表示方法 | |
CN105892050A (zh) | 增强现实智能眼镜 | |
JP2016133541A (ja) | 電子眼鏡および電子眼鏡の制御方法 |