JP2016134668A - 電子眼鏡および電子眼鏡の制御方法 - Google Patents
電子眼鏡および電子眼鏡の制御方法 Download PDFInfo
- Publication number
- JP2016134668A JP2016134668A JP2015006624A JP2015006624A JP2016134668A JP 2016134668 A JP2016134668 A JP 2016134668A JP 2015006624 A JP2015006624 A JP 2015006624A JP 2015006624 A JP2015006624 A JP 2015006624A JP 2016134668 A JP2016134668 A JP 2016134668A
- Authority
- JP
- Japan
- Prior art keywords
- display
- unit
- image
- electronic glasses
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Eyeglasses (AREA)
- Studio Devices (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
特許文献3記載のサングラス型デジタル眼鏡システムは、使用する人の目の先に置いて映像を表示する小型の電子ディスプレイ、この電子ディスプレイに表示される映像を見る人の目の網膜に拡大して表示する光学装置、この電子ディスプレイと光学装置を取付けるサングラス、電子ディスプレイに映像を取り込むカメラ及びその映像制御装置から構成され、このシステムを利用する人が、使用する場所、好み、目的などに応じたデザイン性のあるサングラスの眼鏡フレームに、電子ディスプレイ及び光学装置を着脱式で簡単に取付けることが出来るものである。
特許文献6記載の頭部装着型表示装置は、使用者が映像と外景を同時に視認可能な頭部装着型表示装置であって、外景に含まれる物体に対して物体の外観に現れない情報である不可視情報を重畳表示させるための情報である重畳情報を生成する重畳情報生成部と、重畳情報を前記映像として使用者に視認させる画像表示部と、を備えるものである。
特許文献7記載の特殊照明手術用ビデオ立体顕微鏡は、特殊な照明、特に励起光を含む照明、のもとで検体を観察するための、特に検体を蛍光観察するための、ビデオ撮像ユニットを有する2つの部分光束からなる立体部分光束を有するビデオ立体観察光束を少なくとも1つ有する特殊照明手術用ビデオ立体顕微鏡であって、該ビデオ撮像ユニットは、ビデオ立体画像を取得するための、チップの半分を2つ組み合わせたビデオチップを少なくとも1つ含み、それぞれの該半分は、それぞれ1つの部分光束が割り当てられ、それぞれスペクトル感度が異なっており、複数の光電子センサ(ピクセル)から構成されているものである。
一局面に従う電子眼鏡は、人体の頭部に装着可能な電子眼鏡であって、 対象物を撮像する撮像装置と、撮像装置による2次元および3次元の少なくとも一方の画像を表示する1または複数の表示装置と、表示装置に表示された画像の一部のみの表示倍率を調整する制御部と、を含むものである。
また、画像の一部のみの表示倍率を調整するため、画像の一部のみの周囲により周囲の環境を認識することができる。
特に、医療現場においては、一部のみを拡大させつつ周囲の状況を認識したい場合がある。本発明は、当該分野に対して有効である。
第2の発明に係る電子眼鏡は、一の局面に従う電子眼鏡において、制御部は、表示装置の画像の中央部の表示倍率を調整し、中央部の周囲の表示倍率を調整しなくてもよい。
第3の発明に係る電子眼鏡は、一局面または第2の発明に係る電子眼鏡であって、表示装置は、没入型ディスプレイであってもよい。
第4の発明に係る電子眼鏡は、第2または第3の発明に係る電子眼鏡において、表示装置に表示された画像を操作する操作部を含み、操作部は、人体の一部までの距離を測定する深度センサを含み、制御部は、深度センサに応じて、中央部の表示倍率を調整するとともに、中央部の周囲に人体の一部または人体の一部の外郭を表示してもよい。
また、中央部の周囲に人体の一部そのもの、または人体の一部の外郭が表示される。
その結果、ユーザは、中央部の周囲を確認しつつ、人体の一部を動かして、中央部の表示倍率を調整することができる。すなわち、当該周囲を確認して中央部の画像を拡大または縮小させることができる。
第5の発明に係る電子眼鏡は、一局面、第2から第4の発明に係る電子眼鏡において、表示装置に表示された画像を操作する操作部を含み、操作部は、音声認識部および骨伝導認識部の少なくとも一方を含み、制御部は、音声認識部および骨伝導認識部の少なくとも一方に応じて、画像の表示倍率を調整してもよい。
なお、音声認識部および骨伝導認識部は、電子眼鏡から取り外しできるよう形成されていてもよい。
第6の発明に係る電子眼鏡は、一局面、第2から第5の発明に係る電子眼鏡において、制御部は、画像に対してデジタルズーム機能を有してもよい。
第7の発明に係る電子眼鏡は、一局面、第2から第6の発明に係る電子眼鏡において、撮像装置は、赤外線を照射する照射部および赤外線カメラを含んでもよい。
他の局面に従う電子眼鏡の制御方法は、人体の頭部に装着可能な電子眼鏡の制御方法であって、対象物を撮像する撮像工程と、撮像工程による2次元および3次元の少なくとも一方の画像を表示する1または複数の表示工程と、表示工程に表示された画像の一部のみの表示倍率を調整する制御工程と、を含むものである。
その結果、細かな部分を大きく表示させることができる。したがって、ユーザは、見にくい細かな画像であっても、操作により表示倍率を調整し、容易に視認することができる。
また、本発明は、以下に説明する電子眼鏡に限定されるものではなく、他の入出力装置、表示装置、テレビジョン、モニタ、プロジェクタ等にも適用することができる。
図1は、本実施の形態にかかる電子眼鏡100の基本構成の一例を示す模式的外観正面図であり、図2は、電子眼鏡100の一例を示す模式的外観斜視図である。
図1および図2に示すように、眼鏡ユニット200は、眼鏡フレーム210、一対の没入型ディスプレイ220および一対の表示調整機構600からなる。眼鏡フレーム210は、主にリムユニット211、テンプルユニット212を含む。
眼鏡フレーム210のリムユニット211により一対の没入型ディスプレイ220が支持される。また、リムユニット211には、一対の表示調整機構600が設けられる。さらに、リムユニット211には、赤外線検知ユニット410およびユニット調整機構500が設けられる。ユニット調整機構500の詳細については後述する。
一対の表示調整機構600は、後述するように一対の没入型ディスプレイ220の角度および位置を調整することができる。一対の表示調整機構600の詳細については、後述する。
また、一対の表示調整機構600を没入型ディスプレイ220の側部に設けているが、これに限定されず、没入型ディスプレイ220の周囲または内部に設けてもよい。
さらに、本実施の形態においては、眼鏡形状の電子眼鏡100を例示したが、これに限定されず、1個または1対の鏡筒状の部材内に電子眼鏡100の機能を含めて形成してもよい。また、当該鏡筒状の部材は、取り外し可能であってもよい。
次に、通信システム300について説明を行なう。
通信システム300は、バッテリーユニット301、アンテナモジュール302、カメラユニット303、スピーカユニット304、GPS(Global Positioning System)ユニット307、マイクユニット308、SIM(Subscriber Identity Module Card)ユニット309およびメインユニット310を含む。
また、マイクユニット308は、音声マイクのみならず、骨伝導マイクであってもよく、両者を含んでもよい。さらに、マイクユニット308は、電子眼鏡100から取り外し可能に設けられていてもよい。
したがって、ユーザは、電子眼鏡100を用いて、通信装置、スピーカおよびマイクにより、携帯電話と同様の通話機能を使用することができる。また、眼鏡型であるので、両手を利用せず、通話を行なうことができる。
続いて、操作システム400は、赤外線検知ユニット410、ジャイロセンサユニット420、加速度検知ユニット430および制御ユニット450からなる。赤外線検知ユニット410は、主に赤外線照射素子411および赤外線検知カメラ412からなる。
さらに、その他、近赤外線、赤外線に限定されず、他の周波数の照射素子、他の周波数の検知カメラを設けてもよく、また、特定の波長設定が可能な照射素子、特定の波長設定が可能な検知カメラを設けてもよい。
図2に示すように、ユニット調整機構500は、赤外線検知ユニット410の角度を調整することができる。具体的には、ユニット調整機構500は、矢印V5の水平軸周り、および、矢印H5の垂直軸周り、に赤外線検知ユニット410の角度を調整可能な構造である。
例えば、制御ユニット450により所定のジェスチャを認識した場合に、ユニット調整機構500を所定の角度で動作させてもよい。その場合、ユーザは、所定のジェスチャを行うことにより赤外線検知ユニット410の角度の調整を行うことができる。
ジェスチャ識別ユニット456は、ジェスチャデータ記録ユニット455に記録されたジェスチャデータを参照し、解剖学的特徴が識別された外形からジェスチャの識別を行なう。なお、ジェスチャ識別ユニット456は、ジェスチャデータ記録ユニット455からのジェスチャデータを参照することとしているが、参照することに限定されず、他の任意のデータを参照してもよく、全く参照することなく処理してもよい。
以上の処理により、図5(a)に示すように、手H1のジェスチャを認識する。
例えば、上述した図5(a)の手H1を認識した後の一部の画像ZMの領域部分(図中点線)の設定である。
その他、図5(b)に示すように、決定された一部の画像ZMが、ジェスチャに応じて拡大または縮小して表示される。具体的には、図5(a)と比較して、図5(b)では、植物が拡大して表示されている。
その他、ステップS5の処理に応じて、後述する3次元立体モデルDD等の表示が行なわれる。
また、6軸駆動ドライバユニット465は、画像ZMのぶれ抑制を行う。すなわち、画像ZM内で縮小した画像表示の場合には、ぶれ補正の効果が、大きく必要ではないが、画像ZM内で拡大した画像表示の場合には、ぶれ補正を行わないと、常に画像ZMが揺れて表示されるため、ユーザにとって不快感が生じる問題となるからである。
次に、操作システム400の赤外線検知ユニット410の検知領域と、一対の没入型ディスプレイ220の仮想表示領域との関係について説明を行なう。
図6は、赤外線検知ユニット410の検知領域と、一対の没入型ディスプレイ220の仮想表示領域とを説明するための模式的斜視図であり、図7は図6の上面図であり、図8は、図6の側面図である。
三次元空間検知領域4103Dは、赤外線検知ユニット410からの円錐状または角錐状の三次元空間からなる。
また、本実施の形態においては、赤外線検知ユニット410を1個設けることとしているが、これに限定されず、赤外線検知ユニット410を複数個設けてもよいし、赤外線照射素子411を1個、赤外線検知カメラ412を複数個設けてもよい。
すなわち、実際には電子眼鏡100の没入型ディスプレイ220に表示されるものの、ユーザは、右目のイメージは右目側の没入型ディスプレイ220により三次元空間領域2203DRで認識し、左目のイメージは左目側の没入型ディスプレイ220により三次元空間領域2203DLで認識する。その結果、認識された両イメージがユーザの脳内で合成されることにより、仮想イメージ表示領域2203Dで仮想イメージとして認識することができる。
また、図8に示すように、一対の没入型ディスプレイ220よりも赤外線検知ユニット410が上方(y軸正方向)に配設されている場合について説明しているが、鉛直方向(y軸方向)に対して、赤外線検知ユニット410の配設位置が没入型ディスプレイ220よりも下方(y軸負方向)または没入型ディスプレイ220と同位置であっても、同様に、仮想イメージ表示領域2203Dは、三次元空間検知領域4103Dと共有する空間領域を有する。
続いて、検知領域における操作領域とジェスチャ領域とについて説明する。図9および図10は、検知領域における操作領域と、ジェスチャ領域との一例を示す模式図である。
また、三次元空間検知領域4103D内における操作領域410c以外の部分で、かつ腕の移動領域Lおよび移動領域Rを合わせた領域と重なる部分をジェスチャ領域410gとして設定する。
次いで、キャリブレーション処理について説明を行なう。図11は、キャリブレーション処理の説明を行なうためのフローチャートである。
また、キャリブレーション処理には、ユーザの個々で異なる指の長さ、手の長さ、腕の長さの調整も行なう。
すなわち、ユーザによりユーザの個々で異なる指の長さ、手の長さ、腕の長さが異なるので、操作領域410cの調整を行なうものである。
なお、ジェスチャ領域410gは、仮想イメージ表示領域2203Dと重ならないように配置しかつ深さ方向(z軸正方向)に厚みを持たせることが好ましい。
そのため、赤外線検知ユニット410からの信号を無処理のまま使用すると、ユーザは、手先が仮想イメージ表示領域2203Dから外れたとしても、そのような状態であることを体感しにくい。
その結果、ユーザは、両腕を最大限に伸ばした状態、または少し曲げた状態で、奥行きのある平面状の仮想イメージ表示領域2203D内の中央部から端部まで操作することができる。
その結果、ユーザは、両腕を最大限に伸ばした状態、または少し曲げた状態で、奥行きのある平面状の仮想イメージ表示領域2203D内の中央部から端部まで操作することができる。
続いて、没入型ディスプレイ220に、像の周囲を指で囲んでくださいと、表示を行なう(ステップS16)。ここで、像の近傍に指の形の像を薄く表示してもよいし、没入型ディスプレイ220に表示を行なう代わりにスピーカから音声により指示をユーザに伝えてもよい。
なお、上記においては、指で矩形を形作り、そのように定められた矩形と、像の外縁の矩形にあわせる。このことによって、指により定められた矩形の視認サイズおよび位置と像の外縁の矩形の視認サイズ及び位置とを合わせることとした。
しかしながら、指によって形状を定める手法はこれに限定されず、表示された像の外縁を指でなぞる手法、表示された像の外縁上の複数の点を指で指し示す手法等、他の任意の手法であってもよい。また、これらの手法を複数のサイズの像について行ってもよい。
次いで、指認識について説明を行い、その後掌認識、腕認識の順で説明を行なう。図12は、指認識の一例を示す模式図である。図12において、(A)は指の先端付近の拡大図であり、(B)は指の根元付近の拡大図である。図13は、指認識の処理の一例を示すフローチャートである。
次に、赤外線検知ユニット410により画像データをピクセル単位で距離に置き換える(ステップS23)。この場合、赤外線の明るさは、距離の三乗に反比例する。これを利用し、デプスマップを作成する(ステップS24)。
続いて、二値化した画像データから約100個の頂点を持つポリゴンを作成する(ステップS26)。そして、頂点が滑らかになるようにローパスフィルタ(LPF)により、より多くの頂点pnを有する新たな多角形を作成することによって、図12に示す手の外形OFを抽出する(ステップS27)。
なお、本実施の形態においては、ステップS26において二値化したデータからポリゴンを作成するために抽出する頂点の数を約100個としているが、これに限定されず、1000個、その他の任意の個数であってもよい。
その後、ステップS27で作成された新たな多角形と、ステップS28で作成された凸包との共有の頂点p0を抽出する(ステップS29)。このように抽出された共有の頂点p0自体を指の先端点として用いることができる。
さらに、頂点p0の位置に基づいて算出される他の点を指の先端点として用いてもよい。例えば、図12(A)に示すように頂点p0における外形OFの内接円の中心を先端点P0として算出することもできる。
全ての指について同様の処理を行なうことで、全ての指のスケルトンを得る。これにより、手のポーズを認識することができる。すなわち、親指、人差し指、中指、薬指、小指のいずれの指が広げられ、いずれの指が握られているかを認識することができる。
グラフィック演算ユニット463は、キャリブレーションサービスユニット461を用いてキャリブレーションデータ記録ユニット457を参照し、表示の補正を行なう(ステップS36)。
最後に、ディスプレイ演算ユニット464により没入型ディスプレイ220に表示を行なう(ステップS37)。
次に、当該一方の側と他方の側における一対の頂点p2間を結ぶ線分の長さを算出する。同様に、当該一方の側と他方の側における一対の頂点間を結ぶ線分の長さを、頂点p0により近い位置にある頂点からより遠い位置にある頂点への順で算出していく。
したがって、当該長さの変化量が所定量を超えずかつ頂点p0から最も遠い線分を検知し、検知された線分上の1点を抽出することによって、根元点を決定することができる。
次いで、図14は、掌認識の一例を示す模式図である。
また、各指の先端点P0と各指の根元点P1とを結んだ直線が相互になす角度θ11,θ12,θ13,θ14のうち、親指が関与するθ11が最も大きい傾向にある。このような傾向に基づき親指の判定を行なう。その結果、右手か左手か、または掌の表か裏かを判定することができる。
次いで、腕認識について説明を行なう。本実施の形態において、腕認識は、指、掌および親指のいずれかを認識した後に実施する。なお、腕認識は、指、掌および親指のいずれかを認識する前、またはそれらの少なくともいずれかと同時に実施してもよい。
その後、抽出した外形に外接する四角枠を選定する。本実施の形態においては、当該四角枠は、平行四辺形または長方形からなる。
この場合、平行四辺形または長方形は、対向する長辺を有するので、長辺の延在方向から腕の延在方向を認識することができ、長辺の向きから腕の向きを判定することが出来る。なお、ステップS32の処理と同様に、直前の数フレームの画像データと比較して、腕の動きを検知させてもよい。
次に、図16、17は、電子眼鏡100の没入型ディスプレイ220の表示の一例を示す模式図であり、図18は、手術時における電子眼鏡100の処理の一例を示すフローチャートである。以下、電子眼鏡100を手術時に使用する場合について説明する。
続いて、制御ユニット450は、ユーザの手H1のジェスチャを認識し、画像ZMを拡大または縮小する(ステップS52)。具体的には、図5(a)に示した画像ZMを図5(b)に示した画像ZMのように、拡大表示させる。本実施の形態においては、図5(b)に示したように、ユーザの手H1を矢印XYの方向へ移動することにより、当該一部の画像ZMを拡大することができる。なお、この場合、当該一部の画像ZMの周囲の画像領域については、拡大処理が行われない。
さらに、ユーザの手H1を矢印XYの方向と逆方向へ移動させることにより、当該一部の画像ZMを縮小することができる。
次いで、制御ユニット450は、手H1のジェスチャにより、画像ZMの周囲の画像領域OZMに3次元立体モデルDDを表示する(ステップS55)。具体的には、図17に示すように、当該一部の画像ZMの周囲の画像領域OZMに、当該3次元立体モデルDDを表示させる。3次元立体モデルDDは、当該ジェスチャにより、鉛直軸周りに回転させたり、水平軸周りに回転させたりすることができることが好ましい。
なお、3次元立体モデルDDは、手術または治療における試作モデルまたはシミュレーションモデルを表示させることが望ましい。その結果、ユーザは、安心して手術または治療を行うことができる。特に、3次元立体モデルDDが、手術または治療のガイドとして機能させることができる。
図19から図22は、図9から図11において説明した操作領域410cの他の例を示す模式図である。
図19および図20は、ユーザを上方から視認した状態を示す模式図であり、図21および図22は、ユーザを側方から視認した状態を示す模式図である。
すなわち、図20においては、ユーザが水平方向に手H1を移動させようとしているが、直線に近い移動軌跡RL2を通ることとなる。この場合、移動軌跡RL2の曲率半径はrad2である。ここで、人間工学に基づいて、当然のことながら、曲率半径rad1は、曲率半径rad2よりも小さい値となる。
すなわち、図22においては、ユーザが鉛直方向に手H1を移動させようとしているが、直線に近い移動軌跡RL4を通ることとなる。この場合、移動軌跡RL4の曲率半径はrad4である。ここで、人間工学に基づいて、当然のことながら、曲率半径rad3は、曲率半径rad4よりも小さい値となる。
電子眼鏡100aは、上述した図1および図2の電子眼鏡100と同様の機能および表示を有する。
なお、音声認識ユニット468および骨伝導装置ユニット469は、電子眼鏡100から取り外しできるよう形成されていてもよい。
また、電子眼鏡100は、容易に携帯可能となる。また、ヘッドマウントディスプレイは小型であるので、汎用性および利便性を高めることができる。
220,220a 一対の没入型ディスプレイ
303 カメラユニット
400 操作システム
410 赤外線検知ユニット
450 制御ユニット
466 赤外線照射ユニット
467 赤外線撮影ユニット
468 音声認識ユニット
469 骨伝導装置ユニット
610 鏡筒部
690 フットペダル
698 外部出力端子
699 録画装置
H1 手
ZM 画像
Claims (8)
- 人体の頭部に装着可能な電子眼鏡であって、
対象物を撮像する撮像装置と、
前記撮像装置による2次元および3次元の少なくとも一方の画像を表示する1または複数の表示装置と、
前記表示装置に表示された前記画像の一部のみの表示倍率を調整する制御部と、を含む電子眼鏡。 - 前記制御部は、前記表示装置の前記画像の中央部の表示倍率を調整し、前記中央部の周囲の表示倍率を調整しない、請求項1記載の電子眼鏡。
- 前記表示装置は、没入型ディスプレイである、請求項1または2記載の電子眼鏡。
- 前記表示装置に表示された画像を操作する操作部を含み、
前記操作部は、人体の一部までの距離を測定する深度センサを含み、
前記制御部は、前記深度センサに応じて、前記中央部の表示倍率を調整するとともに、前記中央部の周囲に前記人体の一部または前記人体の一部の外郭を表示する、請求項2または3記載の電子眼鏡。 - 前記表示装置に表示された画像を操作する操作部を含み、
前記操作部は、音声認識部および骨伝導認識部の少なくとも一方を含み、
前記制御部は、前記音声認識部および前記骨伝導認識部の少なくとも一方に応じて、前記画像の表示倍率を調整する、請求項1乃至4のいずれか1項に記載の電子眼鏡。 - 前記制御部は、前記画像に対してデジタルズーム機能を有する、請求項1乃至5のいずれか1項に記載の電子眼鏡。
- 前記撮像装置は、赤外線を照射する照射部および赤外線カメラを含む、請求項1乃至6のいずれか1項に記載の電子眼鏡。
- 人体の頭部に装着可能な電子眼鏡の制御方法であって、
対象物を撮像する撮像工程と、
前記撮像工程による2次元および3次元の少なくとも一方の画像を表示する1または複数の表示工程と、
前記表示工程に表示された前記画像の一部のみの表示倍率を調整する制御工程と、を含む電子眼鏡の制御方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015006624A JP6576639B2 (ja) | 2015-01-16 | 2015-01-16 | 電子眼鏡および電子眼鏡の制御方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015006624A JP6576639B2 (ja) | 2015-01-16 | 2015-01-16 | 電子眼鏡および電子眼鏡の制御方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016134668A true JP2016134668A (ja) | 2016-07-25 |
JP6576639B2 JP6576639B2 (ja) | 2019-09-18 |
Family
ID=56464413
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015006624A Active JP6576639B2 (ja) | 2015-01-16 | 2015-01-16 | 電子眼鏡および電子眼鏡の制御方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6576639B2 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109254406A (zh) * | 2018-11-07 | 2019-01-22 | 深圳市传智科技有限公司 | 一种多功能增强现实眼镜 |
JP2019186897A (ja) * | 2018-04-10 | 2019-10-24 | 株式会社シンクアウト | ヘッドマウントディスプレイ |
JP2020509522A (ja) * | 2017-01-13 | 2020-03-26 | アントゥネス, ヌーノANTUNES, Nuno | マルチメディア取得、登録及び管理システム及び方法 |
KR102223621B1 (ko) * | 2020-07-01 | 2021-03-05 | 부경대학교 산학협력단 | 비가시광선 가시화 자동정합형 증강현실 글래스 |
WO2022191151A1 (ja) * | 2021-03-12 | 2022-09-15 | 株式会社Jvcケンウッド | 自動焦点調整眼鏡、自動焦点調整眼鏡の制御方法、プログラム |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005172851A (ja) * | 2003-12-05 | 2005-06-30 | Sony Corp | 画像表示装置 |
JP2008083289A (ja) * | 2006-09-27 | 2008-04-10 | Sony Corp | 撮像表示装置、撮像表示方法 |
JP2008096868A (ja) * | 2006-10-16 | 2008-04-24 | Sony Corp | 撮像表示装置、撮像表示方法 |
JP2011205534A (ja) * | 2010-03-26 | 2011-10-13 | Kyocera Corp | 携帯電子機器 |
JP2014158136A (ja) * | 2013-02-15 | 2014-08-28 | Shoichi Nakamura | 医療用撮影システム |
WO2014197109A2 (en) * | 2013-03-22 | 2014-12-11 | Seiko Epson Corporation | Infrared video display eyewear |
-
2015
- 2015-01-16 JP JP2015006624A patent/JP6576639B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005172851A (ja) * | 2003-12-05 | 2005-06-30 | Sony Corp | 画像表示装置 |
JP2008083289A (ja) * | 2006-09-27 | 2008-04-10 | Sony Corp | 撮像表示装置、撮像表示方法 |
JP2008096868A (ja) * | 2006-10-16 | 2008-04-24 | Sony Corp | 撮像表示装置、撮像表示方法 |
JP2011205534A (ja) * | 2010-03-26 | 2011-10-13 | Kyocera Corp | 携帯電子機器 |
JP2014158136A (ja) * | 2013-02-15 | 2014-08-28 | Shoichi Nakamura | 医療用撮影システム |
WO2014197109A2 (en) * | 2013-03-22 | 2014-12-11 | Seiko Epson Corporation | Infrared video display eyewear |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020509522A (ja) * | 2017-01-13 | 2020-03-26 | アントゥネス, ヌーノANTUNES, Nuno | マルチメディア取得、登録及び管理システム及び方法 |
JP7075404B2 (ja) | 2017-01-13 | 2022-05-25 | アントゥネス,ヌーノ | マルチメディア取得、登録及び管理システム及び方法 |
JP2019186897A (ja) * | 2018-04-10 | 2019-10-24 | 株式会社シンクアウト | ヘッドマウントディスプレイ |
JP7139548B2 (ja) | 2018-04-10 | 2022-09-21 | 株式会社シンクアウト | ヘッドマウントディスプレイ |
CN109254406A (zh) * | 2018-11-07 | 2019-01-22 | 深圳市传智科技有限公司 | 一种多功能增强现实眼镜 |
KR102223621B1 (ko) * | 2020-07-01 | 2021-03-05 | 부경대학교 산학협력단 | 비가시광선 가시화 자동정합형 증강현실 글래스 |
US11609425B2 (en) | 2020-07-01 | 2023-03-21 | Pukyong National University Industry-University Cooperation Foundation | Augmented reality glasses with auto coregistration of invisible field on visible reality |
WO2022191151A1 (ja) * | 2021-03-12 | 2022-09-15 | 株式会社Jvcケンウッド | 自動焦点調整眼鏡、自動焦点調整眼鏡の制御方法、プログラム |
Also Published As
Publication number | Publication date |
---|---|
JP6576639B2 (ja) | 2019-09-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6972105B2 (ja) | 固定距離の仮想現実システムおよび拡張現実システムならびに方法 | |
US10048750B2 (en) | Content projection system and content projection method | |
JP6095763B2 (ja) | ジェスチャ登録装置、ジェスチャ登録プログラムおよびジェスチャ登録方法 | |
JP6507241B2 (ja) | ヘッドマウントディスプレイ装置およびそれを用いた視覚補助方法 | |
CN103558909B (zh) | 交互投射显示方法及交互投射显示系统 | |
US9961335B2 (en) | Pickup of objects in three-dimensional display | |
US20210044789A1 (en) | Electronic visual headset with vision correction | |
WO2016151506A1 (en) | Combining video-based and optic-based augmented reality in a near eye display | |
WO2016092950A1 (ja) | 医療用眼鏡型表示装置、情報処理装置及び情報処理方法 | |
JP6576639B2 (ja) | 電子眼鏡および電子眼鏡の制御方法 | |
JP2023507867A (ja) | 人工現実コンテンツの可変焦点ディスプレイを有する人工現実システム | |
JP6250024B2 (ja) | キャリブレーション装置、キャリブレーションプログラム、およびキャリブレーション方法 | |
WO2014128751A1 (ja) | ヘッドマウントディスプレイ装置、ヘッドマウントディスプレイ用プログラム、およびヘッドマウントディスプレイ方法 | |
JP2022183177A (ja) | ヘッドマウントディスプレイ装置 | |
JP2017191546A (ja) | 医療用ヘッドマウントディスプレイ、医療用ヘッドマウントディスプレイのプログラムおよび医療用ヘッドマウントディスプレイの制御方法 | |
JP2018513656A (ja) | 画像強調可能な眼鏡構造 | |
WO2014128750A1 (ja) | 入出力装置、入出力プログラム、および入出力方法 | |
JP6446465B2 (ja) | 入出力装置、入出力プログラム、および入出力方法 | |
WO2021242932A1 (en) | Generation of three-dimensional images with digital magnification | |
JP6479835B2 (ja) | 入出力装置、入出力プログラム、および入出力方法 | |
WO2017081915A1 (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP2017189498A (ja) | 医療用ヘッドマウントディスプレイ、医療用ヘッドマウントディスプレイのプログラムおよび医療用ヘッドマウントディスプレイの制御方法 | |
JP2016133541A (ja) | 電子眼鏡および電子眼鏡の制御方法 | |
JP2017111537A (ja) | ヘッドマウントディスプレイおよびヘッドマウントディスプレイのプログラム | |
WO2018083757A1 (ja) | 画像提供装置、画像提供方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150128 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20170224 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170515 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170703 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171220 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190115 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20190329 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190614 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190702 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190710 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190723 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190821 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6576639 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |