JP6192454B2 - 表示システム - Google Patents

表示システム Download PDF

Info

Publication number
JP6192454B2
JP6192454B2 JP2013191305A JP2013191305A JP6192454B2 JP 6192454 B2 JP6192454 B2 JP 6192454B2 JP 2013191305 A JP2013191305 A JP 2013191305A JP 2013191305 A JP2013191305 A JP 2013191305A JP 6192454 B2 JP6192454 B2 JP 6192454B2
Authority
JP
Japan
Prior art keywords
marker
coordinate system
reference coordinate
imaging unit
positional relationship
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013191305A
Other languages
English (en)
Other versions
JP2015060241A (ja
Inventor
福田 登仁
登仁 福田
雅一 宮前
雅一 宮前
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Westunitis KK
Original Assignee
Westunitis KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Westunitis KK filed Critical Westunitis KK
Priority to JP2013191305A priority Critical patent/JP6192454B2/ja
Publication of JP2015060241A publication Critical patent/JP2015060241A/ja
Application granted granted Critical
Publication of JP6192454B2 publication Critical patent/JP6192454B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

この発明は表示システムに関し、特にマーカを用いた拡張現実(AR)に関するものである。
現実世界にアノテーションを追加的に表示する拡張現実が、いろいろな分野において実用化されてきている。たとえば、透明な液晶ディスプレイによって構成され、カメラのついたメガネを装着することで拡張現実を実現するものがある。メガネを通して観察者の見ている現実に対して、液晶ディスプレイによって仮想のオブジェクトをアノテーションとして表示し、拡張現実を実現している。
拡張現実を実現するためには、観察者の視点を決定する必要がある。一般に、観察者の視点を決定するためには、撮像した画像を分析する方法、GPSやセンサなどを用いる方法がある。前者においては、マーカを用いこれを撮像することで観察者の視点を決定する方法と、マーカを用いることなく撮像した画像によって観察者の視点を決定する方法がある。マーカを用いるシステムは、たとえば特許文献1に記載されている。
特開2003−78811
しかしながら、特許文献1の技術では、マーカが撮像画像から外れると拡張現実の表示を行うことができないという問題があった。このため、広い視野にわたって拡張現実の表示を行うことは困難であるという問題があった。
この問題を解決するために、マーカを定められた間隔(たとえば1mごと)に予め配置しておくという方法がとられている。しかし、この方法では、マーカを予め規則的に配置しておく必要があり、前作業が煩雑であるという問題を生じていた。
この発明は、上記のような問題を解決して、作業が簡易でありながら、撮像されないマーカがでてきても拡張現実の表示を継続することのできる表示システムを提供することを目的とする。
(1)(2)この発明に係る表示システムは、互いの位置関係が既知である複数の特徴点を有する第1のマーカおよび第2のマーカを少なくとも撮像する撮像部と、第1のマーカおよび第2のマーカの撮像画像に基づいて、当該撮像画像における前記特徴点の位置関係に基づいて、前記第1のマーカまたは前記第2のマーカと前記撮像手段との位置関係を算出し、あるいは前記第1のマーカ、前記第2のマーカ、前記撮像手段の位置関係を算出し、基準座標系を決定する基準座標系決定手段と、前記決定した基準座標系に基づいて、当該基準座標系に仮想三次元オブジェクトを配置し、前記撮像部と関連づけられた視点から見たときに当該仮想三次元オブジェクトがどのように見えるかを、前記第1のマーカまたは前記第2のマーカのいずれかまたは双方の前記基準座標系における位置、前記撮像部の前記基準座標系における位置、前記視点の前記基準座標系における位置に基づいて算出し、仮想オブジェクト画像を生成する仮想オブジェクト画像生成手段と、前記仮想オブジェクト画像を、表示部において表示するよう制御する表示手段とを備えた表示システムにおいて、
前記第1のマーカが撮像部による撮像画像から外れると、前記仮想オブジェクト画像生成手段は、前記第2のマーカに基づいて、仮想オブジェクト画像を生成することを特徴としている。
したがって、第1のマーカが撮像されなくなっても、継続的に拡張現実の表示を行うことができる。
(3)この発明に係る表示システムにおいては、仮想三次元オブジェクトが、前記第1のマーカまたは第2のマーカとの関係において前記基準座標系における配置位置が定められている。
したがって、第1のマーカを正しい位置に置けば、第2のマーカは任意の位置に置いても、継続的な拡張現実の表示を実現できる。
(4)この発明に係る表示システムにおいては、三次元オブジェクトが、オブジェクト配置用マーカに基づいて、前記基準座標系における配置位置が定められることを特徴としている。
したがって、第1のマーカ、第2のマーカともに任意の位置に置いても、継続的な拡張現実の表示を実現できる。
(5)この発明に係る拡張現実表示方法は、互いの位置関係が既知である複数の特徴点を有する第1のマーカを撮像し、第1のマーカの撮像画像に基づいて、当該撮像画像における前記特徴点の位置関係に基づいて、前記第1のマーカと前記撮像手段との位置関係を算出し、基準座標系を決定し、互いの位置関係が既知である複数の特徴点を有する第2のマーカを撮像し、第2のマーカの撮像画像に基づいて、当該撮像画像における前記特徴点の位置関係に基づいて、前記第2のマーカと前記撮像手段との位置関係を算出し、当該第2のマーカの位置を前記基準座標系に組み入れ、前記決定した基準座標系に基づいて、当該基準座標系に仮想三次元オブジェクトを配置し、前記撮像部と関連づけられた視点から見たときに当該仮想三次元オブジェクトがどのように見えるかを、前記第1のマーカまたは前記第2のマーカのいずれかまたは双方の前記基準座標系における位置、前記撮像部の前記基準座標系における位置、前記視点の前記基準座標系における位置に基づいて算出し、仮想オブジェクト画像を生成し、前記仮想オブジェクト画像を、表示部に表示する拡張現実表示方法において、前記第1のマーカが撮像部による撮像画像から外れると、前記第2のマーカに基づいて、仮想オブジェクト画像を生成して表示することを特徴としている。
したがって、第1のマーカが撮像されなくなっても、継続的に拡張現実の表示を行うことができる。
この発明において「撮像部」とは、対象を撮像することのできるものをいい、実施形態においてはCMOSカメラ2がこれに該当する。
「基準座標決定手段」は、実施形態においては、ステップS3がこれに対応する。
「仮想オブジェクト画像生成手段」は、実施形態においては、ステップS7、S8がこれに対応する。
「表示手段」は、実施形態においては、ステップS9がこれに対応する。
「プログラム」とは、CPUにより直接実行可能なプログラムだけでなく、ソース形式のプログラム、圧縮処理がされたプログラム、暗号化されたプログラム等を含む概念である。
この発明の一実施形態による表示システムの機能ブロック図である。 表示システムの外観図である。 ハードウエア構成を示す図である。 表示プログラム22のフローチャートである。 表示プログラム22のフローチャートである。 マーカM1、M2の配置と撮像画像を示す図である。 マーカと基準座標系との関係を示す図である。 テーブルに記録される情報を示す図である。 撮像方向を特定するためのパラメータθ、φを説明するための図である。 拡張現実の表示例である。 視点が移動した際の拡張現実の表示例である。 表示プログラム22のフローチャートである。
1.全体構成
図1に、この発明の一実施形態による表示システムの機能ブロック図を示す。表示手段8は、たとえば、観察者の装着したメガネのガラス部分に配置された透明液晶ディスプレイである。また、撮像部2は、当該メガネに設けられたカメラである。
撮像部2は、第1のマーカM1、第2のマーカM2を撮像する。第1のマーカM1には、特徴点F11、F12、F13、F14が印刷されている。同様に、第2のマーカM2には、特徴点F21、F22、F23、F24が印刷されている。
基準座標系決定手段4は、撮像画像中の、第1のマーカM1の特徴点F11、F12、F13、F14の位置関係より、第1のマーカM1と撮像部2との相対的な位置を算出する。これにより、第1のマーカM1、撮像部2の位置関係を反映した基準座標系を決定する。さらに、基準座標系決定手段4は、撮像画像中の、第2のマーカM2の特徴点F21、F22、F23、F24の位置関係より、第2のマーカM2と撮像部2との相対的な位置を算出する。そして、先に算出した基準座標系における第2のマーカM2の位置を決定する。
仮想オブジェクト画像生成手段6は、この基準座標系にアノテーションとして追加する仮想三次元オブジェクトを配置する。さらに、仮想オブジェクト画像生成手段6は、観察者の視点から、この仮想三次元オブジェクトを見たときにどのように見えるかを、前記第1のマーカM1または前記第2のマーカM2の前記基準座標系における位置、前記撮像部の前記基準座標系における位置、前記視点の前記基準座標系における位置に基づいて計算し、仮想オブジェクト画像を生成する。表示手段8は、生成された仮想オブジェクト画像を、表示部10に表示する。
ここで、撮像部2によって撮像された画像において、第1のマーカM1が外れて、第2のマーカM2だけとなった時には、次のようにして拡張現実の表示を行う。すなわち、仮想オブジェクト画像生成手段6は、第2のマーカM2の前記基準座標系における位置、前記撮像部の前記基準座標系における位置、前記視点の前記基準座標系における位置に基づいて計算し、仮想オブジェクト画像を生成する。
これにより、第1のマーカM1が撮像部2の撮像範囲から外れても、拡張現実の表示を継続することができる。さらに、第2のマーカM2のみが撮像されている状態において、第3のマーカM3(図示せず)を撮像範囲内の任意の位置に置くことにより、第2のマーカM2、第3のマーカM3のいずれかが撮像範囲から外れても、拡張現実の表示を継続することが可能となる。
2.ハードウエア構成
図2に、この発明の一実施形態による表示システム12の外観を示す。レンズ部分には、表示部である透明な液晶ディスプレイ10が設けられている。この液晶ディスプレイ10は透明であるため、装着者がこれを通して現実の世界を見ることができる。さらに、これに重ねて、アノテーションを表示することができる。
左側のツルの前方部には、撮像部であるCMOSカメラ2(USBカメラやウエブカメラなどで一般的に用いられているCMOSイメージセンサを用いたカメラ)が設けられている。ツルの内部には、バッテリや制御回路(図示せず)が収納されている。
図3に、制御回路をCPUを用いて構成した場合の構成を示す。CPU16には、CMOSカメラ2、液晶ディスプレイ10、不揮発性メモリ18が接続されている。不揮発性メモリ18には、オペレーティングシステム20(たとえば、I-TORNなど)、表示プログラム22が記録されている。表示プログラム22は、オペレーティングシステム20と協働してその機能を発揮するものである。
3.表示処理
図4a、図4bに、表示プログラム22のフローチャートを示す。なお、仮想三次元オブジェクトを表示するためのプログラムとしては、ARツールキットを用いることができる。
CPU16は、まず、CMOSカメラ2によって撮像した画像を取り込む(ステップS1)。取り込んだ画像の例を、図5に示す。なお、図4aのフローチャートにおいては、撮像画像の取り込みはステップS1のみが示されているが、ステップS2以下の処理と並行して、所定時間毎に取り込みが行われている。
続いて、CPU16は、画像中からマーカM1を認識し、さらに、当該マーカM1の特徴点F11、F12、F13、F14を認識する(ステップS2)。次に、CPU16は、図6に示すように、マーカM1の中心O1を原点とし、特徴点F11とF12を結ぶ方向がX方向、特徴点F11とF14を結ぶ方向がY方向、XY平面に垂直な方向にZ方向をとって、基準座標系を決定する(ステップS3)。さらに、CPU16は、撮像画像におけるマーカM1の特徴点F11、F12、F13、F14の位置関係に基づいて、当該基準座標系におけるカメラ位置Cおよび撮像方向の推定を行う(図5B参照、ステップS4)。なお、撮像方向は、図8に示すように、XY平面内における角度θ、XY平面に対する角度φによって特定する。
なお、この実施形態においては、マーカM1は、アノテーションとして表示したい仮想三次元オブジェクトとの関係において計算された位置に置くようにしている。
この時、撮像された画像中にマーカM1のみが写っており、他のマーカが写っていなければ、上記の基準座標系を元に仮想三次元オブジェクトの表示を実行する。
ここでは、図5Aに示すように、マーカM2も撮像されていたものとして説明を進める。マーカM2は、予め配置しておいてもよいが、仮想現実の処理を行っている最中に追加的に置くようにしてもよい。いずれの場合であっても、マーカM2は、その向きやマーカM1との間隔等の点において、制限なく自由に配置することができる。
CPU16は、第2のマーカM2の特徴点F21、F22、F23、F24を認識する(ステップS5)。これにより、マーカM2とカメラ位置Cとの相対的な位置関係がわかる。さらに、CPU16は、この相対的な位置関係に基づいて、基準座標系における第2のマーカM2の位置(中心点O2の位置)を推定する。
このようにして、図7に示すようなテーブルが不揮発性メモリ18に記録される。
次に、CPU16は、予め定め不揮発性メモリ18に記録されている三次元仮想オブジェクトのデータを読み出し、基準座標系において、第1のマーカM1との関係において予め定められている位置に配置する(ステップS7)。つづいて、CPU16は、観察者の視点から見た仮想三次元オブジェクトの二次元仮想オブジェクト画像を生成する(ステップS8)。なお、カメラ位置とカメラの撮像方向が分かっているので、図2のカメラ2の位置と、液晶ディスプレイ10との位置関係から、観察者の視点を算出することができる。
さらに、CPU16は、生成した二次元仮想オブジェクト画像をディスプレイ10に表示する(ステップS9)。これにより、例えば、図9に示すように、仮想三次元オブジェクトの画像Jが現実のオブジェクトRに重ねて表示されることになる。なお、画像Jは、観察者の視点が移動すると、これに応じてその位置に仮想三次元オブジェクトが存在するかのように変更されるので、観察者は仮想的にそれを感知することができる。
次に、観察者の視点方向が変化し、図5のような撮像画像からマーカM1が外れた場合について説明する(図10参照)。この場合の表示プログラム22のフローチャートを、図11に示す。なお、撮像画像の取り込みは、これらの処理と並行して所定時間間隔で実行されている。
CPU16は、撮像画像において、第2のマーカM2の特徴点F21、F22、F23、F24を認識する(ステップS11)。これにより、既に算出済みである基準座標系におけるカメラCの位置、撮像方向を推定する(ステップS12)。次に、CPU16は、仮想三次元オブジェクトを、基準座標系に配置する(ステップS13)。前述のように、仮想三次元オブジェクトは、第1のマーカM1との関係においてその位置が定義されている。しかし、ここでは、第1のマーカM1と第2のマーカM2との位置関係が既知であるから、仮想三次元オブジェクトを正しく配置することができる。
次に、CPU16は、観察者の視点から見た仮想三次元オブジェクトの二次元画像を生成する(ステップS14)。続いて、CPU16は、仮想オブジェクトの二次元画像をディスプレイ10に表示する(ステップS15)。表示例を図10に示す。マーカM1が一部分しか撮像されていなくとも(あるいは全く撮像されていなくとも)、図10に示すように、正しい位置に仮想オブジェクトJを表示することができる。また、図9では表示されていなかった仮想オブジェクトKも表示することができる。
以上のように、基準となるマーカM1を撮像できなくなっても、任意の位置においたマーカM2によって、拡張現実を継続的に表示することができる。さらに、図10の状態においてマーカM3を置けば、マーカM2、M3のいずれかが撮像できなくなっても、継続的に拡張現実を実現することができる。
4.その他の実施形態
(1)上記実施形態においては、第1のマーカM1を、現実のオブジェクトRとの関係において予め定めた位置に置くようにしている。しかし、第1のマーカM1は任意の位置に置くようにし、仮想オブジェクト配置用のマーカを別途置いて、この配置用マーカの上に仮想オブジェクトを表示するようにしてもよい。この場合、画面を見ながら配置用マーカを移動させて仮想オブジェクトの位置を決定する。
仮想オブジェクトごとに、上記のように配置用マーカを用いて表示位置を設定してもよいし、基準となる仮想オブジェクトについてのみ配置用マーカを用い、他の仮想オブジェクトはこの仮想オブジェクトとの位置関係を定めておいて表示するようにしてもよい。
(2)なお、上記実施形態では、透明な液晶ディスプレイ10を用いている。しかし、観察者の目に近接して配置した小型のディスプレイ(透明でも非透明でもよい)を設けるようにしてもよい。観察者の目に近接しているので、現実のオブジェクトに目の焦点を合わせると、ディスプレイ自体は観察者に意識されなくなって、同様の効果を得ることができる。
(3)上記実施形態では、撮像された第1のマーカM1の特徴点に基づいてカメラ位置Cや撮像方向を推定している。しかし、第1のマーカM1および第2のマーカM2の特徴点の双方に基づいて、カメラ位置Cや撮像方向を推定するようにしてもよい。つまり、撮像されている複数のマーカによる情報に基づいてカメラ位置Cや撮像方向を推定するようにしてもよい。
また、第1のマーカM1のみが撮像されているときに、これに基づいて基準座標系を設定し、引き続いて第2のマーカM2が撮像された結果、第1のマーカM1および第2のマーカM2の双方が撮像されたとき、第2のマーカM2の特徴点の情報に基づいて基準座標系を修正するようにしてもよい。
(4)上記実施形態において、2以上のマーカが撮像されていない(つまり特徴点による位置推定処理ができない)状態にあって、1つのマーカが撮像されている(つまり特徴点による位置推定処理ができる)状態のとき、ディスプレイ画面上に、警告文(たとえば「マーカを追加して下さい」)を表示するなどの処理を行うようにしてもよい。あるいは、画面全体の色を変えるなどして、警告を行うようにしてもよい。
(5)上記実施形態では、撮像部としてCMOSカメラを用いたが、撮像データを出力できるカメラであればいずれの型式のものであっても用いることができる。たとえば、CCDカメラなどを用いるようにしてもよい。

Claims (6)

  1. 互いの位置関係が既知である複数の特徴点を有する第1のマーカおよび互いの位置関係が既知である複数の特徴点を有する第2のマーカを少なくとも撮像する撮像部と、
    第1のマーカおよび第2のマーカの撮像画像に基づいて、当該撮像画像における前記特徴点の位置関係に基づいて、前記第1のマーカまたは前記第2のマーカと前記撮像部との位置関係を算出し、あるいは前記第1のマーカ、前記第2のマーカ、前記撮像部の位置関係を算出し、基準座標系を決定する基準座標系決定手段と、
    前記決定した基準座標系に基づいて、当該基準座標系に仮想三次元オブジェクトを配置し、前記撮像部と関連づけられた視点から見たときに当該仮想三次元オブジェクトがどのように見えるかを、前記第1のマーカまたは前記第2のマーカのいずれかまたは双方の前記基準座標系における位置、前記撮像部の前記基準座標系における位置、前記視点の前記基準座標系における位置に基づいて算出し、仮想オブジェクト画像を生成する仮想オブジェクト画像生成手段と、
    前記仮想オブジェクト画像を、表示部において表示するよう制御する表示手段と、
    を備えた表示システムにおいて、
    前記第2のマーカは、前記撮像部によって前記第1のマーカと同時に撮像されうる任意の位置に置かれたものであり、
    前記第1のマーカが撮像部による撮像画像から外れると、前記仮想オブジェクト画像生成手段は、前記第2のマーカに基づき、前記基準座標系において仮想オブジェクト画像を生成することを特徴とする表示システム。
  2. 表示システムをコンピュータによって実現するための表示プログラムであって、コンピュータを、
    互いの位置関係が既知である複数の特徴点を有する第1のマーカおよび互いの位置関係が既知である複数の特徴点を有する第2のマーカを少なくとも撮像する撮像部による撮像画像に基づいて、当該撮像画像における前記特徴点の位置関係に基づいて、前記第1のマーカまたは前記第2のマーカと前記撮像手段との位置関係を算出し、あるいは前記第1のマーカ、前記第2のマーカ、前記撮像手段の位置関係を算出し、基準座標系を決定する基準座標系決定手段と、
    前記決定した基準座標系に基づいて、当該基準座標系に仮想三次元オブジェクトを配置し、前記撮像部と関連づけられた視点から見たときに当該仮想三次元オブジェクトがどのように見えるかを、前記第1のマーカまたは前記第2のマーカのいずれかまたは双方の前記基準座標系における位置、前記撮像部の前記基準座標系における位置、前記視点の前記基準座標系における位置に基づいて算出し、仮想オブジェクト画像を生成する仮想オブジェクト画像生成手段と、
    前記仮想オブジェクト画像を、表示部において表示するよう制御する表示手段として機能させる表示プログラムであって、
    前記第2のマーカは、前記撮像部によって前記第1のマーカと同時に撮像されうる任意の位置に置かれたものであり、
    前記第1のマーカが撮像部による撮像画像から外れると、前記仮想オブジェクト画像生成手段は、前記第2のマーカに基づき、前記基準座標系において仮想オブジェクト画像を生成することを特徴とする表示プログラム。
  3. 請求項1のシステムまたは請求項2のプログラムにおいて、
    前記仮想三次元オブジェクトは、前記第1のマーカまたは第2のマーカとの関係において前記基準座標系における配置位置が定められていることを特徴とするシステムまたはプログラム。
  4. 請求項1のシステムまたは請求項2のプログラムにおいて、
    前記三次元オブジェクトは、オブジェクト配置用マーカに基づいて、前記基準座標系における配置位置が定められることを特徴とするシステムまたはプログラム。
  5. 拡張現実表示方法であって、
    互いの位置関係が既知である複数の特徴点を有する第1のマーカを撮像し、
    第1のマーカの撮像画像に基づいて、当該撮像画像における前記特徴点の位置関係に基づいて、前記第1のマーカと前記撮像手段との位置関係を算出し、基準座標系を決定し、
    互いの位置関係が既知である複数の特徴点を有する第2のマーカを撮像し、
    第2のマーカの撮像画像に基づいて、当該撮像画像における前記特徴点の位置関係に基づいて、前記第2のマーカと前記撮像手段との位置関係を算出し、当該第2のマーカの位置を前記基準座標系に組み入れ、
    前記決定した基準座標系に基づいて、当該基準座標系に仮想三次元オブジェクトを配置し、前記撮像部と関連づけられた視点から見たときに当該仮想三次元オブジェクトがどのように見えるかを、前記第1のマーカまたは前記第2のマーカのいずれかまたは双方の前記基準座標系における位置、前記撮像部の前記基準座標系における位置、前記視点の前記基準座標系における位置に基づいて算出し、仮想オブジェクト画像を生成し、
    前記仮想オブジェクト画像を、表示部に表示する拡張現実表示方法において、
    前記第2のマーカは、前記撮像部によって前記第1のマーカと同時に撮像されうる任意の位置に置かれたものであり、
    前記第1のマーカが撮像部による撮像画像から外れると、前記第2のマーカに基づき、前記基準座標系において仮想オブジェクト画像を生成して表示することを特徴とする拡張現実表示方法。
  6. 互いの位置関係が既知である複数の特徴点を有する第1のマーカおよび互いの位置関係が既知である複数の特徴点を有する第2のマーカを少なくとも撮像する撮像部と、
    第1のマーカおよび第2のマーカの撮像画像に基づいて、当該撮像画像における前記特徴点の位置関係に基づいて、前記第1のマーカまたは前記第2のマーカと前記撮像部との位置関係を算出し、あるいは前記第1のマーカ、前記第2のマーカ、前記撮像部の位置関係を算出し、基準座標系を決定する基準座標系決定手段と、
    を備えた基準座標システムにおいて、
    前記第2のマーカは、前記撮像部によって前記第1のマーカと同時に撮像されうる任意の位置に置かれたものであり、
    前記第1のマーカが撮像部による撮像画像から外れると、前記仮想オブジェクト画像生成手段は、前記第2のマーカに基づき、前記第1のマーカに基づいて推定された前記基準座標系を維持することを特徴とする基準座標システム。
JP2013191305A 2013-09-17 2013-09-17 表示システム Active JP6192454B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013191305A JP6192454B2 (ja) 2013-09-17 2013-09-17 表示システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013191305A JP6192454B2 (ja) 2013-09-17 2013-09-17 表示システム

Publications (2)

Publication Number Publication Date
JP2015060241A JP2015060241A (ja) 2015-03-30
JP6192454B2 true JP6192454B2 (ja) 2017-09-06

Family

ID=52817758

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013191305A Active JP6192454B2 (ja) 2013-09-17 2013-09-17 表示システム

Country Status (1)

Country Link
JP (1) JP6192454B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10415966B2 (en) 2015-04-09 2019-09-17 Nec Corporation Map generating device, map generating method, and program recording medium
JP2017054185A (ja) * 2015-09-07 2017-03-16 株式会社東芝 情報処理装置、情報処理方法及び情報処理プログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4599184B2 (ja) * 2005-02-02 2010-12-15 キヤノン株式会社 指標配置計測方法、指標配置計測装置
JP4847192B2 (ja) * 2006-04-14 2011-12-28 キヤノン株式会社 画像処理システム、画像処理装置、撮像装置、及びそれらの制御方法
JP5423406B2 (ja) * 2010-01-08 2014-02-19 ソニー株式会社 情報処理装置、情報処理システム及び情報処理方法
JP2013141049A (ja) * 2010-03-24 2013-07-18 Hitachi Ltd 世界座標系データベースを利用したサーバ及び端末
JP5643549B2 (ja) * 2010-06-11 2014-12-17 任天堂株式会社 画像処理システム、画像処理プログラム、画像処理装置および画像処理方法
JP5691629B2 (ja) * 2011-02-24 2015-04-01 株式会社大林組 画像合成方法

Also Published As

Publication number Publication date
JP2015060241A (ja) 2015-03-30

Similar Documents

Publication Publication Date Title
EP3195595B1 (en) Technologies for adjusting a perspective of a captured image for display
EP2864832B1 (en) Method and apparatus for augmenting an index image generated by a near eye display
JP6008397B2 (ja) 光学式シースルー型hmdを用いたarシステム
WO2014128747A1 (ja) 入出力装置、入出力プログラム、および入出力方法
KR20140108128A (ko) 증강 현실 제공 장치 및 방법
JP6250024B2 (ja) キャリブレーション装置、キャリブレーションプログラム、およびキャリブレーション方法
US20100188355A1 (en) Apparatus and method for detecting an object pointed by a user
US11720996B2 (en) Camera-based transparent display
WO2014128751A1 (ja) ヘッドマウントディスプレイ装置、ヘッドマウントディスプレイ用プログラム、およびヘッドマウントディスプレイ方法
KR20190027079A (ko) 전자 장치, 그 제어 방법 및 컴퓨터 판독가능 기록 매체
JP6061334B2 (ja) 光学式シースルー型hmdを用いたarシステム
JP6250025B2 (ja) 入出力装置、入出力プログラム、および入出力方法
EP3038061A1 (en) Apparatus and method to display augmented reality data
JP2022058753A (ja) 情報処理装置、情報処理方法及びプログラム
JP6192454B2 (ja) 表示システム
WO2018042074A1 (en) A method, apparatus and computer program product for indicating a seam of an image in a corresponding area of a scene
JP5215211B2 (ja) 関連情報表示位置特定システムおよび関連情報表示位置特定用プログラム
JP2012146305A (ja) ウィンドウ状の拡張現実を提供する装置および方法
JP2012058353A (ja) 画像表示装置、及びその制御方法
JP2015201734A (ja) 画像処理装置、画像処理装置の制御方法およびプログラム
JP7137743B2 (ja) 映像表示システム、映像表示装置、及び映像表示方法
Prakash et al. Digitally Transparent Interface Using Eye Tracking
JP2014186587A (ja) 画像処理装置、画像処理装置の制御方法、及びプログラム
CN113689551A (zh) 一种三维内容的展示方法、装置、介质及电子设备
JP2014230027A (ja) 画像表示装置に表示する画像を制御する装置、方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160620

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170529

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170619

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170710

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170808

R150 Certificate of patent or registration of utility model

Ref document number: 6192454

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350