JP6348750B2 - 電子機器、表示方法、プログラム及び通信システム - Google Patents

電子機器、表示方法、プログラム及び通信システム Download PDF

Info

Publication number
JP6348750B2
JP6348750B2 JP2014073431A JP2014073431A JP6348750B2 JP 6348750 B2 JP6348750 B2 JP 6348750B2 JP 2014073431 A JP2014073431 A JP 2014073431A JP 2014073431 A JP2014073431 A JP 2014073431A JP 6348750 B2 JP6348750 B2 JP 6348750B2
Authority
JP
Japan
Prior art keywords
unit
imaging unit
marker
virtual
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014073431A
Other languages
English (en)
Other versions
JP2015194975A (ja
Inventor
健治 村瀬
健治 村瀬
孝貴 山岡
孝貴 山岡
貴裕 柴田
貴裕 柴田
有城 正彦
正彦 有城
阿部 徹
徹 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2014073431A priority Critical patent/JP6348750B2/ja
Publication of JP2015194975A publication Critical patent/JP2015194975A/ja
Application granted granted Critical
Publication of JP6348750B2 publication Critical patent/JP6348750B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Description

本発明は、電子機器、表示方法、プログラム及び通信システムに関する。
近年、AR(augmented reality)が注目を集めている。ARとは、現実世界に何らかの情報を追加することで、目の前にある現実以上の情報を提示する技術や、その技術によって表される環境そのものを含めた状態をいう。
また、ARは、付加情報を重畳する位置の算出方法により、ロケーションベース型とビジョンベース型に分類される。ロケーションベース型は、GPS等から取得可能な位置情報を利用して情報提示を行うものをいう。ビジョンベース型とは、画像認識や空間認識等の技術を応用して直接目の前にある環境を認識し、解析することで情報提示を行うものをいう。
また、ビジョンベース型は、マーカーと呼ばれる決まった形の図形を認識することによって情報を提示するマーカー型と、決まった形の図形ではなく、現実の環境に実在する物体や空間そのものを認識、識別して、それに基づいて提示位置を特定し情報を出現させるマーカーレス型に分類される。
精度や室内利用の観点からビジョンベースが優位であるとされている。
特開2013−254399号公報
しかし、マーカー型は、カメラ撮影画像にマーカーが入ることが必須となるが、設備によっては情報の重畳先近辺にマーカーを用意できない場合が課題となる。一方、マーカーレス型は、空間認識や物体の認識において、計算量が多くなり、ハードウェア的な能力の要求が高くなる等の課題がある。
本発明は、上記課題を解決し、マーカー型の利点を有しながら、マーカーレス型の利点であるマーカー設置位置に制限されないで情報提示を行うことができる電子機器、表示方法、プログラム及び通信システムを提供することを目的とする。
本発明に係る電子機器は、撮像部により現実空間を撮像して得られた撮像画像を取得する撮像画像取得部と、前記撮像画像取得部で取得された前記撮像画像を表示する表示部と、前記撮像画像取得部で取得された前記撮像画像に含まれている所定のマーカーを検出し、識別する検出部と、前記現実空間において、前記撮像部と前記所定のマーカーとの相対的な位置及び姿勢を算出する位置算出部と、前記位置算出部による算出結果に基づいて、前記撮像部の内部パラメータ(例えば、焦点距離、画像サイズ、歪係数等)により設定される仮想撮像部を仮想空間内の所定の場所に配置する仮想撮像部配置部と、現実空間に配置されている所定の機器を操作するための各手順と、手順ごとに表示すべき仮想オブジェクトと、前記仮想オブジェクトの配置情報とが対応付けられているテーブルを有する記憶部と、前記手順を選択する選択部と、前記選択部により選択されている手順に基づいて、前記記憶部を参照し、対応する仮想オブジェクト及びその位置情報を読み出す読出部と、前記読出部により読み出された仮想オブジェクトをその位置情報にしたがって仮想空間内に配置し、前記仮想撮像部により仮想空間内を撮像するレンダリング部と、前記表示部に表示されている前記撮像画像に前記レンダリング部で撮像した結果を重畳する重畳部と、を備える構成である。
かかる構成によれば、電子機器は、手順ごとに異なる仮想オブジェクトを表示部に表示される撮像画像に重畳して表示できるので、所定の機器(例えば、放送設備)の操作について、各手順において仮想オブジェクトにより補助することができ、操作の誤り等の低減に役立てることができる。
電子機器では、前記撮像部は、第1撮像部と第2撮像部とによって構成されており、前記第1撮像部は、前記所定のマーカーを撮像し、前記第2撮像部は、前記所定の機器を撮像し、前記表示部は、前記第2撮像部によって撮像された撮像画像を表示し、前記検出部は、前記第1撮像部によって撮像された撮像画像に含まれている所定のマーカーを検出し、前記位置算出部は、前記現実空間において、前記第1撮像部と前記所定のマーカーとの相対的な位置及び姿勢を算出し、当該算出結果と、前記第1撮像部及び前記第2撮像部の相対的な位置及び姿勢とに基づいて、前記第2撮像部と前記所定のマーカーとの相対的な位置及び姿勢を算出し、前記仮想撮像部配置部は、前記位置算出部による算出結果に基づいて、前記第2撮像部の内部パラメータ(例えば、焦点距離、画像サイズ、歪係数等)により設定される仮想撮像部を仮想空間内の所定の場所に配置する構成でもよい。
かかる構成によれば、電子機器は、マーカー型の利点を有しながら、マーカーレス型の利点であるマーカー設置位置に制限されないで情報提示を行うことができる。さらに、電子機器は、互いの位置関係を既知とした撮像部(カメラ)を複数台用意し、情報重畳先を撮影する第2撮像部にマーカーが映ってない場合でも、第1撮像部で撮影しているマーカーから、第2撮像部の位置及び姿勢が計算できるので、所定の機器(例えば、放送設備)の操作について、各手順において仮想オブジェクトにより補助することができ、操作の誤り等の低減に役立てることができる。
本発明に係る表示方法は、撮像部により現実空間を撮像して得られた撮像画像を取得する撮像画像取得工程と、前記撮像画像取得工程で取得された前記撮像画像を表示部に表示する表示工程と、前記撮像画像取得工程で取得された前記撮像画像に含まれている所定のマーカーを検出し、識別する検出工程と、前記現実空間において、前記撮像部と前記所定のマーカーとの相対的な位置及び姿勢を算出する位置算出工程と、前記位置算出工程による算出結果に基づいて、前記撮像部の内部パラメータ(例えば、焦点距離、画像サイズ、歪係数等)により設定される仮想撮像部を仮想空間内の所定の場所に配置する仮想撮像部配置工程と、現実空間に配置されている所定の機器を操作するための各手順を選択する選択工程と、前記選択工程により選択されている手順に基づいて、前記各手順と、手順ごとに表示すべき仮想オブジェクトと、前記仮想オブジェクトの配置情報とが対応付けられているテーブルを有する記憶部を参照し、対応する仮想オブジェクト及びその位置情報を読み出す読出工程と、前記読出工程により読み出された仮想オブジェクトをその位置情報にしたがって仮想空間内に配置し、前記仮想撮像部により仮想空間内を撮像するレンダリング工程と、前記表示部に表示されている前記撮像画像に前記レンダリング工程で撮像した結果を重畳する重畳工程と、を備える構成である。
かかる構成によれば、表示方法は、手順ごとに異なる仮想オブジェクトを表示部に表示される撮像画像に重畳して表示できるので、所定の機器(例えば、放送設備)の操作について、各手順において仮想オブジェクトにより補助することができ、操作の誤り等の低減に役立てることができる。
本発明に係るプログラムは、コンピュータにより、撮像部により現実空間を撮像して得られた撮像画像を取得する撮像画像取得工程と、前記撮像画像取得工程で取得された前記撮像画像を表示部に表示する表示工程と、前記撮像画像取得工程で取得された前記撮像画像に含まれている所定のマーカーを検出し、識別する検出工程と、前記現実空間において、前記撮像部と前記所定のマーカーとの相対的な位置及び姿勢を算出する位置算出工程と、前記位置算出工程による算出結果に基づいて、前記撮像部の内部パラメータ(例えば、焦点距離、画像サイズ、歪係数等)により設定される仮想撮像部を仮想空間内の所定の場所に配置する仮想撮像部配置工程と、現実空間に配置されている所定の機器を操作するための各手順を選択する選択工程と、前記選択工程により選択されている手順に基づいて、前記各手順と、手順ごとに表示すべき仮想オブジェクトと、前記仮想オブジェクトの配置情報とが対応付けられているテーブルを有する記憶部を参照し、対応する仮想オブジェクト及びその位置情報を読み出す読出工程と、前記読出工程により読み出された仮想オブジェクトをその位置情報にしたがって仮想空間内に配置し、前記仮想撮像部により仮想空間内を撮像するレンダリング工程と、前記表示部に表示されている前記撮像画像に前記レンダリング工程で撮像した結果を重畳する重畳工程と、を実行するためのものである。
かかる構成によれば、プログラムは、手順ごとに異なる仮想オブジェクトを表示部に表示される撮像画像に重畳して表示できるので、所定の機器(例えば、放送設備)の操作について、各手順において仮想オブジェクトにより補助することができ、操作の誤り等の低減に役立てることができる。
本発明に係る通信システムは、第1電子機器と第2電子機器とがネットワークを介して接続される通信システムにおいて、前記第1電子機器は、第3撮像部により現実空間を撮像して得られた撮像画像を取得する第1撮像画像取得部と、前記第1撮像画像取得部で取得された前記撮像画像に含まれている第1マーカーを検出し、識別する第1検出部と、前記第2電子機器に備えられている第4撮像部と、当該第4撮像部に固定されている第2マーカーとの相対的な位置及び姿勢が記憶されている第1記憶部と、前記第1記憶部から前記第4撮像部と前記第2マーカーとの相対的な位置及び姿勢を読み出す第1読出部と、前記第3撮像部と、前記第2電子機器に備えられている第4撮像部に固定されている第2マーカーとの相対的な位置及び姿勢の逆行列を算出し、前記第3撮像部と前記第1マーカーとの相対的な位置及び姿勢を算出する第1位置算出部と、前記第1位置算出部による算出結果と、前記第1読出部で読み出した前記第4撮像部と前記第2マーカーとの相対的な位置及び姿勢を位置関係情報とし、前記第1検出部で検出した前記第1マーカーの識別結果とともに前記第2電子機器に送信する第1送受信部とを備え、前記第2電子機器は、前記第1送受信部から送信されてきた前記位置関係情報と前記第1マーカーの識別結果を受信する第2送受信部と、前記第2マーカーが固定されている第4撮像部と、前記第4撮像部で取得された撮像画像を表示する第2表示部と、前記位置関係情報に基づいて、前記第4撮像部の内部パラメータ(例えば、焦点距離、画像サイズ、歪係数等)により設定される仮想撮像部を仮想空間内の所定の場所に配置する第2仮想撮像部配置部と、現実空間に配置されている所定の機器を操作するための各手順と、手順ごとに表示すべき仮想オブジェクトと、前記仮想オブジェクトの配置情報とが対応付けられているテーブルを有する第2記憶部と、前記手順を選択する第2選択部と、前記第2送受信部で受信した前記第1マーカーの識別結果と前記第2選択部により選択されている手順に基づいて、前記第2記憶部を参照し、対応する仮想オブジェクト及びその位置情報を読み出す第2読出部と、前記第2読出部により読み出された仮想オブジェクトをその位置情報にしたがって仮想空間内に配置し、前記仮想撮像部により仮想空間内を撮像する第2レンダリング部と、前記第2表示部に表示されている前記撮像画像に前記第2レンダリング部で撮像した結果を重畳する第2重畳部と、を備える構成である。
かかる構成によれば、通信システムは、ネットワークを介して第1電子機器と第2電子機器との間において、マーカー型の利点を有しながら、マーカーレス型の利点であるマーカー設置位置に制限されないで情報提示を行うことができる。さらに、通信システムは、手順ごとに異なる仮想オブジェクトを表示部に表示される撮像画像に重畳して表示できるので、所定の機器(例えば、放送設備)の操作について、各手順において仮想オブジェクトにより補助することができ、操作の誤り等の低減に役立てることができる。
本発明によれば、マーカー型の利点を有しながら、マーカーレス型の利点であるマーカー設置位置に制限されないで情報提示を行うことができる。
電子機器の構成を示す図である。 マーカーに基づく仮想オブジェクトが仮想空間内で配置される位置及び姿勢を算出する手順についての説明に供する図である。 仮想オブジェクト等が表示部に表示される様子についての説明に供する図である。 2台の撮像部を連携して利用する手順についての説明に供する図である。 通信システムの概要についての説明に供する図である。 通信システムの構成を示す図である。 第2撮像部とマーカーとの相対的な位置及び姿勢を算出する手順についての説明に供する図である。 第2撮像部とマーカーの相対的な位置及び姿勢を算出する手順についての説明に供する図である。 通信システムによる処理の流れについての説明に供するフローチャートである。 図9に示すステップS2の工程の詳細についての説明に供するフローチャートである。 図9に示すステップS3の工程の詳細についての説明に供するフローチャートである。 図11に示すステップS33の工程の詳細についての説明に供するフローチャートである。 図12に示すフローチャートにおいて想定する通信システムの構成を示す図である。 撮像画像を解析し、マーカーごとに検出の結果を記録するときに用いるテーブルである。 図9に示すステップS4の工程の詳細についての説明に供するフローチャートである。 手順−仮想オブジェクト関連付けマトリックスについての説明に供する図である。
放送設備の保守は、電波の安定確保に対する重要な業務の一つである。操作を誤ると放送事故につながるおそれがある。そのため、保守の実施にあたり操作時のダブルチェック等により誤認識等のミスを低減させている。しかし、誤認識等は、人間の性質でもあるため、その防止が難しい。
一方、現実空間に位置及び姿勢を整合させながら情報を画面に重畳するAR技術は、その直感的な情報提示方法により、誤認等によるミスを防ぐツールに活用できると考えられる。
本発明に係る電子機器1は、ARを活用し、誤認識等のミスを低減させる構成を有する。以下に、電子機器1の具体的な構成と動作について説明する。
電子機器1は、図1に示すように、撮像部11と、撮像画像取得部12と、表示部13と、検出部14と、位置算出部15と、仮想撮像部配置部16と、レンダリング部17と、重畳部18と、記憶部19と、選択部20と、読出部21と、を備える。電子機器1は、スマートフォン又はタブレットのような機器が該当するが、これに限られず、使用者の身体に装着して利用することができる端末(ウェアラブルデバイス)であってもよい。また、電子機器1がヘッドマウントディスプレイとPCの構成で実現される場合には、ヘッドマウントディスプレイは、使用者に装着され、PCは、リュック等に入れて使用者に携行される形態が考えられる。
撮像画像取得部12は、撮像部11(カメラ)により現実空間を撮像して得られた撮像画像を取得する。なお、本実施例に係る現実空間には、図1に示すように、所定の機器2と、所定の機器2の前面に所定のマーカーM(以下、マーカーMという)が固定されていることを想定している。よって、撮像画像には、所定の機器2とマーカーMが含まれている。なお、以下では、所定の機器2を放送機2とも呼ぶが、放送機に限定されない。
また、マーカーMは、例えば、後述する非特許文献1に示されているような中抜きの黒縁正方形により形成されている。内部の四隅は、各マーカーを識別するためのパターンとして利用される。
表示部13は、撮像画像取得部12で取得された撮像画像を表示する。表示部13は、表示画面の前面にタッチパネルが配置されている。ユーザは、タッチパネルを操作することにより、様々な指示を電子機器1に送ることができる。
検出部14は、撮像画像取得部12で取得された撮像画像に含まれているマーカーMを検出し、識別する。マーカーMは、複数種類存在する。検出部14は、その種類を識別する。
位置算出部15は、現実空間において、撮像部11とマーカーMとの相対的な位置及び姿勢を算出する。なお、以下では、位置とは、平行移動成分を意味し、姿勢とは、回転成分を意味する。
仮想撮像部配置部16は、位置算出部15による算出結果に基づいて、撮像部11の内部パラメータ(例えば、焦点距離、画像サイズ、歪係数等)により設定される仮想撮像部(仮想カメラ)を仮想空間内の所定の場所に配置する。
なお、内部パラメータは、検出部14及び位置算出部15においても、後述する非特許文献1に記載の手法により利用される。
記憶部19は、現実空間に配置されている所定の機器を操作するための各手順と、手順ごとに表示すべき仮想オブジェクトと、前記仮想オブジェクトの配置情報とが対応付けられているテーブルを有する。仮想オブジェクトの配置情報とは、仮想オブジェクトを仮想空間において配置する位置及び姿勢、スケール等の情報である。なお、記憶部19に記憶されているテーブルの一例として、後述する図16に手順−仮想オブジェクト関連付けマトリックスを示す。
選択部20は、手順を選択する。
読出部21は、選択部20により選択されている手順に基づいて、記憶部19を参照し、対応する仮想オブジェクト及びその位置情報を読み出す。
レンダリング部17は、読出部21により読み出された仮想オブジェクトをその位置情報にしたがって仮想空間内に配置し、仮想撮像部により仮想空間内を撮像する。
重畳部18は、表示部13に表示されている撮像画像にレンダリング部17で撮像した結果を重畳する。
ここで、現実空間において、撮像部11とマーカーMとの相対的な位置及び姿勢を求め、仮想空間内に仮想撮像部を配置し、マーカーMに基づく仮想オブジェクトが仮想空間内で配置される位置及び姿勢を算出する手順について図2を参照しながら説明する。
撮像部11の座標系Cは、撮像部11とマーカーMとの相対的な位置及び姿勢をTcmとし、これにマーカーMの座標系を乗算することにより算出することができる。なお、Tcmは、マーカー座標系をカメラ座標系に変換するための変換行列である。
Figure 0006348750
また、Tcmは、例えば、下記非特許文献1に記載の手法により算出する。
(非特許文献1)
マーカー追跡に基づく拡張現実感システムとそのキャリブレーション、加藤博一,Mark Billinghurst,浅野浩一,橘啓八郎、日本バーチャルリアリティ学会論文誌 巻:4号:607−616(発行年:1999年12月31日)
表示部13のスクリーン座標系は、射影行列Pを用いて、TcmとマーカーMの座標系を乗算することにより算出することができる。なお、射影行列Pは、事前にカメラキャリブレーションにより求まっている行列である。
Figure 0006348750
電子機器1は、撮像部11により撮像された現実空間のマーカーMを基準にして、所定の位置及び姿勢に仮想オブジェクトを表示部13に重畳して表示することができる。
ここで、選択部20と読出部21の動作について説明する。
ユーザは、図3に示すように、表示部13に表示されている「手順」(図3中のA1)をタップ操作し、手順表示機能を起動して「手順リスト」(図3中のA2)を表示させ、「手順リスト」の中から所望の手順をタップ操作する。選択部20は、タップ操作された手順が選択されたものとして認識する。なお、手順リストに表示される各手順は、それぞれ具体的な機器の操作方法を表示してもよい。
読出部21は、選択された手順(図3に示す例の場合「手順(4)」が選択された)に基づいて、操作禁止の仮想オブジェクト(図3中のAR1)と手順(4)の仮想オブジェクト(図3中のAR2)を読み出す。
なお、「手順リスト」の各手順は、手順の番号と、位置及び姿勢の計算を行うときに用いるマーカーを示す情報と、重畳する仮想オブジェクトの情報と、完了フラグ(チェックの有無)と、選択フラグ(選択の有無)等の値を持っている。
よって、電子機器1は、「手順リスト」の中の一の手順が選択された場合、選択された手順が有している各種値に基づいて、処理を実行する。
また、表示部13に表示されている「系統」(図3中のA3)をタップ操作すると、系統表示機能が起動し、表示部13に系統図(図3中のA4)が表示されてもよい。また、系統図には、現在、表示部13に表示されている仮想オブジェクトに対応する表示も重畳して行われ、操作の意味と本線系統を操作者に意識させることができる。なお、図3中に示す系統図は、一例であって、これに限られない。
かかる構成によれば、電子機器1は、手順ごとに異なる仮想オブジェクトを表示部13に表示される撮像画像に重畳して表示できるので、放送機2の操作について、各手順において仮想オブジェクトにより補助することができ、操作の誤り等の低減に役立てることができる。
上述では、一台の撮像部11によって、放送機2とマーカーMを撮影できた場合の一例について説明したが、これに限られず、撮像部11は、図4に示すように、第1撮像部11aと第2撮像部11bとによって構成されていてもよい。なお、撮像部11(第1撮像部11a及び第2撮像部11b)は、電子機器1に固定されている構成でもよく、また、図4に示すように、電子機器1に固定されず自由に角度を調整できる構成でもよい。
第1撮像部11aは、マーカーMを撮像する。
第2撮像部11bは、放送機2を撮像する。
表示部13は、第2撮像部11bによって撮像された撮像画像を表示する。
検出部14は、第1撮像部11aによって撮像された撮像画像に含まれているマーカーMを検出する。
位置算出部15は、現実空間において、第1撮像部11aとマーカーMとの相対的な位置及び姿勢を算出し、当該算出結果と、第1撮像部11a及び第2撮像部11bの相対的な位置及び姿勢とに基づいて、第2撮像部11bとマーカーMとの相対的な位置及び姿勢を算出する。
仮想撮像部配置部16は、位置算出部15による算出結果に基づいて、第2撮像部11bの内部パラメータ(例えば、焦点距離、画像サイズ、歪係数等)により設定される仮想撮像部を仮想空間内の所定の場所に配置する。
ここで、現実空間において、第1撮像部11aとマーカーMとの相対的な位置及び姿勢を求め、第1撮像部11aと第2撮像部11bとの相対的な位置及び姿勢と、マーカーMの座標から第2撮像部11bの位置及び姿勢を算出する手順について図4を参照しながら説明する。
第2撮像部11bの位置及び姿勢Cは、第1撮像部11aとマーカーMとの相対的な位置及び姿勢をTcmとし、これに第1撮像部11aと第2撮像部11bとの相対的な位置及び姿勢Tccと、マーカーMの位置及び姿勢とを乗算することにより算出することができる。
=TcccmM ・・・(3)
なお、Cは、カメラ座標系を示し、Mは、マーカー座標系を示し、TccとTcmは、マーカー座標系をカメラ座標系に変換するための変換行列である。
また、Tccは、既知であるものとするが、以下のように算出することができる。なお、以下では、第1撮像部11aで撮像するマーカーをマーカーMとし、第2撮像部11bで撮像するマーカーをマーカーMとして説明する。
第1撮像部11aの位置及び姿勢Cは、第1撮像部11aとマーカーMとの相対的な位置及び姿勢Tcm1と、マーカーMを乗算することにより算出することができる。
=Tcm1 ・・・(4)
なお、Cは、カメラ座標系を示し、Mは、マーカー座標系を示し、Tcm1は、マーカー座標系をカメラ座標系に変換するための変換行列である。
また、第2撮像部11bの位置及び姿勢Cは、第2撮像部11bとマーカーMとの相対的な位置及び姿勢Tcm2と、マーカーMを乗算することにより算出することができる。
=Tcm2 ・・・(5)
なお、Mは、マーカー座標系を示し、Tcm2は、マーカー座標系をカメラ座標系に変換するための変換行列である。
また、マーカーMは、マーカーMとマーカーMとの相対的な位置及び姿勢Tmmと、マーカーMを乗算することにより算出することができる。なお、Tmmは、マーカーMとマーカーMの配置により事前に既知となっている。
=Tmm ・・・(6)
なお、Tmmは、変換行列である。
また、第2撮像部11bの位置及び姿勢Cは、第1撮像部11aと第2撮像部11bとの相対的な位置及び姿勢Tccと第1撮像部11aを乗算することにより算出することができる。
=Tcc ・・・(7)
(3)式〜(7)式に基づいて、Tccは、(8)式により算出することができる。
cc=Tcm2mmcm1 −1 ・・・(8)
なお、上述では、第1撮像部11aと第2撮像部11bとを固定し、位置及び姿勢が変わらないことを前提にしたが、第1撮像部11aと第2撮像部11bをサーボ等で駆動し、駆動したときの制御情報に基づいて位置及び姿勢(Tcc)を算出することもでき、第1撮像部11aと第2撮像部11bとを固定にしなくてもよい。例えば、サーボ等で動かしうる第1撮像部11aと第2撮像部11bの位置及び姿勢について、事前にそれぞれの位置及び姿勢でTccを取得してサーボの制御情報を対応付けしておくことにより、位置及び姿勢を算出する。
かかる構成によれば、電子機器1は、互いの位置及び姿勢を既知とした撮像部(カメラ)を複数台用意し、情報重畳先を撮影する第2撮像部11bにマーカーMが映ってない場合でも、第1撮像部11aで撮影しているマーカーMから、第2撮像部11bの位置及び姿勢が計算できるので、放送機2の操作について、各手順において仮想オブジェクトにより補助することができ、操作の誤り等の低減に役立てることができる。
上述では、一の電子機器1によって、マーカーの設置位置に制限されずに情報提示を行う実施例について説明したが、これに限られず、複数の電子機器(例えば、第1電子機器1aと第2電子機器1b)がネットワークを介して接続される通信システム100において、マーカーの設置位置に制限されずに情報提示を行う構成でもよい。
具体的には、通信システム100は、監督者側の第1電子機器1aと操作者側の第2電子機器1bとを同期させ、監督者側の環境に固定されているマーカーと第1電子機器1aとの相対的な位置及び姿勢を第1電子機器1aから第2電子機器1bに送信することにより、操作者側の環境にマーカーが固定されていなくても、情報提示を行うことができる。
このように構成される通信システム100は、図5に示すように、監督者と操作者の役割分担を明確化でき、監督者が進行管理を行うことにより、操作者は、放送機2の操作の作業に集中できるメリットがある。例えば、第1電子機器1aと第2電子機器1bを同期させておき、第1電子機器1aを利用して監督者が手順(1)と手順(2)に操作が完了したことを示すチェックを行い、手順(3)に操作中であることを示すチェックを行うと、第2電子機器1bの表示部には、手順(1)と手順(2)には操作が完了したことを示すチェックが表示され、手順(3)には操作中を示すチェックが表示される。
以下に、通信システム100の具体的な構成と動作について説明する。なお、第1電子機器1aと第2電子機器1bは、基本的に同じ構成である。
第1電子機器1aは、図6に示すように、第3撮像部11cと、第1撮像画像取得部12aと、第1表示部13aと、第1検出部14aと、第1位置算出部15aと、第1仮想撮像部配置部16aと、第1レンダリング部17aと、第1重畳部18aと、第1記憶部19aと、第1選択部20aと、第1読出部21aと、第1送受信部22aと、を備える。
第1撮像画像取得部12aは、第3撮像部11cにより現実空間を撮像して得られた撮像画像を取得する。なお、本実施例に係る現実空間には、図6に示すように、監督者側の環境にマーカーM1が配置されており、操作者側の環境には放送機2が配置されていることを想定している。
第1表示部13aは、第1撮像画像取得部12aで取得された撮像画像を表示する。
第1検出部14aは、第1撮像画像取得部12aで取得された撮像画像に含まれている第1マーカーM1を検出し、識別する。
第1記憶部19aは、第2電子機器1bに備えられている第4撮像部11dと、当該第4撮像部11dに固定されている第2マーカーM2との相対的な位置及び姿勢(例えば、後述するTcc2)が記憶されている。また、第1記憶部19aには、他に、現実空間に配置されている放送機(図6に示す例では、監督者側の環境には放送機は配置されていない)を操作するための各手順と、手順ごとに表示すべき仮想オブジェクトと、前記仮想オブジェクトの配置情報とが対応付けられているテーブルを有する。仮想オブジェクトの配置情報とは、仮想オブジェクトを仮想空間において配置する位置及び姿勢、スケール等の情報である。
第1読出部21aは、第1記憶部19aから第4撮像部11dと第2マーカーM2との相対的な位置及び姿勢を読み出す。読み出された第4撮像部11dと第2マーカーM2との相対的な位置及び姿勢は、第1位置算出部15aを介して、第1送受信部22aに供給される。また、第1読出部21aは、第3撮像部11cの内部パラメータ(射影行列P)を第1記憶部19aから読み出して、第1仮想撮像部配置部16aに供給する。
第1位置算出部15aは、第3撮像部11cと、第4撮像部11dに固定されている第2マーカーM2との相対的な位置及び姿勢(例えば、後述するTcm2)の逆行列(例えば、後述するTcm2 −1)を算出する。また、第1位置算出部15aは、第3撮像部11cと第1マーカーM1との相対的な位置及び姿勢(例えば、後述するTcccm)を算出する。
第1送受信部22aは、第1位置算出部15aによる算出結果と、第1読出部21aで読み出した第4撮像部11dと第2マーカーM2との相対的な位置及び姿勢を位置関係情報(例えば、後述するTcc2cm2 −1cccm)とし、第1検出部14aで検出した第1マーカーM1の識別結果(例えば、マーカー番号)とともに第2電子機器1bに送信する。
第2電子機器1bは、図6に示すように、第4撮像部11dと、第2撮像画像取得部12bと、第2表示部13bと、第2検出部14bと、第2位置算出部15bと、第2仮想撮像部配置部16bと、第2レンダリング部17bと、第2重畳部18bと、第2記憶部19bと、第2選択部20bと、第2読出部21bと、第2送受信部22bと、を備える。
第2送受信部22bは、第1送受信部22aから送信されてきた位置関係情報と第1マーカーの識別結果を受信する。
第4撮像部11dは、第2マーカーM2が固定されている。
第2撮像画像取得部12bは、第4撮像部11dにより現実空間を撮像して得られた撮像画像を取得する。
第2表示部13bは、第4撮像部11dで取得された撮像画像を表示する。
第2仮想撮像部配置部16bは、位置関係情報に基づいて、第4撮像部11dの内部パラメータ(例えば、焦点距離、画像サイズ、歪係数等)により設定される仮想撮像部を仮想空間内の所定の場所に配置する。
第2記憶部19bは、現実空間に配置されている放送機2を操作するための各手順と、手順ごとに表示すべき仮想オブジェクトと、仮想オブジェクトの配置情報とが対応付けられているテーブルを有する。仮想オブジェクトの配置情報とは、仮想オブジェクトを仮想空間において配置する位置及び姿勢、スケール等の情報である。なお、記憶部19に記憶されているテーブルの一例として、後述する図16に手順−仮想オブジェクト関連付けマトリックスを示す。
第2選択部20bは、手順を選択する。
第2読出部21bは、第2送受信部22bで受信した第1マーカーM1の識別結果と第2選択部20bにより選択されている手順に基づいて、第2記憶部19bを参照し、対応する仮想オブジェクト及びその位置及び姿勢を読み出す。また、第2読出部21bは、第4撮像部11dの内部パラメータ(射影行列P)を第2記憶部19bから読み出して、第2仮想撮像部配置部16bに供給する。
第2レンダリング部17bは、第2読出部21bにより読み出された仮想オブジェクトをその位置及び姿勢にしたがって仮想空間内に配置し、仮想撮像部により仮想空間内を撮像する。
第2重畳部18bは、第2表示部13bに表示されている撮像画像に第2レンダリング部17bで撮像した結果を重畳する。
かかる構成によれば、通信システム100は、ネットワークを介して第1電子機器1aと第2電子機器1bとの間において、マーカー型の利点を有しながら、マーカーレス型の利点であるマーカー設置位置に制限されないで情報提示を行うことができる。さらに、通信システム100は、環境の問題で操作者側にマーカーを固定できない場合でも、監督者側に固定されているマーカーに基づいて、手順ごとに異なる仮想オブジェクトを操作者側の第2電子機器1bの撮像画像に重畳して表示できる。よって、通信システム100は、放送機2の操作について、各手順において仮想オブジェクトにより補助することにより、操作者による操作の誤り等を低減することができる。
ここで、第4撮像部11dとマーカーM1との相対的な位置及び姿勢を算出する手順について図7を参照しながら以下に説明する。なお、以下では、第3撮像部11cは、放送機2を撮像する撮像部11cと、マーカーM1を撮像する撮像部11cとにより構成されるものとして説明するが、これに限られない。
撮像部11cの位置及び姿勢Cs2は、撮像部11cと撮像部11cの相対的な位置及び姿勢Tccと、撮像部11cとマーカーM1の相対的な位置及び姿勢Tcmと、マーカーM1の位置及び姿勢Mとを乗算することにより算出することができる。
s2=Tcccm ・・・(9)
なお、Cs2は、カメラ座標系を示し、Mは、マーカー座標系を示し、TccとTcmは、変換行列である。
また、撮像部11cの位置及び姿勢Cs2は、撮像部11cとマーカーM2の位置及び姿勢Mとの相対的な位置及び姿勢Tcm2と、マーカーM2の位置及び姿勢Mとを乗算することにより算出することができる。
Cs=Tcm2 ・・・(10)
なお、Mは、マーカー座標系を示し、Tcm2は、マーカー座標系をカメラ座標系に変換するための変換行列である。
(9)式と(10)式に基づいて、Mは、(11)式により算出することができる。
=Tcm2 −1cccm ・・・(11)
また、第4撮像部11dの位置及び姿勢Co2は、第4撮像部11dとマーカーM2の相対的な位置及び姿勢Tcc2と、マーカーM2の位置及び姿勢Mとを乗算することにより算出することができる。
o2=Tcc2 ・・・(12)
なお、Co2は、カメラ座標系を示し、Tcc2は、マーカー座標系をカメラ座標系に変換するための変換行列である。
よって、(11)式と(12)式に基づいて、Co2は、(13)式により算出することができる。
o2=Tcc2cm2 −1cccm ・・・(13)
このようにして、第2電子機器1bは、第1電子機器1aから位置関係情報(Tcc2cm2 −1cccm)を受信することにより、第4撮像部11dのマーカーM1に対する相対的な位置及び姿勢を算出することができる。
つぎに、Tcc2の導出(キャリブレーション)の手順について図8を参照しながら説明する。なお、以下では、Tcc2を導出するために必要な撮像部11eと、マーカーM3を追加して説明する。また、マーカーM3の位置及び姿勢は、Mとする。
第4撮像部11dの位置及び姿勢Co2は、第4撮像部11dとマーカーM3の相対的な位置及び姿勢Tと、マーカーM3の位置及び姿勢Mとを乗算することにより算出することができる。
o2=T ・・・(14)
また、第4撮像部11dの位置及び姿勢Co2は、第4撮像部11dとマーカーM2の相対的な位置及び姿勢Tcc2と、マーカーM2の位置及び姿勢Mとを乗算することにより算出することができる。
o2=Tcc2 ・・・(15)
(14)式と(15)式に基づいて、Tcc2は、(16)式により算出することができる。
cc2=T −1 ・・・(16)
撮像部11eの位置及び姿勢Cは、撮像部11eとマーカーM2の相対的な位置及び姿勢Tと、マーカーM2の位置及び姿勢Mとを乗算することにより算出することができる。
=T ・・・(17)
また、撮像部11eの位置及び姿勢Cは、撮像部11eとマーカーM3の相対的な位置及び姿勢Tと、マーカーM3の位置及び姿勢Mとを乗算することにより算出することができる。
=T ・・・(18)
(17)式と(18)式に基づいて、Mは、(19)式により算出することができる。
=T −1 ・・・(19)
また、(16)式と(19)式に基づいて、Tcc2を導出することができる。
cc2=T −1 ・・・(20)
つぎに、通信システム100による処理の流れについて、図9に示すフローチャートを参照しながら説明する。なお、以下では、操作者側の第2電子機器1bの動作を主体に説明する。
ステップS1において、第2電子機器1bは、手順リストを表示部43に表示するかどうかを判断する。例えば、第2電子機器1bは、ユーザにより表示部43に表示されている「手順」(図3中のA1)がタップ操作されたかどうかによって判断する。
手順リストを表示部43に表示すると判断した場合(Yes)には、ステップS2に進み、手順リストを表示部43に表示しないと判断した場合(No)には、ステップS5に進む。
ステップS2において、第2電子機器1bは、手順の選択と、表示処理を行う。なお、ステップS2の工程の詳細については、後述する。
ステップS3において、第2電子機器1bは、マーカーの検出処理を行う。なお、ステップS3の工程の詳細については、後述する。
ステップS4において、第2電子機器1bは、仮想オブジェクト(ARオブジェクト)の表示処理を行う。なお、ステップS4の工程の詳細については、後述する。
ステップS5において、第2電子機器1bは、系統図を表示部43に表示するかどうかを判断する。例えば、第2電子機器1bは、ユーザにより表示部43に表示されている「系統」(図3中のA3)がタップ操作されたかどうかによって判断する。
系統を表示部43に表示すると判断した場合(Yes)には、ステップS6に進み、系統を表示部43に表示しないと判断した場合(No)には、処理を終了する。
<ステップS2の工程について>
ステップS2の工程の詳細について、図10を参照しながら説明する。
ステップS21において、第2電子機器1bは、割り込み処理によって、表示されている手順リストの中から手順や完了フラグの操作が行われたとき、当該操作を行った者が操作者であるかどうかを判断する。操作者によって操作されたと判断された場合(Yes)には、ステップS22に進み、操作者によって操作されなかったと判断、すなわち、監督者(第1電子機器1a)によって操作されたと判断された場合(Yes)には、ステップS23に進む。
ステップS22において、第2電子機器1bは、ロックの解除を行うかどうかを判断する。本実施例では、第1電子機器1aと第2電子機器1bとは、同期していることが前提であるが、ロックの解除によりこの同期が解除される。ロックの解除を行ったと判断した場合(Yes)には、ステップS23に進み、ロックの解除を行っていないと判断した場合(No)には、ステップS25に進む。
ステップS23において、第2電子機器1bは、割り込み処理によって、管理者(第1電子機器1a)から送信されてきた手順の番号や完了フラグを受信し、送信されてきた手順の番号や完了フラグの選択状況を取得する。
ステップS24において、第2電子機器1bは、手順の番号や完了フラグをグローバル変数へ代入する。グローバル変数は、選択手順番号と、完了フラグ(配列)によって構成されている。選択手順番号は、例えば、手順が何も選択されていない場合には「0」が代入され、手順(1)が選択されている場合には「1」が代入され、手順(2)が選択されている場合には「2」が代入される。完了フラグは、手順番号ごとに代入していき、図10に示す例では、手順(1)及び手順(2)は、完了しているため「1:完了」が代入され、手順(3)以降は完了していないため「0:未」が代入される。
ステップS25において、第2電子機器1bは、グローバル変数に応じた手順表示画面を描画する。例えば、第2電子機器1bは、図3に示すような画面を表示部43に描画する。
<ステップS3の工程について>
ステップS3の工程の詳細について、図11を参照しながら説明する。
ステップS31において、第2電子機器1bは、グローバル変数より手順番号を読み込む。例えば、グローバル変数が「1」の場合には、手順(1)が選択されていることになる。
ステップS32において、第2電子機器1bは、手順−仮想オブジェクト関連付けマトリックスを参照し、ステップS31の工程で読み込んだ手順番号に対応するマーカー番号とその優先度を取得する。なお、手順−仮想オブジェクト関連付けマトリックスについては、後述する。また、第2電子機器1bは、選択されている手順番号に対応する完了フラグの状態に応じて、参照するテーブルを変えてもよい。
ステップS33において、第2電子機器1bは、該当するマーカーの検出処理を実行する。未検出であった場合には、戻り値を「−1」にする。マーカーを一つ検出した場合には、検出したマーカーの番号を戻り値にする。また、複数のマーカーを検出した場合には、ステップS34に進む。
ステップS34において、第2電子機器1bは、複数のマーカーの中から優先度の高いマーカーの番号を選択し、選択したマーカーの番号を戻り値にする。
ここで、ステップS33の工程におけるマーカーの検出手順について、図12を用いて詳述する。なお、以下では、図13に示すように、監督者側に設置される第3撮像部11cは、主にマーカーを撮像する撮像部11cと、主に放送機を撮像する撮像部11cとにより構成されており、一方、操作者側に設置される第4撮像部11dは、主にマーカーを撮像する撮像部11dと、主に放送機を撮像する撮像部11dとにより構成されているものとする。また、図13に示す例では、監督者側(第1電子機器1a)によって該当マーカーが検出されたケースを示している。
ステップS301において、第2電子機器1bは、撮像部11dによって該当マーカーを検出したかどうかを判断する。検出した場合には、ステップS304に進み、未検出の場合には、ステップS302に進む。
ステップS302において、第2電子機器1bは、撮像部11dによって該当マーカーを検出したかどうかを判断する。検出した場合には、ステップS304に進み、未検出の場合には、ステップS303に進む。
ステップS303において、第2電子機器1bは、監督者側(第1電子機器1a側の撮像部11c又は撮像部11c)によって該当マーカーを検出できたかどうかを判断する。検出した場合には、ステップS304に進み、未検出の場合には、戻り値を「−1」にする。
ステップS304において、第2電子機器1bは、マーカー情報を出力する。例えば、第2電子機器1bは、撮像部で撮像された画像からマーカーを検出し、登録されている全マーカーと比較し、一致した場合には、「1:検出」とし、一致しなかった場合には、「0:無」として、図14に示すテーブルに代入する。第2電子機器1bは、テーブルを参照して、該当マーカーの有無を判断する。
<ステップS4の工程について>
ステップS4の工程の詳細について、図15を参照しながら説明する。
ステップS41において、第2電子機器1bは、該当マーカーを検出できたかどうかを判断する。検出できたと判断した場合(Yes)には、ステップS42に進み、検出できなかったと判断した場合(No)には、処理を終了する。
ステップS42において、第2電子機器1bは、検出したマーカー情報に基づいて、座標変換処理を行う。
ステップS43において、第2電子機器1bは、検出したマーカー番号と選択されている手順番号に基づいて、手順−仮想オブジェクト関連付けマトリックスを参照し、表示部43に表示する仮想(AR)オブジェクトと表示する座標を取得する。
ステップS44において、第2電子機器1bは、ステップS43の工程で取得した座標に基づいて、仮想オブジェクトを表示部43に表示する処理を行う。
ここで、ステップS32及びステップS43の工程で用いる手順−仮想オブジェクト関連付けマトリックスについて、図16を参照しながら説明する。
手順−仮想オブジェクト関連付けマトリックスは、手順ごとにテーブル化されている。各テーブルには、各マーカー番号に対して、マーカー優先度と、表示すべき仮想(AR)オブジェクトの番号と、仮想オブジェクトの表示座標が対応付けられている。なお、一度に、複数のマーカーを使用する場合もあるので、マーカー優先度は同じでもよい。また、同じ仮想オブジェクトを複数箇所に使用する場合もあるので、表示座標は、ひとつのマスに対して、複数個設定することもできる。
なお、上述した手順−仮想オブジェクト関連付けマトリックスは、一例であって、これに限られない。例えば、手順−仮想オブジェクト関連付けマトリックスには、他に、スケール(大きさ)、姿勢等が含まれてもよい。
また、本実施例では、主に、マーカー型の利点を有しながら、マーカーレス型の利点であるマーカー設置位置に制限されないで情報提示を行う電子機器と通信システムの構成と動作について説明したが、これに限られず、各構成要素を備え、マーカー型の利点を有しながら、マーカーレス型の利点であるマーカー設置位置に制限されないで情報提示を行うための方法、及びプログラムとして構成されてもよい。
さらに、電子機器及び通信システムの機能を実現するためのプログラムをコンピュータで読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。
ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータで読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
さらに「コンピュータで読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時刻の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時刻プログラムを保持しているものも含んでもよい。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
1 電子機器
1a 第1電子機器
1b 第2電子機器
2 所定の機器(放送機)
11 撮像部
12 撮像画像取得部
12a 第1撮像画像取得部
12b 第2撮像画像取得部
13 表示部
13a 第1表示部
13b 第2表示部
14 検出部
14a 第1検出部
14b 第2検出部
15 位置算出部
15a 第1位置算出部
15b 第2位置算出部
16 仮想撮像部配置部
16a 第1仮想撮像部配置部
16b 第2仮想撮像部配置部
17 レンダリング部
17a 第1レンダリング部
17b 第2レンダリング部
18 重畳部
18a 第1重畳部
18b 第2重畳部
19 記憶部
19a 第1記憶部
19b 第2記憶部
20 選択部
20a 第1選択部
20b 第2選択部
21 読出部
21a 第1読出部
21b 第2読出部
22a 第1送受信部
22b 第2送受信部
100 通信システム

Claims (4)

  1. 所定のマーカーを撮像する第1撮像部及び所定の機器を撮像する第2撮像部を備える撮像部と、
    前記撮像部により現実空間を撮像して得られた撮像画像を取得する撮像画像取得部と、
    前記撮像画像取得部で取得された前記第2撮像部によって撮像された撮像画像を表示する表示部と、
    前記撮像画像取得部で取得された前記第1撮像部によって撮像された撮像画像に含まれている前記所定のマーカーを検出し、識別する検出部と、
    前記現実空間において、前記第1撮像部と前記所定のマーカーとの相対的な位置及び姿勢を算出し、当該算出結果と、前記第1撮像部及び前記第2撮像部の相対的な位置及び姿勢とに基づいて、前記第2撮像部と前記所定のマーカーとの相対的な位置及び姿勢を算出する位置算出部と、
    前記位置算出部による算出結果に基づいて、前記第2撮像部の内部パラメータにより設定される仮想撮像部を仮想空間内の所定の場所に配置する仮想撮像部配置部と、
    現実空間に配置されている所定の機器を操作するための各手順と、手順ごとに表示すべき仮想オブジェクトと、前記仮想オブジェクトの配置情報とが対応付けられているテーブルを有する記憶部と、
    前記手順を選択する選択部と、
    前記選択部により選択されている手順に基づいて、前記記憶部を参照し、対応する仮想オブジェクト及びその位置情報を読み出す読出部と、
    前記読出部により読み出された仮想オブジェクトをその位置情報にしたがって仮想空間内に配置し、前記仮想撮像部により仮想空間内を撮像するレンダリング部と、
    前記表示部に表示されている前記撮像画像に前記レンダリング部で撮像した結果を重畳する重畳部と、を備える電子機器。
  2. 所定のマーカーを撮像する第1撮像部及び所定の機器を撮像する第2撮像部を備える撮像部により現実空間を撮像して得られた撮像画像を取得する撮像画像取得工程と、
    前記撮像画像取得工程で取得された前記第2撮像部によって撮像された撮像画像を表示部に表示する表示工程と、
    前記撮像画像取得工程で取得された前記第1撮像部によって撮像された撮像画像に含まれている前記所定のマーカーを検出し、識別する検出工程と、
    前記現実空間において、前記第1撮像部と前記所定のマーカーとの相対的な位置及び姿勢を算出し、当該算出結果と、前記第1撮像部及び前記第2撮像部の相対的な位置及び姿勢とに基づいて、前記第2撮像部と前記所定のマーカーとの相対的な位置及び姿勢を算出する位置算出工程と、
    前記位置算出工程による算出結果に基づいて、前記第2撮像部の内部パラメータにより設定される仮想撮像部を仮想空間内の所定の場所に配置する仮想撮像部配置工程と、
    現実空間に配置されている所定の機器を操作するための各手順を選択する選択工程と、
    前記選択工程により選択されている手順に基づいて、前記各手順と、手順ごとに表示すべき仮想オブジェクトと、前記仮想オブジェクトの配置情報とが対応付けられているテーブルを有する記憶部を参照し、対応する仮想オブジェクト及びその位置情報を読み出す読出工程と、
    前記読出工程により読み出された仮想オブジェクトをその位置情報にしたがって仮想空間内に配置し、前記仮想撮像部により仮想空間内を撮像するレンダリング工程と、
    前記表示部に表示されている前記撮像画像に前記レンダリング工程で撮像した結果を重畳する重畳工程と、を備える表示方法。
  3. コンピュータにより、
    所定のマーカーを撮像する第1撮像部及び所定の機器を撮像する第2撮像部を備える撮像部により現実空間を撮像して得られた撮像画像を取得する撮像画像取得工程と、
    前記撮像画像取得工程で取得された前記第2撮像部によって撮像された撮像画像を表示部に表示する表示工程と、
    前記撮像画像取得工程で取得された前記第1撮像部によって撮像された撮像画像に含まれている前記所定のマーカーを検出し、識別する検出工程と、
    前記現実空間において、前記第1撮像部と前記所定のマーカーとの相対的な位置及び姿勢を算出し、当該算出結果と、前記第1撮像部及び前記第2撮像部の相対的な位置及び姿勢とに基づいて、前記第2撮像部と前記所定のマーカーとの相対的な位置及び姿勢を算出する位置算出工程と、
    前記位置算出工程による算出結果に基づいて、前記第2撮像部の内部パラメータにより設定される仮想撮像部を仮想空間内の所定の場所に配置する仮想撮像部配置工程と、
    現実空間に配置されている所定の機器を操作するための各手順を選択する選択工程と、
    前記選択工程により選択されている手順に基づいて、前記各手順と、手順ごとに表示すべき仮想オブジェクトと、前記仮想オブジェクトの配置情報とが対応付けられているテーブルを有する記憶部を参照し、対応する仮想オブジェクト及びその位置情報を読み出す読出工程と、
    前記読出工程により読み出された仮想オブジェクトをその位置情報にしたがって仮想空間内に配置し、前記仮想撮像部により仮想空間内を撮像するレンダリング工程と、
    前記表示部に表示されている前記撮像画像に前記レンダリング工程で撮像した結果を重畳する重畳工程と、を実行するためのプログラム。
  4. 第1電子機器と第2電子機器とがネットワークを介して接続される通信システムにおいて、
    前記第1電子機器は、
    第3撮像部により現実空間を撮像して得られた撮像画像を取得する第1撮像画像取得部と、
    前記第1撮像画像取得部で取得された前記撮像画像に含まれている第1マーカーを検出し、識別する第1検出部と、
    前記第2電子機器に備えられている第4撮像部と、当該第4撮像部に固定されている第2マーカーとの相対的な位置及び姿勢が記憶されている第1記憶部と、
    前記第1記憶部から前記第4撮像部と前記第2マーカーとの相対的な位置及び姿勢を読み出す第1読出部と、
    前記第3撮像部と、前記第2電子機器に備えられている第4撮像部に固定されている第2マーカーとの相対的な位置及び姿勢の逆行列を算出し、前記第3撮像部と前記第1マーカーとの相対的な位置及び姿勢を算出する第1位置算出部と、
    前記第1位置算出部による算出結果と、前記第1読出部で読み出した前記第4撮像部と前記第2マーカーとの相対的な位置及び姿勢を位置関係情報とし、前記第1検出部で検出した前記第1マーカーの識別結果とともに前記第2電子機器に送信する第1送受信部とを備え、
    前記第2電子機器は、
    前記第1送受信部から送信されてきた前記位置関係情報と前記第1マーカーの識別結果を受信する第2送受信部と、
    前記第2マーカーが固定されている第4撮像部と、
    前記第4撮像部で取得された撮像画像を表示する第2表示部と、
    前記位置関係情報に基づいて、前記第4撮像部の内部パラメータにより設定される仮想撮像部を仮想空間内の所定の場所に配置する第2仮想撮像部配置部と、
    現実空間に配置されている所定の機器を操作するための各手順と、手順ごとに表示すべき仮想オブジェクトと、前記仮想オブジェクトの配置情報とが対応付けられているテーブルを有する第2記憶部と、
    前記手順を選択する第2選択部と、
    前記第2送受信部で受信した前記第1マーカーの識別結果と前記第2選択部により選択されている手順に基づいて、前記第2記憶部を参照し、対応する仮想オブジェクト及びその位置情報を読み出す第2読出部と、
    前記第2読出部により読み出された仮想オブジェクトをその位置情報にしたがって仮想空間内に配置し、前記仮想撮像部により仮想空間内を撮像する第2レンダリング部と、
    前記第2表示部に表示されている前記撮像画像に前記第2レンダリング部で撮像した結果を重畳する第2重畳部と、を備える通信システム。
JP2014073431A 2014-03-31 2014-03-31 電子機器、表示方法、プログラム及び通信システム Expired - Fee Related JP6348750B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014073431A JP6348750B2 (ja) 2014-03-31 2014-03-31 電子機器、表示方法、プログラム及び通信システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014073431A JP6348750B2 (ja) 2014-03-31 2014-03-31 電子機器、表示方法、プログラム及び通信システム

Publications (2)

Publication Number Publication Date
JP2015194975A JP2015194975A (ja) 2015-11-05
JP6348750B2 true JP6348750B2 (ja) 2018-06-27

Family

ID=54433900

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014073431A Expired - Fee Related JP6348750B2 (ja) 2014-03-31 2014-03-31 電子機器、表示方法、プログラム及び通信システム

Country Status (1)

Country Link
JP (1) JP6348750B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112053451A (zh) * 2019-06-05 2020-12-08 北京外号信息技术有限公司 基于光通信装置叠加虚拟对象的方法和相应的电子设备

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002059147A (ja) * 2000-08-11 2002-02-26 Ricoh Co Ltd 再生作業支援システムおよび再生作業支援方法
JP2011245792A (ja) * 2010-05-28 2011-12-08 Riso Kagaku Corp 画像形成システム
JP5837404B2 (ja) * 2011-11-22 2015-12-24 株式会社日立製作所 画像処理装置、画像処理方法
JP2013254399A (ja) * 2012-06-08 2013-12-19 Sharp Corp 入力システム及び電子会議システム

Also Published As

Publication number Publication date
JP2015194975A (ja) 2015-11-05

Similar Documents

Publication Publication Date Title
US11796309B2 (en) Information processing apparatus, information processing method, and recording medium
JP5762892B2 (ja) 情報表示システム、情報表示方法、及び情報表示用プログラム
JP6540108B2 (ja) 画像生成方法、システム、装置、及び端末
JP5255595B2 (ja) 端末位置特定システム、及び端末位置特定方法
JP5423406B2 (ja) 情報処理装置、情報処理システム及び情報処理方法
JP6586834B2 (ja) 作業支援方法、作業支援プログラム、及び作業支援システム
JP6230113B2 (ja) 撮影動画像に指示画像を同期して重畳する映像指示同期方法、システム、端末、及びプログラム
CN105260008B (zh) 一种定位位置的方法及装置
JP2017129904A (ja) 情報処理装置、情報処理方法、及び記録媒体
JP2011203984A (ja) ナビゲーション装置、ナビゲーション画像生成方法及びプログラム
JP2007098555A (ja) 位置指示方法とこの方法を実現するための指示装置及びプログラム
JP6323025B2 (ja) 表示制御プログラム、表示制御装置及び表示制御システム
JP2017134771A (ja) 情報処理装置、情報処理方法、プログラム
JP6348750B2 (ja) 電子機器、表示方法、プログラム及び通信システム
JP6146869B2 (ja) 撮影動画像に指示画像を同期して重畳する映像指示表示方法、システム、端末、及びプログラム
JP7109395B2 (ja) 作業支援システム、作業支援装置、及び作業支援方法
CN106989730A (zh) 一种基于双目鱼眼全景视觉进行水下潜水器控制的系统和方法
US20130155211A1 (en) Interactive system and interactive device thereof
KR20160023362A (ko) 실시간 3차원 전술정보 표시 시스템 및 그 방법
US20200242797A1 (en) Augmented reality location and display using a user-aligned fiducial marker
JP6689492B2 (ja) 端末装置、データ処理システム及びプログラム
CN107340889B (zh) 一种定位初始化方法及装置
WO2023149118A1 (ja) プログラム、情報処理装置、および情報処理方法
JP2019175294A (ja) 表示制御プログラム、装置、及び方法
JP2020008981A (ja) 支援装置及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180601

R150 Certificate of patent or registration of utility model

Ref document number: 6348750

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees