JP6225538B2 - 情報処理装置、システム、情報提供方法および情報提供プログラム - Google Patents

情報処理装置、システム、情報提供方法および情報提供プログラム Download PDF

Info

Publication number
JP6225538B2
JP6225538B2 JP2013153191A JP2013153191A JP6225538B2 JP 6225538 B2 JP6225538 B2 JP 6225538B2 JP 2013153191 A JP2013153191 A JP 2013153191A JP 2013153191 A JP2013153191 A JP 2013153191A JP 6225538 B2 JP6225538 B2 JP 6225538B2
Authority
JP
Japan
Prior art keywords
information
image
content
dimensional position
marker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013153191A
Other languages
English (en)
Other versions
JP2015022737A (ja
Inventor
裕樹 渡辺
裕樹 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2013153191A priority Critical patent/JP6225538B2/ja
Priority to US14/311,656 priority patent/US20150029219A1/en
Priority to AU2014203449A priority patent/AU2014203449B2/en
Priority to EP20140175199 priority patent/EP2830022A3/en
Priority to CN201410341965.7A priority patent/CN104346612B/zh
Publication of JP2015022737A publication Critical patent/JP2015022737A/ja
Application granted granted Critical
Publication of JP6225538B2 publication Critical patent/JP6225538B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Description

本発明は、ユーザに情報を提供する技術に関する。
現実空間に対応する3次元の仮想空間上に配置された3次元物体のモデルデータを、撮像装置が撮像する撮像画像に重ねて表示することが行なわれる。この技術は、人間の知覚(視覚など)により収集される情報を拡張させるため、拡張現実(Augmented Reality:AR)技術などと呼ばれる。そして、現実空間に対応する3次元の仮想空間上に配置された3次元物体のモデルデータは、ARコンテンツと呼ばれる。
ARコンテンツは現実空間に対応する仮想空間上の位置が設定されており、仮想空間上の位置に基づき、ARコンテンツの投影画像が、撮像画像に重ねて表示される。なお、ARコンテンツの投影画像は、さらに、撮像装置とARコンテンツとの位置関係に基づいて生成される。
撮像装置とARコンテンツとの位置関係を判断するために、現実空間に存在する基準物が用いられる。例えば、基準物として、ARマーカーが用いられることが一般的である。つまり、撮像装置が撮像した撮像画像からARマーカーが検出されると、ARマーカーと撮像装置との位置関係が、撮像装置の撮像画像に写り込んだARマーカーの像に基づいて判断される。そして、当該位置関係を反映して、ARマーカーに対応するARコンテンツの投影画像が、撮像画像に重畳表示される(例えば、特許文献1や特許文献2)。
また、ARサーバーに対してコンテンツの要求を行う端末装置の位置情報に基づき、どこからコンテンツの送信要求がなされたかによって、端末に提供するコンテンツを選択するARサーバーが知られている(特許文献3)。端末装置は、GPS受信機が受信した位置情報や、無線基地局によって特定される端末装置の位置情報や、住所、電話番号、郵便番号などのユーザ入力を位置情報として利用する。
特表2010−531089号公報 国際公開2005−119539号公報 特開2012−215989号公報
上述のARサーバーは、例えば、都道府県Aにおいて、ARマーカーXを認識した場合と、他の都道府県Bにおいて、同様のARマーカーXを認識した場合とで、異なるコンテンツを、各端末装置へ提供することができる。
しかし、当該ARサーバーは、ユーザとARマーカーXとの位置関係に応じたコンテンツを、ユーザに提供することはできない。例えば、ユーザがARマーカーXに対して左右いずれに存在するのかに応じて、ユーザにとって有益であろうコンテンツが変化するような場合であっても、当該ARサーバーは、ユーザに提供するコンテンツを選択することができなかった。
そこで、本実施例に開示の技術は、ユーザと基準物との位置関係に応じた情報提供を行うことを目的とする。
上記課題を解決する為に、ひとつの実施態様においては、情報処理装置は、入力画像から認識された基準物の像に基づいて、前記基準物に対して相対的な前記入力画像の撮像位置の3次元位置情報を算出する算出部と、前記3次元位置情報と前記基準物の識別情報とを含む情報提供要求を他の装置へ送信し、前記情報提供要求に対する応答として、前記3次元位置情報に含まれる各成分の値に応じて、前記識別情報と3次元位置の各成分の範囲とに対応付けられた複数の表示情報の中から選択された特定の表示情報を、前記他の装置から受信する通信部と、前記特定の表示情報に基づき、前記入力画像に他の画像が重畳された合成画像を表示する表示部とを有する。
本発明の一観点によれば、ユーザが存在する環境に応じた情報提供を行うことが可能になる。
図1は、本実施形態に関する利用シーンの例を説明するための図である。 図2は、ユーザ111により撮像された撮像画像の図である。 図3は、ユーザ111に提供される表示画像の図である。 図4は、ユーザ112により撮像された撮像画像の図である。 図5は、マーカーMとユーザ112の位置関係を考慮しない場合における、従来の表示画像の図である。 図6は、本実施例における、ユーザ112に提供される表示画像の図である。 図7は、ユーザ113により撮像された撮像画像の図である。 図8は、本実施例における、ユーザ113に提供される表示画像の図である。 図9は、システム構成図である。 図10は、第一の実施例に係る情報処理装置1の機能ブロック図である。 図11は、カメラ座標系とマーカー座標系との関係を示す。 図12は、マーカー座標系からカメラ座標系への変換行列Mと、変換行列M内の回転行列Rを示す。 図13は、回転行列R1、R2およびR3を示す。 図14は、位置情報を説明するための図である。 図15は、カメラ座標系とマーカー座標系とにおけるARコンテンツCの例を示す。 図16Aおよび図16Bは、対応情報テーブルの構成例である。 図17は、ARコンテンツ情報テーブルのデータ構成例を示す図である。 図18は、テンプレート情報テーブルのデータ構成例を示す。 図19は、第一の実施例に係る管理装置の機能ブロック図である。 図20は、第一の実施例に係る情報提供方法のフローチャートである。 図21は、第二の実施例に係る情報処理装置の機能ブロック図である。 図22は、第二の実施例に係る管理装置4の機能ブロック図である。 図23は、第二の実施例に係る情報提供方法のフローチャートである。 図24は、各実施例の情報処理装置のハードウェア構成例である。 図25は、コンピュータ300で動作するプログラムの構成例を示す。 図26は、各実施例の管理装置のハードウェア構成例である。
以下詳細な本発明の実施例に関して説明する。なお、以下の各実施例は、処理の内容を矛盾させない範囲で適宜組み合わせることが可能である。以下、図面に基づいて各実施例について説明する。
本実施形態が適用されうる一つの利用シーンについて説明する。図1は、本実施形態に関する利用シーンの例を説明するための図である。なお、図1は、現実空間を図示したものである。例えば、柱状のパイプ101に、マーカーMが添付されている。なお、マーカーMは、撮像装置とARコンテンツとの位置関係を判断するための基準物の一例である。基準物は、形状から基準物であることを認識可能な物体であればよい。パイプ101には、バルブ102およびセンサ103が設置されている。
図1では、各々異なる位置に存在するユーザを、ユーザ111、ユーザ112、ユーザ113とする。なお、ユーザ111、ユーザ112、ユーザ113は、異なる人物であってもよいし、同一人物が異なる時刻に各位置に存在する場合であってもよい。そして、ユーザ111、ユーザ112、ユーザ113は、撮像装置を含む情報処理装置を有し、各々の位置から、マーカーMを撮像する。
なお、情報処理装置は、後述する通り、撮像装置が撮像した画像からマーカーMを認識する。そして、情報処理装置は、当該画像に、マーカーMに対応するARコンテンツを重畳表示した表示画像を生成するとともに、ディスプレイに表示画像を表示する。ユーザ111、ユーザ112、ユーザ113は、各々の撮像画像に対応する表示画像を閲覧する事で、ARコンテンツの内容を把握することができる。
ARコンテンツによって、各ユーザに提供される情報は、現実空間に存在する情報を、補足、拡張、追加するものである。例えば、ARコンテンツにより提供される情報は、現実空間に存在する物体に対して行うべき作業内容、注意喚起、説明事項等である。
例えば、ユーザ111は、マーカーMに対して、ほぼ正対した位置から、マーカーMを撮像装置により、撮像する。なお、撮像装置は、ユーザ111が所持する情報処理装置が備える。情報処理装置は、後述の通り、スマートフォンやタブレットPCである。
図2は、ユーザ111により撮像された撮像画像の図である。また、図3は、ユーザ111に提供される表示画像の図である。なお、図3の表示画像は、図2に示す撮像画像にARコンテンツが重畳表示された画像である。
例えば、図2に示すように、撮像画像には、パイプ101、マーカーM、バルブ102、センサ103が含まれる。一方、図3に示すように、後述する処理に基づき生成される表示画像には、さらに、ARコンテンツが含まれる。なお、マーカーMに、予めARコンテンツC1およびARコンテンツC2が対応付けられている場合、図3のような表示画像が生成される。つまり、図3に示すように、表示画像は、実空間に存在するパイプ101、マーカーM、バルブ102、センサ103に加えて、ARコンテンツC1およびARコンテンツC2を含む。
ARコンテンツC1およびARコンテンツC2各々については、三次元空間のモデルデータとして、吹き出し形状かつ「バルブが閉まっていることを確認」等のテキストデータが規定されている。さらに、ARコンテンツC1およびARコンテンツC2各々については、予め、マーカーMに対する位置や回転などの配置が指定されている。
例えば、予めARコンテンツを作成する作成者は、実空間に存在するバルブ102の位置にARコンテンツC1が表示されるように、ARコンテンツC1「バルブが閉まっていることを確認」というテキストを表示する吹き出し形状のモデルデータを作成する。
よって、情報処理装置が、マーカーMを認識すると、ユーザ111とマーカーMの位置関係、および予め指定された配置の情報に応じて、撮像画像上に、ARコンテンツC1が表示される。詳細については後述する。ARコンテンツC1が作成された後に、ユーザ111がマーカーMを撮像すると、ARコンテンツC1「バルブが閉まっていることを確認」が表示されるため、ユーザ111はARコンテンツC1を閲覧する事で、実空間に存在するバルブ102に対して、確認作業を行うことができる。また、ARコンテンツC2についても同様である。
次に、図1におけるユーザ112の場合について、説明する。ユーザ112は、マーカーMに対して、左側に存在するため、ユーザ112が所持する情報処理装置の撮像装置は、マーカーMを左から撮像することとなる。図4は、ユーザ112により撮像された撮像画像の図である。図4に示すとおり、撮像画像は、パイプ101、マーカーM、バルブ102を含む。なお、ユーザ112に位置に起因して、センサ103は、撮像画像には撮像されない。
図5は、マーカーMとユーザ112の位置関係を考慮しない場合における、従来の表示画像の図である。図3と同様、マーカーMに対応付けられたARコンテンツC1およびARコンテンツC2が、一義的に撮像画像に表示される。なお、マーカーMとユーザ112の位置関係は、マーカーMとユーザ111との位置関係とは異なるため、ARコンテンツC1およびARコンテンツC2の表示画像における表示位置は、異なる。
ここで、ユーザ112は、現実空間において、センサ103が見えない状態であるため、ARコンテンツC2「センサの値を確認」という内容を閲覧しても、どのセンサを確認すればよいのか把握することができない。また、センサ103が見えない状態であるため、当該ARコンテンツC2に係る作業の実施を忘れてしまう可能性もある。つまり、本来、ARコンテンツの内容をユーザに提供する事で、ユーザの視覚により収集される情報を確証させることを目的とするAR技術が、十分に活かされない状態となる。
そこで、本実施例においては、マーカーMとユーザ112との位置関係を考慮して、位置関係に応じた適切なARコンテンツをユーザ112に提供する。図6は、本実施例における、ユーザ112に提供される表示画像の図である。図6は、実空間に存在するパイプ101、マーカーM、バルブ102と、ARコンテンツC3およびARコンテンツC4を含む。ARコンテンツC3およびARコンテンツC4は、ユーザ112とマーカーMとの位置関係に基づき、ユーザ112の環境(視角)を考慮した、適切な情報を提供するARコンテンツである。
例えば、ARコンテンツC3「正面のバルブが閉まっていることを確認」は、ユーザ112にとって正面に存在するバルブ102に対する作業を指示する内容である。また、ARコンテンツC4「裏側にセンサあり」は、ユーザ112の死角にセンサ103が存在することを示す内容である。なお、ARコンテンツC4は、センサ103が見える場所へ移動を促す内容であってもよいし、裏側のセンサ103の値を確認することを指示する内容であってもよい。
このように、ユーザ111の環境(視角)にとっては、ARコンテンツC1およびARコンテンツC2が、適切な情報であるが、ユーザ112の環境(視角)にとっては、ARコンテンツC3およびARコンテンツC4が適切な情報である。したがって、本実施例は、各ユーザとマーカーMとの位置関係に応じて、表示対象とするARコンテンツを適切に選択する。なお、位置関係に係る条件と、各条件に応じて提供されるARコンテンツについては、事前に作成者によって設定が行われる。
次に、図1におけるユーザ113の場合について、説明する。ユーザ113は、マーカーMに対して、右側に存在するため、ユーザ113が所持する情報処理装置の撮像装置は、マーカーMを右から撮像することとなる。図7は、ユーザ113により撮像された撮像画像の図である。図7に示すとおり、撮像画像は、パイプ101、マーカーM、センサ103を含む。なお、ユーザ113に位置に起因して、バルブ102は、撮像画像には撮像されない。
図8は、本実施例における、ユーザ113に提供される表示画像の図である。図8は、現実空間に存在するパイプ101、マーカーM、センサ103と、ARコンテンツC5およびARコンテンツC6を含む。ARコンテンツC5およびARコンテンツC6は、ユーザ113とマーカーMとの位置関係に基づき、ユーザ113の環境(視角)に応じた、適切な情報を提供するARコンテンツである。
例えば、ARコンテンツC5「裏側にバルブあり」は、ユーザ113の死角にバルブ102が存在することを示す内容である。また、ARコンテンツC6「正面のセンサの値を確認」は、ユーザ113にとって正面に存在するセンサ103に対する作業を指示する内容である。なお、ARコンテンツC5は、バルブ102が見える場所へ移動を促す内容であってもよいし、裏側のバルブ102の開閉を確認することを指示する内容であってもよい。
以上の通り、各ユーザとマーカーとの位置関係に応じて、例えば、図3、図6、図8に示したような表示画像が、表示される。なお、ユーザの位置は、撮像画像を撮像した撮像位置である。また、ARコンテンツは、後述する表示情報の一例である。以下、各実施例について、処理内容を詳細に説明する。
[第一の実施例]
まず、第一の実施例に係る詳細な処理および情報処理装置等の構成について説明する。図9は、システム構成図である。図9の例では、情報処理装置の例として、通信端末1−1および通信端末1−2を示す。以下、これらを総称して、情報処理装置1とする。さらに、情報処理装置1は、ネットワークNを介して、管理装置2と通信する。情報処理装置1は、例えば、タブレットPCやスマートフォンなどのコンピュータである。管理装置2は、例えば、サーバコンピュータであって、情報処理装置1を管理する。ネットワークNは、例えば、インターネットである。なお、本実施例に係るシステムは、情報処理装置1および管理装置2を含む。
情報処理装置1は、管理装置2の管理の下、ユーザとマーカーとの位置関係に応じた表示画像を表示する。例えば、ユーザとマーカーとの位置関係に応じたARコンテンツを提供する。その結果、表示画像には、ユーザの環境に応じた、適切なARコンテンツが含まれることとなる。
次に、情報処理装置1の機能的構成について説明する。図10は、第一の実施例に係る情報処理装置1の機能ブロック図である。情報処理装置1は、通信部10、制御部11、記憶部13、表示部14を含む。また、情報処理装置1は、撮像部12をさらに備えてもよい。撮像部12は、撮像装置であるため、ユーザの位置は、当該情報処理装置1の位置となる。
なお、情報処理装置1が撮像部12を備えない場合は、通信部10が、他の撮像装置から撮像画像を、取得してもよい。ただし、このとき、ユーザの位置は、情報処理装置1の位置ではなく、他の撮像装置による撮像位置となる。
通信部10は、他のコンピュータと通信を行う。例えば、管理装置2と通信を行う。そして、通信部10は、ARコンテンツ情報、テンプレート情報、対応情報を、管理装置2から受信する。詳細は後述するが、ARコンテンツ情報は、ARコンテンツを定義するための情報である。テンプレート情報は、ARコンテンツのモデルデータを描画するための情報である。対応情報は、撮像位置とマーカーとの位置関係に関する条件と、当該条件において提供されるARコンテンツとを対応付けた情報である。
制御部11は、情報処理装置1が実行する各種処理を制御する。例えば、制御部11は、撮像部12が撮像した撮像画像を、入力画像として受け付けるとともに、撮像位置とマーカーとの位置関係に応じた情報提供を行う。なお、制御部11は、認識部15、算出部16、決定部17、生成部18を含む。
認識部15は、入力画像から基準物を認識する。つまり、本実施例においては、マーカーを認識する。マーカーの認識方法は、従来の物体認識方法が適用される。例えば、認識部15は、マーカーの形状を既定したテンプレートを用い、テンプレートマッチングを行うことでマーカーを認識する。
さらに、認識部は、基準物であるマーカーが撮像装置に含まれることを認識すると、マーカーIDを取得する。なお、マーカーIDは、マーカーを識別する識別情報である。なお、マーカーIDを取得する方法は、従来の取得方法が適用される。例えば、基準物がマーカーである場合には、二次元バーコードと同様に、白と黒の配置から、一意のマーカーIDが取得される。
算出部16は、認識部15が認識した基準物の像に基づいて、基準物と入力画像の撮像位置との位置関係を示す位置情報を算出する。例えば、入力画像内の基準物(マーカー)の像の形状に基づき、位置情報を算出する。
撮像画像内に写り込んだ基準物の見え方(像)に基づいて、撮像装置と基準物との現実空間における位置関係が求められる。基準物は形状や模様などが既知の物体であり、例えば基準物の像と既知の形状や模様との照合により、基準物がカメラに対してどのような位置にあるかが判別される。
ここで、位置情報の算出方法について、詳細を説明する。まず、カメラ座標系と、マーカー座情景について説明する。図11は、カメラ座標系とマーカー座標系との関係を示す。
図11に示されるマーカーMは、ARコンテンツ表示に用いられる基準物の一例である。図11に例示されるマーカーMは、正方形形状であり、予めサイズが定められている(例えば1辺の長さが10cmなど)。図11に示されるマーカーMは正方形形状であるが、複数の視点ののうちのどの視点から撮像して得られる像に基づいても、カメラからの相対的な位置および向きが判別可能な形状の他の基準物が用いられてもよい。他の例として、撮像画像から生成される特徴点などが基準物に用いられる。
カメラ座標系は、(Xc,Yc,Zc)の3次元で構成され、例えばカメラの焦点を原点(原点Oc)とする。なお、カメラは、本実施例においては、情報処理装置1が備える撮像装置の一例である。例えば、カメラ座標系のXc−Yc平面はカメラの撮像素子面と平行な面であり、Zc軸は撮像素子面に垂直な軸(奥行き方向)である。
マーカー座標系は、(Xm,Ym,Zm)の3次元で構成され、例えばマーカーMの中心を原点(原点Om)とする。例えば、マーカー座標系のXm−Ym平面はマーカーMの模様の印刷面と平行な面であり、Zm軸はマーカーMの印刷面と垂直である。マーカー座標系の原点Omは、カメラ座標系において位置座標V1c(X1c,Y1c,Z1c)で示される。
また、カメラ座標系に対するマーカー座標系の回転角は、回転座標G1c(P1c,Q1c,R1c)で示される。P1cはXc軸回りの回転角であり、Q1cはYc軸回りの回転角であり、R1cはZc軸回りの回転角である。図11に例示されるマーカーMはYm軸回りにのみ回転しているため、この場合は、P1cおよびR1cは0である。
図12は、マーカー座標系からカメラ座標系への変換行列Mと、変換行列M内の回転行列Rを示す。変換行列Mは、4×4の行列である。変換行列Mは、カメラ座標系におけるマーカーの位置座標V1c(X1c,Y1c,Z1c)および回転座標G1c(P1c,Q1c,R1c)に基づいて算出される。
回転行列Rは、既知の形状のマーカーM(正方形)を、どのように回転させたら入力画像内のマーカーMの像と一致するかを示している。よって、回転行列Rは、各軸の回転行列R1、R2、R3の積により求められる。なお、回転行列R1、R2およびR3は、図13に示す通りである。図13は、回転行列R1、R2およびR3を示す図である。
ここで、変換行列Mの逆行列M−1の1〜3行目且つ1〜3列の部分行列(回転行列R)がカメラ座標系の座標に作用することにより、カメラ座標系の向きとマーカー座標系との向きを合わせるための回転操作が行なわれる。逆行列M−1の1〜3行目且つ4列目の部分行列が作用することにより、カメラ座標系の向きとマーカー座標系との位置を合わせるための並進操作が行なわれる。
算出部16は、変換行列を生成したあと、マーカー座標系からカメラ座標系への変換行列Mの逆行列M−1と、列ベクトルAc(Xc,Yc,Zc,1)との積により、列ベクトルAm(Xm,Ym,Zm,1)を求める。具体的には、算出部16は、以下の式1により、列ベクトルAm(Xm,Ym,Zm,1)を求める。
Figure 0006225538
なお、撮像位置は、カメラ座標系の原点と略一致すると考えると、撮像位置は(0,0,0)である。よって、Acに列ベクトル(0,0,0,1)を代入する事で、式1により、カメラ座標系の原点が、マーカー座標系のどの点に対応するのかを求めることができる。
以下、カメラ座標系の原点に対応するマーカー座標系の点をU(Xu,Yu,Zu)とする。なお、点Uは、式1により求められる列ベクトルAu(Xu,Yu,Zu,1)の、3次元までの値により決定される点である。
次に、算出部16は、点Uに基づき、マーカーからの方向を示す位置情報を算出する。図14は、位置情報を説明するための図である。図14に示す通り、算出部16は、本実施例においては、マーカー座標系のX軸を基準として、マーカーのXm−Ym平面を基準としたときの撮像位置の方向θuを求める。
本実施例においては、以下の式2を用いてcosθuを求め、cosθuを位置情報として利用する。なお、cosθuを変換して、位置情報θuを求めてもよい。さらに、方向θによらない、U(Xu,Yu,Zu)を位置情報として利用することも可能である。
Figure 0006225538
また、上記方法以外の方法によって、位置情報を算出してもよい。例えば、算出部16は、基準物の像に基づき、位置情報「撮像位置は基準物に対して右である」、または、位置情報「撮像位置は基準物に対して左である」を生成する。例えば、正面から見た場合の形状が正方形である基準物を利用する場合、入力画像内の基準物の像において、左の辺が右の辺よりも一定割合以上短ければ、算出部16は、位置情報「撮像位置は基準物に対して右である」を生成する。つまり、算出部16は、基準物の既知の形状を基準として、左の辺と右の辺の長さを比較する事で、基準物に対する撮像位置の位置関係を示す位置情報を算出する。なお、後述の決定部17は、当該位置情報に応じて表示情報を切り替えて選択する。
図10に戻る。決定部17は、算出部16が算出した位置情報に応じた表示情報を決定する。例えば、決定部17は、対応情報を参照し、位置情報が合致する条件を特定する。そして、決定部17は、対応情報において、当該条件に対応づいた表示情報(ARコンテンツ)を特定する。なお、特定された表示情報は、例えば、生成部18を介して、ユーザに提供される。また、対応情報については、後述する。
生成部18は、表示情報および入力画像に基づき、表示画像を生成する。例えば、生成部18は、決定部17により特定されたARコンテンツを、ARコンテンツ情報およびテンプレート情報に基づき、入力画像に重畳表示させた表示画像を生成する。ARコンテンツ情報およびテンプレート情報については、後述する。
ここで、表示画像の生成方法について説明する。ARコンテンツは、複数の点を含むモデルデータである。そして、複数の点を直線や曲線で補間して得られる複数の面ごとに模様(テクスチャ)や画像が設定され、複数の面が合成されることで3次元のモデルデータが形成される。
また、ARコンテンツの配置においては、ARコンテンツを構成する各点の座標が、現実空間内に存在する基準物を基準として定められる。一方で、先に述べたとおり、カメラが撮像した撮影画像内に写り込んだ基準物の見え方(像)に基づいて、カメラと基準物との現実空間における位置関係が求められる。
したがって、基準物を基準とする座標と、カメラと基準物との位置関係により、カメラとARコンテンツの各点の座標との位置関係を求めることができる。そして、カメラとARコンテンツの各点の座標との位置関係に基づいて、カメラが仮想空間上に存在するARコンテンツを仮に撮像した場合に得られるARコンテンツの像(投影画像)が生成される。なお、カメラ座標系、マーカー座標系については、先に説明した通りである。
図15は、カメラ座標系とマーカー座標系とにおけるARコンテンツの例を示す。図15に例示するARコンテンツC1は、吹き出し形状のモデルデータであり、吹き出し内に「バルブが閉まっていることを確認」というテキストデータを含む。ARコンテンツC1の吹き出しの先端の黒丸は、ARコンテンツC1の基準点とする。ARコンテンツC1の基準点のマーカー座標系における座標は、V1m(X1m,Y1m,Z1m)とする。さらにARコンテンツC1の向きは回転座標G1m(P1m,Q1m,R1m)で定められ、ARコンテンツC1のサイズは倍率D1m(J1x,J1y,J1z)で定められる。
ARコンテンツC1を構成する各点の座標は、ARコンテンツCの雛型(ARテンプレート)に定義された各点の座標が、基準点の座標V1m、回転座標G1mおよび倍率D1mに基づいて調整された座標である。
ARテンプレートに定義される基準点の座標は、例えば、(0,0,0)である。ARテンプレートに含まれる各座標は、設定された回転座標G1mに基づいて回転され、倍率D1mで拡縮され、さらに基準点の座標V1mに基づいて平行移動されて調整される。図3のARコンテンツC1は、ARテンプレートに定義された各点が、マーカーMのマーカー座標系において、基準点の座標V1m、回転座標G1mおよび倍率D1mに基づいて調整された点に基づいて構成された状態である。
ARコンテンツC1に関しては、後述のARコンテンツ情報により、マーカー座標系における基準点の座標や回転座標等の配置に関する情報があらかじめ設定されている。さらに、ARコンテンツC1に適用されるテンプレートのテンプレート情報においては、当該テンプレートを構成する各点の情報が設定されている。
したがって、生成部は、ARコンテンツ情報およびテンプレート情報を用いて、ARコンテンツの各点のマーカー座標系での座標をカメラ座標系の座標に変換する。さらに、カメラ座標系の座標は、表示画面内の位置(スクリーン座標系の座標)に変換される。変換された座標に基づいて、ARコンテンツC1の投影画像が生成される。
なお、カメラ座標系における座標は、マーカー座標系における座標に対して、座標V1cおよび回転座標G1cに基づく座標変換(モデル−ビュー変換)を行なうことにより算出される。例えば、モデル−ビュー変換が座標V1mに対して行なわれると、基準点のカメラ座標系における座標V2c(X2c,Y2c,Z2c)が求められる。
なお、マーカー座標系からカメラ座標系への変換は、図12および図13に示した行列式に基づき行われる。生成部18は、以下の式3を用いて、マーカー座標系からカメラ座標系への変換行列Mと列ベクトルAm(Xm,Ym,Zm,1)との積により、列ベクトルAc(Xc,Yc,Zc,1)を求める。
Figure 0006225538
列ベクトルAm(Xm,Ym,Zm,1)に座標変換(モデル−ビュー変換)対象のマーカー座標系の点座標を代入して、行列演算を行なうことにより、カメラ座標系の点座標を含む列ベクトルAc(Xc,Yc,Zc,1)が得られる。
なお、図12に示した変換行列Mの1〜3行目且つ1〜3列の部分行列(回転行列R)がマーカー座標系の座標に作用することにより、マーカー座標系の向きとカメラ座標系との向きを合わせるための回転操作が行なわれる。変換行列Mの1〜3行目且つ4列目の部分行列が作用することにより、マーカー座標系の向きとカメラ座標系との位置を合わせるための並進操作が行なわれる。
以上のとおり、ARコンテンツCを構成する各点のマーカー座標系の座標(Xm,Ym,Zm)は、変換行列Mに基づくモデル−ビュー変換により、カメラ座標系の座標(Xc,Yc,Zc)に変換される。図15に例示される位置座標V1mはモデル−ビュー変換により位置座標V2cに変換される。
次に、表示画像内でのARコンテンツの投影位置を決定するための透視変換について説明する。透視変換は、カメラ座標系からスクリーン座標系への座標変換である。なお、スクリーン座標系は、(Xs,Ys)の2次元で構成され、例えばカメラの撮像処理により得られる撮像画像の中心を原点(原点Os)とする。ARコンテンツCの各点のカメラ座標系の座標は、透視変換によりスクリーン座標系に変換される。透視変換により得られる各点のスクリーン座標系の座標に基づいて、ARコンテンツCの投影画像が生成される。
透視変換は、例えば、カメラの焦点距離fに基づいて行なわれる。カメラ座標系における座標(Xc,Yc,Zc)に対応するスクリーン座標系の座標のXs座標は、以下の式4で求められる。また、カメラ座標系における座標(Xc,Yc,Zc)に対応するスクリーン座標系の座標のYs座標は、以下の式5で求められる。
Xs=f・Xc/Zc (式4)
Ys=f・Yc/Zc (式5)
ARコンテンツCを構成する各点の位置座標(カメラ座標系)が透視変換されて得られる位置座標(スクリーン座標系)に基づいて、ARコンテンツCの投影画像が生成される。ARコンテンツCに適用されるテンプレートのテンプレート情報には、どの点を補間して面を形成するか、どの面にどのテクスチャ(または画像)をマッピングするかが定義されている。ARコンテンツCの投影画像は、ARテンプレートの定義に従って各位置座標(スクリーン座標系)を補間して得られる面にテクスチャや画像がマッピングされることにより生成される。
上述のモデル−ビュー変換および透視変換により、マーカー座標系の座標に対応する撮像画像上の座標が算出され、その座標を利用することで、カメラの視点に応じたARコンテンツCの投影画像が生成される。ARコンテンツCの投影画像が撮像画像に合成されると、あたかも3次元物体が存在するかのように画面に表示されるため、ユーザに提供される視覚的な情報が拡張される。
また、ARコンテンツ表示の他の例として、透過型ディスプレイにARコンテンツCの投影画像が表示されてもよい。この態様においても、ユーザがディスプレイを透過して得られる現実空間の像と、ARコンテンツの投影画像とが整合するので、ユーザに提供される視覚的な情報が拡張される。本実施形態におけるARコンテンツの投影画像と撮像画像とを合成して表示する処理などは、透過ディスプレイを用いる場合には、ARコンテンツを表示する処理としてもよい。
以上の処理を、マーカーMに対応付けられた各ARコンテンツに対して実施することで、現実空間の撮像画像にARコンテンツの投影画像を重畳させた重畳画像が生成される。なお、変換行列Mは、算出部16が生成した変換行列を、生成部18が利用してもよい。
図10の説明に戻る。撮像部12は、画像を撮像する。そして、撮像部12は、制御部11へ撮像画像を入力する。なお、撮像部12は、所定のフレーム間隔で画像を撮像する。
記憶部13は、制御部11の制御の下、各種情報を記憶する。記憶部13は、対応情報、ARコンテンツ情報、テンプレート情報を記憶する。表示部14は、生成部18により生成された表示画像等の画像を表示する。
以下、各種情報について説明する。図16Aおよび図16Bは、対応情報テーブルの構成例である。対応情報テーブルは、対応情報を格納する。図16Aは、各マーカーに対応する条件を管理するための第一の対応情報テーブルである。図16Bは、位置情報に関する条件と、当該条件において提供される表示情報とを管理するための第二の対応情報テーブルである。
まず、第一の対応情報テーブルは、マーカーIDと条件IDとを対応付けて記憶する。なお、条件IDは、条件を識別するための識別情報である。例えば、図16Aは、マーカーID「M1」に対しては、3つの条件ID「P1」「P2」「P3」が適用されることを示している。
次に、第二の対応情報テーブルは、条件ID、条件、コンテンツIDを対応付けて記憶する。なお、コンテンツIDは、ARコンテンツを識別するための識別情報である。例えば、図16Bは、条件ID「P1」の条件は、「位置情報cosθuが、cos45°からcos75°の間である」場合に適用される条件であることを示す。なお、θuが45°から75°の間であるという条件であってもよい。
さらに、図16Bの例では、位置情報が当該条件に該当する場合、コンテンツID「C3」およびコンテンツID「C4」に対応するARコンテンツが、提供されることを示している。例えば、図1のユーザ112について、θuが60°であれば、ARコンテンツC3とARコンテンツC4が提供され対象となる。なお、対応情報テーブルを、決定部17が参照し、提供する表示情報を特定したあと、生成部18が表示画像を生成する事で、図6のような表示画像がユーザ112に提供される。
また、図16Bの例では、0°から45°までの範囲および135°から180°までの範囲については、いずれの条件にも合致しない。これは、マーカーMの形状を認識可能な範囲が、45°から135°までであるためである。ただし、認識可能な範囲がより広い場合には、条件として設定される範囲も広くなる。
また、位置情報として、U(Xu,Yu,Zu)を利用する場合には、各軸の値の取りうる範囲が、条件として規定される。さらに、θと併せて、マーカーMからの距離や、高さなどが条件として規定されてもよい。また、図16Bの場合は、条件ごとにいずれかのARコンテンツが提供される例を示したが、これに限られない。例えば、ある条件のときには、ARコンテンツC1およびC2を表示するが、他の条件の時はいずれのARコンテンツも表示しないとしてもよい。
他の利用例としては、マーカーに対して、距離D1、方向D2の位置に頭上に危険物が存在するとする。このとき、距離D1および方向D2の周囲のエリアを条件として規定し、位置情報が当該条件に合致する場合、「頭上注意」というARコンテンツを表示情報として提供するとしてもよい。一方、当該周辺のエリア外を他の条件として規定し、当該他の条件に合致する場合には、特にARコンテンツを表示しないとしてもよい。
図17は、ARコンテンツ情報テーブルのデータ構成例を示す図である。ARコンテンツ情報テーブルは、ARコンテンツ情報を記憶する。ARコンテンツ情報は、各ARコンテンツについて、コンテンツID、マーカーID、テンプレートID、配置情報、倍率情報、付属情報等を有する。
コンテンツIDは、各ARコンテンツを識別する情報である。マーカーIDは、各ARマーカーを識別する情報である。テンプレートIDは、テンプレートを識別する情報である。なお、テンプレートは、表示画像に表示されるARコンテンツの3次元モデルの形状や模様が定義された情報である。
配置情報は、ARマーカー等の基準物に対するARコンテンツの配置位置や、回転に関わる情報である。具体的には、配置情報は、ARマーカー座標系における位置座標と、回転座標とを含む。倍率情報は、テンプレートに従う三次元モデルを拡大または縮小を定義するための情報である。付属情報は、各ARコンテンツに付属する情報である。例えば、付属情報は、テンプレートに従う三次元モデルに表示するテキスト情報である。
図17では、例えば、コンテンツID「C1」のARコンテンツは、マーカーID「MA」のARマーカーに対応付けられており、テンプレートID「T1」で規定された三次元モデルで表現される。そして、コンテンツID「C1」のARコンテンツは、基準となる位置座標(X1m,Y1m,Z1m)、回転座標(P1m,Q1m,R1m)、倍率(J1x,J1y,J1z)に基づき、カメラとARマーカーの位置関係に応じて、撮像画像上に配置される。さらに、コンテンツID「C1」のARコンテンツは、テンプレートID「T1」に従った三次元モデルに、付属情報「バルブが閉まっていることを確認」というテキスト情報を配置する。
図18は、テンプレート情報テーブルのデータ構成例を示す。テンプレート情報テーブルは、テンプレート情報を格納する。テンプレート情報は、ARテンプレートのテンプレートID、ARテンプレートを構成する各頂点の座標データT11、およびARテンプレートを構成する各面の面構成データT12を含む。面構成データに含まれる各面の情報は、面を構成する頂点の順序である頂点順序と、テクスチャIDの指定とを含む。テクスチャIDは、面にマッピングされるテクスチャの識別情報(画像ファイルの識別情報)を示す。ARテンプレートの基準点は例えば0番目の頂点である。
ここで、認識部15が、撮像部12から取得した撮像画像において、マーカーID「MA」に対応するARマーカーを認識すると、算出部16が位置情報を算出する。位置情報が、cos60°である場合には、対応情報に基づき、提供対象の表示情報として、ARコンテンツC3およびARコンテンツC4が特定される。すると、生成部18は、図17のARコンテンツ情報および図18のテンプレート情報を用いて、ARコンテンツC3およびC4を含む表示画像(図6)を生成する。つまり、撮像位置とマーカーとの位置関係に応じたARコンテンツの投影画像が、撮像画像に配置される。
次に、図9における管理装置2の機能的構成について説明する。図19は、第一の実施例に係る管理装置2の機能ブロック図である。管理装置2は、通信部20、制御部21、記憶部22を有する。通信部20は、他の装置と通信を行う。例えば、通信部20は、情報処理装置1と通信を行うことで、ARコンテンツ情報、テンプレート情報、対応情報等を送信する。
制御部21は、管理装置2が実行する各種処理を制御する。例えば、情報処理装置1から各種情報の要求を受信した場合、記憶部22から情報を読み出し、通信部20を制御することで、情報処理装置1へ情報を送信する。本実施例においては、初めに情報処理装置1から要求を受けた時点で、ARコンテンツ情報、テンプレート情報、対応情報を情報処理装置1へ送信する。情報処理装置1を持ったユーザが施設内で点検業務を行う際、施設内に通信電波が届かない場所等が存在しても、ARを利用した点検業務を実行できるようにするためである。
例えば、制御部21は、情報処理装置1が存在する場所や、情報処理装置1を操作するユーザに応じて、送信対象とするARコンテンツ情報、テンプレート情報、対応情報を決定してもよい。例えば、制御部21は、各マーカーが設置されている場所と、各マーカーのマーカーIDとを対応付けた管理情報を参照し、情報処理装置1が存在する周囲に存在するマーカーについて、制御部21は、ARコンテンツ情報、テンプレート情報、対応情報を記憶部22から抽出する。
また、各業務の業務手順を記したシナリオ情報を予め用意することで、情報処置装置1により選択されたシナリオに関連するマーカーに関する各種情報を、管理装置2は、情報処理装置1へ提供してもよい。シナリオ情報には、業務に関連する場所と、当該場所に設置されたマーカーのマーカーIDが含まれる。
記憶部22は、ARコンテンツ情報、テンプレート情報、対応情報を記憶する。さらに、必要に応じて、各マーカーの設置場所に関する管理情報や、シナリオに関するシナリオ情報を記憶してもよい。記憶部22に記憶されたARコンテンツ情報、テンプレート情報、対応情報の一部または全部は、情報処理装置1からの要求に応じて、情報処理装置1の記憶部13に記憶される。
次に、本実施例に係る情報提供方法の処理フローを説明する。図20は、第一の実施例に係る情報提供方法のフローチャートである。なお、フローチャートに示す処理に先駆けて、情報処理装置1は、管理装置2から、ARコンテンツ情報、テンプレート情報、対応情報を取得し、記憶部13に格納しているものとする。
まず、認識部15は、撮像部12が撮像した撮像画像を、入力画像として取得する(Op.1)。そして、認識部15は、入力画像から、基準物(マーカー)を認識したか否かを判定する(Op.2)。例えば、基準物のテンプレートに合致する物体が、入力画像に含まれているかが判定される。基準物を認識しない場合には(Op.2No)、情報処理装置1は、情報提供処理を終了する。
一方、基準物を認識した場合には(Op.2Yes)、認識部15は、さらに、基準物の識別情報を取得するとともに、認識結果と基準物の識別情報を算出部16へ出力する。例えば、マーカーを認識した旨の認識結果と、マーカーIDが算出部16へ出力される。次に、算出部16は、入力画像における基準物の像に基づき、基準物と撮像位置の位置関係を示す位置情報を算出する(Op.3)。なお、位置情報の算出の方法は、先に述べた算出方法等が適用される。そして、算出部16は、位置情報とマーカーIDとを、決定部17へ出力する。
決定部17は、対応情報と位置情報とマーカーIDとに基づき、表示情報を選択する(Op.4)。例えば、決定部17は、第一の対応情報から、マーカーIDに対して適用される条件IDを特定するとともに、特定された条件IDのうち、位置情報が示す位置が合致する条件を検索する。そして、検索された条件に対応するARコンテンツを特定する。そして、決定部17は、特定した表示情報を、生成部18へ出力する。
生成部18は、特定された表示情報、ARコンテンツ情報、テンプレート情報、入力画像に基づき、表示画像を生成する(Op.5)。なお、表示画像の生成方法は、先に述べた生成方法等が適用される。そして、表示部14は、表示画像を表示する(Op.6)。以上で、情報処理装置1は、情報提供処理を終了する。
以上のように、本実施例に開示の情報処理装置1は、ユーザが存在する環境に応じた情報提供を行うことができる。つまり、基準物と撮像位置との位置関係に基づき、ユーザに情報が提供されるため、基準物を基準とした環境に応じた情報が提供される。
[第二の実施例]
第一の実施例では、情報処理装置が提供する情報の選択を行っていた。第二の実施例では、管理装置が提供する情報の選択を行う。例えば、表示画像に重畳表示されるARコンテンツを、管理装置が選択する。そして、管理装置は、選択したARコンテンツに関するARコンテンツ情報、テンプレート情報を情報処理装置へ送信する。以上のように、第二の実施例においては、事前に、ARコンテンツ情報、テンプレート情報、対応情報を、情報処理装置が記憶する必要がない。
第二の実施例に係るシステムは、情報処理装置3および管理装置4を含む。なお、情報処理装置3は、第一の実施例と同様に、ユーザが所持する通信端末である。管理装置4は、第一の実施例と同様に、情報処理装置3を管理するサーバコンピュータである。
まず、第二の実施例に係る情報処理装置3の機能的構成について説明する。図21は、第二の実施例に係る情報処理装置の機能ブロック図である。情報処理装置3は、通信部30、制御部31、撮像部32、記憶部33、表示部34を含む。
通信部30は、管理装置4と通信を行う。例えば、通信部30は、情報提供要求を管理装置4へ送信する。情報提供要求は、認識部35が認識したマーカーIDおよび算出部36が算出した位置情報を含む。情報提供要求は、さらに、ユーザIDや時間情報、GPS等で取得した場所情報を含んでもよい。ユーザIDや時間情報、GPS等で取得した場所情報は、ユーザを識別するために利用される。
また、通信部30は、情報提供要求を送信したのち、管理装置4から表示情報を取得する。なお、本実施例における表示情報は、管理装置4により選択されたARコンテンツのARコンテンツ情報および関連するテンプレート情報を含む。
制御部31は、情報処理装置3が実行する各種処理を制御する。また、制御部31は、認識部35、算出部36、生成部37を有する。認識部35は、第一の実施例に係る認識部15と同様の処理を行う。算出部36は、第一の実施例に係る算出部16と同様の処理を行う。
さらに、第二の実施例における算出部36は、位置情報を算出した後、前記情報提供要求を生成する。そして、算出部36は、通信部30を制御して、情報提供要求を管理装置4へ送信する。生成部37は、管理装置4から取得した表示情報に基づき、表示画像を生成する。なお、表示画像の生成については、第一の実施例と同様である。
記憶部33は、各種情報を記憶する。ただし、ARコンテンツ情報、テンプレート情報、対応情報を、事前に管理装置4から取得する必要はない。記憶部33は、管理装置4から取得した表示情報を一時的に記憶する。また、表示部34は、第一の実施例における表示部14と同様、表示画像を表示する。
次に、管理装置4の機能的構成について説明する。図22は、第二の実施例に係る管理装置4の機能ブロック図である。管理装置4は、通信部40、制御部41、記憶部42を含む。
通信部40は、情報処理装置3と通信を行う。例えば、通信部40は、情報提供要求を情報処理装置3から受信する。また、通信部40は、制御部41の制御の下、ユーザの位置とマーカーとの位置関係を示す位置情報に応じた表示情報を、情報処理装置3へ送信する。
制御部41は、管理装置4が実行する各種処理を制御する。制御部41は、決定部43を含む。決定部43は、情報提供要求に含まれる位置情報およびマーカーIDに基づき、提供する情報を特定する。
例えば、決定部43は、対応情報を参照し、条件に合致するARコンテンツを特定する。さらに、特定されたARコンテンツに関連するARコンテンツ情報およびテンプレート情報を、記憶部42から読み出す。そして、決定部43は、通信部を制御して、読み出した情報を情報処理装置3へ送信する。
記憶部42は、各種情報を記憶する。例えば、ARコンテンツ情報、テンプレート情報、対応情報を記憶する。なお、各種情報のデータ構成は、第一の実施例と同様である。
次に、情報処理装置3および管理装置4の処理フローについて説明する。図23は、第二の実施例に係る情報提供方法のフローチャートである。
まず、情報処理装置3の認識部35は、撮像部32より入力画像を取得する(Op.11)。次に、認識部35は、入力画像から基準物を認識したか否かを判定する(Op.12)。例えば、基準物のテンプレートに合致する物体が、入力画像に含まれているかが判定される。基準物を認識しない場合には(Op.12No)、情報処理装置3は、情報提供処理を終了する。
一方、基準物を認識した場合には(Op.12Yes)、認識部35は、認識結果と基準物の識別情報を、算出部36へ出力する。そして、算出部36は、入力画像における基準物の像に基づき、基準物と撮像位置の位置関係を示す位置情報を算出する(Op.13)。算出部36は、位置情報とマーカーIDとを含む情報提供要求を生成する。通信部30は、制御部31の制御の下、情報提供要求を管理装置4へ送信する(Op.14)。
一方、管理装置4の通信部40は、情報提供要求を受信する(Op.21)。そして、決定部43は、情報提供要求に含まれる位置情報およびマーカーIDに基づき、表示情報を選択する(Op.22)。ここでは、対応情報が参照され、条件に合致するARコンテンツが選択されるとともに、当該ARコンテンツのARコンテンツ情報、テンプレート情報が選択される。次に、通信部40は、制御部41の制御の下、ARコンテンツ情報およびテンプレート情報を含む表示情報を情報処理装置3へ送信する(Op.23)。
次に、情報処理装置3の通信部30は、表示情報を受信する(Op.15)。そして、生成部37は、受信した表示情報および、Op.11で取得した入力画像を用いて、表示画像を生成する(Op.16)。そして、表示部34は、表示画像を表示する(Op.17)。
以上の通り、本実施例によれば、撮像位置とマーカーとの位置関係に応じた情報提供が行われる。また、表示対象のARコンテンツに関わるARコンテンツ情報およびテンプレート情報が、管理装置4から送信されるため、情報処理装置3は、事前にARコンテンツに関わるARコンテンツ情報およびテンプレート情報を取得する必要はない。よって、記憶領域を削減することができる。
[変形例]
第二の実施例は、以下のように変更することもできる。例えば、情報処理装置3の制御部31は、生成部37のみを有する。そして、管理装置4の制御部41が、情報処理装置3の認識部35および算出部36相当の機能を備えてもよい。この場合、情報処理装置3は、表示画像の生成のみを行えばよいため、処理負荷を軽減することができる。
つまり、情報処理装置3の通信部30は、情報提供要求として、入力画像を、管理装置4へ送信する。そして、管理装置3における認識部35、算出部36、決定部43が、撮像位置とマーカーとの位置関係に応じた表示情報を選択する。管理装置3の通信部40は、選択した表示情報を、情報処理装置3へ送信する。その後、表示情報に基づき、情報処理装置3の表示部34は、表示画像を表示する。
また、管理装置4の制御部41が、情報処理装置3の認識部35、算出部36、生成部37相当の機能を備えてもよい。この場合、情報処理装置3は、表示画像の表示のみを行えばよいため、さらに処理負荷を軽減することができる。
[ハードウェア構成例]
各実施例に示した情報処理装置および管理装置のハードウェア構成について説明する。まず、第一の実施例に示した情報処理装置1、第二の実施例に示した情報処理装置3のハードウェア構成について説明する。なお、変形例として示した情報処理装置も、図24に示すコンピュータ300で実現することが可能である。
図24は、各実施例の情報処理装置のハードウェア構成例である。各実施例における情報処理装置は、コンピュータ300によって、実現される。図10および図21に示す各機能ブロックは、例えば、図24に示すハードウェア構成により実現される。コンピュータ300は、例えば、プロセッサ301、Random Access Memory(RAM)302、Read Only Memory(ROM)303、ドライブ装置304、記憶媒体305、入力インターフェース(入力I/F)306、入力デバイス307、出力インターフェース(出力I/F)308、出力デバイス309、通信インターフェース(通信I/F)310、カメラモジュール311、加速度センサ312、角速度センサ313、表示インターフェース(表示I/F)314、表示デバイス315およびバス316などを含む。それぞれのハードウェアはバス316を介して接続されている。
通信インターフェース310はネットワーク3を介した通信の制御を行なう。通信インターフェース310が制御する通信は、無線通信を利用して、無線基地局を介してネットワークNにアクセスする態様でもよい。入力インターフェース306は、入力デバイス307と接続されており、入力デバイス307から受信した入力信号をプロセッサ301に伝達する。出力インターフェース308は、出力デバイス309と接続されており、出力デバイス309に、プロセッサ301の指示に応じた出力を実行させる。
入力デバイス307は、操作に応じて入力信号を送信する装置である。入力信号は、例えば、キーボードやコンピュータ300の本体に取り付けられたボタンなどのキー装置や、マウスやタッチパネルなどのポインティングデバイスである。出力デバイス309は、プロセッサ301の制御に応じて情報を出力する装置である。出力デバイス309は、例えば、スピーカーなどの音声出力装置などである。
表示インターフェース314は、表示デバイス315と接続されている。表示インターフェース314は、表示インターフェース314に設けられた表示用バッファにプロセッサ301により書き込まれた画像情報を、表示デバイス315に表示させる。表示デバイス315は、プロセッサ301の制御に応じて情報を出力する装置である。表示デバイス315は、ディスプレイなどの画像出力装置や、透過型ディスプレイなどが用いられる。
透過型ディスプレイが用いられる場合には、ARコンテンツの投影画像は、撮像画像と合成されるのではなく、例えば透過型ディスプレイ内の適切な位置に表示されるように制御されてもよい。これにより、ユーザは、現実空間とARコンテンツが整合した状態の視覚が得られる。また、例えば、タッチスクリーンなどの入出力装置が、入力デバイス307及び表示デバイス315として用いられる。また、入力デバイス307及び表示デバイス315がコンピュータ1内部に組み込まれる代わりに、例えば、入力デバイス307及び表示デバイス315がコンピュータ300に外部から接続されてもよい。
RAM302は読み書き可能なメモリ装置であって、例えば、SRAM(Static RAM)やDRAM(Dynamic RAM)などの半導体メモリ、またはRAM以外にもフラッシュメモリなどが用いられてもよい。ROM303は、PROM(Programmable ROM)なども含む。
ドライブ装置304は、記憶媒体305に記憶された情報の読み出しか書き込みかの少なくともいずれか一方を行なう装置である。記憶媒体305は、ドライブ装置304によって書き込まれた情報を記憶する。記憶媒体305は、例えば、ハードディスク、SSD(Solid State Drive)、CD(Compact Disc)、DVD(Digital Versatile Disc)、ブルーレイディスクなどの種類の記憶媒体のうちの少なくとも1つである。また、例えば、コンピュータ300は、コンピュータ300内の記憶媒体305の種類に対応したドライブ装置304を含む。
カメラモジュール311は、撮像素子(イメージセンサ)を含み、例えば、撮像素子が測定した値を読み出し、カメラモジュール311に含まれる入力画像用の画像バッファに書き込む。加速度センサ312は、加速度センサ312に対して作用する加速度を計測する。角速度センサ313は、角速度センサ313による動作の角速度を計測する。
プロセッサ301は、ROM303や記憶媒体305に記憶されたプログラムをRAM302に読み出し、読み出されたプログラムの手順に従って処理を行なう。例えば、制御部11および制御部31の機能は、プロセッサ301が、図20および図23に示される情報提供プログラム(AR制御プログラムの一部であってもよい)に基づいて、他のハードウェアの制御を行なうことにより実現される。通信部10および通信部30の機能は、プロセッサ301が、通信インターフェース310を制御してデータ通信を実行させ、受信したデータを記憶媒体305に格納させることにより実現される。
記憶部13および記憶部33の機能は、ROM303および記憶媒体305がプログラムファイルやデータファイルを記憶すること、また、RAM302がプロセッサ301のワークエリアとして用いられることによって実現される。例えば、ARコンテンツ情報、テンプレート情報、対応情報などがRAM302に格納される。
撮像部12および撮像処理部32の機能は、カメラモジュール311が入力画像用の画像バッファに画像データを書込み、入力画像用の画像バッファ内の画像データをプロセッサ301が読み出すことにより実現される。画像データは、モニタリングモードにおいては、例えば、入力画像用の画像バッファに書き込まれるとともに、表示デバイス315の表示用バッファに並行して書き込まれる。
また、表示部14および表示部34の機能は、プロセッサ301により生成された画像データが表示インターフェース314に備えられた表示用バッファに書き込まれ、表示デバイス315が表示用バッファ内の画像データの表示を行なうことにより実現される。
次に、図25は、コンピュータ300で動作するプログラムの構成例を示す。コンピュータ300において、ハードウェア群の制御を行なうOS(オペレーティング・システム)502が動作する。OS502に従った手順でプロセッサ301が動作して、ハードウェア501の制御・管理が行なわれることで、AP(アプリケーションプログラム)504やMW(ミドルウェア)503による処理がHW(ハードウェア)501上で実行される。
コンピュータ300において、OS502、MW503及びAP504などのプログラムは、例えば、RAM302に読み出されてプロセッサ301により実行される。また、各実施例に示した情報提供プログラムを含むAR制御プログラムは、例えば、MW503としてAP504から呼び出されるプログラムである。または、例えば、情報提供プログラムを含むAR制御プログラムは、AP504としてAR機能を実現させるプログラムである。AR制御プログラムは、記憶媒体305に記憶される。記憶媒体305は、本実施例に係る情報提供プログラム単体または、情報提供プログラムを含むAR制御プログラムを記憶した状態で、コンピュータ300本体と切り離して流通され得る。
次に、第一の実施例に示した管理装置2および第二の実施例に示した管理装置4のハードウェア構成について説明する。図26は、各実施例の管理装置のハードウェア構成例である。管理装置2および管理装置4は、コンピュータ400によって、実現される。なお、変形例として示した管理装置も、図26に示すコンピュータ400で実現することが可能である。
図19および図22に示す各機能ブロックは、例えば、図26に示すハードウェア構成により実現される。コンピュータ400は、例えば、プロセッサ401、RAM402、ROM403、ドライブ装置404、記憶媒体405、入力インターフェース(入力I/F)406、入力デバイス407、出力インターフェース(出力I/F)408、出力デバイス409、通信インターフェース(通信I/F)410、SAN(Storage Area Network)インターフェース(SAN I/F)及びバス412などを含む。それぞれのハードウェアはバス412を介して接続されている。
例えば、プロセッサ401はプロセッサ301と同様なハードウェアである。RAM402は、例えばRAM302と同様なハードウェアである。ROM403は、例えばROM303と同様なハードウェアである。ドライブ装置404は、例えばドライブ装置304と同様なハードウェアである。記憶媒体405は、例えば記憶媒体305と同様なハードウェアである。入力インターフェース(入力I/F)406は、例えば入力インターフェース306と同様なハードウェアである。入力デバイス407は、例えば入力デバイス307と同様なハードウェアである。
出力インターフェース(出力I/F)408は、例えば出力インターフェース308と同様なハードウェアである。出力デバイス409は、例えば出力デバイス309と同様なハードウェアである。通信インターフェース(通信I/F)410は、例えば通信インターフェース310と同様なハードウェアである。SAN(Storage Area Network)インターフェース(SAN I/F)は、コンピュータ400をSANに接続するためのインターフェースであり、HBA(Host Bus Adapter)を含む。
プロセッサ401は、ROM403や記憶媒体405に記憶された管理プログラムをRAM402に読み出し、読み出された管理プログラムの手順に従って制御部21および制御部41の処理を行なう。その際にRAM402はプロセッサ401のワークエリアとして用いられる。なお、管理プログラムは、管理装置2および管理装置4における情報提供処理に係る情報提供プログラムを含む。
記憶部22および記憶部42の機能は、ROM403および記憶媒体405がプログラムファイルやデータファイルを記憶すること、もしくは、RAM402がプロセッサ401のワークエリアとして用いられることによって実現される。また、プロセッサ401が通信インターフェース410を制御して通信処理を行なうことにより、通信部20および通信部40の機能が実現される。
1, 3 情報処理装置
10,30 通信部
11,31 制御部
12,32 撮像部
13,33 記憶部
14,34 表示部
2, 4 管理装置
20,40 通信部
21,41 制御部
22,42 記憶部

Claims (11)

  1. 入力画像から認識された基準物の像に基づいて、前記基準物に対して相対的な前記入力画像の撮像位置の3次元位置情報を算出する算出部と、
    前記3次元位置情報と前記基準物の識別情報とを含む情報提供要求を他の装置へ送信し、前記情報提供要求に対する応答として、前記3次元位置情報に含まれる各成分の値に応じて、前記識別情報と3次元位置の各成分の範囲とに対応付けられた複数の表示情報の中から選択された特定の表示情報を、前記他の装置から受信する通信部と、
    前記特定の表示情報に基づき、前記入力画像に他の画像が重畳された表示画像を表示する表示部と、
    を有することを特徴とする情報処理装置。
  2. 入力画像から認識された基準物の像に基づいて、前記基準物に対して相対的な前記入力画像の撮像位置の3次元位置関係を示す位置情報を算出する算出部と、前記3次元位置情報と前記基準物の識別情報とを含む情報提供要求を第二の情報処理装置へ送信し、前記情報提供要求に対する応答として、前記3次元位置情報に含まれる各成分の値に応じて、前記識別情報と3次元位置の各成分の範囲とに対応付けられた複数の表示情報の中から選択された特定の表示情報を、前記第二の情報処理装置から受信する通信部と、前記特定の表示情報に基づき、前記入力画像に他の画像が重畳された合成画像を表示する表示部とを有する第一の情報処理装置と、
    前記第一の情報処理装置から前記情報提供要求を受信し、前記情報提供要求に対する前記応答として、前記特定の表示情報を前記第一の情報処理装置へ送信する通信部と、複数の識別情報と前記3次元位置の各成分の範囲と複数の表示情報との対応情報に基づき、前記情報提供要求含まれる前記3次元位置情報に含まれる各成分が当てはまる範囲に対応する前記特定の表示情報を取得し、前記通信部へ提供する制御部とを有する第二の情報処理装置と
    を含むことを特徴とするシステム。
  3. 前記算出部は、前記像の形状に基づき、前記3次元位置情報を算出する
    ことを特徴とする請求項2に記載のシステム。
  4. 第一の画像データに対応付いた範囲が第一の範囲で示される領域である場合に、前記制御部は、前記3次元位置情報に含まれる各成分が示す点が前記第一の範囲に合致する場合、前記特定の表示情報として、前記識別情報に対応付けられた複数の画像データのうちの前記第一の画像データを特定する
    ことを特徴とする請求項2に記載のシステム。
  5. 第二の画像データに対応付いた範囲が前記第一の範囲とは異なる第二の範囲で示される領域である場合に、前記制御部は、前記3次元位置情報に含まれる各成分が示す点が前記第二の範囲に合致する場合、前記特定の表示情報として、前記第一の画像データとは異なる前記第二の画像データを特定する
    ことを特徴とする請求項4に記載のシステム。
  6. 前記領域は、前記基準物に対して、放射状に設定された領域である
    ことを特徴とする請求項4または5に記載のシステム。
  7. 前記領域は、前記基準物に対する距離および方向で特定される領域である
    ことを特徴とする請求項4または5に記載のシステム。
  8. 前記第一の情報処理装置は、前記第二の情報処理装置から受信した前記特定の表示情報および前記入力画像に基づき、前記表示画像を生成する生成部を備える
    ことを特徴とする請求項2乃至請求項7いずれか一項に記載のシステム。
  9. 前記算出部は、前記3次元位置情報として、前記基準物を基準とする三次元空間における、前記撮像位置を算出する
    ことを特徴とする請求項2乃至請求項8のいずれか一項に記載のシステム。
  10. コンピュータに、
    入力画像から認識された基準物の像に基づいて、前記基準物に対して相対的な前記入力画像の撮像位置の3次元位置情報を算出し、
    前記3次元位置情報と前記基準物の識別情報とを含む情報提供要求を他の装置へ送信し、
    前記情報提供要求に対する応答として、前記3次元位置情報に含まれる各成分の値に応じて、前記識別情報と3次元位置の各成分の範囲とに対応付けられた複数の表示情報の中から選択された特定の表示情報を、前記他の装置から受信し、
    前記特定の表示情報に基づき、前記入力画像に他の画像が重畳された合成画像を表示する
    処理を実行させることを特徴とする情報提供プログラム。
  11. コンピュータが、
    入力画像から認識された基準物の像に基づいて、前記基準物に対して相対的な前記入力画像の撮像位置の3次元位置情報を算出し、
    前記3次元位置情報と前記基準物の識別情報とを含む情報提供要求を他の装置へ送信し、
    前記情報提供要求に対する応答として、前記3次元位置情報に含まれる各成分の値に応じて、前記識別情報と3次元位置の各成分の範囲とに対応付けられた複数の表示情報の中から選択された特定の表示情報を、前記他の装置から受信し、
    前記特定の表示情報に基づき、前記入力画像に他の画像が重畳された合成画像を表示する
    処理を実行することを特徴とする情報提供方法。
JP2013153191A 2013-07-24 2013-07-24 情報処理装置、システム、情報提供方法および情報提供プログラム Active JP6225538B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2013153191A JP6225538B2 (ja) 2013-07-24 2013-07-24 情報処理装置、システム、情報提供方法および情報提供プログラム
US14/311,656 US20150029219A1 (en) 2013-07-24 2014-06-23 Information processing apparatus, displaying method and storage medium
AU2014203449A AU2014203449B2 (en) 2013-07-24 2014-06-25 Information processing apparatus, and displaying method
EP20140175199 EP2830022A3 (en) 2013-07-24 2014-07-01 Information processing apparatus, and displaying method
CN201410341965.7A CN104346612B (zh) 2013-07-24 2014-07-17 信息处理装置和显示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013153191A JP6225538B2 (ja) 2013-07-24 2013-07-24 情報処理装置、システム、情報提供方法および情報提供プログラム

Publications (2)

Publication Number Publication Date
JP2015022737A JP2015022737A (ja) 2015-02-02
JP6225538B2 true JP6225538B2 (ja) 2017-11-08

Family

ID=51162472

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013153191A Active JP6225538B2 (ja) 2013-07-24 2013-07-24 情報処理装置、システム、情報提供方法および情報提供プログラム

Country Status (5)

Country Link
US (1) US20150029219A1 (ja)
EP (1) EP2830022A3 (ja)
JP (1) JP6225538B2 (ja)
CN (1) CN104346612B (ja)
AU (1) AU2014203449B2 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103942049B (zh) * 2014-04-14 2018-09-07 百度在线网络技术(北京)有限公司 增强现实的实现方法、客户端装置和服务器
JP6524706B2 (ja) * 2015-02-27 2019-06-05 富士通株式会社 表示制御方法、表示制御プログラム、及び情報処理装置
WO2016189954A1 (ja) 2015-05-26 2016-12-01 三菱重工業株式会社 運転支援装置および運転支援方法
CN106445088B (zh) * 2015-08-04 2020-05-22 上海宜维计算机科技有限公司 现实增强的方法及系统
JP2017054185A (ja) * 2015-09-07 2017-03-16 株式会社東芝 情報処理装置、情報処理方法及び情報処理プログラム
US10740614B2 (en) 2016-04-14 2020-08-11 Nec Corporation Information processing device, information processing method, and program storing medium
CN107481323A (zh) * 2016-06-08 2017-12-15 创意点子数位股份有限公司 混合实境的互动方法及其系统
JP2018005091A (ja) * 2016-07-06 2018-01-11 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置
CN107773981A (zh) * 2016-08-24 2018-03-09 丰唐物联技术(深圳)有限公司 一种基于增强现实的交互方法及系统
JP6751777B2 (ja) * 2016-12-28 2020-09-09 株式会社メガハウス コンピュータプログラム、表示装置、頭部装着型表示装置
CN109348209B (zh) * 2018-10-11 2021-03-16 北京灵犀微光科技有限公司 增强现实显示装置和视觉标定方法
CN112651270A (zh) * 2019-10-12 2021-04-13 北京七鑫易维信息技术有限公司 一种注视信息确定方法、装置、终端设备及展示对象
WO2021130982A1 (ja) * 2019-12-26 2021-07-01 日本電気株式会社 情報処理装置、制御方法及び記憶媒体
KR20210107409A (ko) 2020-02-24 2021-09-01 삼성전자주식회사 엣지 컴퓨팅 서비스를 이용한 영상 컨텐츠 전송 방법 및 장치

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2381644A (en) * 2001-10-31 2003-05-07 Cambridge Display Tech Ltd Display drivers
US8521411B2 (en) * 2004-06-03 2013-08-27 Making Virtual Solid, L.L.C. En-route navigation display method and apparatus using head-up display
JPWO2005119539A1 (ja) 2004-06-04 2008-04-03 三菱電機株式会社 動作環境を証明する証明書発行サーバ及び証明システム
US7720436B2 (en) * 2006-01-09 2010-05-18 Nokia Corporation Displaying network objects in mobile devices based on geolocation
US20080310686A1 (en) 2007-06-15 2008-12-18 Martin Kretz Digital camera system and method of storing image data
US9204050B2 (en) * 2008-12-25 2015-12-01 Panasonic Intellectual Property Management Co., Ltd. Information displaying apparatus and information displaying method
JP2011244058A (ja) * 2010-05-14 2011-12-01 Sony Corp 情報処理装置、情報処理システム、及びプログラム
JP5255595B2 (ja) * 2010-05-17 2013-08-07 株式会社エヌ・ティ・ティ・ドコモ 端末位置特定システム、及び端末位置特定方法
US8601380B2 (en) * 2011-03-16 2013-12-03 Nokia Corporation Method and apparatus for displaying interactive preview information in a location-based user interface
JP2012215989A (ja) 2011-03-31 2012-11-08 Toppan Printing Co Ltd 拡張現実表示方法
JP5940785B2 (ja) * 2011-09-14 2016-06-29 株式会社バンダイナムコエンターテインメント プログラムおよびゲーム装置
JP5821526B2 (ja) * 2011-10-27 2015-11-24 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
JP6121647B2 (ja) * 2011-11-11 2017-04-26 ソニー株式会社 情報処理装置、情報処理方法およびプログラム

Also Published As

Publication number Publication date
JP2015022737A (ja) 2015-02-02
CN104346612B (zh) 2018-12-25
EP2830022A2 (en) 2015-01-28
EP2830022A3 (en) 2015-02-18
AU2014203449B2 (en) 2015-07-30
US20150029219A1 (en) 2015-01-29
CN104346612A (zh) 2015-02-11
AU2014203449A1 (en) 2015-02-12

Similar Documents

Publication Publication Date Title
JP6225538B2 (ja) 情報処理装置、システム、情報提供方法および情報提供プログラム
US9710971B2 (en) Information processing device, position designation method and storage medium
JP6314394B2 (ja) 情報処理装置、設定方法、設定プログラム、システムおよび管理装置
US10074217B2 (en) Position identification method and system
US20230083703A1 (en) Capturing Environmental Features Using 2D and 3D Scans
JP5991423B2 (ja) 表示装置、表示方法、表示プログラムおよび位置設定システム
AU2014277858B2 (en) System and method for controlling a display
JP6264834B2 (ja) ガイド方法、情報処理装置およびガイドプログラム
JP7079231B2 (ja) 情報処理装置及び情報処理システム及び制御方法、プログラム
JP6160290B2 (ja) 情報処理装置、判定方法および判定プログラム
JP6318542B2 (ja) 表示制御方法、表示制御プログラムおよび情報処理装置
Valentini Natural interface in augmented reality interactive simulations: This paper demonstrates that the use of a depth sensing camera that helps generate a three-dimensional scene and track user's motion could enhance the realism of the interactions between virtual and physical objects
JP7045863B2 (ja) 情報管理システム、情報管理方法、及びプログラム

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20160401

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160405

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170131

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170403

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170516

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170816

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20170824

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170925

R150 Certificate of patent or registration of utility model

Ref document number: 6225538

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150