JP7491770B2 - 端末装置、情報処理方法、およびプログラム - Google Patents

端末装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP7491770B2
JP7491770B2 JP2020133917A JP2020133917A JP7491770B2 JP 7491770 B2 JP7491770 B2 JP 7491770B2 JP 2020133917 A JP2020133917 A JP 2020133917A JP 2020133917 A JP2020133917 A JP 2020133917A JP 7491770 B2 JP7491770 B2 JP 7491770B2
Authority
JP
Japan
Prior art keywords
terminal device
information
marker
real space
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020133917A
Other languages
English (en)
Other versions
JP2022030135A (ja
Inventor
厚志 北林
豪一 井筒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Comware Corp
Original Assignee
NTT Comware Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Comware Corp filed Critical NTT Comware Corp
Priority to JP2020133917A priority Critical patent/JP7491770B2/ja
Publication of JP2022030135A publication Critical patent/JP2022030135A/ja
Application granted granted Critical
Publication of JP7491770B2 publication Critical patent/JP7491770B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

特許法第30条第2項適用 〔1〕 公開日 令和元年9月13日 集会名 「株式会社NTTドコモ九州様との打合せ」 <資 料> プレゼンテーション資料「スマートメンテナンスの取り組み」
特許法第30条第2項適用 〔2〕 開催日 令和元年10月31日~11月1日 集会名 「つくばフォーラム 2019」 <資 料> つくばフォーラム2019 ウェブページ プリントアウト <資 料> つくばフォーラム2019 発表資料
特許法第30条第2項適用 〔3〕 開催日 令和元年11月21日~22日 集会名 「NTT COMWARE’S DAY 2019」 <資 料> NTT COMWARE’S DAY 2019 ウェブページ プリントアウト <資 料> NTT COMWARE’S DAY 2019 発表資料
特許法第30条第2項適用 〔4〕 開催日 令和2年5月20日 集会名 「海上保安庁打合せ(3D付箋)」 <資 料> プレゼンテーション資料「3Dフセンによる設備保守業務の効率化」
本発明は、端末装置、情報処理方法、およびプログラムに関する。
従来より、下記の特許文献1のように、拡張現実空間に配置される仮想オブジェクトを複数の端末間で共有する技術が知られている。特許文献1に記載された拡張現実プログラムは、端末に、カメラにより撮影される画像に基づく拡張現実空間をディスプレイに表示するステップと、拡張現実空間内に配置される仮想オブジェクトを特定する情報と仮想オブジェクトの位置及び向きを特定する情報とを含むオブジェクト情報を含むオブジェクトデータを生成するステップと、オブジェクトデータをサーバに送信するステップと、特定のオブジェクトデータをサーバに要求するステップと、要求した特定のオブジェクトデータをサーバから受信するステップと、受信した特定のオブジェクトデータに含まれるオブジェクト情報により特定される仮想オブジェクトを拡張現実空間内に配置するステップと、を実行させる。
特許第6548241号公報
しかしながら、上述した拡張現実プログラムは、GPSにおける位置情報に基づいて仮想オブジェクトを拡張現実空間内に配置しているので、位置情報に対応して仮想オブジェクトを設定する必要がある。したがって、上述した拡張現実プログラムは、例えば、同じ位置情報に対応して複数の仮想オブジェクトが設定できないなど、ユーザにとっての利便性が低い可能性があった。
本発明は、上記の課題に鑑みてなされたものであって、オブジェクトを設定および閲覧するユーザにとっての利便性を高くすることができる端末装置、情報処理方法、およびプログラムを提供することを目的としている。
(1)本発明の一態様は、撮像部と、マーカの特徴に関する情報を情報処理装置に送信する送信部と、前記マーカに対応するオブジェクトの相対位置および特徴を含む情報を前記情報処理装置から受信する受信部と、前記受信部により受信された情報に基づいて、前記オブジェクトの位置と前記撮像部により撮像された画像に基づいて抽出された実空間の特徴との対応を記憶する記憶部と、前記記憶部に記憶された前記対応に基づいて、拡張現実空間において前記マーカの位置を原点としたオブジェクトを表示する表示部と、端末装置の挙動に基づく信号を検出するセンサと、前記センサにより出力された信号に基づく実空間の位置と、前記撮像された画像に基づく実空間の特徴とを対応付ける第1のマッピングと、前記受信部により受信された情報に基づくオブジェクトの位置と実空間の位置とを対応付ける第2のマッピングと、前記オブジェクトと実空間の特徴とを対応付ける第3のマッピングとを行うことで、前記記憶部に前記対応を記憶させる、マッピング部と、を備える、端末装置である。
(2)本発明の一態様は、上記の端末装置であって、前記表示部は、前記記憶部に記憶された前記オブジェクトの相対位置に対応した実空間の特徴が前記拡張現実空間に存在する場合、当該存在する実空間の特徴の位置に対応する前記拡張現実空間の位置に前記オブジェクトを表示してよい。
)本発明の一態様は、上記の端末装置であって、前記記憶部は、前記撮像部により撮像された画像、前記センサにより出力された信号に基づく実空間の位置と、前記撮像部により撮像された画像に基づく実空間の特徴との対応を記憶してよい。
)本発明の一態様は、上記の端末装置であって、前記端末装置が前記オブジェクトを表示させるための実空間が変更した場合、前記記憶部に記憶された前記対応を更新してよい。
)本発明の一態様は、端末装置が、実空間を撮像するステップと、前記端末装置が、マーカの特徴に関する情報を情報処理装置に送信するステップと、前記端末装置が、前記マーカに対応するオブジェクトの相対位置および特徴を含む情報を前記情報処理装置から受信するステップと、前記端末装置が、前記受信された情報に基づいて、前記オブジェクトの位置と前記撮像された画像に基づいて抽出された実空間の特徴との対応を記憶部に記憶するステップと、前記端末装置が、前記記憶された前記対応に基づいて、拡張現実空間において前記マーカの位置を原点としたオブジェクトを表示するステップと、前記端末装置が、前記端末装置の挙動に基づく信号をセンサにより検出するステップと前記端末装置が、前記センサにより出力された信号に基づく実空間の位置と、前記撮像された画像に基づく実空間の特徴とを対応付ける第1のマッピングと、前記受信部により受信された情報に基づくオブジェクトの位置と実空間の位置とを対応付ける第2のマッピングと、前記オブジェクトと実空間の特徴とを対応付ける第3のマッピングとを行うことで、前記記憶部に前記対応を記憶させるステップと、を含む情報処理方法である。
)本発明の一態様は、端末装置のコンピュータに、実空間を撮像するステップと、マーカの特徴に関する情報を情報処理装置に送信するステップと、前記マーカに対応するオブジェクトの相対位置および特徴を含む情報を前記情報処理装置から受信するステップと、前記受信された情報に基づいて、前記オブジェクトの位置と前記撮像された画像に基づいて抽出された実空間の特徴との対応を記憶部に記憶するステップと、前記記憶された前記対応に基づいて、拡張現実空間において前記マーカの位置を原点としたオブジェクトを表示するステップと、前記端末装置の挙動に基づく信号をセンサにより検出するステップと、前記センサにより出力された信号に基づく実空間の位置と、前記撮像された画像に基づく実空間の特徴とを対応付ける第1のマッピングと、前記受信部により受信された情報に基づくオブジェクトの位置と実空間の位置とを対応付ける第2のマッピングと、前記オブジェクトと実空間の特徴とを対応付ける第3のマッピングとを行うことで、前記記憶部に前記対応を記憶させるステップと、を実行させる、プログラムである。
本発明の一態様によれば、オブジェクトを設定および閲覧するユーザにとっての利便性を高くすることができる。
実施形態の情報処理システム1の一構成例を示すブロック図である。 実施形態における情報処理システム1の全体の処理手順を示すフローチャートである。 実施形態の情報処理システム1においてオブジェクトを設定および表示する処理を説明するための図である。 実施形態の情報処理システム1においてオブジェクトを設定および表示する他の処理を説明するための図である。 実施形態の情報処理システム1においてオブジェクトを設定および表示する他の処理を説明するための図である。 実施形態の情報処理システム1における詳細な処理手順の一例を示す図である。 第2実施形態における情報処理システム1における処理手順の一例を示すフローチャートである。 第2実施形態の情報処理システム1においてマーカおよびオブジェクトの設定、およびオブジェクトを表示する処理を説明するための図である。 第3実施形態における情報処理システム1において2次元地図に重畳されたマーカおよびオブジェクトの一例を示す図である。 第3実施形態における情報処理システム1において3次元地図に重畳されたマーカおよびオブジェクトの一例を示す図である。 第3実施形態の情報処理システム1における詳細な処理手順の一例を示す図である。 第4実施形態におけるユーザ端末装置100Aの構成の一例を示すブロック図である。 実空間特徴に基づいてオブジェクトを表示させる処理を説明するための図である。 第4実施形態におけるユーザ端末装置100Aの動作手順を示すフローチャートである。
以下、本発明を適用した端末装置、情報処理方法、およびプログラムを、図面を参照して説明する。
<実施形態の概要>
実施形態の情報処理システム1は、端末装置の操作に基づいて、拡張現実(Augmented Reality、AR)空間においてマーカを任意の位置に設定し、マーカを起点としたオブジェクトを設定する。そして、情報処理システム1は、端末装置の操作に基づいて、拡張現実空間においてマーカを認識した場合に、当該マーカに対応付けられたオブジェクトを閲覧するための情報を提供する。情報処理システム1は、例えば、端末装置のディスプレイに対するタッチ操作等で拡張現実空間内にメッセージや付箋といったオブジェクトを設定し、他の端末装置のディスプレイにより拡張現実空間内のメッセージや付箋を見ることができるシステムを提供することができる。情報処理システム1によれば、例えば、管理者の操作に基づいて工事現場の保守手順を付箋に記述し、現場担当者が付箋を見て保守作業を実施したり、現場担当者が異常箇所を付箋に記述し、補修員が付箋を見て異常箇所を確認することができる。このように、情報処理システム1によれば、オブジェクトを設定および閲覧するユーザにとっての利便性を高くすることができる。以下、詳細に説明する。
<第1実施形態>
<情報処理システム1の構成>
図1は、実施形態の情報処理システム1の一構成例を示すブロック図である。情報処理システム1は、例えば、一又は複数のユーザ端末装置100と、情報処理装置200と、データベース管理装置300とを備える。ユーザ端末装置100、情報処理装置200、およびデータベース管理装置300は、例えば、通信ネットワークに接続される。通信ネットワークに接続される各装置は、NIC(Network Interface Card)や無線通信モジュールなどの通信インターフェースを備えている(図1では不図示)。通信ネットワークは、例えば、インターネット、WAN(Wide Area Network)、LAN(Local Area Network)、セルラー網などを含む。
ユーザ端末装置100は、例えば、撮像部102、表示部104、および制御部106を備える。ユーザ端末装置100は、例えばスマートフォンやタブレット端末などのカメラ装置(撮像部102)を備えた携帯型端末装置である。ユーザ端末装置100は、ブラウザやアプリケーションプログラムなどのUA(User Agent)を起動する。UAは、例えば、情報処理装置200と通信等をするためのアプリケーション(制御部106)である。ユーザ端末装置100は、UAとしてのAR用アプリケーションを利用し、情報処理装置200から受信したコンテンツを用いて表示部104による表示処理や、表示部104と一体となったタッチパネル操作の受け付け処理などを行う。また、ユーザ端末装置100は、AR用アプリケーションを利用して、ユーザの操作に基づく操作情報や撮影画像等を情報処理装置200に提供する。
情報処理装置200は、ユーザ端末装置100からの要求を受け付け、各種の情報処理を行う情報処理装置である。情報処理装置200は、例えば、API(Application Programming Interface)部210と、マーカ登録部220と、オブジェクト登録部230と、情報抽出部240とを備える。API部210、マーカ登録部220、オブジェクト登録部230、および情報抽出部240といった機能部は、例えばCPU(Central Processing Unit)等のプロセッサがプログラムメモリに格納されたプログラムを実行することにより実現される。また、これらの機能部のうち一部または全部は、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、またはFPGA(Field-Programmable Gate Array)等のハードウェアにより実現されてもよいし、ソフトウェアとハードウェアが協働することで実現されてもよい。
API部210は、ユーザ端末装置100から各種の情報や要求等を受け付ける処理や、ユーザ端末装置100にコンテンツや要求等を提供する処理などを行う。マーカ登録部220は、拡張現実空間にマーカを登録する。オブジェクト登録部230は、拡張現実空間にオブジェクトを登録する。情報抽出部240は、マーカに関する情報をユーザ端末装置100から受け付けた場合に、ユーザ端末装置100から受け付けたマーカと一致するマーカに対応して登録されたオブジェクトの位置および特徴に基づいて、拡張現実空間においてマーカの位置を原点としてオブジェクトをユーザ端末装置100に表示させるための情報を抽出する。オブジェクトをユーザ端末装置100に表示させるための情報は、後述のオブジェクト情報の一部または全部であってもよく、オブジェクト情報を用いて生成した画像データであってもよく、オブジェクトを表示させるためのマークアップ言語で記述されたデータであってもよい。
<情報処理システム1の全体処理>
図2は、実施形態における情報処理システム1の全体の処理手順を示すフローチャートである。情報処理システム1は、まず、ユーザ端末装置100の操作に基づいて、拡張現実空間におけるマーカを登録する(ステップS10)。マーカとは、拡張現実空間において基準点に位置し、他のオブジェクトと対応づけられるオブジェクトである。以下、基準点に位置するオブジェクトを「マーカ」と記載し、当該マーカに紐付けられる、基準点以外に位置するオブジェクトを「オブジェクト」と記載する。マーカを登録する処理は、拡張現実空間におけるマーカの特徴、および位置を含むマーカ情報データベース管理装置300に記憶させる処理である。データベース管理装置300は、マーカを一意に特定する情報としてキー情報をマーカ情報に含める。
マーカを登録する処理において、ユーザ端末装置100は、マーカの位置情報を、絶対位置の情報としてデータベース管理装置300に記憶する。すなわち、マーカの位置情報は、緯度、経度、および高さを持つ。
次に情報処理システム1は、ユーザ端末装置100の操作に基づいて、オブジェクトを登録する(ステップS12)。オブジェクトを登録する処理は、拡張現実空間におけるオブジェクトの特徴、およびマーカに対する相対位置または相対距離や傾きを含むオブジェクト情報をデータベース管理装置300に記憶させる処理である。データベース管理装置300は、オブジェクトを一意に特定する情報としてキー情報をオブジェクト情報に含める。
なお、マーカおよびオブジェクトの特徴は、例えば、文字や、文字列、URL(Uniform Resource Locator)等のリンク情報、記号、図形、写真画像、2次元画像、3次元画像などであるが、拡張現実空間に配置することができる電子的な表現手法を用いたものであればよい。
次に情報処理システム1は、ユーザ端末装置100からの送信されたマーカの特徴を表す情報に基づいて、当該マーカが、データベース管理装置300に登録されたマーカの特徴に一致するか否かを判定する(ステップS14)。情報処理システム1は、マーカが一致する場合(ステップS14:YES)、当該マーカに紐付けられたオブジェクトを表示させる(ステップS16)。
<情報処理システム1の処理説明>
図3は、実施形態の情報処理システム1においてオブジェクトを設定および表示する処理を説明するための図である。例えば、道路に設置されている電柱に関するオブジェクトを登録したいものとする。まず、電柱が設置されている現実空間の所定位置に、マーカの特徴に相当する模様が描かれたマーカ物体Mを設置する。ユーザP1がユーザ端末装置100-1を操作し、現実空間を撮像すると、マーカ物体Mに対応する画像M#が撮像される。ユーザ端末装置100-1は、例えば、ユーザP1が画像M#を指定する操作を受け付けたことに応じて、画像M#が占める領域をマーカとして認識する。さらに、ユーザ端末装置100-1は、ユーザP1の操作に基づいて、電柱の名称としての「電柱A」を含む付箋画像を、拡張現実空間におけるオブジェクトとして設定する。マーカ情報およびオブジェクト情報は、情報処理システム1に登録される。
例えば、ユーザP1とは違うユーザP2が「電柱A」という名称の電柱を特定したいものとする。まず、電柱が設置されている現実空間の所定位置にマーカ物体Mを設置する。ユーザP2がユーザ端末装置100-2を操作し、現実空間を撮像すると、マーカ物体Mに対応する画像M#が撮像される。ユーザ端末装置100-2は、画像M#を情報処理システム1に送信し、情報処理システム1から画像M#に対応するマーカ情報およびオブジェクト情報を受信し、文字情報としての「電柱A」を含む付箋画像を、拡張現実空間におけるオブジェクトとして表示する。これにより、ユーザ端末装置100-2は、オブジェクトの表示や編集を行うことができる。
図4は、実施形態の情報処理システム1においてオブジェクトを設定および表示する他の処理を説明するための図である。情報処理システム1は、所定の拡張現実空間において異なるマーカを用い、マーカごとに異なるオブジェクトを設定および表示してよい。
例えば、道路に設置されている電柱に関する保守方法のオブジェクトを登録したいものとする。まず、ユーザP1が、電柱が設置されている現実空間の所定位置に、マーカの特徴に相当する模様が描かれたマーカ物体を設置する。ユーザP1がユーザ端末装置100-1を操作し、現実空間を撮像すると、マーカ物体に対応する画像MAが撮像される。ユーザ端末装置100-1は、例えば、ユーザP1が画像MAを指定する操作を受け付けたことに応じて、画像MAが占める領域をマーカとして認識する。さらに、ユーザ端末装置100-1は、ユーザP1の操作に基づいて、「保守方法」を示す文字情報を含む付箋画像OBを、拡張現実空間におけるオブジェクトとして設定する。マーカ(画像MA)に関するマーカ情報およびオブジェクト(付箋画像OB)に関するオブジェクト情報は、情報処理システム1に登録される。
例えば、ユーザP1とは違うユーザP2が電柱の「異常箇所」を登録したいものとする。まず、ユーザP2が、電柱が設置されている現実空間の所定位置にマーカ物体を設置する。ユーザP2が設置したマーカ物体は、例えば、ユーザP1が設置したマーカ物体とは模様が違う。ユーザP2がユーザ端末装置100-2を操作し、現実空間を撮像すると、マーカ物体に対応する画像MCが撮像される。ユーザ端末装置100-2は、例えば、ユーザP2が画像MCを指定する操作を受け付けたことに応じて、画像MCが占める領域をマーカとして認識する。さらに、ユーザ端末装置100-2は、ユーザP2の操作に基づいて、「異常箇所」を示す文字情報を含む付箋画像ODを、拡張現実空間におけるオブジェクトとして設定する。マーカ(画像MC)に関するマーカ情報およびオブジェクト(付箋画像OD)に関するオブジェクト情報は、情報処理システム1に登録される。
例えば、現実空間にマーカ(画像MA)に対応するマーカ物体が設置された場合、マーカ(画像MA)を撮像したユーザ端末装置100は、マーカ(画像MA)に対応するオブジェクト(付箋画像OB)を拡張現実空間において表示することができる。例えば、現実空間にマーカ(画像MC)に対応するマーカ物体が設置された場合、マーカ(画像MC)を撮像したユーザ端末装置100は、マーカ(画像MC)に対応するオブジェクト(付箋画像OD)を拡張現実空間において表示することができる。これにより、情報処理システム1は、異なるマーカ物体それぞれに対応して異なるオブジェクトそれぞれを登録および表示することができる。
図5は、実施形態の情報処理システム1においてオブジェクトを設定および表示する他の処理を説明するための図である。情報処理システム1は、所定の拡張現実空間において任意の平面形状のオブジェクトを設定および表示させ、平面形状のオブジェクトの編集を可能としてもよい。
情報処理システム1は、例えば、マーカ(MA)に紐付けして「異常箇所」に関するオブジェクト(OD)を設定する。さらに、情報処理システム1は、例えばユーザP1のユーザ端末装置100-1に対する操作に基づいて、拡張現実空間において平面形状のオブジェクトPaを設定する。情報処理システム1は、例えば、平面形状のオブジェクトPaが占める領域を、拡張現実空間におけるマーカ(MA)の相対位置として設定する。さらに情報処理システム1は、ユーザ端末装置100-1の操作に基づいて「伝言(t1):異常を確認してください。」という時刻t1の伝言を含む文字情報をオブジェクトPaに関する特徴として設定する。情報処理システム1は、平面形状のオブジェクトPaの相対位置および特徴を、オブジェクトPaに関するオブジェクト情報として情報処理システム1に登録する。
情報処理システム1は、例えば、ユーザP2が持つユーザ端末装置100-2によりマーカ(MA)に関するマーカ情報を受信した場合、マーカ(MA)に紐付けられたオブジェクト(OD)およびオブジェクトPaをユーザ端末装置100-2に表示させる。これにより、情報処理システム1は、ユーザP2に、電柱の異常を確認する必要があることを認識させることができきる。情報処理システム1は、例えばユーザP2によって異常が補修された場合、ユーザ端末装置100-2の操作に基づいて、オブジェクトPaに対し「伝言(t2):異常を補修しました。」という時刻t2の伝言を含む文字情報を追加することで、新たなオブジェクトPbを設定する。
<情報処理システム1の詳細な処理例>
図6は、実施形態の情報処理システム1における詳細な処理手順の一例を示す図である。なお、情報処理システム1における詳細な処理手順は、ユーザ端末装置100の処理、情報処理装置200におけるアプリケーション処理(AP処理)、および情報処理装置200およびデータベース管理装置300によるデータベース処理(DB処理)それぞれと、これらの処理間の関係について説明する。
まず、マーカを認識する処理について説明する。ユーザ端末装置100は、AR用アプリケーションを起動し、マーカ物体を撮影し、撮影画像を情報処理装置200に送信する(ステップS100)。情報処理装置200は、ユーザ端末装置100から受信した撮影画像に基づいて、マーカの特徴を受け付ける(ステップS102)。情報処理装置200は、例えば撮影画像から物体が占める領域を推定し、推定した領域の特徴を、マーカの特徴として抽出する。情報処理装置200は、データベース管理装置300に登録されたマーカの特徴と撮影画像から抽出したマーカの特徴とを比較し、双方のマーカの特徴が一致するか否かを判定する(ステップS104)。情報処理装置200は、双方のマーカの特徴が一致しない場合(ステップS104:NO)、ユーザ端末装置100に再撮影を要求する。これにより、ユーザ端末装置100は、再撮影を通知する(ステップS106)。情報処理装置200は、双方のマーカの特徴が一致した場合(ステップS104:YES)、一致したマーカ情報をデータベース管理装置300から抽出する(ステップS108)。以上の処理が、マーカを認識する処理である。
次に、オブジェクトを設置する処理について説明する。ユーザ端末装置100は、撮影画像内におけるオブジェクトの位置を選択する操作を受け付ける(ステップS110)。ユーザ端末装置100は、受け付けた撮影画像内位置を示す情報を情報処理装置200に送信する。情報処理装置200は、ステップS108において抽出したマーカの位置から、撮影画像内位置に対応するオブジェクトの拡張現実空間内位置までの相対距離を取得する。さらに、情報処理装置200は、マーカの位置に対するオブジェクトの傾きを取得する(ステップS112)。次に情報処理装置200は、マーカのキー情報を取得し(ステップS114)、取得したキー情報をユーザ端末装置100に送信する。
なお、ユーザ端末装置100は、オブジェクトの撮影画像内位置を示す情報に加えて、ユーザ端末装置100に内蔵されたジャイロセンサ等の動きセンサ(不図示)により検出したユーザ端末装置100の動きを表す情報を情報処理装置200に送信してよい。情報処理装置200は、ユーザ端末装置100の動きに基づいてオブジェクトの相対距離および傾きを決定することができる。これにより、情報処理装置200は、高い精度で拡張現実空間内におけるオブジェクトの相対距離および傾きを取得することができる。
次にユーザ端末装置100は、オブジェクトの特徴を入力する操作を受け付ける(ステップS116)。ユーザ端末装置100は、受け付けたオブジェクトの特徴を示す情報を情報処理装置200に送信し、情報処理装置200は、オブジェクトの特徴を示す情報を取得する(ステップS118)。情報処理装置200は、ステップS112において取得したオブジェクトの相対距離、傾き、およびステップS118において取得した特徴をデータベース管理装置300に送信し、データベース管理装置300において登録させる(ステップS120)。次に情報処理装置200は、マーカのキー情報に対応するオブジェクト情報を取得し(ステップS122)、ユーザ端末装置100に送信する。ユーザ端末装置100は、送信されたオブジェクト情報に基づいて表示を行うことで、オブジェクトを表示させる(ステップS124)。以上の処理が、オブジェクトを設置する処理である。
次に、設置したオブジェクトを他のユーザ端末装置100と共有する処理について説明する。ユーザ端末装置100は、まず、AR用アプリケーションを起動する(ステップS126)。ユーザ端末装置100は、マーカに関する情報を情報処理装置200に送信する。マーカに関する情報は、例えば、マーカを撮影した撮影画像であるが、これに限定されず、マーカのキー情報であってもよく、登録されたマーカの位置付近の位置情報であってもよい。ユーザ端末装置100は、登録されたマーカの位置付近の位置として、ユーザ端末装置100の位置情報を送信してもよい。情報処理装置200は、例えばマーカを撮影した撮影画像することで、マーカの特徴を受け付ける(ステップS128)。
次に情報処理装置200は、ユーザ端末装置100から受け付けたマーカの特徴とデータベース管理装置300に登録されたマーカの特徴とを比較し、双方のマーカの特徴が一致するか否かを判定する(ステップS130)。情報処理装置200は、双方のマーカの特徴が一致しない場合(ステップS130:NO)、ユーザ端末装置100に再撮影を要求する。これにより、ユーザ端末装置100は、再撮影を通知する(ステップS132)。情報処理装置200は、双方のマーカの特徴が一致した場合(ステップS130:YES)、一致したマーカ情報をデータベース管理装置300から抽出する(ステップS134)。情報処理装置200は、マーカに対応するオブジェクト情報をデータベース管理装置300から抽出し(ステップS136)、マーカのキー情報に対応するオブジェクト情報を取得し(ステップS138)、オブジェクト情報をユーザ端末装置100に送信する。ユーザ端末装置100は、情報処理装置200から受信したオブジェクト情報を用いてオブジェクトを表示する(ステップS140)。以上の処理が、オブジェクトを他のユーザ端末装置100と共有する処理である。
<第1実施形態の効果>
以上説明したように、第1実施形態の情報処理システム1によれば、マーカの特徴および位置を登録するマーカ登録部220と、マーカに対応して、マーカの位置に対する相対的な位置および特徴を持つオブジェクトを登録するマーカ登録部220と、マーカに関する情報をユーザ端末装置100から受け付けた場合に、ユーザ端末装置100から受け付けたマーカと一致するマーカに対応して登録されたオブジェクトの位置および特徴に基づいて、拡張現実空間においてマーカの位置を原点としてオブジェクトをユーザ端末装置100に表示させるための情報を抽出する情報抽出部240とを備える、情報処理装置200を実現することができる。情報処理システム1によれば、マーカに対応してオブジェクトを登録するので、異なるマーカを用いることによって同一の拡張現実空間に複数のマーカおよびオブジェクトを設定することができる。この結果、情報処理システム1によれば、オブジェクトを設定および閲覧するユーザにとっての利便性を高くすることができる。
また、情報処理システム1によれば、拡張現実空間における任意の平面、および任意の平面に配置されるオブジェクトの特徴を登録することができるので、オブジェクトを設定および閲覧するユーザにとっての利便性をさらに高くすることができる。
<第2実施形態>
以下、第2実施形態について説明する。第2実施形態の情報処理システム1は、ユーザ端末装置100により画像を撮影し、撮影画像を用いてマーカを登録する点で、第1実施形態とは異なる。図7は、第2実施形態における情報処理システム1における処理手順の一例を示すフローチャートである。図8は、第2実施形態の情報処理システム1においてマーカおよびオブジェクトの設定、およびオブジェクトを表示する処理を説明するための図である。
まず、ユーザ端末装置100は、ユーザP1の操作により、例えば電柱に設置された文字盤上の文字「ABC」を含む撮影画像を撮影する(ステップS20、図8(A))。ユーザP1は、一意なマーカの特徴にするために、例えば電柱に記載された電柱名や住所などを含む撮影画像を撮影することが望ましい。次にユーザ端末装置100は、撮影画像を情報処理装置200に送信し、情報処理装置200は、撮影画像に含まれる画像の特徴を抽出する。情報処理装置200は、例えば、撮影画像に含まれる電柱名や住所などを含む領域を画像の特徴として抽出する。情報処理装置200は、抽出した画像の特徴をユーザ端末装置100に送信する。ユーザ端末装置100は、情報処理装置200から受信した画像の特徴をマーカの特徴として登録する操作を受け付けた場合、情報処理装置200にマーカの特徴の登録を要求する。情報処理装置200は、登録の要求に従って、マーカの特徴をデータベース管理装置300に登録する(ステップS22)。さらに、ユーザ端末装置100および情報処理装置200は、第1実施形態と同様にオブジェクト情報をデータベース管理装置300に登録する(ステップS24、図8(B))。
ユーザ端末装置100-2は、ユーザP2の操作に従って電柱に設置された文字盤を撮影し(図8(C))、撮影画像を情報処理装置200に送信する。情報処理装置200は、ユーザ端末装置100-2から受信した撮影画像に、データベース管理装置300に登録したマーカの特徴が含まれていると認識したか否か判定する(ステップS26)。情報処理装置200は、マーカを認識しない場合(ステップS26:NO)、本フローチャートの処理を終了する。情報処理装置200は、マーカを認識した場合(ステップS26:YES)、認識したマーカに対応するオブジェクト情報をユーザ端末装置100-2に送信する。ユーザ端末装置100-2は、受信したオブジェクト情報を用いて、オブジェクトを表示する(ステップS28、図8(D))。
以上説明したように、第2実施形態の情報処理システム1によれば、ユーザ端末装置100により撮像された画像およびユーザ端末装置100の位置情報を受け付け、画像内における物体の特徴および位置をマーカの特徴および位置として登録することができる。また、情報処理システム1によれば、ユーザ端末装置100により撮像された画像を受け付け、画像内における物体の特徴と一致するマーカに対応して登録されたオブジェクトの位置および特徴に基づいて、拡張現実空間においてマーカの位置を原点としてオブジェクトをユーザ端末装置100に表示させるための情報を抽出することができる。これにより、情報処理システム1によれば、マーカ物体を用意する手間を省くことができる。
<第3実施形態>
以下、第3実施形態について説明する。第3実施形態の情報処理システム1は、マーカの位置を実空間における位置として登録し、実空間における地図情報にマーカおよびオブジェクトを重畳して表示させる点で、上述した実施形態とは異なる。図9は、第3実施形態における情報処理システム1において2次元地図に重畳されたマーカおよびオブジェクトの一例を示す図である。図10は、第3実施形態における情報処理システム1において3次元地図に重畳されたマーカおよびオブジェクトの一例を示す図である。図9および図10に示した地図は、例えば、室内空間において配置された家具の配置図であって、天井に配置された複数の照明器具に対応するオブジェクトとして設定された状態を示している。
ユーザ端末装置100により拡張現実空間においてマーカおよびオブジェクトを設定する操作を行った場合、情報処理装置200は、マーカおよびオブジェクトの拡張現実空間内位置に対応する実空間内位置を取得する。情報処理装置200は、取得した実空間内位置に対応する地図内位置にマーカおよびオブジェクトに対応する画像を配置する。
情報処理装置200は、例えば、図9および図10に示すような室内空間を示す地図画像に、丸形状の画像でマーカを示す画像を配置し、三角形状の画像でオブジェクトを示す画像を配置する。さらに、情報処理装置200は、複数のオブジェクトのうち文字情報が設定されたオブジェクトと、文字情報が設定されていないオブジェクトとで表示形態を区別してもよい。情報処理装置200は、例えば、室内の天井に埋め込まれた照明器具が複数存在する場合、交換等の対処済みの照明器具に対応するオブジェクトに「対処不要」という文字情報を設定し、交換等の対処が必要な照明器具に対応するオブジェクトに「要対処」という文字情報を設定する。なお、実施形態において、データベース管理装置300がマーカおよびオブジェクトと紐付けられる地図データを記憶しているが、これに限定されず、情報処理装置200内やユーザ端末装置100内の地図データを用いてよい。
図11は、第3実施形態の情報処理システム1における詳細な処理手順の一例を示す図である。なお、情報処理システム1における詳細な処理手順は、ユーザ端末装置100の処理、情報処理装置200におけるアプリケーション処理(AP処理)、および情報処理装置200およびデータベース管理装置300によるデータベース処理(DB処理)それぞれと、これらの処理間の関係について説明する。
まず、地図を表示する処理について説明する。ユーザ端末装置100は、マップ用アプリケーションを起動し、マーカ物体を撮影する。ユーザ端末装置100は、撮影画像およびユーザ端末装置100の位置情報を情報処理装置200に送信する(ステップS200)。情報処理装置200は、ユーザ端末装置100から受信した位置情報に基づいて、データベース管理装置300から地図データを抽出し(ステップS202)、地図データを取得する(ステップS204)。情報処理装置200は、例えば、例えばユーザ端末装置100の位置を中心とした所定範囲の地図データを抽出してよい。
情報処理装置200は、抽出した地図データの範囲に含まれるマーカ情報をデータベース管理装置300から抽出する(ステップS206)。情報処理装置200は、データベース管理装置300から、抽出したマーカ情報に含まれるキー情報に対応するオブジェクト情報を抽出する(ステップS208)。これにより、情報処理装置200は、地図データに対応したマーカ情報およびオブジェクト情報を取得する(ステップS210)。情報処理装置200は、取得したマーカ情報およびオブジェクト情報を、ユーザ端末装置100に送信する。ユーザ端末装置100は、情報処理装置200から受信したマーカ情報およびオブジェクト情報を用いて、マップ用アプリケーションで表示している地図にマーカおよびオブジェクトの位置を重畳して表示する(ステップS212)。以上の処理が、地図を表示する処理である。
次に、ユーザ端末装置100によるオブジェクトの更新処理について説明する。ユーザ端末装置100は、上述した実施形態と同様に、オブジェクト情報の更新を行う(ステップS220)。なお、ユーザ端末装置100は、例えば地図に重畳されたオブジェクトを選択することで変更対象のオブジェクトを指定し、オブジェクトの位置や傾き、オブジェクトの特徴の変更を行う。ユーザ端末装置100は、変更したオブジェクト情報を情報処理装置200に送信し、情報処理装置200は、オブジェクト情報を取得する(ステップS222)。情報処理装置200は、変更されたオブジェクト情報のオブジェクトに紐付けられたマーカのキー情報を取得し(ステップS224)、マーカのキー情報に対応付けられたオブジェクトの相対距離、傾き、および特徴を登録する(ステップS226)。情報処理装置200は、マーカのキー情報に対応したオブジェクト情報を取得し(ステップS228)、ユーザ端末装置100に送信する。これにより、ユーザ端末装置100は、更新されたオブジェクトを表示することができる(ステップS230)。なお、ユーザ端末装置100は、2次元地図を表示している場合には、緯度および経度に相当する方向でオブジェクトの位置を変更することができる。また、ユーザ端末装置100は、3次元地図を表示している場合には、緯度および経度に相当する方向に加えて、高さ方向においてもオブジェクトの位置を変更することができる。
次に、オブジェクトの更新を自動で行う処理について説明する。情報処理装置200は、例えば3秒といった所定期間ごとにユーザ端末装置100に要求し、ユーザ端末装置100から受信した位置を含む地図データを取り込む(ステップS240)。情報処理装置200は、取り込んだ地図データの範囲に含まれるマーカ情報をデータベース管理装置300から抽出する(ステップS242)。情報処理装置200は、データベース管理装置300から、抽出したマーカ情報に含まれるキー情報に対応するオブジェクト情報を抽出する(ステップS244)。これにより、情報処理装置200は、地図データに対応したマーカ情報およびオブジェクト情報を取得する(ステップS246)。情報処理装置200は、取得したマーカ情報およびオブジェクト情報を、ユーザ端末装置100に送信する。ユーザ端末装置100は、情報処理装置200から受信したマーカ情報およびオブジェクト情報を用いて、マップ用アプリケーションで表示している地図にマーカおよびオブジェクトの位置を重畳して表示する(ステップS248)。これにより、情報処理システム1は、ユーザの操作に応じて地図のスクロールや縮尺変更がされた場合であっても、ユーザの操作に追従してマーカおよびオブジェクトを表示させることができる。
以下、ユーザ端末装置100によりオブジェクトを設置または表示する処理を説明する。まず、ユーザ端末装置100は、情報処理装置200から、マーカを認識した位置の絶対座標(x0,y0,z0)を取得する。絶対座標(x0,y0,z0)の要素は、それぞれ、緯度、経度、および高さに相当する。次に、ユーザ端末装置100は、情報処理装置200から、オブジェクトを設置または表示する位置の相対座標(x1,y1,z1)を取得する。相対座標(x1,y1,z1)の要素は、拡張現実空間におけるマーカの位置を基準とした座標値であって、マーカの位置から離れるほど大きな値となる座標値である。次に、ユーザ端末装置100は、マーカの絶対座標(x0,y0,z0)から相対座標(x1,y1,z1)までの変化量(Δx,Δy,Δz)を取得する。Δx[メートル]はx1-x0により算出され、Δy[メートル]はy1-y0により算出され、Δz[メートル]はz1-z0により算出される。ユーザ端末装置100は、絶対座標からΔx,Δy,Δzの位置にオブジェクトを設置または表示する。
以下、データベース管理装置300の地図にオブジェクトを設置または表示する処理を説明する。まず、情報処理装置200は、マーカを設置した位置の絶対座標(x0,y0)を取得する。次に、情報処理装置200は、オブジェクトを設置または表示する位置の相対座標(x1,y1)を取得する。絶対座標(x0,y0)および相対座標(x1,y1)は、共に緯度および経度で表現される。次に、情報処理装置200は、マーカの絶対座標(x0,y0)から相対座標(x1,y1)までの変化量(Δx,Δy)を取得する。Δx[メートル]はx1-x0により算出され、Δy[メートル]はy1-y0により算出される。情報処理装置200は、絶対座標からΔx,Δyの位置にオブジェクトを設置または表示する。
以上説明したように、第3実施形態の情報処理システム1によれば、マーカの位置を実空間における絶対位置として登録し、オブジェクトの位置を拡張現実空間におけるマーカの位置に対する相対位置として登録し、実空間を表す地図情報にマーカおよびオブジェクトを重畳して、ユーザ端末装置100に表示させることができる。これにより、情報処理システム1によれば、地図上でオブジェクトの登録、閲覧、および編集を実行することができ、さらに利便性を高くすることができる。
<第4実施形態>
以下、第4実施形態について説明する。第4実施形態の情報処理システム1は、現実空間における特徴に基づいてオブジェクトを表示する点で、上述した実施形態と異なる。以下、相違点を中心に説明する。図12は、第4実施形態におけるユーザ端末装置100Aの構成の一例を示すブロック図である。ユーザ端末装置100Aは、例えば、例えば、撮像部102と、表示部104と、制御部106と、送信部108と、受信部110と、記憶部112と、センサ114とを備える。
送信部108および受信部110は、例えば、情報処理装置200との間で通信を行う通信インターフェースである。送信部108は、マーカに関する情報を情報処理装置200に送信する。受信部110は、マーカ情報およびオブジェクト情報を情報処理装置200から受信する。
撮像部102は、ユーザの操作に従って現実空間を撮像し、映像データを表示部104および記憶部112に供給する。撮像部102は、特徴抽出部102aを備える。特徴抽出部102aは、例えば映像データに各種処理を行うIC等であり、汎用の画像処理ライブラリを実行することにより実現される。特徴抽出部102aは、映像データに所定の処理を施すことにより映像データに含まれる実空間の特徴を抽出する。特徴抽出部102aは、例えば、画像内のエッジを、実空間の特徴として抽出する。特徴抽出部102aは、実空間の特徴を表す情報、および実空間の特徴の画像内位置を表す情報を記憶部112に供給する。
記憶部112は、ユーザ端末装置100A内のROMやRAM等のメモリである。記憶部112は、空間情報を記憶する。空間情報は、例えば、撮像部102により撮像された映像データ、実空間の特徴を表す情報、および実空間の特徴の画像内位置を表す情報を含む。記憶部112は、受信部110により受信されたマーカ情報およびオブジェクト情報を記憶する。記憶部112は、マッピング情報を記憶する。マッピング情報は、例えば、オブジェクトと実空間の特徴との対応を表す情報である。
センサ114は、ユーザ端末装置100Aの挙動に基づく信号を検出し、制御部106に供給する。制御部106は、センサ114からの信号に基づいて、ユーザ端末装置100Aの位置、向きや傾きを算出する。
制御部106は、例えば、表示制御部120と、マッピング部122とを備える。表示制御部120およびマッピング部122は、例えばCPU等がプログラムを実行することにより実現される機能部である。表示制御部120は、センサ114から取得した信号、空間情報、マーカ情報、オブジェクト情報、およびマッピング情報に基づいて、拡張現実空間にオブジェクトを表示させる。特に、表示制御部120は、拡張現実空間における実空間の特徴に基づいてオブジェクトの表示を制御する。マッピング部122は、マッピング情報を生成する。
図13は、実空間の特徴に基づいてオブジェクトを表示させる処理を説明するための図である。実空間の特徴の位置とオブジェクトとは、マッピング情報により対応付けられる。例えば、拡張現実空間における建築物のエッジ部分で検出された実空間の特徴の位置と、オブジェクトの位置とが重複しているものとする。ユーザ端末装置100Aは、拡張現実空間を撮像部102により撮像された映像により表示している状態において、表示している拡張現実空間に建築物のエッジ部分が含まれる場合、当該建築物のエッジ部分に重複するようにオブジェクトを表示させる。これにより、ユーザ端末装置100Aは、センサ114により検出したユーザ端末装置100Aの挙動に加えてまたは代えて、実空間の特徴の位置とオブジェクトの位置との対応に基づいてオブジェクトを表示させることができる。
図14は、第4実施形態におけるユーザ端末装置100Aの動作手順を示すフローチャートである。
先ず、ユーザ端末装置100Aは、実空間を撮像する(ステップS300)。撮像して得た映像データは、記憶部112に記憶される。次に、ユーザ端末装置100Aは、映像データを用いて実空間の特徴を抽出する(ステップS302)。ユーザ端末装置100Aは、実空間の特徴を表す情報と実空間の特徴の位置情報とを対応づける第1のマッピングを行う(ステップS304)。例えば、ユーザ端末装置100Aは、実空間の特徴を表す情報と実空間の特徴の位置情報とを一対一に対応付けたテーブルデータを作成する。
次にユーザ端末装置100Aは、マーカ物体を撮影し、撮影画像を情報処理装置200に送信する(ステップS306)。情報処理装置200は、撮影画像から抽出したマーカの特徴と一致する特徴を持つマーカのマーカ情報、およびオブジェクト情報を取得し、ユーザ端末装置100に送信する。ユーザ端末装置100は、情報処理装置200からマーカ情報およびオブジェクト情報を受信する(ステップS308)。なお、図14においては、ステップS300~ステップS304の処理後にステップS306およびステップS308を実行したが、これに限定されず、ステップS306、ステップS308、ステップS300、ステップS302、ステップS304の順で実行してもよい。
ユーザ端末装置100Aは、オブジェクトの位置と実空間の位置とを対応づける第2のマッピングを行う(ステップS310)。次にユーザ端末装置100Aは、オブジェクトと実空間の特徴とを対応付ける第3のマッピングを行う(ステップS312)。このとき、ユーザ端末装置100Aは、マーカの実空間の位置とオブジェクト情報により示されたマーカに対する相対位置とからオブジェクトの実空間の位置を計算することで、オブジェクトの位置を実空間の位置にマッピングし、オブジェクト情報に含まれるオブジェクトの特徴を実空間の位置にマッピングする。これにより、ユーザ端末装置100Aは、マッピング情報として、オブジェクトと実空間の特徴との対応を記憶部112に記憶する。
次にユーザ端末装置100Aは、撮像部102により撮像していて表示部104に表示させている拡張現実空間に、オブジェクトに対応付けられた実空間の特徴が存在するか否かを判定し(ステップS314)、拡張現実空間にオブジェクトに対応付けられた実空間の特徴が存在しない場合には(ステップS314:NO)、オブジェクトを表示させない。ユーザ端末装置100Aは、拡張現実空間にオブジェクトに対応付けられた実空間の特徴が存在する場合(ステップS314:YES)、当該実空間の特徴に対応付けられたオブジェクトを表示させる(ステップS316)。
以上説明した第4実施形態のユーザ端末装置100Aによれば、撮像部102と、マーカの特徴に関する情報を情報処理装置200に送信する送信部108と、マーカに対応するオブジェクトの相対位置および特徴を含む情報を情報処理装置200から受信する受信部110と、受信部110により受信された情報に基づいて、オブジェクトの位置と撮像部102により撮像された画像に基づいて抽出された実空間の特徴との対応を記憶する記憶部112と、記憶部112に記憶された対応に基づいて、拡張現実空間においてマーカの位置を原点としたオブジェクトを表示する表示部104と、を備える、端末装置を実現することができる。また、ユーザ端末装置100Aによれば、記憶部112に記憶されたオブジェクトの相対位置に対応した実空間の特徴が拡張現実空間に存在する場合、当該存在する実空間の特徴の位置に対応する拡張現実空間の位置にオブジェクトを表示する。
このユーザ端末装置100Aによれば、オブジェクトの位置と実空間の特徴との対応に基づいて、オブジェクトに対応した実空間の特徴が存在することを条件にオブジェクトを表示する。これにより、ユーザ端末装置100Aは、スマートフォン、タブレット等といったユーザに保持された端末を用いる場合であっても、オブジェクトの表示位置の精度を高くすることができる。また、ユーザ端末装置100Aによれば、オブジェクトの表示位置を安定化させることができる。
ユーザ端末装置100Aにおける内部のセンサ114は、ユーザ端末装置100Aがユーザの挙動により短時間であらゆる方向に振動する場合がある。この場合、ユーザ端末装置100Aにより検出しているユーザ端末装置100Aの位置や傾きなどに大きな誤差が発生する可能性があり、センサ114の検出のみに基づいてオブジェクトの表示位置を決定すると、オブジェクトの表示位置の精度が低下したり、安定して同じ位置にオブジェクトを表示することができない可能性が高くなる。これに対し、ユーザ端末装置100Aは、センサ114の検出に基づかずに実空間の特徴に基づいてオブジェクトを表示させることができる。すなわちユーザ端末装置100Aは、センサ114の検出位置がオブジェクトの相対位置に一致しなくても、実空間の特徴を見つけることができれば正確な位置にオブジェクトを表示することができる。この結果、センサ114の検出位置に誤差が発生しても、オブジェクトの表示位置の精度および安定性を向上させることができる。
なお、第4実施形態において、ステップS300の実空間の撮影は、オブジェクトを表示させる前やマーカを撮影する前に行わなくてよい。ユーザ端末装置100Aは、センサ114の検出に基づいてオブジェクトを最初に表示させた時に、実空間の特徴を読み取り、オブジェクトと実空間の特徴とを対応付けてよい。ただし、マーカの撮影やオブジェクトの表示よりも前に実空間を撮影した方が、ユーザ端末装置100Aのセンサ114の誤差を少なくなるように丁寧に撮影することができることが多いので、オブジェクトの表示位置の精度を高くすることができる。
また、ユーザ端末装置100Aによれば、センサ114により出力された信号に基づく実空間の位置と、撮像された画像に基づく実空間の特徴とを対応付ける第1のマッピングと、受信部110により受信した情報に基づくオブジェクトの位置と実空間の位置とを対応付ける第2のマッピングと、オブジェクトと実空間の特徴とを対応付ける第3のマッピングとを行うことで、記憶部112に対応を記憶させる、マッピング部122を備える。これにより、ユーザ端末装置100Aによれば、記憶部112に記憶された対応に基づいてオブジェクトを表示させることができる。
さらに、ユーザ端末装置100Aによれば、撮像部102により撮像された画像、センサ114により出力された信号に基づく実空間の位置と、撮像部102により撮像された画像に基づく実空間の特徴との対応を記憶するので、情報処理装置200やデータベース管理装置300にユーザ端末装置100A固有の空間的な情報を記憶する必要が無い。したがって、ユーザ端末装置100Aによれば、オブジェクトの表示位置の精度および安定性を向上させるために情報処理装置200やデータベース管理装置300の負担を増加させることがない。
さらに、ユーザ端末装置100Aによれば、ユーザ端末装置100A内部のGPS処理部によりオブジェクトを表示させるための実空間が変更したことを検出した場合に、記憶部112に記憶された対応(マッピング情報)を更新することが望ましい。これにより、ユーザ端末装置100Aは、実空間が変更しても、オブジェクトの表示位置の精度および安定性を高くすることができる。
また、ユーザ端末装置100Aは、撮像部102により撮像された画像に基づいて実空間の特徴が変更した場合に、オブジェクトに対応した実空間の特徴を更新してもよい。例えば、実空間の場所Aに対応した特徴Aとオブジェクトaが対応付けられている状態から、実空間の場所Aに存在する家具等が移動して特徴Bに変更した場合、オブジェクトaを特徴Bに更新してもよい。これにより、ユーザ端末装置100Aは、実空間内の状況が変更しても、オブジェクトの表示位置の精度および安定性が低下することを抑制することができる。
<その他の実施形態>
上述した実施形態は、保守方法や異常箇所をオブジェクトの特徴として設置または表示する一例を説明したが、その他の用途でオブジェクトを設置または表示することができる。情報処理システム1は、例えば、ロッカーや冷蔵庫等の収容箱に収容された物品名や収容位置を表す情報をオブジェクトの特徴として登録してよい。これにより、情報処理システム1は、収容箱に貼り付けられたマーカ物体を撮像するだけで、収容箱を開けなくても、収容物を確認することができる。
情報処理システム1は、実空間における公共設備にマーカ物体を設置し、設備の機能や利用条件などの情報をオブジェクトの特徴として設定することで、マーカ物体を撮像するだけで公共設備の情報を提供することができる。情報処理システム1は、実空間における店舗や企業サービスなどの個人の設備にマーカ物体を設置し、サービス内容や広告などの情報をオブジェクトの特徴として設定することで、マーカ物体を撮像するだけで個人の設備の情報を提供することができる。情報処理システム1は、例えば、ユーザの役割(保守作業員や補修員)、使用言語や年代別に区別された複数のマーカ物体を設備に設置しておき、使用言語や年代ごとに異なるオブジェクトの特徴を設定することにより、ユーザが望む言語や年代に合った設備の情報を提供することができる。
なお、各実施形態および変形例について説明したが、一例であってこれらに限られず、例えば、各実施形態や各変形例のうちのいずれかや、各実施形態の一部や各変形例の一部を、他の1または複数の実施形態や他の1または複数の変形例と組み合わせて本発明の一態様を実現させてもよい。
なお、本実施形態におけるユーザ端末装置100や情報処理装置200の各処理を実行するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、当該記録媒体に記録されたプログラムを、コンピュータシステムに読み込ませ、実行することにより、ユーザ端末装置100や情報処理装置200に係る上述した種々の処理を行ってもよい。
なお、ここでいう「コンピュータシステム」とは、OSや周辺機器などのハードウェアを含むものであってもよい。また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリなどの書き込み可能な不揮発性メモリ、CD-ROMなどの可搬媒体、コンピュータシステムに内蔵されるハードディスクなどの記憶装置のことをいう。
さらに「コンピュータ読み取り可能な記録媒体」とは、インターネットなどのネットワークや電話回線などの通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic
Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、このプログラムを記憶装置などに格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。
ここで、プログラムを伝送する「伝送媒体」は、インターネットなどのネットワーク(通信網)や電話回線などの通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
以上、本発明の実施形態について図面を参照して詳述したが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計なども含まれる。例えば、本発明の実施形態として、ユーザ端末装置100だけで構成される場合もある。
100 ユーザ端末装置
102 撮像部
104 表示部
106 制御部
200 情報処理装置
210 API部
220 マーカ登録部
230 オブジェクト登録部
240 情報抽出部
300 データベース管理装置

Claims (6)

  1. 撮像部と、
    マーカの特徴に関する情報を情報処理装置に送信する送信部と、
    前記マーカに対応するオブジェクトの相対位置および特徴を含む情報を前記情報処理装置から受信する受信部と、
    前記受信部により受信された情報に基づいて、前記オブジェクトの位置と前記撮像部により撮像された画像に基づいて抽出された実空間の特徴との対応を記憶する記憶部と、
    前記記憶部に記憶された前記対応に基づいて、拡張現実空間において前記マーカの位置を原点としたオブジェクトを表示する表示部と、
    端末装置の挙動に基づく信号を検出するセンサと、
    前記センサにより出力された信号に基づく実空間の位置と、前記撮像された画像に基づく実空間の特徴とを対応付ける第1のマッピングと、前記受信部により受信された情報に基づくオブジェクトの位置と実空間の位置とを対応付ける第2のマッピングと、前記オブジェクトと実空間の特徴とを対応付ける第3のマッピングとを行うことで、前記記憶部に前記対応を記憶させる、マッピング部と、
    を備える、端末装置。
  2. 前記表示部は、前記記憶部に記憶された前記オブジェクトの相対位置に対応した実空間の特徴が前記拡張現実空間に存在する場合、当該存在する実空間の特徴の位置に対応する前記拡張現実空間の位置に前記オブジェクトを表示する、請求項1に記載の端末装置。
  3. 前記記憶部は、前記撮像部により撮像された画像、前記センサにより出力された信号に基づく実空間の位置と、前記撮像部により撮像された画像に基づく実空間の特徴との対応を記憶する、請求項に記載の端末装置。
  4. 前記端末装置が前記オブジェクトを表示させるための実空間が変更した場合、前記記憶部に記憶された前記対応を更新する、
    請求項1からのうち何れか1項に記載の端末装置。
  5. 端末装置が、実空間を撮像するステップと、
    前記端末装置が、マーカの特徴に関する情報を情報処理装置に送信するステップと、
    前記端末装置が、前記マーカに対応するオブジェクトの相対位置および特徴を含む情報を前記情報処理装置から受信するステップと、
    前記端末装置が、前記受信された情報に基づいて、前記オブジェクトの位置と前記撮像された画像に基づいて抽出された実空間の特徴との対応を記憶部に記憶するステップと、
    前記端末装置が、前記記憶された前記対応に基づいて、拡張現実空間において前記マーカの位置を原点としたオブジェクトを表示するステップと、
    前記端末装置が、前記端末装置の挙動に基づく信号をセンサにより検出するステップと
    前記端末装置が、前記センサにより出力された信号に基づく実空間の位置と、前記撮像された画像に基づく実空間の特徴とを対応付ける第1のマッピングと、前記受信された情報に基づくオブジェクトの位置と実空間の位置とを対応付ける第2のマッピングと、前記オブジェクトと実空間の特徴とを対応付ける第3のマッピングとを行うことで、前記記憶部に前記対応を記憶させるステップと、
    を含む情報処理方法。
  6. 端末装置のコンピュータに、
    実空間を撮像するステップと、
    マーカの特徴に関する情報を情報処理装置に送信するステップと、
    前記マーカに対応するオブジェクトの相対位置および特徴を含む情報を前記情報処理装置から受信するステップと、
    前記受信された情報に基づいて、前記オブジェクトの位置と前記撮像された画像に基づいて抽出された実空間の特徴との対応を記憶部に記憶するステップと、
    前記記憶された前記対応に基づいて、拡張現実空間において前記マーカの位置を原点としたオブジェクトを表示するステップと、
    前記端末装置の挙動に基づく信号をセンサにより検出するステップと
    前記センサにより出力された信号に基づく実空間の位置と、前記撮像された画像に基づく実空間の特徴とを対応付ける第1のマッピングと、前記受信された情報に基づくオブジェクトの位置と実空間の位置とを対応付ける第2のマッピングと、前記オブジェクトと実空間の特徴とを対応付ける第3のマッピングとを行うことで、前記記憶部に前記対応を記憶させるステップと、
    を実行させる、プログラム。
JP2020133917A 2020-08-06 2020-08-06 端末装置、情報処理方法、およびプログラム Active JP7491770B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020133917A JP7491770B2 (ja) 2020-08-06 2020-08-06 端末装置、情報処理方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020133917A JP7491770B2 (ja) 2020-08-06 2020-08-06 端末装置、情報処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2022030135A JP2022030135A (ja) 2022-02-18
JP7491770B2 true JP7491770B2 (ja) 2024-05-28

Family

ID=80323917

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020133917A Active JP7491770B2 (ja) 2020-08-06 2020-08-06 端末装置、情報処理方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP7491770B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016115268A (ja) 2014-12-17 2016-06-23 富士通株式会社 情報処理方法、情報処理プログラム、及び情報処理装置
JP2021125053A (ja) 2020-02-06 2021-08-30 エヌ・ティ・ティ・コムウェア株式会社 情報処理装置、プログラム、情報処理システム、および情報処理方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016115268A (ja) 2014-12-17 2016-06-23 富士通株式会社 情報処理方法、情報処理プログラム、及び情報処理装置
JP2021125053A (ja) 2020-02-06 2021-08-30 エヌ・ティ・ティ・コムウェア株式会社 情報処理装置、プログラム、情報処理システム、および情報処理方法

Also Published As

Publication number Publication date
JP2022030135A (ja) 2022-02-18

Similar Documents

Publication Publication Date Title
JP6453501B1 (ja) 複合現実システム、プログラム、方法、及び携帯端末装置
JP5334911B2 (ja) 3次元地図画像生成プログラムおよび3次元地図画像生成システム
US8675995B2 (en) Precisely locating features on geospatial imagery
Simon et al. A mobile application framework for the geospatial web
US8121353B2 (en) Apparatus, system and method for mapping information
US9786010B2 (en) Homeowners insurance application process using geotagged photos
US20160163107A1 (en) Augmented Reality Method and System, and User Mobile Device Applicable Thereto
US9171011B1 (en) Building search by contents
JP2013534662A (ja) 場所に基づくデータのユーザーフィードバックを通じた拡張と修正
KR20120061110A (ko) 증강 현실 사용자 인터페이스 제공 장치 및 방법
CN102375741A (zh) 用于显示增强现实窗口的用户设备和方法
KR101738443B1 (ko) 증강 현실 콘텐츠를 스크리닝하는 방법, 장치, 및 시스템
US20090297067A1 (en) Apparatus providing search service, method and program thereof
JP4993637B2 (ja) エアタグ表示システム
JP2019133642A (ja) 複合現実システム、プログラム、方法、及び携帯端末装置
WO2019164830A1 (en) Apparatus, systems, and methods for tagging building features in a 3d space
JP6607987B2 (ja) 情報提供システム、サーバ装置、及び情報提供方法
JP2011118687A (ja) オブジェクト管理装置及びオブジェクト管理方法
JP7001711B2 (ja) カメラ撮影画像を用いる位置情報システム、及びそれに用いるカメラ付き情報機器
US20190005574A1 (en) System and method for matching a service provider to a service requestor
JP7491770B2 (ja) 端末装置、情報処理方法、およびプログラム
JP2021125053A (ja) 情報処理装置、プログラム、情報処理システム、および情報処理方法
US20220198764A1 (en) Spatially Aware Environment Relocalization
KR20170000287A (ko) 지오 태깅 방법, 지오 태깅 장치 및 이를 수행하는 프로그램을 기록하는 기록매체
KR20150021168A (ko) 스마트기기를 이용한 현장 조사 시스템

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20200904

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240516

R150 Certificate of patent or registration of utility model

Ref document number: 7491770

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150