JP2013196616A - 情報端末装置、情報処理方法 - Google Patents
情報端末装置、情報処理方法 Download PDFInfo
- Publication number
- JP2013196616A JP2013196616A JP2012065867A JP2012065867A JP2013196616A JP 2013196616 A JP2013196616 A JP 2013196616A JP 2012065867 A JP2012065867 A JP 2012065867A JP 2012065867 A JP2012065867 A JP 2012065867A JP 2013196616 A JP2013196616 A JP 2013196616A
- Authority
- JP
- Japan
- Prior art keywords
- information
- image
- unit
- terminal device
- light source
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
【課題】リアル(実写画像)とバーチャル(合成用CG)とのマッチングの際に一致度を評価するためのデータベース側画像特徴などを得るためのCG(評価用CG)における光源等の影響を考慮することによって実際に撮影された画像から得られる画像特徴との一致度を改善するためのAR情報処理技術を提供するとともに利用者にとって操作性を損なわず、違和感のない映像の提供を端末に行う。
【解決手段】撮像された画像もしくは画像から生成される画像特徴と緯度経度を含む位置情報と日付時刻情報とを含むAR情報要求に基づいて、AR情報を取得する情報端末装置であって、前記位置情報と前記日付情報と配信装置から取得した天候情報と評価用CGモデルデータと合成用CGモデルデータに基づいて、表示部に表示するCGを描画し画像を作成するCG描画処理部と、描画したCGとAR情報とを合成して表示するAR画像表示制御部と、を有することを特徴とする情報端末装置。
【選択図】図5A
【解決手段】撮像された画像もしくは画像から生成される画像特徴と緯度経度を含む位置情報と日付時刻情報とを含むAR情報要求に基づいて、AR情報を取得する情報端末装置であって、前記位置情報と前記日付情報と配信装置から取得した天候情報と評価用CGモデルデータと合成用CGモデルデータに基づいて、表示部に表示するCGを描画し画像を作成するCG描画処理部と、描画したCGとAR情報とを合成して表示するAR画像表示制御部と、を有することを特徴とする情報端末装置。
【選択図】図5A
Description
本発明は、情報処理技術に関し、より詳細には、拡張現実(Augumented Reality: 以下ARと称する。)に関連する情報処理技術に関する。
ARとは、例えば、街の景色や陳列された商品など、実際に目にしているリアルな世界にバーチャルな情報を重ねて現実の「知覚体験」を拡張する手法である。
最近のスマートフォンやタブレットPCなどの携帯端末の利用の拡がりに伴って、現実の世界にバーチャルな情報を重畳して、現実の知覚体験を拡張するARが、より身近なものとなってきている。
例えば、実空間をAR端末で撮影した画像上にコンピュータグラフィック(CG)描画された画像としてのAR情報を表示し操作することで、ナビゲーションなどのサービスを提供することが提案されている。
下記特許文献1は、撮像された画像から生成されたCGによる特徴データベース(DB)とAR端末撮像画像等の情報から得られるCGによる特徴との一致を評価し、AR情報を提供する技術が提案されている。
また、下記特許文献2は、3次元地図を利用した場合を含め、撮影画像により時間帯や天候(気象)、季節に応じた画像特徴を収集し、地図データベースを分類、更新、構築するとともに、撮像画像等をDBに蓄え、利用者AR端末から取得した撮像画像の画像特徴との一致を評価することでAR情報を提供する技術が提案されている。
また、下記特許文献3には、光源方向を推定することで、ARにおいて合成される仮想物体としてのAR情報であるCGオブジェクト画像に関し、CGオブジェクト画像の表示品質を改善する技術が提案されている。
また、非特許文献1としてはAR情報であるCGオブジェクト画像の光源推定と陰影の表現についての技術が論述されている。
「画像の認識・理解シンポジウム」MIRU2004年7月,現実環境の照明条件と奥行きの実時間推定による仮想物体の陰影表現が可能な拡張現実感,神原 他
特許文献1に記載の技術や特許文献2に記載の技術は、光源の影響を考慮していないばかりでなく、刻々と変わる天候や時間による光源の変化にともなう画像等をすべてDBに納めなければならないという課題がある。また、一般的に、3次元地図は、外観形状のみの情報であるため、撮影画像と色が異なるという問題がある。これを改善するために、モデルデータにテクスチャを貼るという方法もあるが、テクスチャ画像が昼間に撮影された画像を基準にしたものであることが多く、光源の影響を考慮しないと、影の方向や照明の具合などが実際のAR端末から送られる撮像画像とは一致せず、ARの位置特定の際に不具合が生じるという課題があった。また、操作においては通信遅延や周辺画像特徴などの認識誤差により操作性が少なからず損なわれるという課題があった。
また、特許文献3や非特許文献1に記載の技術では、ARにおいて合成されるCGの光源の影響を推定するものの、リアル(実写画像)にバーチャル(合成用CG)を重ねる際の画像表現において合成される側のAR情報としてのバーチャルなCGの光源を考慮するものである。すなわち、これらの発明は、推定した光源に基づいて合成表示用のAR情報としてのCGを作成する方法についての発明である。
一方、AR技術においては、現在の端末の撮像画像(実写画像)とバーチャルなAR情報(合成用CGなど)を合成する位置を特定するためのマッチング(一致度、類似度、距離計算)の際に、現在のAR端末の撮像画像とDBから取得したデータに基づいて生成される評価用CG画像やDBから取得される撮像画像との一致度を評価するためにDBから取得したデータに基づいて生成もしくはDBから取得される画像(CGを含む)における光源等の影響を考慮しないとAR情報提供がうまくいかないという課題がある。
より具体的には、拡張現実は主に次のステップにより実施される。
1.AR装置によるGPS、ジャイロ、撮像画像などに応じた拡張現実実施場所の特定
2.AR装置による撮像画像における拡張現実情報の表示位置の特定
3.特定されたAR装置へのAR情報(合成用CGなど)の撮像画像に対する合成もしくは多重表示
1.AR装置によるGPS、ジャイロ、撮像画像などに応じた拡張現実実施場所の特定
2.AR装置による撮像画像における拡張現実情報の表示位置の特定
3.特定されたAR装置へのAR情報(合成用CGなど)の撮像画像に対する合成もしくは多重表示
このうち、ステップ1と2は特許文献1や特許文献2のような方法と本願のような方法があり、より具体的には、
a.撮像された画像からCGを生成しDBに蓄え、DBの内容と利用者AR端末の撮像画像から生成されたCGとを特徴情報やVQコードなどにより比較して類似する箇所に対しAR情報の提供を行う特許文献1。
b.撮像された画像をDBに蓄え、DBの内容と利用者AR端末の撮像画像とを特徴情報やVQコードなどにより比較して類似する箇所に対しAR情報の提供を行う特許文献2。
c.撮像された画像から生成もしくは取得された情報に基づきCG(評価用CG)の部品データを生成しDBに蓄え、DBに基づいて生成されたCG(評価用CG)と利用者AR端末の撮像画像とを特徴情報やVQコードなどにより比較して類似する箇所に対しAR情報の提供を行う本願。
といった、複数の方法が検討されている。
a.撮像された画像からCGを生成しDBに蓄え、DBの内容と利用者AR端末の撮像画像から生成されたCGとを特徴情報やVQコードなどにより比較して類似する箇所に対しAR情報の提供を行う特許文献1。
b.撮像された画像をDBに蓄え、DBの内容と利用者AR端末の撮像画像とを特徴情報やVQコードなどにより比較して類似する箇所に対しAR情報の提供を行う特許文献2。
c.撮像された画像から生成もしくは取得された情報に基づきCG(評価用CG)の部品データを生成しDBに蓄え、DBに基づいて生成されたCG(評価用CG)と利用者AR端末の撮像画像とを特徴情報やVQコードなどにより比較して類似する箇所に対しAR情報の提供を行う本願。
といった、複数の方法が検討されている。
そして、それぞれの構成において点群処理、線群処理、面群処理、といった形状などの比較がなされ、画像特徴には色特徴、輝度特徴、彩度特徴、色相特徴、形状特徴、輪郭特徴、色空間特徴などの各種特徴情報がある。
なお、特許文献3や非特許文献1は上述の3番目のステップに関する技術である。
なお、特許文献3や非特許文献1は上述の3番目のステップに関する技術である。
このAR端末の撮像画像とDB内容に基づく位置や場所のマッチング方法は特許文献1であれば撮像画像より生成されたCGに基づくデータベースとAR端末が現在撮像している撮像画像から生成されるCGとのマッチングにより、適切なラベルを利用者に提示している。特許文献2であれば撮像画像が位置、天候、時刻、季節などにより分類された画像データベースの画像特徴とAR端末で現在撮像されている撮像画像から生成される画像特徴とのマッチングにより、適切なラベルをはじめとする各種情報が表示される。特許文献3であれば撮像画像の位置と方向と時刻に基づいて推定される太陽光源方向に合わせた合成用のバーチャル画像としてのCGを生成し実画像に対して合成する。
しかしながら、いずれの先行文献もデータベース側画像特徴などとAR端末の撮像画像から生成された画像特徴などのマッチングにおいて、データベース側画像などがCGに基づいて構成される場合の光源の変化にともなうCG(評価用CG)の変化は想定されていない。
本発明は、前記2のステップにおいてリアル(実写画像)とバーチャル(合成用CG)とのマッチングの際に一致度を評価するためのデータベース側画像特徴などを得るためのCG(評価用CG)における光源・天候等の影響を考慮することによって実際に撮影された画像から得られる画像特徴との一致度を改善するためのAR情報処理技術を提供するとともに利用者にとって操作性を損なわず、違和感のない映像の提供を端末に行うことを目的とする。さらに端末側での表示のずれが生じないように画像生成・演算方法を改善する。
本発明は、利用者AR端末で撮像された実写画像とDBに記録されたデータに基づいて生成されたCG(評価用CG)とを画像情報や特徴情報、VQコードなどといった画像等により比較し、両者のうち類似する箇所に対しAR情報の提供を行うことを特徴とする。なお、前記実写画像から抽出もしくは取得された情報に基づき、CGの部品データを生成しDBを更新してもよい。
本発明の一観点によれば、撮像された実写画像もしくは実写画像から抽出される画像特徴やVQコードなどと緯度経度を含む位置情報と日付時刻情報とを含むAR情報要求に基づいて、AR情報(合成用CGなど)を作成するARサーバであって、前記位置情報と天候情報取得部により取得した気象情報とに基づいて、CG画像の作成を依頼するAR情報要求処理情報作成部と、前記AR情報要求処理情報作成部により作成したAR情報要求処理情報により、光源の影響を考慮したCG(評価用CG)の作成をARクラウドCG描画装置に依頼し、返信として得られたCG(評価用CG)などと、前記実写画像の一致度を評価する照合部と、を有し、前記照合部による照合結果として得られたAR情報(合成用CGなど)を、前記画像に情報支援として合成して表示させることを特徴とするARサーバが提供される。
また、撮像された実写画像から抽出もしくは取得された情報に基づきCG(評価用CG)の部品データを生成しDBに蓄え、DBに基づいて生成されたCG(評価用CG)と利用者AR端末の撮像画像とを画像同士自体や特徴情報、VQコードなどの画像等により比較して類似する箇所に対しAR情報(合成用CGなど)と評価用CGが合成された画像の提供を行う。この際、生成された画像を直接端末に送るばかりではなく、評価用CGと合成用CGに用いるモデルデータ(ポリゴン情報、テクスチャ情報、UVマップ情報の類)を利用者端末に送信し適宜利用者端末で描画生成してもよい。
前記AR情報要求処理情報は、太陽又は月を光源として、前記位置情報と前記日付時刻情報とに依存する前記光源の角度及び照度を光源パラメータとして有しており、前記画像の被写体である建造物の位置と、モデルデータと、高さとを有するデータベースを参照し、前記位置情報と前記建造物の位置とが一致する建造物の高さと前記光源パラメータとに基づいて、前記ARクラウドCG描画装置に前記建造物の影のCGを作成させることが好ましい。
ここで、前記ARクラウドCG描画装置によるCG(評価用CG)の作成の際に、前記建造物IDと、前記建造物の立っている標高と、モデルデータと、前記建造物の周辺の前記光源による影に影響を与える隣接情報と、を有する地形データベースを参照して、前記建造物の影のCGを作成させることが好ましい。
また、前記ARクラウドCG描画装置によるCG(評価用CG)の作成の際に、前記位置情報をキーとして、前記建造物の周辺の地物の高さと、モデルデータと、地物の面積とを保持する地物データベースを参照して、前記光源による前記建造物の影に影響を与える前記地物の影響を求めることが好ましい。
前記位置情報は、GPS情報や電子コンパス情報、加速度センサ情報、ジャイロセンサ情報を含む前記AR端末装置の位置や視線方向を特定するための情報群のうちの少なくともいずれか1であることが好ましい。
本発明は、情報支援のための付加情報を付加する付随情報付加部を有することを特徴とする上記ARサーバであっても良い。ここで、付加情報は、例えば、インターネットにより取得した建造物で提供される料理の情報や、イベントの情報、口コミ情報、日替わり情報、商品情報、価格・在庫情報などといったサービス情報などである。
前記画像特徴として、画像から抽出される画像特徴や画像VQコードもしくはそれらの群情報としての面群情報、点群情報、線群情報を用いることを特徴とする上記ARサーバであっても良い。
また、本発明は、上記のいずれかに記載の画像又は画像特徴を送るAR端末装置であって、前記ARサーバから受信したAR情報を表示部に表示させることを特徴とするAR端末装置である。
このとき、自端末で撮像された画像にAR情報を合成してもよいし、配信装置側から提供されるARクラウドCG描画装置3が描画したCG画像にAR情報を付加することで表示してもよい。また、AR情報は画像情報として提供されたり、ポリゴンモデル(合成用CGなど)や文字コード、フォント情報、マークアップ言語、音声などによって提供されたりしてもよい。また、AR情報表示における表示位置の指定は前述のARサーバの照合部で用いた情報をAR端末装置に提供し、AR端末装置側の挙動に基づいて予測・補正し、表示位置を決定してもよい。また、AR端末装置がARサーバ1経由でARクラウドCG描画装置3のCG描画用モデリングデータなどを取得し、端末側の状況に合わせて適切な表示位置指定の算出に利用してもよい。AR情報を、付加情報とともに、表示部に表示させるようにしても良い。
また、本発明は、上記に記載のCG(評価用CG)を作成するCG描画装置であって、CGを生成するCG生成部と、建造物の影を生成する影生成部と、季節や日時による日の出、日の入りの影響を算出する光学的影響算出部と、太陽や月などの光源の種別等の影響を算出する光源影響算出部と、緯度、経度の影響を算出する緯度経度影響算出部とを有するCG作成部を有することを特徴とするCG描画装置である。
さらに、その位置における建造物を格納する建造物DBと、その位置における標高や周囲との標高差などを格納する地形DBと、その位置における植生の領域を格納する地物DBと、を有し、前記影生成部は、前記建造物と前記地形と前記植生との少なくともいずれかの影響を考慮して、影を生成することを特徴とする。
その他、CG作成部におけるCG描画に必要な様々な影響を考慮してCGを生成することができる。特に、光源の影響を考慮して、リアルな画像との一致度を評価するCGを描画するためのものであるため、実際の画像とできるだけ近いCGを得ることができる。このため端末上で表示される画像は実画像と合成用CG画像の合成処理をせずにマッチング評価のみを行うため、評価に基づいた合成済みモデルデータや描画済み合成CG画像などを配信装置(サーバ)は端末に提供し、それらの情報に基づいて端末側でAR描画処理を行うため表示される画像上では、ずれが生じなくなるとともに光源や気象状況が反映されたARを実現することができる。
本発明の他の観点によれば、撮像された画像もしくは画像から生成される画像特徴と緯度経度を含む位置情報と日付時刻情報とを含むAR情報要求に基づいて、AR情報を作成するARサーバを用いた情報処理方法であって、前記位置情報と天候情報取得部により取得した気象情報とに基づいて、CG画像の作成を依頼するAR情報要求処理情報作成ステップと、前記AR情報要求処理情報作成ステップにより作成したAR情報要求処理情報により、光源の影響を考慮したCGの作成をARクラウドCG描画装置に依頼し、返信として得られたCGと、前記AR情報との一致度を評価する照合ステップと、を有し、前記照合ステップによる照合結果として得られたAR情報を、前記画像に情報支援として合成して表示させることを特徴とする情報処理方法が提供される。
本発明は、上記に記載の情報処理方法を、コンピュータに実行させるためのプログラムであっても良く、当該プログラムを記録するコンピュータ読み取り可能な記録媒体であっても良い。
本発明によれば、緯度・経度・時刻や天候による日照状態などの照明・光源環境に基づいた処理を行うことにより、ARにおける端末が撮像した実空間画像と位置や場所を特定するためのDB側で構成される評価用CG画像とのマッチング(類似度評価、一致度評価、距離評価)における精度をより実画像に近い光源を考慮した評価用CGと合成用CGの組合せによって実現することにより、光源変化の影響を低減させた端末側のCG表示ができることで利用者にとっての違和感を低減させ表示品質を改善させることができる。くわえて、3次元モデルデータと光源非依存のテクスチャデータによる立体地図データをDBに保存することにより、多様な光源を考慮した状態の膨大な画像群やCG群や特徴群等をDBに保存する必要がなくなり、記憶効率および検索効率の改善を図ることができる。また、画像データそのものばかりではなくモデルデータ(ポリゴン、テクスチャ、UVマップ類を含む)などを端末に送り端末側で描画することにより配信装置側の負荷を低減することもできる。
以下、本発明の一実施の形態によるAR情報処理技術について、図面を参照しながら説明を行う。図1は、本実施の形態のAR情報処理システムの一構成例を示す機能ブロック図である。図1に示すように、本実施の形態によるAR情報処理システムAは、ARサーバ1と、ARクラウドCG演算装置3と、AR(情報)端末装置5と、を有している。ARサーバ1とAR端末装置5とは、インターネットやローカルネットワークなどのネットワークNTにより接続される。AR端末装置5は、例えば、スマートフォンや携帯電話機などの携帯端末である。
図2は、ARサーバ1の一構成例を示す機能ブロック図である。図2に示すように、ARサーバ1は、例えば、制御部(CPU)1−1と、通信部1−2と、照合部(マッチング部)1−3と、記憶部(ARデータベース、データベースへのアクセス手段であっても良い。)1−4と、付随情報付加部1−5と、天候情報取得部1−6と、日時情報取得部1−7と、AR情報要求処理情報作成部1−8と、を有している。制御部(CPU)1−1は、全体の制御を行う。通信部1−2は、AR端末装置5、ARクラウドCG演算装置3との間で情報をやり取りする機能を有する。照合部(マッチング部)1−3は、ARにおけるリアルな実空間画像とバーチャルなCG画像とのマッチング(類似度評価)を行う。ARデータベース(記憶部又はデータベースへのアクセス手段)1−4は、リアルな画像や、その画像の位置情報、名称などの属性情報などを格納する。付随情報付加部1−5は、リアルな画像に付随する付加的な情報を付加する。付随的な情報としては、リアルな画像の属性、例えば建造物であればその名称や高さ、場所などである。天候情報取得部1−6は、気象衛星や気象レーダ、雨量計のネットワーク、自動車のワイパー挙動情報などから、ある時点の天候、例えば、現在の天候などの、画像撮影時の天候などを取得する。日時情報取得部1−7は、現在日時や、異なる国などの時差も考慮した日時を取得する。AR情報要求処理情報作成部1−8は、ARサーバ1がARCG演算装置3に対して要求する形状情報やテクスチャ情報などを考慮したCGの作成を要求するためのAR情報要求処理の情報を作成する。
ARクラウドCG演算装置3は、単体ではなく、例えば、世界中にある装置を連携させる仕組みを含むことを意図したものである。もちろん、単体の装置を排除するものではない。
図3(a)は、AR端末装置5の一構成例を示す機能ブロック図である。図3に示すように、AR端末装置5は、例えば、スマートフォンや携帯電話機であり、制御部(CPU)5−1と、通信部5−2と、GPSなどの位置情報取得部5−3と、カメラやムービーなどの撮影部5−4と、液晶ディスプレイなどの表示部5−5と、画像データ等を記憶する記憶部5−6と、を有している。その他、タッチパッドやボタンなどの入力部、音声通話部、加速度センサ、人感センサ、ジャイロセンサなどを有していても良い。通話や認識に伴う音声や各種センサによるセンシング情報、入力文字列もしくはそれらを用いた検索結果などを、AR画像に反映させるようにしても良い。
図3(b)は、制御部5−1の一構成例を示す機能ブロック図である。図3(b)に示すように、制御部5−1(CPUやGPU、ゲートアレイ、DSP、PLD、プログラムなどによって構成される。)は、CG描画処理部5−1−1と、AR画像表示制御部5−1−2と、を有している。CG描画処理部5−1−1は、配信装置から受信した情報に基づいてAR情報の統合されたCGをAR端末装置5の表示部5−5に描画する。この際、受信される情報は撮像画像と位置情報等から推定される屋外景観や屋内風景のモデルデータ(形状データ、テクスチャデータ、各種マップデータ、シェーディング処理選択データなどを含む)と光源状況に関する情報群(光源箇所、日照の具合、天候、光源種別など)で構成されており、CG算出部3−4と等価であるとともに通信回線経由でARクラウドCG演算装置3のDB部3−9等からモデルデータ等(光源データ、天候データ、影算出部3−5などで算出される影データなどを含む)を取得したり、モデルデータ等をキャッシュとして残したりする。AR画像表示制御部5−1−2は、センサなどからの情報に応じてCG描画処理部5−1−1を制御しAR情報を表示部5−5に合成表示させる。
図3(b)は、制御部5−1の一構成例を示す機能ブロック図である。図3(b)に示すように、制御部5−1(CPUやGPU、ゲートアレイ、DSP、PLD、プログラムなどによって構成される。)は、CG描画処理部5−1−1と、AR画像表示制御部5−1−2と、を有している。CG描画処理部5−1−1は、配信装置から受信した情報に基づいてAR情報の統合されたCGをAR端末装置5の表示部5−5に描画する。この際、受信される情報は撮像画像と位置情報等から推定される屋外景観や屋内風景のモデルデータ(形状データ、テクスチャデータ、各種マップデータ、シェーディング処理選択データなどを含む)と光源状況に関する情報群(光源箇所、日照の具合、天候、光源種別など)で構成されており、CG算出部3−4と等価であるとともに通信回線経由でARクラウドCG演算装置3のDB部3−9等からモデルデータ等(光源データ、天候データ、影算出部3−5などで算出される影データなどを含む)を取得したり、モデルデータ等をキャッシュとして残したりする。AR画像表示制御部5−1−2は、センサなどからの情報に応じてCG描画処理部5−1−1を制御しAR情報を表示部5−5に合成表示させる。
図4は、ARクラウドCG演算装置3の一構成例を示す機能ブロック図である。図4に示すように、ARクラウドCG演算装置3は、制御部(CPU)3−1と、通信部3−2と、CG演算部3−3と、DB部3−9と、を有している。
CG演算部3−3は、後述する部分3−5、3−6、3−7、3−8とDB部3−9に基づいて座標系やテクスチャなどのマッピング、シェーダ-処理などのCG算出処理をするCG算出部3−4と、建物などの地物の影を算出する影算出部3−5と、季節や日時による日の出、日の入りの影響等を算出する光学的影響算出部3−6と、太陽や月などの光源の種別等の影響を算出する光源影響算出部3−7と、緯度、経度の影響を算出する緯度経度影響算出部3−8等を有している。DB部3−9は、例えば、その位置におけるビルや家屋、タワー、遊園地などのいわゆる施設や建造物などを格納する建造物DB3−10と、その位置における標高や周囲との標高差などを格納する地形DB3−11と、その位置における森、湖などの地物(植生)の領域等を格納する地物DB3−12等と、を有している。その他、CG演算部3−3におけるCG描画に必要な様々な影響を考慮したCGをCG算出部3−4によって算出することができるとともにAR端末側装置5のCG描画処理部5−1−1において配信装置から取得した情報に基づいて同様のことができることが好ましい。本実施の形態では、特に、光源の影響を考慮して、実写画像との一致度を評価するCGを描画するためのものであるため、実際の画像とできるだけ近いCG(評価用CG)を得ることができるようにすることが好ましく、この際、天候情報の影響などを考慮してもよい。
図5A、図5Bは、本実施の形態による情報処理方法の流れの一例を示すフローチャート図である。まず、処理を開始するために、AR端末装置5において、撮像部5−4でリアルな画像、例えばビルなどの建物を撮像する(動画撮影を継続していても良い)。そして、位置情報取得部5−3により、緯度・経度に基づく現在位置を取得して、例えば、現在位置との関係やカメラの画角、撮像姿勢(撮像角度、視線方向角度)、焦点距離、F値等により建物の位置を求め、建物の画像と位置情報との関連付けを行う。この際、AR端末装置が建物を撮影しているカメラの画角と測距機能などに基づいて現在位置から建物の位置を求めた情報を取得するようにしても良い。また、位置情報の他に、日付、時刻などの属性情報を取得するようにしても良い。
さらに、画像とともに、又は、画像に代えて、特徴量やVQコードなどを作成しても良い。AR端末装置5の通信部5−2が、これらの情報をARサーバ1に送ると(図5BのステップS11)、図5AのステップS1に示すように、ARサーバ1の通信部1−2は、撮像画像等と撮像画像等の属性情報を受信する。次いで、ステップS2において、ARサーバ1がAR端末装置5からの撮像画像等と撮像画像等の属性情報に加えて、必要に応じて、日時取得部1−7、天候情報取得部1−6を用いて、必要な日時や、天候の情報などの追加情報を取得するようにしても良い。
なお、属性情報とは、必要に応じてAR端末装置5のGPSなどによる位置情報であったり、撮像部の撮像方向を特定するための傾斜センサやジャイロセンサ、加速度センサ、重力センサ、照度センサなどであったり、画角や焦点距離、絞り値、レンズ径、日時などであったりしてもよい。
尚、上記特許文献3にも記載されているように、AR端末装置5で取得した画像中において、ビルやタワーなど建造物等である被写体の画像に関しては、AR端末装置5の撮像部(カメラ)5−4において、上記傾斜センサやジャイロセンサ、重力センサ、加速度センサなどから求まる角度情報と焦点距離とに基づいて、姿勢情報(姿勢行列、例えば、「岡谷貴之、“メカニカルセンサとイメージセンサの融合による3次元形状復元”、情報処理学会研究報告会、2005−CVIM−147、pp.123−130、2005」参照)と被写体までの距離を求めることができる。GPS等で求めたカメラの位置と、上記傾斜センサやジャイロセンサ出力と焦点距離とに基づいて、カメラ画像中の建造物等の位置を知ることができる。
次いで、ステップS3において、ARサーバ1が、ARクラウドCG演算装置3に対して、ステップS1で受信した属性情報と、ステップS2で取得した追加情報と、に基づく、位置、日付、時刻、天候の情報を送信する。
図6は、ARサーバ1が、ARクラウドCG演算装置3に対して送るAR情報要求処理情報の一構成例を示す図であり、この情報を、ARサーバ1の記憶部1−4に記憶しておいても良い。
図6に示すAR情報要求処理情報は、ARサーバ1がCG演算装置3に対して要求する形状情報やテクスチャ情報などを考慮したCGの作成を要求するためのAR情報要求処理の情報であり、例えば、AR端末装置5から送られた撮像画像の属性情報と、追加情報と、に基づいて作成する情報である。例えば、東京、札幌、福岡などの撮影場所の地名と(より詳細な地名であるが、ここでは、例示として上記3箇所の地名を挙げる)、撮影したAR端末装置5の位置情報(緯度、経度、標高等)、撮影年月日、撮影時刻(時計などから取得する)、と、位置情報に依存する光源に関する情報である、0−24時までの時刻と、日の出、日の入りの時刻、南中高度と時刻、時間毎の日照量(昼間)、月明かりにより照度(夜間)等の光源パラメータを有する。光源パラメータを含むこのAR情報要求処理情報により、ARクラウドCG演算装置3において、光源の影響を詳細に考慮してCG画像を作成することができる。
ARクラウドCG演算装置3は、通信部3−2により受信した位置、日付、時刻、天候のAR情報要求処理情報に基づいて、CG演算を行う。ここで、CG算出部3−4は、位置、日付、時刻のAR情報要求処理情報を基に、記憶部(DB部)3−9の建造物DB3−10と地形DB3−11と地物DB3−12とを検索し、これらの建造物と地形と地物とに対して、日付、時刻、天候のAR情報要求処理情報を基に、影算出部3−5が影を算出する。
図7は、建造物DBの一例を示す図である。図7に示すように、建造物DBは、建造物を一意に識別する建造物IDと、建造物の名称と、緯度、経度による位置と、モデルデータと、建造物の高さとを有している。モデルデータは、(x,y、z)座標の組からなり、例えば、立方体であれば、各頂点の(x,y、z)座標により指定される。モデルデータとは、ポリゴン形状データやテクスチャデータ、UVマップデータなどによる物体のCG描画を実施するためのデータを指す。
建造物DBの位置とAR情報要求処理情報における位置とを対比させて、同じ位置の建造物を特定し、その高さやモデルデータ、南中高度等から光源に依存する影を求めることができる。
図8は、地形DBの一例を示す図である。図8に示すように、地形DBは、建造物IDに対応して、モデルデータと、その標高と隣接(周囲)情報とを有している。モデルデータは、(x,y、z)座標の組からなり、例えば、立方体であれば、各頂点の(x,y、z)座標により指定される。標高は、図6により基本的には求まるが、撮影位置での標高と、被写体である建造物等の標高とは異なる場合が多いため、建造物の標高を基準に影を求めることが好ましい。また、隣接情報は、周囲に建造物以外に建造物の影にかかるようなビルがあるかどうか、そのようなビルが有る場合には、どの程度の高さのビルがどの位置にあるかなどの情報を格納している。これにより、ビルなどの形状や影の形などをより詳細かつ精度良く求めることができる。
図9は、地物DBの一例を示す図である。図9に示すように、地物DBは、自然の地形、例えば、湖や山などの地物の情報を格納する。地物を一意に特定する地物IDと、湖や山などの種別と、モデルデータと、位置と、高さ及び面積などからなり、これらの地物の光源及び影に与える影響を求めることができる。これらのモデルデータは、(x,y、z)座標の組からなり、例えば、台形に近い山であれば、各頂点の(x,y、z)座標により指定される。例えば、太陽と建造物との間に大きな山があれば、影はほとんど生成されず、湖があれば、その湖の領域には、光源が建造物に与える影響がほとんどないことを推定することができる。また、物理演算モデルなどを用いて、起立した崖の崩落や水面の波の変化や水流をCGでシミュレーション的に描画してもよくシミュレーションされたCGと実写の類似を単位面積当たりの輝度確率や近似色相評価によって処理してもよい。
以上のように、図6から図9までの情報に基づいて、AR情報要求処理情報に基づく、光源及び影を含む精度の良いCGを生成することができる。
なお、このときのCGに用いる描画データは、図7、図8、図9において指定されているデータを用いる構成が考えられ、緯度・経度・時刻・視線方向によって選択されモデルデータに従った一致度評価用のCGが描画される。このため、端末の緯度経度と視線から算出される拡張現実画像表示対象の緯度経度を得ることにより適切なARの実現を可能とする。また、図7、図8、図9においてモデルデータは直接記載されるものではなく、各データへのリンクIDであったり、各データのファイル名であったりしてもよい。
その際、光学的影響算出部3−6が、AR情報要求処理情報に基づいて、季節、日時による日の入り、日の出の時刻や、天候などの情報などから、建造物に対する光学的な変化の影響を算出し、さらに、光源影響算出部3−7が季節や時刻などにより、光源の影響、例えば、太陽、月などの光源の種別や光源による照度の影響などを算出する。この際、緯度・経度影響算出部3−8が、光源等に関する緯度、経度の依存性も考慮する。このような処理により、CG算出部3−4が作成する評価用CGをより精度の良いものとすることができる。また、夜間であったり、昼間のビル群における複数反射光を物体が受ける状況であったりした場合であれば各種照明や反射光などの複数光源を考慮して評価用CGや合成用CGを描画したり、演算したりしてもよい。
また、属性情報として、AR端末の撮像部での撮影に伴い取得した画角や方向、絞り、照度、色温度などを加味して評価用CGを生成してもよい。
なお、評価用CGばかりではなく本発明を利用して光源を考慮した陰影や画質の適応された合成用CGを生成してもよい。
次いで、ステップS4において、ARクラウドCG演算装置3が演算した評価用CGをARサーバ1に返信する。ここで、評価用CGとともに、又は、評価用CGに代えて、評価用CGの特徴量、VQコードなどを送るようにしても良い。ステップS5において、ARサーバ1が、ARクラウドCG演算装置3からのCG画像情報などを受信する。次いで、ステップS6において、ARサーバ1の照合部1−3が、ステップS5で受信した評価用CG画像情報等と、ステップS1においてAR端末装置5から受信した撮像画像等とを照合し、CGなどとAR情報とを合成する。この際、照合部1−3からの照合結果である一致度評価に基づいて、ARデータベース1−4内に格納されているAR情報を端末から得られた撮像画像内のマッチングに基づく位置情報等に基づいて検索し、検索結果として得られたAR情報をCGなどと合成し、AR端末装置5に通信部1−2から送信する(ステップS7)。位置情報等とはGPS情報や電子コンパス情報、加速度センサ情報、ジャイロセンサ情報、重力センサ情報、HMD(ヘッドマウントディスプレイ)における瞳孔検出情報などのAR端末装置の位置や視線方向を特定するための情報群を指し、他の発明においても言及されるAR情報表示の特定に必要な情報を含むものとする。
この際、情報支援のために、付加情報を付加して送っても良い。付加情報は、例えば、インターネットにより取得した建造物で提供される料理の情報や、イベントの情報、口コミ情報、日替わり情報、商品情報、価格・在庫情報などといったサービス情報などである。
また、画像等の別の処理方法として、単純に端末から画像を送信したり、ARクラウドCG描画装置からCG画像を送信したりするばかりではなく、それら画像から生成される画像特徴や画像VQコードもしくはそれらの群情報としての面群情報、点群情報、線群情報を画像の代わりに利用してもよい。
図5Bに示すように、図5AのステップS7の送信処理に応じて、AR端末装置5は、ARサーバ1から受信したAR情報と描画済みの評価用CGもしくは評価用CGのモデルデータを受信し(ステップS12)、付加情報とともに、評価用CGのモデルデータに基づいてCG描画処理部5−1−1によりCG算出部3−4と等価な処理系で評価用CG描画し、AR画像表示制御部5−1−2により、AR情報として受信した画像もしくは合成用CGモデルデータ等と評価用CGとを各種センサ情報に基づいてCG画像の向きなどを整え、AR情報と合成して表示部5−5に表示させることができる(ステップS13)。このとき、自端末で撮像された画像を記憶部5−6に記憶しておき、これにAR情報を合成してもよいし、配信装置側から提供されるARクラウドCG描画装置3が描画したCG画像(評価用CG)にAR情報を付加することで表示してもよいし、配信装置から提供された評価用CGモデルデータに基づいてCG描画を行うとともに同様に受信したAR情報を合成してもよいし、評価用CGモデルデータと合成用CGモデルデータを端末の各種センサ情報に応じて変化させながら組み合わせてリアルタイムにCGを描画してもよい。
また、AR情報は画像情報として提供されたり、ポリゴンモデル(合成用CG)や文字コード、フォント情報、マークアップ言語、音声などによって提供されたりしてもよい。また、AR情報表示における表示位置の指定は前述のARサーバ1の照合部1−3で用いた情報をAR端末装置に提供し、AR端末装置側の挙動に基づいて予測・補正し、表示位置を決定してもよい。また、AR端末装置がARサーバ1経由でARクラウドCG演算装置3のCG描画用モデリングデータなどを取得し、端末側の状況に合わせて適切な表示位置の算出や端末においてARサーバ経由で取得されるCG画像やモデルデータとしての評価用CGと合成用CGを組合せた表示に利用してもよい。
さらに、本発明はサーバ側から光源位置情報を送信することでステップS12において、光源位置情報を受信し端末側でモデルデータからAR画面を生成するときに光源計算を効果的に行い利用者の視覚上の利便性を改善するように構成してもよい。この結果、夜間など街灯といった複数光源であっても現実味のあるAR情報の表示が可能となる。これらの光源位置情報は配信装置の地図情報内に記録されていてもよいし、撮像画像の輝度などから光源を検出し、視線方向と位置情報を検出し配信装置の地図情報と照合し特定の光源として決定づけてもよい。
尚、上記の例において、ARクラウドCG描画装置3は、インターネットなどの通信手段を介して複数に分散配置されていても良い。また、ARクラウドCG描画装置3はARサーバ1に組み込まれていても良い。
上記の情報処理方法によれば、AR端末装置から送られた撮影画像や属性情報により推定できる天気や光源の状態等に基づいて評価用CGを描画し、この描画した評価用CGとAR端末装置から送られてきた画像等との一致度に基づいて、ARデータベースからAR情報を取得して、このAR情報をAR端末装置に送って表示させることができるため、一致度(類似度)の精度を向上させることができ、より精度の高いAR表示をできるようにAR情報等を求めてAR端末装置にAR情報等を送ることができる。また、画像データやAR情報そのものを直接端末に送るばかりではなく評価用CGや合成用CG(AR情報)に用いられるモデルデータ(ポリゴン、テクスチャ、UVマップ類を含む)などを併せてAR端末に送り端末側でCG描画することにより配信装置側の描画負荷を低減することによりシステムとしての利便性を図りインタラクション性の高いAR端末が実現できる。
以下に、評価用CGを描画する際の光源の影響を例にして、本実施の形態についてより具体的簡易的に例示して説明する。実際のCG描画はより光源色を意識したり、反射を意識したり、多光源を意識したり、端末装置の撮像部の光学系を意識したりした光学的補正の行われた評価用CG描画であることが好ましい。
図10は、建造物(ビル等)Bの影に与える天候の依存性を示す図である。図10(a)に示すように、天候が晴れの場合には、ビルBの影は色濃くなるのに対して、図10(b)に示すように曇りの場合には、ほとんど影が見えないので、天候情報に基づいて、CGにおける影を推測することができる。このようにして得たCGをリアルな画像との一致度評価に用いることで、より精度の高いAR情報を検索して提示することができる。
同様に、図11は、時間依存、太陽の方向依存を示す図である。図11(a)に示すように、太陽などの光源は、時間により方向(角度などを含む)が変化する。そこで、朝であれば、東の方向に太陽が位置するため、その方向と反対の方向に建物Bの影ができる。一方、図11(b)に示すように、夕方であれば、西の方向に対応が位置するため、その方向と反対の方向に建物Bの影ができる。
図12は、光源の種類(昼と夜)依存を示す図である。図12(a)に示すように、昼間は、太陽が光源であるため、建物Bの影は色が濃いが、図12(b)に示すように、夜であれば、月がでている程度であるため、ほとんど影は生成されない。また、夜と昼とでは、周囲の明るさも大きく異なる。
図13は、位置依存を示す図であり、例えば、図13(a)に示すように、北半球では、昼の晴れの日においては、影は、ビルの北側に出ており、図13(b)に示すように、南半球では、影はビルの南側にでる。従って、北半球と南半球により、影の位置は大きく異なることを考慮する必要がある。
図14は、位置依存のうち緯度・経度の影響を示す図である。例えば、同じ日本でも、緯度の高い札幌と、緯度の低い福岡とを比べると、例えば午後3時の影は、札幌の方が大きくなる(太陽の傾きが低いため)。
以上のように、一致度比較のためのCG描画において、光源等の影響を詳細に考慮することで、ARにおける実空間画像とCG画像の類似度評価の精度を向上させることができる。くわえて、太陽の南中高度が季節により変化することや赤緯と時角が時刻により変化することなどを考慮してCGを描画することがより好ましい。より正確には、任意の地点における任意時刻の太陽の高度と方位角を天文年表掲載値に従って計算する。
ここで、高度 h 、方位角Aは、例えば、以下の三式で 求めることができる。
[数1]
cosh × sinA = −cosδ × sinΔ … (1)
cosh × cosA = cosφ × sinδ − sinφ × cosδ × cosΔ … (2)
sinh = sinφ ×sinδ + cosφ × cosδ × cosΔ … (3)
[数1]
cosh × sinA = −cosδ × sinΔ … (1)
cosh × cosA = cosφ × sinδ − sinφ × cosδ × cosΔ … (2)
sinh = sinφ ×sinδ + cosφ × cosδ × cosΔ … (3)
ここで、δは太陽の視赤緯、Δは時角、φは場所の緯度である。tを高度・方位角を求める時刻−標準時(日本の場合は9h)とし、λを場所の経度(東経を+、西経を−で表し、15で割って時間の単位にする)、θ0を世界時0hのグリニジ視恒星時、αを太陽の視赤経とすれば、時角はΔ=θ0+t×1.0027379+λ−αで求められる。影の長さは影をつくる物体の高さ×cothで、影の方位角は太陽の方位角に180°を加えて求める(360°を超えた場合、360°を減算する)。
このような計算によって算出された太陽光源に基づいてCGの描画を行い同時に影の算出も行うことができる。なお、実際の計算精度はこれより高い精度の値を用いてもよい。
また、これらの計算によって求められた太陽光源は超遠距離による仮想面光源となるため、気象レーダなどの天候観測に伴って雲の有無により散乱光源となるような計算を行いCG描画の際の光源処理として実施してもよいし、空気遠近法などを用いたCG描画をしてもよいし、ビル壁面や水域等における各種反射光の単位面積当たりの発生確率や反射強度などを踏まえてCG描画をしてもよい。
また、これらの演算式を逆算することで高さと日時の解っている物体の撮像画像における影の長さから緯度経度が近似値であるか評価することで、正当な端末からの情報であることを評価したり、CG描画装置内のDBを更新したりしてもよい。
(まとめ)
以上に説明したように、本実施の形態によれば、緯度・経度・時刻や天候による日照状態などの照明・光源環境に基づいた処理を行うことにより、ARにおける端末が撮像した実空間画像と位置や場所を特定するためのDB側で構成されるCG画像とのマッチング(類似度評価、一致度評価、距離評価)における精度をより実画像に近い光源を考慮したCGとの比較によって実現することにより、光源変化の影響を低減させることで改善させることができる。くわえて、3次元モデルデータと光源非依存のテクスチャデータによる立体地図データをDBに保存することにより、多様な光源を考慮した状態の画像群やCG群や特徴群等をDBに保存する必要がなくなり、記憶効率および検索効率の改善を図ることができる。
以上に説明したように、本実施の形態によれば、緯度・経度・時刻や天候による日照状態などの照明・光源環境に基づいた処理を行うことにより、ARにおける端末が撮像した実空間画像と位置や場所を特定するためのDB側で構成されるCG画像とのマッチング(類似度評価、一致度評価、距離評価)における精度をより実画像に近い光源を考慮したCGとの比較によって実現することにより、光源変化の影響を低減させることで改善させることができる。くわえて、3次元モデルデータと光源非依存のテクスチャデータによる立体地図データをDBに保存することにより、多様な光源を考慮した状態の画像群やCG群や特徴群等をDBに保存する必要がなくなり、記憶効率および検索効率の改善を図ることができる。
尚、上記の説明では、昼は昼のCG、夜は夜のCGを構成することで利用者のAR端末の撮像画像に近づけ、影の方向、長さや濃淡なども可能な限り近づけることで、より一致度を評価しやすくなる。もちろん、日の陰り具合に応じて光源色を変化させるなどの処理をしてもよい。
また、撮影画像や属性情報から推定できる天候や光源に基づいて、比較用のCGの影を作成するようにしても良い。
さらに、ネットワーク経由や画像認識などによりで、建造物等の照明状況(ネオンサイン、イルミネーション、デジタルサイネージなど)を取得して、CG描画の変更や特徴一致の許容誤差の指定を行っても良い。
光源の色や強さを、AR端末の撮像画像の属性情報としての日時、緯度・経度から推定しても良く、逆にAR端末の撮像画像に写った高さの解っている物体の影と日時から、緯度・経度を推定しても良い。くわえて、厳密に計算するならば地軸の歳差運動に対する補正を行ってもよい。
また、建物とくに高層階や屋根、電柱の上部、信号機など人や車などが通過しないことによる特徴誤差の少ない箇所の特徴情報を優先的に評価処理してもよく、ベランダや歩道や車道などの変化のある場所は特徴一致の比較における許容誤差範囲を広げてもよい。
また、処理を任意のサーバ、クライアント、それらを連携したクラウドなどの組合せによって実施してもよい。
また、赤外線やノクトビジョン画像などをはじめとする不可視光から立体モデルやテクスチャを生成してもよい。
また、画像等には特徴量や特徴情報などを含み、それらは色、形状、輝度、色相、彩度などを始めにVQコードなどを含む識別基準となる情報を指す。
また、端末からの画像などとDBに基づいて生成された画像など比較において、微分箇所と積分箇所の差の大きいところや特徴情報などの変化の激しい場所である場合、分散を拡げて特徴一致の比較における許容誤差範囲を拡大するなどの処理を行ってもよい。
また、多眼立体視に基づいた立体形状や二次元情報によるVQコードなどの特徴情報を位置に基づいて索引付けされた辞書構造のDBなどを利用してもよい。
また、落葉樹、常緑樹などを地図情報に登録し地表に近い低層に於いては緯度経度などに応じて特徴評価にもちいる評価色を変更できるように構成してもよいし、これらを季節や日時に応じて評価対象としての選択範囲を変更してもよい。
位置に基づいた点群データ、線群データ、面群データ、テクスチャデータ等を特徴量やVQコードとして位置に基づいて分類し基地局から位置に応じて適宜提供、内容変更するシステムを構成してもよい。
また、合成されたCGに基づいた合成AR画像の影を太陽やビルの反射などの光源方向に基づいて算出する。もちろん、太陽光ばかりでなく月光や日蝕、月蝕を考慮してもよいし、各種電灯やネオンライト、デジタルサイネージなどをDB化して光源計算に用いたり、提供情報の索引に用いたりしてもよい。
また、屋外ばかりではなく屋内も同様に時間帯等における屋外光源を推定しながら評価用CG描画をしてもよいし、空気遠近法による描画補正を行ってもよい。
また、合成される現実画像に対する評価用CG画像に関して、特徴比較の際にどの程度の分散を許容するのかを画像の部位やモデルベース、地図ベースごとに指定しデータベース化してもよい。
また、演算効率を改善するために端末からのアクセスのたびに評価用CGを生成するのではなく、例えば毎分ごとにCG画像や特徴量やVQコード等を生成して群情報として再利用可能な状態でARサーバやARクラウドCG演算装置やAR端末装置などの記憶部に適宜保存してもよい。
また、端末側撮像画像の特徴から天候を推定したり、色温度から天候や時間帯を推定したりしてもよい。
また、位置情報等に基づいて各種群情報等の辞書情報を適宜キャッシュしたり、更新したりしてもよい。
また、撮像画像と位置情報や姿勢情報、視線情報等からモデルデータを推定したり、光源補正や光源位置算出を行うことで影を補正したりしたテクスチャデータの抽出や補正を行ってもよい。この際、例えばフーリエ解析やウエーブレット解析、ルベーク積分などを用いたり、ガボールフィルタなどを用いたりして抽出した形状特徴とベイズ推定やマハラノビス汎距離などの共分散行列や固有値・固有ベクトルなどを応用した距離計算とを用いて類似度判定を行うようにしてもよい。
また、位置連携情報サービスに基づくソーシャルゲームやソーシャルサービスなどを実施してもよい。
また、ドロネー三角分割などを用いた粒度の荒いポリゴン画像を評価用CGとして用いてもよい。
また、タイムセールに応じて表示を変更してもよい。
また、タイムセールに応じて表示を変更してもよい。
また、人に対して行われる拡張現実はその人のもつAR端末から出力される位置情報に応じて表示位置が変化してもよい。
また、図7、図8、図9においてモデルデータとされるデータは、実データが直接レコード内にあるばかりではなくモデルデータのファイル名であったり、モデルデータのリンク情報となるIDやハッシュ値であったりしてもよい。
また、情報支援のために、付加情報は、例えば、インターネットにより取得した建造物で提供される飲食店の料理の種類や価格の情報や、イベントの情報、販売店の取扱商品情報や在庫・価格情報、口コミ情報、混雑・空席情報、不動産価格情報、観光情報などの任意の情報である。さらに、生成された現実画像に対する評価用CG画像に関して、どの程度の分散を許容するのかを画像の部位ごとに指定しデータベース化してもよいし、生成された評価用CGに基づいた合成用CG画像としてのAR画像の影を太陽やビルの反射などの光源方向に基づいて算出し合成したりしてもよい。
また、上記の実施の形態において、添付図面に図示されている構成等については、これらに限定されるものではなく、本発明の効果を発揮する範囲内で適宜変更することが可能である。その他、本発明の目的の範囲を逸脱しない限りにおいて適宜変更して実施することが可能であり、過去の複数の特許と組合せて実施することができる。
また、本実施の形態で説明した機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各部の処理を行ってもよい。尚、ここでいう「コンピュータシステム」とは、OSをはじめとした各種ソフトウェアや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、評価用CGと実写画像の特徴などが異なった場合において更新可能性フラグをセットし、複数のAR端末からフラグを配信装置が受信した場合において地図情報となる評価用CGの各種情報を適宜更新してもよい。また、月の満ち欠けに応じて描画する評価用CGの内容を変更してもよい。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置(各種記憶媒体)のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また前記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
本発明は、情報処理装置として利用可能である。
A…AR情報処理システム、1…ARサーバ、3…ARクラウドCG演算装置、5…AR端末装置、1−1…制御部、1−2…通信部、1−3…照合部(一致度評価部)、1−4…記憶部(ARデータベース)、1−5…付随情報付加部、1−6…天候情報取得部、1−7…日時取得部、1−8…AR情報要求処理情報作成部、3−1…制御部(CPU)、3−2…通信部、3−3…CG演算部、3−4…CG算出部、3−5…影算出部、3−6…光学的影響算出部、3−7…光源影響算出部、3−8…緯度経度影響算出部、3−9…記憶部(DB部)、3−10…建造物DB、3−11…地形(水域等を含む)DB、3−12…地物(植生等)DB、5−1…制御部、5−1−1…CG描画処理部、5−1−2…AR画像表示制御部、5−5…表示部、5−6…記憶部。
Claims (8)
- 撮像された画像もしくは画像から生成される画像特徴と緯度経度を含む位置情報と日付時刻情報とを含むAR情報要求に基づいて、AR情報を取得する情報端末装置であって、
前記位置情報と前記日付情報と配信装置から取得した天候情報と評価用CGモデルデータと合成用CGモデルデータに基づいて、
表示部に表示するCGを描画し画像を作成するCG描画処理部と、描画したCGとAR情報とを合成して表示するAR画像表示制御部と、を有することを特徴とする情報端末装置。 - 撮像された画像もしくは画像から生成される画像特徴と緯度経度を含む位置情報と日付時刻情報とを含むAR情報要求に基づいて、AR情報を取得する情報端末装置であって、
前記位置情報と前記日付情報と配信装置から取得した天候情報と合成用CGモデルデータに基づいて、
表示部に表示するCGを描画し画像を作成するCG描画処理部と、配信装置から取得した評価用CGと合成して表示するAR画像表示制御部と、を有することを特徴とする情報端末装置。 - 撮像された画像もしくは画像から生成される画像特徴と緯度経度を含む位置情報と日付時刻情報とを含むAR情報要求に基づいて、AR情報を取得する情報端末装置であって、
前記位置情報と前記日付情報と配信装置から取得した天候情報と評価用CGモデルデータに基づいて、
情報端末装置内で表示部に表示するCGを描画し画像を作成するCG描画処理部と、配信装置から取得した合成用CG画像と合成して表示するAR画像表示制御部と、を有することを特徴とする情報端末装置。 - 前記位置情報は、
GPS情報や電子コンパス情報、加速度センサ情報、ジャイロセンサ情報を含む前記情報端末装置の位置や視線方向を特定するための情報群のうちの少なくともいずれか1であることを特徴とする請求項1から3までのいずれか1項に記載の情報端末装置。 - 請求項1から4までのいずれか1項に記載のCGを作成するCG演算装置であって、
CGを生成するCG生成部と、建造物の影を生成する影生成部と、季節や日時による日の出、日の入りの影響を算出する光学的影響算出部と、太陽や月などの光源の種別等の影響を算出する光源影響算出部と、緯度、経度の影響を算出する緯度経度影響算出部とを有するCG作成部を有することを特徴とするCG演算装置。 - 前記位置情報により特定される建造物の建造物IDを格納する建造物DBと、前記位置情報により特定される位置における標高や周囲との標高差などを格納する地形DBと、前記位置情報により特定される位置における植生の領域を格納する地物DBと、を有し、
前記影生成部は、前記建造物と前記地形と前記植生との少なくともいずれかの影響を考慮して、影を生成することを特徴とする請求項5に記載のCG描画を行うCG演算装置。 - 撮像された画像もしくは画像から生成される画像特徴と緯度経度を含む位置情報と日付時刻情報とを含むAR情報要求に基づいて、AR情報を作成する情報端末装置を用いた情報処理方法であって、
前記位置情報と天候情報取得部により取得した気象情報とに基づいて、CG画像もしくはモデルデータの作成を依頼するAR情報要求処理情報作成ステップと、
前記AR情報要求処理情報作成ステップにより作成したAR情報要求処理情報により、光源の影響を考慮したCG画像もしくはモデルデータの作成をARクラウドCG描画装置に依頼し、返信として得られたCG画像もしくはモデルデータと、前記AR情報との一致度を評価する照合ステップと、を有し、
前記照合ステップによる照合結果として得られたAR情報を、前記画像に情報支援として合成して表示させることを特徴とする情報処理方法。 - 請求項7に記載の情報処理方法を、コンピュータに実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012065867A JP2013196616A (ja) | 2012-03-22 | 2012-03-22 | 情報端末装置、情報処理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012065867A JP2013196616A (ja) | 2012-03-22 | 2012-03-22 | 情報端末装置、情報処理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013196616A true JP2013196616A (ja) | 2013-09-30 |
Family
ID=49395418
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012065867A Pending JP2013196616A (ja) | 2012-03-22 | 2012-03-22 | 情報端末装置、情報処理方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013196616A (ja) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016071720A (ja) * | 2014-09-30 | 2016-05-09 | キヤノンマーケティングジャパン株式会社 | 情報処理装置、情報処理システム、その制御方法及びプログラム |
US9348542B2 (en) | 2014-06-10 | 2016-05-24 | Ricoh Company, Ltd. | Display processing apparatus, display processing method, and computer-readable recording medium |
CN109426333A (zh) * | 2017-08-23 | 2019-03-05 | 腾讯科技(深圳)有限公司 | 一种基于虚拟空间场景的信息交互方法及装置 |
WO2019167996A1 (ja) * | 2018-03-01 | 2019-09-06 | ソニー株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
JPWO2018100957A1 (ja) * | 2016-12-01 | 2019-10-17 | パナソニックIpマネジメント株式会社 | 採光システム |
JP2021033916A (ja) * | 2019-08-29 | 2021-03-01 | 株式会社スクウェア・エニックス | 画像処理プログラム、及び画像処理システム |
JP2021033377A (ja) * | 2019-08-15 | 2021-03-01 | Kddi株式会社 | 情報端末装置、プログラム、提示システム及びサーバ |
WO2021090714A1 (ja) * | 2019-11-04 | 2021-05-14 | 伊原 正典 | 情報提供サービスプログラム及び情報提供サービス用情報端末装置 |
JP2022030844A (ja) * | 2020-08-07 | 2022-02-18 | 株式会社スクウェア・エニックス | 情報処理プログラム、情報処理装置及び情報処理方法 |
WO2023286546A1 (ja) * | 2021-07-12 | 2023-01-19 | 株式会社Jvcケンウッド | データ生成装置、表示装置、データ生成方法、表示方法及びプログラム |
CN117915138A (zh) * | 2024-01-08 | 2024-04-19 | 湖北泰跃卫星技术发展股份有限公司 | 一种在数据中台中对视频时间校准方法 |
-
2012
- 2012-03-22 JP JP2012065867A patent/JP2013196616A/ja active Pending
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9348542B2 (en) | 2014-06-10 | 2016-05-24 | Ricoh Company, Ltd. | Display processing apparatus, display processing method, and computer-readable recording medium |
JP2016071720A (ja) * | 2014-09-30 | 2016-05-09 | キヤノンマーケティングジャパン株式会社 | 情報処理装置、情報処理システム、その制御方法及びプログラム |
JPWO2018100957A1 (ja) * | 2016-12-01 | 2019-10-17 | パナソニックIpマネジメント株式会社 | 採光システム |
CN109426333B (zh) * | 2017-08-23 | 2022-11-04 | 腾讯科技(深圳)有限公司 | 一种基于虚拟空间场景的信息交互方法及装置 |
CN109426333A (zh) * | 2017-08-23 | 2019-03-05 | 腾讯科技(深圳)有限公司 | 一种基于虚拟空间场景的信息交互方法及装置 |
WO2019167996A1 (ja) * | 2018-03-01 | 2019-09-06 | ソニー株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
JP7261121B2 (ja) | 2019-08-15 | 2023-04-19 | Kddi株式会社 | 情報端末装置及びプログラム |
JP2021033377A (ja) * | 2019-08-15 | 2021-03-01 | Kddi株式会社 | 情報端末装置、プログラム、提示システム及びサーバ |
US11425312B2 (en) | 2019-08-29 | 2022-08-23 | Square Enix Co., Ltd. | Image processing program, and image processing system causing a server to control synthesis of a real space image and a virtual object image |
CN112449108A (zh) * | 2019-08-29 | 2021-03-05 | 史克威尔·艾尼克斯有限公司 | 非暂态计算机可读介质和图像处理系统 |
JP2021033916A (ja) * | 2019-08-29 | 2021-03-01 | 株式会社スクウェア・エニックス | 画像処理プログラム、及び画像処理システム |
CN112449108B (zh) * | 2019-08-29 | 2024-05-07 | 史克威尔·艾尼克斯有限公司 | 非暂态计算机可读介质和图像处理系统 |
WO2021090714A1 (ja) * | 2019-11-04 | 2021-05-14 | 伊原 正典 | 情報提供サービスプログラム及び情報提供サービス用情報端末装置 |
JP2022030844A (ja) * | 2020-08-07 | 2022-02-18 | 株式会社スクウェア・エニックス | 情報処理プログラム、情報処理装置及び情報処理方法 |
JP7125963B2 (ja) | 2020-08-07 | 2022-08-25 | 株式会社スクウェア・エニックス | 情報処理プログラム、情報処理装置及び情報処理方法 |
WO2023286546A1 (ja) * | 2021-07-12 | 2023-01-19 | 株式会社Jvcケンウッド | データ生成装置、表示装置、データ生成方法、表示方法及びプログラム |
CN117915138A (zh) * | 2024-01-08 | 2024-04-19 | 湖北泰跃卫星技术发展股份有限公司 | 一种在数据中台中对视频时间校准方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2013196616A (ja) | 情報端末装置、情報処理方法 | |
JP5980295B2 (ja) | カメラ姿勢決定方法、及び実環境物体認識方法 | |
EP3359918B1 (en) | Systems and methods for orienting a user in a map display | |
US8264504B2 (en) | Seamlessly overlaying 2D images in 3D model | |
JP2013149029A (ja) | 情報処理装置、情報処理方法 | |
US9367954B2 (en) | Illumination information icon for enriching navigable panoramic street view maps | |
CN108391445B (zh) | 一种虚拟现实显示方法及终端 | |
US9466149B2 (en) | Lighting of graphical objects based on environmental conditions | |
CN114125310B (zh) | 拍照方法、终端设备及云端服务器 | |
WO2019167213A1 (ja) | 位置推定装置、トラッカー、位置推定方法及びプログラム | |
US20200118338A1 (en) | Candidate geometry displays for augmented reality | |
US12044543B2 (en) | Dynamic StreetView with view images enhancement | |
JP6518468B2 (ja) | 情報処理装置、地図表示システム | |
KR20230171949A (ko) | 현실-세계 신호를 사용한 디지털 지도 애니메이션 | |
US20230332922A1 (en) | Methods and systems for providing a real-time viewshed visualization | |
US11726740B2 (en) | Immersive audio tours | |
Lai et al. | Characteristic analysis of village cultural landscape by Lian Li space information technology and three-dimensional modelling | |
WO2024091229A1 (en) | Navigation-integrated scenic location value and route planning | |
CN118626581A (zh) | 基于gis的地图数据处理方法及信息融合系统 | |
KR20220012212A (ko) | 인터렉티브 랜드마크 기반 위치 파악 | |
Steinicke et al. | Augmenting 3D City Models with Visualization of Real-Time Meteorological Phenomena. | |
Steinicke et al. | Integrating Current Weather Effects into Urban Visualization |