JP2013149029A - Information processor, information processing method - Google Patents

Information processor, information processing method Download PDF

Info

Publication number
JP2013149029A
JP2013149029A JP2012008219A JP2012008219A JP2013149029A JP 2013149029 A JP2013149029 A JP 2013149029A JP 2012008219 A JP2012008219 A JP 2012008219A JP 2012008219 A JP2012008219 A JP 2012008219A JP 2013149029 A JP2013149029 A JP 2013149029A
Authority
JP
Japan
Prior art keywords
information
image
building
light source
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012008219A
Other languages
Japanese (ja)
Inventor
Masanori Ihara
正典 伊原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2012008219A priority Critical patent/JP2013149029A/en
Publication of JP2013149029A publication Critical patent/JP2013149029A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide AR information processing technology for improving a coincidence degree with image features to be obtained from an actually photographed image by considering an influence of a light source etc. in CG for obtaining image features or the like on the database side for evaluating the coincidence degree in matching between real and virtual.SOLUTION: An AR server creates AR information on the basis of an AR information request including position information including a photographed image or image features to be generated from the image, latitude, and longitude, and date and time information, has: an AR information request processing information creation unit which requests creation of a CG image on the basis of the position information and meteorological information acquired by a weather information acquisition unit; and a collation unit which requests creation of CG in consideration of an influence of a light source to an AR cloud CG drawing device by AR information request processing information created by the AR information request processing information creation unit, and evaluates a coincidence degree between the CG obtained as a reply, and the AR information. The AR server synthesizes the AR information obtained as a collation result by the collation unit with the image as information support to be displayed.

Description

本発明は、情報処理技術に関し、より詳細には、拡張現実(Augumented Reality: 以下ARと称する。)に関連する情報処理技術に関する。   The present invention relates to information processing technology, and more particularly to information processing technology related to augmented reality (hereinafter referred to as AR).

ARとは、例えば、街の景色や陳列された商品など、実際に目にしているリアルな世界にバーチャルな情報を重ねて現実の「知覚体験」を拡張する手法である。   AR is a technique for extending a real “perception experience” by overlaying virtual information on a real world that is actually seen, such as a city view or a displayed product.

最近のスマートフォンやタブレットPCなどの携帯端末の利用の拡がりに伴って、現実の世界にバーチャルな情報を重畳して、現実の知覚体験を拡張するARが、より身近なものとなってきている。   With the recent expansion of the use of mobile terminals such as smartphones and tablet PCs, AR that augments the real perception experience by superimposing virtual information on the real world has become more familiar.

例えば、実空間をAR端末で撮影した画像上にコンピュータグラフィック(CG)描画された画像としてのAR情報を表示し操作することで、ナビゲーションなどのサービスを提供することが提案されている。   For example, it has been proposed to provide services such as navigation by displaying and manipulating AR information as an image drawn in a computer graphic (CG) on an image obtained by photographing an actual space with an AR terminal.

下記特許文献1は、撮像された画像から生成されたCGによる特徴データベース(DB)とAR端末撮像画像等の情報から得られるCGによる特徴との一致を評価し、AR情報を提供する技術が提案されている。   The following Patent Document 1 proposes a technique for evaluating the coincidence between a CG feature database (DB) generated from a captured image and a CG feature obtained from information such as an AR terminal captured image and providing AR information. Has been.

また、下記特許文献2は、3次元地図を利用した場合を含め、撮影画像により時間帯や天候(気象)、季節に応じた画像特徴を収集し、地図データベースを分類、更新、構築するとともに、撮像画像等をDBに蓄え、利用者AR端末から取得した撮像画像の画像特徴との一致を評価することでAR情報を提供する技術が提案されている。   In addition, the following Patent Document 2 collects image features according to time zone, weather (meteorology), seasons, and classifies, updates, and constructs a map database, including the case of using a 3D map, A technique for providing AR information by storing captured images or the like in a DB and evaluating matching with image characteristics of captured images acquired from a user AR terminal has been proposed.

また、下記特許文献3には、光源方向を推定することで、ARにおいて合成される仮想物体としてのAR情報であるCGオブジェクト画像に関し、CGオブジェクト画像の表示品質を改善する技術が提案されている。   Patent Document 3 below proposes a technique for improving the display quality of a CG object image with respect to a CG object image that is AR information as a virtual object synthesized in AR by estimating a light source direction. .

また、非特許文献1としてはAR情報であるCGオブジェクト画像の光源推定と陰影の表現についての技術が論述されている。   Further, as Non-Patent Document 1, a technique for light source estimation and shadow expression of a CG object image which is AR information is discussed.

特開平11−66350JP-A-11-66350 特開2002−27529号公報JP 2002-27529 A 特開2008−16918号公報JP 2008-16918 A

「画像の認識・理解シンポジウム」MIRU2004年7月,現実環境の照明条件と奥行きの実時間推定による仮想物体の陰影表現が可能な拡張現実感,神原 他"Image recognition and understanding symposium" MIRU July 2004, Augmented reality capable of shadow representation of virtual objects by real-time estimation of lighting conditions and depth of real environment, Kanbara et al.

特許文献1に記載の技術や特許文献2に記載の技術は、光源の影響を考慮していないばかりでなく、刻々と変わる天候や時間による光源の変化にともなう画像等をすべてDBに納めなければならないという課題がある。また、一般的に、3次元地図は、外観形状のみの情報であるため、撮影画像と色が異なるという問題がある。これを改善するために、モデルデータにテクスチャを貼るという方法もあるが、テクスチャ画像が昼間に撮影された画像を基準にしたものであることが多く、光源の影響を考慮しないと、影の方向や照明の具合などが実際のAR端末から送られる撮像画像とは一致せず、ARの位置特定の際に不具合が生じるという課題があった。   The technique described in Patent Document 1 and the technique described in Patent Document 2 do not take into account the influence of the light source, but also must store all the images and the like associated with the changing light source due to the changing weather and time. There is a problem of not becoming. In general, since a three-dimensional map is information of only an appearance shape, there is a problem that a color is different from that of a captured image. In order to improve this, there is a method of adding texture to the model data, but the texture image is often based on images taken in the daytime, and if the influence of the light source is not considered, the direction of the shadow There is a problem in that the state of lighting or lighting does not match the captured image sent from the actual AR terminal, and a problem occurs when the position of the AR is specified.

また、特許文献3や非特許文献1に記載の技術では、ARにおいて合成されるCGの光源の影響を推定するものの、リアル(実写画像)にバーチャル(合成用CG)を重ねる際の画像表現において合成される側のAR情報としてのバーチャルなCGの光源を考慮するものである。すなわち、これらの発明は、推定した光源に基づいて合成表示用のAR情報としてのCGを作成する方法についての発明である。   Further, in the techniques described in Patent Literature 3 and Non-Patent Literature 1, although the influence of the light source of the CG synthesized in the AR is estimated, in the image representation when the virtual (compositing CG) is superimposed on the real (real image). A virtual CG light source is considered as AR information to be combined. That is, these inventions are inventions relating to a method of creating CG as AR information for composite display based on an estimated light source.

一方、AR技術においては、現在の端末の撮像画像(実写画像)とバーチャルなAR情報(合成用CGなど)を合成する位置を特定するためのマッチング(一致度、類似度、距離計算)の際に、現在のAR端末の撮像画像とDBから取得したデータに基づいて生成される評価用CG画像やDBから取得される撮像画像との一致度を評価するためにDBから取得したデータに基づいて生成もしくはDBから取得される画像(CGを含む)における光源等の影響を考慮しないとAR情報提供がうまくいかないという課題がある。   On the other hand, in the AR technique, matching (matching degree, similarity degree, distance calculation) for specifying a position where a captured image (actual image) of the current terminal and virtual AR information (such as CG for synthesis) are combined is specified. In addition, based on the data acquired from the DB in order to evaluate the degree of coincidence between the current captured image of the AR terminal and the evaluation CG image generated based on the data acquired from the DB and the captured image acquired from the DB. There is a problem in that AR information provision is not successful unless the influence of a light source or the like in an image (including CG) generated or acquired from a DB is considered.

より具体的には、拡張現実は主に次のステップにより実施される。
1.AR装置によるGPS、ジャイロ、撮像画像などに応じた拡張現実実施場所の特定
2.AR装置による撮像画像における拡張現実情報の表示位置の特定
3.特定されたAR装置へのAR情報(合成用CGなど)の撮像画像に対する合成もしくは多重表示
More specifically, augmented reality is mainly implemented by the following steps.
1. 1. Augmented reality implementation location according to GPS, gyro, captured image, etc. by AR device 2. Specification of display position of augmented reality information in captured image by AR device Composite or multiple display of AR information (such as CG for composition) to the specified AR device for captured images

このうち、ステップ1と2は特許文献1や特許文献2のような方法と本願のような方法があり、より具体的には、
a.撮像された画像からCGを生成しDBに蓄え、DBの内容と利用者AR端末の撮像画像から生成されたCGとを特徴情報やVQコードなどにより比較して類似する箇所に対しAR情報の提供を行う特許文献1。
b.撮像された画像をDBに蓄え、DBの内容と利用者AR端末の撮像画像とを特徴情報やVQコードなどにより比較して類似する箇所に対しAR情報の提供を行う特許文献2。c.撮像された画像から生成もしくは取得された情報に基づきCG(評価用CG)の部品データを生成しDBに蓄え、DBに基づいて生成されたCG(評価用CG)と利用者AR端末の撮像画像とを特徴情報やVQコードなどにより比較して類似する箇所に対しAR情報の提供を行う本願。
といった、複数の方法が検討されている。
Among these, steps 1 and 2 include a method as in Patent Document 1 and Patent Document 2 and a method as in the present application. More specifically,
a. CG is generated from the captured image and stored in the DB, and AR information is provided to similar parts by comparing the contents of the DB and the CG generated from the captured image of the user AR terminal by using feature information or VQ code. Patent Document 1 for performing
b. Patent Document 2 that stores captured images in a DB, provides AR information to similar parts by comparing the contents of the DB and captured images of a user AR terminal by using feature information, VQ codes, and the like. c. CG (evaluation CG) component data is generated based on information generated or acquired from the captured image and stored in the DB. The CG (evaluation CG) generated based on the DB and the captured image of the user AR terminal And providing AR information to similar parts by comparing them with feature information or VQ code.
Several methods are being considered.

そして、それぞれの構成において点群処理、線群処理、面群処理、といった形状などの比較がなされ、画像特徴には色特徴、輝度特徴、彩度特徴、色相特徴、形状特徴、輪郭特徴、色空間特徴などの各種特徴情報がある。
なお、特許文献3や非特許文献1は上述の3番目のステップに関する技術である。
Then, in each configuration, shapes such as point group processing, line group processing, and surface group processing are compared, and image features include color features, luminance features, saturation features, hue features, shape features, contour features, and colors. There are various feature information such as spatial features.
Note that Patent Literature 3 and Non-Patent Literature 1 are techniques related to the third step described above.

このAR端末の撮像画像とDB内容に基づく位置や場所のマッチング方法は特許文献1であれば撮像画像より生成されたCGに基づくデータベースとAR端末が現在撮像している撮像画像から生成されるCGとのマッチングにより、適切なラベルを利用者に提示している。特許文献2であれば撮像画像が位置、天候、時刻、季節などにより分類された画像データベースの画像特徴とAR端末で現在撮像されている撮像画像から生成される画像特徴とのマッチングにより、適切なラベルをはじめとする各種情報が表示される。特許文献3であれば撮像画像の位置と方向と時刻に基づいて推定される太陽光源方向に合わせた合成用のバーチャル画像としてのCGを生成し実画像に対して合成する。   If the position and location matching method based on the captured image of the AR terminal and the DB content is Patent Document 1, the CG generated from the database based on the CG generated from the captured image and the captured image currently captured by the AR terminal. Appropriate labels are presented to the user through matching. In the case of Patent Document 2, it is appropriate to match an image feature of an image database in which a captured image is classified by position, weather, time, season, and the like with an image feature generated from a captured image currently captured by an AR terminal. Various information including labels is displayed. If it is patent document 3, CG as a virtual image for a synthesis | combination matched with the solar light source direction estimated based on the position and direction of a captured image, and time is produced | generated, and it synthesize | combines with an actual image.

しかしながら、いずれの先行文献もデータベース側画像特徴などとAR端末の撮像画像から生成された画像特徴などのマッチングにおいて、データベース側画像などがCGに基づいて構成される場合の光源の変化にともなうCG(評価用CG)の変化は想定されていない。   However, in any of the prior documents, in matching of database-side image features and the like and image features generated from the captured image of the AR terminal, CG ( No change in the evaluation CG) is assumed.

本発明は、前記2のステップにおいてリアル(実写画像)とバーチャル(合成用CG)とのマッチングの際に一致度を評価するためのデータベース側画像特徴などを得るためのCG(評価用CG)における光源等の影響を考慮することによって実際に撮影された画像から得られる画像特徴との一致度を改善するためのAR情報処理技術を提供することを目的とする。   The present invention relates to a CG (evaluation CG) for obtaining a database-side image feature or the like for evaluating the degree of coincidence when matching a real (actual image) and a virtual (combination CG) in the step 2 above. It is an object of the present invention to provide an AR information processing technique for improving the degree of coincidence with an image feature obtained from an actually captured image by considering the influence of a light source or the like.

本発明は、利用者AR端末で撮像された実写画像とDBに記録されたデータに基づいて生成されたCG(評価用CG)とを画像情報や特徴情報、VQコードなどといった画像等により比較し、両者のうち類似する箇所に対しAR情報の提供を行うことを特徴とする。なお、前記実写画像から抽出もしくは取得された情報に基づき、CGの部品データを生成しDBを更新してもよい。   In the present invention, a real image captured by a user AR terminal and a CG (evaluation CG) generated based on data recorded in a DB are compared with images such as image information, feature information, and VQ code. The AR information is provided to similar parts of the two. In addition, based on the information extracted or acquired from the photographed image, CG component data may be generated and the DB may be updated.

本発明の一観点によれば、撮像された実写画像もしくは実写画像から抽出される画像特徴やVQコードなどと緯度経度を含む位置情報と日付時刻情報とを含むAR情報要求に基づいて、AR情報(合成用CGなど)を作成するARサーバであって、前記位置情報と天候情報取得部により取得した気象情報とに基づいて、CG画像の作成を依頼するAR情報要求処理情報作成部と、前記AR情報要求処理情報作成部により作成したAR情報要求処理情報により、光源の影響を考慮したCG(評価用CG)の作成をARクラウドCG描画装置に依頼し、返信として得られたCG(評価用CG)などと、前記実写画像の一致度を評価する照合部と、を有し、前記照合部による照合結果として得られたAR情報(合成用CGなど)を、前記画像に情報支援として合成して表示させることを特徴とするARサーバが提供される。   According to one aspect of the present invention, based on an AR information request including a captured real image or an image feature or VQ code extracted from the real image, position information including latitude and longitude, and date / time information, AR information is obtained. An AR server that creates (such as a CG for synthesis), an AR information request processing information creation unit that requests creation of a CG image based on the position information and the weather information acquired by the weather information acquisition unit; Using the AR information request processing information created by the AR information request processing information creation unit, the AR cloud CG drawing apparatus is requested to create a CG (evaluation CG) in consideration of the influence of the light source, and the CG (evaluation CG) and a matching unit that evaluates the degree of coincidence of the photographed image, and AR information (such as CG for synthesis) obtained as a matching result by the matching unit is stored in the image. AR server is provided, characterized in that the synthesis to be displayed as assistance.

また、撮像された実写画像から抽出もしくは取得された情報に基づきCG(評価用CG)の部品データを生成しDBに蓄え、DBに基づいて生成されたCG(評価用CG)と利用者AR端末の撮像画像とを画像同士自体や特徴情報、VQコードなどの画像等により比較して類似する箇所に対しAR情報(合成用CGなど)の提供を行う。   Further, CG (evaluation CG) component data is generated based on information extracted or acquired from the captured real image and stored in the DB. The CG (evaluation CG) generated based on the DB and the user AR terminal The captured images are compared with each other by images themselves, feature information, images such as VQ codes, and the like, and AR information (such as CG for synthesis) is provided to similar parts.

前記AR情報要求処理情報は、
太陽又は月を光源として、前記位置情報と前記日付時刻情報とに依存する前記光源の角度及び照度を光源パラメータとして有しており、前記画像の被写体である建造物の位置と、モデルデータと、高さとを有するデータベースを参照し、前記位置情報と前記建造物の位置とが一致する建造物の高さと前記光源パラメータとに基づいて、前記ARクラウドCG描画装置に前記建造物の影のCGを作成させることが好ましい。
The AR information request processing information is
With the sun or moon as the light source, it has the light source angle and illuminance depending on the position information and the date and time information as light source parameters, the position of the building that is the subject of the image, model data, Referring to a database having a height, based on the height of the building where the position information and the position of the building coincide with each other and the light source parameter, the AR cloud CG drawing device stores the CG of the shadow of the building. It is preferable to make it.

ここで、前記ARクラウドCG描画装置によるCG(評価用CG)の作成の際に、前記建造物IDと、前記建造物の立っている標高と、モデルデータと、前記建造物の周辺の前記光源による影に影響を与える隣接情報と、を有する地形データベースを参照して、前記建造物の影のCGを作成させることが好ましい。   Here, when the CG (evaluation CG) is created by the AR cloud CG drawing device, the building ID, the altitude at which the building stands, model data, and the light sources around the building It is preferable to create a CG of the shadow of the building by referring to a terrain database having adjacent information that affects the shadow of the building.

また、前記ARクラウドCG描画装置によるCG(評価用CG)の作成の際に、前記位置情報をキーとして、前記建造物の周辺の地物の高さと、モデルデータと、地物の面積とを保持する地物データベースを参照して、前記光源による前記建造物の影に影響を与える前記地物の影響を求めることが好ましい。   In addition, when the CG (evaluation CG) is created by the AR cloud CG drawing apparatus, the height of the feature around the building, the model data, and the area of the feature are obtained using the position information as a key. It is preferable to obtain the influence of the feature that affects the shadow of the building by the light source with reference to the feature database held.

前記位置情報は、GPS情報や電子コンパス情報、加速度センサ情報、ジャイロセンサ情報を含む前記AR端末装置の位置や視線方向を特定するための情報群のうちの少なくともいずれか1であることが好ましい。   The position information is preferably at least one of an information group for specifying the position and line-of-sight direction of the AR terminal device including GPS information, electronic compass information, acceleration sensor information, and gyro sensor information.

本発明は、情報支援のための付加情報を付加する付随情報付加部を有することを特徴とする上記ARサーバであっても良い。ここで、付加情報は、例えば、インターネットにより取得した建造物で提供される料理の情報や、イベントの情報、口コミ情報、日替わり情報、商品情報、価格・在庫情報などといったサービス情報などである。   The AR server may include an accompanying information adding unit that adds additional information for information support. Here, the additional information is, for example, service information such as information on dishes provided in buildings acquired via the Internet, event information, word-of-mouth information, daily information, product information, price / stock information, and the like.

前記画像特徴として、画像から抽出される画像特徴や画像VQコードもしくはそれらの群情報としての面群情報、点群情報、線群情報を用いることを特徴とする上記ARサーバであっても良い。   The AR server may use image features extracted from an image, image VQ codes, or surface group information, point group information, and line group information as group information thereof as the image features.

また、本発明は、上記のいずれかに記載の画像又は画像特徴を送るAR端末装置であって、前記ARサーバから受信したAR情報を表示部に表示させることを特徴とするAR端末装置である。   Moreover, the present invention is an AR terminal device that transmits the image or image feature described above, and displays the AR information received from the AR server on a display unit. .

このとき、自端末で撮像された画像にAR情報を合成してもよいし、配信装置側から提供されるARクラウドCG描画装置3が描画したCG画像にAR情報を付加することで表示してもよい。また、AR情報は画像情報として提供されたり、ポリゴンモデル(合成用CGなど)や文字コード、フォント情報、マークアップ言語、音声などによって提供されたりしてもよい。また、AR情報表示における表示位置の指定は前述のARサーバの照合部で用いた情報をAR端末装置に提供し、AR端末装置側の挙動に基づいて予測・補正し、表示位置を決定してもよい。また、AR端末装置がARサーバ1経由でARクラウドCG描画装置3のCG描画用モデリングデータなどを取得し、端末側の状況に合わせて適切な表示位置指定の算出に利用してもよい。AR情報を、付加情報とともに、表示部に表示させるようにしても良い。   At this time, the AR information may be combined with the image captured by the terminal itself, or displayed by adding the AR information to the CG image drawn by the AR cloud CG drawing device 3 provided from the distribution device side. Also good. The AR information may be provided as image information, or may be provided by a polygon model (such as CG for synthesis), a character code, font information, a markup language, or voice. In addition, the designation of the display position in the AR information display provides the AR terminal device with the information used in the above-mentioned AR server collation unit, predicts and corrects based on the behavior on the AR terminal device side, and determines the display position. Also good. Alternatively, the AR terminal device may acquire the CG drawing modeling data of the AR cloud CG drawing device 3 via the AR server 1 and use it for calculating an appropriate display position according to the situation on the terminal side. You may make it display AR information on a display part with additional information.

また、本発明は、上記に記載のCG(評価用CG)を作成するCG描画装置であって、CGを生成するCG生成部と、建造物の影を生成する影生成部と、季節や日時による日の出、日の入りの影響を算出する光学的影響算出部と、太陽や月などの光源の種別等の影響を算出する光源影響算出部と、緯度、経度の影響を算出する緯度経度影響算出部とを有するCG作成部を有することを特徴とするCG描画装置である。   Moreover, this invention is CG drawing apparatus which produces CG (CG for evaluation) as described above, Comprising: The CG production | generation part which produces | generates CG, the shadow production | generation part which produces | generates the shadow of a building, a season, date and time An optical effect calculation unit that calculates the influence of sunrise and sunset by the light source, a light source effect calculation unit that calculates the effect of the type of light source such as the sun and the moon, and a latitude and longitude effect calculation unit that calculates the influence of latitude and longitude A CG drawing apparatus including a CG creation unit having

さらに、その位置における建造物を格納する建造物DBと、その位置における標高や周囲との標高差などを格納する地形DBと、その位置における植生の領域を格納する地物DBと、を有し、前記影生成部は、前記建造物と前記地形と前記植生との少なくともいずれかの影響を考慮して、影を生成することを特徴とする。   Furthermore, it has a building DB for storing the building at the position, a terrain DB for storing the altitude at the position, an altitude difference with the surroundings, and a feature DB for storing the vegetation area at the position. The shadow generation unit generates a shadow in consideration of the influence of at least one of the building, the terrain, and the vegetation.

その他、CG作成部におけるCG描画に必要な様々な影響を考慮してCGを生成することができる。特に、光源に影響を考慮して、リアルな画像との一致度を評価するCGを描画するためのものであるため、実際の画像とできるだけ近いCGを得ることができる。   In addition, it is possible to generate a CG in consideration of various influences necessary for CG drawing in the CG creation unit. In particular, since it is for drawing a CG for evaluating the degree of coincidence with a real image in consideration of the influence on the light source, a CG as close as possible to the actual image can be obtained.

本発明の他の観点によれば、撮像された画像もしくは画像から生成される画像特徴と緯度経度を含む位置情報と日付時刻情報とを含むAR情報要求に基づいて、AR情報を作成するARサーバを用いた情報処理方法であって、前記位置情報と天候情報取得部により取得した気象情報とに基づいて、CG画像の作成を依頼するAR情報要求処理情報作成ステップと、前記AR情報要求処理情報作成ステップにより作成したAR情報要求処理情報により、光源の影響を考慮したCGの作成をARクラウドCG描画装置に依頼し、返信として得られたCGと、前記AR情報との一致度を評価する照合ステップと、を有し、前記照合ステップによる照合結果として得られたAR情報を、前記画像に情報支援として合成して表示させることを特徴とする情報処理方法が提供される。   According to another aspect of the present invention, an AR server that creates AR information based on an AR information request including a captured image or an image feature generated from the image, position information including latitude and longitude, and date / time information. An AR information request processing information creation step for requesting creation of a CG image based on the position information and the weather information acquired by the weather information acquisition unit, and the AR information request processing information The AR information request processing information created in the creation step is used to request the AR cloud CG rendering device to create a CG in consideration of the influence of the light source, and collation for evaluating the degree of coincidence between the CG obtained as a reply and the AR information And AR information obtained as a collation result in the collation step is combined and displayed as information support on the image. Broadcast processing method is provided.

本発明は、上記に記載の情報処理方法を、コンピュータに実行させるためのプログラムであっても良く、当該プログラムを記録するコンピュータ読み取り可能な記録媒体であっても良い。   The present invention may be a program for causing a computer to execute the information processing method described above, or a computer-readable recording medium for recording the program.

本発明によれば、緯度・経度・時刻や天候による日照状態などの照明・光源環境に基づいた処理を行うことにより、ARにおける端末が撮像した実空間画像と位置や場所を特定するためのDB側で構成される評価用CG画像とのマッチング(類似度評価、一致度評価、距離評価)における精度をより実画像に近い光源を考慮した評価用CGとの比較によって実現することにより、光源変化の影響を低減させることで改善させることができる。くわえて、3次元モデルデータと光源非依存のテクスチャデータによる立体地図データをDBに保存することにより、多様な光源を考慮した状態の膨大な画像群やCG群や特徴群等をDBに保存する必要がなくなり、記憶効率および検索効率の改善を図ることができる。   According to the present invention, by performing processing based on illumination / light source environment such as latitude, longitude, time of day, and sunshine state due to weather, a real space image captured by the terminal in the AR and a DB for specifying the position and location By realizing the accuracy in matching (similarity evaluation, coincidence evaluation, distance evaluation) with the evaluation CG image formed on the side by comparing with the evaluation CG in consideration of the light source closer to the actual image, the light source change It can be improved by reducing the influence of. In addition, 3D model data and light source-independent texture data are stored in the DB, thereby storing a large number of image groups, CG groups, feature groups, etc. in a state taking into account various light sources in the DB. This eliminates the need for improvement in storage efficiency and retrieval efficiency.

本発明の一実施の形態によるAR情報処理システムの一構成例を示す機能ブロック図である。It is a functional block diagram which shows the example of 1 structure of AR information processing system by one embodiment of this invention. 本実施の形態によるAR情報処理システムのうち、ARサーバの一構成例を示す機能ブロック図である。It is a functional block diagram which shows one structural example of AR server among the AR information processing systems by this Embodiment. 本実施の形態によるAR情報処理システムのうち、AR端末装置の一構成例を示す機能ブロック図である。It is a functional block diagram which shows the example of 1 structure of AR terminal apparatus among the AR information processing systems by this Embodiment. 本実施の形態によるAR情報処理システムのうち、ARクラウドCG描画装置の一構成例を示す機能ブロック図である。It is a functional block diagram which shows the example of 1 structure of AR cloud CG drawing apparatus among the AR information processing systems by this Embodiment. 本実施の形態による情報処理方法の処理の流れの一例を示すフローチャート図である。It is a flowchart figure which shows an example of the flow of a process of the information processing method by this Embodiment. 本実施の形態における、AR情報要求処理情報の一例を示す図である。It is a figure which shows an example of AR information request process information in this Embodiment. 本実施の形態における、建造物DBの一例を示す図である。It is a figure which shows an example of building DB in this Embodiment. 本実施の形態における、地形DBの一例を示す図である。It is a figure which shows an example of landform DB in this Embodiment. 本実施の形態における、地物DBの一例を示す図である。It is a figure which shows an example of feature DB in this Embodiment. 建物の影の天候依存の一例を示す図である。It is a figure which shows an example of the weather dependence of the shadow of a building. 建物の影の時間依存の一例を示す図である。It is a figure which shows an example of the time dependence of the shadow of a building. 建物の影の光源の種類依存の一例を示す図である。It is a figure which shows an example of the kind dependence of the light source of the shadow of a building. 建物の影の北半球と南半球との位置依存の一例を示す図である。It is a figure which shows an example of the position dependence of the northern and southern hemispheres of the shadow of a building. 建物の影の緯度依存の一例を示す図である。It is a figure which shows an example of the latitude dependence of the shadow of a building.

以下、本発明の一実施の形態によるAR情報処理技術について、図面を参照しながら説明を行う。図1は、本実施の形態のAR情報処理システムの一構成例を示す機能ブロック図である。図1に示すように、本実施の形態によるAR情報処理システムAは、ARサーバ1と、ARクラウドCG描画装置3と、AR端末装置5と、を有している。ARサーバ1とAR端末装置5とは、インターネットやローカルネットワークなどのネットワークNTにより接続される。AR端末装置5は、例えば、スマートフォンや携帯電話機などの携帯端末である。   Hereinafter, an AR information processing technique according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a functional block diagram illustrating a configuration example of the AR information processing system according to the present embodiment. As illustrated in FIG. 1, the AR information processing system A according to the present embodiment includes an AR server 1, an AR cloud CG drawing device 3, and an AR terminal device 5. The AR server 1 and the AR terminal device 5 are connected by a network NT such as the Internet or a local network. The AR terminal device 5 is a mobile terminal such as a smartphone or a mobile phone.

図2は、ARサーバ1の一構成例を示す機能ブロック図である。図2に示すように、ARサーバ1は、例えば、制御部(CPU)1−1と、通信部1−2と、照合部(マッチング部)1−3と、記憶部(ARデータベース、データベースへのアクセス手段であっても良い。)1−4と、付随情報付加部1−5と、天候情報取得部1−6と、日時情報取得部1−7と、AR情報要求処理情報作成部1−8と、を有している。制御部(CPU)1−1は、全体の制御を行う。通信部1−2は、AR端末装置5、ARクラウドCG描画装置3との間で情報をやり取りする機能を有する。照合部(マッチング部)1−3は、ARにおけるリアルな実空間画像とバーチャルなCG画像とのマッチング(類似度評価)を行う。ARデータベース(記憶部又はデータベースへのアクセス手段)1−4は、リアルな画像や、その画像の位置情報、名称などの属性情報などを格納する。付随情報付加部1−5は、リアルな画像に付随する付加的な情報を付加する。付随的な情報としては、リアルな画像の属性、例えば建造物であればその名称や高さ、場所などである。天候情報取得部1−6は、気象衛星や気象レーダ、雨量計のネットワーク、自動車のワイパー挙動情報などから、ある時点の天候、例えば、現在の天候などの、画像撮影時の天候などを取得する。日時情報取得部1−7は、現在日時や、異なる国などの時差も考慮した日時を取得する。AR情報要求処理情報作成部1−8は、ARサーバ1がCG描画装置3に対して要求する形状情報やテクスチャ情報などを考慮したCGの作成を要求するためのAR情報要求処理の情報を作成する。   FIG. 2 is a functional block diagram illustrating a configuration example of the AR server 1. As shown in FIG. 2, the AR server 1 includes, for example, a control unit (CPU) 1-1, a communication unit 1-2, a collation unit (matching unit) 1-3, and a storage unit (AR database, database). 1), the accompanying information adding unit 1-5, the weather information acquiring unit 1-6, the date and time information acquiring unit 1-7, and the AR information request processing information generating unit 1 -8. The control unit (CPU) 1-1 performs overall control. The communication unit 1-2 has a function of exchanging information between the AR terminal device 5 and the AR cloud CG drawing device 3. The matching unit (matching unit) 1-3 performs matching (similarity evaluation) between a real real space image and a virtual CG image in AR. The AR database (storage unit or database access means) 1-4 stores a real image, attribute information such as position information and name of the image, and the like. The accompanying information adding unit 1-5 adds additional information accompanying a real image. The accompanying information includes realistic image attributes such as the name, height, and location of a building. The weather information acquisition unit 1-6 acquires the weather at the time of image capturing, such as the weather at a certain time, for example, the current weather, from a weather satellite, a weather radar, a rain gauge network, an automobile wiper behavior information, and the like. . The date and time information acquisition unit 1-7 acquires the date and time in consideration of the current date and time difference such as different countries. The AR information request processing information creation unit 1-8 creates information on AR information request processing for requesting creation of CG in consideration of shape information, texture information, and the like requested by the AR server 1 to the CG rendering device 3. To do.

ARクラウドCG描画装置3は、単体ではなく、例えば、世界中にある装置を連携させる仕組みを含むことを意図したものである。もちろん、単体の装置を排除するものではない。   The AR cloud CG drawing device 3 is not a single unit, but is intended to include a mechanism for linking devices around the world, for example. Of course, this does not exclude a single device.

図3は、AR端末装置5の一構成例を示す機能ブロック図である。図3に示すように、AR端末装置5は、例えば、スマートフォンや携帯電話機であり、制御部(CPU)5−1と、通信部5−2と、GPSなどの位置情報取得部5−3と、カメラやムービーなどの撮影部5−4と、液晶ディスプレイなどの表示部5−5と、を有している。その他、タッチパッドやボタンなどの入力部、音声通話部、加速度センサ、人感センサ、ジャイロセンサなどを有していても良い。通話した音声やセンサによるセンシングもしくは検索結果を、AR画像に反映させるようにしても良い。   FIG. 3 is a functional block diagram illustrating a configuration example of the AR terminal device 5. As illustrated in FIG. 3, the AR terminal device 5 is, for example, a smartphone or a mobile phone, and includes a control unit (CPU) 5-1, a communication unit 5-2, and a position information acquisition unit 5-3 such as a GPS. And an imaging unit 5-4 such as a camera or a movie and a display unit 5-5 such as a liquid crystal display. In addition, an input unit such as a touch pad or a button, a voice call unit, an acceleration sensor, a human sensor, or a gyro sensor may be included. You may make it reflect the sensing or search result by the audio | voice which talked, and a sensor in AR image.

図4は、ARクラウドCG描画装置3の一構成例を示す機能ブロック図である。図4に示すように、ARクラウドCG描画装置3は、制御部(CPU)3−1と、通信部3−2と、CG作成部3−3と、DB部3−9と、を有している。   FIG. 4 is a functional block diagram showing a configuration example of the AR cloud CG drawing device 3. As illustrated in FIG. 4, the AR cloud CG drawing device 3 includes a control unit (CPU) 3-1, a communication unit 3-2, a CG creation unit 3-3, and a DB unit 3-9. ing.

CG作成部3−3は、CGを生成するCG生成部3−4と、建物などの地物の影を生成する影生成部3−5と、季節や日時による日の出、日の入りの影響を算出する光学的影響算出部3−7と、太陽や月などの光源の種別等の影響を算出する光源影響算出部3−7と、緯度、経度の影響を算出する緯度経度影響算出部3−8等を有している。DB部3−9は、例えば、その位置におけるビルや家屋、タワー、遊園地などのいわゆる施設や建造物などを格納する建造物DB3−10と、その位置における標高や周囲との標高差などを格納する地形DB3−11と、その位置における森、湖などの地物(植生)の領域等を格納する地物DB3−12等と、を有している。その他、CG作成部3−3におけるCG描画に必要な様々な影響を考慮してCGを生成することができる。本実施の形態では、特に、光源の影響を考慮して、実写画像との一致度を評価するCGを描画するためのものであるため、実際の画像とできるだけ近いCG(評価用CG)を得ることができるようにすることが好ましい。   The CG creation unit 3-3 calculates the effects of the CG generation unit 3-4 that generates a CG, the shadow generation unit 3-5 that generates a shadow of a feature such as a building, and the sunrise and sunset according to the season and the date and time. Optical influence calculation unit 3-7, light source effect calculation unit 3-7 that calculates the influence of the type of light source such as the sun and moon, and latitude / longitude influence calculation unit 3-8 that calculates the influence of latitude and longitude have. The DB unit 3-9 stores, for example, a building DB 3-10 that stores a so-called facility or building such as a building, a house, a tower, or an amusement park at that position, and an altitude difference between the altitude at that position or the surroundings. It has a terrain DB 3-11 to be stored, a feature DB 3-12 to store a region of a feature (vegetation) such as a forest or a lake at the position, and the like. In addition, it is possible to generate a CG in consideration of various influences necessary for CG rendering in the CG creation unit 3-3. In the present embodiment, in particular, the CG for evaluating the degree of coincidence with the photographed image is drawn in consideration of the influence of the light source. Therefore, a CG (evaluation CG) as close as possible to the actual image is obtained. It is preferable to be able to do so.

図5は、本実施の形態による情報処理方法の流れの一例を示すフローチャート図である。まず、処理を開始するために、AR端末装置5において、撮像部5−4でリアルな画像、例えばビルなどの建物を撮像する(動画撮影を継続していても良い)。そして、位置情報取得部5−3により、緯度・経度に基づく現在位置を取得して、例えば、現在位置との関係やカメラの画角等により建物の位置を求め、建物の画像と位置情報との関連付けを行う。この際、AR端末装置が建物を撮影しているカメラの画角と測距機能などに基づいて現在位置から建物の位置を求めた情報を取得するようにしても良い。また、位置情報の他に、日付、時刻などの属性情報を取得するようにしても良い。   FIG. 5 is a flowchart showing an example of the flow of the information processing method according to this embodiment. First, in order to start the process, the AR terminal device 5 images a real image, for example, a building such as a building, by the imaging unit 5-4 (moving image shooting may be continued). Then, the position information acquisition unit 5-3 acquires the current position based on the latitude and longitude, for example, obtains the position of the building based on the relationship with the current position, the angle of view of the camera, and the like. Make an association. At this time, the AR terminal device may acquire information for obtaining the position of the building from the current position based on the angle of view of the camera capturing the building and the distance measuring function. In addition to the position information, attribute information such as date and time may be acquired.

さらに、画像とともに、又は、画像に代えて、特徴量やVQコードなどを作成しても良い。AR端末装置5の通信部5−2が、これらの情報をARサーバ1に送ると、ステップS1に示すように、ARサーバ1の通信部1−2は、撮像画像等と撮像画像等の属性情報を受信する。次いで、ステップS2において、ARサーバ1がAR端末装置5からの撮像画像等と撮像画像等の属性情報に加えて、必要に応じて、日時取得部1−7、天候情報取得部1−6を用いて、必要な日時や、天候の情報などの追加情報を取得するようにしても良い。   Further, a feature amount, a VQ code, or the like may be created together with the image or instead of the image. When the communication unit 5-2 of the AR terminal device 5 sends these pieces of information to the AR server 1, as shown in step S1, the communication unit 1-2 of the AR server 1 determines the attributes such as the captured image and the captured image. Receive information. Next, in step S2, the AR server 1 adds a date and time acquisition unit 1-7 and a weather information acquisition unit 1-6 as necessary in addition to the captured image from the AR terminal device 5 and the attribute information such as the captured image. It may be used to acquire additional information such as necessary date and time and weather information.

なお、属性情報とは、必要に応じてAR端末装置5のGPSなどによる位置情報であったり、撮像部の撮像方向を特定するための傾斜センサやジャイロセンサであったり、画角や焦点距離、絞り値、レンズ径、日時などであったりしてもよい。   The attribute information is position information by the GPS of the AR terminal device 5 as necessary, an inclination sensor or a gyro sensor for specifying the imaging direction of the imaging unit, an angle of view, a focal length, It may be an aperture value, a lens diameter, a date and the like.

尚、上記特許文献3にも記載されているように、AR端末装置5で取得した画像中において、ビルやタワーなど建造物等である被写体の画像に関しては、AR端末装置5の撮像部(カメラ)5−4において、上記傾斜センサから求まる角度センサ出力(画角)と焦点距離とに基づいて、姿勢情報(姿勢行列、例えば、「岡谷貴之、“メカニカルセンサとイメージセンサの融合による3次元形状復元”、情報処理学会研究報告会、2005−CVIM−147、pp.123−130、2005」参照)と被写体までの距離を求めることができる。GPS等で求めたカメラの位置と、上記角度センサ出力(画角)と焦点距離とに基づいて、カメラ画像中の建造物等の位置を知ることができる。   Note that, as described in Patent Document 3 described above, regarding an image of a subject such as a building such as a building or a tower in an image acquired by the AR terminal device 5, an imaging unit (camera) of the AR terminal device 5 is used. ) 5-4, based on the angle sensor output (angle of view) obtained from the tilt sensor and the focal length, the posture information (posture matrix, for example, “Takayuki Okaya,“ three-dimensional shape by fusion of mechanical sensor and image sensor) Restoration ", Information Processing Society of Japan Research Report 2005-CVIM-147, pp. 123-130, 2005") and the distance to the subject can be obtained. The position of a building or the like in the camera image can be known based on the position of the camera obtained by GPS or the like, the angle sensor output (angle of view), and the focal length.

次いで、ステップS3において、ARサーバ1が、ARクラウドCG描画装置3に対して、ステップS1で受信した属性情報と、ステップS2で取得した追加情報と、に基づく、位置、日付、時刻、天候の情報を送信する。   Next, in step S3, the AR server 1 gives the AR cloud CG drawing device 3 the location, date, time, and weather information based on the attribute information received in step S1 and the additional information acquired in step S2. Send information.

図6は、ARサーバ1が、ARクラウドCG描画装置3に対して送るAR情報要求処理情報の一構成例を示す図であり、この情報を、ARサーバ1の記憶部1−4に記憶しておいても良い。   FIG. 6 is a diagram showing a configuration example of the AR information request processing information sent from the AR server 1 to the AR cloud CG rendering device 3. This information is stored in the storage unit 1-4 of the AR server 1. You can keep it.

図6に示すAR情報要求処理情報は、ARサーバ1がCG描画装置3に対して要求する形状情報やテクスチャ情報などを考慮したCGの作成を要求するためのAR情報要求処理の情報であり、例えば、AR端末装置1から送られた撮像画像の属性情報と、追加情報と、に基づいて作成する情報である。例えば、東京、札幌、福岡などの撮影場所の地名と(より詳細な地名であるが、ここでは、例示として上記3箇所の地名を挙げる)、撮影したAR端末装置5の位置情報(緯度、経度、標高等)、撮影年月日、撮影時刻(時計などから取得する)、と、位置情報に依存する光源に関する情報である、0−24時までの時刻と、日の出、日の入りの時刻、南中高度と時刻、時間毎の日照量(昼間)、月明かりにより照度(夜間)等の光源パラメータを有する。光源パラメータを含むこのAR情報要求処理情報により、ARクラウドCG描画装置3において、光源の影響を詳細に考慮してCG画像を作成することができる。   The AR information request processing information shown in FIG. 6 is information on AR information request processing for requesting creation of CG in consideration of shape information, texture information, and the like requested by the AR server 1 to the CG rendering device 3. For example, the information is created based on the attribute information of the captured image sent from the AR terminal device 1 and the additional information. For example, the place name of a shooting place such as Tokyo, Sapporo, Fukuoka, etc. (more detailed place names, but here, the names of the above three places are given as examples), and the location information (latitude, longitude) of the shot AR terminal device 5 , Altitude, etc.), shooting date, shooting time (acquired from a clock, etc.), and information on the light source depending on the position information, the time from 0 to 24:00, sunrise, sunset time, south-central Light source parameters such as altitude and time, amount of sunshine per day (daytime), and illuminance (nighttime) depending on the moonlight. With this AR information request processing information including the light source parameter, the AR cloud CG rendering device 3 can create a CG image in consideration of the influence of the light source in detail.

ARクラウドCG描画装置3は、通信部3−2により受信した位置、日付、時刻、天候のAR情報要求処理情報に基づいて、CG描画を行う。ここで、CG作成部3−3は、位置、日付、時刻のAR情報要求処理情報を基に、記憶部(DB部)3−9の建造物DB3−10と地形DB3−11と地物DB3−12とを検索し、これらの建造物と地形と地物とに対して、日付、時刻、天候のAR情報要求処理情報を基に、影生成部3−4が影を生成する。   The AR cloud CG drawing device 3 performs CG drawing based on the AR information request processing information on the position, date, time, and weather received by the communication unit 3-2. Here, the CG creation unit 3-3 creates the building DB 3-10, the terrain DB 3-11, and the feature DB 3 of the storage unit (DB unit) 3-9 based on the AR information request processing information of the position, date, and time. -12 and the shadow generation unit 3-4 generates shadows for these buildings, terrain, and features based on the AR information request processing information of date, time, and weather.

図7は、建造物DBの一例を示す図である。図7に示すように、建造物DBは、建造物を一意に識別する建造物IDと、建造物の名称と、緯度、経度による位置と、モデルデータと、建造物の高さとを有している。モデルデータは、(x,y、z)座標の組からなり、例えば、立方体であれば、各頂点の(x,y、z)座標により指定される。モデルデータとは、ポリゴン形状データやテクスチャデータ、UVマップデータなどによる物体のCG描画を実施するためのデータを指す。   FIG. 7 is a diagram illustrating an example of a building DB. As shown in FIG. 7, the building DB includes a building ID that uniquely identifies the building, a name of the building, a position based on latitude and longitude, model data, and a height of the building. Yes. The model data consists of a set of (x, y, z) coordinates. For example, in the case of a cube, the model data is specified by the (x, y, z) coordinates of each vertex. Model data refers to data for performing CG drawing of an object using polygon shape data, texture data, UV map data, or the like.

建造物DBの位置とAR情報要求処理情報における位置とを対比させて、同じ位置の建造物を特定し、その高さやモデルデータ、南中高度等から光源に依存する影を求めることができる。   By comparing the position of the building DB with the position in the AR information request processing information, the building at the same position can be specified, and the shadow depending on the light source can be obtained from its height, model data, south-central altitude, and the like.

図8は、地形DBの一例を示す図である。図8に示すように、地形DBは、建造物IDに対応して、モデルデータと、その標高と隣接(周囲)情報とを有している。モデルデータは、(x,y、z)座標の組からなり、例えば、立方体であれば、各頂点の(x,y、z)座標により指定される。標高は、図6により基本的には求まるが、撮影位置での標高と、被写体である建造物等の標高とは異なる場合が多いため、建造物の標高を基準に影を求めることが好ましい。また、隣接情報は、周囲に建造物以外に建造物の影にかかるようなビルがあるかどうか、そのようなビルが有る場合には、どの程度の高さのビルがどの位置にあるかなどの情報を格納している。これにより、ビルなどの形状や影の形などをより詳細かつ精度良く求めることができる。   FIG. 8 is a diagram illustrating an example of the landform DB. As shown in FIG. 8, the terrain DB has model data, its altitude, and adjacent (surrounding) information corresponding to the building ID. The model data consists of a set of (x, y, z) coordinates. For example, in the case of a cube, the model data is specified by the (x, y, z) coordinates of each vertex. The altitude is basically obtained from FIG. 6, but since the altitude at the shooting position is often different from the altitude of the building or the like that is the subject, it is preferable to obtain the shadow based on the altitude of the building. The adjacency information also indicates whether there are buildings in the surroundings that are covered by the shadow of the building, and if there is such a building, what height building is in which position, etc. Is stored. Thereby, the shape of a building, the shape of a shadow, etc. can be calculated | required in detail and accurately.

図9は、地物DBの一例を示す図である。図9に示すように、地物DBは、自然の地形、例えば、湖や山などの地物の情報を格納する。地物を一意に特定する地物IDと、湖や山などの種別と、モデルデータと、位置と、高さ及び面積などからなり、これらの地物の光源及び影に与える影響を求めることができる。これらのモデルデータは、(x,y、z)座標の組からなり、例えば、台形に近い山であれば、各頂点の(x,y、z)座標により指定される。例えば、太陽と建造物との間に大きな山があれば、影はほとんど生成されず、湖があれば、その湖の領域には、光源が建造物に与える影響がほとんどないことを推定することができる。また、物理演算モデルなどを用いて、起立した崖の崩落や水面の波の変化や水流をCGでシミュレーション的に描画してもよくシミュレーションされたCGと実写の類似を単位面積当たりの輝度確率や近似色相評価によって処理してもよい。   FIG. 9 is a diagram illustrating an example of the feature DB. As shown in FIG. 9, the feature DB stores information on natural terrain, for example, features such as lakes and mountains. It consists of feature IDs that uniquely identify features, types such as lakes and mountains, model data, position, height, area, etc., to determine the influence of these features on the light source and shadow. it can. These model data are composed of a set of (x, y, z) coordinates. For example, in the case of a mountain close to a trapezoid, it is specified by the (x, y, z) coordinates of each vertex. For example, if there is a large mountain between the sun and the building, little shadow will be generated, and if there is a lake, estimate that the area of the lake has little effect on the building by the light source. Can do. Also, by using a physics calculation model or the like, standing cliff collapses, changes in water surface waves, and water flow may be drawn in CG simulations. You may process by approximate hue evaluation.

以上のように、図6から図9までの情報に基づいて、AR情報要求処理情報に基づく、光源及び影を含む精度の良いCGを生成することができる。   As described above, based on the information from FIG. 6 to FIG. 9, it is possible to generate a highly accurate CG including the light source and the shadow based on the AR information request processing information.

なお、このときのCGに用いる描画データは、図7、図8、図9において指定されているデータを用いる構成が考えられ、緯度・経度・時刻・視線方向によって選択されモデルデータに従った一致度評価用のCGが描画される。このため、端末の緯度経度と視線から算出される拡張現実画像表示対象の緯度経度を得ることにより適切なARの実現を可能とする。また、図7、図8、図9においてモデルデータは直接記載されるものではなく、各データへのリンクIDであったり、各データのファイル名であったりしてもよい。   Note that the drawing data used for the CG at this time may be configured to use the data specified in FIGS. 7, 8, and 9, and is selected according to latitude, longitude, time, and line-of-sight direction, and matches according to the model data. A CG for degree evaluation is drawn. For this reason, it is possible to realize an appropriate AR by obtaining the latitude and longitude of the augmented reality image display target calculated from the latitude and longitude of the terminal and the line of sight. 7, 8, and 9, the model data is not directly described, and may be a link ID to each data or a file name of each data.

その際、光学的影響算出部3−6が、AR情報要求処理情報に基づいて、季節、日時による日の入り、日の出の時刻や、天候などの情報などから、建造物に対する光学的な変化の影響を算出し、さらに、光源影響算出部3−7が季節や時刻などにより、光源の影響、例えば、太陽、月などの光源の種別や光源による照度の影響などを算出する。この際、緯度・経度影響算出部3−8が、光源等に関する緯度、経度の依存性も考慮する。このような処理により、CG作成部3−3が作成する評価用CGをより精度の良いものとすることができる。   At that time, based on the AR information request processing information, the optical influence calculation unit 3-6 determines the influence of the optical change on the building from information such as the season, the sunset by the date and time, the sunrise time, and the weather. Further, the light source influence calculation unit 3-7 calculates the influence of the light source, for example, the type of the light source such as the sun and the moon, the influence of the illuminance by the light source, and the like according to the season and time. At this time, the latitude / longitude influence calculation unit 3-8 also considers the dependency of latitude and longitude on the light source and the like. By such processing, the evaluation CG created by the CG creation unit 3-3 can be made more accurate.

また、属性情報として、AR端末の撮像部での撮影に伴い取得した画角や方向、絞り、照度、色温度などを加味して評価用CGを生成してもよい。   In addition, as attribute information, an evaluation CG may be generated in consideration of an angle of view, a direction, an aperture, an illuminance, a color temperature, and the like acquired in association with shooting by the imaging unit of the AR terminal.

なお、評価用CGばかりではなく本発明を利用して光源を考慮した陰影や画質の適応された合成用CGを生成してもよい。   In addition to the evaluation CG, the present invention may be used to generate a synthesis CG adapted for shadows and image quality in consideration of the light source.

次いで、ステップS4において、ARクラウドCG描画装置3が描画した評価用CGをARサーバ1に返信する。ここで、評価用CGとともに、又は、評価用CGに代えて、評価用CGの特徴量、VQコードなどを送るようにしても良い。ステップS5において、ARサーバ1が、ARクラウドCG描画装置3からのCG画像情報などを受信する。次いで、ステップS6において、ARサーバ1の照合部1−3が、ステップS5で受信した評価用CG画像情報等と、ステップS1においてAR端末装置5から受信した撮像画像等とを照合する。そして、ステップS7において、その照合部1−3からの照合結果である一致度評価に基づいて、ARデータベース1−4内に格納されているAR情報を端末から得られた撮像画像内のマッチングに基づく位置情報等に基づいて検索し、検索結果として得られたAR情報をAR端末装置5に通信部1−2から送信する。位置情報等とはGPS情報や電子コンパス情報、加速度センサ情報、ジャイロセンサ情報、HMD(ヘッドマウントディスプレイ)における瞳孔検出情報などのAR端末装置の位置や視線方向を特定するための情報群を指し、他の発明においても言及されるAR情報表示の特定に必要な情報を含むものとする。   Next, in step S4, the evaluation CG drawn by the AR cloud CG drawing device 3 is returned to the AR server 1. Here, together with the evaluation CG or instead of the evaluation CG, the characteristic amount of the evaluation CG, the VQ code, or the like may be sent. In step S5, the AR server 1 receives CG image information and the like from the AR cloud CG drawing device 3. Next, in step S6, the collation unit 1-3 of the AR server 1 collates the evaluation CG image information received in step S5 with the captured image received from the AR terminal device 5 in step S1. In step S7, the AR information stored in the AR database 1-4 is used for matching in the captured image obtained from the terminal on the basis of the matching score that is the matching result from the matching unit 1-3. A search is performed based on the positional information and the like, and the AR information obtained as a search result is transmitted to the AR terminal device 5 from the communication unit 1-2. Position information and the like refers to a group of information for specifying the position and line-of-sight direction of an AR terminal device such as GPS information, electronic compass information, acceleration sensor information, gyro sensor information, pupil detection information in HMD (head mounted display), Information necessary for specifying the AR information display mentioned in other inventions is included.

この際、情報支援のために、付加情報を付加して送っても良い。付加情報は、例えば、インターネットにより取得した建造物で提供される料理の情報や、イベントの情報、口コミ情報、日替わり情報、商品情報、価格・在庫情報などといったサービス情報などである。   At this time, additional information may be added for information support. The additional information is, for example, service information such as information on dishes provided in buildings acquired via the Internet, event information, word-of-mouth information, daily information, product information, price / stock information, and the like.

また、画像等の別の処理方法として、単純に端末から画像を送信したり、ARクラウドCG描画装置からCG画像を送信したりするばかりではなく、それら画像から生成される画像特徴や画像VQコードもしくはそれらの群情報としての面群情報、点群情報、線群情報を画像の代わりに利用してもよい。   As another processing method for images and the like, not only simply transmitting an image from a terminal or transmitting a CG image from an AR cloud CG rendering device, but also image features and image VQ codes generated from these images Alternatively, surface group information, point group information, and line group information as the group information may be used instead of the image.

次いで、AR端末装置5は、ARサーバ1から受信したAR情報を、付加情報とともに、その表示部5−5に表示させることができる。このとき、自端末で撮像された画像にAR情報を合成してもよいし、配信装置側から提供されるARクラウドCG描画装置3が描画したCG画像(評価用CG)にAR情報を付加することで表示してもよい。また、AR情報は画像情報として提供されたり、ポリゴンモデル(合成用CG)や文字コード、フォント情報、マークアップ言語、音声などによって提供されたりしてもよい。また、AR情報表示における表示位置の指定は前述のARサーバ1の照合部1−3で用いた情報をAR端末装置に提供し、AR端末装置側の挙動に基づいて予測・補正し、表示位置を決定してもよい。また、AR端末装置がARサーバ1経由でARクラウドCG描画装置3のCG描画用モデリングデータなどを取得し、端末側の状況に合わせて適切な表示位置指定の算出に利用してもよい。   Next, the AR terminal device 5 can display the AR information received from the AR server 1 on the display unit 5-5 together with the additional information. At this time, the AR information may be combined with the image captured by the own terminal, or the AR information is added to the CG image (CG for evaluation) drawn by the AR cloud CG drawing device 3 provided from the distribution device side. May be displayed. The AR information may be provided as image information, or may be provided by a polygon model (composition CG), a character code, font information, a markup language, a voice, or the like. In addition, the designation of the display position in the AR information display provides the information used in the collation unit 1-3 of the AR server 1 to the AR terminal apparatus, and predicts / corrects it based on the behavior on the AR terminal apparatus side. May be determined. Alternatively, the AR terminal device may acquire the CG drawing modeling data of the AR cloud CG drawing device 3 via the AR server 1 and use it for calculating an appropriate display position according to the situation on the terminal side.

尚、上記の例において、ARクラウドCG描画装置3は、インターネットなどの通信手段を介して複数に分散配置されていても良い。また、ARクラウドCG描画装置3はARサーバ1に組み込まれていても良い。   In the above example, the AR cloud CG drawing device 3 may be distributed in plural via communication means such as the Internet. The AR cloud CG drawing device 3 may be incorporated in the AR server 1.

上記の情報処理方法によれば、AR端末装置から送られた撮影画像や属性情報により推定できる天気や光源の状態等に基づいて評価用CGを描画し、この描画した評価用CGとAR端末装置から送られてきた画像等との一致度に基づいて、ARデータベースからAR情報を取得して、このAR情報をAR端末装置に送って表示させることができるため、一致度(類似度)の精度を向上させることができ、より精度の高いAR表示をできるようにAR情報等を求めてAR端末装置にAR情報等を送ることができる。   According to the information processing method, the evaluation CG is drawn based on the weather, the light source state, and the like that can be estimated from the captured image and attribute information sent from the AR terminal device, and the drawn evaluation CG and the AR terminal device are drawn. Since the AR information can be acquired from the AR database based on the degree of coincidence with the image sent from the AR, and the AR information can be sent to the AR terminal device for display, the accuracy of the degree of coincidence (similarity) AR information can be obtained and AR information can be sent to the AR terminal device so that AR display with higher accuracy can be performed.

以下に、評価用CGを描画する際の光源の影響を例にして、本実施の形態についてより具体的簡易的に例示して説明する。実際のCG描画はより光源色を意識したり、反射を意識したり、多光源を意識したり、端末装置の撮像部の光学系を意識したりした光学的補正の行われた評価用CG描画であることが好ましい。   Hereinafter, the present embodiment will be described more specifically and simply by taking the influence of the light source when drawing the evaluation CG as an example. In actual CG drawing, CG drawing for evaluation is optically corrected in consideration of the light source color, reflection, multi-light source, and the optical system of the imaging unit of the terminal device. It is preferable that

図10は、建造物(ビル等)Bの影に与える天候の依存性を示す図である。図10(a)に示すように、天候が晴れの場合には、ビルBの影は色濃くなるのに対して、図10(b)に示すように曇りの場合には、ほとんど影が見えないので、天候情報に基づいて、CGにおける影を推測することができる。このようにして得たCGをリアルな画像との一致度評価に用いることで、より精度の高いAR情報を検索して提示することができる。   FIG. 10 is a diagram showing the dependence of the weather on the shadow of the building (building, etc.) B. As shown in FIG. As shown in FIG. 10 (a), when the weather is clear, the shadow of building B becomes darker, whereas when it is cloudy as shown in FIG. 10 (b), almost no shadow is visible. Therefore, the shadow in CG can be estimated based on weather information. By using the CG thus obtained for evaluation of the degree of coincidence with a real image, it is possible to search and present AR information with higher accuracy.

同様に、図11は、時間依存、太陽の方向依存を示す図である。図11(a)に示すように、太陽などの光源は、時間により方向(角度などを含む)が変化する。そこで、朝であれば、東の方向に太陽が位置するため、その方向と反対の方向に建物Bの影ができる。一方、図11(b)に示すように、夕方であれば、西の方向に対応が位置するため、その方向と反対の方向に建物Bの影ができる。   Similarly, FIG. 11 is a diagram showing time dependency and solar direction dependency. As shown in FIG. 11 (a), the direction of light sources such as the sun (including angles and the like) changes with time. Therefore, in the morning, since the sun is located in the east direction, the shadow of the building B is formed in the opposite direction. On the other hand, as shown in FIG. 11B, since the correspondence is located in the west direction in the evening, the shadow of the building B is formed in the opposite direction.

図12は、光源の種類(昼と夜)依存を示す図である。図12(a)に示すように、昼間は、太陽が光源であるため、建物Bの影は色が濃いが、図12(b)に示すように、夜であれば、月がでている程度であるため、ほとんど影は生成されない。また、夜と昼とでは、周囲の明るさも大きく異なる。   FIG. 12 is a diagram showing the light source type (day and night) dependence. As shown in FIG. 12 (a), since the sun is the light source during the day, the shadow of the building B is dark, but as shown in FIG. 12 (b), the moon appears at night. Because of the degree, almost no shadow is generated. Also, the brightness of the surroundings varies greatly between night and day.

図13は、位置依存を示す図であり、例えば、図13(a)に示すように、北半球では、昼の晴れの日においては、影は、ビルの北側に出ており、図13(b)に示すように、南半球では、影はビルの南側にでる。従って、北半球と南半球により、影の位置は大きく異なることを考慮する必要がある。   FIG. 13 is a diagram showing position dependence. For example, as shown in FIG. 13A, in the northern hemisphere, the shadow appears on the north side of the building on a sunny day in the day, and FIG. As you can see in the southern hemisphere, the shadow appears on the south side of the building. Therefore, it is necessary to consider that the position of the shadow differs greatly between the northern and southern hemispheres.

図14は、位置依存のうち緯度・経度の影響を示す図である。例えば、同じ日本でも、緯度の高い札幌と、緯度の低い福岡とを比べると、例えば午後3時の影は、札幌の方が大きくなる(太陽の傾きが低いため)。   FIG. 14 is a diagram illustrating the influence of latitude and longitude among the position dependencies. For example, even in the same Japan, comparing Sapporo with a high latitude with Fukuoka with a low latitude, for example, the shadow at 3 pm is larger in Sapporo (because the sun's inclination is lower).

以上のように、一致度比較のためのCG描画において、光源等の影響を詳細に考慮することで、ARにおける実空間画像とCG画像の類似度評価の精度を向上させることができる。くわえて、太陽の南中高度が季節により変化することや赤緯と時角が時刻により変化することなどを考慮してCGを描画することがより好ましい。より正確には、任意の地点における任意時刻の太陽の高度と方位角を天文年表掲載値に従って計算する。   As described above, in the CG drawing for the degree of coincidence comparison, the accuracy of the similarity evaluation between the real space image and the CG image in the AR can be improved by considering the influence of the light source or the like in detail. In addition, it is more preferable to draw CG in consideration of the fact that the sun's south-middle altitude changes depending on the season and that the declination and hour angle change depending on the time. More precisely, the altitude and azimuth of the sun at any point in time are calculated according to the astronomical chronological values.

ここで、高度 h 、方位角Aは、例えば、以下の三式で 求めることができる。
[数1]
cosh × sinA = −cosδ × sinΔ … (1)
cosh × cosA = cosφ ×sinδ − sinφ × cosδ × cosΔ … (2)
sinh = sinφ ×sinδ +cosφ × cosδ × cosΔ … (3)
Here, the altitude h and the azimuth angle A can be obtained by the following three formulas, for example.
[Equation 1]
cosh × sinA = −cosδ × sinΔ… (1)
cosh × cosA = cosφ × sinδ − sinφ × cosδ × cosΔ… (2)
sinh = sinφ × sinδ + cosφ × cosδ × cosΔ… (3)

ここで、δは太陽の視赤緯、Δは時角、φは場所の緯度である。tを高度・方位角を求める時刻−標準時(日本の場合は9h)とし、λを場所の経度(東経を+、西経を−で表し、15で割って時間の単位にする)、θを世界時0hのグリニジ視恒星時、αを太陽の視赤経とすれば、時角はΔ=θ+t×1.0027379+λ−αで求められる。影の長さは影をつくる物体の高さ×cothで、影の方位角は太陽の方位角に180°を加えて求める(360°を超えた場合、360°を減算する)。 Here, δ is the solar declination, Δ is the hour angle, and φ is the latitude of the place. t is the time to calculate altitude and azimuth-standard time (9h in Japan), λ is the longitude of the place (east longitude is +, west longitude is-, divided by 15 to be a unit of time), and θ 0 is When α is the solar celestial longitude of the Greenwich star at 0h universal time, the hour angle can be calculated as Δ = θ 0 + t × 1.0027379 + λ−α. The length of the shadow is the height of the object that makes the shadow × coth, and the azimuth angle of the shadow is obtained by adding 180 ° to the azimuth angle of the sun (if it exceeds 360 °, 360 ° is subtracted).

このような計算によって算出された太陽光源に基づいてCGの描画を行い同時に影の算出も行うことができる。なお、実際の計算精度はこれより高い精度の値を用いてもよい。   It is possible to draw a CG based on the solar light source calculated by such a calculation and simultaneously calculate a shadow. The actual calculation accuracy may be a higher accuracy value.

また、これらの計算によって求められた太陽光源は超遠距離による仮想面光源となるため、気象レーダなどの天候観測に伴って雲の有無により散乱光源となるような計算を行いCG描画の際の光源処理として実施してもよいし、空気遠近法などを用いたCG描画をしてもよいし、ビル壁面や水域等における各種反射光の単位面積当たりの発生確率や反射強度などを踏まえてCG描画をしてもよい。   In addition, since the solar light source obtained by these calculations becomes a virtual surface light source at a very long distance, calculation is performed so that it becomes a scattered light source depending on the presence or absence of clouds in association with weather observation such as weather radar. It may be implemented as light source processing, CG drawing using the air perspective method, etc., or CG based on the generation probability and reflection intensity per unit area of various reflected light on the building wall surface or water area, etc. You may draw.

また、これらの演算式を逆算することで高さと日時の解っている物体の撮像画像における影の長さから緯度経度が近似値であるか評価することで、正当な端末からの情報であることを評価したり、CG描画装置内のDBを更新したりしてもよい。   In addition, it is information from a legitimate terminal by evaluating whether the latitude and longitude are approximate values from the shadow length in the captured image of the object whose height and date and time are known by calculating back these arithmetic expressions. Or the DB in the CG drawing apparatus may be updated.

(まとめ)
以上に説明したように、本実施の形態によれば、緯度・経度・時刻や天候による日照状態などの照明・光源環境に基づいた処理を行うことにより、ARにおける端末が撮像した実空間画像と位置や場所を特定するためのDB側で構成されるCG画像とのマッチング(類似度評価、一致度評価、距離評価)における精度をより実画像に近い光源を考慮したCGとの比較によって実現することにより、光源変化の影響を低減させることで改善させることができる。くわえて、3次元モデルデータと光源非依存のテクスチャデータによる立体地図データをDBに保存することにより、多様な光源を考慮した状態の画像群やCG群や特徴群等をDBに保存する必要がなくなり、記憶効率および検索効率の改善を図ることができる。
(Summary)
As described above, according to the present embodiment, by performing processing based on the illumination / light source environment such as latitude / longitude / time and sunshine condition due to weather, the real space image captured by the terminal in the AR The accuracy in matching (similarity evaluation, coincidence evaluation, distance evaluation) with a CG image configured on the DB side for specifying the position and location is realized by comparison with a CG that considers a light source closer to a real image. This can be improved by reducing the influence of the light source change. In addition, 3D model data and 3D map data with light source-independent texture data are stored in the DB, so it is necessary to store images, CG groups, feature groups, etc. in a state taking into account various light sources in the DB. The storage efficiency and the search efficiency can be improved.

尚、上記の説明では、昼は昼のCG、夜は夜のCGを構成することで利用者のAR端末の撮像画像に近づけ、影の方向、長さや濃淡なども可能な限り近づけることで、より一致度を評価しやすくなる。もちろん、日の陰り具合に応じて光源色を変化させるなどの処理をしてもよい。   In the above description, a daytime CG is formed in the daytime, and a nighttime CG is formed in the night time so that the captured image of the user's AR terminal is brought closer, and the shadow direction, length, shade, etc. are made as close as possible. It becomes easier to evaluate the degree of coincidence. Of course, processing such as changing the light source color according to the shade of the sun may be performed.

また、撮影画像や属性情報から推定できる天候や光源に基づいて、比較用のCGの影を作成するようにしても良い。   Further, a CG shadow for comparison may be created based on the weather and the light source that can be estimated from the captured image and attribute information.

さらに、ネットワーク経由で、建造物等の照明状況(ネオンサイン、イルミネーション、デジタルサイネージなど)を取得して、CG描画の変更や特徴一致の許容誤差の指定を行っても良い。   Furthermore, it is also possible to acquire lighting conditions (neon signs, illuminations, digital signage, etc.) of buildings and the like via a network, and change the CG drawing or specify the tolerance for feature matching.

光源の色や強さを、AR端末の撮像画像の属性情報としての日時、緯度・経度から推定しても良く、逆にAR端末の撮像画像に写った高さの解っている物体の影と日時から、緯度・経度を推定しても良い。くわえて、厳密に計算するならば地軸の歳差運動に対する補正を行ってもよい。   The color and intensity of the light source may be estimated from the date / time, latitude / longitude as attribute information of the captured image of the AR terminal, and conversely, the shadow of the object whose height is known in the captured image of the AR terminal The latitude and longitude may be estimated from the date and time. In addition, if the calculation is strictly performed, correction for the precession of the ground axis may be performed.

また、建物とくに高層階や屋根、電柱の上部、信号機など人や車などが通過しないことによる特徴誤差の少ない箇所の特徴情報を優先的に評価処理してもよく、ベランダや歩道や車道などの変化のある場所は特徴一致の比較における許容誤差範囲を広げてもよい。   In addition, it is possible to preferentially evaluate the feature information of places where there are few feature errors due to the passage of people and cars, such as high-rise floors and roofs, the upper part of electric poles, traffic lights, etc., such as verandas, sidewalks and roadways Locations with changes may extend the tolerance range for feature match comparisons.

また、処理を任意のサーバ、クライアント、それらを連携したクラウドなどの組合せによって実施してもよい。   Further, the processing may be performed by a combination of an arbitrary server, a client, and a cloud that links them.

また、赤外線やノクトビジョン画像などをはじめとする不可視光から立体モデルやテクスチャを生成してもよい。   In addition, a three-dimensional model or texture may be generated from invisible light such as infrared rays or noctovision images.

また、画像等には特徴量や特徴情報などを含み、それらは色、形状、輝度、色相、彩度などを始めにVQコードなどを含む識別基準となる情報を指す。   An image or the like includes a feature amount, feature information, and the like, which indicate information serving as an identification standard including a VQ code and the like including color, shape, luminance, hue, saturation, and the like.

また、端末からの画像などとDBに基づいて生成された画像など比較において、微分箇所と積分箇所の差の大きいところや特徴情報などの変化の激しい場所である場合、分散を拡げて特徴一致の比較における許容誤差範囲を拡大するなどの処理を行ってもよい。   In addition, when comparing the image from the terminal with the image generated based on the DB, if the difference between the differential part and the integration part is large, or the place where the feature information etc. is changing rapidly, the variance is expanded and the feature matching is performed. Processing such as expanding an allowable error range in the comparison may be performed.

また、多眼立体視に基づいた立体形状や二次元情報によるVQコードなどの特徴情報を位置に基づいて索引付けされた辞書構造のDBなどを利用してもよい。   Further, a DB having a dictionary structure in which feature information such as a three-dimensional shape based on multi-view stereoscopic vision or a VQ code based on two-dimensional information is indexed based on a position may be used.

また、落葉樹、常緑樹などを地図情報に登録し地表に近い低層に於いては緯度経度などに応じて特徴評価にもちいる評価色を変更できるように構成してもよい。   Further, deciduous trees, evergreen trees, etc. may be registered in the map information so that the evaluation color used for the feature evaluation can be changed according to the latitude and longitude in the lower layers close to the ground surface.

位置に基づいた点群データ、線群データ、面群データ、テクスチャデータ等を特徴量やVQコードとして位置に基づいて分類し基地局から位置に応じて適宜提供、内容変更するシステムを構成してもよい。   Configure a system that classifies point group data, line group data, face group data, texture data, etc. based on position based on position as feature quantity or VQ code, and provides and changes contents appropriately from base station according to position Also good.

また、合成されたCGに基づいた合成AR画像の影を太陽やビルの反射などの光源方向に基づいて算出する。もちろん、太陽光ばかりでなく月光や日蝕、月蝕を考慮してもよいし、各種電灯やネオンライト、デジタルサイネージなどをDB化して光源計算に用いたり、提供情報の索引に用いたりしてもよい。   Further, the shadow of the composite AR image based on the combined CG is calculated based on the light source direction such as the reflection of the sun or the building. Of course, not only sunlight, but also moonlight, solar eclipse, and lunar eclipse may be considered, and various electric lights, neon lights, digital signage, etc. may be converted into a database for use in light source calculations, or used as an index for information provided. .

また、屋外ばかりではなく屋内も同様に時間帯等における屋外光源を推定しながら評価用CG描画をしてもよい。   In addition, not only outdoors, but indoors as well, CG for evaluation may be drawn while estimating an outdoor light source in a time zone or the like.

また、合成される現実画像に対する評価用CG画像に関して、特徴比較の際にどの程度の分散を許容するのかを画像の部位やモデルベース、地図ベースごとに指定しデータベース化してもよい。   In addition, regarding the evaluation CG image for the synthesized real image, the degree of dispersion allowed in the feature comparison may be specified for each part of the image, the model base, and the map base, and may be databased.

また、演算効率を改善するために端末からのアクセスのたびに評価用CGを生成するのではなく、例えば毎分ごとにCG画像や特徴量やVQコード等を生成して群情報として再利用可能な状態でARサーバやARクラウドCG描画装置やAR端末装置などの記憶部に適宜保存してもよい。   Also, instead of generating an evaluation CG for each access from a terminal in order to improve calculation efficiency, for example, a CG image, a feature amount, a VQ code, etc. can be generated every minute and reused as group information In such a state, the data may be appropriately stored in a storage unit such as an AR server, an AR cloud CG drawing device, or an AR terminal device.

また、端末側撮像画像の特徴から天候を推定したり、色温度から天候や時間帯を推定したりしてもよい。   Also, the weather may be estimated from the characteristics of the terminal-side captured image, or the weather and time zone may be estimated from the color temperature.

また、位置情報等に基づいて各種群情報等の辞書情報を適宜キャッシュしたり、更新したりしてもよい。   Further, dictionary information such as various group information may be appropriately cached or updated based on position information or the like.

また、撮像画像と位置情報等からモデルデータを推定したり、光源補正を行い影を補正したりしたテクスチャデータの抽出を行ってもよい。   Alternatively, model data may be estimated from the captured image and position information, or texture data extracted by correcting light sources and correcting shadows may be extracted.

また、位置連携情報サービスに基づくソーシャルゲームなどを実施してもよい。   Moreover, you may implement the social game etc. based on a position cooperation information service.

また、ドロネー三角分割などを用いた粒度の荒いポリゴン画像を評価用CGとして用いてもよい。   In addition, a polygon image having a coarse particle size using Delaunay triangulation may be used as the evaluation CG.

また、タイムセールに応じて表示を変更してもよい。   The display may be changed according to the time sale.

また、人に対して行われる拡張現実はその人のもつAR端末から出力される位置情報に応じて表示位置が変化してもよい。   Further, in the augmented reality performed for a person, the display position may change according to the position information output from the AR terminal of the person.

また、図7、図8、図9においてモデルデータとされるデータは、実データが直接レコード内にあるばかりではなくモデルデータのファイル名であったり、モデルデータのリンク情報となるIDやハッシュ値であったりしてもよい。   The data used as model data in FIGS. 7, 8, and 9 is not only the actual data directly in the record but also the file name of the model data, or the ID or hash value that becomes the link information of the model data. It may be.

また、情報支援のために、付加情報は、例えば、インターネットにより取得した建造物で提供される飲食店の料理の種類や価格の情報や、イベントの情報、販売店の取扱商品情報や在庫・価格情報、口コミ情報、混雑・空席情報、不動産価格情報、観光情報などの任意の情報である。さらに、生成された現実画像に対する評価用CG画像に関して、どの程度の分散を許容するのかを画像の部位ごとに指定しデータベース化してもよいし、生成された評価用CGに基づいた合成用CG画像としてのAR画像の影を太陽やビルの反射などの光源方向に基づいて算出し合成したりしてもよい。   In addition, for information support, additional information includes, for example, restaurant types and price information provided in buildings acquired via the Internet, event information, dealer product information, inventory / price information, etc. This is arbitrary information such as information, word-of-mouth information, congestion / vacancy information, real estate price information, and tourist information. Further, with respect to the evaluation CG image for the generated real image, the degree of dispersion may be specified for each part of the image to create a database, or the composition CG image based on the generated evaluation CG The shadow of the AR image may be calculated and synthesized based on the light source direction such as the reflection of the sun or the building.

また、上記の実施の形態において、添付図面に図示されている構成等については、これらに限定されるものではなく、本発明の効果を発揮する範囲内で適宜変更することが可能である。その他、本発明の目的の範囲を逸脱しない限りにおいて適宜変更して実施することが可能であり、過去の複数の特許と組合せて実施することができる。   In the above-described embodiment, the configuration and the like illustrated in the accompanying drawings are not limited to these, and can be changed as appropriate within the scope of the effects of the present invention. In addition, the present invention can be appropriately modified and implemented without departing from the scope of the object of the present invention, and can be implemented in combination with a plurality of past patents.

また、本実施の形態で説明した機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各部の処理を行ってもよい。尚、ここでいう「コンピュータシステム」とは、OSをはじめとした各種ソフトウェアや周辺機器等のハードウェアを含むものとする。   In addition, a program for realizing the functions described in the present embodiment is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed to execute processing of each unit. May be performed. Here, the “computer system” includes various software such as an OS and hardware such as peripheral devices.

また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。   Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.

また、評価用CGと実写画像の特徴などが異なった場合において更新可能性フラグをセットし、複数のAR端末からフラグを配信装置が受信した場合において地図情報となる評価用CGの各種情報を適宜更新してもよい。また、月の満ち欠けに応じて描画する評価用CGの内容を変更してもよい。   Also, an update possibility flag is set when the characteristics of the evaluation CG and the photographed image are different, and various information of the evaluation CG that becomes map information when the distribution device receives the flag from a plurality of AR terminals is appropriately set. It may be updated. Further, the contents of the evaluation CG to be drawn may be changed according to the moon phases.

また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置(各種記憶媒体)のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また前記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。   The “computer-readable recording medium” refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, and a CD-ROM, and a storage device (various storage media) such as a hard disk built in the computer system. Say. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory in a computer system serving as a server or a client in that case, and a program that holds a program for a certain period of time are also included. The program may be a program for realizing a part of the above-described functions, or may be a program that can realize the above-described functions in combination with a program already recorded in a computer system.

本発明は、情報処理装置として利用可能である。   The present invention can be used as an information processing apparatus.

A…AR情報処理システム、1…ARサーバ、3…ARクラウドCG描画装置、5…AR端末装置、1−1…制御部、1−2…通信部、1−3…照合部(一致度評価部)、1−4…記憶部(ARデータベース)、1−5…付随情報付加部、1−6…天候情報取得部、1−7…日時取得部、1−8…AR情報要求処理情報作成部、3−1…制御部(CPU)、3−2…通信部、3−3…CG作成部、3−4…CG生成部、3−5…影生成部、3−6…光学的影響算出部、3−7…光源影響算出部、3−8…緯度経度影響算出部、3−9…記憶部(DB部)、3−10…建造物DB、3−11…地形(水域等を含む)DB、3−12…地物(植生等)DB。 A ... AR information processing system, 1 ... AR server, 3 ... AR cloud CG drawing device, 5 ... AR terminal device, 1-1 ... control unit, 1-2 ... communication unit, 1-3 ... verification unit Part) 1-4 ... storage part (AR database), 1-5 ... accompanying information addition part, 1-6 ... weather information acquisition part, 1-7 ... date acquisition part, 1-8 ... AR information request processing information creation Unit, 3-1 ... control unit (CPU), 3-2 ... communication unit, 3-3 ... CG creation unit, 3-4 ... CG generation unit, 3-5 ... shadow generation unit, 3-6 ... optical influence Calculation unit, 3-7 ... Light source influence calculation unit, 3-8 ... Latitude / longitude influence calculation unit, 3-9 ... Storage unit (DB unit), 3-10 ... Building DB, 3-11 ... Topography (water area, etc.) DB), 3-12 ... feature (vegetation, etc.) DB.

Claims (12)

撮像された画像もしくは画像から生成される画像特徴と緯度経度を含む位置情報と日付時刻情報とを含むAR情報要求に基づいて、AR情報を作成するARサーバであって、
前記位置情報と天候情報取得部により取得した気象情報とに基づいて、CG画像の作成を依頼するAR情報要求処理情報作成部と、
前記AR情報要求処理情報作成部により作成したAR情報要求処理情報により、光源の影響を考慮したCGの作成をARクラウドCG描画装置に依頼し、返信として得られたCGと、前記AR情報との一致度を評価する照合部と、を有し、
前記照合部による照合結果として得られたAR情報を、前記画像に情報支援として合成して表示させることを特徴とするARサーバ。
An AR server that creates AR information based on an AR information request including a captured image or an image feature generated from the image, position information including latitude and longitude, and date / time information,
An AR information request processing information creation unit that requests creation of a CG image based on the position information and the weather information acquired by the weather information acquisition unit;
Based on the AR information request processing information created by the AR information request processing information creation unit, the AR cloud CG drawing apparatus is requested to create a CG in consideration of the influence of the light source, and the CG obtained as a reply and the AR information A matching unit for evaluating the degree of coincidence,
An AR server characterized in that AR information obtained as a result of collation by the collation unit is combined with the image as information support and displayed.
前記AR情報要求処理情報は、
太陽又は月を光源として、前記位置情報と前記日付時刻情報とに依存する前記光源の角度及び照度を光源パラメータとして有しており、
前記画像の被写体である建造物の位置と、モデルデータと、高さとを有するデータベースを参照し、前記位置情報と前記建造物の位置とが一致する建造物の高さと前記光源パラメータとに基づいて、前記ARクラウドCG描画装置に前記建造物の影のCGを作成させることを特徴とする請求項1に記載のARサーバ。
The AR information request processing information is
With the sun or moon as the light source, it has the light source angle and illuminance depending on the position information and the date and time information as light source parameters,
A database having the position of the building that is the subject of the image, model data, and height is referred to, and based on the height of the building and the light source parameter that match the position information and the position of the building The AR server according to claim 1, wherein the AR cloud CG drawing device is configured to create a CG of a shadow of the building.
前記ARクラウドCG描画装置によるCGの作成の際に、
前記建造物IDと、前記建造物の立っている標高と、モデルデータと、前記建造物の周辺の前記光源による影に影響を与える隣接情報と、を有する地形データベースを参照して、前記建造物の影のCGを作成させることを特徴とする請求項2に記載のARサーバ。
When creating a CG by the AR cloud CG drawing device,
Referring to the terrain database having the building ID, the altitude at which the building stands, model data, and adjacent information that affects the shadow of the light source around the building. The AR server according to claim 2, wherein a CG of a shadow of the image is created.
前記ARクラウドCG描画装置によるCGの作成の際に、
前記位置情報をキーとして、前記建造物の周辺の地物の高さと、モデルデータと、地物の面積とを保持する地物データベースを参照して、前記光源による前記建造物の影に影響を与える前記地物の影響を求めることを特徴とする請求項2又は3に記載のARサーバ。
When creating a CG by the AR cloud CG drawing device,
Using the position information as a key, refer to a feature database that holds the height of features around the building, model data, and area of the feature, and affects the shadow of the building by the light source. 4. The AR server according to claim 2, wherein an influence of the given feature is obtained.
前記位置情報は、
GPS情報や電子コンパス情報、加速度センサ情報、ジャイロセンサ情報を含む前記AR端末装置の位置や視線方向を特定するための情報群のうちの少なくともいずれか1であることを特徴とする請求項1から4までのいずれか1項に記載のARサーバ。
The location information is
2. From at least one of an information group for specifying a position and a line-of-sight direction of the AR terminal device including GPS information, electronic compass information, acceleration sensor information, and gyro sensor information. 5. The AR server according to any one of 4 to 4.
情報支援のための付加情報を付加する付随情報付加部を有することを特徴とする請求項1から5までのいずれか1項に記載のARサーバ。   6. The AR server according to claim 1, further comprising an accompanying information adding unit for adding additional information for information support. 前記画像特徴として、
画像から生成される画像特徴や画像VQコードもしくはそれらの群情報としての面群情報、点群情報、線群情報を用いることを特徴とする請求項1から6までのいずれか1項に記載のARサーバ。
As the image feature,
The image feature generated from the image, the image VQ code, or surface group information, point group information, or line group information as group information thereof is used. AR server.
請求項1から7までのいずれか1項に記載の画像又は画像特徴を送るAR端末装置であって、
前記ARサーバから受信したAR情報を表示部に表示させることを特徴とするAR端末装置。
An AR terminal device for sending an image or image feature according to any one of claims 1 to 7,
An AR terminal apparatus that displays AR information received from the AR server on a display unit.
請求項1から7までのいずれか1項に記載のCGを作成するCG描画装置であって、
CGを生成するCG生成部と、建造物の影を生成する影生成部と、季節や日時による日
の出、日の入りの影響を算出する光学的影響算出部と、太陽や月などの光源の種別等の影響を算出する光源影響算出部と、緯度、経度の影響を算出する緯度経度影響算出部とを有するCG作成部を有することを特徴とするCG描画装置。
A CG drawing apparatus for creating a CG according to any one of claims 1 to 7,
A CG generation unit that generates CG, a shadow generation unit that generates a shadow of a building, an optical influence calculation unit that calculates the influence of sunrise and sunset according to the season and date, and the type of light source such as the sun and moon A CG rendering apparatus comprising a CG creation unit having a light source influence calculation unit for calculating an influence and a latitude / longitude influence calculation unit for calculating an influence of latitude and longitude.
さらに、その位置における建造物を格納する建造物DBと、その位置における標高や周囲との標高差などを格納する地形DBと、その位置における植生の領域を格納する地物DBと、を有し、
前記影生成部は、前記建造物と前記地形と前記植生との少なくともいずれかの影響を考慮して、影を生成することを特徴とする請求項9に記載のCG描画装置。
Furthermore, it has a building DB for storing the building at the position, a terrain DB for storing the altitude at the position, an altitude difference with the surroundings, and a feature DB for storing the vegetation area at the position. ,
The CG drawing device according to claim 9, wherein the shadow generation unit generates a shadow in consideration of an influence of at least one of the building, the terrain, and the vegetation.
撮像された画像もしくは画像から生成される画像特徴と緯度経度を含む位置情報と日付時刻情報とを含むAR情報要求に基づいて、AR情報を作成するARサーバを用いた情報処理方法であって、
前記位置情報と天候情報取得部により取得した気象情報とに基づいて、CG画像の作成を依頼するAR情報要求処理情報作成ステップと、
前記AR情報要求処理情報作成ステップにより作成したAR情報要求処理情報により、光源の影響を考慮したCGの作成をARクラウドCG描画装置に依頼し、返信として得られたCGと、前記AR情報との一致度を評価する照合ステップと、を有し、
前記照合ステップによる照合結果として得られたAR情報を、前記画像に情報支援として合成して表示させることを特徴とする情報処理方法。
An information processing method using an AR server that creates AR information based on an AR information request including a captured image or an image feature generated from the image, position information including latitude and longitude, and date / time information,
An AR information request processing information creation step for requesting creation of a CG image based on the position information and the weather information acquired by the weather information acquisition unit;
Based on the AR information request processing information created in the AR information request processing information creation step, the AR cloud CG drawing device is requested to create a CG in consideration of the influence of the light source, and the CG obtained as a reply and the AR information A matching step for evaluating the degree of match,
An information processing method comprising: combining and displaying AR information obtained as a result of collation in the collation step on the image as information support.
請求項11に記載の情報処理方法を、コンピュータに実行させるためのプログラム。   A program for causing a computer to execute the information processing method according to claim 11.
JP2012008219A 2012-01-18 2012-01-18 Information processor, information processing method Pending JP2013149029A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012008219A JP2013149029A (en) 2012-01-18 2012-01-18 Information processor, information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012008219A JP2013149029A (en) 2012-01-18 2012-01-18 Information processor, information processing method

Publications (1)

Publication Number Publication Date
JP2013149029A true JP2013149029A (en) 2013-08-01

Family

ID=49046486

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012008219A Pending JP2013149029A (en) 2012-01-18 2012-01-18 Information processor, information processing method

Country Status (1)

Country Link
JP (1) JP2013149029A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016077338A (en) * 2014-10-10 2016-05-16 泉陽興業株式会社 Play facilities
JP2018147151A (en) * 2017-03-03 2018-09-20 Kddi株式会社 Terminal apparatus, control method therefor and program
US10083546B2 (en) 2016-04-11 2018-09-25 Fujitsu Ten Limited Augmented reality information displaying device and augmented reality information displaying method
CN111754799A (en) * 2019-03-29 2020-10-09 丰田自动车株式会社 Image information collection system and vehicle
CN113838199A (en) * 2021-09-22 2021-12-24 中北大学 Three-dimensional terrain generation method
JP2022030844A (en) * 2020-08-07 2022-02-18 株式会社スクウェア・エニックス Information processing program, information processing device, and information processing method
WO2023210360A1 (en) * 2022-04-25 2023-11-02 Agc株式会社 Glass compatibility determination device, glass compatibility determination method, and program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016077338A (en) * 2014-10-10 2016-05-16 泉陽興業株式会社 Play facilities
US10083546B2 (en) 2016-04-11 2018-09-25 Fujitsu Ten Limited Augmented reality information displaying device and augmented reality information displaying method
JP2018147151A (en) * 2017-03-03 2018-09-20 Kddi株式会社 Terminal apparatus, control method therefor and program
CN111754799A (en) * 2019-03-29 2020-10-09 丰田自动车株式会社 Image information collection system and vehicle
JP2022030844A (en) * 2020-08-07 2022-02-18 株式会社スクウェア・エニックス Information processing program, information processing device, and information processing method
JP7125963B2 (en) 2020-08-07 2022-08-25 株式会社スクウェア・エニックス Information processing program, information processing apparatus, and information processing method
CN113838199A (en) * 2021-09-22 2021-12-24 中北大学 Three-dimensional terrain generation method
CN113838199B (en) * 2021-09-22 2023-07-11 中北大学 Three-dimensional terrain generation method
WO2023210360A1 (en) * 2022-04-25 2023-11-02 Agc株式会社 Glass compatibility determination device, glass compatibility determination method, and program

Similar Documents

Publication Publication Date Title
JP2013196616A (en) Information terminal device and information processing method
US10580162B2 (en) Method for determining the pose of a camera and for recognizing an object of a real environment
EP3359918B1 (en) Systems and methods for orienting a user in a map display
JP2013149029A (en) Information processor, information processing method
US8264504B2 (en) Seamlessly overlaying 2D images in 3D model
US9418472B2 (en) Blending between street view and earth view
US9367954B2 (en) Illumination information icon for enriching navigable panoramic street view maps
US20110234631A1 (en) Augmented reality systems
US9041714B2 (en) Apparatus and method for compass intelligent lighting for user interfaces
US9466149B2 (en) Lighting of graphical objects based on environmental conditions
WO2018113173A1 (en) Virtual reality display method and terminal
CN114125310B (en) Photographing method, terminal device and cloud server
US10964112B2 (en) Candidate geometry displays for augmented reality
US11461976B2 (en) Visualization transitions for augmented reality
US20200340823A1 (en) Dynamic streetview with view images enhancement
JP6518468B2 (en) Information processing device, map display system
US11137976B1 (en) Immersive audio tours
US20230332922A1 (en) Methods and systems for providing a real-time viewshed visualization
JP2013205072A (en) Map display system, map display method and program
JP2023011331A (en) Data generation device, display device, data generation method, display method, and program
Steinicke et al. Augmenting 3D City Models with Visualization of Real-Time Meteorological Phenomena.