JP7125963B2 - Information processing program, information processing apparatus, and information processing method - Google Patents

Information processing program, information processing apparatus, and information processing method Download PDF

Info

Publication number
JP7125963B2
JP7125963B2 JP2020135131A JP2020135131A JP7125963B2 JP 7125963 B2 JP7125963 B2 JP 7125963B2 JP 2020135131 A JP2020135131 A JP 2020135131A JP 2020135131 A JP2020135131 A JP 2020135131A JP 7125963 B2 JP7125963 B2 JP 7125963B2
Authority
JP
Japan
Prior art keywords
light source
information
user terminal
reality
natural light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020135131A
Other languages
Japanese (ja)
Other versions
JP2022030844A (en
Inventor
レミ ドリアンクール
サイモン フランシス スタンナス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Square Enix Co Ltd
Original Assignee
Square Enix Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Square Enix Co Ltd filed Critical Square Enix Co Ltd
Priority to JP2020135131A priority Critical patent/JP7125963B2/en
Publication of JP2022030844A publication Critical patent/JP2022030844A/en
Application granted granted Critical
Publication of JP7125963B2 publication Critical patent/JP7125963B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、現実環境における光源の状況を考慮したAR技術に関するものである。 The present invention relates to AR technology that takes into consideration the situation of light sources in a real environment.

近年、AR(Augmented Reality:拡張現実)技術を採用したソフトウェアが普及しつつある。ユーザが所持するユーザ端末によって撮影した撮影画像中に仮想オブジェクトを表示させてあたかも現実空間に仮想オブジェクトが登場したかのような表示を実現することができる。 In recent years, software employing AR (Augmented Reality) technology is becoming widespread. It is possible to display a virtual object in a photographed image photographed by a user terminal owned by a user, thereby realizing a display as if the virtual object appeared in the real space.

例えば、特許文献1には、現実空間の特定の位置に関連付けて記憶されるAR表示対象の仮想オブジェクトについて、AR空間で他のユーザと共有したい情報及び共有を望まない情報をユーザが容易に取り扱うことのできる技術が開示されている。 For example, Patent Literature 1 discloses that users can easily handle information that they want to share with other users and information that they do not want to share with other users in the AR space for a virtual object to be displayed in AR that is stored in association with a specific position in the real space. A technique capable of doing this is disclosed.

特表2012-168646号公報Japanese Patent Publication No. 2012-168646

ところで、ユーザ端末で撮影した撮影画像に対してAR技術によって仮想オブジェクトを表示させる場合に、現実環境における光源の状況を一切考慮せずに表示を行うと不自然な表示となるおそれがある。例えば、太陽などの光源の影響を反映させることなく表示を行うと、周辺の現実のオブジェクトとの整合がとれずに違和感が生じるといえる。また、取得した撮影画像における太陽などの光源の位置を推測して、推測した光源の情報に基づいてシェーディング処理を実行することも考えられるが、仮想オブジェクトに対する光源の影響のみを考慮する構成として、現実空間に存在する現実のオブジェクトとの関係を一切考慮せずに表示させてしまうと、例えば、現実のオブジェクトの影の上に仮想オブジェクトの影を重ねて描画した結果、影の上により濃い影が描画されるといった現実では起こり得ない状況が生じてしまうという問題があった。 By the way, when a virtual object is displayed on an image captured by a user terminal using AR technology, the display may look unnatural if the display is performed without considering the light source conditions in the real environment. For example, if the display is performed without reflecting the influence of the light source such as the sun, it can be said that there is a sense of incongruity due to the lack of consistency with the surrounding real objects. It is also conceivable to estimate the position of a light source such as the sun in an acquired photographed image and execute shading processing based on the information of the estimated light source. If the display is made without considering the relationship with the real object that exists in the real space, for example, as a result of drawing the shadow of the virtual object superimposed on the shadow of the real object, a darker shadow will appear on top of the shadow. is drawn, which is not possible in reality.

本発明は、上記問題点に鑑みなされたものであり、現実環境における光源の状況を推測し、かつ、周辺の現実のオブジェクトとの整合性を考慮したAR表示が可能な情報処理プログラム、情報処理装置及び情報処理方法を提供することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made in view of the above problems. An object is to provide an apparatus and an information processing method.

非限定的な観点によると、本発明の一実施形態に係る情報処理プログラムは、ユーザが所持するユーザ端末によって撮影された撮影画像に対して、現実空間の所定位置と対応付けて記憶させた仮想オブジェクトを重畳表示させる処理をコンピュータに実現させるための情報処理プログラムであって、前記コンピュータに、前記ユーザ端末の位置情報を取得する位置情報取得機能と、現在時刻情報を取得する時刻取得機能と、ユーザ端末の位置情報に基づいて当該位置の天候情報を取得する天候情報取得機能と、取得した前記位置情報、前記時刻情報及び前記天候情報に基づいて、前記ユーザ端末の位置における天然光源の状況を推定する天然光源推定機能と、前記位置情報に基づいて前記ユーザ端末の周辺に存在する現実のオブジェクトに予め対応させた仮想空間上のオブジェクト(現実対応オブジェクト)の情報を取得する現実対応オブジェクト情報取得機能と、前記ユーザ端末が備えるカメラ装置によって現実空間を撮影することで得られた前記撮影画像及び撮影方向情報を取得する撮影画像取得機能と、推定した前記天然光源状況における前記現実対応オブジェクトに対する光源の影響を演算する第一光源影響演算機能と、前記ユーザ端末の位置周辺に配置され前記カメラ装置の撮影範囲内に位置する可能性のある前記仮想オブジェクトの情報を取得する仮想オブジェクト情報取得機能と、前記現実対応オブジェクトに対する天然光源の影響を考慮しつつ、推定した前記天然光源状況における前記仮想オブジェクトに対する光源の影響を演算する第二光源影響演算機能と、前記撮影画像上における前記仮想オブジェクトの接地位置を特定し、前記仮想オブジェクト及び演算した光源影響を前記撮影画像上の特定した接地位置に対して重畳表示させる重畳表示機能とを実現させることを特徴とする。 From a non-limiting point of view, an information processing program according to an embodiment of the present invention stores a virtual image captured by a user terminal owned by a user in association with a predetermined position in the real space. An information processing program for causing a computer to realize a process of superimposing and displaying an object, wherein the computer has a position information acquisition function for acquiring position information of the user terminal, a time acquisition function for acquiring current time information, A weather information acquisition function that acquires weather information at a location based on the location information of the user terminal; and a natural light source condition at the location of the user terminal based on the acquired location information, time information, and weather information. A function for estimating a natural light source to be estimated, and acquisition of reality-corresponding object information for acquiring information of an object in a virtual space (reality-corresponding object) pre-associated with a real object existing around the user terminal based on the position information. a photographed image acquisition function for acquiring the photographed image and photographing direction information obtained by photographing the real space with a camera device provided in the user terminal; and a light source for the reality corresponding object in the estimated natural light source situation. a first light source effect calculation function for calculating the effect of a virtual object information acquisition function for acquiring information on the virtual object that is arranged around the position of the user terminal and may be located within the shooting range of the camera device; a second light source effect calculation function for calculating the effect of the light source on the virtual object in the estimated natural light source situation while considering the effect of the natural light source on the reality corresponding object; and grounding of the virtual object on the captured image. A superimposed display function of specifying a position and superimposing and displaying the virtual object and the calculated light source influence on the specified ground position on the captured image is realized.

非限定的な観点によると、本発明の一実施形態に係る情報処理装置は、ユーザが所持するユーザ端末によって撮影された撮影画像に対して、現実空間の所定位置と対応付けて記憶させた仮想オブジェクトを重畳表示させる処理を行うための情報処理装置であって、前記ユーザ端末の位置情報を取得する位置情報取得部と、現在時刻情報を取得する時刻取得部と、ユーザ端末の位置情報に基づいて当該位置の天候情報を取得する天候情報取得部と、取得した前記位置情報、前記時刻情報及び前記天候情報に基づいて、前記ユーザ端末の位置における天然光源の状況を推定する天然光源推定部と、前記位置情報に基づいて前記ユーザ端末の周辺に存在する現実のオブジェクトに予め対応させた仮想空間上のオブジェクト(現実対応オブジェクト)の情報を取得する現実対応オブジェクト情報取得部と、前記ユーザ端末が備えるカメラ装置によって現実空間を撮影することで得られた前記撮影画像及び撮影方向情報を取得する撮影画像取得部と、推定した前記天然光源状況における前記現実対応オブジェクトに対する光源の影響を演算する第一光源影響演算部と、前記ユーザ端末の位置周辺に配置され前記カメラ装置の撮影範囲内に位置する可能性のある前記仮想オブジェクトの情報を取得する仮想オブジェクト情報取得部と、前記現実対応オブジェクトに対する天然光源の影響を考慮しつつ、推定した前記天然光源状況における前記仮想オブジェクトに対する光源の影響を演算する第二光源影響演算部と、前記撮影画像上における前記仮想オブジェクトの接地位置を特定し、前記仮想オブジェクト及び演算した光源影響を前記撮影画像上の特定した接地位置に対して重畳表示させる重畳表示部とを備えることを特徴とする。 From a non-limiting point of view, an information processing apparatus according to an embodiment of the present invention stores a virtual image captured by a user terminal owned by a user in association with a predetermined position in the real space. An information processing device for performing a process of superimposing and displaying an object, comprising: a position information acquisition unit for acquiring position information of the user terminal; a time acquisition unit for acquiring current time information; and based on the position information of the user terminal a weather information acquisition unit that acquires weather information for the location of the user terminal, and a natural light source estimation unit that estimates the state of natural light sources at the location of the user terminal based on the location information, the time information, and the weather information acquired. a reality-corresponding object information acquisition unit that acquires information on an object in a virtual space (reality-corresponding object) that is associated in advance with a real object existing around the user terminal based on the position information; a photographed image obtaining unit for obtaining the photographed image and photographing direction information obtained by photographing the real space with the provided camera device; a light source effect calculation unit; a virtual object information acquisition unit that acquires information on the virtual object that is arranged around the position of the user terminal and may be located within the photographing range of the camera device; a second light source effect calculation unit that calculates the effect of the light source on the virtual object in the estimated natural light source situation while taking into account the effect of the light source; and a superimposed display unit that superimposes and displays the object and the calculated light source influence on the specified ground position on the captured image.

非限定的な観点によると、本発明の一実施形態に係る情報処理方法は、ユーザが所持するユーザ端末によって撮影された撮影画像に対して、現実空間の所定位置と対応付けて記憶させた仮想オブジェクトを重畳表示させる処理をコンピュータに実行させるための情報処理方法であって、前記ユーザ端末の位置情報を取得する位置情報取得手順と、現在時刻情報を取得する時刻取得手順と、ユーザ端末の位置情報に基づいて当該位置の天候情報を取得する天候情報取得部と、取得した前記位置情報、前記時刻情報及び前記天候情報に基づいて、前記ユーザ端末の位置における天然光源の状況を推定する天然光源推定手順と、前記位置情報に基づいて前記ユーザ端末の周辺に存在する現実のオブジェクトに予め対応させた仮想空間上のオブジェクト(現実対応オブジェクト)の情報を取得する現実対応オブジェクト情報取得手順と、前記ユーザ端末が備えるカメラ装置によって現実空間を撮影することで得られた前記撮影画像及び撮影方向情報を取得する撮影画像取得手順と、推定した前記天然光源状況における前記現実対応オブジェクトに対する光源の影響を演算する第一光源影響演算手順と、前記ユーザ端末の位置周辺に配置され前記カメラ装置の撮影範囲内に位置する可能性のある前記仮想オブジェクトの情報を取得する仮想オブジェクト情報取得手順と、前記現実対応オブジェクトに対する天然光源の影響を考慮しつつ、推定した前記天然光源状況における前記仮想オブジェクトに対する光源の影響を演算する第二光源影響演算手順と、前記撮影画像上における前記仮想オブジェクトの接地位置を特定し、前記仮想オブジェクト及び演算した光源影響を前記撮影画像上の特定した接地位置に対して重畳表示させる重畳表示手順とを含むことを特徴とする。 From a non-limiting point of view, an information processing method according to an embodiment of the present invention provides a virtual image captured by a user terminal owned by a user and stored in association with a predetermined position in the real space. An information processing method for causing a computer to execute a process of displaying an object in a superimposed manner, comprising a position information acquisition procedure for acquiring position information of the user terminal, a time acquisition procedure for acquiring current time information, and a position of the user terminal. a weather information acquisition unit that acquires weather information for the location based on the information; and a natural light source that estimates the state of the natural light source at the location of the user terminal based on the acquired location information, the time information, and the weather information. an estimation step; a reality-corresponding object information obtaining procedure for obtaining information of an object in a virtual space (reality-corresponding object) previously associated with a real object existing around the user terminal based on the position information; A photographed image acquisition procedure for acquiring the photographed image and photographing direction information obtained by photographing the real space with a camera device provided in the user terminal, and calculating the influence of the light source on the reality-corresponding object in the estimated natural light source situation. a first light source effect calculation procedure for calculating a first light source effect; a virtual object information acquisition procedure for acquiring information on the virtual object that is placed around the position of the user terminal and may be located within the shooting range of the camera device; A second light source effect calculation procedure for calculating the effect of the light source on the virtual object in the estimated natural light source situation while taking into consideration the effect of the natural light source on the object; and a superimposed display procedure for superimposing the virtual object and the calculated light source influence on the specified ground position on the captured image.

非限定的な観点によると、本発明の一実施形態に係る情報処理プログラムは、ユーザが所持するユーザ端末によって撮影された撮影画像に映る現実のオブジェクトと、現実のオブジェクトに予め対応させて記憶させた仮想空間上のオブジェクト(現実対応オブジェクト)とを照合して撮影画像に映るオブジェクトを特定する処理をコンピュータに実現させるための情報処理プログラムであって、前記コンピュータに、前記ユーザ端末の位置情報を取得する位置情報取得機能と、現在時刻情報を取得する時刻取得機能と、ユーザ端末の位置情報に基づいて当該位置の天候情報を取得する天候情報取得機能と、取得した前記位置情報、前記時刻情報及び前記天候情報に基づいて、前記ユーザ端末の位置における天然光源の状況を推定する天然光源推定機能と、前記位置情報に基づいて前記ユーザ端末の周辺に存在する現実のオブジェクトに予め対応させた仮想空間上のオブジェクト(現実対応オブジェクト)の情報を取得する現実対応オブジェクト情報取得機能と、前記ユーザ端末が備えるカメラ装置によって現実空間を撮影することで得られた前記撮影画像及び撮影方向情報を取得する撮影画像取得機能と、前記撮影画像と概略同一位置かつ概略同一撮影方向と推定される少なくとも1パターンについて仮想カメラを設置して仮想空間上を撮影する条件において、推定した前記天然光源の状況における現実対応オブジェクトに対する光源の影響を考慮したレンダリングを実行して仮想撮影画像を生成する仮想撮影画像生成機能と、前記撮影画像と前記仮想撮影画像とについて視覚的特徴の一致箇所を特定して、両者の一致度に基づいて撮影画像に映るオブジェクトを特定する撮影オブジェクト特定機能とを実現させることを特徴とする。 From a non-limiting point of view, an information processing program according to an embodiment of the present invention stores a real object appearing in a photographed image photographed by a user terminal owned by a user and a real object in association with the real object in advance. An information processing program for causing a computer to implement a process of identifying an object appearing in a photographed image by comparing it with an object (reality corresponding object) in a virtual space, wherein position information of the user terminal is transmitted to the computer. A location information acquisition function to acquire, a time acquisition function to acquire current time information, a weather information acquisition function to acquire weather information at the location based on the location information of the user terminal, the acquired location information, and the time information and a natural light source estimation function for estimating the state of natural light sources at the location of the user terminal based on the weather information; A reality-corresponding object information acquisition function that acquires information on an object in space (a reality-corresponding object), and acquires the photographed image and photographing direction information obtained by photographing the real space with a camera device provided in the user terminal. A photographed image acquisition function, and a condition in which a virtual camera is installed to photograph at least one pattern in a virtual space that is estimated to be approximately the same position and approximately the same photographing direction as the photographed image, and the reality of the estimated natural light source situation. A virtual captured image generation function for generating a virtual captured image by executing rendering in consideration of the effect of a light source on a corresponding object; It is characterized by realizing a photographed object specifying function for specifying an object appearing in a photographed image based on the degree of matching.

非限定的な観点によると、本発明の一実施形態に係る情報処理装置は、ユーザが所持するユーザ端末によって撮影された撮影画像に映る現実のオブジェクトと、現実のオブジェクトに予め対応させて記憶させた仮想空間上のオブジェクト(現実対応オブジェクト)とを照合して撮影画像に映るオブジェクトを特定する処理を行うための情報処理装置であって、前記ユーザ端末の位置情報を取得する位置情報取得部と、現在時刻情報を取得する時刻取得部と、ユーザ端末の位置情報に基づいて当該位置の天候情報を取得する天候情報取得部と、取得した前記位置情報、前記時刻情報及び前記天候情報に基づいて、前記ユーザ端末の位置における天然光源の状況を推定する天然光源推定部と、前記位置情報に基づいて前記ユーザ端末の周辺に存在する現実のオブジェクトに予め対応させた仮想空間上のオブジェクト(現実対応オブジェクト)の情報を取得する現実対応オブジェクト情報取得部と、前記ユーザ端末が備えるカメラ装置によって現実空間を撮影することで得られた前記撮影画像及び撮影方向情報を取得する撮影画像取得部と、前記撮影画像と概略同一位置かつ概略同一撮影方向と推定される少なくとも1パターンについて仮想カメラを設置して仮想空間上を撮影する条件において、推定した前記天然光源の状況における現実対応オブジェクトに対する光源の影響を考慮したレンダリングを実行して仮想撮影画像を生成する仮想撮影画像生成部と、前記撮影画像と前記仮想撮影画像とについて視覚的特徴の一致箇所を特定して、両者の一致度に基づいて撮影画像に映るオブジェクトを特定する撮影オブジェクト特定部とを実現させることを特徴とする。 From a non-limiting point of view, an information processing apparatus according to an embodiment of the present invention stores a real object appearing in a photographed image taken by a user terminal owned by a user and a real object in association with the real object in advance. an information processing device for performing a process of identifying an object appearing in a photographed image by matching it with an object (reality corresponding object) in a virtual space, the information processing device comprising: a position information obtaining unit for obtaining position information of the user terminal; , a time acquisition unit that acquires current time information, a weather information acquisition unit that acquires weather information at the location based on the location information of the user terminal, and based on the acquired location information, the time information, and the weather information a natural light source estimating unit for estimating a natural light source situation at the position of the user terminal; and an object in a virtual space that is pre-associated with a real object existing around the user terminal based on the position information a captured image acquisition unit that acquires the captured image and the captured direction information obtained by capturing the real space with a camera device included in the user terminal; Under the condition that a virtual camera is installed and photographed in virtual space for at least one pattern that is estimated to be approximately the same position and approximately the same photographing direction as the photographed image, the effect of the light source on the realistic object in the estimated natural light source situation is calculated. a virtual captured image generation unit that generates a virtual captured image by performing rendering considering the above; and a photographed object identifying unit that identifies an object captured in the photographed object.

非限定的な観点によると、本発明の一実施形態に係る情報処理方法は、ユーザが所持するユーザ端末によって撮影された撮影画像に映る現実のオブジェクトと、現実のオブジェクトに予め対応させて記憶させた仮想空間上のオブジェクト(現実対応オブジェクト)とを照合して撮影画像に映るオブジェクトを特定する処理をコンピュータに実行させるための情報処理方法であって、前記ユーザ端末の位置情報を取得する位置情報取得手順と、現在時刻情報を取得する時刻取得手順と、ユーザ端末の位置情報に基づいて当該位置の天候情報を取得する天候情報取得手順と、取得した前記位置情報、前記時刻情報及び前記天候情報に基づいて、前記ユーザ端末の位置における天然光源の状況を推定する天然光源推定手順と、前記位置情報に基づいて前記ユーザ端末の周辺に存在する現実のオブジェクトに予め対応させた仮想空間上のオブジェクト(現実対応オブジェクト)の情報を取得する現実対応オブジェクト情報取得手順と、前記ユーザ端末が備えるカメラ装置によって現実空間を撮影することで得られた前記撮影画像及び撮影方向情報を取得する撮影画像取得手順と、前記撮影画像と概略同一位置かつ概略同一撮影方向と推定される少なくとも1パターンについて仮想カメラを設置して仮想空間上を撮影する条件において、推定した前記天然光源の状況における現実対応オブジェクトに対する光源の影響を考慮したレンダリングを実行して仮想撮影画像を生成する仮想撮影画像生成手順と、前記撮影画像と前記仮想撮影画像とについて視覚的特徴の一致箇所を特定して、両者の一致度に基づいて撮影画像に映るオブジェクトを特定する撮影オブジェクト特定手順とを含むことを特徴とする。 From a non-limiting point of view, an information processing method according to an embodiment of the present invention provides a real object appearing in a photographed image photographed by a user terminal owned by a user and storing the real object in association with the real object in advance. An information processing method for causing a computer to execute a process of identifying an object appearing in a photographed image by comparing it with an object (reality-corresponding object) in a virtual space, wherein the positional information for acquiring the positional information of the user terminal an acquisition procedure, a time acquisition procedure for acquiring current time information, a weather information acquisition procedure for acquiring weather information at a location based on the location information of the user terminal, the acquired location information, the time information, and the weather information a natural light source estimating procedure for estimating the natural light source situation at the position of the user terminal based on the position information; A reality-corresponding object information obtaining procedure for obtaining information on a (reality-corresponding object), and a photographed image obtaining procedure for obtaining the photographed image and photographing direction information obtained by photographing the physical space with a camera device provided in the user terminal. and a light source for a realistic object in the estimated natural light source situation under the condition that a virtual camera is installed and photographed in the virtual space for at least one pattern that is estimated to be at approximately the same position and approximately the same photographing direction as the photographed image. A virtual captured image generation procedure for generating a virtual captured image by executing rendering considering the influence of the virtual captured image; and a photographed object identification procedure for identifying an object appearing in the photographed image.

本願の各実施形態により1または2以上の不足が解決される。 Embodiments of the present application address one or more deficiencies.

本発明の少なくとも1つの実施形態における情報処理装置の構成の例を示すブロック図である。1 is a block diagram showing an example of the configuration of an information processing device according to at least one embodiment of the present invention; FIG. 本発明少なくとも1つの実施形態における情報処理装置を適用するシステム構成の例を示すブロック図である。1 is a block diagram showing an example of a system configuration to which an information processing device according to at least one embodiment of the invention is applied; FIG. 本発明の少なくとも1つの実施形態における情報処理の例を示すフローチャートである。4 is a flow chart illustrating an example of information processing in at least one embodiment of the invention; 本発明の少なくとも1つの実施形態を適用していない場合のAR表示の例を表した説明図である。FIG. 10 is an explanatory diagram showing an example of AR display when at least one embodiment of the present invention is not applied; 本発明の少なくとも1つの実施形態を適用していない場合のAR表示の例の一部を拡大した説明図である。FIG. 11 is an explanatory diagram enlarging a part of an example of AR display when at least one embodiment of the present invention is not applied; 本発明の少なくとも1つの実施形態における天然光源推定処理の一例の概念を表した概念図である。FIG. 4 is a conceptual diagram showing an example concept of natural light source estimation processing in at least one embodiment of the present invention. 本発明の少なくとも1つの実施形態を適用した場合のAR表示の例を表した説明図である。FIG. 10 is an explanatory diagram showing an example of AR display when at least one embodiment of the present invention is applied; 本発明の少なくとも1つの実施形態を適用した場合のAR表示の例の一部を拡大した説明図である。FIG. 10 is an explanatory diagram enlarging a part of an AR display example when at least one embodiment of the present invention is applied; 本発明の少なくとも1つの実施形態における情報処理装置の構成の例を示すブロック図である。1 is a block diagram showing an example of the configuration of an information processing device according to at least one embodiment of the present invention; FIG. 本発明の少なくとも1つの実施形態における情報処理の例を示すフローチャートである。4 is a flow chart illustrating an example of information processing in at least one embodiment of the invention; 本発明の少なくとも1つの実施形態におけるトラッキング処理の一例の概念を表した概念図である。FIG. 2 is a conceptual diagram illustrating an example concept of tracking processing in at least one embodiment of the present invention; 本発明の少なくとも1つの実施形態におけるカメラ方位推定処理の一例の概念を表した概念図である。FIG. 4 is a conceptual diagram showing an example concept of camera orientation estimation processing in at least one embodiment of the present invention.

以下、本発明の実施形態の例について図面を参照して説明する。なお、以下で説明する実施形態の例における各種構成要素は、矛盾等が生じない範囲で適宜組み合わせ可能である。また、以下で説明する各種フローを構成する各種処理の順序は、処理内容に矛盾等が生じない範囲で順不同である。また、各実施形態の特徴部分に関係しない動作や処理については、その内容を省略している場合がある。さらに、以下で説明する各種フローを構成する各種処理の順序は、処理内容に矛盾等が生じない範囲で順不同である。 Hereinafter, examples of embodiments of the present invention will be described with reference to the drawings. It should be noted that various components in the examples of the embodiments described below can be appropriately combined within a range that does not cause contradiction. Further, the order of various processes constituting various flows described below is random as long as there is no contradiction in the processing contents. Also, the contents of operations and processes that are not related to the features of each embodiment may be omitted. Furthermore, the order of various processes constituting various flows described below is random as long as there is no contradiction in the processing contents.

[第1の実施形態]
図1は、本発明の少なくとも1つの実施形態における情報処理装置の構成の例を示すブロック図である。図1に示すように、本発明の第1の実施形態における情報処理装置10は、位置情報取得部11と、時刻情報取得部12と、天候情報取得部13と、天然光源推定部14と、現実対応オブジェクト情報取得部15と、撮影画像取得部16と、第一光源影響演算部17と、仮想オブジェクト情報取得部18と、第二光源影響演算部19と、重畳表示部20と、記憶部21とを備える。図1の各構成の詳細については後述する。
[First Embodiment]
FIG. 1 is a block diagram showing an example configuration of an information processing apparatus according to at least one embodiment of the present invention. As shown in FIG. 1, the information processing apparatus 10 according to the first embodiment of the present invention includes a position information acquisition unit 11, a time information acquisition unit 12, a weather information acquisition unit 13, a natural light source estimation unit 14, A reality-corresponding object information acquisition unit 15, a captured image acquisition unit 16, a first light source effect calculation unit 17, a virtual object information acquisition unit 18, a second light source effect calculation unit 19, a superimposed display unit 20, and a storage unit. 21. Details of each configuration in FIG. 1 will be described later.

図2は、本発明少なくとも1つの実施形態における情報処理装置を適用するシステム構成の例を示すブロック図である。ユーザが所持するユーザ端末を本発明の第1の実施形態における情報処理装置10として機能させるものであってもよいが、ユーザが所持するユーザ端末から通信ネットワークを介して接続可能なサーバ装置を情報処理装置10として機能させるものであってもよい。図2に示すように、システムは、サーバ装置30と、各ユーザが所持するユーザ端末401~40n(nは任意の整数。以下、これらを代表して単にユーザ端末40と表現する場合がある。)とを含む。 FIG. 2 is a block diagram showing an example of a system configuration to which an information processing apparatus according to at least one embodiment of the invention is applied. A user terminal owned by a user may function as the information processing apparatus 10 according to the first embodiment of the present invention. It may function as the processing device 10 . As shown in FIG. 2, the system includes a server device 30 and user terminals 401 to 40n (n is an arbitrary integer) possessed by each user. ) and

サーバ装置30と複数のユーザ端末401~40nは、それぞれインターネットなどの通信ネットワーク50に接続されている。なお、図示しないが、複数のユーザ端末401~40nは、例えば、通信業者によって管理される基地局と無線通信回線によるデータ通信を行うことによって、通信ネットワーク50と接続する。 The server device 30 and the plurality of user terminals 401 to 40n are each connected to a communication network 50 such as the Internet. Although not shown, the plurality of user terminals 401 to 40n are connected to the communication network 50 by performing data communication with a base station managed by a telecommunications carrier through a wireless communication line, for example.

システムは、サーバ装置30と複数のユーザ端末401~40nとを備えることにより、ユーザの操作に応じて各種処理を実行するための各種機能を実現する。 The system includes a server device 30 and a plurality of user terminals 401 to 40n, thereby realizing various functions for executing various processes according to user operations.

サーバ装置30は、情報処理装置10の管理者によって管理され、複数のユーザ端末401~40nに対して各種処理に関する情報を提供するための各種機能を有する。本例において、サーバ装置30は、WWWサーバなどの情報処理装置によって構成され、各種情報を格納する記憶媒体を備える。なお、サーバ装置30は、制御部や通信部などコンピュータとして各種処理を行うための一般的な構成を備えるが、ここでの説明は省略する。また、情報処理装置10においては、複数のユーザ端末401~40nそれぞれにかかる処理負荷を軽減させるといった観点から、各種情報はサーバ装置30が管理することが好ましい。ただし、各種情報を記憶する記憶部は、サーバ装置30がアクセス可能な状態で記憶領域を備えていればよく、例えば専用の記憶領域をサーバ装置30の外部に有する構成とされていてもよい。 The server device 30 is managed by an administrator of the information processing device 10 and has various functions for providing information on various processes to the user terminals 401 to 40n. In this example, the server device 30 is configured by an information processing device such as a WWW server, and includes a storage medium for storing various information. Note that the server device 30 has a general configuration for performing various processes as a computer, such as a control unit and a communication unit, but description thereof will be omitted here. Moreover, in the information processing apparatus 10, it is preferable that the server apparatus 30 manages various kinds of information from the viewpoint of reducing the processing load on each of the plurality of user terminals 401 to 40n. However, the storage unit for storing various kinds of information only needs to have a storage area that can be accessed by the server device 30. For example, a dedicated storage area may be provided outside the server device 30.

複数のユーザ端末401~40nは、それぞれ、ユーザによって管理され、例えば携帯電話端末やPDA(Personal Digital Assistants)などの通信端末が挙げられ、ユーザが動画及び/又は静止画の撮影を行うためのカメラ装置を搭載しており、かつ、撮影画像データ等を表示するためのディスプレイを備えた構成である必要がある。ユーザ端末の構成の他の例には、スマートウォッチなどの所謂ウェアラブルデバイスや、ウェアラブルデバイスと通信端末等との組み合わせがある。また、カメラ装置は、光学式カメラの他、3次元カメラ装置を併用するものであってもよい。また、ユーザ端末401~40nは、描画情報を入力するためのマウス、タッチパネル、タッチペン等の入力手段を備えている。 Each of the plurality of user terminals 401 to 40n is managed by a user, and includes communication terminals such as mobile phone terminals and PDAs (Personal Digital Assistants). It is necessary to have a configuration in which the device is mounted and a display for displaying captured image data and the like is provided. Other examples of the configuration of the user terminal include so-called wearable devices such as smartwatches, and combinations of wearable devices and communication terminals. Moreover, the camera device may use a three-dimensional camera device in addition to the optical camera device. Also, the user terminals 401 to 40n are provided with input means such as a mouse, touch panel, and touch pen for inputting drawing information.

また、複数のユーザ端末401~40nは、それぞれ、通信ネットワーク50に接続し、サーバ装置30との通信を行うことにより各種処理を実行するためのハードウェアおよびソフトウェアを備える。なお、複数のユーザ端末401~40nそれぞれは、サーバ装置30を介さずに互いに直接通信を行うこともできる構成とされていてもよい。 Further, each of the user terminals 401 to 40n is connected to the communication network 50 and has hardware and software for executing various processes by communicating with the server device 30 . Note that each of the plurality of user terminals 401 to 40n may be configured to be able to directly communicate with each other without going through the server device 30. FIG.

情報処理を行う過程においては、サーバ装置30は適宜ユーザ端末401~40nに対して処理過程を送信するものとし、ユーザ端末401~40n側では、受信した処理過程の内容に基づいた画面内容を表示装置の表示画面に表示させるものとする。画面内容の生成は、サーバ装置30側で行ってもよいし、ユーザ端末401~40n側で行ってもよい。 In the process of information processing, the server apparatus 30 appropriately transmits the processing process to the user terminals 401 to 40n, and the user terminals 401 to 40n display screen contents based on the content of the received processing process. shall be displayed on the display screen of the device. The screen contents may be generated on the server device 30 side or on the user terminals 401 to 40n side.

以下においては、図2に示すサーバ装置30を図1に示す情報処理装置10として機能させる場合を例として説明を行う。 In the following, a case where the server device 30 shown in FIG. 2 functions as the information processing device 10 shown in FIG. 1 will be described as an example.

位置情報取得部11は、ユーザ端末の位置情報を取得する機能を有する。ここで、位置情報は、ユーザ端末の位置を示す情報であればどのようなものであってもよい。一例としては、GPSによって取得した緯度経度情報や、複数種類の無線信号の受信強度に基づく位置推定による位置情報などが考えられる。また、最後に正確に位置情報を取得した位置からユーザ端末が移動した場合の移動方向及び移動距離を推測してユーザ端末の位置情報を推定するDR(Dead Reckoning:自律航法)を採用して取得した位置情報であってもよい。 The location information acquisition unit 11 has a function of acquiring location information of the user terminal. Here, the location information may be any information that indicates the location of the user terminal. Examples of such information include latitude and longitude information obtained by GPS, position information obtained by position estimation based on reception strengths of multiple types of radio signals, and the like. In addition, DR (Dead Reckoning) is adopted to estimate the position information of the user terminal by estimating the direction and distance of movement of the user terminal from the position where the position information was last accurately obtained. It may be location information obtained from

時刻情報取得部12は、日付を含む現在時刻情報を取得する機能を有する。日付を含む現在時刻を取得可能であればどのような方法であってもよい。 The time information acquisition unit 12 has a function of acquiring current time information including date. Any method may be used as long as the current time including the date can be obtained.

天候情報取得部13は、ユーザ端末の位置情報に基づいて当該位置の天候情報を取得する機能を有する。天候情報は、現在の実際の気象情報を示す情報であってもよいし、予め予測された気象予測情報を天候情報として取得するものであってもよい。気象予測情報を天候情報として取得する際には、現在時刻情報を併せて利用する。 The weather information acquisition unit 13 has a function of acquiring weather information for a location based on the location information of the user terminal. The weather information may be information indicating the current actual weather information, or may be weather forecast information obtained in advance. When acquiring weather forecast information as weather information, current time information is also used.

天然光源推定部14は、取得した前記位置情報、前記時刻情報及び前記天候情報に基づいて、前記ユーザ端末の位置における天然光源の状況を推定する機能を有する。ここで、天然光源とは、自然界における光源のことをいう。天然光源としては、例えば、太陽は最も影響の大きい直接光源であり、月も直接光源である。また、太陽を含む直接光源を反射することで光源となる間接光源も天然光源に含まれる。また、青空、雲、霧などは、アンビエントライト(ambient light:周囲光)としての天然光源である。取得する天然光源の情報は、レンダリングの際に演算に用いる光源として定義したものを取得する構成である必要がある。簡略化した天然光源情報の取得例としては、日時とユーザ端末の位置情報とから推定される太陽の方向の情報を取得し、シーン内のすべてのオブジェクトに拡散アンビエントカラーを追加するだけの半球状の光源とするために天候情報から推定される空の色を取得することが考えられる。 The natural light source estimation unit 14 has a function of estimating the condition of natural light sources at the position of the user terminal based on the acquired position information, time information and weather information. Here, a natural light source means a light source in the natural world. As for natural light sources, for example, the sun is the most influential direct light source, and the moon is also a direct light source. The natural light source also includes an indirect light source that is a light source by reflecting a direct light source including the sun. Also, blue skies, clouds, fog, etc. are natural light sources as ambient light. The information of the natural light source to be acquired must be configured to acquire the light source defined as the light source used for calculations during rendering. A simplified example of obtaining natural light source information is a hemispherical light source that simply obtains information about the direction of the sun, which is estimated from the date and time and the position of the user terminal, and adds diffuse ambient colors to all objects in the scene. It is conceivable to acquire the color of the sky estimated from the weather information in order to use it as a light source.

現実対応オブジェクト情報取得部15は、位置情報に基づいてユーザ端末の周辺に存在する現実のオブジェクトに予め対応させた仮想空間上のオブジェクト(以下、現実対応オブジェクトという)の情報を取得する機能を有する。現実対応オブジェクトは、例えば、ビル等の建築物、街灯、信号などの屋外における現実のオブジェクトや、ドア、窓ガラス、照明などの屋内における現実のオブジェクトなどについて、仮想空間上に現実の配置と同一の配置にて予め3次元モデルを生成して記憶させておく。現実対応オブジェクト情報取得部15では、予め記憶させた現実対応オブジェクトのうち、ユーザ端末の位置情報周辺の現実対応オブジェクトを取得するようにする。 The reality-corresponding object information acquisition unit 15 has a function of acquiring information of an object in the virtual space (hereinafter referred to as a reality-corresponding object) that is associated in advance with a real object existing around the user terminal based on the position information. . The reality-corresponding objects are, for example, real outdoor objects such as buildings, street lights, traffic lights, etc., and indoor real objects such as doors, window glass, lighting, etc., which are arranged in the virtual space in the same way as they are in the real world. A three-dimensional model is generated and stored in advance with the arrangement of . The reality-corresponding object information acquisition unit 15 acquires the reality-corresponding objects around the position information of the user terminal among the reality-corresponding objects stored in advance.

撮影画像取得部16は、ユーザ端末が備えるカメラ装置によって現実空間を撮影することで得られた撮影画像及び撮影方向情報を取得する機能を有する。撮影画像は、動画であってもよいし、静止画であってもよい。撮影方向情報は、ユーザ端末が備える方位センサによって取得する。 The captured image acquisition unit 16 has a function of acquiring a captured image and capturing direction information obtained by capturing an image of the physical space with a camera device provided in the user terminal. The captured image may be a moving image or a still image. The shooting direction information is acquired by an orientation sensor provided in the user terminal.

第一光源影響演算部17は、推定した天然光源状況における現実対応オブジェクトに対する光源の影響を演算する機能を有する。具体的には、取得した現実対応オブジェクトに対する天然光源の影響を考慮したシェーディングを含むレンダリング処理を実行することで、現実対応オブジェクトに生じる影、反射、明るさの変化など、光源からの影響を演算によって求める処理を行う。 The first light source effect calculation unit 17 has a function of calculating the effect of the light source on the reality corresponding object in the estimated natural light source situation. Specifically, by executing rendering processing that includes shading that considers the effects of natural light sources on the acquired reality-compatible objects, the effects of light sources such as shadows, reflections, and changes in brightness on reality-compatible objects are calculated. Perform the processing required by

仮想オブジェクト情報取得部18は、ユーザ端末の位置周辺に配置されカメラ装置の撮影範囲内に位置する可能性のある仮想オブジェクトの情報を取得する機能を有する。仮想オブジェクトの配置は、位置座標に紐付けて記憶させたものであってもよいし、オブジェクトの所定位置に対して紐付けて記憶させたものであってもよい。また、どの範囲の仮想オブジェクトの情報を取得するかは適宜設定可能であり、撮影方向情報に基づいて撮影範囲を予測して仮想オブジェクト情報を取得する手法であってもよいし、ユーザ端末の位置から所定の距離に配置された全ての仮想オブジェクトの情報を取得する手法であってもよい。 The virtual object information acquisition unit 18 has a function of acquiring information on virtual objects that are arranged around the position of the user terminal and that may be located within the photographing range of the camera device. The placement of the virtual object may be stored in association with the position coordinates, or may be stored in association with the predetermined position of the object. In addition, it is possible to appropriately set which range of virtual object information is to be acquired. may be a method of acquiring information on all virtual objects arranged at a predetermined distance from the .

第二光源影響演算部19は、現実対応オブジェクトに対する天然光源の影響を考慮しつつ、推定した前記天然光源状況における前記仮想オブジェクトに対する光源の影響を演算する機能を有する。この第二光源影響演算部19では、現実対応オブジェクトの中に仮想オブジェクトを配置した状態において、仮想オブジェクトに対する天然光源の影響を演算する。例えば、仮想オブジェクトと現実対応オブジェクトであるビルが近接している場合、光源である太陽の向きによっては、ビルの影が仮想オブジェクトに掛かって、仮想オブジェクトの一部に太陽の光が直接は当たらない状況となる可能性がある。このような場合には、仮想オブジェクトのうちビルの影が掛かった箇所は、他のオブジェクトに対して影を落とすことはないことになる。このように、現実対応オブジェクトの中に配置した状態での光源の影響を演算することで、現実のオブジェクトの中に仮想オブジェクトが実際に存在すると仮定したときのリアルな光源の影響を表現することが可能となる。具体的な演算方法の一例としては、現実対応オブジェクトの中に仮想オブジェクトを配置した状態において天然光源の影響を考慮したレンダリング処理を実行した結果から、第一光源影響演算部17における演算結果を減算することで、仮想オブジェクトに対する天然光源の影響のみを抽出することが考えられる。 The second light source effect calculation unit 19 has a function of calculating the effect of the light source on the virtual object in the estimated natural light source situation while considering the effect of the natural light source on the reality corresponding object. The second light source effect calculation unit 19 calculates the effect of the natural light source on the virtual object in a state in which the virtual object is arranged in the reality corresponding object. For example, when a virtual object and a building, which is a reality-compatible object, are close to each other, depending on the direction of the sun, which is the light source, the shadow of the building may be cast on the virtual object, and the sunlight may not hit part of the virtual object directly. There may be a situation where there is no In such a case, the part of the virtual object that is shaded by the building will not cast a shadow on other objects. In this way, by calculating the effect of the light source placed in the reality corresponding object, it is possible to express the realistic effect of the light source when it is assumed that the virtual object actually exists in the real object. becomes possible. As an example of a specific calculation method, the calculation result of the first light source effect calculation unit 17 is subtracted from the result of rendering processing that takes into account the effect of the natural light source in a state in which the virtual object is placed in the reality corresponding object. By doing so, it is conceivable to extract only the influence of the natural light source on the virtual object.

重畳表示部20は、撮影画像上における仮想オブジェクトの接地位置を特定し、仮想オブジェクト及び演算した光源影響を撮影画像上の特定した接地位置に対して重畳表示させる機能を有する。 The superimposed display unit 20 has a function of specifying the ground position of the virtual object on the captured image and superimposing the virtual object and the calculated light source effect on the specified ground position on the captured image.

記憶部21は、情報処理装置10において行われる様々な処理で必要なデータ及び処理の結果として得られたデータを記憶させる機能を有する。 The storage unit 21 has a function of storing data necessary for various processes performed in the information processing apparatus 10 and data obtained as a result of the processes.

次に、本例の情報処理装置10において行われる情報処理の流れについて説明を行う。図3は、本発明の少なくとも1つの実施形態における情報処理の例を示すフローチャートである。この図3に示すように、情報処理は、先ず、情報処理装置10において、ユーザ端末の位置情報、現在時刻情報及び天候情報を順次取得することによって開始される(ステップS101)。次に、情報処理装置10は、取得した位置情報、時刻情報及び天候情報に基づいて、ユーザ端末の位置における天然光源の状況を推定する(ステップS102)。次に、情報処理装置10は、位置情報に基づいてユーザ端末の周辺に存在する現実のオブジェクトに対応した現実対応オブジェクトの情報を取得する(ステップS103)。次に、情報処理装置10は、ユーザ端末による撮影画像及び撮影方向情報を取得する(ステップS104)。次に、情報処理装置10は、推定した天然光源状況における現実対応オブジェクトに対する光源の影響を演算する(ステップS105)。次に、情報処理装置10は、ユーザ端末の位置周辺に配置されカメラ装置の撮影範囲内に位置するARとして表示させる可能性のある仮想オブジェクトの情報を取得する(ステップS106)。次に、情報処理装置10は、現実対応オブジェクトに対する天然光源の影響を考慮しつつ、推定した天然光源状況における前記仮想オブジェクトに対する光源の影響を演算する(ステップS107)。この処理により、重畳表示の際に描画する仮想オブジェクト、及び、影、反射等の仮想オブジェクトに起因する光源の影響を取得する。そして、情報処理装置10は、撮影画像上における前記仮想オブジェクトの接地位置を特定し、仮想オブジェクト及び演算した光源影響を撮影画像上の特定した接地位置に対して重畳表示させて(ステップS106)、情報処理を終了する。 Next, the flow of information processing performed in the information processing apparatus 10 of this example will be described. FIG. 3 is a flow chart illustrating an example of information processing in at least one embodiment of the invention. As shown in FIG. 3, the information processing is started by sequentially acquiring position information of the user terminal, current time information, and weather information in the information processing apparatus 10 (step S101). Next, the information processing apparatus 10 estimates the condition of the natural light source at the position of the user terminal based on the acquired position information, time information and weather information (step S102). Next, the information processing apparatus 10 acquires information on a reality corresponding object corresponding to a real object existing around the user terminal based on the position information (step S103). Next, the information processing apparatus 10 acquires the captured image and the capturing direction information by the user terminal (step S104). Next, the information processing apparatus 10 calculates the influence of the light source on the reality-corresponding object under the estimated natural light source condition (step S105). Next, the information processing apparatus 10 acquires information on virtual objects that may be displayed as ARs that are placed around the position of the user terminal and located within the photographing range of the camera device (step S106). Next, the information processing apparatus 10 calculates the influence of the light source on the virtual object in the estimated natural light source situation while considering the influence of the natural light source on the reality corresponding object (step S107). Through this processing, the effect of the light source caused by the virtual object to be drawn in the superimposed display and the virtual object such as shadows and reflections is acquired. Then, the information processing apparatus 10 specifies the ground position of the virtual object on the captured image, superimposes the virtual object and the calculated light source effect on the specified ground position on the captured image (step S106), End information processing.

次に、本例の情報処理装置10を適用した場合の結果について、具体例に基づいて説明を行う。図4は、本発明の少なくとも1つの実施形態を適用していない場合のAR表示の例を表した説明図である。また、図5は、本発明の少なくとも1つの実施形態を適用していない場合のAR表示の例の一部を拡大した説明図である。この図4は、現実のオブジェクトであるビルの周囲に複数の球体を仮想オブジェクトとして配置し、かつ、現実のオブジェクトであるビルの窓ガラス部分に文字を表示させるAR表示を行った例である。図5は、図4の一部を拡大した画像である。この図4及び図5に示すように、本発明を適用せずに、仮想オブジェクトに対する光源の影響のみを演算して、その演算結果を重畳表示すると、本来はビルの影に掛かって他のオブジェクトに対して影を落とさない箇所が、影を落とすように演算結果が出てしまうため、ビルの影と仮想オブジェクトの影が重なって描画されてしまうという本来は生じ得ない状況が生じてしまうという問題があった。 Next, the result of applying the information processing apparatus 10 of this example will be described based on a specific example. FIG. 4 is an explanatory diagram showing an example of AR display when at least one embodiment of the present invention is not applied. Also, FIG. 5 is an explanatory diagram enlarging a part of an example of AR display when at least one embodiment of the present invention is not applied. FIG. 4 shows an example of AR display in which a plurality of spheres are arranged as virtual objects around a building, which is a real object, and characters are displayed on the window glass portion of the building, which is a real object. FIG. 5 is an enlarged image of a part of FIG. As shown in FIGS. 4 and 5, without applying the present invention, if only the effect of the light source on the virtual object is calculated and the result of the calculation is superimposed, the shadow of the building would originally cast the shadow of the other object. However, the shadows of the buildings and the shadows of the virtual objects overlap, creating a situation that could not have occurred in the first place. I had a problem.

そこで、本例では、ユーザ端末の位置における天然光源の状況を推定して、その天然光源による現実対応オブジェクトに対する影響を演算し、かつ、現実対応オブジェクトの近傍に配置された仮想オブジェクトに対する天然光源の影響を演算することで、仮想オブジェクトに対する天然光源の影響のみを抽出して重畳表示することを可能にしている。 Therefore, in this example, the situation of the natural light source at the position of the user terminal is estimated, the influence of the natural light source on the reality-corresponding object is calculated, and the natural light source on the virtual object placed near the reality-corresponding object is calculated. By calculating the influence, it is possible to extract only the influence of the natural light source on the virtual object and superimpose it.

図6は、本発明の少なくとも1つの実施形態における天然光源推定処理の一例の概念を表した概念図である。現実世界の現象を忠実に再現すべく天然光源の状況を詳細に設定することも可能であるが、そのような複雑な現象をリアルタイムに演算するには相当な演算処理能力が必要となるため、現実的には、天然光源の状況を簡略化して推定することが好ましい。そこで、この図6に示すように、日時とユーザ端末の位置情報とから太陽の方向を推定し、半球状の光源を設定して、その半球状の光源はその内側に位置する全てのオブジェクトに対して拡散アンビエントカラーを追加するアンビエントライトとして機能するものとする。具体的には、天候情報から推定される空の色をアンビエントライトのカラーとして採用する。晴天の場合には青色を採用し、曇天の場合には灰色を採用する。また、夜の場合には黒色、朝方や夕方は赤みを帯びた色など、時刻によって異なる色を採用する。また、曇天の場合には太陽からの直接光源の影響を減少させるようにしてもよい。このような簡略化した天然光源推定処理を行うことで、その後の光源の影響の演算処理の負荷量を軽減することが可能となる。 FIG. 6 is a conceptual diagram showing the concept of an example of natural light source estimation processing in at least one embodiment of the present invention. Although it is possible to set the conditions of natural light sources in detail in order to faithfully reproduce phenomena in the real world, real-time calculation of such complex phenomena requires considerable processing power. Realistically, it is preferable to simplify and estimate the situation of the natural light source. Therefore, as shown in FIG. 6, the direction of the sun is estimated from the date and time and the position information of the user terminal, a hemispherical light source is set, and the hemispherical light source illuminates all the objects located inside. It shall act as an ambient light adding a diffuse ambient color to it. Specifically, the color of the sky estimated from the weather information is adopted as the ambient light color. Blue is used for clear weather, and gray is used for cloudy weather. Different colors are used depending on the time of day, such as black at night and reddish colors in the morning and evening. Also, in the case of cloudy weather, the influence of the direct light source from the sun may be reduced. By performing such a simplified natural light source estimation process, it is possible to reduce the load of subsequent calculation processing for the influence of the light source.

図7は、本発明の少なくとも1つの実施形態を適用した場合のAR表示の例を表した説明図である。また、図8は、本発明の少なくとも1つの実施形態を適用した場合のAR表示の例の一部を拡大した説明図である。この図7及び図8は、図4及び図5と同一の状況であるが、この図7及び図8に示すように、本発明の少なくとも1つの実施形態を適用した場合には、仮想オブジェクトに対する天然光源の影響のみを抽出して重畳表示できるので、ビルの影と仮想オブジェクトの影が重なって描画されることなく、より自然な状況で描画が実行される。 FIG. 7 is an explanatory diagram showing an example of AR display when at least one embodiment of the present invention is applied. Also, FIG. 8 is an explanatory diagram enlarging a part of an example of AR display when at least one embodiment of the present invention is applied. 7 and 8 show the same situation as in FIGS. 4 and 5, but when at least one embodiment of the present invention is applied as shown in FIGS. Since only the influence of the natural light source can be extracted and displayed in a superimposed manner, the shadows of the building and the shadows of the virtual objects are not overlapped, and rendering is performed in a more natural situation.

以上に説明したように、上記の実施形態の一側面として、情報処理装置10が、位置情報取得部11と、時刻情報取得部12と、天候情報取得部13と、天然光源推定部14と、現実対応オブジェクト情報取得部15と、撮影画像取得部16と、第一光源影響演算部17と、仮想オブジェクト情報取得部18と、第二光源影響演算部19と、重畳表示部20と、記憶部21とを備える構成とし、ユーザ端末の位置情報を取得し、現在時刻情報を取得し、ユーザ端末の位置情報に基づいて当該位置の天候情報を取得し、取得した位置情報、時刻情報及び天候情報に基づいて、ユーザ端末の位置における天然光源の状況を推定し、位置情報に基づいてユーザ端末の周辺に存在する現実のオブジェクトに予め対応させた仮想空間上の現実対応オブジェクトの情報を取得し、ユーザ端末が備えるカメラ装置によって現実空間を撮影することで得られた撮影画像及び撮影方向情報を取得し、推定した天然光源状況における現実対応オブジェクトに対する光源の影響を演算し、ユーザ端末の位置周辺に配置されカメラ装置の撮影範囲内に存在する可能性のある仮想オブジェクトの情報を取得し、現実対応オブジェクトに対する天然光源の影響を考慮しつつ、推定した天然光源状況における仮想オブジェクトに対する光源の影響を演算し、撮影画像上における仮想オブジェクトの接地位置を特定し、仮想オブジェクト及び演算した光源影響を撮影画像上の特定した接地位置に対して重畳表示させるようにしたので、周辺の現実のオブジェクトとの整合性を考慮したAR表示が可能となる。 As described above, as one aspect of the above embodiment, the information processing device 10 includes the position information acquisition unit 11, the time information acquisition unit 12, the weather information acquisition unit 13, the natural light source estimation unit 14, A reality-corresponding object information acquisition unit 15, a captured image acquisition unit 16, a first light source effect calculation unit 17, a virtual object information acquisition unit 18, a second light source effect calculation unit 19, a superimposed display unit 20, and a storage unit. 21, acquires the location information of the user terminal, acquires the current time information, acquires the weather information of the location based on the location information of the user terminal, and acquires the acquired location information, time information and weather information estimating the situation of the natural light source at the position of the user terminal based on the position information, obtaining information of a reality-corresponding object in the virtual space pre-corresponding to a real object existing in the vicinity of the user terminal based on the position information; Acquire a photographed image and photographing direction information obtained by photographing the real space with a camera device provided in the user terminal, calculate the influence of the light source on the realistic object in the estimated natural light source situation, Acquire information about virtual objects that may exist within the shooting range of the camera device, and calculate the effect of the light source on the virtual object under the estimated natural light source conditions while taking into account the effect of the natural light source on the reality-compatible object. However, since the ground position of the virtual object on the captured image is specified, and the virtual object and the calculated light source effect are superimposed on the specified ground position on the captured image, matching with the surrounding real objects is achieved. It is possible to perform AR display in consideration of the nature of the image.

[第2の実施形態]
第1の実施形態においては、周辺の現実のオブジェクトとの整合性を考慮した仮想オブジェクトのAR表示を行うために、現実対応オブジェクトを配置した仮想空間上に仮想オブジェクトを配置してから、推定した天然光源の影響を演算するようにしていたが、この第2の実施の形態においては、現実対応オブジェクトに対する天然光源の影響を演算してその状況を仮想カメラで撮影して仮想撮影画像を得ることで、ユーザが実際に撮影した撮影画像に映るオブジェクトを特定するためのトラッキング処理に利用する例について説明する。
[Second embodiment]
In the first embodiment, in order to perform AR display of a virtual object in consideration of consistency with surrounding real objects, the virtual object is placed in the virtual space in which the reality-corresponding object is placed, and then estimated. In the second embodiment, the effect of the natural light source is calculated, but in the second embodiment, the effect of the natural light source on the reality-corresponding object is calculated, and the situation is captured by a virtual camera to obtain a virtual captured image. Next, an example of use in tracking processing for specifying an object appearing in a photographed image actually photographed by the user will be described.

図9は、本発明の少なくとも1つの実施形態における情報処理装置の構成の例を示すブロック図である。図9に示すように、本発明の第2の実施形態における情報処理装置10は、位置情報取得部11と、時刻情報取得部12と、天候情報取得部13と、天然光源推定部14と、現実対応オブジェクト情報取得部15と、撮影画像取得部16と、仮想撮影画像生成部22と、撮影オブジェクト特定部23と、記憶部21とを備える。なお、第1の実施形態と同一の符号を付したものについては、第1の実施形態と同様に機能するものであるため、説明を省略する。 FIG. 9 is a block diagram showing an example configuration of an information processing apparatus according to at least one embodiment of the present invention. As shown in FIG. 9, the information processing apparatus 10 according to the second embodiment of the present invention includes a position information acquisition unit 11, a time information acquisition unit 12, a weather information acquisition unit 13, a natural light source estimation unit 14, It includes a reality-corresponding object information acquisition unit 15 , a captured image acquisition unit 16 , a virtual captured image generation unit 22 , a captured object identification unit 23 , and a storage unit 21 . It should be noted that the components denoted by the same reference numerals as in the first embodiment function in the same manner as in the first embodiment, and thus descriptions thereof will be omitted.

仮想撮影画像生成部22は、撮影画像と概略同一位置かつ概略同一撮影方向と推定される少なくとも1パターンについて仮想カメラを設置して仮想空間上を撮影する条件において、推定した天然光源の状況における現実対応オブジェクトに対する光源の影響を考慮したレンダリングを実行して仮想撮影画像を生成する機能を有する。本例では、現実対応オブジェクト情報取得部15においてユーザ端末の位置周辺の現実対応オブジェクトを取得している。そして、その状況において、ユーザ端末から取得した位置情報が実際のユーザ端末の位置を正確に示すものであれば、現実対応オブジェクトを配置した仮想空間上において同一位置かつ同一撮影方向で撮影することで、ユーザ端末による撮影画像に映るオブジェクトと一致する現実対応オブジェクトを特定することができる。その特定精度を向上させるために、天然光源推定部14で推定した天然光源の状況を用いてレンダリング処理を行って仮想撮影画像を取得するようにする。なお、ユーザ端末の位置情報が必ずしも正確でない場合がある。例えば、GPS情報は周囲の建築物の影響等でずれる可能性があるし、複数種類の無線信号の受信強度に基づく位置推定やDRによる位置推定も正確な位置を示さない可能性がある。よって、仮想カメラによる仮想撮影画像の生成を1パターンのみならず、仮想カメラの位置や撮影角度を異ならせた複数パターンについて仮想撮影画像を生成するようにしてもよい。 The virtual captured image generation unit 22 sets a virtual camera for at least one pattern that is estimated to be approximately the same position and approximately the same shooting direction as the captured image, and shoots in the virtual space. It has a function of generating a virtual photographed image by executing rendering considering the influence of the light source on the corresponding object. In this example, the reality-corresponding object information acquisition unit 15 acquires reality-corresponding objects around the position of the user terminal. Then, in that situation, if the position information obtained from the user terminal accurately indicates the actual position of the user terminal, then in the virtual space in which the reality-compatible object is placed, it is possible to shoot at the same position and in the same shooting direction. , it is possible to specify a reality-corresponding object that matches the object appearing in the image captured by the user terminal. In order to improve the identification accuracy, rendering processing is performed using the state of the natural light source estimated by the natural light source estimation unit 14 to obtain a virtual captured image. Note that the location information of the user terminal may not always be accurate. For example, GPS information may deviate due to the influence of surrounding buildings, etc., and position estimation based on reception strength of multiple types of radio signals and position estimation by DR may not indicate an accurate position. Therefore, the virtual captured image may be generated not only for one pattern but also for a plurality of patterns with different positions and shooting angles of the virtual camera.

撮影オブジェクト特定部23は、撮影画像と仮想撮影画像とについて視覚的特徴の一致箇所を特定して、両者の一致度に基づいて撮影画像に映るオブジェクトを特定する機能を有する。撮影画像と仮想撮影画像を照合して視覚的特徴の一致箇所を抽出し、例えば、一致箇所に関するスコアが所定の閾値を超えた場合に、撮影画像に映るオブジェクトと現実対応オブジェクトが同一のオブジェクトであると特定する。これにより、撮影画像に映るオブジェクトを特定することができる。 The photographed object identification unit 23 has a function of identifying a location where the visual features of the photographed image and the virtual photographed image match, and identifying an object appearing in the photographed image based on the degree of matching between the two. The photographed image and the virtual photographed image are compared to extract matching portions of the visual features. For example, when the score of the matching portion exceeds a predetermined threshold, it is determined that the object shown in the photographed image and the reality-corresponding object are the same object. Identify there is. This makes it possible to identify the object appearing in the captured image.

次に、本例の情報処理装置10において行われる情報処理の流れについて説明を行う。図10は、本発明の少なくとも1つの実施形態における情報処理の例を示すフローチャートである。この図10に示すように、情報処理は、先ず、情報処理装置10において、ユーザ端末の位置情報、現在時刻情報及び天候情報を順次取得することによって開始される(ステップS201)。次に、情報処理装置10は、取得した位置情報、時刻情報及び天候情報に基づいて、ユーザ端末の位置における天然光源の状況を推定する(ステップS202)。次に、情報処理装置10は、位置情報に基づいてユーザ端末の周辺に存在する現実のオブジェクトに対応した現実対応オブジェクトの情報を取得する(ステップS203)。次に、情報処理装置10は、ユーザ端末による撮影画像及び撮影方向情報を取得する(ステップS204)。次に、情報処理装置10は、推定した天然光源状況における現実対応オブジェクトに対する光源の影響を演算する(ステップS205)。次に、情報処理装置10は、ユーザ端末の位置周辺に配置されカメラ装置の撮影範囲内に位置するARとして表示させる可能性のある仮想オブジェクトの情報を取得する(ステップS206)。次に、情報処理装置10は、撮影画像と概略同一位置かつ概略同一撮影方向と推定される少なくとも1パターンについて仮想カメラを設置して仮想空間上を撮影する条件において、推定した天然光源の状況における現実対応オブジェクトに対する光源の影響を考慮したレンダリングを実行して仮想撮影画像を生成する(ステップS207)。そして、情報処理装置10は、撮影画像と仮想撮影画像とについて視覚的特徴の一致箇所を特定して、両者の一致度に基づいて撮影画像に映るオブジェクトを特定して(ステップS106)、情報処理を終了する。 Next, the flow of information processing performed in the information processing apparatus 10 of this example will be described. FIG. 10 is a flowchart illustrating an example of information processing in at least one embodiment of the invention. As shown in FIG. 10, information processing is started by sequentially acquiring location information of the user terminal, current time information, and weather information in the information processing apparatus 10 (step S201). Next, the information processing apparatus 10 estimates the condition of the natural light source at the position of the user terminal based on the acquired position information, time information and weather information (step S202). Next, the information processing apparatus 10 acquires information on a reality corresponding object corresponding to a real object existing around the user terminal based on the position information (step S203). Next, the information processing apparatus 10 acquires the captured image and the capturing direction information by the user terminal (step S204). Next, the information processing apparatus 10 calculates the influence of the light source on the reality-corresponding object under the estimated natural light source condition (step S205). Next, the information processing apparatus 10 acquires information on virtual objects that may be displayed as ARs that are placed around the position of the user terminal and located within the shooting range of the camera device (step S206). Next, the information processing apparatus 10 installs a virtual camera for at least one pattern that is estimated to be approximately the same position and approximately the same photographing direction as the photographed image, and performs photographing in the virtual space. A virtual photographed image is generated by executing rendering considering the influence of the light source on the reality corresponding object (step S207). Then, the information processing apparatus 10 specifies matching portions of the visual features of the captured image and the virtual captured image, and identifies objects appearing in the captured image based on the degree of matching between the two (step S106), and performs information processing. exit.

図11は、本発明の少なくとも1つの実施形態におけるトラッキング処理の一例の概念を表した概念図である。この図11の左側がユーザ端末によって撮影した撮影画像であり、図11の右側が仮想空間上の現実対応オブジェクトを撮影した仮想撮影画像である。この図11に示すように、天然光源の状況を反映させてより現実に近い状況でレンダリングを行って得た仮想撮影画像を用いることで、影、反射、明るさなどの状況が近似している条件で照合を行うことができるので、トラッキングの精度を向上させることが可能となる。 FIG. 11 is a conceptual diagram illustrating the concept of an example of tracking processing in at least one embodiment of the invention. The left side of FIG. 11 is a captured image captured by a user terminal, and the right side of FIG. 11 is a virtual captured image of a reality corresponding object in virtual space. As shown in FIG. 11, by using a virtual photographed image obtained by rendering in a more realistic situation by reflecting the situation of the natural light source, situations such as shadows, reflections, and brightness are approximated. Since matching can be performed under certain conditions, it is possible to improve the accuracy of tracking.

以上に説明したように、上記の実施形態の一側面として、情報処理装置10が、位置情報取得部11と、時刻情報取得部12と、天候情報取得部13と、天然光源推定部14と、現実対応オブジェクト情報取得部15と、撮影画像取得部16と、仮想撮影画像生成部22と、撮影オブジェクト特定部23と、記憶部21とを備える構成とし、ユーザ端末の位置情報を取得し、現在時刻情報を取得し、ユーザ端末の位置情報に基づいて当該位置の天候情報を取得し、取得した位置情報、時刻情報及び天候情報に基づいて、ユーザ端末の位置における天然光源の状況を推定し、位置情報に基づいてユーザ端末の周辺に存在する現実のオブジェクトに予め対応させた仮想空間上の現実対応オブジェクトの情報を取得し、ユーザ端末が備えるカメラ装置によって現実空間を撮影することで得られた撮影画像及び撮影方向情報を取得し、撮影画像と概略同一位置かつ概略同一撮影方向と推定される少なくとも1パターンについて仮想カメラを設置して仮想空間上を撮影する条件において、推定した天然光源の状況における現実対応オブジェクトに対する光源の影響を考慮したレンダリングを実行して仮想撮影画像を生成し、撮影画像と仮想撮影画像とについて視覚的特徴の一致箇所を特定して、両者の一致度に基づいて撮影画像に映るオブジェクトを特定するようにしたので、天然光源の状況を反映させてより現実に近い状況でレンダリングを行って得た仮想撮影画像を用いることで、影、反射、明るさなどの状況が近似している条件で照合を行うことができるので、トラッキングの精度を向上させることが可能となる。 As described above, as one aspect of the above embodiment, the information processing device 10 includes the position information acquisition unit 11, the time information acquisition unit 12, the weather information acquisition unit 13, the natural light source estimation unit 14, A configuration including a reality-corresponding object information acquisition unit 15, a captured image acquisition unit 16, a virtual captured image generation unit 22, a captured object identification unit 23, and a storage unit 21, acquires the position information of the user terminal, Obtaining time information, obtaining weather information at the location based on the location information of the user terminal, estimating the situation of natural light sources at the location of the user terminal based on the obtained location information, time information and weather information, Obtained by acquiring information on a reality-corresponding object in the virtual space that is pre-associated with a real object that exists around the user terminal based on the position information, and photographing the real space with the camera device provided in the user terminal. Estimated natural light source conditions under the condition that a photographed image and photographing direction information are acquired, and a virtual camera is installed to photograph at least one pattern that is estimated to be approximately the same position and roughly the same photographing direction as the photographed image in the virtual space. A virtual photographed image is generated by rendering considering the effect of the light source on the reality-corresponding object, and the location where the visual characteristics of the photographed image and the virtual photographed image match is specified, and the photograph is taken based on the degree of matching between the two. Since the objects in the image are specified, the situation of shadows, reflections, brightness, etc. can be reproduced by using a virtual shot image obtained by rendering in a more realistic situation by reflecting the situation of the natural light source. Since matching can be performed under similar conditions, it is possible to improve the accuracy of tracking.

[第3の実施形態]
第1及び第2の実施形態においては、ユーザ端末による撮影方向は、ユーザ端末が備える方位センサによって取得するものとして説明を行ったが、撮影画像に映るオブジェクトトとその影の伸びる方向に基づいて、ソーラーコンパスの原理によって撮影方向を特定するようにしてもよい。
[Third Embodiment]
In the first and second embodiments, the shooting direction of the user terminal is assumed to be acquired by the orientation sensor provided in the user terminal. , the photographing direction may be specified by the principle of a solar compass.

図12は、本発明の少なくとも1つの実施形態におけるカメラ方位推定処理の一例の概念を表した概念図である。この図12に示すように、ソーラーコンパスの原理は、撮影を行った日時が判明している場合、太陽の方向は一意に特定されるため、[2]影の向きが指す方位が判明し、これに基づいて[1]北の方位が判明する。この状況において、[1]北の方位、[2]影の向き、[3]影の向き、[4]太陽方位角、[5]相対的な影方位に基づいて、[6]カメラ方位を特定することが可能となる。 FIG. 12 is a conceptual diagram showing the concept of an example of camera orientation estimation processing in at least one embodiment of the present invention. As shown in FIG. 12, the principle of the solar compass is that if the date and time the image was taken is known, the direction of the sun can be uniquely identified. Based on this, [1] the direction of the north is found. In this context, determine [6] camera orientation based on [1] north orientation, [2] shadow orientation, [3] shadow orientation, [4] sun azimuth, [5] relative shadow orientation. It becomes possible to

このように、ソーラーコンパスの原理によってカメラ方位を特定する手法を採用して、第1及び第2の実施の形態を実施するようにしてもよい。 In this manner, the first and second embodiments may be implemented by adopting a method of specifying the camera orientation based on the principle of the solar compass.

以上に説明したように、本願の各実施形態により1または2以上の不足が解決される。なお、夫々の実施形態による効果は、非限定的な効果または効果の一例である。 As described above, the embodiments of the present application address one or more deficiencies. In addition, the effect by each embodiment is an example of a non-limiting effect or effect.

なお、上述した各実施形態では、複数のユーザ端末401~40nとサーバ装置30は、自己が備える記憶装置に記憶されている各種制御プログラム(例えば、ビデオゲーム処理プログラム)に従って、上述した各種の処理を実行する。 In each of the above-described embodiments, the plurality of user terminals 401 to 40n and the server device 30 perform the above-described various processes according to various control programs (for example, video game processing programs) stored in their own storage devices. to run.

また、本願の各実施形態における情報処理装置10を適用するシステムの構成は、上述した各実施形態の例として説明した構成に限定されず、例えばユーザ端末40が実行する処理として説明した処理の一部または全部をサーバ装置30が実行する構成としてもよいし、サーバ装置30が実行する処理として説明した処理の一部または全部を複数のユーザ端末401~40nの何れかが実行する構成としてもよい。また、サーバ装置30が備える記憶部の一部または全部を複数のユーザ端末401~40nの何れかが備える構成としてもよい。すなわち、システムにおけるユーザ端末40とサーバ装置30のどちらか一方が備える機能の一部または全部を、他の一方が備える構成とされていてもよい。 Further, the configuration of the system to which the information processing apparatus 10 in each embodiment of the present application is applied is not limited to the configuration described as an example of each embodiment described above. Some or all of the processing may be executed by the server device 30, or some or all of the processing described as processing executed by the server device 30 may be executed by any of the plurality of user terminals 401 to 40n. . Further, a configuration may be adopted in which any one of the plurality of user terminals 401 to 40n has a part or all of the storage unit provided in the server device 30. FIG. That is, a configuration may be adopted in which one of the user terminal 40 and the server device 30 in the system has some or all of the functions provided by the other.

10 情報処理装置
11 位置情報取得部
12 時刻情報取得部
13 天候情報取得部
14 天然光源推定部
15 現実対応オブジェクト情報取得部
16 撮影画像取得部
17 第一光源影響演算部
18 仮想オブジェクト情報取得部
19 第二光源影響演算部
20 重畳表示部
21 記憶部
22 仮想撮影画像生成部
23 撮影オブジェクト特定部
30 サーバ装置
40、401~40n ユーザ端末
50 通信ネットワーク
REFERENCE SIGNS LIST 10 information processing device 11 location information acquisition unit 12 time information acquisition unit 13 weather information acquisition unit 14 natural light source estimation unit 15 reality-corresponding object information acquisition unit 16 captured image acquisition unit 17 first light source effect calculation unit 18 virtual object information acquisition unit 19 Second light source effect calculation unit 20 superimposed display unit 21 storage unit 22 virtual captured image generation unit 23 captured object identification unit 30 server device 40, 401 to 40n user terminal 50 communication network

Claims (4)

ユーザが所持するユーザ端末によって撮影された撮影画像に対して、現実空間の所定位置と対応付けて記憶させた仮想オブジェクトを重畳表示させる処理をコンピュータに実現させるための情報処理プログラムであって、
前記コンピュータに、
前記ユーザ端末の位置情報を取得する位置情報取得機能と、
現在時刻情報を取得する時刻取得機能と、
ユーザ端末の位置情報に基づいて当該位置の天候情報を取得する天候情報取得機能と、
取得した前記位置情報、前記時刻情報及び前記天候情報に基づいて、前記ユーザ端末の位置における天然光源の状況を推定する天然光源推定機能と、
前記位置情報に基づいて前記ユーザ端末の周辺に存在する現実のオブジェクトに予め対応させた仮想空間上のオブジェクト(現実対応オブジェクト)の情報を取得する現実対応オブジェクト情報取得機能と、
前記ユーザ端末が備えるカメラ装置によって現実空間を撮影することで得られた前記撮影画像及び撮影方向情報を取得する撮影画像取得機能と、
推定した前記天然光源状況における前記現実対応オブジェクトに対する光源の影響を演算する第一光源影響演算機能と、
前記ユーザ端末の位置周辺に配置され前記カメラ装置の撮影範囲内に位置する可能性のある前記仮想オブジェクトの情報を取得する仮想オブジェクト情報取得機能と、
前記現実対応オブジェクトに対する天然光源の影響を考慮しつつ、推定した前記天然光源状況における前記仮想オブジェクトに対する光源の影響を演算する第二光源影響演算機能と、
前記撮影画像上における前記仮想オブジェクトの接地位置を特定し、前記仮想オブジェクト、前記第一光源影響演算機能に基づいて演算した光源影響及び前記第二光源影響演算機能に基づいて演算した光源影響を前記撮影画像上の特定した接地位置に対して重畳表示させる重畳表示機能と
を実現させ
前記天然光源推定機能は、日時と前記ユーザ端末の位置情報とから推定される太陽の方向の情報を取得し、また、内側に位置する全てのオブジェクトに対して天候情報に基づく所定の拡散アンビエントカラーを追加するアンビエントライトとして機能する半球状の光源を定義して、前記時刻情報及び前記天候情報から推測される空の色を半球状の光源に設定されるアンビエントカラーとする
情報処理プログラム。
An information processing program for causing a computer to realize a process of superimposing and displaying a virtual object stored in association with a predetermined position in real space on a captured image captured by a user terminal owned by a user,
to the computer;
a location information acquisition function for acquiring location information of the user terminal;
a time acquisition function for acquiring current time information;
a weather information acquisition function for acquiring weather information for a location based on the location information of the user terminal;
a natural light source estimation function for estimating the state of natural light sources at the location of the user terminal based on the acquired location information, time information, and weather information;
a reality-corresponding object information acquisition function for acquiring information on an object in a virtual space (reality-corresponding object) that is associated in advance with a real object existing around the user terminal based on the position information;
A photographed image acquisition function for acquiring the photographed image and photographing direction information obtained by photographing the real space with a camera device provided in the user terminal;
a first light source effect calculation function for calculating the effect of a light source on the reality corresponding object in the estimated natural light source situation;
a virtual object information acquisition function for acquiring information on the virtual object that is arranged around the position of the user terminal and possibly positioned within the shooting range of the camera device;
a second light source effect calculation function for calculating the effect of a light source on the virtual object in the estimated natural light source situation while considering the effect of the natural light source on the reality corresponding object;
The ground position of the virtual object on the captured image is specified, and the light source influence calculated based on the virtual object, the first light source influence calculation function, and the second light source influence calculation function are calculated. and a superimposed display function that superimposes the specified ground contact position on the captured image , and
The natural light source estimation function obtains information on the direction of the sun estimated from the date and time and the location information of the user terminal, and also obtains a predetermined diffuse ambient color based on weather information for all objects located inside. A hemispherical light source that functions as an ambient light is defined, and the sky color estimated from the time information and the weather information is set as the ambient color for the hemispherical light source.
Information processing program.
前記第二光源影響演算機能は、前記現実対応オブジェクトの中に前記仮想オブジェクトを配置した状態において前記天然光源の影響を考慮したレンダリング処理を実行した結果から、前記第一光源影響演算機能における演算結果を減算することで、前記仮想オブジェクトに対する天然光源の影響のみを抽出する
請求項1に記載の情報処理プログラム。
The second light source effect calculation function obtains the calculation result of the first light source effect calculation function from the result of executing the rendering processing considering the effect of the natural light source in the state where the virtual object is arranged in the reality corresponding object. 2. The information processing program according to claim 1 , wherein only the influence of a natural light source on said virtual object is extracted by subtracting .
ユーザが所持するユーザ端末によって撮影された撮影画像に対して、現実空間の所定位置と対応付けて記憶させた仮想オブジェクトを重畳表示させる処理を行うための情報処理装置であって、
前記ユーザ端末の位置情報を取得する位置情報取得部と、
現在時刻情報を取得する時刻取得部と、
ユーザ端末の位置情報に基づいて当該位置の天候情報を取得する天候情報取得部と、
取得した前記位置情報、前記時刻情報及び前記天候情報に基づいて、前記ユーザ端末の位置における天然光源の状況を推定する天然光源推定部と、
前記位置情報に基づいて前記ユーザ端末の周辺に存在する現実のオブジェクトに予め対応させた仮想空間上のオブジェクト(現実対応オブジェクト)の情報を取得する現実対応オブジェクト情報取得部と、
前記ユーザ端末が備えるカメラ装置によって現実空間を撮影することで得られた前記撮影画像及び撮影方向情報を取得する撮影画像取得部と、
推定した前記天然光源状況における前記現実対応オブジェクトに対する光源の影響を演算する第一光源影響演算部と、
前記ユーザ端末の位置周辺に配置され前記カメラ装置の撮影範囲内に位置する可能性のある前記仮想オブジェクトの情報を取得する仮想オブジェクト情報取得部と、
前記現実対応オブジェクトに対する天然光源の影響を考慮しつつ、推定した前記天然光源状況における前記仮想オブジェクトに対する光源の影響を演算する第二光源影響演算部と、
前記撮影画像上における前記仮想オブジェクトの接地位置を特定し、前記仮想オブジェクト、前記第一光源影響演算部において演算した光源影響及び前記第二光源影響演算部において演算した光源影響を前記撮影画像上の特定した接地位置に対して重畳表示させる重畳表示部とを備え
前記天然光源推定部は、日時と前記ユーザ端末の位置情報とから推定される太陽の方向の情報を取得し、また、内側に位置する全てのオブジェクトに対して天候情報に基づく所定の拡散アンビエントカラーを追加するアンビエントライトとして機能する半球状の光源を定義して、前記時刻情報及び前記天候情報から推測される空の色を半球状の光源に設定されるアンビエントカラーとする
情報処理装置。
An information processing device for superimposing and displaying a virtual object stored in association with a predetermined position in real space on a captured image captured by a user terminal owned by a user, the information processing device comprising:
a location information acquisition unit that acquires location information of the user terminal;
a time acquisition unit that acquires current time information;
a weather information acquisition unit that acquires weather information for a location based on the location information of the user terminal;
a natural light source estimation unit for estimating the state of natural light sources at the location of the user terminal based on the acquired location information, time information, and weather information;
a reality-corresponding object information acquisition unit that acquires information on an object in a virtual space (reality-corresponding object) that is associated in advance with a real object existing around the user terminal based on the position information;
a captured image acquiring unit that acquires the captured image and the capturing direction information obtained by capturing the real space with a camera device included in the user terminal;
a first light source effect calculation unit that calculates the effect of a light source on the reality-corresponding object in the estimated natural light source situation;
a virtual object information acquisition unit that acquires information on the virtual object that is arranged around the position of the user terminal and that may be located within the shooting range of the camera device;
a second light source effect calculation unit that calculates the effect of a light source on the virtual object in the estimated natural light source situation while considering the effect of the natural light source on the reality corresponding object;
specifying the ground position of the virtual object on the captured image, and calculating the virtual object , the light source effect calculated by the first light source effect calculation unit, and the light source effect calculated by the second light source effect calculation unit on the captured image; A superimposed display unit that superimposes and displays the specified ground contact position ,
The natural light source estimating unit obtains information on the direction of the sun estimated from the date and time and the position information of the user terminal, and also obtains a predetermined diffuse ambient color based on weather information for all objects located inside. A hemispherical light source that functions as an ambient light is defined, and the sky color estimated from the time information and the weather information is set as the ambient color for the hemispherical light source.
Information processing equipment.
ユーザが所持するユーザ端末によって撮影された撮影画像に対して、現実空間の所定位置と対応付けて記憶させた仮想オブジェクトを重畳表示させる処理をコンピュータに実行させるための情報処理方法であって、
前記ユーザ端末の位置情報を取得する位置情報取得手順と、
現在時刻情報を取得する時刻取得手順と、
ユーザ端末の位置情報に基づいて当該位置の天候情報を取得する天候情報取得部と、
取得した前記位置情報、前記時刻情報及び前記天候情報に基づいて、前記ユーザ端末の位置における天然光源の状況を推定する天然光源推定手順と、
前記位置情報に基づいて前記ユーザ端末の周辺に存在する現実のオブジェクトに予め対応させた仮想空間上のオブジェクト(現実対応オブジェクト)の情報を取得する現実対応オブジェクト情報取得手順と、
前記ユーザ端末が備えるカメラ装置によって現実空間を撮影することで得られた前記撮影画像及び撮影方向情報を取得する撮影画像取得手順と、
推定した前記天然光源状況における前記現実対応オブジェクトに対する光源の影響を演算する第一光源影響演算手順と、
前記ユーザ端末の位置周辺に配置され前記カメラ装置の撮影範囲内に位置する可能性のある前記仮想オブジェクトの情報を取得する仮想オブジェクト情報取得手順と、
前記現実対応オブジェクトに対する天然光源の影響を考慮しつつ、推定した前記天然光源状況における前記仮想オブジェクトに対する光源の影響を演算する第二光源影響演算手順と、
前記撮影画像上における前記仮想オブジェクトの接地位置を特定し、前記仮想オブジェクト、前記第一光源影響演算手順に基づいて演算した光源影響及び前記第二光源影響演算手順に基づいて演算した光源影響を前記撮影画像上の特定した接地位置に対して重畳表示させる重畳表示手順とを含み、
前記天然光源推定手順は、日時と前記ユーザ端末の位置情報とから推定される太陽の方向の情報を取得し、また、内側に位置する全てのオブジェクトに対して天候情報に基づく所定の拡散アンビエントカラーを追加するアンビエントライトとして機能する半球状の光源を定義して、前記時刻情報及び前記天候情報から推測される空の色を半球状の光源に設定されるアンビエントカラーとする
情報処理方法。
An information processing method for causing a computer to execute a process of superimposing and displaying a virtual object stored in association with a predetermined position in real space on a captured image captured by a user terminal owned by a user, the method comprising:
a location information acquisition procedure for acquiring location information of the user terminal;
a time acquisition procedure for acquiring current time information;
a weather information acquisition unit that acquires weather information for a location based on the location information of the user terminal;
a natural light source estimation procedure for estimating a natural light source situation at the location of the user terminal based on the obtained location information, the time information, and the weather information;
a reality-corresponding object information obtaining procedure for obtaining information about an object (reality-corresponding object) in a virtual space pre-associated with a real object existing around the user terminal based on the position information;
a photographed image obtaining procedure for obtaining the photographed image and photographing direction information obtained by photographing the real space with a camera device provided in the user terminal;
a first light source effect calculation procedure for calculating a light source effect on the reality object in the estimated natural light source situation;
a virtual object information acquisition procedure for acquiring information on the virtual object that is arranged around the position of the user terminal and that may be located within the shooting range of the camera device;
a second light source effect calculation procedure for calculating the effect of a light source on the virtual object in the estimated natural light source situation while considering the effect of the natural light source on the reality corresponding object;
The ground position of the virtual object on the captured image is specified, and the virtual object , the light source influence calculated based on the first light source influence calculation procedure, and the light source influence calculated based on the second light source influence calculation procedure are calculated as the A superimposed display procedure for superimposing the specified ground contact position on the captured image ,
The natural light source estimation procedure obtains the information of the direction of the sun estimated from the date and time and the location information of the user terminal, and also obtains a predetermined diffuse ambient color based on the weather information for all objects located inside. A hemispherical light source that functions as an ambient light is defined, and the sky color estimated from the time information and the weather information is set as the ambient color for the hemispherical light source.
Information processing methods.
JP2020135131A 2020-08-07 2020-08-07 Information processing program, information processing apparatus, and information processing method Active JP7125963B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020135131A JP7125963B2 (en) 2020-08-07 2020-08-07 Information processing program, information processing apparatus, and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020135131A JP7125963B2 (en) 2020-08-07 2020-08-07 Information processing program, information processing apparatus, and information processing method

Publications (2)

Publication Number Publication Date
JP2022030844A JP2022030844A (en) 2022-02-18
JP7125963B2 true JP7125963B2 (en) 2022-08-25

Family

ID=80324289

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020135131A Active JP7125963B2 (en) 2020-08-07 2020-08-07 Information processing program, information processing apparatus, and information processing method

Country Status (1)

Country Link
JP (1) JP7125963B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2024047648A (en) * 2022-09-27 2024-04-08 株式会社Jvcケンウッド Display device, display method, and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002117413A (en) 2000-10-10 2002-04-19 Univ Tokyo Image generating device and image generating method for reflecting light source environmental change in real time
JP2009134681A (en) 2007-11-07 2009-06-18 Canon Inc Image processor, and image processing method
JP2009163610A (en) 2008-01-09 2009-07-23 Canon Inc Image processing apparatus and image processing method
JP2013517579A (en) 2010-03-25 2013-05-16 ビズモードライン カンパニー リミテッド Augmented reality system
JP2013149029A (en) 2012-01-18 2013-08-01 Sharp Corp Information processor, information processing method
JP2013196616A (en) 2012-03-22 2013-09-30 Sharp Corp Information terminal device and information processing method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002117413A (en) 2000-10-10 2002-04-19 Univ Tokyo Image generating device and image generating method for reflecting light source environmental change in real time
JP2009134681A (en) 2007-11-07 2009-06-18 Canon Inc Image processor, and image processing method
JP2009163610A (en) 2008-01-09 2009-07-23 Canon Inc Image processing apparatus and image processing method
JP2013517579A (en) 2010-03-25 2013-05-16 ビズモードライン カンパニー リミテッド Augmented reality system
JP2013149029A (en) 2012-01-18 2013-08-01 Sharp Corp Information processor, information processing method
JP2013196616A (en) 2012-03-22 2013-09-30 Sharp Corp Information terminal device and information processing method

Also Published As

Publication number Publication date
JP2022030844A (en) 2022-02-18

Similar Documents

Publication Publication Date Title
US10573067B1 (en) Digital 3D model rendering based on actual lighting conditions in a real environment
US20110234631A1 (en) Augmented reality systems
JP7007348B2 (en) Image processing equipment
CN111260769B (en) Real-time rendering method and device based on dynamic illumination change
CN112419472B (en) Augmented reality real-time shadow generation method based on virtual shadow map
US20180276882A1 (en) Systems and methods for augmented reality art creation
US20100066750A1 (en) Mobile virtual and augmented reality system
US8619071B2 (en) Image view synthesis using a three-dimensional reference model
US20130229413A1 (en) Live editing and integrated control of image-based lighting of 3d models
CN114125310B (en) Photographing method, terminal device and cloud server
CN111815786A (en) Information display method, device, equipment and storage medium
CN111815785A (en) Method and device for presenting reality model, electronic equipment and storage medium
CN113256781A (en) Rendering device and rendering device of virtual scene, storage medium and electronic equipment
CN107808009B (en) Stamp platform-based two-dimensional and three-dimensional map linkage method
JP7125963B2 (en) Information processing program, information processing apparatus, and information processing method
CN115546377A (en) Video fusion method and device, electronic equipment and storage medium
CN115147554A (en) Three-dimensional scene construction method, device, equipment and storage medium
CN115984449A (en) Illumination rendering method and device, electronic equipment and storage medium
CN109697755B (en) Augmented reality display method and device for power transmission tower model and terminal equipment
CN114842120A (en) Image rendering processing method, device, equipment and medium
CN113034658B (en) Method and device for generating model map
CN106203279B (en) Recognition methods, device and the mobile terminal of target object in a kind of augmented reality
CN114332422A (en) Virtual space interaction method, editing and updating method, system, electronic equipment and readable storage medium based on AR technology
JP2007272847A (en) Lighting simulation method and image composition method
CN115487495A (en) Data rendering method and device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200817

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210901

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210914

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20211115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220614

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220714

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220815

R150 Certificate of patent or registration of utility model

Ref document number: 7125963

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150