JP7125963B2 - Information processing program, information processing apparatus, and information processing method - Google Patents
Information processing program, information processing apparatus, and information processing method Download PDFInfo
- Publication number
- JP7125963B2 JP7125963B2 JP2020135131A JP2020135131A JP7125963B2 JP 7125963 B2 JP7125963 B2 JP 7125963B2 JP 2020135131 A JP2020135131 A JP 2020135131A JP 2020135131 A JP2020135131 A JP 2020135131A JP 7125963 B2 JP7125963 B2 JP 7125963B2
- Authority
- JP
- Japan
- Prior art keywords
- light source
- information
- user terminal
- reality
- natural light
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、現実環境における光源の状況を考慮したAR技術に関するものである。 The present invention relates to AR technology that takes into consideration the situation of light sources in a real environment.
近年、AR(Augmented Reality:拡張現実)技術を採用したソフトウェアが普及しつつある。ユーザが所持するユーザ端末によって撮影した撮影画像中に仮想オブジェクトを表示させてあたかも現実空間に仮想オブジェクトが登場したかのような表示を実現することができる。 In recent years, software employing AR (Augmented Reality) technology is becoming widespread. It is possible to display a virtual object in a photographed image photographed by a user terminal owned by a user, thereby realizing a display as if the virtual object appeared in the real space.
例えば、特許文献1には、現実空間の特定の位置に関連付けて記憶されるAR表示対象の仮想オブジェクトについて、AR空間で他のユーザと共有したい情報及び共有を望まない情報をユーザが容易に取り扱うことのできる技術が開示されている。
For example,
ところで、ユーザ端末で撮影した撮影画像に対してAR技術によって仮想オブジェクトを表示させる場合に、現実環境における光源の状況を一切考慮せずに表示を行うと不自然な表示となるおそれがある。例えば、太陽などの光源の影響を反映させることなく表示を行うと、周辺の現実のオブジェクトとの整合がとれずに違和感が生じるといえる。また、取得した撮影画像における太陽などの光源の位置を推測して、推測した光源の情報に基づいてシェーディング処理を実行することも考えられるが、仮想オブジェクトに対する光源の影響のみを考慮する構成として、現実空間に存在する現実のオブジェクトとの関係を一切考慮せずに表示させてしまうと、例えば、現実のオブジェクトの影の上に仮想オブジェクトの影を重ねて描画した結果、影の上により濃い影が描画されるといった現実では起こり得ない状況が生じてしまうという問題があった。 By the way, when a virtual object is displayed on an image captured by a user terminal using AR technology, the display may look unnatural if the display is performed without considering the light source conditions in the real environment. For example, if the display is performed without reflecting the influence of the light source such as the sun, it can be said that there is a sense of incongruity due to the lack of consistency with the surrounding real objects. It is also conceivable to estimate the position of a light source such as the sun in an acquired photographed image and execute shading processing based on the information of the estimated light source. If the display is made without considering the relationship with the real object that exists in the real space, for example, as a result of drawing the shadow of the virtual object superimposed on the shadow of the real object, a darker shadow will appear on top of the shadow. is drawn, which is not possible in reality.
本発明は、上記問題点に鑑みなされたものであり、現実環境における光源の状況を推測し、かつ、周辺の現実のオブジェクトとの整合性を考慮したAR表示が可能な情報処理プログラム、情報処理装置及び情報処理方法を提供することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made in view of the above problems. An object is to provide an apparatus and an information processing method.
非限定的な観点によると、本発明の一実施形態に係る情報処理プログラムは、ユーザが所持するユーザ端末によって撮影された撮影画像に対して、現実空間の所定位置と対応付けて記憶させた仮想オブジェクトを重畳表示させる処理をコンピュータに実現させるための情報処理プログラムであって、前記コンピュータに、前記ユーザ端末の位置情報を取得する位置情報取得機能と、現在時刻情報を取得する時刻取得機能と、ユーザ端末の位置情報に基づいて当該位置の天候情報を取得する天候情報取得機能と、取得した前記位置情報、前記時刻情報及び前記天候情報に基づいて、前記ユーザ端末の位置における天然光源の状況を推定する天然光源推定機能と、前記位置情報に基づいて前記ユーザ端末の周辺に存在する現実のオブジェクトに予め対応させた仮想空間上のオブジェクト(現実対応オブジェクト)の情報を取得する現実対応オブジェクト情報取得機能と、前記ユーザ端末が備えるカメラ装置によって現実空間を撮影することで得られた前記撮影画像及び撮影方向情報を取得する撮影画像取得機能と、推定した前記天然光源状況における前記現実対応オブジェクトに対する光源の影響を演算する第一光源影響演算機能と、前記ユーザ端末の位置周辺に配置され前記カメラ装置の撮影範囲内に位置する可能性のある前記仮想オブジェクトの情報を取得する仮想オブジェクト情報取得機能と、前記現実対応オブジェクトに対する天然光源の影響を考慮しつつ、推定した前記天然光源状況における前記仮想オブジェクトに対する光源の影響を演算する第二光源影響演算機能と、前記撮影画像上における前記仮想オブジェクトの接地位置を特定し、前記仮想オブジェクト及び演算した光源影響を前記撮影画像上の特定した接地位置に対して重畳表示させる重畳表示機能とを実現させることを特徴とする。 From a non-limiting point of view, an information processing program according to an embodiment of the present invention stores a virtual image captured by a user terminal owned by a user in association with a predetermined position in the real space. An information processing program for causing a computer to realize a process of superimposing and displaying an object, wherein the computer has a position information acquisition function for acquiring position information of the user terminal, a time acquisition function for acquiring current time information, A weather information acquisition function that acquires weather information at a location based on the location information of the user terminal; and a natural light source condition at the location of the user terminal based on the acquired location information, time information, and weather information. A function for estimating a natural light source to be estimated, and acquisition of reality-corresponding object information for acquiring information of an object in a virtual space (reality-corresponding object) pre-associated with a real object existing around the user terminal based on the position information. a photographed image acquisition function for acquiring the photographed image and photographing direction information obtained by photographing the real space with a camera device provided in the user terminal; and a light source for the reality corresponding object in the estimated natural light source situation. a first light source effect calculation function for calculating the effect of a virtual object information acquisition function for acquiring information on the virtual object that is arranged around the position of the user terminal and may be located within the shooting range of the camera device; a second light source effect calculation function for calculating the effect of the light source on the virtual object in the estimated natural light source situation while considering the effect of the natural light source on the reality corresponding object; and grounding of the virtual object on the captured image. A superimposed display function of specifying a position and superimposing and displaying the virtual object and the calculated light source influence on the specified ground position on the captured image is realized.
非限定的な観点によると、本発明の一実施形態に係る情報処理装置は、ユーザが所持するユーザ端末によって撮影された撮影画像に対して、現実空間の所定位置と対応付けて記憶させた仮想オブジェクトを重畳表示させる処理を行うための情報処理装置であって、前記ユーザ端末の位置情報を取得する位置情報取得部と、現在時刻情報を取得する時刻取得部と、ユーザ端末の位置情報に基づいて当該位置の天候情報を取得する天候情報取得部と、取得した前記位置情報、前記時刻情報及び前記天候情報に基づいて、前記ユーザ端末の位置における天然光源の状況を推定する天然光源推定部と、前記位置情報に基づいて前記ユーザ端末の周辺に存在する現実のオブジェクトに予め対応させた仮想空間上のオブジェクト(現実対応オブジェクト)の情報を取得する現実対応オブジェクト情報取得部と、前記ユーザ端末が備えるカメラ装置によって現実空間を撮影することで得られた前記撮影画像及び撮影方向情報を取得する撮影画像取得部と、推定した前記天然光源状況における前記現実対応オブジェクトに対する光源の影響を演算する第一光源影響演算部と、前記ユーザ端末の位置周辺に配置され前記カメラ装置の撮影範囲内に位置する可能性のある前記仮想オブジェクトの情報を取得する仮想オブジェクト情報取得部と、前記現実対応オブジェクトに対する天然光源の影響を考慮しつつ、推定した前記天然光源状況における前記仮想オブジェクトに対する光源の影響を演算する第二光源影響演算部と、前記撮影画像上における前記仮想オブジェクトの接地位置を特定し、前記仮想オブジェクト及び演算した光源影響を前記撮影画像上の特定した接地位置に対して重畳表示させる重畳表示部とを備えることを特徴とする。 From a non-limiting point of view, an information processing apparatus according to an embodiment of the present invention stores a virtual image captured by a user terminal owned by a user in association with a predetermined position in the real space. An information processing device for performing a process of superimposing and displaying an object, comprising: a position information acquisition unit for acquiring position information of the user terminal; a time acquisition unit for acquiring current time information; and based on the position information of the user terminal a weather information acquisition unit that acquires weather information for the location of the user terminal, and a natural light source estimation unit that estimates the state of natural light sources at the location of the user terminal based on the location information, the time information, and the weather information acquired. a reality-corresponding object information acquisition unit that acquires information on an object in a virtual space (reality-corresponding object) that is associated in advance with a real object existing around the user terminal based on the position information; a photographed image obtaining unit for obtaining the photographed image and photographing direction information obtained by photographing the real space with the provided camera device; a light source effect calculation unit; a virtual object information acquisition unit that acquires information on the virtual object that is arranged around the position of the user terminal and may be located within the photographing range of the camera device; a second light source effect calculation unit that calculates the effect of the light source on the virtual object in the estimated natural light source situation while taking into account the effect of the light source; and a superimposed display unit that superimposes and displays the object and the calculated light source influence on the specified ground position on the captured image.
非限定的な観点によると、本発明の一実施形態に係る情報処理方法は、ユーザが所持するユーザ端末によって撮影された撮影画像に対して、現実空間の所定位置と対応付けて記憶させた仮想オブジェクトを重畳表示させる処理をコンピュータに実行させるための情報処理方法であって、前記ユーザ端末の位置情報を取得する位置情報取得手順と、現在時刻情報を取得する時刻取得手順と、ユーザ端末の位置情報に基づいて当該位置の天候情報を取得する天候情報取得部と、取得した前記位置情報、前記時刻情報及び前記天候情報に基づいて、前記ユーザ端末の位置における天然光源の状況を推定する天然光源推定手順と、前記位置情報に基づいて前記ユーザ端末の周辺に存在する現実のオブジェクトに予め対応させた仮想空間上のオブジェクト(現実対応オブジェクト)の情報を取得する現実対応オブジェクト情報取得手順と、前記ユーザ端末が備えるカメラ装置によって現実空間を撮影することで得られた前記撮影画像及び撮影方向情報を取得する撮影画像取得手順と、推定した前記天然光源状況における前記現実対応オブジェクトに対する光源の影響を演算する第一光源影響演算手順と、前記ユーザ端末の位置周辺に配置され前記カメラ装置の撮影範囲内に位置する可能性のある前記仮想オブジェクトの情報を取得する仮想オブジェクト情報取得手順と、前記現実対応オブジェクトに対する天然光源の影響を考慮しつつ、推定した前記天然光源状況における前記仮想オブジェクトに対する光源の影響を演算する第二光源影響演算手順と、前記撮影画像上における前記仮想オブジェクトの接地位置を特定し、前記仮想オブジェクト及び演算した光源影響を前記撮影画像上の特定した接地位置に対して重畳表示させる重畳表示手順とを含むことを特徴とする。 From a non-limiting point of view, an information processing method according to an embodiment of the present invention provides a virtual image captured by a user terminal owned by a user and stored in association with a predetermined position in the real space. An information processing method for causing a computer to execute a process of displaying an object in a superimposed manner, comprising a position information acquisition procedure for acquiring position information of the user terminal, a time acquisition procedure for acquiring current time information, and a position of the user terminal. a weather information acquisition unit that acquires weather information for the location based on the information; and a natural light source that estimates the state of the natural light source at the location of the user terminal based on the acquired location information, the time information, and the weather information. an estimation step; a reality-corresponding object information obtaining procedure for obtaining information of an object in a virtual space (reality-corresponding object) previously associated with a real object existing around the user terminal based on the position information; A photographed image acquisition procedure for acquiring the photographed image and photographing direction information obtained by photographing the real space with a camera device provided in the user terminal, and calculating the influence of the light source on the reality-corresponding object in the estimated natural light source situation. a first light source effect calculation procedure for calculating a first light source effect; a virtual object information acquisition procedure for acquiring information on the virtual object that is placed around the position of the user terminal and may be located within the shooting range of the camera device; A second light source effect calculation procedure for calculating the effect of the light source on the virtual object in the estimated natural light source situation while taking into consideration the effect of the natural light source on the object; and a superimposed display procedure for superimposing the virtual object and the calculated light source influence on the specified ground position on the captured image.
非限定的な観点によると、本発明の一実施形態に係る情報処理プログラムは、ユーザが所持するユーザ端末によって撮影された撮影画像に映る現実のオブジェクトと、現実のオブジェクトに予め対応させて記憶させた仮想空間上のオブジェクト(現実対応オブジェクト)とを照合して撮影画像に映るオブジェクトを特定する処理をコンピュータに実現させるための情報処理プログラムであって、前記コンピュータに、前記ユーザ端末の位置情報を取得する位置情報取得機能と、現在時刻情報を取得する時刻取得機能と、ユーザ端末の位置情報に基づいて当該位置の天候情報を取得する天候情報取得機能と、取得した前記位置情報、前記時刻情報及び前記天候情報に基づいて、前記ユーザ端末の位置における天然光源の状況を推定する天然光源推定機能と、前記位置情報に基づいて前記ユーザ端末の周辺に存在する現実のオブジェクトに予め対応させた仮想空間上のオブジェクト(現実対応オブジェクト)の情報を取得する現実対応オブジェクト情報取得機能と、前記ユーザ端末が備えるカメラ装置によって現実空間を撮影することで得られた前記撮影画像及び撮影方向情報を取得する撮影画像取得機能と、前記撮影画像と概略同一位置かつ概略同一撮影方向と推定される少なくとも1パターンについて仮想カメラを設置して仮想空間上を撮影する条件において、推定した前記天然光源の状況における現実対応オブジェクトに対する光源の影響を考慮したレンダリングを実行して仮想撮影画像を生成する仮想撮影画像生成機能と、前記撮影画像と前記仮想撮影画像とについて視覚的特徴の一致箇所を特定して、両者の一致度に基づいて撮影画像に映るオブジェクトを特定する撮影オブジェクト特定機能とを実現させることを特徴とする。 From a non-limiting point of view, an information processing program according to an embodiment of the present invention stores a real object appearing in a photographed image photographed by a user terminal owned by a user and a real object in association with the real object in advance. An information processing program for causing a computer to implement a process of identifying an object appearing in a photographed image by comparing it with an object (reality corresponding object) in a virtual space, wherein position information of the user terminal is transmitted to the computer. A location information acquisition function to acquire, a time acquisition function to acquire current time information, a weather information acquisition function to acquire weather information at the location based on the location information of the user terminal, the acquired location information, and the time information and a natural light source estimation function for estimating the state of natural light sources at the location of the user terminal based on the weather information; A reality-corresponding object information acquisition function that acquires information on an object in space (a reality-corresponding object), and acquires the photographed image and photographing direction information obtained by photographing the real space with a camera device provided in the user terminal. A photographed image acquisition function, and a condition in which a virtual camera is installed to photograph at least one pattern in a virtual space that is estimated to be approximately the same position and approximately the same photographing direction as the photographed image, and the reality of the estimated natural light source situation. A virtual captured image generation function for generating a virtual captured image by executing rendering in consideration of the effect of a light source on a corresponding object; It is characterized by realizing a photographed object specifying function for specifying an object appearing in a photographed image based on the degree of matching.
非限定的な観点によると、本発明の一実施形態に係る情報処理装置は、ユーザが所持するユーザ端末によって撮影された撮影画像に映る現実のオブジェクトと、現実のオブジェクトに予め対応させて記憶させた仮想空間上のオブジェクト(現実対応オブジェクト)とを照合して撮影画像に映るオブジェクトを特定する処理を行うための情報処理装置であって、前記ユーザ端末の位置情報を取得する位置情報取得部と、現在時刻情報を取得する時刻取得部と、ユーザ端末の位置情報に基づいて当該位置の天候情報を取得する天候情報取得部と、取得した前記位置情報、前記時刻情報及び前記天候情報に基づいて、前記ユーザ端末の位置における天然光源の状況を推定する天然光源推定部と、前記位置情報に基づいて前記ユーザ端末の周辺に存在する現実のオブジェクトに予め対応させた仮想空間上のオブジェクト(現実対応オブジェクト)の情報を取得する現実対応オブジェクト情報取得部と、前記ユーザ端末が備えるカメラ装置によって現実空間を撮影することで得られた前記撮影画像及び撮影方向情報を取得する撮影画像取得部と、前記撮影画像と概略同一位置かつ概略同一撮影方向と推定される少なくとも1パターンについて仮想カメラを設置して仮想空間上を撮影する条件において、推定した前記天然光源の状況における現実対応オブジェクトに対する光源の影響を考慮したレンダリングを実行して仮想撮影画像を生成する仮想撮影画像生成部と、前記撮影画像と前記仮想撮影画像とについて視覚的特徴の一致箇所を特定して、両者の一致度に基づいて撮影画像に映るオブジェクトを特定する撮影オブジェクト特定部とを実現させることを特徴とする。 From a non-limiting point of view, an information processing apparatus according to an embodiment of the present invention stores a real object appearing in a photographed image taken by a user terminal owned by a user and a real object in association with the real object in advance. an information processing device for performing a process of identifying an object appearing in a photographed image by matching it with an object (reality corresponding object) in a virtual space, the information processing device comprising: a position information obtaining unit for obtaining position information of the user terminal; , a time acquisition unit that acquires current time information, a weather information acquisition unit that acquires weather information at the location based on the location information of the user terminal, and based on the acquired location information, the time information, and the weather information a natural light source estimating unit for estimating a natural light source situation at the position of the user terminal; and an object in a virtual space that is pre-associated with a real object existing around the user terminal based on the position information a captured image acquisition unit that acquires the captured image and the captured direction information obtained by capturing the real space with a camera device included in the user terminal; Under the condition that a virtual camera is installed and photographed in virtual space for at least one pattern that is estimated to be approximately the same position and approximately the same photographing direction as the photographed image, the effect of the light source on the realistic object in the estimated natural light source situation is calculated. a virtual captured image generation unit that generates a virtual captured image by performing rendering considering the above; and a photographed object identifying unit that identifies an object captured in the photographed object.
非限定的な観点によると、本発明の一実施形態に係る情報処理方法は、ユーザが所持するユーザ端末によって撮影された撮影画像に映る現実のオブジェクトと、現実のオブジェクトに予め対応させて記憶させた仮想空間上のオブジェクト(現実対応オブジェクト)とを照合して撮影画像に映るオブジェクトを特定する処理をコンピュータに実行させるための情報処理方法であって、前記ユーザ端末の位置情報を取得する位置情報取得手順と、現在時刻情報を取得する時刻取得手順と、ユーザ端末の位置情報に基づいて当該位置の天候情報を取得する天候情報取得手順と、取得した前記位置情報、前記時刻情報及び前記天候情報に基づいて、前記ユーザ端末の位置における天然光源の状況を推定する天然光源推定手順と、前記位置情報に基づいて前記ユーザ端末の周辺に存在する現実のオブジェクトに予め対応させた仮想空間上のオブジェクト(現実対応オブジェクト)の情報を取得する現実対応オブジェクト情報取得手順と、前記ユーザ端末が備えるカメラ装置によって現実空間を撮影することで得られた前記撮影画像及び撮影方向情報を取得する撮影画像取得手順と、前記撮影画像と概略同一位置かつ概略同一撮影方向と推定される少なくとも1パターンについて仮想カメラを設置して仮想空間上を撮影する条件において、推定した前記天然光源の状況における現実対応オブジェクトに対する光源の影響を考慮したレンダリングを実行して仮想撮影画像を生成する仮想撮影画像生成手順と、前記撮影画像と前記仮想撮影画像とについて視覚的特徴の一致箇所を特定して、両者の一致度に基づいて撮影画像に映るオブジェクトを特定する撮影オブジェクト特定手順とを含むことを特徴とする。 From a non-limiting point of view, an information processing method according to an embodiment of the present invention provides a real object appearing in a photographed image photographed by a user terminal owned by a user and storing the real object in association with the real object in advance. An information processing method for causing a computer to execute a process of identifying an object appearing in a photographed image by comparing it with an object (reality-corresponding object) in a virtual space, wherein the positional information for acquiring the positional information of the user terminal an acquisition procedure, a time acquisition procedure for acquiring current time information, a weather information acquisition procedure for acquiring weather information at a location based on the location information of the user terminal, the acquired location information, the time information, and the weather information a natural light source estimating procedure for estimating the natural light source situation at the position of the user terminal based on the position information; A reality-corresponding object information obtaining procedure for obtaining information on a (reality-corresponding object), and a photographed image obtaining procedure for obtaining the photographed image and photographing direction information obtained by photographing the physical space with a camera device provided in the user terminal. and a light source for a realistic object in the estimated natural light source situation under the condition that a virtual camera is installed and photographed in the virtual space for at least one pattern that is estimated to be at approximately the same position and approximately the same photographing direction as the photographed image. A virtual captured image generation procedure for generating a virtual captured image by executing rendering considering the influence of the virtual captured image; and a photographed object identification procedure for identifying an object appearing in the photographed image.
本願の各実施形態により1または2以上の不足が解決される。 Embodiments of the present application address one or more deficiencies.
以下、本発明の実施形態の例について図面を参照して説明する。なお、以下で説明する実施形態の例における各種構成要素は、矛盾等が生じない範囲で適宜組み合わせ可能である。また、以下で説明する各種フローを構成する各種処理の順序は、処理内容に矛盾等が生じない範囲で順不同である。また、各実施形態の特徴部分に関係しない動作や処理については、その内容を省略している場合がある。さらに、以下で説明する各種フローを構成する各種処理の順序は、処理内容に矛盾等が生じない範囲で順不同である。 Hereinafter, examples of embodiments of the present invention will be described with reference to the drawings. It should be noted that various components in the examples of the embodiments described below can be appropriately combined within a range that does not cause contradiction. Further, the order of various processes constituting various flows described below is random as long as there is no contradiction in the processing contents. Also, the contents of operations and processes that are not related to the features of each embodiment may be omitted. Furthermore, the order of various processes constituting various flows described below is random as long as there is no contradiction in the processing contents.
[第1の実施形態]
図1は、本発明の少なくとも1つの実施形態における情報処理装置の構成の例を示すブロック図である。図1に示すように、本発明の第1の実施形態における情報処理装置10は、位置情報取得部11と、時刻情報取得部12と、天候情報取得部13と、天然光源推定部14と、現実対応オブジェクト情報取得部15と、撮影画像取得部16と、第一光源影響演算部17と、仮想オブジェクト情報取得部18と、第二光源影響演算部19と、重畳表示部20と、記憶部21とを備える。図1の各構成の詳細については後述する。
[First Embodiment]
FIG. 1 is a block diagram showing an example configuration of an information processing apparatus according to at least one embodiment of the present invention. As shown in FIG. 1, the information processing apparatus 10 according to the first embodiment of the present invention includes a position
図2は、本発明少なくとも1つの実施形態における情報処理装置を適用するシステム構成の例を示すブロック図である。ユーザが所持するユーザ端末を本発明の第1の実施形態における情報処理装置10として機能させるものであってもよいが、ユーザが所持するユーザ端末から通信ネットワークを介して接続可能なサーバ装置を情報処理装置10として機能させるものであってもよい。図2に示すように、システムは、サーバ装置30と、各ユーザが所持するユーザ端末401~40n(nは任意の整数。以下、これらを代表して単にユーザ端末40と表現する場合がある。)とを含む。
FIG. 2 is a block diagram showing an example of a system configuration to which an information processing apparatus according to at least one embodiment of the invention is applied. A user terminal owned by a user may function as the information processing apparatus 10 according to the first embodiment of the present invention. It may function as the processing device 10 . As shown in FIG. 2, the system includes a
サーバ装置30と複数のユーザ端末401~40nは、それぞれインターネットなどの通信ネットワーク50に接続されている。なお、図示しないが、複数のユーザ端末401~40nは、例えば、通信業者によって管理される基地局と無線通信回線によるデータ通信を行うことによって、通信ネットワーク50と接続する。
The
システムは、サーバ装置30と複数のユーザ端末401~40nとを備えることにより、ユーザの操作に応じて各種処理を実行するための各種機能を実現する。
The system includes a
サーバ装置30は、情報処理装置10の管理者によって管理され、複数のユーザ端末401~40nに対して各種処理に関する情報を提供するための各種機能を有する。本例において、サーバ装置30は、WWWサーバなどの情報処理装置によって構成され、各種情報を格納する記憶媒体を備える。なお、サーバ装置30は、制御部や通信部などコンピュータとして各種処理を行うための一般的な構成を備えるが、ここでの説明は省略する。また、情報処理装置10においては、複数のユーザ端末401~40nそれぞれにかかる処理負荷を軽減させるといった観点から、各種情報はサーバ装置30が管理することが好ましい。ただし、各種情報を記憶する記憶部は、サーバ装置30がアクセス可能な状態で記憶領域を備えていればよく、例えば専用の記憶領域をサーバ装置30の外部に有する構成とされていてもよい。
The
複数のユーザ端末401~40nは、それぞれ、ユーザによって管理され、例えば携帯電話端末やPDA(Personal Digital Assistants)などの通信端末が挙げられ、ユーザが動画及び/又は静止画の撮影を行うためのカメラ装置を搭載しており、かつ、撮影画像データ等を表示するためのディスプレイを備えた構成である必要がある。ユーザ端末の構成の他の例には、スマートウォッチなどの所謂ウェアラブルデバイスや、ウェアラブルデバイスと通信端末等との組み合わせがある。また、カメラ装置は、光学式カメラの他、3次元カメラ装置を併用するものであってもよい。また、ユーザ端末401~40nは、描画情報を入力するためのマウス、タッチパネル、タッチペン等の入力手段を備えている。
Each of the plurality of
また、複数のユーザ端末401~40nは、それぞれ、通信ネットワーク50に接続し、サーバ装置30との通信を行うことにより各種処理を実行するためのハードウェアおよびソフトウェアを備える。なお、複数のユーザ端末401~40nそれぞれは、サーバ装置30を介さずに互いに直接通信を行うこともできる構成とされていてもよい。
Further, each of the
情報処理を行う過程においては、サーバ装置30は適宜ユーザ端末401~40nに対して処理過程を送信するものとし、ユーザ端末401~40n側では、受信した処理過程の内容に基づいた画面内容を表示装置の表示画面に表示させるものとする。画面内容の生成は、サーバ装置30側で行ってもよいし、ユーザ端末401~40n側で行ってもよい。
In the process of information processing, the
以下においては、図2に示すサーバ装置30を図1に示す情報処理装置10として機能させる場合を例として説明を行う。
In the following, a case where the
位置情報取得部11は、ユーザ端末の位置情報を取得する機能を有する。ここで、位置情報は、ユーザ端末の位置を示す情報であればどのようなものであってもよい。一例としては、GPSによって取得した緯度経度情報や、複数種類の無線信号の受信強度に基づく位置推定による位置情報などが考えられる。また、最後に正確に位置情報を取得した位置からユーザ端末が移動した場合の移動方向及び移動距離を推測してユーザ端末の位置情報を推定するDR(Dead Reckoning:自律航法)を採用して取得した位置情報であってもよい。
The location
時刻情報取得部12は、日付を含む現在時刻情報を取得する機能を有する。日付を含む現在時刻を取得可能であればどのような方法であってもよい。
The time
天候情報取得部13は、ユーザ端末の位置情報に基づいて当該位置の天候情報を取得する機能を有する。天候情報は、現在の実際の気象情報を示す情報であってもよいし、予め予測された気象予測情報を天候情報として取得するものであってもよい。気象予測情報を天候情報として取得する際には、現在時刻情報を併せて利用する。
The weather
天然光源推定部14は、取得した前記位置情報、前記時刻情報及び前記天候情報に基づいて、前記ユーザ端末の位置における天然光源の状況を推定する機能を有する。ここで、天然光源とは、自然界における光源のことをいう。天然光源としては、例えば、太陽は最も影響の大きい直接光源であり、月も直接光源である。また、太陽を含む直接光源を反射することで光源となる間接光源も天然光源に含まれる。また、青空、雲、霧などは、アンビエントライト(ambient light:周囲光)としての天然光源である。取得する天然光源の情報は、レンダリングの際に演算に用いる光源として定義したものを取得する構成である必要がある。簡略化した天然光源情報の取得例としては、日時とユーザ端末の位置情報とから推定される太陽の方向の情報を取得し、シーン内のすべてのオブジェクトに拡散アンビエントカラーを追加するだけの半球状の光源とするために天候情報から推定される空の色を取得することが考えられる。
The natural light
現実対応オブジェクト情報取得部15は、位置情報に基づいてユーザ端末の周辺に存在する現実のオブジェクトに予め対応させた仮想空間上のオブジェクト(以下、現実対応オブジェクトという)の情報を取得する機能を有する。現実対応オブジェクトは、例えば、ビル等の建築物、街灯、信号などの屋外における現実のオブジェクトや、ドア、窓ガラス、照明などの屋内における現実のオブジェクトなどについて、仮想空間上に現実の配置と同一の配置にて予め3次元モデルを生成して記憶させておく。現実対応オブジェクト情報取得部15では、予め記憶させた現実対応オブジェクトのうち、ユーザ端末の位置情報周辺の現実対応オブジェクトを取得するようにする。
The reality-corresponding object
撮影画像取得部16は、ユーザ端末が備えるカメラ装置によって現実空間を撮影することで得られた撮影画像及び撮影方向情報を取得する機能を有する。撮影画像は、動画であってもよいし、静止画であってもよい。撮影方向情報は、ユーザ端末が備える方位センサによって取得する。
The captured
第一光源影響演算部17は、推定した天然光源状況における現実対応オブジェクトに対する光源の影響を演算する機能を有する。具体的には、取得した現実対応オブジェクトに対する天然光源の影響を考慮したシェーディングを含むレンダリング処理を実行することで、現実対応オブジェクトに生じる影、反射、明るさの変化など、光源からの影響を演算によって求める処理を行う。
The first light source
仮想オブジェクト情報取得部18は、ユーザ端末の位置周辺に配置されカメラ装置の撮影範囲内に位置する可能性のある仮想オブジェクトの情報を取得する機能を有する。仮想オブジェクトの配置は、位置座標に紐付けて記憶させたものであってもよいし、オブジェクトの所定位置に対して紐付けて記憶させたものであってもよい。また、どの範囲の仮想オブジェクトの情報を取得するかは適宜設定可能であり、撮影方向情報に基づいて撮影範囲を予測して仮想オブジェクト情報を取得する手法であってもよいし、ユーザ端末の位置から所定の距離に配置された全ての仮想オブジェクトの情報を取得する手法であってもよい。
The virtual object
第二光源影響演算部19は、現実対応オブジェクトに対する天然光源の影響を考慮しつつ、推定した前記天然光源状況における前記仮想オブジェクトに対する光源の影響を演算する機能を有する。この第二光源影響演算部19では、現実対応オブジェクトの中に仮想オブジェクトを配置した状態において、仮想オブジェクトに対する天然光源の影響を演算する。例えば、仮想オブジェクトと現実対応オブジェクトであるビルが近接している場合、光源である太陽の向きによっては、ビルの影が仮想オブジェクトに掛かって、仮想オブジェクトの一部に太陽の光が直接は当たらない状況となる可能性がある。このような場合には、仮想オブジェクトのうちビルの影が掛かった箇所は、他のオブジェクトに対して影を落とすことはないことになる。このように、現実対応オブジェクトの中に配置した状態での光源の影響を演算することで、現実のオブジェクトの中に仮想オブジェクトが実際に存在すると仮定したときのリアルな光源の影響を表現することが可能となる。具体的な演算方法の一例としては、現実対応オブジェクトの中に仮想オブジェクトを配置した状態において天然光源の影響を考慮したレンダリング処理を実行した結果から、第一光源影響演算部17における演算結果を減算することで、仮想オブジェクトに対する天然光源の影響のみを抽出することが考えられる。
The second light source
重畳表示部20は、撮影画像上における仮想オブジェクトの接地位置を特定し、仮想オブジェクト及び演算した光源影響を撮影画像上の特定した接地位置に対して重畳表示させる機能を有する。
The superimposed
記憶部21は、情報処理装置10において行われる様々な処理で必要なデータ及び処理の結果として得られたデータを記憶させる機能を有する。
The
次に、本例の情報処理装置10において行われる情報処理の流れについて説明を行う。図3は、本発明の少なくとも1つの実施形態における情報処理の例を示すフローチャートである。この図3に示すように、情報処理は、先ず、情報処理装置10において、ユーザ端末の位置情報、現在時刻情報及び天候情報を順次取得することによって開始される(ステップS101)。次に、情報処理装置10は、取得した位置情報、時刻情報及び天候情報に基づいて、ユーザ端末の位置における天然光源の状況を推定する(ステップS102)。次に、情報処理装置10は、位置情報に基づいてユーザ端末の周辺に存在する現実のオブジェクトに対応した現実対応オブジェクトの情報を取得する(ステップS103)。次に、情報処理装置10は、ユーザ端末による撮影画像及び撮影方向情報を取得する(ステップS104)。次に、情報処理装置10は、推定した天然光源状況における現実対応オブジェクトに対する光源の影響を演算する(ステップS105)。次に、情報処理装置10は、ユーザ端末の位置周辺に配置されカメラ装置の撮影範囲内に位置するARとして表示させる可能性のある仮想オブジェクトの情報を取得する(ステップS106)。次に、情報処理装置10は、現実対応オブジェクトに対する天然光源の影響を考慮しつつ、推定した天然光源状況における前記仮想オブジェクトに対する光源の影響を演算する(ステップS107)。この処理により、重畳表示の際に描画する仮想オブジェクト、及び、影、反射等の仮想オブジェクトに起因する光源の影響を取得する。そして、情報処理装置10は、撮影画像上における前記仮想オブジェクトの接地位置を特定し、仮想オブジェクト及び演算した光源影響を撮影画像上の特定した接地位置に対して重畳表示させて(ステップS106)、情報処理を終了する。 Next, the flow of information processing performed in the information processing apparatus 10 of this example will be described. FIG. 3 is a flow chart illustrating an example of information processing in at least one embodiment of the invention. As shown in FIG. 3, the information processing is started by sequentially acquiring position information of the user terminal, current time information, and weather information in the information processing apparatus 10 (step S101). Next, the information processing apparatus 10 estimates the condition of the natural light source at the position of the user terminal based on the acquired position information, time information and weather information (step S102). Next, the information processing apparatus 10 acquires information on a reality corresponding object corresponding to a real object existing around the user terminal based on the position information (step S103). Next, the information processing apparatus 10 acquires the captured image and the capturing direction information by the user terminal (step S104). Next, the information processing apparatus 10 calculates the influence of the light source on the reality-corresponding object under the estimated natural light source condition (step S105). Next, the information processing apparatus 10 acquires information on virtual objects that may be displayed as ARs that are placed around the position of the user terminal and located within the photographing range of the camera device (step S106). Next, the information processing apparatus 10 calculates the influence of the light source on the virtual object in the estimated natural light source situation while considering the influence of the natural light source on the reality corresponding object (step S107). Through this processing, the effect of the light source caused by the virtual object to be drawn in the superimposed display and the virtual object such as shadows and reflections is acquired. Then, the information processing apparatus 10 specifies the ground position of the virtual object on the captured image, superimposes the virtual object and the calculated light source effect on the specified ground position on the captured image (step S106), End information processing.
次に、本例の情報処理装置10を適用した場合の結果について、具体例に基づいて説明を行う。図4は、本発明の少なくとも1つの実施形態を適用していない場合のAR表示の例を表した説明図である。また、図5は、本発明の少なくとも1つの実施形態を適用していない場合のAR表示の例の一部を拡大した説明図である。この図4は、現実のオブジェクトであるビルの周囲に複数の球体を仮想オブジェクトとして配置し、かつ、現実のオブジェクトであるビルの窓ガラス部分に文字を表示させるAR表示を行った例である。図5は、図4の一部を拡大した画像である。この図4及び図5に示すように、本発明を適用せずに、仮想オブジェクトに対する光源の影響のみを演算して、その演算結果を重畳表示すると、本来はビルの影に掛かって他のオブジェクトに対して影を落とさない箇所が、影を落とすように演算結果が出てしまうため、ビルの影と仮想オブジェクトの影が重なって描画されてしまうという本来は生じ得ない状況が生じてしまうという問題があった。 Next, the result of applying the information processing apparatus 10 of this example will be described based on a specific example. FIG. 4 is an explanatory diagram showing an example of AR display when at least one embodiment of the present invention is not applied. Also, FIG. 5 is an explanatory diagram enlarging a part of an example of AR display when at least one embodiment of the present invention is not applied. FIG. 4 shows an example of AR display in which a plurality of spheres are arranged as virtual objects around a building, which is a real object, and characters are displayed on the window glass portion of the building, which is a real object. FIG. 5 is an enlarged image of a part of FIG. As shown in FIGS. 4 and 5, without applying the present invention, if only the effect of the light source on the virtual object is calculated and the result of the calculation is superimposed, the shadow of the building would originally cast the shadow of the other object. However, the shadows of the buildings and the shadows of the virtual objects overlap, creating a situation that could not have occurred in the first place. I had a problem.
そこで、本例では、ユーザ端末の位置における天然光源の状況を推定して、その天然光源による現実対応オブジェクトに対する影響を演算し、かつ、現実対応オブジェクトの近傍に配置された仮想オブジェクトに対する天然光源の影響を演算することで、仮想オブジェクトに対する天然光源の影響のみを抽出して重畳表示することを可能にしている。 Therefore, in this example, the situation of the natural light source at the position of the user terminal is estimated, the influence of the natural light source on the reality-corresponding object is calculated, and the natural light source on the virtual object placed near the reality-corresponding object is calculated. By calculating the influence, it is possible to extract only the influence of the natural light source on the virtual object and superimpose it.
図6は、本発明の少なくとも1つの実施形態における天然光源推定処理の一例の概念を表した概念図である。現実世界の現象を忠実に再現すべく天然光源の状況を詳細に設定することも可能であるが、そのような複雑な現象をリアルタイムに演算するには相当な演算処理能力が必要となるため、現実的には、天然光源の状況を簡略化して推定することが好ましい。そこで、この図6に示すように、日時とユーザ端末の位置情報とから太陽の方向を推定し、半球状の光源を設定して、その半球状の光源はその内側に位置する全てのオブジェクトに対して拡散アンビエントカラーを追加するアンビエントライトとして機能するものとする。具体的には、天候情報から推定される空の色をアンビエントライトのカラーとして採用する。晴天の場合には青色を採用し、曇天の場合には灰色を採用する。また、夜の場合には黒色、朝方や夕方は赤みを帯びた色など、時刻によって異なる色を採用する。また、曇天の場合には太陽からの直接光源の影響を減少させるようにしてもよい。このような簡略化した天然光源推定処理を行うことで、その後の光源の影響の演算処理の負荷量を軽減することが可能となる。 FIG. 6 is a conceptual diagram showing the concept of an example of natural light source estimation processing in at least one embodiment of the present invention. Although it is possible to set the conditions of natural light sources in detail in order to faithfully reproduce phenomena in the real world, real-time calculation of such complex phenomena requires considerable processing power. Realistically, it is preferable to simplify and estimate the situation of the natural light source. Therefore, as shown in FIG. 6, the direction of the sun is estimated from the date and time and the position information of the user terminal, a hemispherical light source is set, and the hemispherical light source illuminates all the objects located inside. It shall act as an ambient light adding a diffuse ambient color to it. Specifically, the color of the sky estimated from the weather information is adopted as the ambient light color. Blue is used for clear weather, and gray is used for cloudy weather. Different colors are used depending on the time of day, such as black at night and reddish colors in the morning and evening. Also, in the case of cloudy weather, the influence of the direct light source from the sun may be reduced. By performing such a simplified natural light source estimation process, it is possible to reduce the load of subsequent calculation processing for the influence of the light source.
図7は、本発明の少なくとも1つの実施形態を適用した場合のAR表示の例を表した説明図である。また、図8は、本発明の少なくとも1つの実施形態を適用した場合のAR表示の例の一部を拡大した説明図である。この図7及び図8は、図4及び図5と同一の状況であるが、この図7及び図8に示すように、本発明の少なくとも1つの実施形態を適用した場合には、仮想オブジェクトに対する天然光源の影響のみを抽出して重畳表示できるので、ビルの影と仮想オブジェクトの影が重なって描画されることなく、より自然な状況で描画が実行される。 FIG. 7 is an explanatory diagram showing an example of AR display when at least one embodiment of the present invention is applied. Also, FIG. 8 is an explanatory diagram enlarging a part of an example of AR display when at least one embodiment of the present invention is applied. 7 and 8 show the same situation as in FIGS. 4 and 5, but when at least one embodiment of the present invention is applied as shown in FIGS. Since only the influence of the natural light source can be extracted and displayed in a superimposed manner, the shadows of the building and the shadows of the virtual objects are not overlapped, and rendering is performed in a more natural situation.
以上に説明したように、上記の実施形態の一側面として、情報処理装置10が、位置情報取得部11と、時刻情報取得部12と、天候情報取得部13と、天然光源推定部14と、現実対応オブジェクト情報取得部15と、撮影画像取得部16と、第一光源影響演算部17と、仮想オブジェクト情報取得部18と、第二光源影響演算部19と、重畳表示部20と、記憶部21とを備える構成とし、ユーザ端末の位置情報を取得し、現在時刻情報を取得し、ユーザ端末の位置情報に基づいて当該位置の天候情報を取得し、取得した位置情報、時刻情報及び天候情報に基づいて、ユーザ端末の位置における天然光源の状況を推定し、位置情報に基づいてユーザ端末の周辺に存在する現実のオブジェクトに予め対応させた仮想空間上の現実対応オブジェクトの情報を取得し、ユーザ端末が備えるカメラ装置によって現実空間を撮影することで得られた撮影画像及び撮影方向情報を取得し、推定した天然光源状況における現実対応オブジェクトに対する光源の影響を演算し、ユーザ端末の位置周辺に配置されカメラ装置の撮影範囲内に存在する可能性のある仮想オブジェクトの情報を取得し、現実対応オブジェクトに対する天然光源の影響を考慮しつつ、推定した天然光源状況における仮想オブジェクトに対する光源の影響を演算し、撮影画像上における仮想オブジェクトの接地位置を特定し、仮想オブジェクト及び演算した光源影響を撮影画像上の特定した接地位置に対して重畳表示させるようにしたので、周辺の現実のオブジェクトとの整合性を考慮したAR表示が可能となる。
As described above, as one aspect of the above embodiment, the information processing device 10 includes the position
[第2の実施形態]
第1の実施形態においては、周辺の現実のオブジェクトとの整合性を考慮した仮想オブジェクトのAR表示を行うために、現実対応オブジェクトを配置した仮想空間上に仮想オブジェクトを配置してから、推定した天然光源の影響を演算するようにしていたが、この第2の実施の形態においては、現実対応オブジェクトに対する天然光源の影響を演算してその状況を仮想カメラで撮影して仮想撮影画像を得ることで、ユーザが実際に撮影した撮影画像に映るオブジェクトを特定するためのトラッキング処理に利用する例について説明する。
[Second embodiment]
In the first embodiment, in order to perform AR display of a virtual object in consideration of consistency with surrounding real objects, the virtual object is placed in the virtual space in which the reality-corresponding object is placed, and then estimated. In the second embodiment, the effect of the natural light source is calculated, but in the second embodiment, the effect of the natural light source on the reality-corresponding object is calculated, and the situation is captured by a virtual camera to obtain a virtual captured image. Next, an example of use in tracking processing for specifying an object appearing in a photographed image actually photographed by the user will be described.
図9は、本発明の少なくとも1つの実施形態における情報処理装置の構成の例を示すブロック図である。図9に示すように、本発明の第2の実施形態における情報処理装置10は、位置情報取得部11と、時刻情報取得部12と、天候情報取得部13と、天然光源推定部14と、現実対応オブジェクト情報取得部15と、撮影画像取得部16と、仮想撮影画像生成部22と、撮影オブジェクト特定部23と、記憶部21とを備える。なお、第1の実施形態と同一の符号を付したものについては、第1の実施形態と同様に機能するものであるため、説明を省略する。
FIG. 9 is a block diagram showing an example configuration of an information processing apparatus according to at least one embodiment of the present invention. As shown in FIG. 9, the information processing apparatus 10 according to the second embodiment of the present invention includes a position
仮想撮影画像生成部22は、撮影画像と概略同一位置かつ概略同一撮影方向と推定される少なくとも1パターンについて仮想カメラを設置して仮想空間上を撮影する条件において、推定した天然光源の状況における現実対応オブジェクトに対する光源の影響を考慮したレンダリングを実行して仮想撮影画像を生成する機能を有する。本例では、現実対応オブジェクト情報取得部15においてユーザ端末の位置周辺の現実対応オブジェクトを取得している。そして、その状況において、ユーザ端末から取得した位置情報が実際のユーザ端末の位置を正確に示すものであれば、現実対応オブジェクトを配置した仮想空間上において同一位置かつ同一撮影方向で撮影することで、ユーザ端末による撮影画像に映るオブジェクトと一致する現実対応オブジェクトを特定することができる。その特定精度を向上させるために、天然光源推定部14で推定した天然光源の状況を用いてレンダリング処理を行って仮想撮影画像を取得するようにする。なお、ユーザ端末の位置情報が必ずしも正確でない場合がある。例えば、GPS情報は周囲の建築物の影響等でずれる可能性があるし、複数種類の無線信号の受信強度に基づく位置推定やDRによる位置推定も正確な位置を示さない可能性がある。よって、仮想カメラによる仮想撮影画像の生成を1パターンのみならず、仮想カメラの位置や撮影角度を異ならせた複数パターンについて仮想撮影画像を生成するようにしてもよい。
The virtual captured
撮影オブジェクト特定部23は、撮影画像と仮想撮影画像とについて視覚的特徴の一致箇所を特定して、両者の一致度に基づいて撮影画像に映るオブジェクトを特定する機能を有する。撮影画像と仮想撮影画像を照合して視覚的特徴の一致箇所を抽出し、例えば、一致箇所に関するスコアが所定の閾値を超えた場合に、撮影画像に映るオブジェクトと現実対応オブジェクトが同一のオブジェクトであると特定する。これにより、撮影画像に映るオブジェクトを特定することができる。
The photographed
次に、本例の情報処理装置10において行われる情報処理の流れについて説明を行う。図10は、本発明の少なくとも1つの実施形態における情報処理の例を示すフローチャートである。この図10に示すように、情報処理は、先ず、情報処理装置10において、ユーザ端末の位置情報、現在時刻情報及び天候情報を順次取得することによって開始される(ステップS201)。次に、情報処理装置10は、取得した位置情報、時刻情報及び天候情報に基づいて、ユーザ端末の位置における天然光源の状況を推定する(ステップS202)。次に、情報処理装置10は、位置情報に基づいてユーザ端末の周辺に存在する現実のオブジェクトに対応した現実対応オブジェクトの情報を取得する(ステップS203)。次に、情報処理装置10は、ユーザ端末による撮影画像及び撮影方向情報を取得する(ステップS204)。次に、情報処理装置10は、推定した天然光源状況における現実対応オブジェクトに対する光源の影響を演算する(ステップS205)。次に、情報処理装置10は、ユーザ端末の位置周辺に配置されカメラ装置の撮影範囲内に位置するARとして表示させる可能性のある仮想オブジェクトの情報を取得する(ステップS206)。次に、情報処理装置10は、撮影画像と概略同一位置かつ概略同一撮影方向と推定される少なくとも1パターンについて仮想カメラを設置して仮想空間上を撮影する条件において、推定した天然光源の状況における現実対応オブジェクトに対する光源の影響を考慮したレンダリングを実行して仮想撮影画像を生成する(ステップS207)。そして、情報処理装置10は、撮影画像と仮想撮影画像とについて視覚的特徴の一致箇所を特定して、両者の一致度に基づいて撮影画像に映るオブジェクトを特定して(ステップS106)、情報処理を終了する。 Next, the flow of information processing performed in the information processing apparatus 10 of this example will be described. FIG. 10 is a flowchart illustrating an example of information processing in at least one embodiment of the invention. As shown in FIG. 10, information processing is started by sequentially acquiring location information of the user terminal, current time information, and weather information in the information processing apparatus 10 (step S201). Next, the information processing apparatus 10 estimates the condition of the natural light source at the position of the user terminal based on the acquired position information, time information and weather information (step S202). Next, the information processing apparatus 10 acquires information on a reality corresponding object corresponding to a real object existing around the user terminal based on the position information (step S203). Next, the information processing apparatus 10 acquires the captured image and the capturing direction information by the user terminal (step S204). Next, the information processing apparatus 10 calculates the influence of the light source on the reality-corresponding object under the estimated natural light source condition (step S205). Next, the information processing apparatus 10 acquires information on virtual objects that may be displayed as ARs that are placed around the position of the user terminal and located within the shooting range of the camera device (step S206). Next, the information processing apparatus 10 installs a virtual camera for at least one pattern that is estimated to be approximately the same position and approximately the same photographing direction as the photographed image, and performs photographing in the virtual space. A virtual photographed image is generated by executing rendering considering the influence of the light source on the reality corresponding object (step S207). Then, the information processing apparatus 10 specifies matching portions of the visual features of the captured image and the virtual captured image, and identifies objects appearing in the captured image based on the degree of matching between the two (step S106), and performs information processing. exit.
図11は、本発明の少なくとも1つの実施形態におけるトラッキング処理の一例の概念を表した概念図である。この図11の左側がユーザ端末によって撮影した撮影画像であり、図11の右側が仮想空間上の現実対応オブジェクトを撮影した仮想撮影画像である。この図11に示すように、天然光源の状況を反映させてより現実に近い状況でレンダリングを行って得た仮想撮影画像を用いることで、影、反射、明るさなどの状況が近似している条件で照合を行うことができるので、トラッキングの精度を向上させることが可能となる。 FIG. 11 is a conceptual diagram illustrating the concept of an example of tracking processing in at least one embodiment of the invention. The left side of FIG. 11 is a captured image captured by a user terminal, and the right side of FIG. 11 is a virtual captured image of a reality corresponding object in virtual space. As shown in FIG. 11, by using a virtual photographed image obtained by rendering in a more realistic situation by reflecting the situation of the natural light source, situations such as shadows, reflections, and brightness are approximated. Since matching can be performed under certain conditions, it is possible to improve the accuracy of tracking.
以上に説明したように、上記の実施形態の一側面として、情報処理装置10が、位置情報取得部11と、時刻情報取得部12と、天候情報取得部13と、天然光源推定部14と、現実対応オブジェクト情報取得部15と、撮影画像取得部16と、仮想撮影画像生成部22と、撮影オブジェクト特定部23と、記憶部21とを備える構成とし、ユーザ端末の位置情報を取得し、現在時刻情報を取得し、ユーザ端末の位置情報に基づいて当該位置の天候情報を取得し、取得した位置情報、時刻情報及び天候情報に基づいて、ユーザ端末の位置における天然光源の状況を推定し、位置情報に基づいてユーザ端末の周辺に存在する現実のオブジェクトに予め対応させた仮想空間上の現実対応オブジェクトの情報を取得し、ユーザ端末が備えるカメラ装置によって現実空間を撮影することで得られた撮影画像及び撮影方向情報を取得し、撮影画像と概略同一位置かつ概略同一撮影方向と推定される少なくとも1パターンについて仮想カメラを設置して仮想空間上を撮影する条件において、推定した天然光源の状況における現実対応オブジェクトに対する光源の影響を考慮したレンダリングを実行して仮想撮影画像を生成し、撮影画像と仮想撮影画像とについて視覚的特徴の一致箇所を特定して、両者の一致度に基づいて撮影画像に映るオブジェクトを特定するようにしたので、天然光源の状況を反映させてより現実に近い状況でレンダリングを行って得た仮想撮影画像を用いることで、影、反射、明るさなどの状況が近似している条件で照合を行うことができるので、トラッキングの精度を向上させることが可能となる。
As described above, as one aspect of the above embodiment, the information processing device 10 includes the position
[第3の実施形態]
第1及び第2の実施形態においては、ユーザ端末による撮影方向は、ユーザ端末が備える方位センサによって取得するものとして説明を行ったが、撮影画像に映るオブジェクトトとその影の伸びる方向に基づいて、ソーラーコンパスの原理によって撮影方向を特定するようにしてもよい。
[Third Embodiment]
In the first and second embodiments, the shooting direction of the user terminal is assumed to be acquired by the orientation sensor provided in the user terminal. , the photographing direction may be specified by the principle of a solar compass.
図12は、本発明の少なくとも1つの実施形態におけるカメラ方位推定処理の一例の概念を表した概念図である。この図12に示すように、ソーラーコンパスの原理は、撮影を行った日時が判明している場合、太陽の方向は一意に特定されるため、[2]影の向きが指す方位が判明し、これに基づいて[1]北の方位が判明する。この状況において、[1]北の方位、[2]影の向き、[3]影の向き、[4]太陽方位角、[5]相対的な影方位に基づいて、[6]カメラ方位を特定することが可能となる。 FIG. 12 is a conceptual diagram showing the concept of an example of camera orientation estimation processing in at least one embodiment of the present invention. As shown in FIG. 12, the principle of the solar compass is that if the date and time the image was taken is known, the direction of the sun can be uniquely identified. Based on this, [1] the direction of the north is found. In this context, determine [6] camera orientation based on [1] north orientation, [2] shadow orientation, [3] shadow orientation, [4] sun azimuth, [5] relative shadow orientation. It becomes possible to
このように、ソーラーコンパスの原理によってカメラ方位を特定する手法を採用して、第1及び第2の実施の形態を実施するようにしてもよい。 In this manner, the first and second embodiments may be implemented by adopting a method of specifying the camera orientation based on the principle of the solar compass.
以上に説明したように、本願の各実施形態により1または2以上の不足が解決される。なお、夫々の実施形態による効果は、非限定的な効果または効果の一例である。 As described above, the embodiments of the present application address one or more deficiencies. In addition, the effect by each embodiment is an example of a non-limiting effect or effect.
なお、上述した各実施形態では、複数のユーザ端末401~40nとサーバ装置30は、自己が備える記憶装置に記憶されている各種制御プログラム(例えば、ビデオゲーム処理プログラム)に従って、上述した各種の処理を実行する。
In each of the above-described embodiments, the plurality of
また、本願の各実施形態における情報処理装置10を適用するシステムの構成は、上述した各実施形態の例として説明した構成に限定されず、例えばユーザ端末40が実行する処理として説明した処理の一部または全部をサーバ装置30が実行する構成としてもよいし、サーバ装置30が実行する処理として説明した処理の一部または全部を複数のユーザ端末401~40nの何れかが実行する構成としてもよい。また、サーバ装置30が備える記憶部の一部または全部を複数のユーザ端末401~40nの何れかが備える構成としてもよい。すなわち、システムにおけるユーザ端末40とサーバ装置30のどちらか一方が備える機能の一部または全部を、他の一方が備える構成とされていてもよい。
Further, the configuration of the system to which the information processing apparatus 10 in each embodiment of the present application is applied is not limited to the configuration described as an example of each embodiment described above. Some or all of the processing may be executed by the
10 情報処理装置
11 位置情報取得部
12 時刻情報取得部
13 天候情報取得部
14 天然光源推定部
15 現実対応オブジェクト情報取得部
16 撮影画像取得部
17 第一光源影響演算部
18 仮想オブジェクト情報取得部
19 第二光源影響演算部
20 重畳表示部
21 記憶部
22 仮想撮影画像生成部
23 撮影オブジェクト特定部
30 サーバ装置
40、401~40n ユーザ端末
50 通信ネットワーク
REFERENCE SIGNS LIST 10
Claims (4)
前記コンピュータに、
前記ユーザ端末の位置情報を取得する位置情報取得機能と、
現在時刻情報を取得する時刻取得機能と、
ユーザ端末の位置情報に基づいて当該位置の天候情報を取得する天候情報取得機能と、
取得した前記位置情報、前記時刻情報及び前記天候情報に基づいて、前記ユーザ端末の位置における天然光源の状況を推定する天然光源推定機能と、
前記位置情報に基づいて前記ユーザ端末の周辺に存在する現実のオブジェクトに予め対応させた仮想空間上のオブジェクト(現実対応オブジェクト)の情報を取得する現実対応オブジェクト情報取得機能と、
前記ユーザ端末が備えるカメラ装置によって現実空間を撮影することで得られた前記撮影画像及び撮影方向情報を取得する撮影画像取得機能と、
推定した前記天然光源状況における前記現実対応オブジェクトに対する光源の影響を演算する第一光源影響演算機能と、
前記ユーザ端末の位置周辺に配置され前記カメラ装置の撮影範囲内に位置する可能性のある前記仮想オブジェクトの情報を取得する仮想オブジェクト情報取得機能と、
前記現実対応オブジェクトに対する天然光源の影響を考慮しつつ、推定した前記天然光源状況における前記仮想オブジェクトに対する光源の影響を演算する第二光源影響演算機能と、
前記撮影画像上における前記仮想オブジェクトの接地位置を特定し、前記仮想オブジェクト、前記第一光源影響演算機能に基づいて演算した光源影響及び前記第二光源影響演算機能に基づいて演算した光源影響を前記撮影画像上の特定した接地位置に対して重畳表示させる重畳表示機能と
を実現させ、
前記天然光源推定機能は、日時と前記ユーザ端末の位置情報とから推定される太陽の方向の情報を取得し、また、内側に位置する全てのオブジェクトに対して天候情報に基づく所定の拡散アンビエントカラーを追加するアンビエントライトとして機能する半球状の光源を定義して、前記時刻情報及び前記天候情報から推測される空の色を半球状の光源に設定されるアンビエントカラーとする
情報処理プログラム。 An information processing program for causing a computer to realize a process of superimposing and displaying a virtual object stored in association with a predetermined position in real space on a captured image captured by a user terminal owned by a user,
to the computer;
a location information acquisition function for acquiring location information of the user terminal;
a time acquisition function for acquiring current time information;
a weather information acquisition function for acquiring weather information for a location based on the location information of the user terminal;
a natural light source estimation function for estimating the state of natural light sources at the location of the user terminal based on the acquired location information, time information, and weather information;
a reality-corresponding object information acquisition function for acquiring information on an object in a virtual space (reality-corresponding object) that is associated in advance with a real object existing around the user terminal based on the position information;
A photographed image acquisition function for acquiring the photographed image and photographing direction information obtained by photographing the real space with a camera device provided in the user terminal;
a first light source effect calculation function for calculating the effect of a light source on the reality corresponding object in the estimated natural light source situation;
a virtual object information acquisition function for acquiring information on the virtual object that is arranged around the position of the user terminal and possibly positioned within the shooting range of the camera device;
a second light source effect calculation function for calculating the effect of a light source on the virtual object in the estimated natural light source situation while considering the effect of the natural light source on the reality corresponding object;
The ground position of the virtual object on the captured image is specified, and the light source influence calculated based on the virtual object, the first light source influence calculation function, and the second light source influence calculation function are calculated. and a superimposed display function that superimposes the specified ground contact position on the captured image , and
The natural light source estimation function obtains information on the direction of the sun estimated from the date and time and the location information of the user terminal, and also obtains a predetermined diffuse ambient color based on weather information for all objects located inside. A hemispherical light source that functions as an ambient light is defined, and the sky color estimated from the time information and the weather information is set as the ambient color for the hemispherical light source.
Information processing program.
請求項1に記載の情報処理プログラム。 The second light source effect calculation function obtains the calculation result of the first light source effect calculation function from the result of executing the rendering processing considering the effect of the natural light source in the state where the virtual object is arranged in the reality corresponding object. 2. The information processing program according to claim 1 , wherein only the influence of a natural light source on said virtual object is extracted by subtracting .
前記ユーザ端末の位置情報を取得する位置情報取得部と、
現在時刻情報を取得する時刻取得部と、
ユーザ端末の位置情報に基づいて当該位置の天候情報を取得する天候情報取得部と、
取得した前記位置情報、前記時刻情報及び前記天候情報に基づいて、前記ユーザ端末の位置における天然光源の状況を推定する天然光源推定部と、
前記位置情報に基づいて前記ユーザ端末の周辺に存在する現実のオブジェクトに予め対応させた仮想空間上のオブジェクト(現実対応オブジェクト)の情報を取得する現実対応オブジェクト情報取得部と、
前記ユーザ端末が備えるカメラ装置によって現実空間を撮影することで得られた前記撮影画像及び撮影方向情報を取得する撮影画像取得部と、
推定した前記天然光源状況における前記現実対応オブジェクトに対する光源の影響を演算する第一光源影響演算部と、
前記ユーザ端末の位置周辺に配置され前記カメラ装置の撮影範囲内に位置する可能性のある前記仮想オブジェクトの情報を取得する仮想オブジェクト情報取得部と、
前記現実対応オブジェクトに対する天然光源の影響を考慮しつつ、推定した前記天然光源状況における前記仮想オブジェクトに対する光源の影響を演算する第二光源影響演算部と、
前記撮影画像上における前記仮想オブジェクトの接地位置を特定し、前記仮想オブジェクト、前記第一光源影響演算部において演算した光源影響及び前記第二光源影響演算部において演算した光源影響を前記撮影画像上の特定した接地位置に対して重畳表示させる重畳表示部とを備え、
前記天然光源推定部は、日時と前記ユーザ端末の位置情報とから推定される太陽の方向の情報を取得し、また、内側に位置する全てのオブジェクトに対して天候情報に基づく所定の拡散アンビエントカラーを追加するアンビエントライトとして機能する半球状の光源を定義して、前記時刻情報及び前記天候情報から推測される空の色を半球状の光源に設定されるアンビエントカラーとする
情報処理装置。 An information processing device for superimposing and displaying a virtual object stored in association with a predetermined position in real space on a captured image captured by a user terminal owned by a user, the information processing device comprising:
a location information acquisition unit that acquires location information of the user terminal;
a time acquisition unit that acquires current time information;
a weather information acquisition unit that acquires weather information for a location based on the location information of the user terminal;
a natural light source estimation unit for estimating the state of natural light sources at the location of the user terminal based on the acquired location information, time information, and weather information;
a reality-corresponding object information acquisition unit that acquires information on an object in a virtual space (reality-corresponding object) that is associated in advance with a real object existing around the user terminal based on the position information;
a captured image acquiring unit that acquires the captured image and the capturing direction information obtained by capturing the real space with a camera device included in the user terminal;
a first light source effect calculation unit that calculates the effect of a light source on the reality-corresponding object in the estimated natural light source situation;
a virtual object information acquisition unit that acquires information on the virtual object that is arranged around the position of the user terminal and that may be located within the shooting range of the camera device;
a second light source effect calculation unit that calculates the effect of a light source on the virtual object in the estimated natural light source situation while considering the effect of the natural light source on the reality corresponding object;
specifying the ground position of the virtual object on the captured image, and calculating the virtual object , the light source effect calculated by the first light source effect calculation unit, and the light source effect calculated by the second light source effect calculation unit on the captured image; A superimposed display unit that superimposes and displays the specified ground contact position ,
The natural light source estimating unit obtains information on the direction of the sun estimated from the date and time and the position information of the user terminal, and also obtains a predetermined diffuse ambient color based on weather information for all objects located inside. A hemispherical light source that functions as an ambient light is defined, and the sky color estimated from the time information and the weather information is set as the ambient color for the hemispherical light source.
Information processing equipment.
前記ユーザ端末の位置情報を取得する位置情報取得手順と、
現在時刻情報を取得する時刻取得手順と、
ユーザ端末の位置情報に基づいて当該位置の天候情報を取得する天候情報取得部と、
取得した前記位置情報、前記時刻情報及び前記天候情報に基づいて、前記ユーザ端末の位置における天然光源の状況を推定する天然光源推定手順と、
前記位置情報に基づいて前記ユーザ端末の周辺に存在する現実のオブジェクトに予め対応させた仮想空間上のオブジェクト(現実対応オブジェクト)の情報を取得する現実対応オブジェクト情報取得手順と、
前記ユーザ端末が備えるカメラ装置によって現実空間を撮影することで得られた前記撮影画像及び撮影方向情報を取得する撮影画像取得手順と、
推定した前記天然光源状況における前記現実対応オブジェクトに対する光源の影響を演算する第一光源影響演算手順と、
前記ユーザ端末の位置周辺に配置され前記カメラ装置の撮影範囲内に位置する可能性のある前記仮想オブジェクトの情報を取得する仮想オブジェクト情報取得手順と、
前記現実対応オブジェクトに対する天然光源の影響を考慮しつつ、推定した前記天然光源状況における前記仮想オブジェクトに対する光源の影響を演算する第二光源影響演算手順と、
前記撮影画像上における前記仮想オブジェクトの接地位置を特定し、前記仮想オブジェクト、前記第一光源影響演算手順に基づいて演算した光源影響及び前記第二光源影響演算手順に基づいて演算した光源影響を前記撮影画像上の特定した接地位置に対して重畳表示させる重畳表示手順とを含み、
前記天然光源推定手順は、日時と前記ユーザ端末の位置情報とから推定される太陽の方向の情報を取得し、また、内側に位置する全てのオブジェクトに対して天候情報に基づく所定の拡散アンビエントカラーを追加するアンビエントライトとして機能する半球状の光源を定義して、前記時刻情報及び前記天候情報から推測される空の色を半球状の光源に設定されるアンビエントカラーとする
情報処理方法。 An information processing method for causing a computer to execute a process of superimposing and displaying a virtual object stored in association with a predetermined position in real space on a captured image captured by a user terminal owned by a user, the method comprising:
a location information acquisition procedure for acquiring location information of the user terminal;
a time acquisition procedure for acquiring current time information;
a weather information acquisition unit that acquires weather information for a location based on the location information of the user terminal;
a natural light source estimation procedure for estimating a natural light source situation at the location of the user terminal based on the obtained location information, the time information, and the weather information;
a reality-corresponding object information obtaining procedure for obtaining information about an object (reality-corresponding object) in a virtual space pre-associated with a real object existing around the user terminal based on the position information;
a photographed image obtaining procedure for obtaining the photographed image and photographing direction information obtained by photographing the real space with a camera device provided in the user terminal;
a first light source effect calculation procedure for calculating a light source effect on the reality object in the estimated natural light source situation;
a virtual object information acquisition procedure for acquiring information on the virtual object that is arranged around the position of the user terminal and that may be located within the shooting range of the camera device;
a second light source effect calculation procedure for calculating the effect of a light source on the virtual object in the estimated natural light source situation while considering the effect of the natural light source on the reality corresponding object;
The ground position of the virtual object on the captured image is specified, and the virtual object , the light source influence calculated based on the first light source influence calculation procedure, and the light source influence calculated based on the second light source influence calculation procedure are calculated as the A superimposed display procedure for superimposing the specified ground contact position on the captured image ,
The natural light source estimation procedure obtains the information of the direction of the sun estimated from the date and time and the location information of the user terminal, and also obtains a predetermined diffuse ambient color based on the weather information for all objects located inside. A hemispherical light source that functions as an ambient light is defined, and the sky color estimated from the time information and the weather information is set as the ambient color for the hemispherical light source.
Information processing methods.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020135131A JP7125963B2 (en) | 2020-08-07 | 2020-08-07 | Information processing program, information processing apparatus, and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020135131A JP7125963B2 (en) | 2020-08-07 | 2020-08-07 | Information processing program, information processing apparatus, and information processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022030844A JP2022030844A (en) | 2022-02-18 |
JP7125963B2 true JP7125963B2 (en) | 2022-08-25 |
Family
ID=80324289
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020135131A Active JP7125963B2 (en) | 2020-08-07 | 2020-08-07 | Information processing program, information processing apparatus, and information processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7125963B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2024047648A (en) * | 2022-09-27 | 2024-04-08 | 株式会社Jvcケンウッド | Display device, display method, and program |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002117413A (en) | 2000-10-10 | 2002-04-19 | Univ Tokyo | Image generating device and image generating method for reflecting light source environmental change in real time |
JP2009134681A (en) | 2007-11-07 | 2009-06-18 | Canon Inc | Image processor, and image processing method |
JP2009163610A (en) | 2008-01-09 | 2009-07-23 | Canon Inc | Image processing apparatus and image processing method |
JP2013517579A (en) | 2010-03-25 | 2013-05-16 | ビズモードライン カンパニー リミテッド | Augmented reality system |
JP2013149029A (en) | 2012-01-18 | 2013-08-01 | Sharp Corp | Information processor, information processing method |
JP2013196616A (en) | 2012-03-22 | 2013-09-30 | Sharp Corp | Information terminal device and information processing method |
-
2020
- 2020-08-07 JP JP2020135131A patent/JP7125963B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002117413A (en) | 2000-10-10 | 2002-04-19 | Univ Tokyo | Image generating device and image generating method for reflecting light source environmental change in real time |
JP2009134681A (en) | 2007-11-07 | 2009-06-18 | Canon Inc | Image processor, and image processing method |
JP2009163610A (en) | 2008-01-09 | 2009-07-23 | Canon Inc | Image processing apparatus and image processing method |
JP2013517579A (en) | 2010-03-25 | 2013-05-16 | ビズモードライン カンパニー リミテッド | Augmented reality system |
JP2013149029A (en) | 2012-01-18 | 2013-08-01 | Sharp Corp | Information processor, information processing method |
JP2013196616A (en) | 2012-03-22 | 2013-09-30 | Sharp Corp | Information terminal device and information processing method |
Also Published As
Publication number | Publication date |
---|---|
JP2022030844A (en) | 2022-02-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10573067B1 (en) | Digital 3D model rendering based on actual lighting conditions in a real environment | |
US20110234631A1 (en) | Augmented reality systems | |
JP7007348B2 (en) | Image processing equipment | |
CN111260769B (en) | Real-time rendering method and device based on dynamic illumination change | |
CN112419472B (en) | Augmented reality real-time shadow generation method based on virtual shadow map | |
US20180276882A1 (en) | Systems and methods for augmented reality art creation | |
US20100066750A1 (en) | Mobile virtual and augmented reality system | |
US8619071B2 (en) | Image view synthesis using a three-dimensional reference model | |
US20130229413A1 (en) | Live editing and integrated control of image-based lighting of 3d models | |
CN114125310B (en) | Photographing method, terminal device and cloud server | |
CN111815786A (en) | Information display method, device, equipment and storage medium | |
CN111815785A (en) | Method and device for presenting reality model, electronic equipment and storage medium | |
CN113256781A (en) | Rendering device and rendering device of virtual scene, storage medium and electronic equipment | |
CN107808009B (en) | Stamp platform-based two-dimensional and three-dimensional map linkage method | |
JP7125963B2 (en) | Information processing program, information processing apparatus, and information processing method | |
CN115546377A (en) | Video fusion method and device, electronic equipment and storage medium | |
CN115147554A (en) | Three-dimensional scene construction method, device, equipment and storage medium | |
CN115984449A (en) | Illumination rendering method and device, electronic equipment and storage medium | |
CN109697755B (en) | Augmented reality display method and device for power transmission tower model and terminal equipment | |
CN114842120A (en) | Image rendering processing method, device, equipment and medium | |
CN113034658B (en) | Method and device for generating model map | |
CN106203279B (en) | Recognition methods, device and the mobile terminal of target object in a kind of augmented reality | |
CN114332422A (en) | Virtual space interaction method, editing and updating method, system, electronic equipment and readable storage medium based on AR technology | |
JP2007272847A (en) | Lighting simulation method and image composition method | |
CN115487495A (en) | Data rendering method and device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200817 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20210901 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210914 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20211115 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220113 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220614 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220714 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220815 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7125963 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |