JP7088721B2 - Information processing system and program - Google Patents

Information processing system and program Download PDF

Info

Publication number
JP7088721B2
JP7088721B2 JP2018070418A JP2018070418A JP7088721B2 JP 7088721 B2 JP7088721 B2 JP 7088721B2 JP 2018070418 A JP2018070418 A JP 2018070418A JP 2018070418 A JP2018070418 A JP 2018070418A JP 7088721 B2 JP7088721 B2 JP 7088721B2
Authority
JP
Japan
Prior art keywords
image
real object
real
virtual object
reflected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018070418A
Other languages
Japanese (ja)
Other versions
JP2019179542A (en
Inventor
政文 大田
吉宏 湯本
美緒 鶴岡
賢知 小林
俊 白木
Original Assignee
東京ガスiネット株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 東京ガスiネット株式会社 filed Critical 東京ガスiネット株式会社
Priority to JP2018070418A priority Critical patent/JP7088721B2/en
Publication of JP2019179542A publication Critical patent/JP2019179542A/en
Application granted granted Critical
Publication of JP7088721B2 publication Critical patent/JP7088721B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、情報処理システム及びプログラムに関する。 The present invention relates to an information processing system and a program.

現在、仮想現実(Virtual RealityまたはVR)や拡張現実(Augumented RealityまたはAR)ではなく、現実の空間(現実空間)と、コンピュータを用いて仮想的に作成する空間(仮想空間)との複合を意味する複合現実(Mixed RealityまたはMR)なる技術が注目されている。複合現実が実現された空間(複合現実空間)では、現実空間の物体と仮想空間の物体とが、現実空間と仮想空間の2つの三次元空間の形状情報を重ね合わせて、実時間で影響し合う体験が可能である。
例えば特許文献1には、仮想の物体の背後に現実の物体が位置する場合に(ユーザからは現実の物体が見えない場合に)、ユーザに近づいてきている現実の物体の存在を事前に知らせる技術が記載されている。具体的には、現実の物体とユーザとの距離とが予め定めた距離以内になると、手前側に位置する仮想の物体の表示を半透明又は輪郭線の表示に制御して背後に位置する現実の物体の視認を可能にする技術が記載されている。
Currently, it means a combination of a real space (real space) and a space virtually created using a computer (virtual space), not virtual reality (Virtual Reality or VR) or augmented reality (AR). A technique called mixed reality (MR) is attracting attention. In the space where the complex reality is realized (composite reality space), the object in the real space and the object in the virtual space superimpose the shape information of the two three-dimensional spaces of the real space and the virtual space, and influence in real time. A matching experience is possible.
For example, in Patent Document 1, when a real object is located behind a virtual object (when the real object cannot be seen by the user), the user is informed in advance of the existence of the real object approaching. The technique is described. Specifically, when the distance between the real object and the user is within a predetermined distance, the display of the virtual object located on the front side is controlled to be semi-transparent or contour line display, and the reality is located behind. A technique that enables the visual recognition of an object is described.

特開2016-4493号公報Japanese Unexamined Patent Publication No. 2016-4493

一方で、従前の技術では、現実の物体(現実物体)とユーザとの位置関係により現実物体に対して反射の像が映り込む範囲内に仮想の物体(仮想物体)がある場合、現実物体の形状情報のみを描画の判定基準としているため、現実物体が反射性を有していたとしても、現実物体の反射性に関わらず、現実物体に対して仮想物体の像を描画しない手法が採用されている。このような自然法則に反する現象は、あたかも伝説上の吸血鬼が実像は見えるものの鏡には鏡像が映らずに、吸血鬼と見破られてしまうかのごとく、複合現実を体験中のユーザに不自然な印象を与えてしまう。 On the other hand, in the conventional technology, when there is a virtual object (virtual object) within the range where the image of reflection is reflected on the real object due to the positional relationship between the real object (real object) and the user, the real object Since only the shape information is used as the criterion for drawing, even if the real object has reflectivity, a method of not drawing the image of the virtual object on the real object is adopted regardless of the reflectivity of the real object. ing. Such a phenomenon that violates the laws of nature is unnatural for users who are experiencing mixed reality, as if the legendary vampire could see the real image but the mirror image would not be reflected in the mirror and it would be perceived as a vampire. It gives an impression.

本発明は、現実の物体の反射性が事前に分からない状況でも、反射性を有する現実の物体に対して仮想の物体の像を描画して仮想の物体が実在するかのような体験を可能にすることを目的とする。 The present invention enables an experience as if a virtual object actually exists by drawing an image of a virtual object on a real object having reflectivity even in a situation where the reflectivity of the real object is not known in advance. The purpose is to.

請求項1に記載の発明は、現実の物体を撮像した画像から当該現実の物体の反射性の情報を推定する推定手段と、反射性を有すると推定された前記現実の物体とユーザとの位置関係により当該現実の物体に対して反射の像が映り込む範囲内に仮想の物体がある場合に、推定された反射性の情報に基づいて当該仮想の物体の像を生成する生成手段と、前記現実の物体に対して前記仮想の物体の像を描画する描画手段とを有し、前記推定手段は、現実の光源の位置と推定の対象に定めた前記現実の物体の表面の傾きとの関係から、当該現実の光源からの光が推定の対象に定めた当該現実の物体によって反射されると反射された反射光が照射する位置であり、当該現実の光源からの光が直接照射する位置であると特定される位置に明部が存在する場合、推定の対象に定めた当該現実の物体は反射性を有すると推定することを特徴とする情報処理システムである。
請求項2に記載の発明は、前記推定手段は、前記特定される位置の輝度と当該特定される位置の周囲の輝度との差が大きいほど、前記現実の物体の反射率が大きいと推定することを特徴とする請求項1に記載の情報処理システムである
求項に記載の発明は、コンピュータを、現実の物体を撮像した画像から当該現実の物体の反射性の情報を推定する推定手段と、反射性を有すると推定された前記現実の物体とユーザとの位置関係により当該現実の物体に対して反射の像が映り込む範囲内に仮想の物体がある場合に、推定された反射性の情報に基づいて当該仮想の物体の像を生成する生成手段と、前記現実の物体に対して前記仮想の物体の像を描画する描画手段として機能させ、前記推定手段は、現実の光源の位置と推定の対象に定めた前記現実の物体の表面の傾きとの関係から、当該現実の光源からの光が推定の対象に定めた当該現実の物体によって反射されると反射された反射光が照射する位置であり、当該現実の光源からの光が直接照射する位置であると特定される位置に明部が存在する場合、推定の対象に定めた当該現実の物体は反射性を有すると推定することを特徴とするプログラムである。
The invention according to claim 1 is an estimation means for estimating information on the reflectivity of a real object from an image obtained by capturing an image of the real object, and a position between the real object estimated to have reflectivity and a user. When there is a virtual object within the range where the image of reflection is reflected on the real object due to the relationship, the generation means for generating the image of the virtual object based on the estimated reflectivity information and the above-mentioned It has a drawing means for drawing an image of the virtual object with respect to a real object, and the estimation means has a relationship between the position of a real light source and the inclination of the surface of the real object defined as an estimation target. Therefore, when the light from the real light source is reflected by the real object defined as the estimation target, it is the position where the reflected reflected light irradiates, and at the position where the light from the real light source directly irradiates. It is an information processing system characterized in that when a bright part exists at a position specified as being, it is estimated that the actual object defined as an estimation target has reflectivity .
According to the second aspect of the present invention, the estimation means estimates that the larger the difference between the brightness of the specified position and the brightness around the specified position, the greater the reflectance of the actual object. The information processing system according to claim 1, wherein the information processing system is characterized by the above .
The invention according to claim 3 comprises a computer, an estimation means for estimating information on the reflectivity of a real object from an image obtained by capturing an image of the real object, and the real object presumed to have reflectivity. Generation that generates an image of the virtual object based on the estimated reflectivity information when there is a virtual object within the range where the image of reflection is reflected on the real object due to the positional relationship with the user. The means and the estimation means are made to function as a drawing means for drawing an image of the virtual object on the real object, and the estimation means is the position of the actual light source and the inclination of the surface of the real object defined as the estimation target. In relation to the above, when the light from the real light source is reflected by the real object defined as the estimation target, it is the position where the reflected reflected light irradiates, and the light from the real light source directly irradiates. It is a program characterized in that when a bright part exists at a position specified as a position to be estimated, the actual object defined as an estimation target is estimated to have reflectivity .

請求項1記載の発明によれば、現実の物体の反射性が事前に分からない状況でも、反射性を有する現実の物体に対して仮想の物体の像を描画して仮想の物体が実在するかのような体験を可能にできる。
請求項2記載の発明によれば、現実の物体の反射性が事前に分からない状況でも、反射性を有する現実の物体に対して仮想の物体の像を描画して仮想の物体が実在するかのような体験を可能にできる。
請求項3記載の発明によれば、現実の物体の反射性が事前に分からない状況でも、反射性を有する現実の物体に対して仮想の物体の像を描画して仮想の物体が実在するかのような体験を可能にできる
According to the invention of claim 1, even in a situation where the reflectivity of a real object is not known in advance, is the virtual object actually existing by drawing an image of a virtual object with respect to the real object having reflectivity? You can enable an experience like this.
According to the invention of claim 2, even in a situation where the reflectivity of a real object is not known in advance, is the virtual object actually existing by drawing an image of a virtual object with respect to the real object having reflectivity? You can enable an experience like this.
According to the invention of claim 3, even in a situation where the reflectivity of the real object is not known in advance, is the virtual object actually existing by drawing an image of the virtual object with respect to the real object having the reflectivity? You can enable an experience like this .

外界を透過的に視認可能なメガネ型の端末を装着したユーザが、複合現実を体感する原理を説明する図である。It is a figure explaining the principle that a user wearing a glasses-type terminal which can see through the outside world can experience mixed reality. メガネ型の端末のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware composition of the glasses type terminal. メガネ型の端末の機能構成の一例を示す図である。It is a figure which shows an example of the functional structure of a glasses-type terminal. メガネ型の端末で仮想物体の像を描画する場合に実行される処理動作の一例を説明するフローチャートである。It is a flowchart explaining an example of the processing operation executed when drawing the image of a virtual object with a glasses-type terminal. 反射性の推定に用いる手法の一例を説明する図である。(A)は現実物体の位置関係を示し、(B)は現実物体、眼球の位置関係を示す。It is a figure explaining an example of the method used for the estimation of the reflectivity. (A) shows the positional relationship of the real object, and (B) shows the positional relationship of the real object and the eyeball. 反射性の推定に用いる手法の他の一例を説明する図である。It is a figure explaining another example of the method used for the estimation of the reflectivity. 反射性の推定に用いる手法の他の一例を説明する図である。It is a figure explaining another example of the method used for the estimation of the reflectivity. 現実物体において仮想物体の像が映り込む反射領域を説明する図である。(A)は現実物体と仮想物体の位置の関係を示し、(B)は仮想物体の像が映り込む現実物体の反射領域を示す。It is a figure explaining the reflection area which the image of the virtual object is reflected in the real object. (A) shows the relationship between the positions of the real object and the virtual object, and (B) shows the reflection area of the real object in which the image of the virtual object is reflected. 従前の技術による描画と本実施の形態による描画との違いを説明する図である。(A)は従前の技術による描画例であり、(B)は本実施の形態による描画例である。It is a figure explaining the difference between the drawing by the conventional technique and the drawing by this embodiment. (A) is a drawing example by the conventional technique, and (B) is a drawing example by the present embodiment. 現実物体の反射率の違いが仮想物体の像の描画に与える影響を説明する図である。(A)は現実物体の反射率が高い場合の仮想物体の像の描画例であり、(B)は現実物体の反射率が低い場合の仮想物体の像の描画例である。It is a figure explaining the influence which the difference in the reflectance of a real object has on the drawing of the image of a virtual object. (A) is an example of drawing an image of a virtual object when the reflectance of a real object is high, and (B) is an example of drawing an image of a virtual object when the reflectance of a real object is low. 現実物体の色の違いが仮想物体の像の描画に与える影響を説明する図である。(A)は現実物体に薄い青色が付されている場合の仮想物体の像の描画例であり、(B)は現実物体に薄い赤色が付されている場合の仮想物体の像の描画例である。It is a figure explaining the influence which the difference in color of a real object has on the drawing of the image of a virtual object. (A) is an example of drawing an image of a virtual object when the real object is colored in light blue, and (B) is an example of drawing an image of a virtual object when the real object is colored in light red. be. 現実物体に付されている模様の違いが仮想物体の像の描画に与える影響を説明する図である。(A)は現実物体の表面に対角線方向に延びる斜線が形成されている場合の仮想物体の像の描画例であり、(B)は現実物体の表面に網目状の模様が形成されている場合の仮想物体の像の描画例である。It is a figure explaining the influence which the difference of the pattern attached to a real object has on the drawing of the image of a virtual object. (A) is an example of drawing an image of a virtual object when a diagonal line extending diagonally is formed on the surface of the real object, and (B) is a case where a mesh pattern is formed on the surface of the real object. It is a drawing example of the image of the virtual object of. 現実物体の形状の違いが仮想物体の像の描画に与える影響を説明する図である。(A)は平板形状の現実物体における仮想物体の像の描画例であり、(B)は円筒形状の現実物体における仮想物体の像の描画例である。It is a figure explaining the influence which the difference in the shape of a real object has on the drawing of the image of a virtual object. (A) is an example of drawing an image of a virtual object in a flat plate-shaped real object, and (B) is an example of drawing an image of a virtual object in a cylindrical real object. 現実物体が置かれている角度の違いが仮想物体の像の描画に与える影響を説明する図である。(A)は平板形状の現実物体が垂直面に対して平行に置かれている場合の仮想物体の像の描画例であり、(B)は平板形状の現実物体が垂直面に対して斜めに置かれている場合の仮想物体の像の描画例である。It is a figure explaining the influence which the difference of the angle on which a real object is placed has on the drawing of the image of a virtual object. (A) is an example of drawing an image of a virtual object when a flat plate-shaped real object is placed parallel to a vertical plane, and (B) is an example of drawing a flat plate-shaped real object diagonally to a vertical plane. This is an example of drawing an image of a virtual object when it is placed. 現実物体における反射光の偏光に関する情報の違いが仮想物体の像の描画に与える影響を説明する図である。(A)は現実物体における反射光の偏光の影響を考慮しない場合を示し、(B)は現実物体における反射光の偏光の影響を考慮する場合を示す。It is a figure explaining the influence which the difference of the information about the polarization of the reflected light in a real object has on the drawing of the image of a virtual object. (A) shows a case where the influence of the polarization of the reflected light on a real object is not taken into consideration, and (B) shows a case where the influence of the polarization of the reflected light on a real object is taken into consideration. 現実物体で全反射が発生する場合と発生しない場合を説明する図である。(A)は全反射が発生しない場合の眼球、現実物体、仮想物体の位置関係を示し、(B)は全反射が発生する場合の眼球、現実物体、仮想物体の位置関係を示す。It is a figure explaining the case where total reflection occurs and the case where total reflection does not occur in a real object. (A) shows the positional relationship of the eyeball, the real object, and the virtual object when total reflection does not occur, and (B) shows the positional relationship of the eyeball, the real object, and the virtual object when total reflection occurs. 現実物体が複数の場合における仮想物体の像の描画例を説明する図である。(A)は現実物体と仮想物体との位置関係を示し、(B)はユーザによって知覚される複合現実を示す図である。It is a figure explaining the drawing example of the image of the virtual object in the case of a plurality of real objects. (A) is a diagram showing the positional relationship between a real object and a virtual object, and (B) is a diagram showing a mixed reality perceived by the user. 複合現実の体験に、実時間で撮像される外界の画像に仮想物体を合成した画像を表示する表示装置を装着したユーザが、複合現実を体感する原理を説明する図である。It is a figure explaining the principle that the user who wears the display device which displays the image which combined the virtual object with the image of the outside world imaged in real time in the experience of mixed reality, experiences the mixed reality. 表示装置の機能構成の一例を示す図である。It is a figure which shows an example of the functional structure of a display device.

以下、図面を参照して、本発明の実施の形態を説明する。
<実施の形態1>
本実施の形態では、複合現実の体験に、外界を透過的に視認可能なメガネ型の端末を使用する場合について説明する。
図1は、外界を透過的に視認可能なメガネ型の端末1を装着したユーザが、複合現実を体感する原理を説明する図である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<Embodiment 1>
In the present embodiment, a case where a glasses-type terminal that can transparently see the outside world is used for the experience of mixed reality will be described.
FIG. 1 is a diagram illustrating a principle that a user wearing a glasses-type terminal 1 that can transparently see the outside world experiences mixed reality.

この種の端末1のハードウェア部分は、既に複数のメーカによって実用化されている。例えばマイクロソフト社のHoloLens(商標)、ソニー社のSmartEyeglass(商標)、コニカミノルタ社のウェアラブルコミュニケーター(商標)がある。この種の端末1は、透過型デバイス、網膜投射型デバイス等とも呼ばれる。
図1に示すメガネ型の端末1は、透明度が高い導光板2と、画像を表示する小型の表示部3と、仮想の物体(仮想物体11)を描画する仮想物体描画部4とを有している。
ここでのメガネ型の端末1は、情報処理装置の一例であるとともに情報処理システムの一例でもある。また、仮想物体描画部4は、生成手段、描画手段の一例である。
The hardware portion of this type of terminal 1 has already been put into practical use by a plurality of manufacturers. For example, Microsoft's HoloLens ™, Sony's SmartEyeglass ™, and Konica Minolta's Wearable Communicator ™. This type of terminal 1 is also called a transmissive device, a retinal projection device, or the like.
The glasses-type terminal 1 shown in FIG. 1 has a light guide plate 2 having high transparency, a small display unit 3 for displaying an image, and a virtual object drawing unit 4 for drawing a virtual object (virtual object 11). ing.
The glasses-type terminal 1 here is an example of an information processing device and also an example of an information processing system. Further, the virtual object drawing unit 4 is an example of a generation means and a drawing means.

導光板2は、例えば85%以上の透明度を有する部材で構成され、その内部には、不図示の可視光透過型回折格子が配置されている。可視光透過型回折格子には、例えばホログラフィック回折格子が用いられる。
可視光透過型回折格子は、導光板2の前方から入射する外光B1を直線的に透過してユーザの眼球5に導くように作用する。一方で、可視光透過型回折格子は、表示部3から導光板2に入射した表示光B2を屈折させて導光板2の内部を伝搬させ、その後、眼球5の方向に表示光B2を屈折させるように作用する。
外光B1と表示光B2は、眼球5内で合成される。この結果、端末1を装着したユーザは、現実の物体(現実物体12)に仮想の物体(仮想物体11)を合成した複合現実の風景を知覚する。因みに、図1の例では、仮想物体11が現実物体12よりも手前側に位置している。
The light guide plate 2 is made of, for example, a member having a transparency of 85% or more, and a visible light transmission type diffraction grating (not shown) is arranged inside the light guide plate 2. For the visible light transmission type diffraction grating, for example, a holographic diffraction grating is used.
The visible light transmission type diffraction grating acts to linearly transmit the external light B1 incident from the front of the light guide plate 2 and guide it to the user's eyeball 5. On the other hand, the visible light transmission type diffraction grating refracts the display light B2 incident on the light guide plate 2 from the display unit 3 to propagate inside the light guide plate 2, and then refracts the display light B2 in the direction of the eyeball 5. It works like that.
The external light B1 and the display light B2 are combined in the eyeball 5. As a result, the user wearing the terminal 1 perceives a mixed reality landscape in which a virtual object (virtual object 11) is synthesized with a real object (real object 12). Incidentally, in the example of FIG. 1, the virtual object 11 is located on the front side of the real object 12.

<メガネ型の端末1のハードウェア構成>
図2は、メガネ型の端末1のハードウェア構成の一例を示す図である。
図2に示す端末1は、プログラム(基本ソフトウェアを含む)の実行を通じて装置全体を制御するCPU(Central Processing Unit)21と、BIOS(Basic Input Output System)や基本ソフトウェア等のプログラムを記憶するROM22と、プログラムの実行領域として使用されるRAM(Random Access Memory)23と、を有している。
ROM22は、例えば電気的にデータの書き換えが可能な不揮発性の半導体メモリで構成される。
CPU21、ROM22、RAM23は、コンピュータ20として機能する。
<Hardware configuration of glasses-type terminal 1>
FIG. 2 is a diagram showing an example of the hardware configuration of the glasses-type terminal 1.
The terminal 1 shown in FIG. 2 includes a CPU (Central Processing Unit) 21 that controls the entire device through execution of a program (including basic software), and a ROM 22 that stores programs such as a BIOS (Basic Input Output System) and basic software. , A RAM (Random Access Memory) 23 used as a program execution area.
The ROM 22 is composed of, for example, a non-volatile semiconductor memory in which data can be electrically rewritten.
The CPU 21, ROM 22, and RAM 23 function as a computer 20.

コンピュータ20には、仮想の物体を表示する表示部3L及び3Rと、外界を撮像するカメラ24L及び24Rと、角度、角速度、加速度等の慣性情報を計測する慣性計測センサ25と、現実の物体までの距離を測定する深度センサ26と、周囲の明るさを検知する照度センサ27と、外部との通信に用いられる無線通信部28と、が接続されている。
左目用の表示部3Lには、左目用の画像が表示され、右目用の表示部3Rには、右目用の画像が表示される。左目用の画像と右目用の画像には視差が再現されている。このため、端末1を装着したユーザは、仮想物体11を立体視できる。
The computer 20 includes display units 3L and 3R that display virtual objects, cameras 24L and 24R that capture the outside world, inertial measurement sensors 25 that measure inertial information such as angles, angular speeds, and accelerations, and even real objects. A depth sensor 26 for measuring the distance of the object, an illuminance sensor 27 for detecting the brightness of the surroundings, and a wireless communication unit 28 used for communication with the outside are connected.
An image for the left eye is displayed on the display unit 3L for the left eye, and an image for the right eye is displayed on the display unit 3R for the right eye. Parallax is reproduced in the image for the left eye and the image for the right eye. Therefore, the user wearing the terminal 1 can see the virtual object 11 stereoscopically.

カメラ24Lはユーザの左目側に配置され、カメラ24Rはユーザの右目側に配置される。カメラ24L及び24Rによって、端末1の周囲がステレオ撮影される。カメラ24L及び24Rで撮像された画像は、現実の物体の認識や現実の物体の表面までの距離の測定に用いられる。なお、現実の物体までの距離の測定に用いるカメラと、現実の物体の認識に用いられるカメラは、それぞれ別に用意されてもよい。
慣性計測センサ25は、頭の位置や向きの計測に用いられ、視線の追跡などに使用される。
深度センサ26は、赤外線や超音波を使用して現実空間に存在する物体までの距離を計測する。
The camera 24L is arranged on the left eye side of the user, and the camera 24R is arranged on the right eye side of the user. The surroundings of the terminal 1 are photographed in stereo by the cameras 24L and 24R. The images captured by the cameras 24L and 24R are used for recognizing a real object and measuring the distance to the surface of the real object. A camera used for measuring the distance to a real object and a camera used for recognizing a real object may be prepared separately.
The inertial measurement sensor 25 is used for measuring the position and orientation of the head, and is used for tracking the line of sight.
The depth sensor 26 measures the distance to an object existing in the real space by using infrared rays or ultrasonic waves.

<メガネ型の端末1の機能構成>
図3は、メガネ型の端末1の機能構成の一例を示す図である。
図3に示す機能構成は、CPU21によるプログラムの実行を通じて実現される。
図3に示す機能構成は、プログラムの実行を通じて実現される各種の機能のうち、現実の物体とユーザとの位置関係により現実の物体に対して反射の像が映り込む範囲内に仮想の物体がある場合の複合現実空間をユーザに知覚させる機能について表している。
<Functional configuration of glasses-type terminal 1>
FIG. 3 is a diagram showing an example of the functional configuration of the glasses-type terminal 1.
The functional configuration shown in FIG. 3 is realized through the execution of a program by the CPU 21.
In the functional configuration shown in FIG. 3, among various functions realized through the execution of the program, a virtual object is within the range in which the image of reflection is reflected on the real object due to the positional relationship between the real object and the user. It describes the function of making the user perceive the complex real space in a certain case.

図3の場合、CPU21は、カメラ24L及び24Rによって撮像される画像から現実空間の情報を取得する現実空間情報取得部31と、撮像された画像に基づいて現実物体12(図1参照)の反射性を推定する現実物体反射性推定部32と、現実物体12の反射性についての情報(以下、反射情報と称する)を取得する現実物体反射情報取得部33と、眼球5(図1参照)の位置を基準として、反射性を有する現実物体12において仮想物体11(図1参照)の像が映り込む領域(以下、反射領域と称する)を判定する現実物体反射領域判定部34と、表示部3L及び3R(図2参照)に仮想物体11及び仮想物体11の像を描画する仮想物体描画部4とを有している。 In the case of FIG. 3, the CPU 21 has a real space information acquisition unit 31 that acquires real space information from images captured by the cameras 24L and 24R, and a reflection of a real object 12 (see FIG. 1) based on the captured images. A real object reflection estimation unit 32 for estimating sex, a real object reflection information acquisition unit 33 for acquiring information about the reflectivity of the real object 12 (hereinafter referred to as reflection information), and an eyeball 5 (see FIG. 1). A real object reflection area determination unit 34 for determining a region (hereinafter referred to as a reflection region) in which an image of a virtual object 11 (see FIG. 1) is reflected in a real object 12 having reflectivity based on a position, and a display unit 3L. And 3R (see FIG. 2) have a virtual object 11 and a virtual object drawing unit 4 for drawing an image of the virtual object 11.

現実空間情報取得部31は、撮像された画像から現実空間に関する様々な情報を取得し、現実空間情報41としてRAM23に保存する。
現実空間情報41として保存される情報の種類は、メガネ型の端末1を使用する場面や用途によって異なる。
ただし、情報の種類が増えることで、複合現実空間における体験を、現実空間の体験に近づけることができる。
本実施の形態の場合、現実空間情報41には、実時間で追加される現実物体12に関する情報に加え、事前に与えられた又は事前に取得された現実物体12に関する情報も含まれる。
The real space information acquisition unit 31 acquires various information about the real space from the captured image and stores it in the RAM 23 as the real space information 41.
The type of information stored as the real space information 41 differs depending on the situation and application in which the glasses-type terminal 1 is used.
However, by increasing the types of information, it is possible to bring the experience in mixed reality space closer to the experience in real space.
In the case of the present embodiment, the real space information 41 includes not only the information about the real object 12 added in real time but also the information about the real object 12 given or acquired in advance.

現実物体12に関する情報は、撮像された画像から推定(計算)される場合もあれば、現実物体12毎に既知の情報としてRAM23の不揮発性領域に保存されている場合もある。
撮像された画像から推定される情報には、色情報のように撮像された画像から直接的に取得可能な情報もあれば、後述する手法などを用いて推定される情報もある。
RAM23の不揮発性領域には、例えば現実物体12の反射性を有する部分の全てに適用される情報(反射情報の代表値や反射情報を計算により求めるための式を含む)が記憶される。なお、RAM23の不揮発性領域には、反射性を有する部分別の情報が記憶されていてもよい。
そして、本実施の形態における現実空間情報取得部31は、RAM23から、画像認識によって特定された個々の現実物体12に関する情報を取得する。
The information about the real object 12 may be estimated (calculated) from the captured image, or may be stored in the non-volatile area of the RAM 23 as known information for each real object 12.
The information estimated from the captured image includes information that can be directly acquired from the captured image such as color information, and information estimated by using a method described later.
In the non-volatile region of the RAM 23, for example, information applied to all of the reflective portions of the real object 12 (including a representative value of the reflection information and a formula for calculating the reflection information) is stored. In the non-volatile region of the RAM 23, information for each portion having reflexivity may be stored.
Then, the real space information acquisition unit 31 in the present embodiment acquires information about each real object 12 specified by image recognition from the RAM 23.

また、RAM23に記憶される情報には、ある現実物体12に他の現実物体12の像が映り込む場合の見え方を再現する数種類のフィルタの情報が含まれてもよい。個々のフィルタは、反射特性(例えば、後述する反射率、正反射率、拡散反射率、光沢度、反射光の偏光に関する情報など)の項目のうちの1つの項目、又は複数の項目の組み合わせで与えられる。
さらに、本実施の形態に係る現実空間情報取得部31には、これらのフィルタを取得する機能が設けられていてもよい。フィルタは、例えば、ある現実物体12に他の現実物体12の像が映り込んでいる場合に、その像が映り込んだ部分を撮像することによって取得される。ここでのフィルタは、反射情報の一例である。
そして、現実物体12とユーザ(眼球5)との位置関係により現実物体12に反射の像が映り込む範囲内に仮想物体11がある場合には、その現実物体12のフィルタを反映した仮想物体11の像を描画することにより、現実の物体が像として映り込むのと同様に描画される。
Further, the information stored in the RAM 23 may include information of several types of filters that reproduce the appearance when an image of another real object 12 is reflected on a certain real object 12. Each filter is a combination of one or more items of reflection characteristics (eg, reflectance, normal reflectance, diffuse reflectance, glossiness, information on polarization of reflected light, etc.) described below. Given.
Further, the real space information acquisition unit 31 according to the present embodiment may be provided with a function of acquiring these filters. The filter is acquired, for example, by imaging a portion of a real object 12 in which an image of another real object 12 is reflected. The filter here is an example of reflection information.
Then, if the virtual object 11 is within the range in which the reflection image is reflected on the real object 12 due to the positional relationship between the real object 12 and the user (eyeball 5), the virtual object 11 reflecting the filter of the real object 12 is reflected. By drawing the image of, it is drawn in the same way as a real object is reflected as an image.

現実物体12に関する情報には、例えば個別の物体(人を含む)の情報、ユーザが位置する現実空間の情報、ユーザの位置から画像内の各位置までの距離の情報、光源に関する情報、撮像に関する情報などが含まれる。
ここで、個別の物体の情報には、例えば形状、色調、材質、模様、現実空間内での位置を特定する情報、反射性に関する各種の情報を与える反射情報が含まれる。物体の認識には、既存の技術を使用する。例えばエッジや色領域を特徴量として検出する手法が用いられる。物体の認識には、人工知能を用いてもよい。
撮像に関する情報には、現実の空間内におけるカメラ24L及び24Rの位置の情報、現実の空間内におけるカメラ24L及び24Rの移動の方向、現実の空間内におけるカメラ24L及び24Rが撮像する向きの情報等が含まれる。なお、カメラ24L及び24Rによって撮像された画像には、撮像の日時に関する情報なども付属する。
The information about the real object 12 includes, for example, information about an individual object (including a person), information about the real space where the user is located, information about the distance from the user's position to each position in the image, information about the light source, and imaging. Information etc. are included.
Here, the information of an individual object includes, for example, a shape, a color tone, a material, a pattern, information for specifying a position in a real space, and reflection information for giving various information regarding reflectivity. Existing techniques are used to recognize objects. For example, a method of detecting an edge or a color region as a feature amount is used. Artificial intelligence may be used for recognizing an object.
The information related to imaging includes information on the positions of the cameras 24L and 24R in the actual space, the direction of movement of the cameras 24L and 24R in the actual space, information on the direction in which the cameras 24L and 24R are imaged in the actual space, and the like. Is included. Information regarding the date and time of imaging is also attached to the images captured by the cameras 24L and 24R.

また、反射情報には、例えば、現実物体12の反射特性、現実物体12において反射性を有する部分と有しない部分の情報、反射性を有する部分の色調、模様、形状、反射光の偏光に関する情報、現実空間内での位置を特定する情報等が含まれる。
ここで、反射には、一般に、正反射と拡散反射が存在する。正反射とは、拡散がない反射であり、入射光が一定の方向に反射するものである。拡散反射とは、肉眼で見えるような正反射がない反射であり、入射光が様々な方向に反射するものである。例えば鏡の場合、極めて平滑な鏡面の全ての位置で正反射が起こることで、元の物体の像を正確に見ることができる。一方、例えば紙や布のような表面がざらざらした物体では拡散反射が起こり、入射した光が表面の微細な凹凸により様々な方向に反射するため、像が崩れてしまい、元の物体の形がわからない状態になる。
Further, the reflection information includes, for example, the reflection characteristics of the real object 12, information on the portion having and not having reflection in the real object 12, information on the color tone, pattern, shape, and polarization of the reflected light of the portion having reflection. , Information that identifies the position in the real space, etc. are included.
Here, the reflection generally includes specular reflection and diffuse reflection. Specular reflection is reflection without diffusion, and incident light is reflected in a certain direction. Diffuse reflection is reflection that does not have specular reflection as seen by the naked eye, and incident light is reflected in various directions. For example, in the case of a mirror, specular reflection occurs at all positions on an extremely smooth mirror surface, so that the image of the original object can be seen accurately. On the other hand, diffuse reflection occurs in an object with a rough surface such as paper or cloth, and the incident light is reflected in various directions due to the fine irregularities on the surface, so that the image is distorted and the original shape of the object is changed. I don't know.

そこで、本実施の形態において、反射性を有する現実物体12とは、表面に他の現実の物体の像が映り込むような反射性、言い換えると、正反射が起こる鏡面的な反射性を有する現実物体12をいうものとする。また、反射情報に含まれる反射特性には、例えば、現実物体12の反射率や、正反射率、拡散反射率、光沢度、反射光の偏光に関する情報等が含まれる。反射率とは、物体に入射した放射束又は光束に対する、反射した放射束又は光束の比である。正反射率とは、反射放射束又は光束のうちの正反射成分の、入射放射束又は光束に対する比である。拡散反射率とは、反射放射束又は光束のうちの拡散反射成分の、入射放射束又は光束に対する比である。光沢度とは、正反射光の割合や、拡散反射光の方向分布などに注目して、物体表面の光沢の程度を一次元的に表す指標である。 Therefore, in the present embodiment, the reflective real object 12 is a reality having a reflectivity such that an image of another real object is reflected on the surface, in other words, a mirror surface reflectivity in which normal reflection occurs. It shall refer to the object 12. Further, the reflection characteristics included in the reflection information include, for example, information on the reflectance of the real object 12, the normal reflectance, the diffuse reflectance, the glossiness, the polarization of the reflected light, and the like. Reflectance is the ratio of the reflected radiant flux or luminous flux to the radiant flux or luminous flux incident on the object. The normal reflectance is the ratio of the normal reflection component of the reflected radiant flux or the luminous flux to the incident radiant flux or the luminous flux. Diffuse reflectance is the ratio of the diffuse reflection component of the reflected radiant flux or the luminous flux to the incident radiant flux or the luminous flux. The glossiness is an index that one-dimensionally expresses the degree of gloss on the surface of an object by paying attention to the ratio of specularly reflected light and the directional distribution of diffusely reflected light.

なお、正反射率や光沢度は、現実物体12の表面に他の現実の物体の像が映り込むような反射性(正反射が起こる鏡面的な反射性)の度合として捉えることができる。例えば、現実物体12の正反射率の値が100%であれば、現実物体12の表面に映り込む像をより正確に見ることができるが、正反射率の値が低下するにつれて(即ち、拡散反射率が増加するにつれて)像が崩れてしまい、ぼやけて見えてしまう。
付言すると、反射性を有する現実物体12とは、例えば、反射率(及び、正反射率、拡散反射率、光沢度など)が予め定められた閾値を超える現実物体12である。
The positive reflectance and the glossiness can be regarded as the degree of reflectivity (specular reflectivity in which normal reflection occurs) such that an image of another real object is reflected on the surface of the real object 12. For example, if the value of the positive reflectance of the real object 12 is 100%, the image reflected on the surface of the real object 12 can be seen more accurately, but as the value of the positive reflectance decreases (that is, diffusion). (As the reflectance increases), the image collapses and looks blurry.
In addition, the reflective real object 12 is, for example, a real object 12 whose reflectance (and specular reflectance, diffuse reflectance, glossiness, etc.) exceeds a predetermined threshold.

なお、反射情報は、画像の処理を通じて推定される場合もあれば、事前に与えられる場合もある。反射性を推定する手法には、現実物体12の表面に現れる模様と他の現実物体12との関連性の発見による方法、人工知能によって特定された物体に対応する反射情報をデータベースから取得する方法等がある。データベースは、例えばクラウドネットワーク上の不図示のサーバに記憶されていてもよい。なお、特定された物体に対応する反射情報がデータベースに存在しない場合、人工知能は、特定された物体に対応する反射情報を、データベースに存在する類似する物品の情報に基づいて推定してもよい。
反射情報に含まれる個々の要素の組み合わせにより、物体の質感が変化する。
なお、現実空間情報41は、例えばクラウドネットワーク上の不図示のサーバに記憶されていてもよい。
The reflection information may be estimated through image processing or may be given in advance. The method of estimating the reflectivity includes a method of discovering the relationship between the pattern appearing on the surface of the real object 12 and another real object 12, and a method of acquiring the reflection information corresponding to the object specified by artificial intelligence from the database. And so on. The database may be stored in a server (not shown) on the cloud network, for example. If the reflection information corresponding to the specified object does not exist in the database, the artificial intelligence may estimate the reflection information corresponding to the specified object based on the information of the similar article existing in the database. ..
The texture of the object changes depending on the combination of individual elements included in the reflection information.
The real space information 41 may be stored in, for example, a server (not shown) on the cloud network.

本実施の形態における現実空間情報取得部31には、現実空間を模した3次元モデルを生成又は更新する機能(すなわち、現実空間を仮想化する機能)も設けられている。
現実空間情報取得部31は、現実空間から取得された複数の情報を仮想空間上で整合的に統合し、3次元モデルを生成又は更新する。ここでの3次元モデルは、現実空間仮想化情報42としてRAM23に記憶される。
現実空間を仮想化した空間(3次元モデル)に仮想物体11を配置したものが複合現実空間である。
The real space information acquisition unit 31 in the present embodiment is also provided with a function of generating or updating a three-dimensional model imitating the real space (that is, a function of virtualizing the real space).
The real space information acquisition unit 31 consistently integrates a plurality of information acquired from the real space in the virtual space, and generates or updates a three-dimensional model. The three-dimensional model here is stored in the RAM 23 as the real space virtualization information 42.
A mixed reality space is a space (three-dimensional model) in which a virtual object 11 is arranged in a virtual space (three-dimensional model).

本実施の形態における現実物体反射性推定部32は、例えば、推定の対象に定めた現実物体12の表面の画像と、現実物体12にて反射された方向の先に存在する物体の画像とを比較して、現実物体12の反射性を推定する。なお、現実物体反射性推定部32は、現実物体12の反射率や正反射率、光沢度、反射光の偏光に関する情報等の反射特性を推定する機能も有している。
ここでの現実物体反射性推定部32は、推定手段の一例である。
推定の結果は、推定の対象に定めた現実物体12に対応づけられた現実空間情報41の一部として保存される。
推定の精度は、現実空間情報41や現実空間仮想化情報42の集積に伴って向上する。
The real object reflectivity estimation unit 32 in the present embodiment has, for example, an image of the surface of the real object 12 defined as an estimation target and an image of an object existing ahead of the direction reflected by the real object 12. By comparison, the reflectivity of the real object 12 is estimated. The real object reflectivity estimation unit 32 also has a function of estimating the reflection characteristics such as the reflectance, the normal reflectance, the glossiness, and the information on the polarization of the reflected light of the real object 12.
The real object reflectivity estimation unit 32 here is an example of the estimation means.
The estimation result is stored as a part of the real space information 41 associated with the real object 12 defined as the estimation target.
The accuracy of estimation improves with the accumulation of real space information 41 and real space virtualization information 42.

本実施の形態における現実物体反射情報取得部33は、現実物体12の現実空間情報41から反射情報を取得する。
本実施の形態の場合、現実物体反射情報取得部33は、現実物体反射性推定部32によって反射性を有すると推定された現実物体12を、反射情報の取得の対象とする。
The real object reflection information acquisition unit 33 in the present embodiment acquires reflection information from the real space information 41 of the real object 12.
In the case of the present embodiment, the real object reflection information acquisition unit 33 targets the real object 12 estimated to have reflectivity by the real object reflectivity estimation unit 32 to acquire the reflection information.

本実施の形態における現実物体反射領域判定部34は、反射性を有する現実物体12において仮想物体11の像が映り込む領域である反射領域を判定する。付言すると、現実物体12に反射領域があると判定された場合は、現実物体12とユーザ(眼球5)との位置関係により現実物体12に対して反射の像が映り込む範囲内に仮想物体11があるものとして捉えることができる。
そして、現実物体12において仮想物体11の像が映り込むと判定された反射領域には、仮想物体描画部4によって、現実物体12の反射情報を反映した仮想物体11の情報が関連付けられる。ここでの仮想物体11の情報は、仮想物体11の像として描画される仮想物体11の情報である。即ち、仮想物体11のうち、現実物体12に映り込む部分の形状、色調、材質などの情報である。
The real object reflection area determination unit 34 in the present embodiment determines a reflection area, which is a region in which the image of the virtual object 11 is reflected in the real object 12 having reflectivity. In addition, when it is determined that the real object 12 has a reflection region, the virtual object 11 is within the range in which the reflection image is reflected on the real object 12 due to the positional relationship between the real object 12 and the user (eyeball 5). Can be regarded as something.
Then, the virtual object drawing unit 4 associates the information of the virtual object 11 that reflects the reflection information of the real object 12 with the reflection region where the image of the virtual object 11 is determined to be reflected in the real object 12. The information of the virtual object 11 here is the information of the virtual object 11 drawn as an image of the virtual object 11. That is, it is information such as the shape, color tone, and material of the portion of the virtual object 11 that is reflected in the real object 12.

なお、仮想物体11が配置される位置(3次元モデル内での位置)、形状、色調、材質などの情報は、仮想物体情報43として記憶されている。また、ユーザの眼球5の位置は、実測されるのではなく、端末1との関係で与えられる。
本実施の形態では、現実物体12の反射情報を反映した仮想物体11の情報を仮想物体像情報44という。仮想物体像情報44の内容は、端末1を装着しているユーザの移動、現実空間内での物体の移動、仮想物体11を配置する位置によっても変化する。
Information such as the position (position in the three-dimensional model) where the virtual object 11 is arranged, the shape, the color tone, and the material is stored as the virtual object information 43. Further, the position of the user's eyeball 5 is not actually measured, but is given in relation to the terminal 1.
In the present embodiment, the information of the virtual object 11 that reflects the reflection information of the real object 12 is referred to as virtual object image information 44. The content of the virtual object image information 44 also changes depending on the movement of the user wearing the terminal 1, the movement of the object in the real space, and the position where the virtual object 11 is arranged.

仮想物体描画部4は、現実空間仮想化情報42、仮想物体情報43、仮想物体像情報44を用い、表示部3L(図2参照)用の仮想物体11の画像及び仮想物体11の像の画像と、表示部3R(図2参照)用の仮想物体11の画像及び仮想物体11の像の画像を描画する。
本実施の形態における仮想物体描画部4は、仮想物体11の像が映り込む領域である現実物体12の反射領域も、描画の対象に含める。すなわち、仮想物体11に加えて、仮想物体11の像を描画の対象とする。
このように、反射性を有する現実物体12に仮想物体11の像が表示されることで、ユーザは、仮想物体11が現実物体12に映り込んでいることを知覚できる。この結果、従前の技術に比して、複合現実の現実感を高めることができる。
更に、本実施の形態における仮想物体描画部4は、反射性を有する現実物体12に映る仮想物体11の像の見え方をより現実に近づけるため、現実物体12の反射率、正反射率、色調、模様、形状等を仮想物体11の像の描画に反映させる。
The virtual object drawing unit 4 uses the real space virtualization information 42, the virtual object information 43, and the virtual object image information 44, and uses an image of the virtual object 11 and an image of the virtual object 11 for the display unit 3L (see FIG. 2). And the image of the virtual object 11 for the display unit 3R (see FIG. 2) and the image of the image of the virtual object 11 are drawn.
The virtual object drawing unit 4 in the present embodiment also includes the reflection area of the real object 12, which is the area where the image of the virtual object 11 is reflected, in the drawing target. That is, in addition to the virtual object 11, the image of the virtual object 11 is drawn.
By displaying the image of the virtual object 11 on the real object 12 having reflectivity in this way, the user can perceive that the virtual object 11 is reflected in the real object 12. As a result, the reality of mixed reality can be enhanced as compared with the conventional technique.
Further, the virtual object drawing unit 4 in the present embodiment has a reflectance, a normal reflectance, and a color tone of the real object 12 in order to make the appearance of the image of the virtual object 11 reflected on the reflective real object 12 closer to reality. , Pattern, shape, etc. are reflected in the drawing of the image of the virtual object 11.

<メガネ型の端末1で実行される処理動作>
図4は、メガネ型の端末1で仮想物体11の像を描画する場合に実行される処理動作の一例を説明するフローチャートである。
図4に示す処理動作は、CPU21によるプログラムの実行を通じて実現される。なお、図中では、ステップを記号のSで表している。
<Processing operation executed by the glasses-type terminal 1>
FIG. 4 is a flowchart illustrating an example of a processing operation executed when drawing an image of a virtual object 11 on a glasses-type terminal 1.
The processing operation shown in FIG. 4 is realized through the execution of the program by the CPU 21. In the figure, the step is represented by the symbol S.

まず、CPU21は、現実空間の情報を取得する(ステップ1)。この処理により、CPU21は、端末1を装着しているユーザが導光板2を透して視認している現実物体12を認識する。
次に、CPU21は、認識された現実物体12の反射性を推定する(ステップ2)
反射性の推定処理は、反射性に関する情報が未知である現実物体12に限らず、以前に推定処理を行った現実物体12を対象に含めてもよい。
以前に推定処理の対象とした現実物体12でも、画像が取得される際の環境の違いにより、反射性に関する新たな情報を取得できる可能性があるからである。
なお、反射性を推定する処理は、仮想物体11を描画する処理とは独立に実行してもよい。
First, the CPU 21 acquires information in the real space (step 1). By this process, the CPU 21 recognizes the real object 12 that the user wearing the terminal 1 sees through the light guide plate 2.
Next, the CPU 21 estimates the reflectivity of the recognized real object 12 (step 2).
The reflectivity estimation process is not limited to the real object 12 whose information on the reflectivity is unknown, and may include the real object 12 for which the estimation process has been performed before.
This is because even the real object 12 previously targeted for the estimation process may be able to acquire new information regarding the reflectivity due to the difference in the environment when the image is acquired.
The process of estimating the reflectivity may be executed independently of the process of drawing the virtual object 11.

図5は、反射性の推定に用いる手法の一例を説明する図である。(A)は現実物体12A,12Bの位置関係を示し、(B)は現実物体12A,12B、眼球5(図1参照)の位置関係を示す。
図5の例では、CPU21は、現実物体12Aを反射性の推定対象として処理を行うものとする。そして、現実物体12Aは鏡であり、現実物体12Bは情報携帯端末である。また、現実物体12Aには、現実物体12Bの像12Cが映り込んでいる。
なお、(A)の場合、端末1を装着するユーザの眼球5は、紙面から手前方向に延びる法線上に位置している。
FIG. 5 is a diagram illustrating an example of a method used for estimating reflectivity. (A) shows the positional relationship between the real objects 12A and 12B, and (B) shows the positional relationship between the real objects 12A and 12B and the eyeball 5 (see FIG. 1).
In the example of FIG. 5, the CPU 21 performs processing with the real object 12A as the estimation target of the reflectivity. The real object 12A is a mirror, and the real object 12B is an information mobile terminal. Further, the image 12C of the real object 12B is reflected in the real object 12A.
In the case of (A), the eyeball 5 of the user who wears the terminal 1 is located on a normal line extending toward the front from the paper surface.

反射性の推定に際し、CPU21は、(B)に示すように、眼球5(又は端末1)の位置と、反射性の推定対象である現実物体12Aとの位置関係から、眼球5から現実物体12Aに向かう入射光と現実物体12Aで反射される反射光とのなす角度である反射角度を演算する。
ここで、CPU21は、現実空間情報41や現実空間仮想化情報42の情報(例えば個々の現実物体12について保存されている位置の情報)を用い、現実物体12Aの位置や現実物体12Aが置かれている角度などを把握して、反射角度を演算する。また、反射角度の演算は、眼球5からの入射光が反射される現実物体12Aの反射面51に対して行われる。さらに、反射角度の演算は、反射面51上の各点において行われる。
In estimating the reflectivity, as shown in (B), the CPU 21 has the eyeball 5 to the real object 12A based on the positional relationship between the position of the eyeball 5 (or the terminal 1) and the real object 12A which is the object of estimation of the reflectivity. The reflection angle, which is the angle between the incident light directed toward the object and the reflected light reflected by the real object 12A, is calculated.
Here, the CPU 21 uses the information of the real space information 41 and the real space virtualization information 42 (for example, the information of the position stored for each real object 12), and the position of the real object 12A and the real object 12A are placed. Calculate the reflection angle by grasping the angle of the object. Further, the calculation of the reflection angle is performed on the reflection surface 51 of the real object 12A to which the incident light from the eyeball 5 is reflected. Further, the calculation of the reflection angle is performed at each point on the reflection surface 51.

次に、CPU21は、現実物体12A(反射面51)からトレースし、現実物体12Aの表面に投影される位置に存在する物体を特定する。ここで、CPU21は、現実物体12Aの反射面51上の各点から反射角度の方向に向く先に存在する物体を特定する。ここでも、CPU21は、現実空間情報41や現実空間仮想化情報42の情報を用い、物体を特定する。
(A)に示す例では、現実物体12Aの反射面51上の5点からトレースした場合を示しており、現実物体12Aに投影される位置に存在する物体として、現実物体12Bが特定される。
Next, the CPU 21 traces from the real object 12A (reflection surface 51) and identifies an object existing at a position projected on the surface of the real object 12A. Here, the CPU 21 identifies an object existing in the direction of the reflection angle from each point on the reflection surface 51 of the real object 12A. Here, too, the CPU 21 identifies the object by using the information of the real space information 41 and the real space virtualization information 42.
The example shown in (A) shows a case of tracing from five points on the reflection surface 51 of the real object 12A, and the real object 12B is specified as an object existing at a position projected on the real object 12A.

次に、CPU21は、現実物体12Aの反射面51を撮像した画像と、現実物体12を撮像した画像とを解析し、反射面51の画像が現実物体12Bの画像と整合するか否かを判定する。ここでは、反射面51の画像を解析することにより、現実物体12Bの像12Cの画像が抽出される。また、像12Cからトレースすることにより、像12Cに対応する現実物体12Bの部分52が特定される。そして、反射面51の画像(像12Cの画像)から得られる形状と部分52の画像から得られる形状との間に高い類似性が認められる場合に、両者が整合すると判定される。なお、両者の形状の一致を要求しないのは、眼球5から直接見える現実物体12Bと現実物体12Aに映り込む現実物体12Bとは見え方が異なるためである。例えば、眼球5から現実物体12Bの表面が直接見えている場合には、現実物体12Aには現実物体12Bの裏面が映り込むことになる。 Next, the CPU 21 analyzes the image captured by the reflective surface 51 of the real object 12A and the image captured by the real object 12, and determines whether or not the image of the reflective surface 51 matches the image of the real object 12B. do. Here, by analyzing the image of the reflection surface 51, the image of the image 12C of the real object 12B is extracted. Further, by tracing from the image 12C, the portion 52 of the real object 12B corresponding to the image 12C is specified. Then, when a high similarity is observed between the shape obtained from the image of the reflecting surface 51 (the image of the image 12C) and the shape obtained from the image of the portion 52, it is determined that the two match. It should be noted that the reason why the matching of the shapes of the two is not required is that the appearance of the real object 12B directly seen from the eyeball 5 and the real object 12B reflected in the real object 12A are different. For example, when the front surface of the real object 12B is directly visible from the eyeball 5, the back surface of the real object 12B is reflected in the real object 12A.

図5の例では、像12Cの画像は長方形であり、この画像の長方形の各点からトレースして特定される現実物体12B(部分52)の形状も長方形である。よって、CPU21は、像12Cの画像と現実物体12Bの部分52の画像とは整合しており、現実物体12Aは反射性を有すると推定する。ここで、例えば、像12Cの画像の長辺と短辺との比、部分52の長辺と短辺との比を比較する等、画像から得られる要素を比較することにより、より正確に整合性を判定してもよい。
そして、本実施の形態の場合、現実物体12Aの反射面51全体が反射性を有すると推定される。もっとも、像12Cの画像が存在する領域に限り、反射性を有すると推定し、残りの領域についての反射性の有無は、他の機会に推定してもよい。
In the example of FIG. 5, the image of the image 12C is a rectangle, and the shape of the real object 12B (part 52) identified by tracing from each point of the rectangle of this image is also a rectangle. Therefore, the CPU 21 estimates that the image of the image 12C matches the image of the portion 52 of the real object 12B, and that the real object 12A has reflectivity. Here, for example, by comparing the elements obtained from the image, such as comparing the ratio between the long side and the short side of the image of the image 12C and the ratio between the long side and the short side of the portion 52, the matching is more accurate. The sex may be determined.
Then, in the case of the present embodiment, it is estimated that the entire reflecting surface 51 of the real object 12A has reflectivity. However, it is estimated that the image 12C has reflectivity only in the region where the image exists, and the presence or absence of reflectivity in the remaining region may be estimated at another opportunity.

また、CPU21は、反射率や正反射率、光沢度、反射光の偏光に関する情報などの反射特性も推定する。
例えば、CPU21は、像12Cの画像を処理対象として、この画像の明るさや色の濃さ、ぼやけた度合などを基に、反射面51の反射率や正反射率、光沢度などを計算することができる。例えば、CPU21は、像12Cの画像と現実物体12Bの画像とについて、2つの画像の明るさや色の濃さ、ぼやけた度合などを比較することにより、反射面51の反射率や正反射率、光沢度などを計算する。また、例えば反射率は、反射面51について得られた屈折率を、既知の公式に代入することにより計算可能である。なお、CPU21は、反射率や正反射率、光沢度を個別に出すのではなくて、反射率や正反射率、光沢度をまとめた反射特性の指標を計算してもよい。
さらに、例えば、現実物体12Aにおける反射光の偏光に関する情報を推定する手法としては、例えば、導光板2(図1参照)の前後に偏光フィルタを設けて現実物体12Aを撮像し、画像から得られる受光量(反射光の量)の変化を基に、偏光の強度、方向等を推定する手法が例示される。例えば、偏光フィルタを回転させた角度毎に、カメラ24L及び24R(図2参照)によって現実物体12Aを撮像する。そして、CPU21は、角度毎の画像を比較することにより、現実物体12Aにおける反射光の量の変化を判定して、現実物体12Aにおける反射光の偏光の強度、方向等を推定する。
The CPU 21 also estimates reflection characteristics such as reflectance, specular reflectance, glossiness, and information on the polarization of reflected light.
For example, the CPU 21 processes the image of the image 12C, and calculates the reflectance, specular reflectance, glossiness, etc. of the reflecting surface 51 based on the brightness, color depth, degree of blurring, etc. of this image. Can be done. For example, the CPU 21 compares the brightness of the two images, the color depth, the degree of blurring, etc. with respect to the image of the image 12C and the image of the real object 12B, thereby determining the reflectance and the normal reflectance of the reflecting surface 51. Calculate glossiness and so on. Further, for example, the reflectance can be calculated by substituting the refractive index obtained for the reflecting surface 51 into a known formula. The CPU 21 may calculate an index of the reflection characteristic that summarizes the reflectance, the regular reflectance, and the glossiness, instead of individually outputting the reflectance, the regular reflectance, and the glossiness.
Further, for example, as a method for estimating information regarding the polarization of the reflected light in the real object 12A, for example, a polarizing filter is provided in front of and behind the light guide plate 2 (see FIG. 1) to image the real object 12A, and the image is obtained from the image. An example is a method of estimating the intensity, direction, etc. of polarization based on the change in the amount of received light (the amount of reflected light). For example, the real object 12A is imaged by the cameras 24L and 24R (see FIG. 2) at each angle at which the polarization filter is rotated. Then, the CPU 21 determines the change in the amount of reflected light in the real object 12A by comparing the images for each angle, and estimates the intensity, direction, and the like of the polarization of the reflected light in the real object 12A.

さらに、ユーザがメガネ型の端末1を装着して移動し、その移動に合わせて現実空間情報41を保存することにより、現実空間情報41は蓄積されていく。そのため、図5の場合に、ユーザが移動して種々の方向からカメラ24L及び24R(図2参照)で撮像することにより、例えば、現実物体12Aに映り込む現実物体12Bの部分(例えば、現実物体12Bの裏面)を撮像して、現実空間情報41として保存している場合もあり得る。この場合には、CPU21は、パターンマッチング等により、像12Cの画像と現実物体12Bの画像とが整合するか否かの判定を行い、現実物体12Aの反射性をより正確に推定することができる。また、反射率や正反射率、光沢度などの反射特性の推定についても、像12Cの画像と現実物体12Aに映り込む現実物体12Bの部分とを比較することができ、両者の違いからより正確に反射特性を計算することができる。 Further, the user wears the glasses-type terminal 1 and moves, and the real space information 41 is stored in accordance with the movement, so that the real space information 41 is accumulated. Therefore, in the case of FIG. 5, the portion of the real object 12B (for example, the real object) reflected in the real object 12A, for example, by the user moving and taking images with the cameras 24L and 24R (see FIG. 2) from various directions. The back surface of 12B) may be imaged and stored as real space information 41. In this case, the CPU 21 can determine whether or not the image of the image 12C and the image of the real object 12B match by pattern matching or the like, and can estimate the reflectivity of the real object 12A more accurately. .. Further, regarding the estimation of the reflection characteristics such as the reflectance, the normal reflectance, and the glossiness, the image of the image 12C and the part of the real object 12B reflected on the real object 12A can be compared, and the difference between the two makes it more accurate. The reflection characteristics can be calculated.

図6は、反射性の推定に用いる手法の他の一例を説明する図である。図6で説明する推定の手法では、CPU21は、例えば現実物体12の表面に現れる内容が、現在の撮像の方向とは逆向きを撮像した際に撮像された画像の左右を入れ替えた画像と整合する場合、現実物体12の表面に現れる内容が鏡像であり、現実物体12は反射性を有すると推定する。この場合には、事前に現在の撮像の方向とは逆向きからカメラ24L及び24Rで撮像し、撮像した画像を現実空間情報41として保存しておくことが必要である。
図6の例では、眼球5の前面に現実物体12A~12Cが存在する。そして、CPU21は、現実物体12Aを反射性の推定対象として処理を行うものとする。現実物体12Aには、現実物体12Bの像12Dが映り込んでおり、また現実物体12Cの像12Eが映り込んでいる。
FIG. 6 is a diagram illustrating another example of the method used for estimating the reflectivity. In the estimation method described with reference to FIG. 6, the CPU 21 matches, for example, the content appearing on the surface of the real object 12 with an image in which the left and right sides of the image captured when the image is captured in the direction opposite to the current imaging direction are exchanged. In this case, it is presumed that the content appearing on the surface of the real object 12 is a mirror image, and the real object 12 has reflectivity. In this case, it is necessary to capture images with the cameras 24L and 24R in advance from the direction opposite to the current imaging direction, and save the captured images as real space information 41.
In the example of FIG. 6, the real objects 12A to 12C are present in front of the eyeball 5. Then, the CPU 21 performs processing with the real object 12A as the estimation target of the reflectivity. The image 12D of the real object 12B is reflected in the real object 12A, and the image 12E of the real object 12C is reflected in the real object 12A.

ここで、事前に、現在の撮像の方向とは逆向きをカメラ24L及び24Rで撮像しておくことにより、現実物体12Bで現実物体12Aに映り込んでいる部分の画像や、現実物体12Cで現実物体12Aに映り込んでいる部分の画像は、現実空間情報41として保存される。このような場合に、CPU21は、現実空間を模した3次元モデルにおいて、現実物体12Aの表面に投影される位置に存在する現実物体12B、12Cを特定する。そして、CPU21は、パターンマッチング等により、現実物体12Aの表面の画像と、現在の撮像の方向とは逆向きから撮像して得られた現実物体12B、12Cの画像とが整合するか否かを判定する。例えば、物理的な構造や色、模様などが一致する(又は、物理的な構造や色、模様などに高い類似性がある)ことが認められる場合、CPU21は、現実物体12Aは反射性を有すると推定することができる。
なお、現在の撮像の方向は、一の方向の一例である。
Here, by capturing images in advance with the cameras 24L and 24R in the direction opposite to the current imaging direction, the image of the portion reflected in the real object 12A by the real object 12B and the reality by the real object 12C. The image of the portion reflected on the object 12A is stored as the real space information 41. In such a case, the CPU 21 identifies the real objects 12B and 12C existing at the positions projected on the surface of the real object 12A in the three-dimensional model imitating the real space. Then, the CPU 21 determines whether or not the image of the surface of the real object 12A matches the image of the real objects 12B and 12C obtained by imaging from the direction opposite to the current imaging direction by pattern matching or the like. judge. For example, when it is recognized that the physical structure, color, pattern, etc. match (or the physical structure, color, pattern, etc. have high similarity), the CPU 21 indicates that the real object 12A has reflectivity. Then it can be estimated.
The current imaging direction is an example of one direction.

また、図7は、反射性の推定に用いる手法の他の一例を説明する図である。図7を参照しながら、3つの推定の手法について説明する。
図7の例では、CPU21は、現実物体12Fを反射性の推定対象として処理を行うものとする。そして、現実物体12Fは鏡であり、現実物体12Gは壁に固定的に取り付けられているコンセントである。また、現実物体12Fには、現実物体12Gの像12Hが映り込んでいる。さらに、天井には、光源12Iが固定的に取り付けられている。
なお、端末1を装着するユーザの眼球5は、紙面から手前方向に延びる法線上に位置している。
Further, FIG. 7 is a diagram illustrating another example of the method used for estimating the reflectivity. Three estimation methods will be described with reference to FIG. 7.
In the example of FIG. 7, the CPU 21 performs processing with the real object 12F as the estimation target of the reflectivity. The real object 12F is a mirror, and the real object 12G is an outlet fixedly attached to the wall. Further, the image 12H of the real object 12G is reflected on the real object 12F. Further, a light source 12I is fixedly attached to the ceiling.
The eyeball 5 of the user who wears the terminal 1 is located on a normal line extending toward the front from the paper surface.

まず、1つ目の推定の手法では、CPU21は、光源の位置と現実物体12Fの表面の傾きとの関係から推定(特定)される位置に明部(ハイライト)が存在する場合、推定の対象である現実物体12Fは反射性を有すると推定する。
例えば、現実物体12Fが反射性を有する場合、光源12Iからの光が現実物体12Fで反射された反射光と、光源12Iからの直接の光とが合成されて、明部が生じる。図示の例では、領域16Aに明部が生じており、16Bと比較して、輝度が高くなっている。
CPU21は、光源12Iの位置と現実物体12Fの表面の傾きとの関係から、明部が生じると推定される領域(この例では、領域16A)を特定する。そして、CPU21は、明部が生じると推定される領域16Aの輝度と、周囲の領域(例えば、領域16B)の輝度とを比較して、明部が生じると推定される領域16Aの輝度の方が高い場合、現実物体12Fが反射性を有すると推定する。
なお、明部が生じると推定される領域の輝度と周囲の領域の輝度との差の程度を基に、現実物体12Fの反射特性を推定してもよい。例えば、明部が生じると推定される領域の輝度と周囲の領域の輝度との差が大きいほど、現実物体12Fの反射率(及び、正反射率、拡散反射率、光沢度など)は大きいと推定される。
First, in the first estimation method, the CPU 21 estimates when a bright portion (highlight) exists at a position estimated (specified) from the relationship between the position of the light source and the inclination of the surface of the real object 12F. It is presumed that the target real object 12F has reflectivity.
For example, when the real object 12F has reflectivity, the light from the light source 12I is combined with the reflected light reflected by the real object 12F and the direct light from the light source 12I to generate a bright portion. In the illustrated example, a bright portion is generated in the region 16A, and the brightness is higher than that of 16B.
The CPU 21 specifies a region (in this example, region 16A) where a bright portion is presumed to occur from the relationship between the position of the light source 12I and the inclination of the surface of the real object 12F. Then, the CPU 21 compares the brightness of the region 16A estimated to generate a bright portion with the brightness of the surrounding region (for example, the region 16B), and the brightness of the region 16A estimated to generate a bright portion is obtained. When is high, it is estimated that the real object 12F has reflectivity.
The reflection characteristic of the real object 12F may be estimated based on the degree of difference between the brightness of the region where the bright portion is estimated to occur and the brightness of the surrounding region. For example, the greater the difference between the brightness of the area where bright areas are estimated to occur and the brightness of the surrounding area, the greater the reflectance (and specular reflectance, diffuse reflectance, glossiness, etc.) of the real object 12F. Presumed.

なお、明部が生じると推定される領域の輝度や周囲の領域の輝度は、対象となる領域を撮像した画像から推定される。
また、光源12Iに関する情報は、撮像された画像から推定される場合もあれば、既知の情報としてRAM23の不揮発性領域に保存されている場合もある。光源12Iの位置を推定する手法には、光線追跡法(レイトレーシング)等がある。
The brightness of the region where the bright part is estimated to occur and the brightness of the surrounding region are estimated from the image obtained by capturing the target region.
Further, the information regarding the light source 12I may be estimated from the captured image, or may be stored as known information in the non-volatile region of the RAM 23. As a method for estimating the position of the light source 12I, there is a ray tracing method (ray tracing) or the like.

次に、2つ目の推定の手法では、CPU21は、推定の対象である現実物体12Fの表面に現れる内容(個々の像)と別の現実物体12とがいずれも対称の位置に存在する場合(換言すると、推定の対象である現実物体12Fの表面に現れる内容と対をなす別の現実物体12とが、共通の外形を有し、かつ、推定の対象である現実物体12Fの表面を挟んで等距離に位置する場合)、現実物体12Fが反射性を有すると推定する。
例えば、CPU21は、領域16A及び領域16B等を撮像した画像を解析することにより、現実物体12Fに対して反射の像が映り込む範囲内に存在する物体として、現実物体12Gを抽出する。また、現実物体12Fを撮像した画像を解析することにより、現実物体12Gと共通の外形を有する(即ち、形状に高い類似性が認められる)現実物体12Gの像12Hを抽出する。そして、現実物体12Fの表面を挟んで現実物体12Gと像12Hとが等距離にあると判定されるため、現実物体12が反射性を有すると推定する。
Next, in the second estimation method, the CPU 21 determines that the content (individual image) appearing on the surface of the real object 12F to be estimated and another real object 12 are both present at symmetrical positions. (In other words, another real object 12 that is paired with the content that appears on the surface of the real object 12F that is the object of estimation has a common outer shape and sandwiches the surface of the real object 12F that is the object of estimation. (When they are located at equal distances), it is estimated that the real object 12F has reflectivity.
For example, the CPU 21 extracts the real object 12G as an object existing in the range where the reflection image is reflected on the real object 12F by analyzing the images obtained by capturing the regions 16A, the region 16B, and the like. Further, by analyzing the image of the real object 12F, the image 12H of the real object 12G having the same outer shape as the real object 12G (that is, a high similarity in shape is recognized) is extracted. Then, since it is determined that the real object 12G and the image 12H are equidistant across the surface of the real object 12F, it is estimated that the real object 12 has reflectivity.

次に、3つ目の推定の手法では、CPU21は、推定の対象である現実物体12Fの表面の明るさが、光源によって直接照らされる場合に比して暗い場合、現実物体12Fが反射性を有すると推定する。
例えば、CPU21は、現実物体12Fに隣接する領域16Cを撮像した画像を解析することにより、領域16Cの輝度を推定する。また、現実物体12Fを撮像した画像を解析することにより、領域16Cに隣接する領域16Dの輝度を推定する。ここで、領域16Cと領域16Dとは隣接しているため、光源12Iに照らされた場合の明るさには大きな差異は生じないはずである。しかし、領域16Dの輝度は、領域16Cの輝度よりも一定程度(例えば、予め定められた輝度差を超える程度)低い。言い換えると、領域16Dの明るさは、光源12Iによって直接照らされる場合に比して暗い。
このように、領域16Cと領域16Dとは隣接しているにもかかわらず、両者の明るさにはつながりがないといえる。これは、領域16Dに、光源12Iから遠く離れた空間の像が映り込んでいるためである。そこで、CPU21は、領域16C及び領域16Dの輝度の差を基に、現実物体12Fの表面の明るさは光源12Iによって直接照らされる場合に比して暗いと判定し、現実物体12が反射性を有すると推定する。
Next, in the third estimation method, the CPU 21 causes the real object 12F to be reflective when the brightness of the surface of the real object 12F to be estimated is darker than when it is directly illuminated by the light source. Presumed to have.
For example, the CPU 21 estimates the brightness of the region 16C by analyzing an image of the region 16C adjacent to the real object 12F. Further, the brightness of the region 16D adjacent to the region 16C is estimated by analyzing the image obtained by capturing the image of the real object 12F. Here, since the region 16C and the region 16D are adjacent to each other, there should be no significant difference in brightness when illuminated by the light source 12I. However, the luminance of the region 16D is lower than the luminance of the region 16C by a certain degree (for example, a degree exceeding a predetermined luminance difference). In other words, the brightness of the region 16D is darker than when directly illuminated by the light source 12I.
As described above, although the region 16C and the region 16D are adjacent to each other, it can be said that there is no connection between the brightness of the region 16C and the region 16D. This is because the image of the space far away from the light source 12I is reflected in the area 16D. Therefore, the CPU 21 determines that the brightness of the surface of the real object 12F is darker than that when it is directly illuminated by the light source 12I, based on the difference in brightness between the area 16C and the area 16D, and the real object 12 has a reflectivity. Presumed to have.

さらに、現実物体12の表面に現れる内容が、反射による像ではなく、物理的な構造や模様であったり、表示デバイスに表示される画像であったりすることも考えられる。そこで、CPU21は、現実物体12の表面に現れる内容が、物理的な構造や模様とも表示デバイスに表示される画像とも異なるか否かを判定することで、反射性の推定を行ってもよい。 Further, it is conceivable that the content appearing on the surface of the real object 12 is not an image due to reflection but a physical structure or pattern, or an image displayed on a display device. Therefore, the CPU 21 may estimate the reflectivity by determining whether or not the content appearing on the surface of the real object 12 is different from the physical structure or pattern and the image displayed on the display device.

本実施の形態では、現実物体12を撮像しているカメラ24L及び24R(図2参照)の移動に連動して現実物体12の表面に現れる内容が連続的に変化する場合、現実物体12の表面に現れる内容が、物理的な構造や模様とも表示デバイスに表示される画像とも異なると判定する。現実物体12の表面に現れる内容が物理的な構造や模様に起因する場合、カメラ24L及び24R(図2参照)が移動しても内容は不変だからである。また、現実物体12が表示デバイスの場合には、その表示の内容の変化は、現実物体12を撮像しているカメラ24L及び24Rの移動と無関係だからである。このような判定を行うことで、反射性の推定が行われる。 In the present embodiment, when the content appearing on the surface of the real object 12 changes continuously in conjunction with the movement of the cameras 24L and 24R (see FIG. 2) that image the real object 12, the surface of the real object 12 It is determined that the content appearing in is different from the physical structure and pattern and the image displayed on the display device. This is because when the content appearing on the surface of the real object 12 is due to a physical structure or pattern, the content does not change even if the cameras 24L and 24R (see FIG. 2) move. Further, when the real object 12 is a display device, the change in the content of the display is irrelevant to the movement of the cameras 24L and 24R that image the real object 12. By making such a determination, the reflectivity is estimated.

さらに、別の反射性の推定に用いる手法として、例えば、人工知能によって、現実空間情報41を基に、現実物体12がどのような物体であるかを特定することにより、特定された物体に対応する反射情報をデータベースから取得してもよい。
なお、上述した反射性を推定する各種の手法については、何れか1つの手法を用いて推定を行ってもよいし、2つ以上の手法を組み合わせて推定を行ってもよい。
図4の説明に戻る。
Further, as another method used for estimating the reflectivity, for example, by specifying what kind of object the real object 12 is based on the real space information 41 by artificial intelligence, it corresponds to the specified object. The reflection information to be used may be obtained from the database.
As for the various methods for estimating the reflectivity described above, any one method may be used for estimation, or two or more methods may be combined for estimation.
Returning to the description of FIG.

ステップ2の後、CPU21は、ステップ2で反射性を有すると推定された現実物体12の反射情報を取得する(ステップ3)。本実施の形態の場合、CPU21は、ステップ2で計算された現実物体12の反射特性を取得する。また、CPU21は、反射性を推定しなくても取得可能な反射情報、例えば、反射性を有すると推定された現実物体12の色調、模様、形状、現実空間内での位置を特定する情報などの反射情報を取得する。 After step 2, the CPU 21 acquires the reflection information of the real object 12 presumed to have reflectivity in step 2 (step 3). In the case of this embodiment, the CPU 21 acquires the reflection characteristic of the real object 12 calculated in step 2. Further, the CPU 21 can acquire reflection information without estimating the reflectivity, for example, the color tone, the pattern, the shape of the real object 12 estimated to have the reflectivity, the information for specifying the position in the real space, and the like. Get the reflection information of.

続いて、CPU21は、描画の対象である1つ又は複数の仮想物体11のうちで未選択の1つを選択する(ステップ4)。
CPU21は、選択された仮想物体11を処理の対象として、仮想物体11の像が映り込む現実物体12の反射領域があるか否かを判定する(ステップ5)。
ここで、CPU21は、端末1を装着しているユーザの眼球5(図1参照)の位置を基準として、反射性を有する現実物体12において、処理対象とする仮想物体11の像が映り込むか否かを判定する。
Subsequently, the CPU 21 selects an unselected one of the one or a plurality of virtual objects 11 to be drawn (step 4).
The CPU 21 uses the selected virtual object 11 as a processing target, and determines whether or not there is a reflection region of the real object 12 on which the image of the virtual object 11 is reflected (step 5).
Here, the CPU 21 reflects the image of the virtual object 11 to be processed on the reflective real object 12 with reference to the position of the eyeball 5 (see FIG. 1) of the user wearing the terminal 1. Judge whether or not.

仮想物体11の像が映り込むか否かは、端末1を装着しているユーザの眼球5の位置を基準として判定される。例えば、反射性を有する現実物体12の表面が平面である場合、現実空間を模した3次元モデルにおいて、反射性を有する現実物体12の表面を対称面として、仮想物体11の面対称の位置に、仮想物体11の反射像ができる。この仮想物体11の反射像と眼球5の位置とを結ぶ仮想の直線と、現実物体12とが交差するか否かが判定される。
例えば仮想の直線と現実物体12とが交差しない場合、CPU21は、否定結果を得てステップ7に進む。
Whether or not the image of the virtual object 11 is reflected is determined based on the position of the eyeball 5 of the user wearing the terminal 1. For example, when the surface of the real object 12 having reflectivity is a plane, in a three-dimensional model simulating the real space, the surface of the real object 12 having reflectivity is set as a plane of symmetry, and the position is plane-symmetrical to the virtual object 11. , A reflection image of the virtual object 11 is created. It is determined whether or not the virtual straight line connecting the reflected image of the virtual object 11 and the position of the eyeball 5 intersects with the real object 12.
For example, when the virtual straight line and the real object 12 do not intersect, the CPU 21 obtains a negative result and proceeds to step 7.

図8は、現実物体12において仮想物体11の像が映り込む反射領域14を説明する図である。(A)は現実物体12と仮想物体11の位置の関係を示し、(B)は仮想物体11の像が映り込む現実物体12の反射領域14を示す。
(B)に示すように、現実物体12の表面を対称面として、仮想物体11の面対称の位置に、仮想物体11の反射像13ができる。そして、仮想物体11の反射像13と眼球5の位置とを結ぶ仮想の直線と、現実物体12とが交差する範囲が反射領域14であり、図示の太線で示す範囲になる。
FIG. 8 is a diagram illustrating a reflection region 14 in which an image of a virtual object 11 is reflected in a real object 12. (A) shows the relationship between the positions of the real object 12 and the virtual object 11, and (B) shows the reflection region 14 of the real object 12 on which the image of the virtual object 11 is reflected.
As shown in (B), the reflection image 13 of the virtual object 11 is formed at a position symmetrical to the surface of the virtual object 11 with the surface of the real object 12 as the plane of symmetry. The range where the virtual straight line connecting the reflected image 13 of the virtual object 11 and the position of the eyeball 5 intersects with the real object 12 is the reflection region 14, which is the range shown by the thick line in the figure.

このように、現実物体12に対して仮想物体11の像をどのように描画するかについては、ユーザの眼球5、仮想物体11、現実物体12の位置関係によって決まる。例えば、図8に示すように、現実物体12の表面を対称面とした場合の仮想物体11の反射像13に対して、仮想物体11の反射像13と眼球5とを結ぶ仮想の直線と、現実物体12とが交差する位置(範囲)に、仮想物体11の像が描画される。すなわち、仮想物体11の反射像13の各点について、眼球5に向く仮想の直線と現実物体12とが交差する位置を導き出して、仮想物体11の像が描画される。 As described above, how to draw the image of the virtual object 11 with respect to the real object 12 is determined by the positional relationship between the user's eyeball 5, the virtual object 11, and the real object 12. For example, as shown in FIG. 8, a virtual straight line connecting the reflected image 13 of the virtual object 11 and the eyeball 5 with respect to the reflected image 13 of the virtual object 11 when the surface of the real object 12 is the plane of symmetry. An image of the virtual object 11 is drawn at a position (range) where the real object 12 intersects. That is, for each point of the reflection image 13 of the virtual object 11, the position where the virtual straight line facing the eyeball 5 and the real object 12 intersect is derived, and the image of the virtual object 11 is drawn.

ただし、図8に示す例は、現実物体12の表面が平面である場合の例である。現実物体12の表面は、平面の他、例えば、凹型や凸型などの曲面の場合もあるため、仮想物体11の像は現実物体12の形状に応じて変化する。付言すると、仮想物体11の像は、その仮想物体11が現実の物体として存在すると仮定した場合に現実物体12に対して映り込む像と同様に、描画される。 However, the example shown in FIG. 8 is an example when the surface of the real object 12 is a flat surface. Since the surface of the real object 12 may be a curved surface such as a concave shape or a convex shape in addition to a flat surface, the image of the virtual object 11 changes according to the shape of the real object 12. In addition, the image of the virtual object 11 is drawn in the same manner as the image reflected on the real object 12 when the virtual object 11 is assumed to exist as a real object.

なお、仮想物体11の像が映り込む現実物体12が複数ある場合、CPU21は、個々の現実物体12について、仮想物体11の像が映り込む反射領域を特定する。
また、1つの現実物体12に反射性を有する部分が複数ある場合、CPU21は、反射性を有する個々の部分について、仮想物体11の像が映り込む反射領域を特定する。
従って、1つの仮想物体11について特定される反射領域の数は1つに限らない。なお、複数の反射領域が特定される場合、それらの反射領域は一致するとは限らない。
図4の説明に戻る。
When there are a plurality of real objects 12 to which the image of the virtual object 11 is reflected, the CPU 21 specifies a reflection region in which the image of the virtual object 11 is reflected for each real object 12.
Further, when there are a plurality of reflective parts in one real object 12, the CPU 21 specifies a reflective region in which the image of the virtual object 11 is reflected in each of the reflective parts.
Therefore, the number of reflection regions specified for one virtual object 11 is not limited to one. When a plurality of reflection areas are specified, the reflection areas do not always match.
Returning to the description of FIG.

ステップ5で肯定結果が得られた場合、CPU21は、ステップ5で特定された反射領域毎に、現実物体12の反射情報を反映した仮想物体11の情報を関連付けて保存する(ステップ6)。すなわち、CPU21は、現実物体12の反射領域に関連付けて仮想物体像情報44を保存する。
ここで、例えば、図8に示す例では、ユーザの位置から仮想物体11の反射像13が見えるように、仮想物体11の情報が関連付けられる。より具体的には、例えば、仮想物体11のうち、ユーザから直接見える部分とは異なる部分(例えば、ユーザの位置から仮想物体11の表面が直接見えている場合には、仮想物体11の裏面)が見えるように、その部分の形状、色調、材質などの情報が関連付けられる。その際、反射領域に関連付けられる仮想物体11は、ユーザから仮想物体11の反射像13が見えるように表現するために、例えば、遠近法に基づいて、ユーザから直接見える仮想物体11よりも小さくなるように関連付けられる。
When an affirmative result is obtained in step 5, the CPU 21 associates and stores the information of the virtual object 11 reflecting the reflection information of the real object 12 for each reflection region specified in step 5 (step 6). That is, the CPU 21 stores the virtual object image information 44 in association with the reflection region of the real object 12.
Here, for example, in the example shown in FIG. 8, the information of the virtual object 11 is associated so that the reflection image 13 of the virtual object 11 can be seen from the position of the user. More specifically, for example, a portion of the virtual object 11 that is different from the portion directly visible to the user (for example, if the front surface of the virtual object 11 is directly visible from the user's position, the back surface of the virtual object 11). Information such as the shape, color tone, and material of the part is associated so that the part can be seen. At that time, the virtual object 11 associated with the reflection region is smaller than the virtual object 11 directly visible to the user, for example, based on perspective, in order to express the reflection image 13 of the virtual object 11 so that the user can see it. Associated with each other.

この後、CPU21は、全ての仮想物体11が選択済みであるか否かを判定する(ステップ7)。
ステップ7で否定結果が得られた場合、CPU21は、ステップ4に戻る。ステップ4では未選択の仮想物体11の中から1つが処理の対象として選択される。
一方、ステップ7で肯定結果が得られた場合、CPU21は、全ての反射領域に対して、関連付けられている仮想物体像情報44を用いて仮想物体11の像を描画する(ステップ8)。
After that, the CPU 21 determines whether or not all the virtual objects 11 have been selected (step 7).
If a negative result is obtained in step 7, the CPU 21 returns to step 4. In step 4, one of the unselected virtual objects 11 is selected as the processing target.
On the other hand, when an affirmative result is obtained in step 7, the CPU 21 draws an image of the virtual object 11 for all the reflection regions using the associated virtual object image information 44 (step 8).

<描画例>
以下では、具体例を用いて、本実施の形態における仮想物体11の像の描画例について説明する。
<Drawing example>
Hereinafter, an example of drawing an image of the virtual object 11 in the present embodiment will be described with reference to a specific example.

<描画例1>
図9は、従前の技術による描画と本実施の形態による描画との違いを説明する図である。(A)は従前の技術による描画例であり、(B)は本実施の形態による描画例である。
図9では、従前の技術による描画例を比較例と記している。
図9において、端末1を装着するユーザの眼球5(図1参照)は、紙面から手前方向に延びる法線上に位置している。
<Drawing example 1>
FIG. 9 is a diagram illustrating a difference between drawing by the conventional technique and drawing by the present embodiment. (A) is a drawing example by the conventional technique, and (B) is a drawing example by the present embodiment.
In FIG. 9, a drawing example by the conventional technique is described as a comparative example.
In FIG. 9, the eyeball 5 (see FIG. 1) of the user who wears the terminal 1 is located on a normal line extending toward the front from the paper surface.

(A)に示すように、従前の技術では、平板形状の現実物体12とユーザとの位置関係により現実物体12に対して反射の像が映り込む範囲内に円筒形状の仮想物体11がある場合、現実物体12が反射性を有していても、現実物体12には仮想物体11の像が描画されない。
このため、反射性を有する現実物体12では、映るべき仮想物体11の像がユーザに知覚されず、代わりに、現実物体12がそのままユーザに知覚される。
このように、反射性を有する現実物体12で、ユーザに知覚される風景に不自然な状態が生じる。
As shown in (A), in the conventional technique, when the cylindrical virtual object 11 is within the range where the image of reflection is reflected on the real object 12 due to the positional relationship between the flat plate-shaped real object 12 and the user. Even if the real object 12 has reflectivity, the image of the virtual object 11 is not drawn on the real object 12.
Therefore, in the reflective real object 12, the image of the virtual object 11 to be reflected is not perceived by the user, and instead, the real object 12 is perceived by the user as it is.
In this way, the reflective real object 12 creates an unnatural state in the landscape perceived by the user.

一方で、本実施の形態の場合には、(B)に示すように、平板形状の現実物体12とユーザとの位置関係により現実物体12に対して反射の像が映り込む範囲内に円筒形状の仮想物体11がある場合、円筒形状の仮想物体11の像15をユーザに知覚させることができる。
このように、本実施の形態に係る技術を用いれば、反射性を有する現実物体12で風景に不自然な状態が生じることがなくなり、仮想物体11が実在するかのような体験が可能になる。
On the other hand, in the case of the present embodiment, as shown in (B), the cylindrical shape is within the range in which the image of reflection is reflected on the real object 12 due to the positional relationship between the flat plate-shaped real object 12 and the user. If there is a virtual object 11 of the above, the user can perceive the image 15 of the cylindrical virtual object 11.
As described above, by using the technique according to the present embodiment, the real object 12 having reflexivity does not cause an unnatural state in the landscape, and the virtual object 11 can be experienced as if it actually exists. ..

また、本実施の形態に係る技術を用いれば、ユーザが現実空間内を移動する場合も、ユーザの眼球5、仮想物体11、反射性を有する現実物体12の位置関係により、現実物体12に仮想物体11の像15を描画することができる。すなわち、ユーザが現実空間内を移動しても、仮想物体11の像15が継続的に知覚されるようにできる。
このため、仮想物体11を、現実の物体と区別なくユーザに知覚させることが可能になる。
Further, by using the technique according to the present embodiment, even when the user moves in the real space, the real object 12 is virtualized by the positional relationship between the user's eyeball 5, the virtual object 11, and the reflective real object 12. The image 15 of the object 11 can be drawn. That is, even if the user moves in the real space, the image 15 of the virtual object 11 can be continuously perceived.
Therefore, the virtual object 11 can be perceived by the user without distinguishing it from the real object.

なお、ユーザと仮想物体11は移動せず、反射性を有する現実物体12だけが移動する場合や、ユーザと反射性を有する現実物体12は移動せず、仮想物体11だけが移動する場合にも、同様の不自然な現象が無くなるので、仮想物体11の実在感を高めることができる。
また、従前の技術と比べて、現実物体12に対して像15が描画される位置に存在する仮想物体11を、ユーザに気づかせ易くなる。
In addition, even when the user and the virtual object 11 do not move and only the real object 12 having reflectivity moves, or when the real object 12 having reflectivity with the user does not move and only the virtual object 11 moves. Since the same unnatural phenomenon disappears, the sense of reality of the virtual object 11 can be enhanced.
Further, as compared with the conventional technique, it becomes easier for the user to notice the virtual object 11 existing at the position where the image 15 is drawn with respect to the real object 12.

<描画例2>
図10は、現実物体12の反射率の違いが仮想物体11の像15の描画に与える影響を説明する図である。(A)は現実物体12の反射率が高い場合の仮想物体11の像15の描画例であり、(B)は現実物体12の反射率が低い場合の仮想物体11の像15の描画例である。
図10の場合も、端末1(図1参照)を装着するユーザの眼球5(図1参照)は、紙面から手前方向に延びる法線上に位置している。
<Drawing example 2>
FIG. 10 is a diagram illustrating the effect of the difference in reflectance of the real object 12 on the drawing of the image 15 of the virtual object 11. (A) is a drawing example of the image 15 of the virtual object 11 when the reflectance of the real object 12 is high, and (B) is a drawing example of the image 15 of the virtual object 11 when the reflectance of the real object 12 is low. be.
Also in the case of FIG. 10, the eyeball 5 (see FIG. 1) of the user wearing the terminal 1 (see FIG. 1) is located on a normal line extending toward the front from the paper surface.

図10の場合、反射率が相対的に高い反射率1の場合((A)の場合)には、反射率が相対的に低い反射率2の場合((B)の場合)よりも、例えば、仮想物体11の像15の解像度を高くしたり、色を濃くしたりして、現実物体12の反射率の影響を付加して描画する。よって、反射率が相対的に高い反射率1の場合((A)の場合)の方が、反射率が相対的に低い反射率2の場合((B)の場合)よりも、仮想物体11の像15をはっきり知覚することが可能である。
このため、ユーザは、仮想物体11が実在するかのような体験が可能になる。
In the case of FIG. 10, when the reflectance 1 is relatively high (in the case of (A)), for example, compared to the case where the reflectance 2 is relatively low (in the case of (B)). The image 15 of the virtual object 11 is drawn by increasing the resolution or darkening the color to add the influence of the reflectance of the real object 12. Therefore, the case where the reflectance 1 is relatively high (in the case of (A)) is higher than the case where the reflectance 2 is relatively low (in the case of (B)), the virtual object 11. It is possible to clearly perceive the image 15 of.
Therefore, the user can experience as if the virtual object 11 actually exists.

なお、(A)、(B)の例では、現実物体12の正反射率(又は拡散反射率、光沢度)の影響を考慮していないが、仮想物体11の像15の描画には、現実物体12の反射率の他に、現実物体12の正反射率(又は拡散反射率、光沢度)も影響を与える。例えば、現実物体12の正反射率の影響を付加することにより、正反射率が相対的に高い場合の方が、正反射率が相対的に低い場合よりも、仮想物体11の像15をはっきり知覚することが可能である。 In the examples of (A) and (B), the influence of the normal reflectance (or diffuse reflectance, glossiness) of the real object 12 is not taken into consideration, but the image 15 of the virtual object 11 is actually drawn. In addition to the reflectance of the object 12, the positive reflectance (or diffuse reflectance, glossiness) of the real object 12 also has an effect. For example, by adding the influence of the specular reflectance of the real object 12, the image 15 of the virtual object 11 becomes clearer when the specular reflectance is relatively high than when the specular reflectance is relatively low. It is possible to perceive.

<描画例3>
図11は、現実物体12の色の違いが仮想物体11の像15の描画に与える影響を説明する図である。(A)は現実物体12に薄い青色が付されている場合の仮想物体11の像15の描画例であり、(B)は現実物体12に薄い赤色が付されている場合の仮想物体11の像15の描画例である。
図11の場合も、端末1(図1参照)を装着するユーザの眼球5(図1参照)は、紙面から手前方向に延びる法線上に位置している。
<Drawing example 3>
FIG. 11 is a diagram illustrating the effect of the difference in color of the real object 12 on the drawing of the image 15 of the virtual object 11. (A) is a drawing example of the image 15 of the virtual object 11 when the real object 12 is light blue, and (B) is the drawing example of the virtual object 11 when the real object 12 is light red. This is a drawing example of the image 15.
Also in the case of FIG. 11, the eyeball 5 (see FIG. 1) of the user wearing the terminal 1 (see FIG. 1) is located on a normal line extending toward the front from the paper surface.

作図上の制約のため、図11においては、薄い青色や薄い赤色を表現することはできないが、現実物体12に薄い青色が付されている場合((A)の場合)には、仮想物体11の像15に対して薄い青色を付して描画する処理が行われる。また、現実物体12に薄い赤色が付されている場合((B)の場合)には、仮想物体11の像15に対して薄い赤色を付して描画する処理が行われる。このように、現実物体12の色調の影響を付加することにより、現実物体12に映り込む仮想物体11の像15の見え方を、現実物体12に映り込む現実空間の他の物体の見え方に近づけることが可能になる。
このため、ユーザは、仮想物体11が実在するかのような体験が可能になる。
Due to drawing restrictions, it is not possible to express light blue or light red in FIG. 11, but when the real object 12 is light blue (in the case of (A)), the virtual object 11 The image 15 is drawn with a light blue color. Further, when the real object 12 is colored with a light red color (in the case of (B)), a process of drawing the image 15 of the virtual object 11 with a light red color is performed. By adding the influence of the color tone of the real object 12 in this way, the appearance of the image 15 of the virtual object 11 reflected in the real object 12 is changed to the appearance of other objects in the real space reflected in the real object 12. It will be possible to get closer.
Therefore, the user can experience as if the virtual object 11 actually exists.

<描画例4>
図12は、現実物体12に付されている模様の違いが仮想物体11の像15の描画に与える影響を説明する図である。(A)は現実物体12の表面に対角線方向に延びる斜線が形成されている場合の仮想物体11の像15の描画例であり、(B)は現実物体12の表面に網目状の模様が形成されている場合の仮想物体11の像15の描画例である。
図12の場合も、端末1(図1参照)を装着するユーザの眼球5(図1参照)は、紙面から手前方向に延びる法線上に位置している。
図12に示すように、現実物体12の表面に形成された模様を仮想物体11の像15の描画に反映することで、現実物体12に映り込む仮想物体11の像15の見え方を、現実物体12に映り込む現実空間の他の物体の見え方に近づけることが可能になる。
このため、ユーザは、仮想物体11が実在するかのような体験が可能になる。
<Drawing example 4>
FIG. 12 is a diagram for explaining the influence of the difference in the pattern attached to the real object 12 on the drawing of the image 15 of the virtual object 11. (A) is a drawing example of the image 15 of the virtual object 11 when a diagonal line extending in the diagonal direction is formed on the surface of the real object 12, and (B) is a drawing example of a mesh pattern on the surface of the real object 12. It is a drawing example of the image 15 of the virtual object 11 in the case where it is done.
Also in the case of FIG. 12, the eyeball 5 (see FIG. 1) of the user wearing the terminal 1 (see FIG. 1) is located on a normal line extending toward the front from the paper surface.
As shown in FIG. 12, by reflecting the pattern formed on the surface of the real object 12 in the drawing of the image 15 of the virtual object 11, the appearance of the image 15 of the virtual object 11 reflected in the real object 12 can be realized. It becomes possible to get closer to the appearance of other objects in the real space reflected in the object 12.
Therefore, the user can experience as if the virtual object 11 actually exists.

<描画例5>
図13は、現実物体12の形状の違いが仮想物体11の像15の描画に与える影響を説明する図である。(A)は平板形状の現実物体12における仮想物体11の像15の描画例であり、(B)は円筒形状の現実物体12における仮想物体11の像15の描画例である。
図13の場合も、端末1(図1参照)を装着するユーザの眼球5(図1参照)は、紙面から手前方向に延びる法線上に位置している。
図13に示すように、現実物体12が円筒形状の場合((B)の場合)には、現実物体12が平板形状の場合((A)の場合)と比較して、例えば、仮想物体11が伸びて歪んだように像15を描画する処理が行われる。
このように、現実物体12の形状の影響を付加し、現実物体12の形状に応じて仮想物体11の像15を変化させることで、現実物体12に映り込む仮想物体11の像15の見え方を、現実物体12に映り込む現実空間の他の物体の見え方に近づけることが可能になる。
このため、ユーザは、仮想物体11が実在するかのような体験が可能になる。
<Drawing example 5>
FIG. 13 is a diagram illustrating the influence of the difference in the shape of the real object 12 on the drawing of the image 15 of the virtual object 11. (A) is a drawing example of an image 15 of a virtual object 11 in a flat plate-shaped real object 12, and (B) is a drawing example of an image 15 of a virtual object 11 in a cylindrical real object 12.
Also in the case of FIG. 13, the eyeball 5 (see FIG. 1) of the user wearing the terminal 1 (see FIG. 1) is located on a normal line extending toward the front from the paper surface.
As shown in FIG. 13, when the real object 12 has a cylindrical shape (in the case of (B)), for example, the virtual object 11 is compared with the case where the real object 12 has a flat plate shape (in the case of (A)). The process of drawing the image 15 is performed so that the image 15 is stretched and distorted.
In this way, by adding the influence of the shape of the real object 12 and changing the image 15 of the virtual object 11 according to the shape of the real object 12, the appearance of the image 15 of the virtual object 11 reflected in the real object 12 Can be brought closer to the appearance of other objects in the real space reflected in the real object 12.
Therefore, the user can experience as if the virtual object 11 actually exists.

<描画例6>
図14は、現実物体12が置かれている角度の違いが仮想物体11の像15の描画に与える影響を説明する図である。(A)は平板形状の現実物体12が垂直面に対して平行に置かれている場合の仮想物体11の像15の描画例であり、(B)は平板形状の現実物体12が垂直面に対して斜めに置かれている場合の仮想物体11の像15の描画例である。
図14の場合も、端末1(図1参照)を装着するユーザの眼球5(図1参照)は、紙面から手前方向に延びる法線上に位置している。
図14に示すように、現実物体12が垂直面に対して傾いている場合((B)の場合)には、現実物体12が垂直面に対して平行に置かれている場合((A)の場合)と比較して、例えば、仮想物体11の下側が近く大きくなり、仮想物体11の上側が遠く小さくなるように、像15を描画する処理が行われる。
このように、現実物体12が置かれている角度に応じて仮想物体11の像15を変化させることで、現実物体12に映り込む仮想物体11の像15の見え方を、現実物体12に映り込む現実空間の他の物体の見え方に近づけることが可能になる。
このため、ユーザは、仮想物体11が実在するかのような体験が可能になる。
<Drawing example 6>
FIG. 14 is a diagram illustrating the effect of the difference in the angle at which the real object 12 is placed on the drawing of the image 15 of the virtual object 11. (A) is a drawing example of the image 15 of the virtual object 11 when the flat plate-shaped real object 12 is placed parallel to the vertical plane, and (B) is the drawing example of the flat plate-shaped real object 12 on the vertical plane. It is a drawing example of the image 15 of the virtual object 11 when it is placed diagonally.
Also in the case of FIG. 14, the eyeball 5 (see FIG. 1) of the user wearing the terminal 1 (see FIG. 1) is located on a normal line extending toward the front from the paper surface.
As shown in FIG. 14, when the real object 12 is tilted with respect to the vertical plane (in the case of (B)), the real object 12 is placed parallel to the vertical plane ((A)). In the case of), for example, the process of drawing the image 15 is performed so that the lower side of the virtual object 11 becomes larger near and the upper side of the virtual object 11 becomes far smaller.
In this way, by changing the image 15 of the virtual object 11 according to the angle at which the real object 12 is placed, the appearance of the image 15 of the virtual object 11 reflected on the real object 12 is reflected on the real object 12. It makes it possible to get closer to the appearance of other objects in the real space.
Therefore, the user can experience as if the virtual object 11 actually exists.

<描画例7>
図15は、現実物体12における反射光の偏光に関する情報の違いが仮想物体11の像15の描画に与える影響を説明する図である。(A)は現実物体12における反射光の偏光の影響を考慮しない場合を示し、(B)は現実物体12における反射光の偏光の影響を考慮する場合を示す。
図15の場合も、端末1(図1参照)を装着するユーザの眼球5(図1参照)は、紙面から手前方向に延びる法線上に位置している。
(A)の例では、現実物体12における反射光の偏光の影響を考慮しないため、現実物体12が反射性を有する場合には、現実物体12の表面に仮想物体11の像15を描画する処理が行われる。
<Drawing example 7>
FIG. 15 is a diagram illustrating the effect of the difference in information regarding the polarization of the reflected light in the real object 12 on the drawing of the image 15 of the virtual object 11. (A) shows a case where the influence of the polarization of the reflected light in the real object 12 is not taken into consideration, and (B) shows the case where the influence of the polarization of the reflected light in the real object 12 is taken into consideration.
Also in the case of FIG. 15, the eyeball 5 (see FIG. 1) of the user wearing the terminal 1 (see FIG. 1) is located on a normal line extending toward the front from the paper surface.
In the example of (A), since the influence of the polarization of the reflected light on the real object 12 is not taken into consideration, the process of drawing the image 15 of the virtual object 11 on the surface of the real object 12 when the real object 12 has reflectivity. Is done.

ここで、例えば導光板2(図1参照)に偏光フィルタの機能を持たせたり、導光板2の前後に偏光フィルタを設けたりすると、導光板2の前方から入射する外光B1のうち、特定方向の光は偏光フィルタを透過して眼球5に導かれるが、特定方向以外の光は偏光フィルタによりカットされる。すなわち、現実物体12における反射光は、その偏光の度合に応じて、偏光フィルタを透過したり、偏光フィルタにカットされたりする。
現実物体12における反射光が偏光フィルタによってカットされる場合、(B)に示すように、現実物体12の表面に仮想物体11の像15を描画しない処理が行われる。
このように、CPU21は、現実物体12における反射光の偏光の度合、偏光フィルタの偏光特性(偏光度など)によって、仮想物体11の像15を描画する処理や描画しない処理を行う。また、現実物体12における反射光の偏光の度合、偏光フィルタの偏光特性によって、仮想物体11の像15の解像度を低くしたり、色を薄くしたりして、仮想物体11の像15を変化させる。例えば、偏光フィルタの偏光度が大きいほど、偏光フィルタでカットされる光の量が多くなり、仮想物体11の像15は視認されづらくなるように処理される。
このため、ユーザは、仮想物体11が実在するかのような体験が可能になる。
なお、偏光に関する情報の違いによる効果には、旋光性の違いによる影響を含めてもよい。旋光性の違いを描画に反映することにより、光学異性体の見え方の違いを表現できる。
Here, for example, if the light guide plate 2 (see FIG. 1) has a function of a polarizing filter or if a polarizing filter is provided in front of and behind the light guide plate 2, the external light B1 incident from the front of the light guide plate 2 can be specified. The light in the direction passes through the polarizing filter and is guided to the eyeball 5, but the light other than the specific direction is cut by the polarizing filter. That is, the reflected light in the real object 12 passes through the polarizing filter or is cut by the polarizing filter depending on the degree of polarization thereof.
When the reflected light in the real object 12 is cut by the polarizing filter, a process of not drawing the image 15 of the virtual object 11 on the surface of the real object 12 is performed as shown in (B).
In this way, the CPU 21 performs a process of drawing the image 15 of the virtual object 11 and a process of not drawing the image 15 depending on the degree of polarization of the reflected light in the real object 12 and the polarization characteristics (degree of polarization, etc.) of the polarization filter. Further, the image 15 of the virtual object 11 is changed by lowering the resolution or lightening the color depending on the degree of polarization of the reflected light in the real object 12 and the polarization characteristics of the polarization filter. .. For example, the larger the degree of polarization of the polarizing filter, the larger the amount of light cut by the polarizing filter, and the image 15 of the virtual object 11 is processed so as to be difficult to see.
Therefore, the user can experience as if the virtual object 11 actually exists.
It should be noted that the effect due to the difference in information regarding polarization may include the effect due to the difference in optical rotation. By reflecting the difference in optical rotation in the drawing, it is possible to express the difference in the appearance of optical isomers.

<描画例8>
図16は、現実物体12で全反射が発生する場合と発生しない場合を説明する図である。(A)は全反射が発生しない場合の眼球5、現実物体12、仮想物体11の位置関係を示し、(B)は全反射が発生する場合の眼球5、現実物体12、仮想物体11の位置関係を示す。
図5で示したように、現実物体12の表面を対称面とした場合の仮想物体11の反射像13に対して、仮想物体11の反射像13と眼球5とを結ぶ仮想の直線と、現実物体12とが交差する位置(範囲)に、仮想物体11の像が描画される。ここで、全反射が発生するか否かは、光の入射角が臨界角を超えているか否かによって決まる。
<Drawing example 8>
FIG. 16 is a diagram illustrating a case where total reflection occurs and a case where total reflection does not occur in the real object 12. (A) shows the positional relationship between the eyeball 5, the real object 12, and the virtual object 11 when total reflection does not occur, and (B) shows the positions of the eyeball 5, the real object 12, and the virtual object 11 when total reflection occurs. Show the relationship.
As shown in FIG. 5, with respect to the reflected image 13 of the virtual object 11 when the surface of the real object 12 is the plane of symmetry, a virtual straight line connecting the reflected image 13 of the virtual object 11 and the eyeball 5 and the reality. An image of the virtual object 11 is drawn at a position (range) where the object 12 intersects. Here, whether or not total reflection occurs depends on whether or not the incident angle of light exceeds the critical angle.

(A)の場合、入射角が臨界角を超えていないため(臨界角>入射角)、全反射は発生しない。この場合、現実物体12の反射率(さらに、必要に応じて、正反射率、拡散反射率、光沢度など)を基に、仮想物体11の像15が現実物体12に描画される。
一方、(B)の場合、入射角が臨界角を超えているため(臨界角<入射角)、全反射が発生する。全反射では、入射光が現実物体12を透過せずに全て反射するため、反射率が100%となる。CPU21は、全反射の影響を付加し、現実物体12の反射率100%(さらに、必要に応じて、正反射率、拡散反射率、光沢度など)を基に、仮想物体11の像15を現実物体12に描画する。その結果、全反射が発生する場合((B)の場合)の方が、全反射が発生しない場合((A)の場合)よりも、仮想物体11の像15をはっきり知覚することが可能である。
このため、ユーザは、仮想物体11が実在するかのような体験が可能になる。
In the case of (A), since the incident angle does not exceed the critical angle (critical angle> incident angle), total reflection does not occur. In this case, the image 15 of the virtual object 11 is drawn on the real object 12 based on the reflectance of the real object 12 (furthermore, positive reflectance, diffuse reflectance, glossiness, etc., if necessary).
On the other hand, in the case of (B), since the incident angle exceeds the critical angle (critical angle <incident angle), total reflection occurs. In total reflection, the incident light is completely reflected without passing through the real object 12, so that the reflectance is 100%. The CPU 21 adds the influence of total reflection, and based on the reflectance of the real object 12 of 100% (furthermore, if necessary, the regular reflectance, the diffuse reflectance, the glossiness, etc.), the image 15 of the virtual object 11 is displayed. Draw on the real object 12. As a result, it is possible to clearly perceive the image 15 of the virtual object 11 in the case where total reflection occurs (in the case of (B)) than in the case where total reflection does not occur (in the case of (A)). be.
Therefore, the user can experience as if the virtual object 11 actually exists.

ここで、(B)のように全反射が発生する場合としては、例えば、現実物体12が水面で、水中に仮想物体11が存在する場合が例示される。より具体的には、例えば、水槽(不図示)に張られた水の水面(現実物体12)よりも下にユーザ(眼球5)が存在し、水中に仮想物体11が配置される場合に、全反射が発生し得る。言い換えると、水面(現実物体12)よりも低い位置に眼球5が存在し、水中に仮想物体11が配置される場合には、眼球5と仮想物体11との位置関係により入射角が計算され、全反射が発生するか否かが決定される。
また、蜃気楼が発生するような条件下でも、全反射は発生し得る。
Here, as a case where total reflection occurs as in (B), for example, a case where the real object 12 is on the water surface and the virtual object 11 exists in the water is exemplified. More specifically, for example, when the user (eyeball 5) is below the water surface (real object 12) of the water stretched in the water tank (not shown) and the virtual object 11 is placed in the water. Total internal reflection can occur. In other words, when the eyeball 5 exists at a position lower than the water surface (real object 12) and the virtual object 11 is placed in the water, the incident angle is calculated based on the positional relationship between the eyeball 5 and the virtual object 11. Whether or not total reflection occurs is determined.
In addition, total internal reflection can occur even under conditions where a mirage occurs.

なお、臨界角は、入射元の物質の屈折率、進行先の物質(ここでは、現実物体12)の屈折率を基に計算される。入射元の物質の屈折率、現実物体12の屈折率は、現実物体12の反射情報と同様に、撮像された画像から推定(計算)される場合もあれば、既知の情報としてRAM23の不揮発性領域に保存されている場合もある。屈折率を推定する手法としては、例えば、複数の時点に撮像された複数の画像の比較による方法、人工知能によって特定された物体に対応する屈折率をデータベースから取得する方法等がある。 The critical angle is calculated based on the refractive index of the incident source substance and the refractive index of the traveling destination substance (here, the real object 12). The refractive index of the substance of the incident source and the refractive index of the real object 12 may be estimated (calculated) from the captured image in the same manner as the reflection information of the real object 12, or the non-volatileity of the RAM 23 is known as known information. It may be stored in the area. As a method for estimating the refractive index, for example, there are a method of comparing a plurality of images captured at a plurality of time points, a method of acquiring a refractive index corresponding to an object specified by artificial intelligence from a database, and the like.

<描画例9>
図17は、現実物体12が複数の場合における仮想物体11の像15の描画例を説明する図である。(A)は現実物体12と仮想物体11との位置関係を示し、(B)はユーザによって知覚される複合現実を示す図である。
図17の場合、現実物体12Aは反射性を有しない枠形状の部材であり、現実物体12Bは反射性を有する部材である。現実物体12Aは、例えば鏡の枠体であり、現実物体12Bは、例えば鏡のガラス板である。
<Drawing example 9>
FIG. 17 is a diagram illustrating a drawing example of an image 15 of a virtual object 11 when there are a plurality of real objects 12. (A) is a diagram showing the positional relationship between the real object 12 and the virtual object 11, and (B) is a diagram showing the mixed reality perceived by the user.
In the case of FIG. 17, the real object 12A is a frame-shaped member having no reflectivity, and the real object 12B is a member having a reflectivity. The real object 12A is, for example, a frame of a mirror, and the real object 12B is, for example, a glass plate of a mirror.

図17の場合、従前の技術であれば、現実物体12Bに対して、仮想物体11の像15が描画されることはない。そのため、ユーザに知覚される風景に不自然な状態が生じる。
一方で、本実施の形態では、(A)に示すように、反射性を有する現実物体12Bにおいて、仮想物体11の像15が映り込むと判定された反射領域14に、現実物体12Bの反射情報を反映した仮想物体11の情報が関連付けられる。その結果、(B)に示すように、現実物体12Bに対して、仮想物体11の像15が描画される。また、現実物体12Aは反射性を有さないため、仮想物体11の像15は描画されない。
このように仮想物体11の像15が描画されることにより、端末1を装着するユーザは、反射性を有する現実物体12Bの前面に仮想物体11が位置する関係を理解し易くなる。
以上により、ユーザは、仮想物体11が実在するかのような体験が可能になる。
In the case of FIG. 17, if the conventional technique is used, the image 15 of the virtual object 11 is not drawn with respect to the real object 12B. Therefore, an unnatural state occurs in the landscape perceived by the user.
On the other hand, in the present embodiment, as shown in (A), the reflection information of the real object 12B is reflected in the reflection region 14 where the image 15 of the virtual object 11 is determined to be reflected in the real object 12B having reflectivity. The information of the virtual object 11 reflecting the above is associated. As a result, as shown in (B), the image 15 of the virtual object 11 is drawn with respect to the real object 12B. Further, since the real object 12A has no reflectivity, the image 15 of the virtual object 11 is not drawn.
By drawing the image 15 of the virtual object 11 in this way, the user wearing the terminal 1 can easily understand the relationship in which the virtual object 11 is located in front of the real object 12B having reflexivity.
As described above, the user can experience as if the virtual object 11 actually exists.

また、描画例として図示していないが、仮想物体11が反射性を有する場合、CPU21は、現実物体12に仮想物体11の像を描画するとともに、仮想物体11にも現実物体12の像を描画する。ここで、仮想物体11には、仮想物体11の像が映り込んだ現実物体12の像が描画されることとなる。さらに、現実物体12には、そのような現実物体12の像が映り込んだ仮想物体11の像が描画されることとなる。このように、仮想物体11が反射性を有する場合には、像の描写において無限ループのような現象が発生する。無限ループの現象が発生する場合、実際の処理では、例えば、映り込む像の計算をする回数に制限をつけることにより、CPU21による計算処理が無限になってしまうことが回避される。 Further, although not shown as a drawing example, when the virtual object 11 has reflectivity, the CPU 21 draws an image of the virtual object 11 on the real object 12 and also draws an image of the real object 12 on the virtual object 11. do. Here, the image of the real object 12 in which the image of the virtual object 11 is reflected is drawn on the virtual object 11. Further, the image of the virtual object 11 in which the image of such a real object 12 is reflected is drawn on the real object 12. As described above, when the virtual object 11 has reflectivity, a phenomenon such as an infinite loop occurs in the depiction of the image. When the phenomenon of an infinite loop occurs, in the actual processing, for example, by limiting the number of times the reflected image is calculated, it is possible to prevent the calculation processing by the CPU 21 from becoming infinite.

<実施の形態2>
本実施の形態では、複合現実の体験に頭部に装着された表示装置を使用する場合について説明する。
図18は、複合現実の体験に、実時間で撮像される外界の画像に仮想物体を合成した画像を表示する表示装置100を装着したユーザが、複合現実を体感する原理を説明する図である。
<Embodiment 2>
In this embodiment, a case where a display device mounted on the head is used for the experience of mixed reality will be described.
FIG. 18 is a diagram illustrating a principle that a user who wears a display device 100 that displays an image obtained by synthesizing a virtual object with an image of the outside world captured in real time in the experience of mixed reality can experience the mixed reality. ..

図18には、図1及び図2と対応する部分に対応する符号を付して示している。
表示装置100は、カメラ24L及び24Rによって撮像された外界の画像と、仮想物体描画部4が描画した仮想物体11の画像(及び仮想物体11の像の画像)とを画像合成部101で合成した画像を、ユーザの眼球5の前方に配置された表示部3L及び3Rに表示する。
ここでの表示装置100は、情報処理装置の一例であるとともに情報処理システムの一例でもある。
なお、表示装置100のハードウェア構成は、メガネ型の端末1(図2参照)と同様である。このため、表示装置100のハードウェア構成の説明は省略する。
FIG. 18 is shown with reference numerals corresponding to the portions corresponding to FIGS. 1 and 2.
The display device 100 synthesizes the image of the outside world captured by the cameras 24L and 24R and the image of the virtual object 11 drawn by the virtual object drawing unit 4 (and the image of the image of the virtual object 11) by the image synthesizing unit 101. The image is displayed on the display units 3L and 3R arranged in front of the user's eyeball 5.
The display device 100 here is an example of an information processing device as well as an example of an information processing system.
The hardware configuration of the display device 100 is the same as that of the glasses-type terminal 1 (see FIG. 2). Therefore, the description of the hardware configuration of the display device 100 will be omitted.

図19は、表示装置100の機能構成の一例を示す図である。
図19には、図3との対応部分に対応する符号を付して示している。
表示装置100の基本的な機能構成は、メガネ型の端末1(図2参照)と同様である。表示装置100に特有の機能構成は、画像合成部101である。
画像合成部101は、仮想物体描画部4が描画した画像と、カメラ24L及び24Rで撮像されている外界の画像とが整合するように2つの画像を合成する機能を有している。
例えば画像合成部101は、現実空間仮想化情報42として記憶されている3次元モデルとカメラ24L及び24Rで撮像されている外界の画像とを照合して、仮想物体11の画像(及び仮想物体11の像の画像)を合成する領域を決定する。
このように、本実施の形態が複合現実を知覚させる方式は実施の形態1と異なるが、ユーザによって知覚される複合現実の現実感が従前の技術に比して高くなる点は、実施の形態1と同じである。
FIG. 19 is a diagram showing an example of the functional configuration of the display device 100.
FIG. 19 is shown with reference numerals corresponding to the portions corresponding to those in FIG.
The basic functional configuration of the display device 100 is the same as that of the glasses-type terminal 1 (see FIG. 2). The functional configuration peculiar to the display device 100 is the image composition unit 101.
The image synthesizing unit 101 has a function of synthesizing two images so that the image drawn by the virtual object drawing unit 4 and the image of the outside world captured by the cameras 24L and 24R match.
For example, the image synthesizing unit 101 collates the three-dimensional model stored as the real space virtualization information 42 with the image of the outside world captured by the cameras 24L and 24R, and collates the image of the virtual object 11 (and the virtual object 11). Determine the area to synthesize the image of the image).
As described above, the method in which the present embodiment perceives the mixed reality is different from the first embodiment, but the point that the reality of the mixed reality perceived by the user is higher than that of the conventional technique is the embodiment. Same as 1.

<他の実施形態>
以上、本発明の実施の形態について説明したが、本発明の技術的範囲は上述の実施の形態に記載の範囲に限定されない。前述した実施の形態に、種々の変更又は改良を加えたものも、本発明の技術的範囲に含まれることは、特許請求の範囲の記載から明らかである。
例えば前述の実施の形態では、左右両目用の表示部3L及び3Rを用いているが、表示部は1つでも構わない。例えばメガネ型の端末1(図1参照)の場合には、左右どちら一方の前方に表示部を1つ配置されてもよい。また例えば表示装置100(図18参照)の場合には、両目の前に表示部を1つ配置してもよい。
また、前述の実施の形態では、仮想物体描画部4をメガネ型の端末1(図1参照)や表示装置100(図18参照)の機能の1つとして実現しているが、外部ネットワーク(例えばクラウドネットワーク)に接続されているサーバなどの情報処理装置において、仮想物体描画部4の機能を実行してもよい。ここでのメガネ型の端末1と仮想物体描画部4の機能を実行する外部ネットワーク上のサーバは、情報処理システムの一例である。
また、前述の実施の形態では、仮想物体描画部4の機能を汎用的な演算装置であるCPU21を用いて実現しているが、実時間での画像処理に特化した演算装置であるGPU(Graphics Processing Unit)を用いて実現してもよい。
<Other embodiments>
Although the embodiments of the present invention have been described above, the technical scope of the present invention is not limited to the scope described in the above-described embodiments. It is clear from the description of the claims that the above-mentioned embodiments with various modifications or improvements are also included in the technical scope of the present invention.
For example, in the above-described embodiment, the display units 3L and 3R for both the left and right eyes are used, but one display unit may be used. For example, in the case of a glasses-type terminal 1 (see FIG. 1), one display unit may be arranged in front of either the left or right side. Further, for example, in the case of the display device 100 (see FIG. 18), one display unit may be arranged in front of both eyes.
Further, in the above-described embodiment, the virtual object drawing unit 4 is realized as one of the functions of the glasses-type terminal 1 (see FIG. 1) and the display device 100 (see FIG. 18), but the external network (for example, see). The function of the virtual object drawing unit 4 may be executed in an information processing device such as a server connected to the cloud network). The server on the external network that executes the functions of the glasses-type terminal 1 and the virtual object drawing unit 4 here is an example of an information processing system.
Further, in the above-described embodiment, the function of the virtual object drawing unit 4 is realized by using the CPU 21 which is a general-purpose arithmetic unit, but the GPU (GPU) which is an arithmetic unit specialized in image processing in real time. It may be realized by using a Graphics Processing Unit).

1…メガネ型の端末、2…導光板、3、3L、3R…表示部、4…仮想物体描画部、11…仮想物体、12…現実物体、13…反射像、14…反射領域、15…像、31…現実空間情報取得部、32…現実物体反射性推定部、33…現実物体反射情報取得部、34…現実物体反射領域判定部、41…現実空間情報、42…現実空間仮想化情報、43…仮想物体情報、44…仮想物体像情報、100…表示装置、101…画像合成部、B1…外光、B2…表示光 1 ... Glass-type terminal, 2 ... Light guide plate, 3, 3L, 3R ... Display unit, 4 ... Virtual object drawing unit, 11 ... Virtual object, 12 ... Real object, 13 ... Reflected image, 14 ... Reflection area, 15 ... Image, 31 ... Real space information acquisition unit, 32 ... Real object reflectivity estimation unit, 33 ... Real object reflection information acquisition unit, 34 ... Real object reflection area determination unit, 41 ... Real space information, 42 ... Real space virtualization information , 43 ... Virtual object information, 44 ... Virtual object image information, 100 ... Display device, 101 ... Image synthesizer, B1 ... External light, B2 ... Display light

Claims (3)

現実の物体を撮像した画像から当該現実の物体の反射性の情報を推定する推定手段と、
反射性を有すると推定された前記現実の物体とユーザとの位置関係により当該現実の物体に対して反射の像が映り込む範囲内に仮想の物体がある場合に、推定された反射性の情報に基づいて当該仮想の物体の像を生成する生成手段と、
前記現実の物体に対して前記仮想の物体の像を描画する描画手段と
を有し、
前記推定手段は、現実の光源の位置と推定の対象に定めた前記現実の物体の表面の傾きとの関係から、当該現実の光源からの光が推定の対象に定めた当該現実の物体によって反射されると反射された反射光が照射する位置であり、当該現実の光源からの光が直接照射する位置であると特定される位置に明部が存在する場合、推定の対象に定めた当該現実の物体は反射性を有すると推定することを特徴とする情報処理システム。
An estimation means for estimating the reflectivity information of a real object from an image of a real object,
Estimated reflectivity information when there is a virtual object within the range where the image of reflection is reflected on the real object due to the positional relationship between the real object estimated to have reflectivity and the user. And a generation means to generate an image of the virtual object based on
It has a drawing means for drawing an image of the virtual object with respect to the real object.
In the estimation means, the light from the real light source is reflected by the real object defined as the estimation target from the relationship between the position of the real light source and the inclination of the surface of the real object defined as the estimation target. If there is a bright part at the position specified as the position where the reflected reflected light irradiates, and the position where the light from the actual light source directly irradiates, the reality defined as the estimation target. An information processing system characterized in that an object is presumed to have reflectivity .
前記推定手段は、前記特定される位置の輝度と当該特定される位置の周囲の輝度との差が大きいほど、前記現実の物体の反射率が大きいと推定することを特徴とする請求項1に記載の情報処理システム。Claim 1 is characterized in that the estimation means estimates that the greater the difference between the brightness of the specified position and the brightness around the specified position, the greater the reflectance of the actual object. The information processing system described. コンピュータを、
現実の物体を撮像した画像から当該現実の物体の反射性の情報を推定する推定手段と、
反射性を有すると推定された前記現実の物体とユーザとの位置関係により当該現実の物体に対して反射の像が映り込む範囲内に仮想の物体がある場合に、推定された反射性の情報に基づいて当該仮想の物体の像を生成する生成手段と、
前記現実の物体に対して前記仮想の物体の像を描画する描画手段
として機能させ
前記推定手段は、現実の光源の位置と推定の対象に定めた前記現実の物体の表面の傾きとの関係から、当該現実の光源からの光が推定の対象に定めた当該現実の物体によって反射されると反射された反射光が照射する位置であり、当該現実の光源からの光が直接照射する位置であると特定される位置に明部が存在する場合、推定の対象に定めた当該現実の物体は反射性を有すると推定することを特徴とするプログラム。
Computer,
An estimation means for estimating the reflectivity information of a real object from an image of a real object,
Estimated reflectivity information when there is a virtual object within the range where the image of reflection is reflected on the real object due to the positional relationship between the real object estimated to have reflectivity and the user. And a generation means to generate an image of the virtual object based on
It functions as a drawing means for drawing an image of the virtual object on the real object.
In the estimation means, the light from the real light source is reflected by the real object defined as the estimation target from the relationship between the position of the real light source and the inclination of the surface of the real object defined as the estimation target. If there is a bright part at the position specified as the position where the reflected reflected light irradiates, and the position where the light from the actual light source directly irradiates, the reality defined as the estimation target. A program characterized by presuming that an object is reflective .
JP2018070418A 2018-03-30 2018-03-30 Information processing system and program Active JP7088721B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018070418A JP7088721B2 (en) 2018-03-30 2018-03-30 Information processing system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018070418A JP7088721B2 (en) 2018-03-30 2018-03-30 Information processing system and program

Publications (2)

Publication Number Publication Date
JP2019179542A JP2019179542A (en) 2019-10-17
JP7088721B2 true JP7088721B2 (en) 2022-06-21

Family

ID=68278860

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018070418A Active JP7088721B2 (en) 2018-03-30 2018-03-30 Information processing system and program

Country Status (1)

Country Link
JP (1) JP7088721B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220008118A (en) * 2020-07-13 2022-01-20 삼성전자주식회사 Electronic device and method for displaying differently brightness of virtual objects

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004201085A (en) 2002-12-19 2004-07-15 Hitachi Ltd Visual information processor and application system
JP2009134681A (en) 2007-11-07 2009-06-18 Canon Inc Image processor, and image processing method
WO2017127571A1 (en) 2016-01-19 2017-07-27 Magic Leap, Inc. Augmented reality systems and methods utilizing reflections

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6872158B2 (en) * 2016-10-31 2021-05-19 Agc株式会社 Sound insulation board

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004201085A (en) 2002-12-19 2004-07-15 Hitachi Ltd Visual information processor and application system
JP2009134681A (en) 2007-11-07 2009-06-18 Canon Inc Image processor, and image processing method
WO2017127571A1 (en) 2016-01-19 2017-07-27 Magic Leap, Inc. Augmented reality systems and methods utilizing reflections

Also Published As

Publication number Publication date
JP2019179542A (en) 2019-10-17

Similar Documents

Publication Publication Date Title
CA2961830C (en) Display visibility based on eye convergence
US9123272B1 (en) Realistic image lighting and shading
KR20160123346A (en) Stereoscopic display responsive to focal-point shift
CN110377148B (en) Computer readable medium, method of training object detection algorithm, and training apparatus
WO2015098807A1 (en) Image-capturing system for combining subject and three-dimensional virtual space in real time
EP3251092A1 (en) Automatic generation of virtual materials from real-world materials
CN108780578A (en) Direct light compensation technique for augmented reality system
EP3642692B1 (en) System and method for interacting with a user via a mirror
JP7086273B2 (en) Aerial video display device
KR20230062802A (en) Image-based detection of surfaces that provide specular reflections and reflection modification
US20180278921A1 (en) Quad view display system
JP2013168146A (en) Method, device and system for generating texture description of real object
US20220277512A1 (en) Generation apparatus, generation method, system, and storage medium
US9449427B1 (en) Intensity modeling for rendering realistic images
JP7088721B2 (en) Information processing system and program
US11579449B2 (en) Systems and methods for providing mixed-reality experiences under low light conditions
CN108885802B (en) Information processing apparatus, information processing method, and storage medium
JP7188902B2 (en) Information processing system and program
JP7439197B2 (en) Information processing systems and programs
JP2019179541A (en) Information processing system and program
CN107635119B (en) Projective techniques and equipment
JP2019185072A (en) Information processing system and program
JP2019179539A (en) Information processing system and information processing program
JP2019185071A (en) Information processing system and program
JP2017026893A (en) Image display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220609

R150 Certificate of patent or registration of utility model

Ref document number: 7088721

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150