JP2013003848A - Virtual object display device - Google Patents

Virtual object display device Download PDF

Info

Publication number
JP2013003848A
JP2013003848A JP2011134328A JP2011134328A JP2013003848A JP 2013003848 A JP2013003848 A JP 2013003848A JP 2011134328 A JP2011134328 A JP 2011134328A JP 2011134328 A JP2011134328 A JP 2011134328A JP 2013003848 A JP2013003848 A JP 2013003848A
Authority
JP
Japan
Prior art keywords
virtual object
light source
image
unit
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011134328A
Other languages
Japanese (ja)
Inventor
Yasuhiro Yao
泰洋 八尾
Kazuyuki Iso
和之 磯
Harumi Kawamura
春美 川村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2011134328A priority Critical patent/JP2013003848A/en
Publication of JP2013003848A publication Critical patent/JP2013003848A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To create a virtual image in which a virtual object is arranged at an optional position in an image of a real space.SOLUTION: A virtual object display device comprises: an imaging part for outputting image data by imaging an object existing in a real space; a distance sensor part for outputting depth map information indicating a distance to the object; a light information estimation part for calculating the position of a light source in the real space, a color and an intensity of light emitted from the light source, and information indicating the light reaching a virtual object on the basis of the image data and depth map information; a face position detection part for detecting a position of the face of a viewer on the basis of the depth map information; an image creation part for creating an image acquired by setting the viewer's face as an eye point in a virtual space generated by arranging the virtual object at a predetermined position in the real space on the basis of the image data, information indicating the virtual object, the position, color and intensity of the light source, and the information indicating the light reaching the virtual object; and a display part for displaying the image created by the image creation part.

Description

本発明は、仮想物体表示装置に関する。   The present invention relates to a virtual object display device.

これまでにも仮想物体を現実空間に存在するかのように表現する技術は研究されている。代表的なものは両眼視差や運動視差の視差情報を反映して表示するものであり、仮想物体を立体的に表示する手法が検討されている(例えば、非特許文献1)。   There have been researches on techniques for expressing virtual objects as if they existed in real space. A typical one is one that reflects binocular parallax or motion parallax parallax information, and a method of displaying a virtual object in three dimensions has been studied (for example, Non-Patent Document 1).

また、仮想物体を現実の空間に重畳して表示する技術は、拡張現実の分野において研究されている。全周囲カメラなどを用いてある点に到達する光の情報を測定し、その情報に基づき仮想物体に明暗や影をつける手法がある。これにより、現実空間の画像中に仮想物体がその場に存在し、現実の光源から光を当てられているように表示できる。観測者は現実の空間と仮想物体の重畳画像とをヘッドマウントディスプレイや携帯型ディスプレイなどを通して観察する手法が検討されている(例えば、非特許文献2)。   Further, a technique for displaying a virtual object superimposed on a real space has been studied in the field of augmented reality. There is a method of measuring information of light reaching a certain point using an omnidirectional camera or the like, and adding light and darkness or shadow to a virtual object based on the information. As a result, the virtual object can be displayed in the real space image as if it was present and the light from the real light source was applied. A method in which an observer observes a real space and a superimposed image of a virtual object through a head mounted display, a portable display, or the like has been studied (for example, Non-Patent Document 2).

Y. Kunita, T. Kikukawa, et al, Image-based 3D Telecopier: A System for Sharing a 3D Object by Multiple Groups of People at Remote Locations, Proceedings of the 17th ACM Symposium on Virtual Reality Software and Technology, pp.51-54, 2010.Y. Kunita, T. Kikukawa, et al, Image-based 3D Telecopier: A System for Sharing a 3D Object by Multiple Groups of People at Remote Locations, Proceedings of the 17th ACM Symposium on Virtual Reality Software and Technology, pp.51- 54, 2010. M. Knecht, C. Traxler, et al, Differential Instant Radiosity for Mixed Reality, IEEE International Symposium on Mixed and Augmented Reality 2010 Science and Technology Proceedings, pp.99-107, 2010.M. Knecht, C. Traxler, et al, Differential Instant Radiosity for Mixed Reality, IEEE International Symposium on Mixed and Augmented Reality 2010 Science and Technology Proceedings, pp.99-107, 2010.

しかしながら、上記の手法では、カメラなどの光源を検出する装置を仮想物体を表示する位置に配置して、光源の光の色や、光源の位置(方向)、現実空間に存在する物体を反射して仮想物体に届くべき光である物体反射光などを事前に検出する必要がある。そのため、現実空間を撮像した画像の任意の位置に仮想物体を自由に表示させることができないという問題がある。   However, in the above method, a device that detects a light source such as a camera is arranged at a position where a virtual object is displayed, and reflects the color of the light source, the position (direction) of the light source, and an object existing in the real space. Therefore, it is necessary to detect in advance object reflected light that is light that should reach the virtual object. Therefore, there is a problem that a virtual object cannot be freely displayed at an arbitrary position in an image obtained by imaging the real space.

本発明は、上記問題を解決すべくなされたもので、その目的は、現実空間を撮像した画像に対して、仮想物体を任意の位置に配置した仮想的な画像を生成できる仮想物体表示装置を提供することにある。   The present invention has been made to solve the above problem, and an object of the present invention is to provide a virtual object display device that can generate a virtual image in which a virtual object is arranged at an arbitrary position with respect to an image obtained by capturing a real space. It is to provide.

上記問題を解決するために、本発明は、現実空間の予め定められた位置に仮想的に配置する物体である仮想物体の形状、及び表面の反射特性を示す仮想物体情報を予め記憶している仮想物体情報記憶部と、現実空間に存在する実物体を撮像して画像データを出力する撮像部と、前記実物体までの距離を測定し、測定した距離を示すデプスマップ情報を出力する距離センサ部と、前記画像データと前記デプスマップ情報とに基づいて、現実空間における光源の位置と、該光源から発せられる光の色及び強度と、前記実物体で反射して前記仮想物体に届く光である物体反射光を示す情報とを算出する光情報推定部と、前記デプスマップ情報に基づいて、前記仮想物体を観察する観察者の顔の位置を検出する顔位置検出部と、現実空間に前記仮想物体を予め定めた位置に配置した仮想的な空間において、前記顔位置検出部が検出した顔の位置を視点にして得られる画像を、前記画像データと、前記仮想物体情報と、前記光源の位置、色、及び強度と、前記仮想物体に届く光を示す情報とに基づいて生成する画像生成部と、前記画像生成部が生成した画像を表示する表示部とを具備することを特徴とする仮想物体表示装置である。   In order to solve the above-described problem, the present invention stores in advance virtual object information indicating the shape of a virtual object that is virtually placed at a predetermined position in the real space and the reflection characteristics of the surface. A virtual object information storage unit, an imaging unit that captures an image of a real object existing in real space and outputs image data, and a distance sensor that measures the distance to the real object and outputs depth map information indicating the measured distance The light source position in the real space, the color and intensity of the light emitted from the light source, and the light that is reflected by the real object and reaches the virtual object, based on the image data and the depth map information. An optical information estimation unit that calculates information indicating a certain object reflected light, a face position detection unit that detects the position of the face of the observer observing the virtual object based on the depth map information, and the real position in the real space Virtual object In a virtual space arranged at a predetermined position, an image obtained with the face position detected by the face position detection unit as a viewpoint, the image data, the virtual object information, the position of the light source, A virtual object comprising: an image generation unit that is generated based on color and intensity, and information indicating light that reaches the virtual object; and a display unit that displays an image generated by the image generation unit It is a display device.

また、本発明は、上記に記載の発明において、前記光情報推定部は、前記画像データにおいて、最も輝度の高い画素に対応する位置を光源の位置とすることを特徴とする。
また、本発明は、上記に記載の発明において、前記光情報推定部は、前記画像データに基づいて、撮像された前記実物体のスペキュラー反射している部分を複数検出し、検出したスペキュラー反射している部分ごとに、スペキュラー反射している部分の法線に関して、前記撮像部の位置からスペキュラー反射している部分に向かう直線と、鏡像の関係にある直線を算出し、算出した各直線の交点を光源の位置とすることを特徴とする。
また、本発明は、上記に記載の発明において、前記光情報推定部は、前記画像データにおいて予め定められた輝度閾値以上の輝度を有する画素が存在するか否かを判定し、前記輝度閾値以上の画素が存在する場合、前記画像データにおける最も輝度の高い画素に対応する位置を光源の位置とし、前記輝度閾値以上の画素が存在しない場合、前記画像データに基づいて、撮像された前記実物体のスペキュラー反射している部分を複数検出し、検出したスペキュラー反射している部分ごとに、スペキュラー反射している部分の法線に関して、前記撮像部の位置からスペキュラー反射している部分に向かう直線と、鏡像の関係にある直線を算出し、算出した各直線の交点を光源の位置とすることを特徴とする。
Further, the present invention is characterized in that, in the above-described invention, the optical information estimation unit sets a position corresponding to a pixel having the highest luminance in the image data as a position of a light source.
Further, according to the present invention, in the invention described above, the optical information estimation unit detects a plurality of specularly reflected portions of the captured real object based on the image data, and detects the detected specular reflection. With respect to the normal line of the specularly reflected part for each part, a straight line from the position of the imaging unit to the specularly reflected part and a straight line having a mirror image relation are calculated, and the intersection of each calculated straight line Is the position of the light source.
In the invention described above, the optical information estimation unit may determine whether or not there is a pixel having a luminance equal to or higher than a predetermined luminance threshold in the image data. If there is a pixel, the position corresponding to the pixel with the highest luminance in the image data is the position of the light source, and if there is no pixel equal to or higher than the luminance threshold, the real object imaged based on the image data Detecting a plurality of specular reflection parts, and for each detected specular reflection part, with respect to the normal of the specular reflection part, a straight line from the position of the imaging unit toward the specular reflection part and A straight line having a mirror image relationship is calculated, and the intersection of the calculated straight lines is set as the position of the light source.

この発明によれば、現実空間における光源の位置と、該光源から発せられる光の色及び強度と、物体反射光とに基づいて、現実空間に仮想物体を配置した仮想的な画像を生成するので、物体反射光による効果、光源に対する影、周辺の物体への映り込みが反映され、画像の品質を向上させることができる。   According to the present invention, a virtual image in which a virtual object is arranged in the real space is generated based on the position of the light source in the real space, the color and intensity of the light emitted from the light source, and the object reflected light. The effect of the object reflected light, the shadow on the light source, and the reflection on the surrounding object are reflected, and the image quality can be improved.

本実施形態における仮想物体表示装置1の外観の一例を示す図である。It is a figure which shows an example of the external appearance of the virtual object display apparatus 1 in this embodiment. 同実施形態における仮想物体表示装置1の構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the virtual object display apparatus 1 in the embodiment. 同実施形態における光情報推定部13の構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the optical information estimation part 13 in the embodiment. 同実施形態においる光源の位置を推定する方法を示す概略図である。It is the schematic which shows the method of estimating the position of the light source in the embodiment.

まず、本発明の概要について説明する。
例えば、遠隔に存在する物体や、製品プロトタイプのCGモデルについて議論をする場合などに、現実に存在する物体と同様に実在しているように仮想物体を表示することが重要である。これまで、そのような表示を行うには、仮想物体を立体的に表示することが重要であると考えられ、両眼視差や運動視差を取り入れた取り組みがなされてきた。発明者は、そのような両眼視差や運動視差だけでなく、現実世界における光源や物体を反射してきた光の影響を反映することが、仮想物体が現実世界に実在するように表示するために重要であるという知見に至った。
例えば、部屋の中にマグカップがあった場合には、マグカップはその部屋にある光源(蛍光灯など)からの光を受けることで見えるようになる。その際に、光源とマグカップの位置関係に応じてマグカップの影ができるし、マグカップの表面に光沢がある場合には観察者や周囲の物体がマグカップに映り込むこともある。このような現象は、物体が実空間に存在する場合には観察できる現象である。
First, an outline of the present invention will be described.
For example, when discussing a remotely existing object or a CG model of a product prototype, it is important to display a virtual object as if it existed in the same way as an actually existing object. Until now, in order to perform such display, it is considered important to display a virtual object in three dimensions, and efforts have been made to incorporate binocular parallax and motion parallax. The inventor reflects not only such binocular parallax and motion parallax but also the influence of light reflected from the light source and the object in the real world so that the virtual object is present in the real world. It came to the knowledge that it was important.
For example, when there is a mug in a room, the mug becomes visible by receiving light from a light source (such as a fluorescent lamp) in the room. At that time, the shadow of the mug is made according to the positional relationship between the light source and the mug, and when the surface of the mug is glossy, an observer or a surrounding object may be reflected in the mug. Such a phenomenon is a phenomenon that can be observed when an object exists in real space.

本発明は、上述した、光源からの光や、周辺の物体を反射してきた光(以下、物体反射光という)による現象を考慮して仮想物体を表現するものである。本発明により、現実の光源から仮想物体に光が当たって影ができる、現実に存在する物体が仮想物体に影を落とす、観察者や、現実空間の周囲の物体が仮想物体に映り込むなどの、現実世界に仮想物体が実在する場合には起こるべき現象を画像に加えることができる。その結果、現実空間に仮想物体が存在している場合と同様な画像を作り出すことができる。
本発明によって表示された画像は、窓ガラスのように透明な板を挟んだ向こう側に仮想物体が実在している場合に見える画像を再現したものである。ディスプレイ面が透明な板であったと仮定した場合に光源からの光や、物体反射光などの透明な板を透過する光を推定し、仮想物体に適用することで、透明な板を介して現実に物体が存在したときに起こる現象(現実の光源から仮想物体に光が当たって影ができる、現実に存在する物体が仮想物体に影を落とす、観察者や現実空間の周囲の物体が仮想物体に映り込むなど)を画像に加えることができる。
The present invention represents a virtual object in consideration of the phenomenon caused by the light from the light source and the light reflected from the surrounding object (hereinafter referred to as object reflected light). According to the present invention, a virtual object can be shaded by light hitting a virtual object from an actual light source, an object that actually exists casts a shadow on the virtual object, an observer or an object in the real space is reflected in the virtual object, etc. When a virtual object exists in the real world, a phenomenon that should occur can be added to the image. As a result, an image similar to the case where a virtual object exists in the real space can be created.
The image displayed according to the present invention is a reproduction of an image that appears when a virtual object actually exists on the other side across a transparent plate such as a window glass. Assuming that the display surface is a transparent plate, the light from the light source and the light that passes through the transparent plate, such as object reflection light, are estimated and applied to the virtual object. That occur when an object is present (a light source hits a virtual object to make a shadow, a real object casts a shadow on a virtual object, an observer or an object in real space is a virtual object) Can be added to the image.

以下、図面を参照して、本発明の実施形態における仮想物体表示装置を説明する。   Hereinafter, a virtual object display device according to an embodiment of the present invention will be described with reference to the drawings.

(第1実施形態)
図1は、本実施形態における仮想物体表示装置1の外観の一例を示す図である。同図に示すように、仮想物体表示装置1は、表示部としてのディスプレイと、撮像部としてのカメラと、距離センサ部としての距離センサを具備している。
(First embodiment)
FIG. 1 is a diagram illustrating an example of an appearance of a virtual object display device 1 according to the present embodiment. As shown in the figure, the virtual object display device 1 includes a display as a display unit, a camera as an imaging unit, and a distance sensor as a distance sensor unit.

図2は、本実施形態における仮想物体表示装置1の構成を示す概略ブロック図である。同図に示すように、仮想物体表示装置1は、撮像部11と、距離センサ部12と、表示部17と、演算部20とを具備している。演算部20は、光情報推定部13と、顔位置検出部14と、仮想物体情報記憶部15と、画像生成部16とを備えている。なお、演算部20は、例えば、計算装置で構成され、計算装置が有する記憶領域に格納されたソフトウエアを用いて、光情報推定部13と、顔位置検出部14と、仮想物体情報記憶部15と、画像生成部16とを実現させるようにしてもよい。また、本実施形態では、撮像部11と、距離センサ部12との位置合わせが予め行われているものとする。
仮想物体表示装置1は、撮像部11による画像データと、距離センサ部12が測定する奥行きを示す情報とを用いて、光情報推定部13が光源及び物体反射光の情報を推定する。また、顔位置検出部14が算出する観察者の顔の位置を基に3次元オブジェクトをレンダリングし、最終的な出力画像を生成して表示部17に表示させる。
FIG. 2 is a schematic block diagram showing the configuration of the virtual object display device 1 in the present embodiment. As shown in the figure, the virtual object display device 1 includes an imaging unit 11, a distance sensor unit 12, a display unit 17, and a calculation unit 20. The calculation unit 20 includes an optical information estimation unit 13, a face position detection unit 14, a virtual object information storage unit 15, and an image generation unit 16. Note that the calculation unit 20 includes, for example, a calculation device, and uses software stored in a storage area of the calculation device, so that the optical information estimation unit 13, the face position detection unit 14, and the virtual object information storage unit 15 and the image generation unit 16 may be realized. In the present embodiment, it is assumed that the imaging unit 11 and the distance sensor unit 12 are previously aligned.
In the virtual object display device 1, the light information estimation unit 13 estimates information on the light source and the object reflected light using image data obtained by the imaging unit 11 and information indicating the depth measured by the distance sensor unit 12. Further, the three-dimensional object is rendered based on the position of the face of the observer calculated by the face position detection unit 14, and a final output image is generated and displayed on the display unit 17.

撮像部11は、現実空間を撮像し、撮像した画像を示す画像データを出力する。撮像部11は、全方位レンズ光学系や、全方位ミラー光学系を含む画角が広い光学系を有しており、撮像部11の周囲の現実空間に存在する物体(被写体)を撮像する。撮像部11が出力する画像データは、撮像した物体を光の三原色(赤、緑、青)それぞれの明度を用いて示す情報である。
距離センサ部12は、現実空間の奥行きを測定し、測定した奥行きを示すデプスマップ情報を出力する。換言すると、撮像部11が撮像した現実空間に存在する物体までの距離を測定してデプスマップ情報を出力する。距離センサ部12には、例えば、Microsoft(登録商標)社から販売されているKINECT(登録商標)と同様に、赤外線パターン投影型の距離センサを用いてもよい。また、距離センサ部12は、撮像部11の撮像範囲内にある物体までの距離を測定できるように、複数のセンサを用いて構成してもよい。
The imaging unit 11 images a real space and outputs image data indicating the captured image. The imaging unit 11 has an optical system with a wide angle of view including an omnidirectional lens optical system and an omnidirectional mirror optical system, and images an object (subject) existing in a real space around the imaging unit 11. The image data output by the imaging unit 11 is information indicating the imaged object using the lightness of each of the three primary colors of light (red, green, and blue).
The distance sensor unit 12 measures the depth of the real space and outputs depth map information indicating the measured depth. In other words, the distance to the object existing in the real space imaged by the imaging unit 11 is measured and the depth map information is output. As the distance sensor unit 12, for example, an infrared pattern projection type distance sensor may be used as in the case of KINET (registered trademark) sold by Microsoft (registered trademark). Further, the distance sensor unit 12 may be configured using a plurality of sensors so that the distance to an object within the imaging range of the imaging unit 11 can be measured.

光情報推定部13は、撮像部11が出力する画像データと、距離センサ部12が出力するデプスマップ情報とに基づいて、画像データにおける光源の3次元座標、光源色、及び光の強度の推定を行う。また、光情報推定部13は、推定結果として、光源の現実空間における位置を示す3次元座標(x,y,z)、光源色を示す色情報(R,G,B)、及び光の強度を示す強度情報(S)を出力する。仮想物体表示装置1における座標系には、例えば、撮像部11又は距離センサ部12のいずれか一方を基準にした座標系を用いるようにしてもよい。
また、光情報推定部13は、現実空間に仮想物体を配置した場合に、現実空間に存在する物体の仮想物体の表面等への映り込みを算出するための3次元オブジェクトデータを出力する。この3次元オブジェクトデータは、画像データとデプスマップ情報とに基づいて算出された、現実空間に存在する物体の位置及び形状を示す情報であり、例えば、物体の形状を示す多面体などの基本図形(ポリゴン)及びその大きさを示すポリゴン情報と、当該物体の3次元座標を示す情報などが含まれている。
The optical information estimation unit 13 estimates the three-dimensional coordinates of the light source, the light source color, and the light intensity in the image data based on the image data output from the imaging unit 11 and the depth map information output from the distance sensor unit 12. I do. Further, the light information estimation unit 13 obtains, as estimation results, three-dimensional coordinates (x, y, z) indicating the position of the light source in the real space, color information (R, G, B) indicating the light source color, and light intensity. The intensity information (S) indicating is output. As the coordinate system in the virtual object display device 1, for example, a coordinate system based on one of the imaging unit 11 and the distance sensor unit 12 may be used.
In addition, when a virtual object is arranged in the real space, the optical information estimation unit 13 outputs three-dimensional object data for calculating the reflection of the object existing in the real space on the surface of the virtual object. This three-dimensional object data is information indicating the position and shape of an object existing in real space, calculated based on image data and depth map information. For example, a basic figure (such as a polyhedron indicating the shape of an object). Polygon) and polygon information indicating its size, information indicating the three-dimensional coordinates of the object, and the like.

図3は、本実施形態における光情報推定部13の構成を示す概略ブロック図である。同図に示すように、光情報推定部13は、光源位置推定部131と、光源色推定部132と、光源強度推定部133と、物体反射光推定部134とを備えている。本実施形態では、撮像部11の撮像範囲内に光源があるとみなして処理を行う。   FIG. 3 is a schematic block diagram illustrating the configuration of the optical information estimation unit 13 in the present embodiment. As shown in the figure, the light information estimation unit 13 includes a light source position estimation unit 131, a light source color estimation unit 132, a light source intensity estimation unit 133, and an object reflected light estimation unit 134. In the present embodiment, processing is performed assuming that the light source is within the imaging range of the imaging unit 11.

光源位置推定部131は、撮像部11が出力する画像データにおいて最も輝度が高い画素に対応する位置に光源があると判定する。また、光源位置推定部131は、距離センサ部12が出力するデプスマップ情報に基づいて、最も輝度が高い画素に対応する位置の3次元座標を算出する。
光源色推定部132は、光源自体が写り込んでいるので、光源位置推定部131が光源として判定した位置と、画像データとから光源から発せられる光源色を算出する。具体的には、光源色推定部132は、露光時間を光源によるサチュレーションが起きない程度十分に短くし、その際の映り込んだ光源の画素における色情報(R,G,B)の値により光源色を算出する。ここで、サチュレーションが起きない程度の露光時間とは、例えば、色情報の赤、緑、及び青それぞれの明度において取り得る値の最大値が存在しない画像データが得られる撮像部11の露光時間である。
The light source position estimation unit 131 determines that there is a light source at a position corresponding to the pixel with the highest luminance in the image data output from the imaging unit 11. Further, the light source position estimation unit 131 calculates the three-dimensional coordinates of the position corresponding to the pixel with the highest luminance based on the depth map information output from the distance sensor unit 12.
Since the light source itself is reflected, the light source color estimation unit 132 calculates the light source color emitted from the light source from the position determined as the light source by the light source position estimation unit 131 and the image data. Specifically, the light source color estimation unit 132 shortens the exposure time sufficiently so that saturation by the light source does not occur, and determines the light source according to the color information (R, G, B) values in the reflected light source pixels. Calculate the color. Here, the exposure time at which saturation does not occur is, for example, the exposure time of the imaging unit 11 in which image data for which there is no maximum value that can be taken in the lightness values of red, green, and blue in the color information is obtained. is there.

光源強度推定部133は、光源自体が写り込んでいるので、光源位置推定部131が光源として判定した位置と、画像データとから光源の強度を算出する。具体的には、光源強度推定部133は、光源色推定部132が算出した光源色と、露光時間と、映り込んだ光源の画素における輝度の値から光源の強度を算出する。   Since the light source itself is reflected, the light source intensity estimation unit 133 calculates the intensity of the light source from the position determined as the light source by the light source position estimation unit 131 and the image data. Specifically, the light source intensity estimating unit 133 calculates the intensity of the light source from the light source color calculated by the light source color estimating unit 132, the exposure time, and the luminance value of the reflected light source pixel.

物体反射光推定部134は、現実空間の予め定められた位置に配置した仮想物体に対する現実空間に存在する物体の映り込みを算出する際に用いられる3次元オブジェクトデータを算出する。物体反射光推定部134は、画像データと、デプスマップ情報とから、画像データに撮像されている物体それぞれについて、物体の位置及び形状を算出し、算出結果を3次元オブジェクトデータとして出力する。すなわち、物体反射光推定部134は、現実空間の物体を3次元オブジェクトとしてモデル化し、モデル化により得られた情報を3次元オブジェクトデータとして出力する。   The object reflected light estimation unit 134 calculates three-dimensional object data used when calculating the reflection of an object existing in the real space with respect to a virtual object arranged at a predetermined position in the real space. The object reflected light estimation unit 134 calculates the position and shape of each object captured in the image data from the image data and the depth map information, and outputs the calculation result as three-dimensional object data. That is, the object reflected light estimation unit 134 models an object in real space as a three-dimensional object, and outputs information obtained by the modeling as three-dimensional object data.

図2に戻って、仮想物体表示装置1を構成する各部の説明を続ける。
顔位置検出部14は、距離センサ部12が出力するデプスマップ情報から、観察者の顔の位置を検出する。顔位置検出部14は、例えば、Open NIのスケルトン処理機能(あるいは、スケルトントラッキング)を用いて得られる観察者の頭、胴体、腕、及び脚の骨格情報に基づいて、観察者の頭の位置(3次元座標)を特定して、顔の位置を算出する。顔位置検出部14は、顔の位置を示す3次元座標(ex,ey,ex)である顔位置情報を出力する。ここで、顔の位置は、仮想物体を現実空間に配置する際の視点を表す座標である。そこで、顔位置検出部14は、顔の位置に替えて、目の位置を算出するようにしてもよい。
Returning to FIG. 2, the description of each part constituting the virtual object display device 1 will be continued.
The face position detection unit 14 detects the position of the observer's face from the depth map information output by the distance sensor unit 12. For example, the face position detection unit 14 determines the position of the observer's head based on the skeleton information of the observer's head, torso, arms, and legs obtained using the Open NI skeleton processing function (or skeleton tracking). By specifying (three-dimensional coordinates), the position of the face is calculated. The face position detection unit 14 outputs face position information that is three-dimensional coordinates (ex, ey, ex) indicating the face position. Here, the face position is a coordinate representing a viewpoint when a virtual object is arranged in the real space. Therefore, the face position detection unit 14 may calculate the eye position instead of the face position.

仮想物体情報記憶部15には、仮想物体を画像上に表す際に用いる仮想物体情報が予め記憶されている。仮想物体情報には、仮想物体の形状を示すポリゴン情報、仮想物体の表面における模様や材質感を表現した画像を示すテクスチャ情報、仮想物体の表面における光の反射特性を示す情報が含まれている。   The virtual object information storage unit 15 stores in advance virtual object information used when representing a virtual object on an image. The virtual object information includes polygon information indicating the shape of the virtual object, texture information indicating an image expressing a pattern and a texture on the surface of the virtual object, and information indicating light reflection characteristics on the surface of the virtual object. .

画像生成部16は、光情報推定部13が出力する、光源の位置、光源色、及び強度、並びに現実空間に存在する物体の3次元オブジェクトデータと、仮想物体情報記憶部15に記憶されている仮想物体情報とに基づいて、現実空間において予め定められた位置に仮想物体が配置されたCG空間(仮想的な3次元空間)を生成する。このとき、画像生成部16は、生成したCG空間において、光情報推定部13が出力する色情報(R,G,B)及び強度情報(S)により示される光を発する光源を、光情報推定部13が出力する3次元座標(x,y,z)に配置し、顔位置検出部14が出力する顔位置情報に基づいて仮想的なカメラを配置し、当該カメラにより撮像される画像をレンダリング(レイトレーシングなど)により生成する。仮想的なカメラは、顔位置情報に含まれる3次元座標(ex,ey,ez)に配置される。また、画像生成部16は、仮想的なカメラの位置と、仮想物体情報と、3次元オブジェクトデータとに基づいて、仮想物体情報に含まれるテクスチャ情報を更新する。これにより、仮想物体の表面に映り込む物体が表現される。
表示部17は、例えば、液晶パネルなどの表示画面を有し、画像生成部16が生成した画像を表示する。
The image generation unit 16 is stored in the virtual object information storage unit 15 and the three-dimensional object data of the object existing in the real space and the position of the light source, the light source color, and the intensity output from the light information estimation unit 13. Based on the virtual object information, a CG space (virtual three-dimensional space) in which the virtual object is arranged at a predetermined position in the real space is generated. At this time, the image generation unit 16 performs light information estimation on a light source that emits light indicated by the color information (R, G, B) and intensity information (S) output from the light information estimation unit 13 in the generated CG space. The virtual camera is arranged based on the face position information output from the face position detection unit 14 and is rendered at the three-dimensional coordinates (x, y, z) output from the unit 13, and the image captured by the camera is rendered. (Ray tracing, etc.) The virtual camera is arranged at three-dimensional coordinates (ex, ey, ez) included in the face position information. The image generation unit 16 updates the texture information included in the virtual object information based on the virtual camera position, the virtual object information, and the three-dimensional object data. Thereby, the object reflected on the surface of the virtual object is expressed.
The display unit 17 has a display screen such as a liquid crystal panel, for example, and displays the image generated by the image generation unit 16.

上述の構成を有することにより、仮想物体表示装置1は、現実空間における光源と、物体反射光の情報を推定し、推定した情報を適用したレンダリングを行い、仮想物体を含むCG空間の画像を生成する。このとき、光情報推定部13は、距離センサ部12が測定した奥行きを示すデプスマップ情報と、撮像部11が広い画角を有する光学系を用いた撮像により得られた画像データとを用いて、光源の位置、色、及び強度を推定するとともに、物体反射光の推定を行う。また、顔位置検出部14は、撮像部11が出力する画像データと、距離センサ部12が測定した奥行きを示すデプスマップ情報とに基づいて、観察者の視点を推定している。
これにより、仮想物体表示装置1は、光源に関する情報を事前に得ることなしに、光源色や、光源の位置(方向)、物体反射光による効果光源に対する影、周辺の物体への映り込みを表現した画像を生成することができ、現実空間に仮想物体が存在している状態を示す仮想的な画像の品質を向上させることができる。その結果、仮想物体表示装置1が表示する画像を見た観察者に、仮想物体が現実空間に存在しているように感じさせることができる。
By having the above-described configuration, the virtual object display device 1 estimates light source and object reflected light information in the real space, performs rendering using the estimated information, and generates an image in the CG space including the virtual object. To do. At this time, the optical information estimation unit 13 uses depth map information indicating the depth measured by the distance sensor unit 12 and image data obtained by imaging using an optical system in which the imaging unit 11 has a wide angle of view. In addition to estimating the position, color, and intensity of the light source, the object reflected light is estimated. Further, the face position detection unit 14 estimates the observer's viewpoint based on the image data output by the imaging unit 11 and the depth map information indicating the depth measured by the distance sensor unit 12.
Thereby, the virtual object display device 1 expresses the light source color, the position (direction) of the light source, the shadow on the effect light source due to the object reflected light, and the reflection on the surrounding object without obtaining information on the light source in advance. The generated image can be generated, and the quality of the virtual image showing the state where the virtual object exists in the real space can be improved. As a result, it is possible to make the observer who sees the image displayed by the virtual object display device 1 feel that the virtual object exists in the real space.

(第2実施形態)
第2実施形態における仮想物体表示装置は、撮像部11の撮像範囲内に光源が存在していない場合において、仮想物体が現実空間に存在している状況を示す仮想的な画像を表示するものである。本実施形態における仮想物体表示装置は、第1実施形態の仮想物体表示装置1と同じ機能ブロックを有しているので各機能ブロックの説明を省略し、第1実施形態と異なる処理について説明する。
(Second Embodiment)
The virtual object display device according to the second embodiment displays a virtual image indicating a situation in which a virtual object exists in real space when no light source exists within the imaging range of the imaging unit 11. is there. Since the virtual object display device in the present embodiment has the same functional blocks as the virtual object display device 1 in the first embodiment, description of each functional block will be omitted, and processing different from that in the first embodiment will be described.

本実施形態における仮想物体表示装置では、光情報推定部13における光源の位置を推定する処理が、以下のように、第1実施形態と異なる。また、本実施形態では、第1実施形態と同様に、撮像部11と、距離センサ部12との位置合わせが予め行われているものとする。
光源位置推定部131は、撮像部11が出力する画像データと、距離センサ部12が出力するデプスマップ情報とに基づいて、現実空間に存在する物体の位置及び形状を検出する。また、光源位置推定部131は、画像データの輝度に基づいて、現実空間に存在する物体において光源からの光を強く反射している部分(スペキュラー反射をしている部分)を検出する。光源位置推定部131は、現実空間に存在する物体の位置及び形状から、物体においてスペキュラー反射をしている部分における物体面の法線を算出する。また光源位置推定部131は、算出した物体面の法線ごとに、当該物体面の法線に関して、撮像部11の位置からスペキュラー反射をしている部分に向かうベクトルと、鏡映の関係にあるベクトルを算出し、算出した鏡映の関係にあるベクトルが交差する点を光源の位置とする。
In the virtual object display device according to the present embodiment, the process of estimating the position of the light source in the optical information estimation unit 13 is different from that of the first embodiment as follows. In the present embodiment, as in the first embodiment, it is assumed that the imaging unit 11 and the distance sensor unit 12 are aligned in advance.
The light source position estimation unit 131 detects the position and shape of an object existing in the real space based on the image data output from the imaging unit 11 and the depth map information output from the distance sensor unit 12. Further, the light source position estimation unit 131 detects a portion (a portion that performs specular reflection) that strongly reflects light from the light source in an object that exists in the real space, based on the luminance of the image data. The light source position estimation unit 131 calculates the normal of the object plane in a portion where specular reflection is performed on the object from the position and shape of the object existing in the real space. In addition, the light source position estimation unit 131 has a reflection relationship with a vector directed from the position of the imaging unit 11 toward a portion where specular reflection is performed with respect to the calculated normal of the object plane. A vector is calculated, and a point at which the calculated mirror vectors intersect is set as the position of the light source.

図4は、本実施形態においる光源の位置を推定する方法を示す概略図である。同図に示すように、光源位置推定部131は、物体A及び物体Bそれぞれにおいて、スペキュラー反射面を検出する。光源位置推定部131は、物体Aのスペキュラー反射面の法線と、物体Bのスペキュラー反射面の法線とを算出する。また、光源位置推定部131は、物体Aにおいてスペキュラー反射している物体面の法線に関して、撮像部11(カメラ)の位置から物体Aにおいてスペキュラー反射をしている部分に向かう直線と、鏡映の関係にある直線を算出する。同様に、光源位置推定部131は、物体Bにおいてスペキュラー反射している物体面の法線に関して、撮像部11の位置から物体Bにおいてスペキュラー反射している部分に向かう直線と、鏡映の関係にある直線を算出する。そして、光源位置推定部131は、算出した鏡映の関係にある2つの直線の交点を光源位置とする。すなわち、光源位置推定部131は、物体A及び物体Bのスペキュラー反射面に対して入射角と同じ角度で反射した光線が撮像部11に到達しているとして、光源位置を算出している。
このとき、光源位置推定部131は、画像データにおいて輝度の高い2点を検出し、物体A及び物体Bそれぞれにおけるスペキュラー反射面を検出するようにしてもよい。
FIG. 4 is a schematic diagram showing a method for estimating the position of the light source in the present embodiment. As shown in the figure, the light source position estimation unit 131 detects a specular reflection surface in each of the object A and the object B. The light source position estimation unit 131 calculates the normal of the specular reflection surface of the object A and the normal of the specular reflection surface of the object B. In addition, the light source position estimation unit 131 relates to the normal of the object surface specularly reflected in the object A, a straight line from the position of the imaging unit 11 (camera) toward the part that is specularly reflected in the object A, A straight line having the relationship is calculated. Similarly, the light source position estimating unit 131 has a mirroring relationship with a straight line from the position of the imaging unit 11 toward the specularly reflected portion of the object B with respect to the normal of the object surface that is specularly reflected at the object B. A straight line is calculated. Then, the light source position estimation unit 131 sets the intersection of two straight lines having the calculated reflection relationship as the light source position. That is, the light source position estimation unit 131 calculates the light source position on the assumption that the light beam reflected at the same angle as the incident angle with respect to the specular reflection surfaces of the objects A and B has reached the imaging unit 11.
At this time, the light source position estimation unit 131 may detect two points with high luminance in the image data and detect the specular reflection surfaces in the objects A and B, respectively.

光源色推定部132は、例えば、参考文献1(G. J. Klinker, S. A. Shafer, T. Kanade, Using a Color Reflection Model to Separate Highlights from Object Color, Proceedings of the First International Conference on Computer Vision, pp.145-150, 1987.)や、参考文献2(特開平8−046990号公報)などに記載されている公知の技術を用いて光源色を推定する。参考文献1には、光源情報を取得する際に光源位置、光源色、光源強度を取得する際に、画像をハイライト部分と光沢のない部分とに分解し、ハイライト部分の色から光源色を推定する技術が記載されている。また、参考文献2には、灰色仮説(シーンに存在する物体の色をすべて平均したらそのシーンの光源化における灰色になるという仮説)に基づいて、光源色を推定する技術が記載されている。
光源強度推定部133は、画像データにおいて、最も明るい画素が光源から発せられる光の強度を反映しているとみなし、最も明るい画素の輝度値に基づいて、光源の強度を算出する。
For example, the light source color estimation unit 132 is described in Reference 1 (GJ Klinker, SA Shafer, T. Kanade, Using a Color Reflection Model to Separate Highlights from Object Color, Proceedings of the First International Conference on Computer Vision, pp.145-150. , 1987.) and a known technique described in Reference 2 (Japanese Patent Laid-Open No. 8-046990) and the like, the light source color is estimated. In Reference Document 1, when acquiring light source information, when acquiring a light source position, a light source color, and a light source intensity, the image is divided into a highlight part and a non-glossy part, and the light source color is determined from the color of the highlight part. Techniques for estimating are described. Further, Reference 2 describes a technique for estimating a light source color based on a gray hypothesis (a hypothesis that if all the colors of objects existing in a scene are averaged, the scene becomes gray in light source conversion).
The light source intensity estimation unit 133 considers that the brightest pixel in the image data reflects the intensity of light emitted from the light source, and calculates the intensity of the light source based on the luminance value of the brightest pixel.

上述の構成を有する仮想物体表示装置は、撮像部11の撮像範囲内に光源がない場合においても、光源の位置を推定して、光源の光の色や、光源の位置(方向)、物体反射光による効果光源に対する影、周辺の物体への映り込みを表現した画像を生成することができ、現実空間に仮想物体が存在している状態を示す仮想的な画像の品質を向上させることができる。これにより、仮想物体表示装置1が表示する画像を見た観察者に、仮想物体が現実空間に存在しているように感じさせることができる。
その結果、光源の位置を検出するために、仮想物体を配置する場所の全周囲の光を測定するデバイス(例えば、魚眼レンズなど)を用いることなく、仮想物体の陰影や、光沢を、仮想物体を配置する場所に応じて、画像に反映することができ、現実空間に仮想物体が存在している状態を示す仮想的な画像の品質を向上させることができる。
また、本実施形態における仮想物体表示装置では、撮像部11が出力する画像データに光源が含まれていない場合であっても光源の位置などを算出することができるので、撮像部11が有する光学系は、全方位レンズ光学系などの画角が広い光学系でなくてもよい。
The virtual object display device having the above-described configuration estimates the position of the light source even when there is no light source within the imaging range of the imaging unit 11, and determines the color of the light source, the position (direction) of the light source, and object reflection. It is possible to generate an image that expresses shadows on the effect light source by light and reflections on surrounding objects, and improves the quality of the virtual image that shows the state in which the virtual object exists in the real space . Thereby, it is possible to make the observer who sees the image displayed by the virtual object display device 1 feel that the virtual object exists in the real space.
As a result, in order to detect the position of the light source, the shadow and gloss of the virtual object can be reduced without using a device (for example, a fisheye lens) that measures the light around the entire place where the virtual object is placed. It can be reflected in the image according to the place to be arranged, and the quality of the virtual image showing the state where the virtual object exists in the real space can be improved.
Further, in the virtual object display device according to the present embodiment, the position of the light source can be calculated even when the light source is not included in the image data output from the imaging unit 11, and thus the optical included in the imaging unit 11. The system may not be an optical system with a wide angle of view such as an omnidirectional lens optical system.

なお、第1実施形態における光源の推定と、第2実施形態における光源の推定とを組み合わせて、光源の位置などの推定を行うようにしてもよい。具体的には、撮像部11は、画像データにサチュレーションが生じない露光時間で撮像した画像データを光情報推定部13に出力する。光源位置推定部131は、画像データにおいて、予め定められた輝度閾値以上の輝度を有する画素が存在するか否かを判定する。光情報推定部13は、輝度閾値以上の輝度を有する画素が存在する場合、撮像部11が撮像した画像内に光源があると判定し、第1実施形態における光源の推定を行う。一方、輝度閾値以上の輝度を有する画素が存在しない場合、光情報推定部13は、撮像部11が撮像した画像内に光源がないと判定し、第2実施形態における光源の推定を行う。ここで、輝度閾値は、複数の画像データに統計処理などを行って予め定めた輝度値である。
これにより、仮想物体表示装置1は、現実空間における光源の位置に応じた画像を表示することができ、現実空間に仮想物体が存在している状態を示す仮想的な画像の品質を更に向上させることができる。
The light source position and the like may be estimated by combining the light source estimation in the first embodiment and the light source estimation in the second embodiment. Specifically, the imaging unit 11 outputs image data captured at an exposure time that does not cause saturation in the image data to the optical information estimation unit 13. The light source position estimation unit 131 determines whether or not there is a pixel having a luminance equal to or higher than a predetermined luminance threshold in the image data. The optical information estimation unit 13 determines that there is a light source in the image captured by the imaging unit 11 when there is a pixel having a luminance equal to or higher than the luminance threshold, and estimates the light source in the first embodiment. On the other hand, when there is no pixel having a luminance equal to or higher than the luminance threshold, the optical information estimation unit 13 determines that there is no light source in the image captured by the imaging unit 11, and performs estimation of the light source in the second embodiment. Here, the luminance threshold is a luminance value that is predetermined by performing statistical processing or the like on a plurality of image data.
Thereby, the virtual object display device 1 can display an image corresponding to the position of the light source in the real space, and further improve the quality of the virtual image indicating the state in which the virtual object exists in the real space. be able to.

また、上記の第1及び第2実施形態において、表示部17として両眼視差式3次元ディスプレイを用いるようにしてもよい。両眼視差式3次元ディスプレイを用いて、画像生成部16が生成した画像に視差をつけて表示させることで、仮想物体を立体的に表示部17の表示画面の手前や奥に存在するように表示させることができる。仮想物体を表示部17の表示画面よりも奥に表示する際には上記の実施形態と同様の処理が行われる。仮想物体を表示画面よりも手前に浮き上がらせて視差をつけて表示する際には、光情報推定部13が、仮想物体を浮き上がらせる位置における光源からの光と、物体反射光とを推定して、画像生成部16が現実空間に仮想物体が存在している状態を示す仮想的な画像を生成する。これにより、仮想物体が表示画面よりも手前に実在した場合と同様の画像を作り出すことができる。
これにより、鑑賞が目的の場合、物体(彫刻や像など)を所有せずとも、仮想物体表示装置1を用いて物体を表示させることにより鑑賞を行うことができる。また、博物館でしか見られないようなものを遠隔地(遠隔博物館)で観察して楽しむことへの応用が可能となる。
In the first and second embodiments, a binocular parallax type three-dimensional display may be used as the display unit 17. By using a binocular parallax type three-dimensional display and displaying the image generated by the image generation unit 16 with parallax, the virtual object is three-dimensionally present in front of or behind the display screen of the display unit 17. Can be displayed. When a virtual object is displayed behind the display screen of the display unit 17, the same processing as in the above embodiment is performed. When displaying a virtual object with a parallax floating above the display screen, the light information estimation unit 13 estimates the light from the light source and the object reflected light at the position where the virtual object floats. The image generation unit 16 generates a virtual image indicating a state in which a virtual object exists in the real space. Thereby, an image similar to the case where the virtual object actually exists in front of the display screen can be created.
Accordingly, when viewing is intended, viewing can be performed by displaying the object using the virtual object display device 1 without owning an object (such as a sculpture or an image). In addition, it is possible to apply it to observing and enjoying things that can only be seen in a museum in a remote place (remote museum).

また、上記の第1及び第2実施形態における仮想物体表示装置は、距離センサ部12が出力するデプスマップ情報に基づいて観察者の顔の位置を検出する構成について説明したが、これに限らずともよい。例えば、仮想物体表示装置が加速度センサを有している携帯情報端末(例えば、携帯電話など)を用いて構成される場合、以下のようにして、観測者の顔の位置を検出するようにしてもよい。
加速度センサは、携帯情報端末が水平に対してどの程度傾いているかを示す情報を出力する。携帯情報端末の表示部17(ディスプレイ)と、観察者の顔との距離が一定であるとみなし、顔位置検出部14が、加速度センサが検出する携帯情報端末の傾きに基づいて、観察者の顔の位置を算出するようにしてもよい。ここで、観察者が携帯情報端末を利用する際の表示部17と顔との平均的な距離を予め算出しておき、顔位置検出部14に当該距離を記憶させておいてもよい。
Moreover, although the virtual object display apparatus in said 1st and 2nd embodiment demonstrated the structure which detects the position of an observer's face based on the depth map information which the distance sensor part 12 outputs, it is not restricted to this. Also good. For example, when the virtual object display device is configured using a portable information terminal (for example, a mobile phone) having an acceleration sensor, the position of the observer's face is detected as follows. Also good.
The acceleration sensor outputs information indicating how much the portable information terminal is inclined with respect to the horizontal. The distance between the display unit 17 (display) of the portable information terminal and the face of the observer is assumed to be constant, and the face position detection unit 14 determines the observer's face based on the inclination of the portable information terminal detected by the acceleration sensor. The position of the face may be calculated. Here, an average distance between the display unit 17 and the face when the observer uses the portable information terminal may be calculated in advance, and the distance may be stored in the face position detection unit 14.

また、上記の第1及び第2実施形態の仮想物体表示装置において、撮像部11、距離センサ部12、及び表示部17は、1つの筐体に納められておらずともよい。例えば、撮像部11及び距離センサ部12と、表示部17と、演算部20とは、それぞれを異なる装置としてもよい。   In the virtual object display devices of the first and second embodiments described above, the imaging unit 11, the distance sensor unit 12, and the display unit 17 may not be housed in one housing. For example, the imaging unit 11 and the distance sensor unit 12, the display unit 17, and the calculation unit 20 may be different devices.

また、上述の仮想物体表示装置は内部に、コンピュータシステムを有していてもよい。その場合、上述した顔位置検出部14、光情報推定部13、仮想物体情報記憶部15、及び画像生成部16が行う処理は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われることになる。ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしても良い。   Further, the virtual object display device described above may have a computer system inside. In that case, the processes performed by the face position detection unit 14, the optical information estimation unit 13, the virtual object information storage unit 15, and the image generation unit 16 described above are stored in a computer-readable recording medium in the form of a program. The above processing is performed by the computer reading and executing this program. Here, the computer-readable recording medium means a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, or the like. Alternatively, the computer program may be distributed to the computer via a communication line, and the computer that has received the distribution may execute the program.

1…仮想物体表示装置、11…撮像部、12…距離センサ部、13…光情報推定部、14…顔位置検出部、15…仮想物体情報記憶部、16…画像生成部、17…表示部、20…演算部、131…光源位置推定部、132…光源色推定部、133…光源強度推定部、134…物体反射光推定部   DESCRIPTION OF SYMBOLS 1 ... Virtual object display apparatus, 11 ... Imaging part, 12 ... Distance sensor part, 13 ... Optical information estimation part, 14 ... Face position detection part, 15 ... Virtual object information storage part, 16 ... Image generation part, 17 ... Display part , 20 ... calculating part, 131 ... light source position estimating part, 132 ... light source color estimating part, 133 ... light source intensity estimating part, 134 ... object reflected light estimating part

Claims (4)

現実空間の予め定められた位置に仮想的に配置する物体である仮想物体の形状、及び表面の反射特性を示す仮想物体情報を予め記憶している仮想物体情報記憶部と、
現実空間に存在する実物体を撮像して画像データを出力する撮像部と、
前記実物体までの距離を測定し、測定した距離を示すデプスマップ情報を出力する距離センサ部と、
前記画像データと前記デプスマップ情報とに基づいて、現実空間における光源の位置と、該光源から発せられる光の色及び強度と、前記実物体で反射して前記仮想物体に届く光である物体反射光を示す情報とを算出する光情報推定部と、
前記デプスマップ情報に基づいて、前記仮想物体を観察する観察者の顔の位置を検出する顔位置検出部と、
現実空間に前記仮想物体を予め定めた位置に配置した仮想的な空間において、前記顔位置検出部が検出した顔の位置を視点にして得られる画像を、前記画像データと、前記仮想物体情報と、前記光源の位置、色、及び強度と、前記仮想物体に届く光を示す情報とに基づいて生成する画像生成部と、
前記画像生成部が生成した画像を表示する表示部と
を具備することを特徴とする仮想物体表示装置。
A virtual object information storage unit that stores in advance virtual object information indicating the shape of a virtual object, which is an object that is virtually placed at a predetermined position in the real space, and the reflection characteristics of the surface;
An imaging unit that captures an image of a real object existing in the real space and outputs image data;
A distance sensor unit that measures the distance to the real object and outputs depth map information indicating the measured distance;
Based on the image data and the depth map information, the position of the light source in the real space, the color and intensity of the light emitted from the light source, and the object reflection that is the light that is reflected by the real object and reaches the virtual object An optical information estimation unit for calculating information indicating light;
A face position detection unit that detects the position of the face of the observer observing the virtual object based on the depth map information;
In a virtual space in which the virtual object is arranged in a predetermined position in the real space, an image obtained from the viewpoint of the face position detected by the face position detection unit is represented by the image data, the virtual object information, An image generation unit that generates the light source based on the position, color, and intensity of the light source and information indicating light reaching the virtual object;
A virtual object display device comprising: a display unit configured to display an image generated by the image generation unit.
前記光情報推定部は、
前記画像データにおいて、最も輝度の高い画素に対応する位置を光源の位置とする
ことを特徴とする請求項1に記載の仮想物体表示装置。
The optical information estimation unit includes:
The virtual object display device according to claim 1, wherein a position corresponding to a pixel having the highest luminance in the image data is a light source position.
前記光情報推定部は、
前記画像データに基づいて、撮像された前記実物体のスペキュラー反射している部分を複数検出し、検出したスペキュラー反射している部分ごとに、スペキュラー反射している部分の法線に関して、前記撮像部の位置からスペキュラー反射している部分に向かう直線と、鏡像の関係にある直線を算出し、算出した各直線の交点を光源の位置とする
ことを特徴とする請求項1に記載の仮想物体表示装置。
The optical information estimation unit includes:
Based on the image data, a plurality of specular reflection portions of the captured real object are detected, and for each detected specular reflection portion, the imaging unit is related to the normal of the specular reflection portion. 2. The virtual object display according to claim 1, wherein a straight line that is in a mirror image relation with a straight line that goes from the position to the specularly reflected portion is calculated, and an intersection of the calculated straight lines is set as a light source position. apparatus.
前記光情報推定部は、
前記画像データにおいて予め定められた輝度閾値以上の輝度を有する画素が存在するか否かを判定し、前記輝度閾値以上の画素が存在する場合、前記画像データにおける最も輝度の高い画素に対応する位置を光源の位置とし、前記輝度閾値以上の画素が存在しない場合、前記画像データに基づいて、撮像された前記実物体のスペキュラー反射している部分を複数検出し、検出したスペキュラー反射している部分ごとに、スペキュラー反射している部分の法線に関して、前記撮像部の位置からスペキュラー反射している部分に向かう直線と、鏡像の関係にある直線を算出し、算出した各直線の交点を光源の位置とする
ことを特徴とする請求項1から請求項3のいずれか一項に記載の仮想物体表示装置。
The optical information estimation unit includes:
It is determined whether or not there is a pixel having a luminance equal to or higher than a predetermined luminance threshold in the image data, and when there is a pixel equal to or higher than the luminance threshold, a position corresponding to the highest luminance pixel in the image data Is a position of the light source, and when there is no pixel equal to or greater than the luminance threshold, based on the image data, a plurality of specular reflection portions of the captured real object are detected, and the detected specular reflection portion Each time, with respect to the normal of the specularly reflected portion, a straight line from the position of the imaging unit to the specularly reflected portion and a straight line having a mirror image relation are calculated, and the intersection of the calculated straight lines is calculated as the intersection of the light source. The virtual object display device according to any one of claims 1 to 3, wherein the virtual object display device is a position.
JP2011134328A 2011-06-16 2011-06-16 Virtual object display device Withdrawn JP2013003848A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011134328A JP2013003848A (en) 2011-06-16 2011-06-16 Virtual object display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011134328A JP2013003848A (en) 2011-06-16 2011-06-16 Virtual object display device

Publications (1)

Publication Number Publication Date
JP2013003848A true JP2013003848A (en) 2013-01-07

Family

ID=47672352

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011134328A Withdrawn JP2013003848A (en) 2011-06-16 2011-06-16 Virtual object display device

Country Status (1)

Country Link
JP (1) JP2013003848A (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015185176A (en) * 2014-03-25 2015-10-22 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツングmetaio GmbH Expression method and system for virtual object in visual field of reality environment
KR20160096392A (en) * 2015-02-05 2016-08-16 한국전자통신연구원 Apparatus and Method for Intuitive Interaction
WO2016203772A1 (en) * 2015-06-17 2016-12-22 凸版印刷株式会社 Image processing system, method and program
WO2016203770A1 (en) * 2015-06-17 2016-12-22 凸版印刷株式会社 Image processing system, method and program
WO2016203729A1 (en) * 2015-06-17 2016-12-22 凸版印刷株式会社 Image processing device, method, and program
JP2017033314A (en) * 2015-07-31 2017-02-09 凸版印刷株式会社 Image processing system, method and program
JP2017033316A (en) * 2015-07-31 2017-02-09 凸版印刷株式会社 Image processing system, method and program
JP2017033315A (en) * 2015-07-31 2017-02-09 凸版印刷株式会社 Image processing system, method and program
JP2017045140A (en) * 2015-08-24 2017-03-02 凸版印刷株式会社 Picture display device, method and program
KR101868101B1 (en) * 2017-02-15 2018-06-18 주식회사 오비투유 Apparatus, method and computer program for generating contents
JP2019185069A (en) * 2018-03-30 2019-10-24 東京ガスiネット株式会社 Information processing system and program
JP2019191600A (en) * 2015-08-18 2019-10-31 マジック リープ, インコーポレイテッドMagic Leap,Inc. Virtual and augmented reality system and method
JP2020524838A (en) * 2017-06-01 2020-08-20 シグニファイ ホールディング ビー ヴィSignify Holding B.V. System and method for rendering virtual objects
JP2020191665A (en) * 2020-08-03 2020-11-26 パラマウントベッド株式会社 Image display controller, image display system, and program
JP2021530005A (en) * 2018-05-21 2021-11-04 アドシル リミテッド Fast generation of ray-tracing reflections of virtual objects in a real-world environment

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015185176A (en) * 2014-03-25 2015-10-22 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツングmetaio GmbH Expression method and system for virtual object in visual field of reality environment
KR101892735B1 (en) * 2015-02-05 2018-08-28 한국전자통신연구원 Apparatus and Method for Intuitive Interaction
KR20160096392A (en) * 2015-02-05 2016-08-16 한국전자통신연구원 Apparatus and Method for Intuitive Interaction
US11062484B2 (en) 2015-06-17 2021-07-13 Toppan Printing Co., Ltd. Image processing device, method, and program for rendering display data of a material
WO2016203729A1 (en) * 2015-06-17 2016-12-22 凸版印刷株式会社 Image processing device, method, and program
JP2017010131A (en) * 2015-06-17 2017-01-12 凸版印刷株式会社 Image processing system, method, and program
WO2016203770A1 (en) * 2015-06-17 2016-12-22 凸版印刷株式会社 Image processing system, method and program
WO2016203772A1 (en) * 2015-06-17 2016-12-22 凸版印刷株式会社 Image processing system, method and program
US10803630B2 (en) 2015-06-17 2020-10-13 Toppan Printing Co., Ltd. Image processing system, method, and program
US10553011B2 (en) * 2015-06-17 2020-02-04 Toppan Printing Co., Ltd. Image processing system, method, and program
JPWO2016203772A1 (en) * 2015-06-17 2018-04-05 凸版印刷株式会社 Image processing system, method, and program
JPWO2016203770A1 (en) * 2015-06-17 2018-04-05 凸版印刷株式会社 Image processing system, method, and program
US20180108153A1 (en) * 2015-06-17 2018-04-19 Toppan Printing Co., Ltd. Image processing system, method, and program
US20180114354A1 (en) * 2015-06-17 2018-04-26 Toppan Printing Co., Ltd. Image processing system, method, and program
EP3312804A4 (en) * 2015-06-17 2018-12-26 Toppan Printing Co., Ltd. Image processing system, method and program
JP2017033316A (en) * 2015-07-31 2017-02-09 凸版印刷株式会社 Image processing system, method and program
JP2017033315A (en) * 2015-07-31 2017-02-09 凸版印刷株式会社 Image processing system, method and program
JP2017033314A (en) * 2015-07-31 2017-02-09 凸版印刷株式会社 Image processing system, method and program
JP7036773B2 (en) 2015-08-18 2022-03-15 マジック リープ, インコーポレイテッド Virtual and augmented reality systems and methods
JP2019191600A (en) * 2015-08-18 2019-10-31 マジック リープ, インコーポレイテッドMagic Leap,Inc. Virtual and augmented reality system and method
JP2017045140A (en) * 2015-08-24 2017-03-02 凸版印刷株式会社 Picture display device, method and program
KR101868101B1 (en) * 2017-02-15 2018-06-18 주식회사 오비투유 Apparatus, method and computer program for generating contents
JP2020524838A (en) * 2017-06-01 2020-08-20 シグニファイ ホールディング ビー ヴィSignify Holding B.V. System and method for rendering virtual objects
JP2019185069A (en) * 2018-03-30 2019-10-24 東京ガスiネット株式会社 Information processing system and program
JP7188901B2 (en) 2018-03-30 2022-12-13 東京ガスiネット株式会社 Information processing system and program
JP2021530005A (en) * 2018-05-21 2021-11-04 アドシル リミテッド Fast generation of ray-tracing reflections of virtual objects in a real-world environment
JP7123041B2 (en) 2018-05-21 2022-08-22 アドシル リミテッド Fast generation of ray-traced reflections of virtual objects in real-world environments
JP2020191665A (en) * 2020-08-03 2020-11-26 パラマウントベッド株式会社 Image display controller, image display system, and program
JP7041211B2 (en) 2020-08-03 2022-03-23 パラマウントベッド株式会社 Image display control device, image display system and program

Similar Documents

Publication Publication Date Title
JP2013003848A (en) Virtual object display device
US10269177B2 (en) Headset removal in virtual, augmented, and mixed reality using an eye gaze database
US10701332B2 (en) Image processing apparatus, image processing method, image processing system, and storage medium
US11790482B2 (en) Mixed reality system with virtual content warping and method of generating virtual content using same
JP6340017B2 (en) An imaging system that synthesizes a subject and a three-dimensional virtual space in real time
US9613463B2 (en) Augmented reality extrapolation techniques
US11010958B2 (en) Method and system for generating an image of a subject in a scene
US20150262412A1 (en) Augmented reality lighting with dynamic geometry
KR20170086077A (en) Using depth information for drawing in augmented reality scenes
EP4165547A1 (en) Image augmentation for analytics
Meerits et al. Real-time diminished reality for dynamic scenes
KR20190062102A (en) Method and apparatus for operating 2d/3d augument reality technology
CN110956695A (en) Information processing apparatus, information processing method, and storage medium
JP2014067372A (en) Motion parallax reproduction program and device and three-dimensional model generation program and device therefor
JP5762015B2 (en) Image processing apparatus, image processing method, and program
KR20210014556A (en) Method and apparatus for generating immersive mixed reality data using lidar scanner and camera
JP2012234411A (en) Image generation device, image generation system, image generation program and image generation method
JPWO2018179254A1 (en) Image generating apparatus, image generating method, and program
JP6168597B2 (en) Information terminal equipment
CN111710044A (en) Image processing method, apparatus and computer-readable storage medium
US20230316810A1 (en) Three-dimensional (3d) facial feature tracking for autostereoscopic telepresence systems
JP6181549B2 (en) Image generation method, image generation apparatus, and image generation program
Battulga et al. View-dependent projection mapping enhanced by real background
US11615574B2 (en) System and method for rendering 6 degree-of-freedom virtual reality
US20230243973A1 (en) Real space object reconstruction within virtual space image using tof camera

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20130606

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20130801

A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140902