JP2013003848A - Virtual object display device - Google Patents
Virtual object display device Download PDFInfo
- Publication number
- JP2013003848A JP2013003848A JP2011134328A JP2011134328A JP2013003848A JP 2013003848 A JP2013003848 A JP 2013003848A JP 2011134328 A JP2011134328 A JP 2011134328A JP 2011134328 A JP2011134328 A JP 2011134328A JP 2013003848 A JP2013003848 A JP 2013003848A
- Authority
- JP
- Japan
- Prior art keywords
- virtual object
- light source
- image
- unit
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
Description
本発明は、仮想物体表示装置に関する。 The present invention relates to a virtual object display device.
これまでにも仮想物体を現実空間に存在するかのように表現する技術は研究されている。代表的なものは両眼視差や運動視差の視差情報を反映して表示するものであり、仮想物体を立体的に表示する手法が検討されている(例えば、非特許文献1)。 There have been researches on techniques for expressing virtual objects as if they existed in real space. A typical one is one that reflects binocular parallax or motion parallax parallax information, and a method of displaying a virtual object in three dimensions has been studied (for example, Non-Patent Document 1).
また、仮想物体を現実の空間に重畳して表示する技術は、拡張現実の分野において研究されている。全周囲カメラなどを用いてある点に到達する光の情報を測定し、その情報に基づき仮想物体に明暗や影をつける手法がある。これにより、現実空間の画像中に仮想物体がその場に存在し、現実の光源から光を当てられているように表示できる。観測者は現実の空間と仮想物体の重畳画像とをヘッドマウントディスプレイや携帯型ディスプレイなどを通して観察する手法が検討されている(例えば、非特許文献2)。 Further, a technique for displaying a virtual object superimposed on a real space has been studied in the field of augmented reality. There is a method of measuring information of light reaching a certain point using an omnidirectional camera or the like, and adding light and darkness or shadow to a virtual object based on the information. As a result, the virtual object can be displayed in the real space image as if it was present and the light from the real light source was applied. A method in which an observer observes a real space and a superimposed image of a virtual object through a head mounted display, a portable display, or the like has been studied (for example, Non-Patent Document 2).
しかしながら、上記の手法では、カメラなどの光源を検出する装置を仮想物体を表示する位置に配置して、光源の光の色や、光源の位置(方向)、現実空間に存在する物体を反射して仮想物体に届くべき光である物体反射光などを事前に検出する必要がある。そのため、現実空間を撮像した画像の任意の位置に仮想物体を自由に表示させることができないという問題がある。 However, in the above method, a device that detects a light source such as a camera is arranged at a position where a virtual object is displayed, and reflects the color of the light source, the position (direction) of the light source, and an object existing in the real space. Therefore, it is necessary to detect in advance object reflected light that is light that should reach the virtual object. Therefore, there is a problem that a virtual object cannot be freely displayed at an arbitrary position in an image obtained by imaging the real space.
本発明は、上記問題を解決すべくなされたもので、その目的は、現実空間を撮像した画像に対して、仮想物体を任意の位置に配置した仮想的な画像を生成できる仮想物体表示装置を提供することにある。 The present invention has been made to solve the above problem, and an object of the present invention is to provide a virtual object display device that can generate a virtual image in which a virtual object is arranged at an arbitrary position with respect to an image obtained by capturing a real space. It is to provide.
上記問題を解決するために、本発明は、現実空間の予め定められた位置に仮想的に配置する物体である仮想物体の形状、及び表面の反射特性を示す仮想物体情報を予め記憶している仮想物体情報記憶部と、現実空間に存在する実物体を撮像して画像データを出力する撮像部と、前記実物体までの距離を測定し、測定した距離を示すデプスマップ情報を出力する距離センサ部と、前記画像データと前記デプスマップ情報とに基づいて、現実空間における光源の位置と、該光源から発せられる光の色及び強度と、前記実物体で反射して前記仮想物体に届く光である物体反射光を示す情報とを算出する光情報推定部と、前記デプスマップ情報に基づいて、前記仮想物体を観察する観察者の顔の位置を検出する顔位置検出部と、現実空間に前記仮想物体を予め定めた位置に配置した仮想的な空間において、前記顔位置検出部が検出した顔の位置を視点にして得られる画像を、前記画像データと、前記仮想物体情報と、前記光源の位置、色、及び強度と、前記仮想物体に届く光を示す情報とに基づいて生成する画像生成部と、前記画像生成部が生成した画像を表示する表示部とを具備することを特徴とする仮想物体表示装置である。 In order to solve the above-described problem, the present invention stores in advance virtual object information indicating the shape of a virtual object that is virtually placed at a predetermined position in the real space and the reflection characteristics of the surface. A virtual object information storage unit, an imaging unit that captures an image of a real object existing in real space and outputs image data, and a distance sensor that measures the distance to the real object and outputs depth map information indicating the measured distance The light source position in the real space, the color and intensity of the light emitted from the light source, and the light that is reflected by the real object and reaches the virtual object, based on the image data and the depth map information. An optical information estimation unit that calculates information indicating a certain object reflected light, a face position detection unit that detects the position of the face of the observer observing the virtual object based on the depth map information, and the real position in the real space Virtual object In a virtual space arranged at a predetermined position, an image obtained with the face position detected by the face position detection unit as a viewpoint, the image data, the virtual object information, the position of the light source, A virtual object comprising: an image generation unit that is generated based on color and intensity, and information indicating light that reaches the virtual object; and a display unit that displays an image generated by the image generation unit It is a display device.
また、本発明は、上記に記載の発明において、前記光情報推定部は、前記画像データにおいて、最も輝度の高い画素に対応する位置を光源の位置とすることを特徴とする。
また、本発明は、上記に記載の発明において、前記光情報推定部は、前記画像データに基づいて、撮像された前記実物体のスペキュラー反射している部分を複数検出し、検出したスペキュラー反射している部分ごとに、スペキュラー反射している部分の法線に関して、前記撮像部の位置からスペキュラー反射している部分に向かう直線と、鏡像の関係にある直線を算出し、算出した各直線の交点を光源の位置とすることを特徴とする。
また、本発明は、上記に記載の発明において、前記光情報推定部は、前記画像データにおいて予め定められた輝度閾値以上の輝度を有する画素が存在するか否かを判定し、前記輝度閾値以上の画素が存在する場合、前記画像データにおける最も輝度の高い画素に対応する位置を光源の位置とし、前記輝度閾値以上の画素が存在しない場合、前記画像データに基づいて、撮像された前記実物体のスペキュラー反射している部分を複数検出し、検出したスペキュラー反射している部分ごとに、スペキュラー反射している部分の法線に関して、前記撮像部の位置からスペキュラー反射している部分に向かう直線と、鏡像の関係にある直線を算出し、算出した各直線の交点を光源の位置とすることを特徴とする。
Further, the present invention is characterized in that, in the above-described invention, the optical information estimation unit sets a position corresponding to a pixel having the highest luminance in the image data as a position of a light source.
Further, according to the present invention, in the invention described above, the optical information estimation unit detects a plurality of specularly reflected portions of the captured real object based on the image data, and detects the detected specular reflection. With respect to the normal line of the specularly reflected part for each part, a straight line from the position of the imaging unit to the specularly reflected part and a straight line having a mirror image relation are calculated, and the intersection of each calculated straight line Is the position of the light source.
In the invention described above, the optical information estimation unit may determine whether or not there is a pixel having a luminance equal to or higher than a predetermined luminance threshold in the image data. If there is a pixel, the position corresponding to the pixel with the highest luminance in the image data is the position of the light source, and if there is no pixel equal to or higher than the luminance threshold, the real object imaged based on the image data Detecting a plurality of specular reflection parts, and for each detected specular reflection part, with respect to the normal of the specular reflection part, a straight line from the position of the imaging unit toward the specular reflection part and A straight line having a mirror image relationship is calculated, and the intersection of the calculated straight lines is set as the position of the light source.
この発明によれば、現実空間における光源の位置と、該光源から発せられる光の色及び強度と、物体反射光とに基づいて、現実空間に仮想物体を配置した仮想的な画像を生成するので、物体反射光による効果、光源に対する影、周辺の物体への映り込みが反映され、画像の品質を向上させることができる。 According to the present invention, a virtual image in which a virtual object is arranged in the real space is generated based on the position of the light source in the real space, the color and intensity of the light emitted from the light source, and the object reflected light. The effect of the object reflected light, the shadow on the light source, and the reflection on the surrounding object are reflected, and the image quality can be improved.
まず、本発明の概要について説明する。
例えば、遠隔に存在する物体や、製品プロトタイプのCGモデルについて議論をする場合などに、現実に存在する物体と同様に実在しているように仮想物体を表示することが重要である。これまで、そのような表示を行うには、仮想物体を立体的に表示することが重要であると考えられ、両眼視差や運動視差を取り入れた取り組みがなされてきた。発明者は、そのような両眼視差や運動視差だけでなく、現実世界における光源や物体を反射してきた光の影響を反映することが、仮想物体が現実世界に実在するように表示するために重要であるという知見に至った。
例えば、部屋の中にマグカップがあった場合には、マグカップはその部屋にある光源(蛍光灯など)からの光を受けることで見えるようになる。その際に、光源とマグカップの位置関係に応じてマグカップの影ができるし、マグカップの表面に光沢がある場合には観察者や周囲の物体がマグカップに映り込むこともある。このような現象は、物体が実空間に存在する場合には観察できる現象である。
First, an outline of the present invention will be described.
For example, when discussing a remotely existing object or a CG model of a product prototype, it is important to display a virtual object as if it existed in the same way as an actually existing object. Until now, in order to perform such display, it is considered important to display a virtual object in three dimensions, and efforts have been made to incorporate binocular parallax and motion parallax. The inventor reflects not only such binocular parallax and motion parallax but also the influence of light reflected from the light source and the object in the real world so that the virtual object is present in the real world. It came to the knowledge that it was important.
For example, when there is a mug in a room, the mug becomes visible by receiving light from a light source (such as a fluorescent lamp) in the room. At that time, the shadow of the mug is made according to the positional relationship between the light source and the mug, and when the surface of the mug is glossy, an observer or a surrounding object may be reflected in the mug. Such a phenomenon is a phenomenon that can be observed when an object exists in real space.
本発明は、上述した、光源からの光や、周辺の物体を反射してきた光(以下、物体反射光という)による現象を考慮して仮想物体を表現するものである。本発明により、現実の光源から仮想物体に光が当たって影ができる、現実に存在する物体が仮想物体に影を落とす、観察者や、現実空間の周囲の物体が仮想物体に映り込むなどの、現実世界に仮想物体が実在する場合には起こるべき現象を画像に加えることができる。その結果、現実空間に仮想物体が存在している場合と同様な画像を作り出すことができる。
本発明によって表示された画像は、窓ガラスのように透明な板を挟んだ向こう側に仮想物体が実在している場合に見える画像を再現したものである。ディスプレイ面が透明な板であったと仮定した場合に光源からの光や、物体反射光などの透明な板を透過する光を推定し、仮想物体に適用することで、透明な板を介して現実に物体が存在したときに起こる現象(現実の光源から仮想物体に光が当たって影ができる、現実に存在する物体が仮想物体に影を落とす、観察者や現実空間の周囲の物体が仮想物体に映り込むなど)を画像に加えることができる。
The present invention represents a virtual object in consideration of the phenomenon caused by the light from the light source and the light reflected from the surrounding object (hereinafter referred to as object reflected light). According to the present invention, a virtual object can be shaded by light hitting a virtual object from an actual light source, an object that actually exists casts a shadow on the virtual object, an observer or an object in the real space is reflected in the virtual object, etc. When a virtual object exists in the real world, a phenomenon that should occur can be added to the image. As a result, an image similar to the case where a virtual object exists in the real space can be created.
The image displayed according to the present invention is a reproduction of an image that appears when a virtual object actually exists on the other side across a transparent plate such as a window glass. Assuming that the display surface is a transparent plate, the light from the light source and the light that passes through the transparent plate, such as object reflection light, are estimated and applied to the virtual object. That occur when an object is present (a light source hits a virtual object to make a shadow, a real object casts a shadow on a virtual object, an observer or an object in real space is a virtual object) Can be added to the image.
以下、図面を参照して、本発明の実施形態における仮想物体表示装置を説明する。 Hereinafter, a virtual object display device according to an embodiment of the present invention will be described with reference to the drawings.
(第1実施形態)
図1は、本実施形態における仮想物体表示装置1の外観の一例を示す図である。同図に示すように、仮想物体表示装置1は、表示部としてのディスプレイと、撮像部としてのカメラと、距離センサ部としての距離センサを具備している。
(First embodiment)
FIG. 1 is a diagram illustrating an example of an appearance of a virtual object display device 1 according to the present embodiment. As shown in the figure, the virtual object display device 1 includes a display as a display unit, a camera as an imaging unit, and a distance sensor as a distance sensor unit.
図2は、本実施形態における仮想物体表示装置1の構成を示す概略ブロック図である。同図に示すように、仮想物体表示装置1は、撮像部11と、距離センサ部12と、表示部17と、演算部20とを具備している。演算部20は、光情報推定部13と、顔位置検出部14と、仮想物体情報記憶部15と、画像生成部16とを備えている。なお、演算部20は、例えば、計算装置で構成され、計算装置が有する記憶領域に格納されたソフトウエアを用いて、光情報推定部13と、顔位置検出部14と、仮想物体情報記憶部15と、画像生成部16とを実現させるようにしてもよい。また、本実施形態では、撮像部11と、距離センサ部12との位置合わせが予め行われているものとする。
仮想物体表示装置1は、撮像部11による画像データと、距離センサ部12が測定する奥行きを示す情報とを用いて、光情報推定部13が光源及び物体反射光の情報を推定する。また、顔位置検出部14が算出する観察者の顔の位置を基に3次元オブジェクトをレンダリングし、最終的な出力画像を生成して表示部17に表示させる。
FIG. 2 is a schematic block diagram showing the configuration of the virtual object display device 1 in the present embodiment. As shown in the figure, the virtual object display device 1 includes an
In the virtual object display device 1, the light
撮像部11は、現実空間を撮像し、撮像した画像を示す画像データを出力する。撮像部11は、全方位レンズ光学系や、全方位ミラー光学系を含む画角が広い光学系を有しており、撮像部11の周囲の現実空間に存在する物体(被写体)を撮像する。撮像部11が出力する画像データは、撮像した物体を光の三原色(赤、緑、青)それぞれの明度を用いて示す情報である。
距離センサ部12は、現実空間の奥行きを測定し、測定した奥行きを示すデプスマップ情報を出力する。換言すると、撮像部11が撮像した現実空間に存在する物体までの距離を測定してデプスマップ情報を出力する。距離センサ部12には、例えば、Microsoft(登録商標)社から販売されているKINECT(登録商標)と同様に、赤外線パターン投影型の距離センサを用いてもよい。また、距離センサ部12は、撮像部11の撮像範囲内にある物体までの距離を測定できるように、複数のセンサを用いて構成してもよい。
The
The
光情報推定部13は、撮像部11が出力する画像データと、距離センサ部12が出力するデプスマップ情報とに基づいて、画像データにおける光源の3次元座標、光源色、及び光の強度の推定を行う。また、光情報推定部13は、推定結果として、光源の現実空間における位置を示す3次元座標(x,y,z)、光源色を示す色情報(R,G,B)、及び光の強度を示す強度情報(S)を出力する。仮想物体表示装置1における座標系には、例えば、撮像部11又は距離センサ部12のいずれか一方を基準にした座標系を用いるようにしてもよい。
また、光情報推定部13は、現実空間に仮想物体を配置した場合に、現実空間に存在する物体の仮想物体の表面等への映り込みを算出するための3次元オブジェクトデータを出力する。この3次元オブジェクトデータは、画像データとデプスマップ情報とに基づいて算出された、現実空間に存在する物体の位置及び形状を示す情報であり、例えば、物体の形状を示す多面体などの基本図形(ポリゴン)及びその大きさを示すポリゴン情報と、当該物体の3次元座標を示す情報などが含まれている。
The optical
In addition, when a virtual object is arranged in the real space, the optical
図3は、本実施形態における光情報推定部13の構成を示す概略ブロック図である。同図に示すように、光情報推定部13は、光源位置推定部131と、光源色推定部132と、光源強度推定部133と、物体反射光推定部134とを備えている。本実施形態では、撮像部11の撮像範囲内に光源があるとみなして処理を行う。
FIG. 3 is a schematic block diagram illustrating the configuration of the optical
光源位置推定部131は、撮像部11が出力する画像データにおいて最も輝度が高い画素に対応する位置に光源があると判定する。また、光源位置推定部131は、距離センサ部12が出力するデプスマップ情報に基づいて、最も輝度が高い画素に対応する位置の3次元座標を算出する。
光源色推定部132は、光源自体が写り込んでいるので、光源位置推定部131が光源として判定した位置と、画像データとから光源から発せられる光源色を算出する。具体的には、光源色推定部132は、露光時間を光源によるサチュレーションが起きない程度十分に短くし、その際の映り込んだ光源の画素における色情報(R,G,B)の値により光源色を算出する。ここで、サチュレーションが起きない程度の露光時間とは、例えば、色情報の赤、緑、及び青それぞれの明度において取り得る値の最大値が存在しない画像データが得られる撮像部11の露光時間である。
The light source
Since the light source itself is reflected, the light source
光源強度推定部133は、光源自体が写り込んでいるので、光源位置推定部131が光源として判定した位置と、画像データとから光源の強度を算出する。具体的には、光源強度推定部133は、光源色推定部132が算出した光源色と、露光時間と、映り込んだ光源の画素における輝度の値から光源の強度を算出する。
Since the light source itself is reflected, the light source
物体反射光推定部134は、現実空間の予め定められた位置に配置した仮想物体に対する現実空間に存在する物体の映り込みを算出する際に用いられる3次元オブジェクトデータを算出する。物体反射光推定部134は、画像データと、デプスマップ情報とから、画像データに撮像されている物体それぞれについて、物体の位置及び形状を算出し、算出結果を3次元オブジェクトデータとして出力する。すなわち、物体反射光推定部134は、現実空間の物体を3次元オブジェクトとしてモデル化し、モデル化により得られた情報を3次元オブジェクトデータとして出力する。
The object reflected
図2に戻って、仮想物体表示装置1を構成する各部の説明を続ける。
顔位置検出部14は、距離センサ部12が出力するデプスマップ情報から、観察者の顔の位置を検出する。顔位置検出部14は、例えば、Open NIのスケルトン処理機能(あるいは、スケルトントラッキング)を用いて得られる観察者の頭、胴体、腕、及び脚の骨格情報に基づいて、観察者の頭の位置(3次元座標)を特定して、顔の位置を算出する。顔位置検出部14は、顔の位置を示す3次元座標(ex,ey,ex)である顔位置情報を出力する。ここで、顔の位置は、仮想物体を現実空間に配置する際の視点を表す座標である。そこで、顔位置検出部14は、顔の位置に替えて、目の位置を算出するようにしてもよい。
Returning to FIG. 2, the description of each part constituting the virtual object display device 1 will be continued.
The face
仮想物体情報記憶部15には、仮想物体を画像上に表す際に用いる仮想物体情報が予め記憶されている。仮想物体情報には、仮想物体の形状を示すポリゴン情報、仮想物体の表面における模様や材質感を表現した画像を示すテクスチャ情報、仮想物体の表面における光の反射特性を示す情報が含まれている。
The virtual object
画像生成部16は、光情報推定部13が出力する、光源の位置、光源色、及び強度、並びに現実空間に存在する物体の3次元オブジェクトデータと、仮想物体情報記憶部15に記憶されている仮想物体情報とに基づいて、現実空間において予め定められた位置に仮想物体が配置されたCG空間(仮想的な3次元空間)を生成する。このとき、画像生成部16は、生成したCG空間において、光情報推定部13が出力する色情報(R,G,B)及び強度情報(S)により示される光を発する光源を、光情報推定部13が出力する3次元座標(x,y,z)に配置し、顔位置検出部14が出力する顔位置情報に基づいて仮想的なカメラを配置し、当該カメラにより撮像される画像をレンダリング(レイトレーシングなど)により生成する。仮想的なカメラは、顔位置情報に含まれる3次元座標(ex,ey,ez)に配置される。また、画像生成部16は、仮想的なカメラの位置と、仮想物体情報と、3次元オブジェクトデータとに基づいて、仮想物体情報に含まれるテクスチャ情報を更新する。これにより、仮想物体の表面に映り込む物体が表現される。
表示部17は、例えば、液晶パネルなどの表示画面を有し、画像生成部16が生成した画像を表示する。
The
The
上述の構成を有することにより、仮想物体表示装置1は、現実空間における光源と、物体反射光の情報を推定し、推定した情報を適用したレンダリングを行い、仮想物体を含むCG空間の画像を生成する。このとき、光情報推定部13は、距離センサ部12が測定した奥行きを示すデプスマップ情報と、撮像部11が広い画角を有する光学系を用いた撮像により得られた画像データとを用いて、光源の位置、色、及び強度を推定するとともに、物体反射光の推定を行う。また、顔位置検出部14は、撮像部11が出力する画像データと、距離センサ部12が測定した奥行きを示すデプスマップ情報とに基づいて、観察者の視点を推定している。
これにより、仮想物体表示装置1は、光源に関する情報を事前に得ることなしに、光源色や、光源の位置(方向)、物体反射光による効果光源に対する影、周辺の物体への映り込みを表現した画像を生成することができ、現実空間に仮想物体が存在している状態を示す仮想的な画像の品質を向上させることができる。その結果、仮想物体表示装置1が表示する画像を見た観察者に、仮想物体が現実空間に存在しているように感じさせることができる。
By having the above-described configuration, the virtual object display device 1 estimates light source and object reflected light information in the real space, performs rendering using the estimated information, and generates an image in the CG space including the virtual object. To do. At this time, the optical
Thereby, the virtual object display device 1 expresses the light source color, the position (direction) of the light source, the shadow on the effect light source due to the object reflected light, and the reflection on the surrounding object without obtaining information on the light source in advance. The generated image can be generated, and the quality of the virtual image showing the state where the virtual object exists in the real space can be improved. As a result, it is possible to make the observer who sees the image displayed by the virtual object display device 1 feel that the virtual object exists in the real space.
(第2実施形態)
第2実施形態における仮想物体表示装置は、撮像部11の撮像範囲内に光源が存在していない場合において、仮想物体が現実空間に存在している状況を示す仮想的な画像を表示するものである。本実施形態における仮想物体表示装置は、第1実施形態の仮想物体表示装置1と同じ機能ブロックを有しているので各機能ブロックの説明を省略し、第1実施形態と異なる処理について説明する。
(Second Embodiment)
The virtual object display device according to the second embodiment displays a virtual image indicating a situation in which a virtual object exists in real space when no light source exists within the imaging range of the
本実施形態における仮想物体表示装置では、光情報推定部13における光源の位置を推定する処理が、以下のように、第1実施形態と異なる。また、本実施形態では、第1実施形態と同様に、撮像部11と、距離センサ部12との位置合わせが予め行われているものとする。
光源位置推定部131は、撮像部11が出力する画像データと、距離センサ部12が出力するデプスマップ情報とに基づいて、現実空間に存在する物体の位置及び形状を検出する。また、光源位置推定部131は、画像データの輝度に基づいて、現実空間に存在する物体において光源からの光を強く反射している部分(スペキュラー反射をしている部分)を検出する。光源位置推定部131は、現実空間に存在する物体の位置及び形状から、物体においてスペキュラー反射をしている部分における物体面の法線を算出する。また光源位置推定部131は、算出した物体面の法線ごとに、当該物体面の法線に関して、撮像部11の位置からスペキュラー反射をしている部分に向かうベクトルと、鏡映の関係にあるベクトルを算出し、算出した鏡映の関係にあるベクトルが交差する点を光源の位置とする。
In the virtual object display device according to the present embodiment, the process of estimating the position of the light source in the optical
The light source
図4は、本実施形態においる光源の位置を推定する方法を示す概略図である。同図に示すように、光源位置推定部131は、物体A及び物体Bそれぞれにおいて、スペキュラー反射面を検出する。光源位置推定部131は、物体Aのスペキュラー反射面の法線と、物体Bのスペキュラー反射面の法線とを算出する。また、光源位置推定部131は、物体Aにおいてスペキュラー反射している物体面の法線に関して、撮像部11(カメラ)の位置から物体Aにおいてスペキュラー反射をしている部分に向かう直線と、鏡映の関係にある直線を算出する。同様に、光源位置推定部131は、物体Bにおいてスペキュラー反射している物体面の法線に関して、撮像部11の位置から物体Bにおいてスペキュラー反射している部分に向かう直線と、鏡映の関係にある直線を算出する。そして、光源位置推定部131は、算出した鏡映の関係にある2つの直線の交点を光源位置とする。すなわち、光源位置推定部131は、物体A及び物体Bのスペキュラー反射面に対して入射角と同じ角度で反射した光線が撮像部11に到達しているとして、光源位置を算出している。
このとき、光源位置推定部131は、画像データにおいて輝度の高い2点を検出し、物体A及び物体Bそれぞれにおけるスペキュラー反射面を検出するようにしてもよい。
FIG. 4 is a schematic diagram showing a method for estimating the position of the light source in the present embodiment. As shown in the figure, the light source
At this time, the light source
光源色推定部132は、例えば、参考文献1(G. J. Klinker, S. A. Shafer, T. Kanade, Using a Color Reflection Model to Separate Highlights from Object Color, Proceedings of the First International Conference on Computer Vision, pp.145-150, 1987.)や、参考文献2(特開平8−046990号公報)などに記載されている公知の技術を用いて光源色を推定する。参考文献1には、光源情報を取得する際に光源位置、光源色、光源強度を取得する際に、画像をハイライト部分と光沢のない部分とに分解し、ハイライト部分の色から光源色を推定する技術が記載されている。また、参考文献2には、灰色仮説(シーンに存在する物体の色をすべて平均したらそのシーンの光源化における灰色になるという仮説)に基づいて、光源色を推定する技術が記載されている。
光源強度推定部133は、画像データにおいて、最も明るい画素が光源から発せられる光の強度を反映しているとみなし、最も明るい画素の輝度値に基づいて、光源の強度を算出する。
For example, the light source
The light source
上述の構成を有する仮想物体表示装置は、撮像部11の撮像範囲内に光源がない場合においても、光源の位置を推定して、光源の光の色や、光源の位置(方向)、物体反射光による効果光源に対する影、周辺の物体への映り込みを表現した画像を生成することができ、現実空間に仮想物体が存在している状態を示す仮想的な画像の品質を向上させることができる。これにより、仮想物体表示装置1が表示する画像を見た観察者に、仮想物体が現実空間に存在しているように感じさせることができる。
その結果、光源の位置を検出するために、仮想物体を配置する場所の全周囲の光を測定するデバイス(例えば、魚眼レンズなど)を用いることなく、仮想物体の陰影や、光沢を、仮想物体を配置する場所に応じて、画像に反映することができ、現実空間に仮想物体が存在している状態を示す仮想的な画像の品質を向上させることができる。
また、本実施形態における仮想物体表示装置では、撮像部11が出力する画像データに光源が含まれていない場合であっても光源の位置などを算出することができるので、撮像部11が有する光学系は、全方位レンズ光学系などの画角が広い光学系でなくてもよい。
The virtual object display device having the above-described configuration estimates the position of the light source even when there is no light source within the imaging range of the
As a result, in order to detect the position of the light source, the shadow and gloss of the virtual object can be reduced without using a device (for example, a fisheye lens) that measures the light around the entire place where the virtual object is placed. It can be reflected in the image according to the place to be arranged, and the quality of the virtual image showing the state where the virtual object exists in the real space can be improved.
Further, in the virtual object display device according to the present embodiment, the position of the light source can be calculated even when the light source is not included in the image data output from the
なお、第1実施形態における光源の推定と、第2実施形態における光源の推定とを組み合わせて、光源の位置などの推定を行うようにしてもよい。具体的には、撮像部11は、画像データにサチュレーションが生じない露光時間で撮像した画像データを光情報推定部13に出力する。光源位置推定部131は、画像データにおいて、予め定められた輝度閾値以上の輝度を有する画素が存在するか否かを判定する。光情報推定部13は、輝度閾値以上の輝度を有する画素が存在する場合、撮像部11が撮像した画像内に光源があると判定し、第1実施形態における光源の推定を行う。一方、輝度閾値以上の輝度を有する画素が存在しない場合、光情報推定部13は、撮像部11が撮像した画像内に光源がないと判定し、第2実施形態における光源の推定を行う。ここで、輝度閾値は、複数の画像データに統計処理などを行って予め定めた輝度値である。
これにより、仮想物体表示装置1は、現実空間における光源の位置に応じた画像を表示することができ、現実空間に仮想物体が存在している状態を示す仮想的な画像の品質を更に向上させることができる。
The light source position and the like may be estimated by combining the light source estimation in the first embodiment and the light source estimation in the second embodiment. Specifically, the
Thereby, the virtual object display device 1 can display an image corresponding to the position of the light source in the real space, and further improve the quality of the virtual image indicating the state in which the virtual object exists in the real space. be able to.
また、上記の第1及び第2実施形態において、表示部17として両眼視差式3次元ディスプレイを用いるようにしてもよい。両眼視差式3次元ディスプレイを用いて、画像生成部16が生成した画像に視差をつけて表示させることで、仮想物体を立体的に表示部17の表示画面の手前や奥に存在するように表示させることができる。仮想物体を表示部17の表示画面よりも奥に表示する際には上記の実施形態と同様の処理が行われる。仮想物体を表示画面よりも手前に浮き上がらせて視差をつけて表示する際には、光情報推定部13が、仮想物体を浮き上がらせる位置における光源からの光と、物体反射光とを推定して、画像生成部16が現実空間に仮想物体が存在している状態を示す仮想的な画像を生成する。これにより、仮想物体が表示画面よりも手前に実在した場合と同様の画像を作り出すことができる。
これにより、鑑賞が目的の場合、物体(彫刻や像など)を所有せずとも、仮想物体表示装置1を用いて物体を表示させることにより鑑賞を行うことができる。また、博物館でしか見られないようなものを遠隔地(遠隔博物館)で観察して楽しむことへの応用が可能となる。
In the first and second embodiments, a binocular parallax type three-dimensional display may be used as the
Accordingly, when viewing is intended, viewing can be performed by displaying the object using the virtual object display device 1 without owning an object (such as a sculpture or an image). In addition, it is possible to apply it to observing and enjoying things that can only be seen in a museum in a remote place (remote museum).
また、上記の第1及び第2実施形態における仮想物体表示装置は、距離センサ部12が出力するデプスマップ情報に基づいて観察者の顔の位置を検出する構成について説明したが、これに限らずともよい。例えば、仮想物体表示装置が加速度センサを有している携帯情報端末(例えば、携帯電話など)を用いて構成される場合、以下のようにして、観測者の顔の位置を検出するようにしてもよい。
加速度センサは、携帯情報端末が水平に対してどの程度傾いているかを示す情報を出力する。携帯情報端末の表示部17(ディスプレイ)と、観察者の顔との距離が一定であるとみなし、顔位置検出部14が、加速度センサが検出する携帯情報端末の傾きに基づいて、観察者の顔の位置を算出するようにしてもよい。ここで、観察者が携帯情報端末を利用する際の表示部17と顔との平均的な距離を予め算出しておき、顔位置検出部14に当該距離を記憶させておいてもよい。
Moreover, although the virtual object display apparatus in said 1st and 2nd embodiment demonstrated the structure which detects the position of an observer's face based on the depth map information which the
The acceleration sensor outputs information indicating how much the portable information terminal is inclined with respect to the horizontal. The distance between the display unit 17 (display) of the portable information terminal and the face of the observer is assumed to be constant, and the face
また、上記の第1及び第2実施形態の仮想物体表示装置において、撮像部11、距離センサ部12、及び表示部17は、1つの筐体に納められておらずともよい。例えば、撮像部11及び距離センサ部12と、表示部17と、演算部20とは、それぞれを異なる装置としてもよい。
In the virtual object display devices of the first and second embodiments described above, the
また、上述の仮想物体表示装置は内部に、コンピュータシステムを有していてもよい。その場合、上述した顔位置検出部14、光情報推定部13、仮想物体情報記憶部15、及び画像生成部16が行う処理は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われることになる。ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしても良い。
Further, the virtual object display device described above may have a computer system inside. In that case, the processes performed by the face
1…仮想物体表示装置、11…撮像部、12…距離センサ部、13…光情報推定部、14…顔位置検出部、15…仮想物体情報記憶部、16…画像生成部、17…表示部、20…演算部、131…光源位置推定部、132…光源色推定部、133…光源強度推定部、134…物体反射光推定部 DESCRIPTION OF SYMBOLS 1 ... Virtual object display apparatus, 11 ... Imaging part, 12 ... Distance sensor part, 13 ... Optical information estimation part, 14 ... Face position detection part, 15 ... Virtual object information storage part, 16 ... Image generation part, 17 ... Display part , 20 ... calculating part, 131 ... light source position estimating part, 132 ... light source color estimating part, 133 ... light source intensity estimating part, 134 ... object reflected light estimating part
Claims (4)
現実空間に存在する実物体を撮像して画像データを出力する撮像部と、
前記実物体までの距離を測定し、測定した距離を示すデプスマップ情報を出力する距離センサ部と、
前記画像データと前記デプスマップ情報とに基づいて、現実空間における光源の位置と、該光源から発せられる光の色及び強度と、前記実物体で反射して前記仮想物体に届く光である物体反射光を示す情報とを算出する光情報推定部と、
前記デプスマップ情報に基づいて、前記仮想物体を観察する観察者の顔の位置を検出する顔位置検出部と、
現実空間に前記仮想物体を予め定めた位置に配置した仮想的な空間において、前記顔位置検出部が検出した顔の位置を視点にして得られる画像を、前記画像データと、前記仮想物体情報と、前記光源の位置、色、及び強度と、前記仮想物体に届く光を示す情報とに基づいて生成する画像生成部と、
前記画像生成部が生成した画像を表示する表示部と
を具備することを特徴とする仮想物体表示装置。 A virtual object information storage unit that stores in advance virtual object information indicating the shape of a virtual object, which is an object that is virtually placed at a predetermined position in the real space, and the reflection characteristics of the surface;
An imaging unit that captures an image of a real object existing in the real space and outputs image data;
A distance sensor unit that measures the distance to the real object and outputs depth map information indicating the measured distance;
Based on the image data and the depth map information, the position of the light source in the real space, the color and intensity of the light emitted from the light source, and the object reflection that is the light that is reflected by the real object and reaches the virtual object An optical information estimation unit for calculating information indicating light;
A face position detection unit that detects the position of the face of the observer observing the virtual object based on the depth map information;
In a virtual space in which the virtual object is arranged in a predetermined position in the real space, an image obtained from the viewpoint of the face position detected by the face position detection unit is represented by the image data, the virtual object information, An image generation unit that generates the light source based on the position, color, and intensity of the light source and information indicating light reaching the virtual object;
A virtual object display device comprising: a display unit configured to display an image generated by the image generation unit.
前記画像データにおいて、最も輝度の高い画素に対応する位置を光源の位置とする
ことを特徴とする請求項1に記載の仮想物体表示装置。 The optical information estimation unit includes:
The virtual object display device according to claim 1, wherein a position corresponding to a pixel having the highest luminance in the image data is a light source position.
前記画像データに基づいて、撮像された前記実物体のスペキュラー反射している部分を複数検出し、検出したスペキュラー反射している部分ごとに、スペキュラー反射している部分の法線に関して、前記撮像部の位置からスペキュラー反射している部分に向かう直線と、鏡像の関係にある直線を算出し、算出した各直線の交点を光源の位置とする
ことを特徴とする請求項1に記載の仮想物体表示装置。 The optical information estimation unit includes:
Based on the image data, a plurality of specular reflection portions of the captured real object are detected, and for each detected specular reflection portion, the imaging unit is related to the normal of the specular reflection portion. 2. The virtual object display according to claim 1, wherein a straight line that is in a mirror image relation with a straight line that goes from the position to the specularly reflected portion is calculated, and an intersection of the calculated straight lines is set as a light source position. apparatus.
前記画像データにおいて予め定められた輝度閾値以上の輝度を有する画素が存在するか否かを判定し、前記輝度閾値以上の画素が存在する場合、前記画像データにおける最も輝度の高い画素に対応する位置を光源の位置とし、前記輝度閾値以上の画素が存在しない場合、前記画像データに基づいて、撮像された前記実物体のスペキュラー反射している部分を複数検出し、検出したスペキュラー反射している部分ごとに、スペキュラー反射している部分の法線に関して、前記撮像部の位置からスペキュラー反射している部分に向かう直線と、鏡像の関係にある直線を算出し、算出した各直線の交点を光源の位置とする
ことを特徴とする請求項1から請求項3のいずれか一項に記載の仮想物体表示装置。 The optical information estimation unit includes:
It is determined whether or not there is a pixel having a luminance equal to or higher than a predetermined luminance threshold in the image data, and when there is a pixel equal to or higher than the luminance threshold, a position corresponding to the highest luminance pixel in the image data Is a position of the light source, and when there is no pixel equal to or greater than the luminance threshold, based on the image data, a plurality of specular reflection portions of the captured real object are detected, and the detected specular reflection portion Each time, with respect to the normal of the specularly reflected portion, a straight line from the position of the imaging unit to the specularly reflected portion and a straight line having a mirror image relation are calculated, and the intersection of the calculated straight lines is calculated as the intersection of the light source. The virtual object display device according to any one of claims 1 to 3, wherein the virtual object display device is a position.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011134328A JP2013003848A (en) | 2011-06-16 | 2011-06-16 | Virtual object display device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011134328A JP2013003848A (en) | 2011-06-16 | 2011-06-16 | Virtual object display device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013003848A true JP2013003848A (en) | 2013-01-07 |
Family
ID=47672352
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011134328A Withdrawn JP2013003848A (en) | 2011-06-16 | 2011-06-16 | Virtual object display device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013003848A (en) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015185176A (en) * | 2014-03-25 | 2015-10-22 | メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツングmetaio GmbH | Expression method and system for virtual object in visual field of reality environment |
KR20160096392A (en) * | 2015-02-05 | 2016-08-16 | 한국전자통신연구원 | Apparatus and Method for Intuitive Interaction |
WO2016203772A1 (en) * | 2015-06-17 | 2016-12-22 | 凸版印刷株式会社 | Image processing system, method and program |
WO2016203770A1 (en) * | 2015-06-17 | 2016-12-22 | 凸版印刷株式会社 | Image processing system, method and program |
WO2016203729A1 (en) * | 2015-06-17 | 2016-12-22 | 凸版印刷株式会社 | Image processing device, method, and program |
JP2017033314A (en) * | 2015-07-31 | 2017-02-09 | 凸版印刷株式会社 | Image processing system, method and program |
JP2017033316A (en) * | 2015-07-31 | 2017-02-09 | 凸版印刷株式会社 | Image processing system, method and program |
JP2017033315A (en) * | 2015-07-31 | 2017-02-09 | 凸版印刷株式会社 | Image processing system, method and program |
JP2017045140A (en) * | 2015-08-24 | 2017-03-02 | 凸版印刷株式会社 | Picture display device, method and program |
KR101868101B1 (en) * | 2017-02-15 | 2018-06-18 | 주식회사 오비투유 | Apparatus, method and computer program for generating contents |
JP2019185069A (en) * | 2018-03-30 | 2019-10-24 | 東京ガスiネット株式会社 | Information processing system and program |
JP2019191600A (en) * | 2015-08-18 | 2019-10-31 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | Virtual and augmented reality system and method |
JP2020524838A (en) * | 2017-06-01 | 2020-08-20 | シグニファイ ホールディング ビー ヴィSignify Holding B.V. | System and method for rendering virtual objects |
JP2020191665A (en) * | 2020-08-03 | 2020-11-26 | パラマウントベッド株式会社 | Image display controller, image display system, and program |
JP2021530005A (en) * | 2018-05-21 | 2021-11-04 | アドシル リミテッド | Fast generation of ray-tracing reflections of virtual objects in a real-world environment |
-
2011
- 2011-06-16 JP JP2011134328A patent/JP2013003848A/en not_active Withdrawn
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015185176A (en) * | 2014-03-25 | 2015-10-22 | メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツングmetaio GmbH | Expression method and system for virtual object in visual field of reality environment |
KR101892735B1 (en) * | 2015-02-05 | 2018-08-28 | 한국전자통신연구원 | Apparatus and Method for Intuitive Interaction |
KR20160096392A (en) * | 2015-02-05 | 2016-08-16 | 한국전자통신연구원 | Apparatus and Method for Intuitive Interaction |
US11062484B2 (en) | 2015-06-17 | 2021-07-13 | Toppan Printing Co., Ltd. | Image processing device, method, and program for rendering display data of a material |
WO2016203729A1 (en) * | 2015-06-17 | 2016-12-22 | 凸版印刷株式会社 | Image processing device, method, and program |
JP2017010131A (en) * | 2015-06-17 | 2017-01-12 | 凸版印刷株式会社 | Image processing system, method, and program |
WO2016203770A1 (en) * | 2015-06-17 | 2016-12-22 | 凸版印刷株式会社 | Image processing system, method and program |
WO2016203772A1 (en) * | 2015-06-17 | 2016-12-22 | 凸版印刷株式会社 | Image processing system, method and program |
US10803630B2 (en) | 2015-06-17 | 2020-10-13 | Toppan Printing Co., Ltd. | Image processing system, method, and program |
US10553011B2 (en) * | 2015-06-17 | 2020-02-04 | Toppan Printing Co., Ltd. | Image processing system, method, and program |
JPWO2016203772A1 (en) * | 2015-06-17 | 2018-04-05 | 凸版印刷株式会社 | Image processing system, method, and program |
JPWO2016203770A1 (en) * | 2015-06-17 | 2018-04-05 | 凸版印刷株式会社 | Image processing system, method, and program |
US20180108153A1 (en) * | 2015-06-17 | 2018-04-19 | Toppan Printing Co., Ltd. | Image processing system, method, and program |
US20180114354A1 (en) * | 2015-06-17 | 2018-04-26 | Toppan Printing Co., Ltd. | Image processing system, method, and program |
EP3312804A4 (en) * | 2015-06-17 | 2018-12-26 | Toppan Printing Co., Ltd. | Image processing system, method and program |
JP2017033316A (en) * | 2015-07-31 | 2017-02-09 | 凸版印刷株式会社 | Image processing system, method and program |
JP2017033315A (en) * | 2015-07-31 | 2017-02-09 | 凸版印刷株式会社 | Image processing system, method and program |
JP2017033314A (en) * | 2015-07-31 | 2017-02-09 | 凸版印刷株式会社 | Image processing system, method and program |
JP7036773B2 (en) | 2015-08-18 | 2022-03-15 | マジック リープ, インコーポレイテッド | Virtual and augmented reality systems and methods |
JP2019191600A (en) * | 2015-08-18 | 2019-10-31 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | Virtual and augmented reality system and method |
JP2017045140A (en) * | 2015-08-24 | 2017-03-02 | 凸版印刷株式会社 | Picture display device, method and program |
KR101868101B1 (en) * | 2017-02-15 | 2018-06-18 | 주식회사 오비투유 | Apparatus, method and computer program for generating contents |
JP2020524838A (en) * | 2017-06-01 | 2020-08-20 | シグニファイ ホールディング ビー ヴィSignify Holding B.V. | System and method for rendering virtual objects |
JP2019185069A (en) * | 2018-03-30 | 2019-10-24 | 東京ガスiネット株式会社 | Information processing system and program |
JP7188901B2 (en) | 2018-03-30 | 2022-12-13 | 東京ガスiネット株式会社 | Information processing system and program |
JP2021530005A (en) * | 2018-05-21 | 2021-11-04 | アドシル リミテッド | Fast generation of ray-tracing reflections of virtual objects in a real-world environment |
JP7123041B2 (en) | 2018-05-21 | 2022-08-22 | アドシル リミテッド | Fast generation of ray-traced reflections of virtual objects in real-world environments |
JP2020191665A (en) * | 2020-08-03 | 2020-11-26 | パラマウントベッド株式会社 | Image display controller, image display system, and program |
JP7041211B2 (en) | 2020-08-03 | 2022-03-23 | パラマウントベッド株式会社 | Image display control device, image display system and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2013003848A (en) | Virtual object display device | |
US10269177B2 (en) | Headset removal in virtual, augmented, and mixed reality using an eye gaze database | |
US10701332B2 (en) | Image processing apparatus, image processing method, image processing system, and storage medium | |
US11790482B2 (en) | Mixed reality system with virtual content warping and method of generating virtual content using same | |
JP6340017B2 (en) | An imaging system that synthesizes a subject and a three-dimensional virtual space in real time | |
US9613463B2 (en) | Augmented reality extrapolation techniques | |
US11010958B2 (en) | Method and system for generating an image of a subject in a scene | |
US20150262412A1 (en) | Augmented reality lighting with dynamic geometry | |
KR20170086077A (en) | Using depth information for drawing in augmented reality scenes | |
EP4165547A1 (en) | Image augmentation for analytics | |
Meerits et al. | Real-time diminished reality for dynamic scenes | |
KR20190062102A (en) | Method and apparatus for operating 2d/3d augument reality technology | |
CN110956695A (en) | Information processing apparatus, information processing method, and storage medium | |
JP2014067372A (en) | Motion parallax reproduction program and device and three-dimensional model generation program and device therefor | |
JP5762015B2 (en) | Image processing apparatus, image processing method, and program | |
KR20210014556A (en) | Method and apparatus for generating immersive mixed reality data using lidar scanner and camera | |
JP2012234411A (en) | Image generation device, image generation system, image generation program and image generation method | |
JPWO2018179254A1 (en) | Image generating apparatus, image generating method, and program | |
JP6168597B2 (en) | Information terminal equipment | |
CN111710044A (en) | Image processing method, apparatus and computer-readable storage medium | |
US20230316810A1 (en) | Three-dimensional (3d) facial feature tracking for autostereoscopic telepresence systems | |
JP6181549B2 (en) | Image generation method, image generation apparatus, and image generation program | |
Battulga et al. | View-dependent projection mapping enhanced by real background | |
US11615574B2 (en) | System and method for rendering 6 degree-of-freedom virtual reality | |
US20230243973A1 (en) | Real space object reconstruction within virtual space image using tof camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20130606 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20130801 |
|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140902 |