JP2015172900A - Image presentation device and mask generation device to be used for the same - Google Patents
Image presentation device and mask generation device to be used for the same Download PDFInfo
- Publication number
- JP2015172900A JP2015172900A JP2014049151A JP2014049151A JP2015172900A JP 2015172900 A JP2015172900 A JP 2015172900A JP 2014049151 A JP2014049151 A JP 2014049151A JP 2014049151 A JP2014049151 A JP 2014049151A JP 2015172900 A JP2015172900 A JP 2015172900A
- Authority
- JP
- Japan
- Prior art keywords
- user
- image
- viewpoint
- space
- mask
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
Description
本発明は、ユーザに呈示される画像を生成するための技術に関するものである。特に、本発明は、実空間の画像を切り取って別空間の画像に組み合わせるためのマスクに関するものである。 The present invention relates to a technique for generating an image presented to a user. In particular, the present invention relates to a mask for cutting out an image in real space and combining it with an image in another space.
従来、ゲームやシミュレーションの分野において、ユーザがバーチャル空間へ没入するために、ヘッドマウントディスプレイ(HMD)が用いられてきた(下記非特許文献1及び2)。特に最近では、安価なHMDが登場し、普及に拍車がかかっている。なお本明細書では、以後「バーチャル」という用語を用いるが、これは「実際には存在しないが、機能や効果において、存在すると同等の」という意味である。
Conventionally, in the field of games and simulations, a head mounted display (HMD) has been used in order for a user to immerse in a virtual space (Non-Patent
HMDを装着したユーザには、ユーザが存在する実空間とは別のバーチャル空間を投影した画像が、HMDに備えられたディスプレイによって呈示される。一方で、ユーザの実際の視界は遮蔽されて、実空間を見ることはできない。これにより、ユーザは、実空間に居ながら、バーチャル空間内へ没入することができる。 To the user wearing the HMD, an image obtained by projecting a virtual space different from the real space in which the user exists is presented by a display provided in the HMD. On the other hand, the user's actual field of view is shielded and the real space cannot be seen. Thereby, the user can be immersed in the virtual space while being in the real space.
このような従来のHMDでは、バーチャル空間への没入感を向上させるために、前記したように、ユーザの視界が遮蔽される。すると、本来であれば自分の身体(例えば手足)を見ることができるような状況でも、自分の身体を見ることはできない。 In such a conventional HMD, in order to improve the feeling of immersion in the virtual space, the user's view is shielded as described above. Then, even if you can see your body (for example, limbs), you cannot see your body.
一方、コンピュータグラフィックスによって、見かけは異なるが本質的に自分自身の身体と呼ぶことができる、いわゆるアバターをバーチャル空間内で出現させる手法も提案されている(下記非特許文献3)。しかしながら、例えば、バーチャル空間内で何かを持っている自分の手元を見たときでも、見えるのは自分の手ではなく、アバターの手の画像である。この状況は、ユーザの現実感と相違するために、バーチャル空間への没入感を減殺してしまうという問題がある。
On the other hand, there has also been proposed a method of causing a so-called avatar to appear in a virtual space, which can be called an own body in spite of its appearance, depending on computer graphics (Non-Patent
そこで、最近では、HMD前面に外界カメラを取り付けたビデオシースルー型のHMDを用いて、ユーザから見えるはずの実空間画像を取得し、その実空間画像から自身の身体を切り出して、バーチャル空間へ重畳する手法が提案されている(下記非特許文献4)。画像から身体を切り取る方法として、クロマキー方式と、映像からの輪郭抽出方式との二つが考えられる。
Therefore, recently, using a video see-through HMD with an external camera attached to the front of the HMD, a real space image that should be visible to the user is acquired, and the body is cut out from the real space image and superimposed on the virtual space. A technique has been proposed (Non-Patent
クロマキー方式は、特定の色を持つ領域のみを消去あるいは抜き出すことで、身体領域のみを取り出すものである。しかしながら、この方式では、使える色に制約を生じてしまう。このため、ユーザの身体を計測するためのコックピット側に一様な色を持たせた布を張り巡らせるなど、特殊な設備が必要となる。 In the chroma key method, only a body region is extracted by erasing or extracting only a region having a specific color. However, this method places restrictions on the colors that can be used. For this reason, special equipment is required, such as stretching a cloth with a uniform color on the cockpit side for measuring the user's body.
映像から輪郭を抽出する方式では、画像処理によって画像から身体領域を切り出す必要がある。この方式では、用いる画像の状況(例えば解像度)や、用いる画像処理アルゴリズムによって、得られる精度が大幅に変動してしまう恐れがある。また、画素単位での画像処理を行うので、高い解像度の画像を用いた場合には、リアルタイムでの処理が難しくなるという問題もある。 In the method of extracting the contour from the video, it is necessary to cut out a body region from the image by image processing. In this method, there is a possibility that the accuracy to be obtained may fluctuate greatly depending on the state of the image to be used (for example, resolution) and the image processing algorithm to be used. In addition, since image processing is performed in units of pixels, there is a problem that real-time processing becomes difficult when a high-resolution image is used.
さらに、バーチャル空間中の物体(いわゆるオブジェクト)とユーザ身体との間に遮蔽関係がある場合、物体の手前に存在する身体は見える一方で、物体の背後に存在する身体は隠れる必要がある。前記した二つの方式は、このような遮蔽関係を成立させることが難しいという問題がある。 Furthermore, when there is a shielding relationship between an object (so-called object) in the virtual space and the user's body, the body existing in front of the object can be seen, but the body existing behind the object needs to be hidden. The two methods described above have a problem that it is difficult to establish such a shielding relationship.
遮蔽関係を成立させる技術として、深度計測方式が考えられている。深度計測方式は、デプスキー方式とも呼ばれている。この方式は、実際の身体についての、三次元空間内での位置情報を正確に測定し、その位置情報をバーチャル空間中での身体の位置にマッピングすることによって、遮蔽関係を推定するものである。 As a technique for establishing the shielding relationship, a depth measurement method is considered. The depth measurement method is also called a Depsky method. This method estimates the occlusion relationship by accurately measuring the position information of the actual body in the three-dimensional space and mapping the position information to the position of the body in the virtual space. .
しかしながら、現在通常に使用される距離センサでは、ごく短い距離(例えば手の平や指の形状の相違)を正確に測定することは難しい。このため、深度計測方式では、特に身体の輪郭部分における形状が不正確となりがちであり、その結果、精度の高い遮蔽関係を作り出すことが難しいという問題がある。また、高精度の距離センサを、身体各部の位置を計測できるように配置するためには、かなりのコストを要するという問題もある。さらに、画素ごとに深度情報を取得し、演算を行う手法では、画像が高画質化(高画素化)した場合に計算コストが指数関数的に上昇するという問題もある。 However, it is difficult to accurately measure a very short distance (for example, a difference in the shape of a palm or a finger) with a distance sensor normally used at present. For this reason, the depth measurement method tends to have an inaccurate shape especially in the contour portion of the body, and as a result, there is a problem that it is difficult to create a highly accurate shielding relationship. In addition, there is a problem that it takes a considerable cost to arrange a high-precision distance sensor so that the position of each part of the body can be measured. Furthermore, in the method of obtaining depth information for each pixel and performing the calculation, there is a problem that the calculation cost increases exponentially when the image quality is improved (higher pixels).
本発明は、前記の状況に鑑みてなされたものである。本発明の主な目的は、バーチャル空間での画像をユーザに呈示するために用いる投影画像に、当該ユーザの身体が映り込んでいる場合において、投影画像を見ているユーザの没入感を向上させるための技術を提供することである。 The present invention has been made in view of the above situation. The main object of the present invention is to improve the immersive feeling of a user who is looking at a projection image when the user's body is reflected in the projection image used to present the image in the virtual space to the user. Is to provide technology for.
前記した課題を解決する手段は、以下の項目のように記載できる。 Means for solving the above-described problems can be described as follows.
(項目1)
実空間におけるユーザの身体画像の少なくとも一部を抽出することによって挿入画像を生成し、前記ユーザの視点から見た別空間での視点画像に前記挿入画像を重畳させるために用いるマスクを生成するための装置であって、
ユーザ姿勢取得部と、身体形状算出部と、マスク生成部とを備えており、
前記ユーザ姿勢取得部は、前記実空間内における前記ユーザの姿勢を取得する構成となっており、
前記身体形状算出部は、取得された前記ユーザの姿勢を用いて、前記ユーザの身体形状を算出する構成となっており、
前記マスク生成部は、前記別空間での前記ユーザの視点から見えるべき前記身体形状に基づいて、前記実空間における前記ユーザの身体画像から前記挿入画像を抽出するためのマスクを生成する構成となっている
ことを特徴とするマスク生成装置。
(Item 1)
To generate an insertion image by extracting at least a part of a user's body image in real space, and to generate a mask used to superimpose the insertion image on a viewpoint image in another space viewed from the user's viewpoint Equipment,
A user posture acquisition unit, a body shape calculation unit, and a mask generation unit;
The user posture acquisition unit is configured to acquire the posture of the user in the real space,
The body shape calculation unit is configured to calculate the user's body shape using the acquired posture of the user,
The mask generation unit is configured to generate a mask for extracting the insertion image from the body image of the user in the real space based on the body shape that should be seen from the viewpoint of the user in the different space. A mask generation device characterized by that.
別空間とは、例えばVR空間であるが、ユーザが存在する地点から空間的あるいは時間的に離れた位置での実空間であってもよい。ユーザの身体とは、例えばユーザの手、腕、脚などであるが、他の部位や、ユーザが身に着ける物品であってもよい。身体形状算出部とマスク生成部とは、、一つのコンピュータプログラムによってコンピュータ上でその機能を実現してもよいし、複数のプログラムあるいはモジュールの組み合わせにより、一台又は複数台のコンピュータによって機能を実現してもよい。 The separate space is, for example, a VR space, but may be a real space at a position spatially or temporally away from a point where the user exists. The user's body is, for example, the user's hand, arm, or leg, but may be another part or an article that the user can wear. The body shape calculation unit and the mask generation unit may realize their functions on a computer by one computer program, or realize the functions by one or a plurality of computers by a combination of a plurality of programs or modules. May be.
(項目2)
さらに視点画像生成部を備えており、
前記視点画像生成部は、前記別空間における前記ユーザの視点から見たときの前記視点画像を生成する構成となっており、
前記マスク生成部は、前記視点画像中に存在する前記ユーザの身体部分の少なくとも一部を、前記ユーザの視点から見えるべき身体形状として用いて、前記マスクを生成する構成となっている
項目1に記載のマスク生成装置。
(Item 2)
It also has a viewpoint image generator,
The viewpoint image generation unit is configured to generate the viewpoint image when viewed from the viewpoint of the user in the different space,
(項目3)
さらにVR空間モデルデータ格納部を備えており、
前記視点画像生成部は、前記視点画像を、前記VR空間モデルデータ格納部に格納されたVR空間モデルデータに基づいて生成する構成となっている
項目2に記載のマスク生成装置。
(Item 3)
Furthermore, a VR space model data storage unit is provided,
The mask generation device according to
(項目4)
さらにユーザ視点カメラを備えており、
前記ユーザ視点カメラは、前記実空間における前記ユーザの身体画像を取得する構成となっており、
前記ユーザ視点カメラの視点の姿勢は、前記別空間における前記ユーザの視点の姿勢と一致しているか、又は、どちらかの視点から見た画像を補正することにより実質的に一致させられるものとなっている
項目1〜3のいずれか1項に記載のマスク生成装置。
(Item 4)
It also has a user viewpoint camera,
The user viewpoint camera is configured to acquire a body image of the user in the real space,
The attitude of the viewpoint of the user viewpoint camera matches the attitude of the user's viewpoint in the different space, or can be substantially matched by correcting an image viewed from either viewpoint. The mask generation device according to any one of
(項目5)
さらに照明条件算出部を備えており、
前記照明条件算出部は、前記別空間での照明条件に基づいて、前記挿入画像における輝度又は色の条件を設定する構成となっている
項目1〜4のいずれか1項に記載のマスク生成装置。
(Item 5)
Furthermore, it has a lighting condition calculation unit,
The mask generation device according to any one of
ユーザに呈示される投影画像は、一般に、別空間での照明条件を用いて生成される。この照明条件を用いて、挿入画像(別空間内では、ユーザのためのアバター又はその一部としてユーザに視認されるべきものである)に対する輝度又は色の条件を設定することにより、ユーザが感じる現実感を向上させることができる。 The projection image presented to the user is generally generated using lighting conditions in another space. Using this lighting condition, the user feels by setting the brightness or color condition for the inserted image (in another space it should be viewed by the user as an avatar for the user or as part of it) Reality can be improved.
(項目6)
前記別空間での前記ユーザの視点から見えるべき前記身体形状の少なくとも一部と、前記別空間における何らかの物体との間には、前記別空間における前記ユーザの視点から見た場合に、一方が他方により遮蔽される関係となっている
項目1〜5のいずれか1項に記載のマスク生成装置。
(Item 6)
Between at least a part of the body shape that should be seen from the user's viewpoint in the different space and some object in the different space, one is the other when viewed from the user's viewpoint in the
(項目7)
項目1〜6のいずれか1項に記載のマスク生成装置と、挿入画像生成部とを備えており、
前記挿入画像生成部は、前記身体画像に前記マスクを適用することにより、前記挿入画像を生成する構成となっている
挿入画像生成装置。
(Item 7)
Comprising the mask generation device according to any one of
The insertion image generation device is configured to generate the insertion image by applying the mask to the body image.
(項目8)
項目7に記載の挿入画像生成装置と、投影画像生成部と、画像呈示部とを備えており、
前記投影画像生成部は、前記挿入画像を、前記ユーザの視点から見た別空間での視点画像に組み合わせることにより、前記ユーザに投影すべき投影画像を生成する構成となっており、
前記画像呈示部は、前記投影画像を、前記実空間内でのユーザの視点位置と光学的に共役な視点位置から投影する構成となっている
画像呈示装置。
(Item 8)
The inserted image generating device according to
The projection image generation unit is configured to generate a projection image to be projected to the user by combining the insertion image with a viewpoint image in another space viewed from the user's viewpoint.
The image presenting device is configured to project the projection image from a viewpoint position optically conjugate with a user's viewpoint position in the real space.
(項目9)
実空間におけるユーザの身体画像の少なくとも一部を抽出することによって挿入画像を生成し、前記ユーザの視点から見た別空間での視点画像に前記挿入画像を重畳させるために用いるマスクを生成するための装置を用いた方法であって、
前記実空間内における前記ユーザの姿勢を取得するステップと、
取得された前記ユーザの姿勢を用いて、前記ユーザの身体形状を算出するステップと、
前記別空間での前記ユーザの視点から見えるべき前記身体形状に基づいて、前記実空間における前記ユーザの身体画像から前記挿入画像を抽出するためのマスクを生成するステップと
を備えることを特徴とするマスク生成方法。
(Item 9)
To generate an insertion image by extracting at least a part of a user's body image in real space, and to generate a mask used to superimpose the insertion image on a viewpoint image in another space viewed from the user's viewpoint A method using the apparatus of
Obtaining the posture of the user in the real space;
Calculating the user's body shape using the acquired posture of the user;
Generating a mask for extracting the insertion image from the body image of the user in the real space based on the body shape that should be seen from the viewpoint of the user in the different space. Mask generation method.
(項目10)
項目9に記載の各ステップをコンピュータに実行させるためのコンピュータプログラム。
(Item 10)
A computer program for causing a computer to execute each step according to
このコンピュータプログラムは、適宜な記録媒体(例えばCD−ROMやDVDディスクのような光学的な記録媒体、ハードディスクやフレキシブルディスクのような磁気的記録媒体、あるいはMOディスクのような光磁気記録媒体)に格納することができる。このコンピュータプログラムは、インターネットなどの通信回線を介して伝送されることができる。 This computer program is stored in an appropriate recording medium (for example, an optical recording medium such as a CD-ROM or a DVD disk, a magnetic recording medium such as a hard disk or a flexible disk, or a magneto-optical recording medium such as an MO disk). Can be stored. This computer program can be transmitted via a communication line such as the Internet.
本発明によれば、バーチャル空間を投影した画像を見ているユーザの没入感を向上させるように、ユーザの身体画像を抽出して、投影画像に組み込むことが可能になる。 According to the present invention, it is possible to extract a user's body image and incorporate it into the projected image so as to improve the immersive feeling of the user who is viewing the image projected from the virtual space.
さらに、本発明によれば、ユーザの身体画像を抽出するためのマスクを、高精度かつ低コストで生成することが可能になる。 Furthermore, according to the present invention, a mask for extracting a user's body image can be generated with high accuracy and low cost.
しかも、本発明によれば、マスクを用いるので、投影画像の画素数が大きい場合であっても、計算コストを低く抑えることができる。その結果、本発明では、動画像の提供時におけるフレーム遅延を小さく抑えることが可能になり、また、高画質での画像提供が容易になるという効果もある。 Moreover, according to the present invention, since the mask is used, the calculation cost can be kept low even when the number of pixels of the projected image is large. As a result, according to the present invention, it is possible to reduce the frame delay at the time of providing a moving image, and it is easy to provide an image with high image quality.
(画像呈示装置の一実施形態)
図1を参照して、本発明の一実施形態に係る画像呈示装置について説明する。
(One Embodiment of Image Presentation Device)
With reference to FIG. 1, an image presentation apparatus according to an embodiment of the present invention will be described.
本実施形態の画像呈示装置は、ユーザ姿勢取得部1と、身体形状算出部2と、視点画像生成部3と、マスク生成部4とを備えている。さらに、本実施形態の装置は、挿入画像生成部5と、投影画像生成部6と、ユーザ視点カメラ7と、画像呈示部8とを備えている。さらに、本実施形態の装置は、身体モデルデータ格納部9とVR空間モデルデータ格納部10と、照明条件算出部11とを備えている。
The image presentation apparatus according to the present embodiment includes a user
ユーザ姿勢取得部1は、実空間内におけるユーザの姿勢を取得する構成となっている。ユーザ姿勢取得部1としては、市販の身体運動計測装置を用いることができ、これにより、比較的に高精度の測定を低コストで行うことができる。
The user
身体形状算出部2は、ユーザ姿勢取得部1で取得されたユーザの姿勢を用いて、ユーザの身体形状を算出する構成となっている。より具体的には、本実施形態では、身体モデルデータ格納部9に格納された身体モデルデータ(後述)を用いて、ユーザの身体形状を算出するようになっている。
The body
視点画像生成部3は、別空間(本実施形態ではVR空間)におけるユーザの視点から見たときの視点画像を生成する構成となっている。すなわち、本実施形態では、ユーザ姿勢取得部1により、ユーザ視点の姿勢(方向及び位置)を知ることができる。これにより、視点画像生成部3は、ユーザ視点の位置をVR空間にマッピングし、VR空間中に存在するバーチャルなユーザの視点から得られる画像(すなわち視点画像)を生成することができる。ここで、本実施形態では、マスク生成用の視点画像と、後述の投影画像生成用の視点画像とを別々に生成することができる。そして、マスク生成用の視点画像においては、視点画像上での身体形状に相当する部分(これはVR空間中なので三次元的な位置を正確に決定できる)を、後の処理が容易なように、例えば特別な色空間情報で表すことができる。なお、具体的な処理手順については、追って説明する。
The viewpoint
マスク生成部4は、別空間でのユーザの視点から見えるべき身体形状に基づいて、実空間におけるユーザの身体画像から挿入画像を切り出すためのマスクを生成する構成となっている。ここで、「切り出す」とは、「取り出す」あるいは「抽出する」という程度の意味である。
The
より具体的には、本実施形態のマスク生成部4は、視点画像中に存在するユーザの身体部分の少なくとも一部を、ユーザの視点から見えるべき身体形状として用いて、マスクを生成する構成となっている。ここで、視点画像は、視点画像生成部3で生成されたものであり、その視点画像には、VR空間中でのユーザの身体が映り込んでいる。
More specifically, the
挿入画像生成部5は、身体画像にマスクを適用することにより、挿入画像を生成する構成となっている。挿入画像を生成する処理の具体例も後述する。
The insertion
投影画像生成部6は、挿入画像を、ユーザの視点から見た別空間での視点画像に組み合わせることにより、ユーザに投影すべき投影画像を生成する構成となっている。
The projection
ユーザ視点カメラ7は、実空間におけるユーザの身体画像を取得する構成となっている。ここで、ユーザ視点カメラ7の視点の姿勢は、別空間における(つまり別空間座標上での)ユーザの視点の姿勢と一致している。ただし、どちらかの視点から見た画像を補正することにより実質的にこれらの視点位置を一致させることも可能である。
The
画像呈示部8は、投影画像を、実空間内でのユーザの視点位置と光学的に共役な位置からユーザに向けて呈示する構成となっている。
The
ここで、本実施形態では、ユーザ視点カメラ7と画像呈示部8とは、いわゆるビデオシースルー型のHMDとして実装することができる。また、ユーザ視点カメラ7と画像呈示部8とは、立体視に対応して、左右両眼のためにそれぞれ設けることができる。なお、以下の説明では、基本的に、一方の眼に呈示する画像について説明するが、特に断らない限り、他方の眼に呈示される画像についても同様の処理が行われる。もちろん、立体視のための視差を考慮した画像が通常は提示される。また、モノラル視に対応した画像を呈示することも可能である。
Here, in this embodiment, the
身体モデルデータ格納部9は、前記した身体形状算出部2における身体形状の算出に必要なデータを格納するための機能要素である。身体モデルデータとは、例えば、骨格の姿勢を表すためのボーンデータと、身体の外形形状を表すための外形モデルデータである。ボーンデータは、主要な骨の向きと長さとを表している。外形モデルデータは、ボーンデータに適用されて、身体の外形を表すことができるものである。これらのデータの具体例についても後述する。
The body model
VR空間モデルデータ格納部10は、バーチャル空間(VR空間)を規定するためのデータであり、通常は、バーチャルな三次元空間を構成するためのデータを備えている。本実施形態の視点画像生成部3は、ユーザ視点からの視点画像を、VR空間モデルデータ格納部10に格納されたVR空間モデルデータに基づいて生成する構成となっている。
The VR space model
照明条件算出部11は、別空間でのユーザのためのアバターに対する照明条件に基づいて、挿入画像における輝度又は色の条件を設定する構成となっている。VR空間では、アバターに対する照明条件は既知として扱うことができる。もちろん、一般的には、VR空間での照明条件は、アバターだけについて決定されるものではなく、VR空間全体について決定される。「アバターに対する照明条件」とは、照明条件のうちで、アバターに関係するもの(例えばアバター表面の輝度や色を変化させたり、あるいは、アバターによる影を生成させたりするもの)という程度の意味である。
The illumination
本実施形態におけるマスクの生成及び投影画像の生成のさらに詳しい手順については後述する。 A more detailed procedure for generating a mask and generating a projection image in this embodiment will be described later.
また、前記したユーザ視点カメラ7と画像呈示部8とを実装するためのビデオシースルー型HMDの実施例についても後述する。
An example of a video see-through HMD for mounting the
なお、本実施形態のユーザ姿勢取得部1と、身体形状算出部2と、マスク生成部4とが、本発明のマスク生成装置の一実施形態に相当する。また、このマスク生成装置に挿入画像生成部5を加えたものが、本発明の挿入画像生成装置の一実施形態に相当する。さらに、この挿入画像生成装置に投影画像生成部6と画像呈示部8とを加えたものが、本発明の画像呈示装置の一実施形態に相当する。
The user
(投影画像の生成方法)
ついで、前記した装置を用いてマスクを生成し、このマスクを用いて投影画像を生成する手順の一例を、図2をさらに参照しながら説明する。
(Projection image generation method)
Next, an example of a procedure for generating a mask using the above-described apparatus and generating a projection image using the mask will be described with further reference to FIG.
(図2のステップSA−1)
まず、ユーザ姿勢取得部1は、ユーザの姿勢を取得する。この取得は、リアルタイムでの利用を考慮すると、画像の呈示と並行して行われる。つまり、ユーザの姿勢を測定しつつ、その姿勢を利用した画像呈示が行われ、逐次、姿勢データと投影画像とが更新されることになる。また、投影画像を順次更新することにより、動画をユーザに提供することができる。
(Step SA-1 in FIG. 2)
First, the user
(図2のステップSA−2)
ついで、身体形状算出部2は、得られたユーザ姿勢と、身体モデルデータ格納部9に格納された身体モデルデータとを用いて、ユーザの身体形状を算出する。したがって、通常は、本装置の利用前に、利用ユーザの基本的な身体寸法(関節間の距離や手の形状など)を測定しておき、身体モデルデータ格納部9に格納しておくことが好ましい。しかしながら、人間の身体寸法は、基本的には(例えば大人であれば)同様なので、個人に特有でない、一般的な寸法データを用いることも可能である。なお、算出される身体形状の特定は、VR空間の座標上でも、実空間の座標上でもよい。これらの座標系を変換するためのマッピングは通常既知だからである。
(Step SA-2 in FIG. 2)
Next, the body
図3に、いわゆるボーンデータとしての身体寸法モデルの一例を示す。また、図4に、身体の外形モデル(この例では手)の一例を示す。 FIG. 3 shows an example of a body dimension model as so-called bone data. FIG. 4 shows an example of a body outline model (in this example, a hand).
(図2のステップSA−3)
ついで、視点画像生成部3は、VR空間モデルデータ格納部10に格納されたVR空間モデルデータを用いて、VR空間でのユーザ視点から見た視点画像を生成する。ここで、VR空間でのユーザ視点の姿勢(この明細書において姿勢とは、位置及び/又は向きをいうものとする)は、ユーザ姿勢取得部1により実空間中で取得された姿勢と一致(マッピングによる一致)させられている。したがって、この視点画像(VR空間での画像)には、別空間(VR空間)でのユーザの視点から見えるべきアバターの身体形状が映り込んでいることになる。そして、この視点画像は、投影画像として使用される視点画像と同じ視点姿勢から取得されている。なお、マスク生成用に使用される視点画像は、後述するように、身体を含む画像として生成されるが、投影画像として使用される視点画像では、身体を含まないことが好ましい。これにより、挿入画像を視点画像に組み込む作業を容易化することができる。なお、いずれの視点画像についても、同じ画角で取得されることが好ましい。
(Step SA-3 in FIG. 2)
Next, the viewpoint
マスク作成用の視点画像の一例を図5に示す。この例では、ユーザの身体に相当する画像部分を白色、それ以外を黒色にしてある。より詳しくは、図5は、マスクをアルファチャンネルとして定義し,残存させるべき部分が白色、それ以外を黒色として表現したものである。これにより従来のカラーキーを用いた場合に生じる、被写体自体の色にカラーキーの色を用いることができないという色干渉の問題を回避することができ、被写体の色に制約のないマスクを作成することができる。 An example of a viewpoint image for creating a mask is shown in FIG. In this example, the image portion corresponding to the user's body is white, and the others are black. More specifically, FIG. 5 defines a mask as an alpha channel, and expresses a portion to be left as white and the other as black. This avoids the problem of color interference that occurs when using a conventional color key and the color of the subject itself cannot be used, and creates a mask that does not restrict the subject color. be able to.
VR空間内では、ユーザの身体の位置も、それ以外の物体(バーチャル物体)の位置も、全て既知となる。このため、前記した視点画像では、両者の遮蔽関係を正確に表すことができる。図5の例では、手に持っている棒(バーチャル物体の一例)によって手のひらの一部が隠されており、しかも、棒の手前にある右手親指が画像に現れている。ここで物体とは、例えば他者の身体などの生体を含む意味である。 In the VR space, the position of the user's body and the positions of other objects (virtual objects) are all known. For this reason, the above-described viewpoint image can accurately represent the shielding relationship between the two. In the example of FIG. 5, a part of the palm is hidden by a stick held in the hand (an example of a virtual object), and the right thumb in front of the stick appears in the image. Here, the object means a living body such as the body of another person.
なお、投影画像として使用される視点画像の生成においては、照明条件算出部11で得られた照明条件と、VR空間中での各物体(自己の身体を含む)の位置関係とを用いて、身体によって形成されるはずの「影」も形成しておくことが好ましい。このようにすれば、視点画像に挿入画像(身体画像)を挿入して投影画像を生成した場合において、投影画像における現実感を一層向上させることができる。
In generating a viewpoint image used as a projection image, the illumination condition obtained by the illumination
(図2のステップSA−4)
ついで、マスク生成部4は、視点画像を用いて、マスクを生成する。マスクは、図5に示した視点画像から、ユーザの身体に相当する部分(これはシステム側において既知となっている)を抜き出すことにより形成可能である。例えば、身体部分の色を視点画像上で適宜に設定しておき、その部分を除去することで、マスクを容易に形成することができる。もちろん、このようなアルファキー的な手法に限るものではなく、適宜な手法で身体部分とそれ以外の部分とを区別して、マスクを形成できる。
(Step SA-4 in FIG. 2)
Next, the
本実施形態では、画素位置ごとの深度計測を行わなくとも、正確な遮蔽関係を、視点画像上において表現することができる。身体位置の深度計測を行う場合には、装置構成が複雑になって高コスト化するだけでなく、計算処理に時間がかかるのでリアルタイム性が劣化するという問題がある。さらに、正確な深度計測は一般には難しいので、得られるマスクの精度が不足しがちであるという問題もある。これに対して、本実施形態では、画素ごとの身体位置を決定するための深度計測を省略できるので、
・装置構成を簡略化できる;
・低コスト化を実現できる;
・計算処理が単純になるので、リアルタイム性が向上する;
・VR空間データに基づくので、高いマスク精度を実現できる
という利点がある。
In the present embodiment, an accurate occlusion relationship can be expressed on the viewpoint image without performing depth measurement for each pixel position. In the case of measuring the depth of the body position, there is a problem that not only the apparatus configuration becomes complicated and the cost is increased, but also the real-time property is deteriorated because the calculation process takes time. Furthermore, since accurate depth measurement is generally difficult, there is a problem that the accuracy of the obtained mask tends to be insufficient. On the other hand, in this embodiment, depth measurement for determining the body position for each pixel can be omitted.
・ The equipment configuration can be simplified;
・ Cost reduction can be realized;
・ Since the calculation process is simplified, real-time performance is improved;
-Since it is based on VR space data, there is an advantage that high mask accuracy can be realized.
また、本実施形態では、ユーザ姿勢の取得精度を向上させることにより、マスク精度を向上させることができる。本実施形態では、画像ベースではなく、実空間での計測によりユーザ姿勢を取得するので、ユーザ姿勢の取得精度向上が容易であり、したがって、マスク精度向上が容易になるという利点もある。 Moreover, in this embodiment, mask accuracy can be improved by improving the acquisition accuracy of the user posture. In this embodiment, since the user posture is acquired by measurement in real space instead of the image base, it is easy to improve the acquisition accuracy of the user posture, and therefore there is an advantage that the mask accuracy can be easily improved.
(図2のステップSA−5)
一方、照明条件算出部11は、VR空間中でのアバターの身体に対する照明条件を算出する。VR空間中では、いずれかの位置にあるアバター身体に対する照明条件を容易に算出できるので、この算出手法の詳細についての説明は省略する。この照明条件をマスクに適用することにより、切り出される挿入画像(後述)を、VR空間において自然なもの(違和感を感じにくいもの)とすることができる。照明条件は、切り出された挿入画像に対して適用することもできる。
(Step SA-5 in FIG. 2)
On the other hand, the illumination
(図2のステップSA−6)
一方、ユーザ視点カメラ7は、ユーザ視点(これは実空間での視点であるが、VR空間でのユーザ視点と整合している)からの実画像を取得する。実画像の模式的な説明図を図6に示す。ここで、実画像には、ユーザの身体が映り込まない場合もあるが、ユーザの身体が実画像中にあるかどうかは、VR空間モデルデータから知ることができる。よって、そのような場合はマスク生成以降の処理自体を省略できる。以降では、実画像中にユーザの身体が含まれていることを前提とするので、実画像を身体画像と呼ぶことがある。なお、ユーザ視点カメラ7の姿勢だけでなく、画角についても、VR空間からの視点と一致することが好ましい。ただし、ユーザ視点カメラ7の画角のほうがVR空間での視点よりも広い場合は、両者間での画像空間上のマッピングが可能であれば、特段の問題はない。逆の場合は、ユーザに違和感を感じさせない配慮を行うことが好ましい。
(Step SA-6 in FIG. 2)
On the other hand, the
(図2のステップSA−7)
ついで、挿入画像生成部5は、ステップSA−4で得られたマスクを、前記した実画像(身体画像)に適用し、挿入画像を生成する。得られた挿入画像の一例を図7に示す。
(Step SA-7 in FIG. 2)
Next, the insertion
本実施形態では、単にマスクを画像に適用するだけで、挿入画像を生成できるので、計算処理が簡便であるという利点がある。このため、高画素数の画像を用いた場合でも、計算コストを低く押さえることができ、リアルタイムでの処理が容易になるという利点がある。 In this embodiment, since an insertion image can be generated simply by applying a mask to an image, there is an advantage that the calculation process is simple. For this reason, even when an image with a large number of pixels is used, there is an advantage that the calculation cost can be kept low and real-time processing becomes easy.
(図2のステップSA−8)
ついで、投影画像生成部6は、ステップSA−3において視点画像生成部3で得られた視点画像(図8参照)に、ステップSA−7で得られた投影画像を組み合わせる(例えば重畳させる)。ここで用いる視点画像は、マスク生成用の視点画像とは異なり、アバターの身体が存在しないとして生成されたものとなっている。このような処理は、VR空間中なので、容易に行うことができる。また、これにより、単に画像を重畳させるだけで、ユーザに投影されるべき投影画像を生成することができる。得られる投影画像の一例を図9に示す。
(Step SA-8 in FIG. 2)
Next, the projection
(図2のステップSA−9)
ついで、画像呈示部8は、得られた投影画像をユーザに呈示する。この投影画像は、ユーザ視点カメラ7と光学的に等価な(いわゆる光学共役な)位置から等価な画角で観察できることが好ましい。これにより、ユーザに違和感なく投影画像を呈示することができる。
(Step SA-9 in FIG. 2)
Next, the
本実施形態では、実際のユーザの身体画像の一部を切り出して、それを、VR空間から得られた投影画像に矛盾なく組み込んで、投影画像としてユーザに呈示することができる。このため、本実施形態によれば、自身の身体が投影画像に現れる場合において、ユーザに高い没入感を与えることができるという利点がある。 In the present embodiment, a part of an actual user's body image can be cut out and incorporated into a projection image obtained from the VR space without contradiction, and presented to the user as a projection image. For this reason, according to the present embodiment, there is an advantage that a high immersive feeling can be given to the user when his / her body appears in the projection image.
さらに、VR空間において自然な照明条件を挿入画像に付与することにより、投影画像の違和感をさらに減らすことができ、ユーザが感じる没入感をさらに向上させることができる。 Furthermore, by adding natural lighting conditions to the inserted image in the VR space, it is possible to further reduce the sense of incongruity of the projected image, and to further improve the immersive feeling felt by the user.
(変形例)
次に、図10に基づいて、前記した実施形態を変形した例を説明する。この変形例の説明においては、前記した実施形態と実質的の同様な処理を行うステップについては、同じ参照符号を付することで、説明の煩雑を避ける。
(Modification)
Next, an example in which the above-described embodiment is modified will be described with reference to FIG. In the description of this modification, steps that perform substantially the same processes as those in the above-described embodiment are denoted by the same reference numerals, thereby avoiding complicated description.
前記した実施形態では、ステップSA−2で取得したユーザの身体形状を用いて、ステップSA−3において、ユーザの身体形状を含む、VR空間でのユーザ視点画像(前記の例ではマスク生成用のもの)を生成した。そして、このユーザ視点画像を用いて、ステップSA−4においてマスクを生成していた。 In the above-described embodiment, using the user's body shape acquired in Step SA-2, in Step SA-3, the user viewpoint image in the VR space including the user's body shape (in the above example, for mask generation) Generated). And the mask was produced | generated in step SA-4 using this user viewpoint image.
これに対して、この変形例では、ステップSA−2で算出されたユーザの身体形状を用いて、ステップSA−4において、マスクを生成する。この処理は、ユーザ視点に対するユーザの身体位置姿勢が既知であるため、高速に行うことができる。また、この処理の実装は、例えば、身体形状算出部2及びマスク生成部4のいずれか一方において、あるいは他の機能要素において行うことができる。
On the other hand, in this modification, a mask is generated in step SA-4 using the user's body shape calculated in step SA-2. This process can be performed at high speed because the user's body position and orientation with respect to the user viewpoint are known. In addition, this process can be implemented, for example, in one of the body
この変形例では、VR空間モデルデータを用いてユーザ視点画像を生成する処理を省略できるので、計算処理をさらに高速化することができる。ただし、この変形例では、VR空間モデルデータを使わないため、VR空間中の物体とユーザ身体との遮蔽関係を前記のように算出することは難しくなる。 In this modification, the process of generating the user viewpoint image using the VR space model data can be omitted, so that the calculation process can be further speeded up. However, in this modification, since VR space model data is not used, it is difficult to calculate the shielding relationship between the object in the VR space and the user's body as described above.
なお、この変形例においても、ステップSA−8で使用するユーザ視点画像は、ステップSA−3において、前記の実施形態と同様に(例えば図8のように)生成される。 Also in this modified example, the user viewpoint image used in step SA-8 is generated in the same manner as in the above embodiment (for example, as shown in FIG. 8) in step SA-3.
変形例における他の構成及び利点は、前記した実施形態と基本的に同様なので、これ以上の説明は省略する。 Other configurations and advantages of the modification are basically the same as those of the above-described embodiment, and thus further description thereof is omitted.
(HMDの実施例1…視点位置補正なし)
次に、図11を参照しながら、ユーザ視点カメラ7と画像呈示部8とが実装されるヘッドマウントディスプレイ(HMD)の一例として、実施例1を説明する。
(Example 1 of HMD: No viewpoint position correction)
Next, Example 1 will be described as an example of a head mounted display (HMD) on which the
実施例1では、左眼121と右眼122とに、それぞれ別の画像(つまり立体視用に視差を与えられた画像)を呈示できるようになっている。
In the first embodiment, different images (that is, images given parallax for stereoscopic viewing) can be presented to the
具体的には、本実施例1では、ユーザ視点カメラ7は、左眼用カメラ71と、右眼用カメラ72とを備えている。さらに、本実施例1では、画像呈示部8は、左眼用呈示部81と、右眼用呈示部82とを備えている。
Specifically, in the first embodiment, the
左眼用カメラ71は、左眼121と光学的に共役となる位置に配置されており、左眼用ミラー131を介して、実空間での画像(例えばユーザの身体を含んだ身体画像)を撮影できるようになっている。同様に、右眼用カメラ72は、右眼122と光学的に共役となる位置に配置されており、右眼用ミラー132を介して、実空間画像を撮影できるようになっている。
The left-
左眼用呈示部81は、左眼用ミラー131を介して、ユーザの左眼121に、左眼用の画像を呈示できる構成となっている。また、左眼用呈示部81と左眼121との間の光路上には、焦点距離を調整するための左眼用レンズ141が配置されており、これによって、呈示部81は、左眼用カメラ71と光学的に共役な位置に配置されている。同様に、右眼用呈示部82は、右眼用ミラー132を介して、ユーザの右眼122に、右眼用の画像を呈示できる構成となっている。また、右眼用呈示部82と右眼122との間の光路上には、焦点距離を調整するための右眼用レンズ142が配置されており、これによって、呈示部82は、右眼用カメラ72と光学的に共役な位置に配置されている。
The left-
また、実施例1では、左眼用ミラー131及び右眼用ミラー132として、図12に概略を示した台形状ミラーを用いることが好ましい。この形状を用いることにより、矩形状のVR空間画像をユーザに呈示し、さらに、矩形状の実空間画像をカメラで取得することができる。
Moreover, in Example 1, it is preferable to use the trapezoidal mirror schematically shown in FIG. 12 as the left-
実施例1では、ユーザは、実空間を現実には見ておらず、VR空間で生成された投影画像のみを見る。ここで、ユーザの身体の画像は、ユーザの眼と共役な位置にあるカメラで取得されており、この画像が投影画像に組み合わされているので、ユーザは、VR空間への高い埋没感を得ることができる。 In the first embodiment, the user does not actually see the real space, but only the projection image generated in the VR space. Here, the image of the user's body is acquired by a camera at a position conjugate with the user's eyes, and since this image is combined with the projection image, the user has a high feeling of being buried in the VR space. be able to.
(HMDの実施例2…視点位置補正あり)
次に、図13を参照しながら、ユーザ視点カメラ7と画像呈示部8とが実装されるヘッドマウントディスプレイ(HMD)の別の例として、実施例2を説明する。実施例2の説明においては、前記した実施例1と基本的に共通する構成要素については、同じ符号を用いることにより、説明の煩雑を避ける。
(Example 2 of HMD: with viewpoint position correction)
Next, Example 2 will be described as another example of a head mounted display (HMD) on which the
前記した実施例1では、左右のカメラ71・72が、左右の眼121・122と光学的に共役な位置に配置されていた。これに対して、実施例2では、左右のカメラ71・72が、左右の眼121・122よりも前方にオフセットして配置されており、このため、これらの眼と光学的に共役な位置から外れている。
In the first embodiment described above, the left and
このため、実施例2では、左右のカメラ71・72が、ミラーを介さず、直接に実空間画像を取得することができる(図13参照)。一方、左右の呈示部81・82は、左右のミラー131・132を介して左右の眼121・122に画像を呈示する。
For this reason, in Example 2, the left and
したがって、実施例2では、HMDとしての機械的構成を簡素化することができるという利点がある。 Therefore, in Example 2, there exists an advantage that the mechanical structure as HMD can be simplified.
一方で、実施例2では、前記したように、カメラ視点とユーザ視点との間にオフセットを有している。このオフセット関係を図14に模式的に示す。この例では、ユーザ視点の画角をθ1、カメラ画角をθ2、ユーザ視点から見た投影面の幅をW1、カメラから見た投影面の幅をW2としている。また、ユーザ視点とカメラ視点とのオフセット量をD、ユーザ視点から見た投影面までの距離(焦点距離)をFとしている。 On the other hand, in the second embodiment, as described above, there is an offset between the camera viewpoint and the user viewpoint. This offset relationship is schematically shown in FIG. In this example, the angle of view of the user viewpoint is θ1, the angle of view of the camera is θ2, the width of the projection plane viewed from the user viewpoint is W1, and the width of the projection plane viewed from the camera is W2. Further, the offset amount between the user viewpoint and the camera viewpoint is D, and the distance (focal length) from the user viewpoint to the projection plane is F.
実施例2のように、ユーザ視点とカメラ視点との間にオフセットがある場合は、カメラ画像とユーザ視点画像(つまりVR空間画像)との間のマッピングを行い、両者間の整合を保つことが好ましい。例えば、カメラ画像(実空間画像)の座標変換を行うことで、VR空間における視点画像との整合性を保つことができる。もちろん、逆に、VR空間画像を座標変換することもできる。このようにすれば、視点間にオフセットがある場合でも、ユーザに違和感のない画像呈示が可能となる。なお、画像間のマッピングの計算は、図14に示すようなパラメータが既知であれば、幾何学的に算出できるので、この点についての詳しい説明は省略する。 As in the second embodiment, when there is an offset between the user viewpoint and the camera viewpoint, mapping between the camera image and the user viewpoint image (that is, the VR space image) is performed, and matching between the two can be maintained. preferable. For example, by performing coordinate conversion of a camera image (real space image), consistency with the viewpoint image in the VR space can be maintained. Of course, on the contrary, the VR space image can be coordinate-transformed. In this way, even when there is an offset between the viewpoints, it is possible to present the image without causing the user to feel uncomfortable. Note that the calculation of mapping between images can be geometrically performed if the parameters as shown in FIG. 14 are known, and thus detailed description thereof will be omitted.
実施例2における他の構成及び利点は、実施例1と基本的に共通するので、これ以上詳しい説明は省略する。 Other configurations and advantages of the second embodiment are basically the same as those of the first embodiment, and thus detailed description thereof is omitted.
前記した実施形態における計算処理は、コンピュータに適宜のコンピュータソフトウエアを組み込むことにより実施することができる。 The calculation processing in the above-described embodiment can be implemented by incorporating appropriate computer software into the computer.
なお、本発明の内容は、前記実施形態に限定されるものではない。本発明は、特許請求の範囲に記載された範囲内において、具体的な構成に対して種々の変更を加えうるものである。 The contents of the present invention are not limited to the above embodiment. In the present invention, various modifications can be made to the specific configuration within the scope of the claims.
例えば、前記した各構成要素は、機能ブロックとして存在していればよく、独立したハードウエアとして存在しなくても良い。また、実装方法としては、ハードウエアを用いてもコンピュータソフトウエアを用いても良い。さらに、本発明における一つの機能要素が複数の機能要素の集合によって実現されても良く、本発明における複数の機能要素が一つの機能要素により実現されても良い。 For example, each component described above may exist as a functional block, and may not exist as independent hardware. As a mounting method, hardware or computer software may be used. Furthermore, one functional element in the present invention may be realized by a set of a plurality of functional elements, and a plurality of functional elements in the present invention may be realized by one functional element.
また、機能要素は、物理的に離間した位置に配置されていてもよい。この場合、機能要素どうしがネットワークにより接続されていても良い。グリッドコンピューティング又はクラウドコンピューティングにより機能を実現し、あるいは機能要素を構成することも可能である。 Moreover, the functional element may be arrange | positioned in the position physically separated. In this case, the functional elements may be connected by a network. It is also possible to realize functions or configure functional elements by grid computing or cloud computing.
さらに、本実施形態では、別空間として、VR空間を想定したが、ユーザが存在する場所から離間した実空間を別空間として、本発明を適用することができる。この場合、別空間(つまりリモート空間)でのカメラ視点は、前記実施形態と同様、ユーザ視点と整合させられる。また、別空間でのカメラパラメータは、ユーザ側のカメラパラメータと一致しているか、補正により整合可能なものとされる。 Furthermore, in the present embodiment, a VR space is assumed as another space, but the present invention can be applied to a real space separated from a place where the user exists as another space. In this case, the camera viewpoint in another space (that is, the remote space) is matched with the user viewpoint as in the above embodiment. In addition, camera parameters in another space match the user-side camera parameters or can be matched by correction.
1 ユーザ姿勢取得部
2 身体形状算出部
3 視点画像生成部
4 マスク生成部
5 挿入画像生成部
6 投影画像生成部
7 ユーザ視点カメラ
71 左眼用カメラ
72 右眼用カメラ
8 画像呈示部
81 左眼用呈示部
82 右眼用呈示部
9 身体モデルデータ格納部
10 VR空間モデルデータ格納部
11 照明条件算出部
121 左眼
122 右眼
131 左眼用ミラー
132 右眼用ミラー
141 左眼用レンズ
142 右眼用レンズ
DESCRIPTION OF
Claims (10)
ユーザ姿勢取得部と、身体形状算出部と、マスク生成部とを備えており、
前記ユーザ姿勢取得部は、前記実空間内における前記ユーザの姿勢を取得する構成となっており、
前記身体形状算出部は、取得された前記ユーザの姿勢を用いて、前記ユーザの身体形状を算出する構成となっており、
前記マスク生成部は、前記別空間での前記ユーザの視点から見えるべき前記身体形状に基づいて、前記実空間における前記ユーザの身体画像から前記挿入画像を抽出するためのマスクを生成する構成となっている
ことを特徴とするマスク生成装置。 To generate an insertion image by extracting at least a part of a user's body image in real space, and to generate a mask used to superimpose the insertion image on a viewpoint image in another space viewed from the user's viewpoint Equipment,
A user posture acquisition unit, a body shape calculation unit, and a mask generation unit;
The user posture acquisition unit is configured to acquire the posture of the user in the real space,
The body shape calculation unit is configured to calculate the user's body shape using the acquired posture of the user,
The mask generation unit is configured to generate a mask for extracting the insertion image from the body image of the user in the real space based on the body shape that should be seen from the viewpoint of the user in the different space. A mask generation device characterized by that.
前記視点画像生成部は、前記別空間における前記ユーザの視点から見たときの前記視点画像を生成する構成となっており、
前記マスク生成部は、前記視点画像中に存在する前記ユーザの身体部分の少なくとも一部を、前記ユーザの視点から見えるべき身体形状として用いて、前記マスクを生成する構成となっている
請求項1に記載のマスク生成装置。 It also has a viewpoint image generator,
The viewpoint image generation unit is configured to generate the viewpoint image when viewed from the viewpoint of the user in the different space,
2. The mask generation unit is configured to generate the mask using at least a part of the body part of the user present in the viewpoint image as a body shape that should be visible from the viewpoint of the user. The mask generator described in 1.
前記視点画像生成部は、前記視点画像を、前記VR空間モデルデータ格納部に格納されたVR空間モデルデータに基づいて生成する構成となっている
請求項2に記載のマスク生成装置。 Furthermore, a VR space model data storage unit is provided,
The mask generation apparatus according to claim 2, wherein the viewpoint image generation unit is configured to generate the viewpoint image based on VR space model data stored in the VR space model data storage unit.
前記ユーザ視点カメラは、前記実空間における前記ユーザの身体画像を取得する構成となっており、
前記ユーザ視点カメラの視点の姿勢は、前記別空間における前記ユーザの視点の姿勢と一致しているか、又は、どちらかの視点から見た画像を補正することにより実質的に一致させられるものとなっている
請求項1〜3のいずれか1項に記載のマスク生成装置。 It also has a user viewpoint camera,
The user viewpoint camera is configured to acquire a body image of the user in the real space,
The attitude of the viewpoint of the user viewpoint camera matches the attitude of the user's viewpoint in the different space, or can be substantially matched by correcting an image viewed from either viewpoint. The mask production | generation apparatus of any one of Claims 1-3.
前記照明条件算出部は、前記別空間での照明条件に基づいて、前記挿入画像における輝度又は色の条件を設定する構成となっている
請求項1〜4のいずれか1項に記載のマスク生成装置。 Furthermore, it has a lighting condition calculation unit,
The mask generation according to any one of claims 1 to 4, wherein the illumination condition calculation unit is configured to set a luminance or color condition in the inserted image based on an illumination condition in the different space. apparatus.
請求項1〜5のいずれか1項に記載のマスク生成装置。 Between at least a part of the body shape that should be seen from the user's viewpoint in the different space and some object in the different space, one is the other when viewed from the user's viewpoint in the different space The mask generation device according to any one of claims 1 to 5, wherein the mask generation device is shielded by the mask.
前記挿入画像生成部は、前記身体画像に前記マスクを適用することにより、前記挿入画像を生成する構成となっている
挿入画像生成装置。 Comprising the mask generation device according to any one of claims 1 to 6 and an insertion image generation unit;
The insertion image generation device is configured to generate the insertion image by applying the mask to the body image.
前記投影画像生成部は、前記挿入画像を、前記ユーザの視点から見た別空間での視点画像に組み合わせることにより、前記ユーザに投影すべき投影画像を生成する構成となっており、
前記画像呈示部は、前記投影画像を、前記実空間内でのユーザの視点位置と光学的に共役な視点位置から投影する構成となっている
画像呈示装置。 The insertion image generation device according to claim 7, a projection image generation unit, and an image presentation unit,
The projection image generation unit is configured to generate a projection image to be projected to the user by combining the insertion image with a viewpoint image in another space viewed from the user's viewpoint.
The image presenting device is configured to project the projection image from a viewpoint position optically conjugate with a user's viewpoint position in the real space.
前記実空間内における前記ユーザの姿勢を取得するステップと、
取得された前記ユーザの姿勢を用いて、前記ユーザの身体形状を算出するステップと、
前記別空間での前記ユーザの視点から見えるべき前記身体形状に基づいて、前記実空間における前記ユーザの身体画像から前記挿入画像を抽出するためのマスクを生成するステップと
を備えることを特徴とするマスク生成方法。 To generate an insertion image by extracting at least a part of a user's body image in real space, and to generate a mask used to superimpose the insertion image on a viewpoint image in another space viewed from the user's viewpoint A method using the apparatus of
Obtaining the posture of the user in the real space;
Calculating the user's body shape using the acquired posture of the user;
Generating a mask for extracting the insertion image from the body image of the user in the real space based on the body shape that should be seen from the viewpoint of the user in the different space. Mask generation method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014049151A JP6402850B2 (en) | 2014-03-12 | 2014-03-12 | Image presenting apparatus and mask generating apparatus used therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014049151A JP6402850B2 (en) | 2014-03-12 | 2014-03-12 | Image presenting apparatus and mask generating apparatus used therefor |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015172900A true JP2015172900A (en) | 2015-10-01 |
JP6402850B2 JP6402850B2 (en) | 2018-10-10 |
Family
ID=54260172
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014049151A Expired - Fee Related JP6402850B2 (en) | 2014-03-12 | 2014-03-12 | Image presenting apparatus and mask generating apparatus used therefor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6402850B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000352960A (en) * | 1999-06-11 | 2000-12-19 | Mr System Kenkyusho:Kk | Effect adding device for compound reality feeling picture, picture processing method for effect adding, and program storing medium |
JP2002157606A (en) * | 2000-11-17 | 2002-05-31 | Canon Inc | Image display controller, composite reality presentation system, image display control method, and medium providing processing program |
JP2008046750A (en) * | 2006-08-11 | 2008-02-28 | Canon Inc | Image processor and image processing method |
-
2014
- 2014-03-12 JP JP2014049151A patent/JP6402850B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000352960A (en) * | 1999-06-11 | 2000-12-19 | Mr System Kenkyusho:Kk | Effect adding device for compound reality feeling picture, picture processing method for effect adding, and program storing medium |
JP2002157606A (en) * | 2000-11-17 | 2002-05-31 | Canon Inc | Image display controller, composite reality presentation system, image display control method, and medium providing processing program |
JP2008046750A (en) * | 2006-08-11 | 2008-02-28 | Canon Inc | Image processor and image processing method |
Also Published As
Publication number | Publication date |
---|---|
JP6402850B2 (en) | 2018-10-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102517876B1 (en) | Technique for recording augmented reality data | |
US11577159B2 (en) | Realistic virtual/augmented/mixed reality viewing and interactions | |
US20210065432A1 (en) | Method and system for generating an image of a subject in a scene | |
JP5818773B2 (en) | Image processing apparatus, image processing method, and program | |
US8055061B2 (en) | Method and apparatus for generating three-dimensional model information | |
KR101251701B1 (en) | Stereo video for gaming | |
US20160267720A1 (en) | Pleasant and Realistic Virtual/Augmented/Mixed Reality Experience | |
JP5818857B2 (en) | Information processing apparatus and control method thereof | |
US10237531B2 (en) | Discontinuity-aware reprojection | |
KR20140108128A (en) | Method and apparatus for providing augmented reality | |
KR20160000873A (en) | Hand localization system and the method using head worn RGB-D camera, user interaction system | |
JP5762600B1 (en) | Information processing apparatus and information processing method | |
US20190371072A1 (en) | Static occluder | |
JP2007042055A (en) | Image processing method and image processor | |
JP2012058968A (en) | Program, information storage medium and image generation system | |
CN105611267B (en) | Merging of real world and virtual world images based on depth and chrominance information | |
JP2017016577A (en) | Information processor, and control method, and program, for the same | |
JP7148634B2 (en) | head mounted display device | |
JP7353782B2 (en) | Information processing device, information processing method, and program | |
JP2016071645A (en) | Object three-dimensional model restoration method, device, and program | |
Khattak et al. | A real-time reconstructed 3D environment augmented with virtual objects rendered with correct occlusion | |
JP7262973B2 (en) | Information processing device, information processing method and program | |
JP2014071871A (en) | Video communication system and video communication method | |
JP2018063567A (en) | Image processing device, image processing method and program | |
JP6402850B2 (en) | Image presenting apparatus and mask generating apparatus used therefor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170203 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180123 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180206 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180320 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180522 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180710 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180814 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180828 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6402850 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |