JP2015172900A - Image presentation device and mask generation device to be used for the same - Google Patents

Image presentation device and mask generation device to be used for the same Download PDF

Info

Publication number
JP2015172900A
JP2015172900A JP2014049151A JP2014049151A JP2015172900A JP 2015172900 A JP2015172900 A JP 2015172900A JP 2014049151 A JP2014049151 A JP 2014049151A JP 2014049151 A JP2014049151 A JP 2014049151A JP 2015172900 A JP2015172900 A JP 2015172900A
Authority
JP
Japan
Prior art keywords
user
image
viewpoint
space
mask
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014049151A
Other languages
Japanese (ja)
Other versions
JP6402850B2 (en
Inventor
▲すすむ▼ 舘
Susumu Tate
▲すすむ▼ 舘
孝太 南澤
Kouta Minamizawa
孝太 南澤
正紘 古川
Masahiro Furukawa
正紘 古川
チャリス フェルナンド,
Fernando Charith
チャリス フェルナンド,
サライジ ヤメン モハマド,
Yamen Saraiji Mohamad
サライジ ヤメン モハマド,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Reality Media Res Organization
Reality Media Research Organization
Original Assignee
Reality Media Res Organization
Reality Media Research Organization
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Reality Media Res Organization, Reality Media Research Organization filed Critical Reality Media Res Organization
Priority to JP2014049151A priority Critical patent/JP6402850B2/en
Publication of JP2015172900A publication Critical patent/JP2015172900A/en
Application granted granted Critical
Publication of JP6402850B2 publication Critical patent/JP6402850B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve an immersive feeling of a user who is viewing a projection image to be used for presenting an image in a virtual space to a user when the body of the user is reflected in the projection image.SOLUTION: A user attitude acquisition part 1 acquires the attitude of a user in a real space. A body shape calculation part 2 calculates the body shape of the user by using the acquired attitude of the user. A mask generation part 4 generates a mask for extracting an insertion image from the body image of the user in the real space on the basis of the body shape to be viewed from the viewpoint of the user in another space. Thus, it is possible to generate an insertion image by extracting at least a part of the body image of the user in the real space by using the mask. Also, it is possible to superimpose the insertion image on a viewpoint image in the other real space viewed from the viewpoint of the user.

Description

本発明は、ユーザに呈示される画像を生成するための技術に関するものである。特に、本発明は、実空間の画像を切り取って別空間の画像に組み合わせるためのマスクに関するものである。   The present invention relates to a technique for generating an image presented to a user. In particular, the present invention relates to a mask for cutting out an image in real space and combining it with an image in another space.

従来、ゲームやシミュレーションの分野において、ユーザがバーチャル空間へ没入するために、ヘッドマウントディスプレイ(HMD)が用いられてきた(下記非特許文献1及び2)。特に最近では、安価なHMDが登場し、普及に拍車がかかっている。なお本明細書では、以後「バーチャル」という用語を用いるが、これは「実際には存在しないが、機能や効果において、存在すると同等の」という意味である。   Conventionally, in the field of games and simulations, a head mounted display (HMD) has been used in order for a user to immerse in a virtual space (Non-Patent Documents 1 and 2 below). In particular, recently, inexpensive HMDs have appeared and have been spurring popularity. In the present specification, the term “virtual” will be used hereinafter, which means “it does not actually exist but is equivalent to existing in function and effect”.

HMDを装着したユーザには、ユーザが存在する実空間とは別のバーチャル空間を投影した画像が、HMDに備えられたディスプレイによって呈示される。一方で、ユーザの実際の視界は遮蔽されて、実空間を見ることはできない。これにより、ユーザは、実空間に居ながら、バーチャル空間内へ没入することができる。   To the user wearing the HMD, an image obtained by projecting a virtual space different from the real space in which the user exists is presented by a display provided in the HMD. On the other hand, the user's actual field of view is shielded and the real space cannot be seen. Thereby, the user can be immersed in the virtual space while being in the real space.

このような従来のHMDでは、バーチャル空間への没入感を向上させるために、前記したように、ユーザの視界が遮蔽される。すると、本来であれば自分の身体(例えば手足)を見ることができるような状況でも、自分の身体を見ることはできない。   In such a conventional HMD, in order to improve the feeling of immersion in the virtual space, the user's view is shielded as described above. Then, even if you can see your body (for example, limbs), you cannot see your body.

一方、コンピュータグラフィックスによって、見かけは異なるが本質的に自分自身の身体と呼ぶことができる、いわゆるアバターをバーチャル空間内で出現させる手法も提案されている(下記非特許文献3)。しかしながら、例えば、バーチャル空間内で何かを持っている自分の手元を見たときでも、見えるのは自分の手ではなく、アバターの手の画像である。この状況は、ユーザの現実感と相違するために、バーチャル空間への没入感を減殺してしまうという問題がある。   On the other hand, there has also been proposed a method of causing a so-called avatar to appear in a virtual space, which can be called an own body in spite of its appearance, depending on computer graphics (Non-Patent Document 3 below). However, for example, even if you look at your hand holding something in the virtual space, you can see the image of the avatar's hand, not your hand. Since this situation differs from the user's sense of reality, there is a problem that the sense of immersion in the virtual space is reduced.

そこで、最近では、HMD前面に外界カメラを取り付けたビデオシースルー型のHMDを用いて、ユーザから見えるはずの実空間画像を取得し、その実空間画像から自身の身体を切り出して、バーチャル空間へ重畳する手法が提案されている(下記非特許文献4)。画像から身体を切り取る方法として、クロマキー方式と、映像からの輪郭抽出方式との二つが考えられる。   Therefore, recently, using a video see-through HMD with an external camera attached to the front of the HMD, a real space image that should be visible to the user is acquired, and the body is cut out from the real space image and superimposed on the virtual space. A technique has been proposed (Non-Patent Document 4 below). Two methods, a chroma key method and a contour extraction method from video, are conceivable as methods for cutting the body from the image.

クロマキー方式は、特定の色を持つ領域のみを消去あるいは抜き出すことで、身体領域のみを取り出すものである。しかしながら、この方式では、使える色に制約を生じてしまう。このため、ユーザの身体を計測するためのコックピット側に一様な色を持たせた布を張り巡らせるなど、特殊な設備が必要となる。   In the chroma key method, only a body region is extracted by erasing or extracting only a region having a specific color. However, this method places restrictions on the colors that can be used. For this reason, special equipment is required, such as stretching a cloth with a uniform color on the cockpit side for measuring the user's body.

映像から輪郭を抽出する方式では、画像処理によって画像から身体領域を切り出す必要がある。この方式では、用いる画像の状況(例えば解像度)や、用いる画像処理アルゴリズムによって、得られる精度が大幅に変動してしまう恐れがある。また、画素単位での画像処理を行うので、高い解像度の画像を用いた場合には、リアルタイムでの処理が難しくなるという問題もある。   In the method of extracting the contour from the video, it is necessary to cut out a body region from the image by image processing. In this method, there is a possibility that the accuracy to be obtained may fluctuate greatly depending on the state of the image to be used (for example, resolution) and the image processing algorithm to be used. In addition, since image processing is performed in units of pixels, there is a problem that real-time processing becomes difficult when a high-resolution image is used.

さらに、バーチャル空間中の物体(いわゆるオブジェクト)とユーザ身体との間に遮蔽関係がある場合、物体の手前に存在する身体は見える一方で、物体の背後に存在する身体は隠れる必要がある。前記した二つの方式は、このような遮蔽関係を成立させることが難しいという問題がある。   Furthermore, when there is a shielding relationship between an object (so-called object) in the virtual space and the user's body, the body existing in front of the object can be seen, but the body existing behind the object needs to be hidden. The two methods described above have a problem that it is difficult to establish such a shielding relationship.

遮蔽関係を成立させる技術として、深度計測方式が考えられている。深度計測方式は、デプスキー方式とも呼ばれている。この方式は、実際の身体についての、三次元空間内での位置情報を正確に測定し、その位置情報をバーチャル空間中での身体の位置にマッピングすることによって、遮蔽関係を推定するものである。   As a technique for establishing the shielding relationship, a depth measurement method is considered. The depth measurement method is also called a Depsky method. This method estimates the occlusion relationship by accurately measuring the position information of the actual body in the three-dimensional space and mapping the position information to the position of the body in the virtual space. .

しかしながら、現在通常に使用される距離センサでは、ごく短い距離(例えば手の平や指の形状の相違)を正確に測定することは難しい。このため、深度計測方式では、特に身体の輪郭部分における形状が不正確となりがちであり、その結果、精度の高い遮蔽関係を作り出すことが難しいという問題がある。また、高精度の距離センサを、身体各部の位置を計測できるように配置するためには、かなりのコストを要するという問題もある。さらに、画素ごとに深度情報を取得し、演算を行う手法では、画像が高画質化(高画素化)した場合に計算コストが指数関数的に上昇するという問題もある。   However, it is difficult to accurately measure a very short distance (for example, a difference in the shape of a palm or a finger) with a distance sensor normally used at present. For this reason, the depth measurement method tends to have an inaccurate shape especially in the contour portion of the body, and as a result, there is a problem that it is difficult to create a highly accurate shielding relationship. In addition, there is a problem that it takes a considerable cost to arrange a high-precision distance sensor so that the position of each part of the body can be measured. Furthermore, in the method of obtaining depth information for each pixel and performing the calculation, there is a problem that the calculation cost increases exponentially when the image quality is improved (higher pixels).

S. Tachi, H. Arai and T. Maeda. Tele-existence master-slave system for remote manipulation. II. Proceedings of the 29th IEEE Conference on Decision and Control, pages 85-90 vol.1, 5-7, 1990.S. Tachi, H. Arai and T. Maeda.Tele-existence master-slave system for remote manipulation.II.Proceedings of the 29th IEEE Conference on Decision and Control, pages 85-90 vol.1, 5-7, 1990. K. Suzuki, S. Wakisaka, and N. Fujii. Substitutional reality system: a novel experimental platform for experiencing alternative reality. Scientific reports, 2, 2012.K. Suzuki, S. Wakisaka, and N. Fujii.Substitutional reality system: a novel experimental platform for experiencing alternative reality.Scientific reports, 2, 2012. S. Beck, A. Kunert, A. Kulik, and B. Froehlich. Immersive Group-to-Group Telepresence. IEEE Transactions on Visualization and Computer Graphics, 19(4), pages 616-625, 2013.S. Beck, A. Kunert, A. Kulik, and B. Froehlich. Immersive Group-to-Group Telepresence.IEEE Transactions on Visualization and Computer Graphics, 19 (4), pages 616-625, 2013. F. Steinicke, G. Bruder, K. Rothaus, and K. Hinrichs. Poster: A virtual body for augmented virtuality by chroma-keying of egocentric videos. In IEEE Symposium on 3D User Interfaces. 3DUI 2009, pages 125-126. IEEE, 2009.F. Steinicke, G. Bruder, K. Rothaus, and K. Hinrichs.Poster: A virtual body for augmented virtuality by chroma-keying of egocentric videos.In IEEE Symposium on 3D User Interfaces.3DUI 2009, pages 125-126.IEEE , 2009.

本発明は、前記の状況に鑑みてなされたものである。本発明の主な目的は、バーチャル空間での画像をユーザに呈示するために用いる投影画像に、当該ユーザの身体が映り込んでいる場合において、投影画像を見ているユーザの没入感を向上させるための技術を提供することである。   The present invention has been made in view of the above situation. The main object of the present invention is to improve the immersive feeling of a user who is looking at a projection image when the user's body is reflected in the projection image used to present the image in the virtual space to the user. Is to provide technology for.

前記した課題を解決する手段は、以下の項目のように記載できる。   Means for solving the above-described problems can be described as follows.

(項目1)
実空間におけるユーザの身体画像の少なくとも一部を抽出することによって挿入画像を生成し、前記ユーザの視点から見た別空間での視点画像に前記挿入画像を重畳させるために用いるマスクを生成するための装置であって、
ユーザ姿勢取得部と、身体形状算出部と、マスク生成部とを備えており、
前記ユーザ姿勢取得部は、前記実空間内における前記ユーザの姿勢を取得する構成となっており、
前記身体形状算出部は、取得された前記ユーザの姿勢を用いて、前記ユーザの身体形状を算出する構成となっており、
前記マスク生成部は、前記別空間での前記ユーザの視点から見えるべき前記身体形状に基づいて、前記実空間における前記ユーザの身体画像から前記挿入画像を抽出するためのマスクを生成する構成となっている
ことを特徴とするマスク生成装置。
(Item 1)
To generate an insertion image by extracting at least a part of a user's body image in real space, and to generate a mask used to superimpose the insertion image on a viewpoint image in another space viewed from the user's viewpoint Equipment,
A user posture acquisition unit, a body shape calculation unit, and a mask generation unit;
The user posture acquisition unit is configured to acquire the posture of the user in the real space,
The body shape calculation unit is configured to calculate the user's body shape using the acquired posture of the user,
The mask generation unit is configured to generate a mask for extracting the insertion image from the body image of the user in the real space based on the body shape that should be seen from the viewpoint of the user in the different space. A mask generation device characterized by that.

別空間とは、例えばVR空間であるが、ユーザが存在する地点から空間的あるいは時間的に離れた位置での実空間であってもよい。ユーザの身体とは、例えばユーザの手、腕、脚などであるが、他の部位や、ユーザが身に着ける物品であってもよい。身体形状算出部とマスク生成部とは、、一つのコンピュータプログラムによってコンピュータ上でその機能を実現してもよいし、複数のプログラムあるいはモジュールの組み合わせにより、一台又は複数台のコンピュータによって機能を実現してもよい。   The separate space is, for example, a VR space, but may be a real space at a position spatially or temporally away from a point where the user exists. The user's body is, for example, the user's hand, arm, or leg, but may be another part or an article that the user can wear. The body shape calculation unit and the mask generation unit may realize their functions on a computer by one computer program, or realize the functions by one or a plurality of computers by a combination of a plurality of programs or modules. May be.

(項目2)
さらに視点画像生成部を備えており、
前記視点画像生成部は、前記別空間における前記ユーザの視点から見たときの前記視点画像を生成する構成となっており、
前記マスク生成部は、前記視点画像中に存在する前記ユーザの身体部分の少なくとも一部を、前記ユーザの視点から見えるべき身体形状として用いて、前記マスクを生成する構成となっている
項目1に記載のマスク生成装置。
(Item 2)
It also has a viewpoint image generator,
The viewpoint image generation unit is configured to generate the viewpoint image when viewed from the viewpoint of the user in the different space,
Item 1. The mask generation unit is configured to generate the mask by using at least a part of the user's body part present in the viewpoint image as a body shape that should be visible from the user's viewpoint. The mask generating apparatus as described.

(項目3)
さらにVR空間モデルデータ格納部を備えており、
前記視点画像生成部は、前記視点画像を、前記VR空間モデルデータ格納部に格納されたVR空間モデルデータに基づいて生成する構成となっている
項目2に記載のマスク生成装置。
(Item 3)
Furthermore, a VR space model data storage unit is provided,
The mask generation device according to item 2, wherein the viewpoint image generation unit is configured to generate the viewpoint image based on VR space model data stored in the VR space model data storage unit.

(項目4)
さらにユーザ視点カメラを備えており、
前記ユーザ視点カメラは、前記実空間における前記ユーザの身体画像を取得する構成となっており、
前記ユーザ視点カメラの視点の姿勢は、前記別空間における前記ユーザの視点の姿勢と一致しているか、又は、どちらかの視点から見た画像を補正することにより実質的に一致させられるものとなっている
項目1〜3のいずれか1項に記載のマスク生成装置。
(Item 4)
It also has a user viewpoint camera,
The user viewpoint camera is configured to acquire a body image of the user in the real space,
The attitude of the viewpoint of the user viewpoint camera matches the attitude of the user's viewpoint in the different space, or can be substantially matched by correcting an image viewed from either viewpoint. The mask generation device according to any one of items 1 to 3.

(項目5)
さらに照明条件算出部を備えており、
前記照明条件算出部は、前記別空間での照明条件に基づいて、前記挿入画像における輝度又は色の条件を設定する構成となっている
項目1〜4のいずれか1項に記載のマスク生成装置。
(Item 5)
Furthermore, it has a lighting condition calculation unit,
The mask generation device according to any one of Items 1 to 4, wherein the illumination condition calculation unit is configured to set a luminance or color condition in the inserted image based on an illumination condition in the different space. .

ユーザに呈示される投影画像は、一般に、別空間での照明条件を用いて生成される。この照明条件を用いて、挿入画像(別空間内では、ユーザのためのアバター又はその一部としてユーザに視認されるべきものである)に対する輝度又は色の条件を設定することにより、ユーザが感じる現実感を向上させることができる。   The projection image presented to the user is generally generated using lighting conditions in another space. Using this lighting condition, the user feels by setting the brightness or color condition for the inserted image (in another space it should be viewed by the user as an avatar for the user or as part of it) Reality can be improved.

(項目6)
前記別空間での前記ユーザの視点から見えるべき前記身体形状の少なくとも一部と、前記別空間における何らかの物体との間には、前記別空間における前記ユーザの視点から見た場合に、一方が他方により遮蔽される関係となっている
項目1〜5のいずれか1項に記載のマスク生成装置。
(Item 6)
Between at least a part of the body shape that should be seen from the user's viewpoint in the different space and some object in the different space, one is the other when viewed from the user's viewpoint in the different space Item 6. The mask generation device according to any one of Items 1 to 5, wherein the mask generation device is in a relationship of being shielded by.

(項目7)
項目1〜6のいずれか1項に記載のマスク生成装置と、挿入画像生成部とを備えており、
前記挿入画像生成部は、前記身体画像に前記マスクを適用することにより、前記挿入画像を生成する構成となっている
挿入画像生成装置。
(Item 7)
Comprising the mask generation device according to any one of items 1 to 6 and an insertion image generation unit;
The insertion image generation device is configured to generate the insertion image by applying the mask to the body image.

(項目8)
項目7に記載の挿入画像生成装置と、投影画像生成部と、画像呈示部とを備えており、
前記投影画像生成部は、前記挿入画像を、前記ユーザの視点から見た別空間での視点画像に組み合わせることにより、前記ユーザに投影すべき投影画像を生成する構成となっており、
前記画像呈示部は、前記投影画像を、前記実空間内でのユーザの視点位置と光学的に共役な視点位置から投影する構成となっている
画像呈示装置。
(Item 8)
The inserted image generating device according to item 7, a projection image generating unit, and an image presenting unit,
The projection image generation unit is configured to generate a projection image to be projected to the user by combining the insertion image with a viewpoint image in another space viewed from the user's viewpoint.
The image presenting device is configured to project the projection image from a viewpoint position optically conjugate with a user's viewpoint position in the real space.

(項目9)
実空間におけるユーザの身体画像の少なくとも一部を抽出することによって挿入画像を生成し、前記ユーザの視点から見た別空間での視点画像に前記挿入画像を重畳させるために用いるマスクを生成するための装置を用いた方法であって、
前記実空間内における前記ユーザの姿勢を取得するステップと、
取得された前記ユーザの姿勢を用いて、前記ユーザの身体形状を算出するステップと、
前記別空間での前記ユーザの視点から見えるべき前記身体形状に基づいて、前記実空間における前記ユーザの身体画像から前記挿入画像を抽出するためのマスクを生成するステップと
を備えることを特徴とするマスク生成方法。
(Item 9)
To generate an insertion image by extracting at least a part of a user's body image in real space, and to generate a mask used to superimpose the insertion image on a viewpoint image in another space viewed from the user's viewpoint A method using the apparatus of
Obtaining the posture of the user in the real space;
Calculating the user's body shape using the acquired posture of the user;
Generating a mask for extracting the insertion image from the body image of the user in the real space based on the body shape that should be seen from the viewpoint of the user in the different space. Mask generation method.

(項目10)
項目9に記載の各ステップをコンピュータに実行させるためのコンピュータプログラム。
(Item 10)
A computer program for causing a computer to execute each step according to item 9.

このコンピュータプログラムは、適宜な記録媒体(例えばCD−ROMやDVDディスクのような光学的な記録媒体、ハードディスクやフレキシブルディスクのような磁気的記録媒体、あるいはMOディスクのような光磁気記録媒体)に格納することができる。このコンピュータプログラムは、インターネットなどの通信回線を介して伝送されることができる。   This computer program is stored in an appropriate recording medium (for example, an optical recording medium such as a CD-ROM or a DVD disk, a magnetic recording medium such as a hard disk or a flexible disk, or a magneto-optical recording medium such as an MO disk). Can be stored. This computer program can be transmitted via a communication line such as the Internet.

本発明によれば、バーチャル空間を投影した画像を見ているユーザの没入感を向上させるように、ユーザの身体画像を抽出して、投影画像に組み込むことが可能になる。   According to the present invention, it is possible to extract a user's body image and incorporate it into the projected image so as to improve the immersive feeling of the user who is viewing the image projected from the virtual space.

さらに、本発明によれば、ユーザの身体画像を抽出するためのマスクを、高精度かつ低コストで生成することが可能になる。   Furthermore, according to the present invention, a mask for extracting a user's body image can be generated with high accuracy and low cost.

しかも、本発明によれば、マスクを用いるので、投影画像の画素数が大きい場合であっても、計算コストを低く抑えることができる。その結果、本発明では、動画像の提供時におけるフレーム遅延を小さく抑えることが可能になり、また、高画質での画像提供が容易になるという効果もある。   Moreover, according to the present invention, since the mask is used, the calculation cost can be kept low even when the number of pixels of the projected image is large. As a result, according to the present invention, it is possible to reduce the frame delay at the time of providing a moving image, and it is easy to provide an image with high image quality.

本発明の一実施形態に係る画像呈示装置の概略的構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of an image presentation device according to an embodiment of the present invention. 本発明の一実施形態に係る画像呈示方法の概略的手順を示すフローチャートである。It is a flowchart which shows the schematic procedure of the image presentation method which concerns on one Embodiment of this invention. 身体モデルデータとしてのボーンデータについての概念的な説明図である。It is a conceptual explanatory drawing about the bone data as body model data. 身体モデルデータとしての外形モデルについての概念的な説明図である。It is a conceptual explanatory drawing about the external shape model as body model data. マスク生成用の、VR空間でのユーザ視点画像を概念的に示す説明図である。It is explanatory drawing which shows notionally the user viewpoint image in VR space for mask production | generation. 実空間におけるユーザ視点からのユーザ身体画像を概念的に示す説明図である。It is explanatory drawing which shows notionally the user body image from the user viewpoint in real space. マスク適用によってユーザ身体画像から切り出された挿入画像を概念的に示す説明図である。It is explanatory drawing which shows notionally the insertion image cut out from the user body image by mask application. 挿入画像を組み合わされる、VR空間でのユーザ視点画像を概念的に示す説明図である。It is explanatory drawing which shows notionally the user viewpoint image in VR space combined with an insertion image. VR空間でのユーザ視点画像に挿入画像を重畳させて得た投影画像を概念的に示す説明図である。It is explanatory drawing which shows notionally the projection image obtained by superimposing an insertion image on the user viewpoint image in VR space. 変形例に係る画像呈示方法の概略的手順を示すフローチャートである。It is a flowchart which shows the schematic procedure of the image presentation method which concerns on a modification. 実施例1に係るHMDの概略的構成を示す平面図である。1 is a plan view illustrating a schematic configuration of an HMD according to Embodiment 1. FIG. 図11に示すHMDにおいて使用されるミラーの反射面形状を模式的に示す説明図である。It is explanatory drawing which shows typically the reflective surface shape of the mirror used in HMD shown in FIG. 実施例2に係るHMDの概略的構成を示す平面図である。6 is a plan view showing a schematic configuration of an HMD according to Embodiment 2. FIG. 実施例2におけるカメラ視点のオフセットに対応した画像処理のための各パラメータの取り方の一例を示す説明図である。FIG. 10 is an explanatory diagram illustrating an example of how to take parameters for image processing corresponding to a camera viewpoint offset in the second embodiment.

(画像呈示装置の一実施形態)
図1を参照して、本発明の一実施形態に係る画像呈示装置について説明する。
(One Embodiment of Image Presentation Device)
With reference to FIG. 1, an image presentation apparatus according to an embodiment of the present invention will be described.

本実施形態の画像呈示装置は、ユーザ姿勢取得部1と、身体形状算出部2と、視点画像生成部3と、マスク生成部4とを備えている。さらに、本実施形態の装置は、挿入画像生成部5と、投影画像生成部6と、ユーザ視点カメラ7と、画像呈示部8とを備えている。さらに、本実施形態の装置は、身体モデルデータ格納部9とVR空間モデルデータ格納部10と、照明条件算出部11とを備えている。   The image presentation apparatus according to the present embodiment includes a user posture acquisition unit 1, a body shape calculation unit 2, a viewpoint image generation unit 3, and a mask generation unit 4. Furthermore, the apparatus according to the present embodiment includes an insertion image generation unit 5, a projection image generation unit 6, a user viewpoint camera 7, and an image presentation unit 8. Furthermore, the apparatus of the present embodiment includes a body model data storage unit 9, a VR space model data storage unit 10, and an illumination condition calculation unit 11.

ユーザ姿勢取得部1は、実空間内におけるユーザの姿勢を取得する構成となっている。ユーザ姿勢取得部1としては、市販の身体運動計測装置を用いることができ、これにより、比較的に高精度の測定を低コストで行うことができる。   The user posture acquisition unit 1 is configured to acquire a user posture in real space. As the user posture acquisition unit 1, a commercially available body motion measurement device can be used, and thereby relatively accurate measurement can be performed at a low cost.

身体形状算出部2は、ユーザ姿勢取得部1で取得されたユーザの姿勢を用いて、ユーザの身体形状を算出する構成となっている。より具体的には、本実施形態では、身体モデルデータ格納部9に格納された身体モデルデータ(後述)を用いて、ユーザの身体形状を算出するようになっている。   The body shape calculation unit 2 is configured to calculate the user's body shape using the user's posture acquired by the user posture acquisition unit 1. More specifically, in the present embodiment, the body shape of the user is calculated using body model data (described later) stored in the body model data storage unit 9.

視点画像生成部3は、別空間(本実施形態ではVR空間)におけるユーザの視点から見たときの視点画像を生成する構成となっている。すなわち、本実施形態では、ユーザ姿勢取得部1により、ユーザ視点の姿勢(方向及び位置)を知ることができる。これにより、視点画像生成部3は、ユーザ視点の位置をVR空間にマッピングし、VR空間中に存在するバーチャルなユーザの視点から得られる画像(すなわち視点画像)を生成することができる。ここで、本実施形態では、マスク生成用の視点画像と、後述の投影画像生成用の視点画像とを別々に生成することができる。そして、マスク生成用の視点画像においては、視点画像上での身体形状に相当する部分(これはVR空間中なので三次元的な位置を正確に決定できる)を、後の処理が容易なように、例えば特別な色空間情報で表すことができる。なお、具体的な処理手順については、追って説明する。   The viewpoint image generation unit 3 is configured to generate a viewpoint image when viewed from the user's viewpoint in another space (VR space in the present embodiment). That is, in the present embodiment, the user posture acquisition unit 1 can know the posture (direction and position) of the user viewpoint. Thereby, the viewpoint image generation unit 3 can map the position of the user viewpoint in the VR space and generate an image (that is, a viewpoint image) obtained from the virtual user viewpoint existing in the VR space. Here, in the present embodiment, a viewpoint image for generating a mask and a viewpoint image for generating a projection image described later can be generated separately. Then, in the viewpoint image for mask generation, a part corresponding to the body shape on the viewpoint image (this is in the VR space, so that the three-dimensional position can be accurately determined) so that the subsequent processing is easy. For example, it can be expressed by special color space information. A specific processing procedure will be described later.

マスク生成部4は、別空間でのユーザの視点から見えるべき身体形状に基づいて、実空間におけるユーザの身体画像から挿入画像を切り出すためのマスクを生成する構成となっている。ここで、「切り出す」とは、「取り出す」あるいは「抽出する」という程度の意味である。   The mask generation unit 4 is configured to generate a mask for cutting out the insertion image from the body image of the user in the real space based on the body shape that should be seen from the user's viewpoint in another space. Here, “cut out” means “take out” or “extract”.

より具体的には、本実施形態のマスク生成部4は、視点画像中に存在するユーザの身体部分の少なくとも一部を、ユーザの視点から見えるべき身体形状として用いて、マスクを生成する構成となっている。ここで、視点画像は、視点画像生成部3で生成されたものであり、その視点画像には、VR空間中でのユーザの身体が映り込んでいる。   More specifically, the mask generation unit 4 of the present embodiment generates a mask by using at least a part of the user's body part present in the viewpoint image as a body shape that should be visible from the user's viewpoint. It has become. Here, the viewpoint image is generated by the viewpoint image generation unit 3, and the user's body in the VR space is reflected in the viewpoint image.

挿入画像生成部5は、身体画像にマスクを適用することにより、挿入画像を生成する構成となっている。挿入画像を生成する処理の具体例も後述する。   The insertion image generation unit 5 is configured to generate an insertion image by applying a mask to the body image. A specific example of processing for generating an insertion image will also be described later.

投影画像生成部6は、挿入画像を、ユーザの視点から見た別空間での視点画像に組み合わせることにより、ユーザに投影すべき投影画像を生成する構成となっている。   The projection image generation unit 6 is configured to generate a projection image to be projected to the user by combining the insertion image with a viewpoint image in another space viewed from the user's viewpoint.

ユーザ視点カメラ7は、実空間におけるユーザの身体画像を取得する構成となっている。ここで、ユーザ視点カメラ7の視点の姿勢は、別空間における(つまり別空間座標上での)ユーザの視点の姿勢と一致している。ただし、どちらかの視点から見た画像を補正することにより実質的にこれらの視点位置を一致させることも可能である。   The user viewpoint camera 7 is configured to acquire a user's body image in real space. Here, the posture of the viewpoint of the user viewpoint camera 7 matches the posture of the user's viewpoint in another space (that is, on another space coordinate). However, it is possible to substantially match these viewpoint positions by correcting an image viewed from either viewpoint.

画像呈示部8は、投影画像を、実空間内でのユーザの視点位置と光学的に共役な位置からユーザに向けて呈示する構成となっている。   The image presenting unit 8 is configured to present the projection image to the user from a position optically conjugate with the viewpoint position of the user in the real space.

ここで、本実施形態では、ユーザ視点カメラ7と画像呈示部8とは、いわゆるビデオシースルー型のHMDとして実装することができる。また、ユーザ視点カメラ7と画像呈示部8とは、立体視に対応して、左右両眼のためにそれぞれ設けることができる。なお、以下の説明では、基本的に、一方の眼に呈示する画像について説明するが、特に断らない限り、他方の眼に呈示される画像についても同様の処理が行われる。もちろん、立体視のための視差を考慮した画像が通常は提示される。また、モノラル視に対応した画像を呈示することも可能である。   Here, in this embodiment, the user viewpoint camera 7 and the image presentation unit 8 can be implemented as a so-called video see-through HMD. Further, the user viewpoint camera 7 and the image presentation unit 8 can be provided for both the left and right eyes, corresponding to the stereoscopic view. In the following description, basically, an image presented to one eye will be described, but the same processing is performed on an image presented to the other eye unless otherwise specified. Of course, an image in consideration of parallax for stereoscopic viewing is usually presented. It is also possible to present an image corresponding to monaural viewing.

身体モデルデータ格納部9は、前記した身体形状算出部2における身体形状の算出に必要なデータを格納するための機能要素である。身体モデルデータとは、例えば、骨格の姿勢を表すためのボーンデータと、身体の外形形状を表すための外形モデルデータである。ボーンデータは、主要な骨の向きと長さとを表している。外形モデルデータは、ボーンデータに適用されて、身体の外形を表すことができるものである。これらのデータの具体例についても後述する。   The body model data storage unit 9 is a functional element for storing data necessary for calculation of the body shape in the body shape calculation unit 2 described above. The body model data is, for example, bone data for representing the posture of the skeleton and outer shape model data for representing the outer shape of the body. Bone data represents the orientation and length of the main bone. The outline model data is applied to bone data and can represent the outline of the body. Specific examples of these data will also be described later.

VR空間モデルデータ格納部10は、バーチャル空間(VR空間)を規定するためのデータであり、通常は、バーチャルな三次元空間を構成するためのデータを備えている。本実施形態の視点画像生成部3は、ユーザ視点からの視点画像を、VR空間モデルデータ格納部10に格納されたVR空間モデルデータに基づいて生成する構成となっている。   The VR space model data storage unit 10 is data for defining a virtual space (VR space), and normally includes data for configuring a virtual three-dimensional space. The viewpoint image generation unit 3 of the present embodiment is configured to generate a viewpoint image from the user viewpoint based on the VR space model data stored in the VR space model data storage unit 10.

照明条件算出部11は、別空間でのユーザのためのアバターに対する照明条件に基づいて、挿入画像における輝度又は色の条件を設定する構成となっている。VR空間では、アバターに対する照明条件は既知として扱うことができる。もちろん、一般的には、VR空間での照明条件は、アバターだけについて決定されるものではなく、VR空間全体について決定される。「アバターに対する照明条件」とは、照明条件のうちで、アバターに関係するもの(例えばアバター表面の輝度や色を変化させたり、あるいは、アバターによる影を生成させたりするもの)という程度の意味である。   The illumination condition calculation unit 11 is configured to set the luminance or color condition in the inserted image based on the illumination condition for the avatar for the user in another space. In the VR space, the lighting conditions for the avatar can be treated as known. Of course, in general, lighting conditions in the VR space are determined not for the avatar alone but for the entire VR space. “Lighting conditions for avatars” means lighting conditions that relate to avatars (for example, those that change the brightness and color of the avatar surface or generate shadows by avatars). is there.

本実施形態におけるマスクの生成及び投影画像の生成のさらに詳しい手順については後述する。   A more detailed procedure for generating a mask and generating a projection image in this embodiment will be described later.

また、前記したユーザ視点カメラ7と画像呈示部8とを実装するためのビデオシースルー型HMDの実施例についても後述する。   An example of a video see-through HMD for mounting the user viewpoint camera 7 and the image presentation unit 8 will be described later.

なお、本実施形態のユーザ姿勢取得部1と、身体形状算出部2と、マスク生成部4とが、本発明のマスク生成装置の一実施形態に相当する。また、このマスク生成装置に挿入画像生成部5を加えたものが、本発明の挿入画像生成装置の一実施形態に相当する。さらに、この挿入画像生成装置に投影画像生成部6と画像呈示部8とを加えたものが、本発明の画像呈示装置の一実施形態に相当する。   The user posture acquisition unit 1, the body shape calculation unit 2, and the mask generation unit 4 of the present embodiment correspond to an embodiment of the mask generation device of the present invention. Further, the insertion image generation unit 5 added to the mask generation apparatus corresponds to an embodiment of the insertion image generation apparatus of the present invention. Further, the addition of the projection image generating unit 6 and the image presenting unit 8 to the inserted image generating device corresponds to an embodiment of the image presenting device of the present invention.

(投影画像の生成方法)
ついで、前記した装置を用いてマスクを生成し、このマスクを用いて投影画像を生成する手順の一例を、図2をさらに参照しながら説明する。
(Projection image generation method)
Next, an example of a procedure for generating a mask using the above-described apparatus and generating a projection image using the mask will be described with further reference to FIG.

(図2のステップSA−1)
まず、ユーザ姿勢取得部1は、ユーザの姿勢を取得する。この取得は、リアルタイムでの利用を考慮すると、画像の呈示と並行して行われる。つまり、ユーザの姿勢を測定しつつ、その姿勢を利用した画像呈示が行われ、逐次、姿勢データと投影画像とが更新されることになる。また、投影画像を順次更新することにより、動画をユーザに提供することができる。
(Step SA-1 in FIG. 2)
First, the user posture acquisition unit 1 acquires the user posture. This acquisition is performed in parallel with the presentation of the image in consideration of real-time use. That is, while presenting the user's posture, the image presentation using the posture is performed, and the posture data and the projected image are sequentially updated. Moreover, a moving image can be provided to the user by sequentially updating the projection images.

(図2のステップSA−2)
ついで、身体形状算出部2は、得られたユーザ姿勢と、身体モデルデータ格納部9に格納された身体モデルデータとを用いて、ユーザの身体形状を算出する。したがって、通常は、本装置の利用前に、利用ユーザの基本的な身体寸法(関節間の距離や手の形状など)を測定しておき、身体モデルデータ格納部9に格納しておくことが好ましい。しかしながら、人間の身体寸法は、基本的には(例えば大人であれば)同様なので、個人に特有でない、一般的な寸法データを用いることも可能である。なお、算出される身体形状の特定は、VR空間の座標上でも、実空間の座標上でもよい。これらの座標系を変換するためのマッピングは通常既知だからである。
(Step SA-2 in FIG. 2)
Next, the body shape calculation unit 2 calculates the user's body shape using the obtained user posture and the body model data stored in the body model data storage unit 9. Therefore, normally, before using this apparatus, basic body dimensions (distance between joints, hand shape, etc.) of the user are measured and stored in the body model data storage unit 9. preferable. However, since the human body dimensions are basically the same (for example, for adults), it is possible to use general dimension data not specific to an individual. The body shape to be calculated may be specified on the coordinates in the VR space or on the coordinates in the real space. This is because the mapping for converting these coordinate systems is usually known.

図3に、いわゆるボーンデータとしての身体寸法モデルの一例を示す。また、図4に、身体の外形モデル(この例では手)の一例を示す。   FIG. 3 shows an example of a body dimension model as so-called bone data. FIG. 4 shows an example of a body outline model (in this example, a hand).

(図2のステップSA−3)
ついで、視点画像生成部3は、VR空間モデルデータ格納部10に格納されたVR空間モデルデータを用いて、VR空間でのユーザ視点から見た視点画像を生成する。ここで、VR空間でのユーザ視点の姿勢(この明細書において姿勢とは、位置及び/又は向きをいうものとする)は、ユーザ姿勢取得部1により実空間中で取得された姿勢と一致(マッピングによる一致)させられている。したがって、この視点画像(VR空間での画像)には、別空間(VR空間)でのユーザの視点から見えるべきアバターの身体形状が映り込んでいることになる。そして、この視点画像は、投影画像として使用される視点画像と同じ視点姿勢から取得されている。なお、マスク生成用に使用される視点画像は、後述するように、身体を含む画像として生成されるが、投影画像として使用される視点画像では、身体を含まないことが好ましい。これにより、挿入画像を視点画像に組み込む作業を容易化することができる。なお、いずれの視点画像についても、同じ画角で取得されることが好ましい。
(Step SA-3 in FIG. 2)
Next, the viewpoint image generation unit 3 generates a viewpoint image viewed from the user viewpoint in the VR space, using the VR space model data stored in the VR space model data storage unit 10. Here, the posture of the user viewpoint in the VR space (the posture in this specification refers to the position and / or orientation) matches the posture acquired in the real space by the user posture acquisition unit 1 ( Match by mapping). Therefore, the body shape of the avatar that should be seen from the user's viewpoint in another space (VR space) is reflected in this viewpoint image (image in the VR space). The viewpoint image is acquired from the same viewpoint posture as the viewpoint image used as the projection image. As will be described later, the viewpoint image used for mask generation is generated as an image including the body, but the viewpoint image used as the projection image preferably does not include the body. Thereby, the operation | work which incorporates an insertion image in a viewpoint image can be facilitated. In addition, it is preferable that all viewpoint images are acquired at the same angle of view.

マスク作成用の視点画像の一例を図5に示す。この例では、ユーザの身体に相当する画像部分を白色、それ以外を黒色にしてある。より詳しくは、図5は、マスクをアルファチャンネルとして定義し,残存させるべき部分が白色、それ以外を黒色として表現したものである。これにより従来のカラーキーを用いた場合に生じる、被写体自体の色にカラーキーの色を用いることができないという色干渉の問題を回避することができ、被写体の色に制約のないマスクを作成することができる。   An example of a viewpoint image for creating a mask is shown in FIG. In this example, the image portion corresponding to the user's body is white, and the others are black. More specifically, FIG. 5 defines a mask as an alpha channel, and expresses a portion to be left as white and the other as black. This avoids the problem of color interference that occurs when using a conventional color key and the color of the subject itself cannot be used, and creates a mask that does not restrict the subject color. be able to.

VR空間内では、ユーザの身体の位置も、それ以外の物体(バーチャル物体)の位置も、全て既知となる。このため、前記した視点画像では、両者の遮蔽関係を正確に表すことができる。図5の例では、手に持っている棒(バーチャル物体の一例)によって手のひらの一部が隠されており、しかも、棒の手前にある右手親指が画像に現れている。ここで物体とは、例えば他者の身体などの生体を含む意味である。   In the VR space, the position of the user's body and the positions of other objects (virtual objects) are all known. For this reason, the above-described viewpoint image can accurately represent the shielding relationship between the two. In the example of FIG. 5, a part of the palm is hidden by a stick held in the hand (an example of a virtual object), and the right thumb in front of the stick appears in the image. Here, the object means a living body such as the body of another person.

なお、投影画像として使用される視点画像の生成においては、照明条件算出部11で得られた照明条件と、VR空間中での各物体(自己の身体を含む)の位置関係とを用いて、身体によって形成されるはずの「影」も形成しておくことが好ましい。このようにすれば、視点画像に挿入画像(身体画像)を挿入して投影画像を生成した場合において、投影画像における現実感を一層向上させることができる。   In generating a viewpoint image used as a projection image, the illumination condition obtained by the illumination condition calculation unit 11 and the positional relationship of each object (including its own body) in the VR space are used. It is also preferable to form a “shadow” that should be formed by the body. In this way, when a projection image is generated by inserting an insertion image (body image) into the viewpoint image, the reality in the projection image can be further improved.

(図2のステップSA−4)
ついで、マスク生成部4は、視点画像を用いて、マスクを生成する。マスクは、図5に示した視点画像から、ユーザの身体に相当する部分(これはシステム側において既知となっている)を抜き出すことにより形成可能である。例えば、身体部分の色を視点画像上で適宜に設定しておき、その部分を除去することで、マスクを容易に形成することができる。もちろん、このようなアルファキー的な手法に限るものではなく、適宜な手法で身体部分とそれ以外の部分とを区別して、マスクを形成できる。
(Step SA-4 in FIG. 2)
Next, the mask generation unit 4 generates a mask using the viewpoint image. The mask can be formed by extracting a portion corresponding to the user's body (which is known on the system side) from the viewpoint image shown in FIG. For example, the mask can be easily formed by appropriately setting the color of the body part on the viewpoint image and removing the part. Of course, the present invention is not limited to such an alpha-key technique, and a mask can be formed by distinguishing a body part from other parts by an appropriate technique.

本実施形態では、画素位置ごとの深度計測を行わなくとも、正確な遮蔽関係を、視点画像上において表現することができる。身体位置の深度計測を行う場合には、装置構成が複雑になって高コスト化するだけでなく、計算処理に時間がかかるのでリアルタイム性が劣化するという問題がある。さらに、正確な深度計測は一般には難しいので、得られるマスクの精度が不足しがちであるという問題もある。これに対して、本実施形態では、画素ごとの身体位置を決定するための深度計測を省略できるので、
・装置構成を簡略化できる;
・低コスト化を実現できる;
・計算処理が単純になるので、リアルタイム性が向上する;
・VR空間データに基づくので、高いマスク精度を実現できる
という利点がある。
In the present embodiment, an accurate occlusion relationship can be expressed on the viewpoint image without performing depth measurement for each pixel position. In the case of measuring the depth of the body position, there is a problem that not only the apparatus configuration becomes complicated and the cost is increased, but also the real-time property is deteriorated because the calculation process takes time. Furthermore, since accurate depth measurement is generally difficult, there is a problem that the accuracy of the obtained mask tends to be insufficient. On the other hand, in this embodiment, depth measurement for determining the body position for each pixel can be omitted.
・ The equipment configuration can be simplified;
・ Cost reduction can be realized;
・ Since the calculation process is simplified, real-time performance is improved;
-Since it is based on VR space data, there is an advantage that high mask accuracy can be realized.

また、本実施形態では、ユーザ姿勢の取得精度を向上させることにより、マスク精度を向上させることができる。本実施形態では、画像ベースではなく、実空間での計測によりユーザ姿勢を取得するので、ユーザ姿勢の取得精度向上が容易であり、したがって、マスク精度向上が容易になるという利点もある。   Moreover, in this embodiment, mask accuracy can be improved by improving the acquisition accuracy of the user posture. In this embodiment, since the user posture is acquired by measurement in real space instead of the image base, it is easy to improve the acquisition accuracy of the user posture, and therefore there is an advantage that the mask accuracy can be easily improved.

(図2のステップSA−5)
一方、照明条件算出部11は、VR空間中でのアバターの身体に対する照明条件を算出する。VR空間中では、いずれかの位置にあるアバター身体に対する照明条件を容易に算出できるので、この算出手法の詳細についての説明は省略する。この照明条件をマスクに適用することにより、切り出される挿入画像(後述)を、VR空間において自然なもの(違和感を感じにくいもの)とすることができる。照明条件は、切り出された挿入画像に対して適用することもできる。
(Step SA-5 in FIG. 2)
On the other hand, the illumination condition calculation unit 11 calculates the illumination condition for the body of the avatar in the VR space. In the VR space, the lighting condition for the avatar body at any position can be easily calculated, and thus the detailed description of this calculation method is omitted. By applying this illumination condition to the mask, the cut out inserted image (described later) can be made natural in VR space (a feeling of uncomfortable feeling). The illumination condition can also be applied to the cut out inserted image.

(図2のステップSA−6)
一方、ユーザ視点カメラ7は、ユーザ視点(これは実空間での視点であるが、VR空間でのユーザ視点と整合している)からの実画像を取得する。実画像の模式的な説明図を図6に示す。ここで、実画像には、ユーザの身体が映り込まない場合もあるが、ユーザの身体が実画像中にあるかどうかは、VR空間モデルデータから知ることができる。よって、そのような場合はマスク生成以降の処理自体を省略できる。以降では、実画像中にユーザの身体が含まれていることを前提とするので、実画像を身体画像と呼ぶことがある。なお、ユーザ視点カメラ7の姿勢だけでなく、画角についても、VR空間からの視点と一致することが好ましい。ただし、ユーザ視点カメラ7の画角のほうがVR空間での視点よりも広い場合は、両者間での画像空間上のマッピングが可能であれば、特段の問題はない。逆の場合は、ユーザに違和感を感じさせない配慮を行うことが好ましい。
(Step SA-6 in FIG. 2)
On the other hand, the user viewpoint camera 7 acquires a real image from a user viewpoint (this is a viewpoint in the real space, but is consistent with the user viewpoint in the VR space). FIG. 6 shows a schematic explanatory diagram of a real image. Here, the user's body may not be reflected in the real image, but whether the user's body is in the real image can be known from the VR space model data. Therefore, in such a case, the processing itself after the mask generation can be omitted. Hereinafter, since it is assumed that the user's body is included in the real image, the real image may be referred to as a body image. It should be noted that not only the posture of the user viewpoint camera 7 but also the angle of view preferably matches the viewpoint from the VR space. However, when the angle of view of the user viewpoint camera 7 is wider than the viewpoint in the VR space, there is no particular problem as long as mapping between the two in the image space is possible. In the opposite case, it is preferable to give consideration so as not to make the user feel uncomfortable.

(図2のステップSA−7)
ついで、挿入画像生成部5は、ステップSA−4で得られたマスクを、前記した実画像(身体画像)に適用し、挿入画像を生成する。得られた挿入画像の一例を図7に示す。
(Step SA-7 in FIG. 2)
Next, the insertion image generation unit 5 applies the mask obtained in Step SA-4 to the above-described actual image (body image) to generate an insertion image. An example of the obtained insertion image is shown in FIG.

本実施形態では、単にマスクを画像に適用するだけで、挿入画像を生成できるので、計算処理が簡便であるという利点がある。このため、高画素数の画像を用いた場合でも、計算コストを低く押さえることができ、リアルタイムでの処理が容易になるという利点がある。   In this embodiment, since an insertion image can be generated simply by applying a mask to an image, there is an advantage that the calculation process is simple. For this reason, even when an image with a large number of pixels is used, there is an advantage that the calculation cost can be kept low and real-time processing becomes easy.

(図2のステップSA−8)
ついで、投影画像生成部6は、ステップSA−3において視点画像生成部3で得られた視点画像(図8参照)に、ステップSA−7で得られた投影画像を組み合わせる(例えば重畳させる)。ここで用いる視点画像は、マスク生成用の視点画像とは異なり、アバターの身体が存在しないとして生成されたものとなっている。このような処理は、VR空間中なので、容易に行うことができる。また、これにより、単に画像を重畳させるだけで、ユーザに投影されるべき投影画像を生成することができる。得られる投影画像の一例を図9に示す。
(Step SA-8 in FIG. 2)
Next, the projection image generation unit 6 combines (for example, superimposes) the projection image obtained in Step SA-7 on the viewpoint image (see FIG. 8) obtained by the viewpoint image generation unit 3 in Step SA-3. Unlike the viewpoint image for mask generation, the viewpoint image used here is generated assuming that the body of the avatar does not exist. Since such processing is in the VR space, it can be easily performed. In addition, this makes it possible to generate a projection image to be projected to the user simply by superimposing the images. An example of the obtained projection image is shown in FIG.

(図2のステップSA−9)
ついで、画像呈示部8は、得られた投影画像をユーザに呈示する。この投影画像は、ユーザ視点カメラ7と光学的に等価な(いわゆる光学共役な)位置から等価な画角で観察できることが好ましい。これにより、ユーザに違和感なく投影画像を呈示することができる。
(Step SA-9 in FIG. 2)
Next, the image presentation unit 8 presents the obtained projection image to the user. This projected image is preferably observable at an equivalent angle of view from a position optically equivalent to the user viewpoint camera 7 (so-called optical conjugate). Thereby, a projection image can be presented to a user without a sense of incongruity.

本実施形態では、実際のユーザの身体画像の一部を切り出して、それを、VR空間から得られた投影画像に矛盾なく組み込んで、投影画像としてユーザに呈示することができる。このため、本実施形態によれば、自身の身体が投影画像に現れる場合において、ユーザに高い没入感を与えることができるという利点がある。   In the present embodiment, a part of an actual user's body image can be cut out and incorporated into a projection image obtained from the VR space without contradiction, and presented to the user as a projection image. For this reason, according to the present embodiment, there is an advantage that a high immersive feeling can be given to the user when his / her body appears in the projection image.

さらに、VR空間において自然な照明条件を挿入画像に付与することにより、投影画像の違和感をさらに減らすことができ、ユーザが感じる没入感をさらに向上させることができる。   Furthermore, by adding natural lighting conditions to the inserted image in the VR space, it is possible to further reduce the sense of incongruity of the projected image, and to further improve the immersive feeling felt by the user.

(変形例)
次に、図10に基づいて、前記した実施形態を変形した例を説明する。この変形例の説明においては、前記した実施形態と実質的の同様な処理を行うステップについては、同じ参照符号を付することで、説明の煩雑を避ける。
(Modification)
Next, an example in which the above-described embodiment is modified will be described with reference to FIG. In the description of this modification, steps that perform substantially the same processes as those in the above-described embodiment are denoted by the same reference numerals, thereby avoiding complicated description.

前記した実施形態では、ステップSA−2で取得したユーザの身体形状を用いて、ステップSA−3において、ユーザの身体形状を含む、VR空間でのユーザ視点画像(前記の例ではマスク生成用のもの)を生成した。そして、このユーザ視点画像を用いて、ステップSA−4においてマスクを生成していた。   In the above-described embodiment, using the user's body shape acquired in Step SA-2, in Step SA-3, the user viewpoint image in the VR space including the user's body shape (in the above example, for mask generation) Generated). And the mask was produced | generated in step SA-4 using this user viewpoint image.

これに対して、この変形例では、ステップSA−2で算出されたユーザの身体形状を用いて、ステップSA−4において、マスクを生成する。この処理は、ユーザ視点に対するユーザの身体位置姿勢が既知であるため、高速に行うことができる。また、この処理の実装は、例えば、身体形状算出部2及びマスク生成部4のいずれか一方において、あるいは他の機能要素において行うことができる。   On the other hand, in this modification, a mask is generated in step SA-4 using the user's body shape calculated in step SA-2. This process can be performed at high speed because the user's body position and orientation with respect to the user viewpoint are known. In addition, this process can be implemented, for example, in one of the body shape calculation unit 2 and the mask generation unit 4 or in another functional element.

この変形例では、VR空間モデルデータを用いてユーザ視点画像を生成する処理を省略できるので、計算処理をさらに高速化することができる。ただし、この変形例では、VR空間モデルデータを使わないため、VR空間中の物体とユーザ身体との遮蔽関係を前記のように算出することは難しくなる。   In this modification, the process of generating the user viewpoint image using the VR space model data can be omitted, so that the calculation process can be further speeded up. However, in this modification, since VR space model data is not used, it is difficult to calculate the shielding relationship between the object in the VR space and the user's body as described above.

なお、この変形例においても、ステップSA−8で使用するユーザ視点画像は、ステップSA−3において、前記の実施形態と同様に(例えば図8のように)生成される。   Also in this modified example, the user viewpoint image used in step SA-8 is generated in the same manner as in the above embodiment (for example, as shown in FIG. 8) in step SA-3.

変形例における他の構成及び利点は、前記した実施形態と基本的に同様なので、これ以上の説明は省略する。   Other configurations and advantages of the modification are basically the same as those of the above-described embodiment, and thus further description thereof is omitted.

(HMDの実施例1…視点位置補正なし)
次に、図11を参照しながら、ユーザ視点カメラ7と画像呈示部8とが実装されるヘッドマウントディスプレイ(HMD)の一例として、実施例1を説明する。
(Example 1 of HMD: No viewpoint position correction)
Next, Example 1 will be described as an example of a head mounted display (HMD) on which the user viewpoint camera 7 and the image presentation unit 8 are mounted with reference to FIG.

実施例1では、左眼121と右眼122とに、それぞれ別の画像(つまり立体視用に視差を与えられた画像)を呈示できるようになっている。   In the first embodiment, different images (that is, images given parallax for stereoscopic viewing) can be presented to the left eye 121 and the right eye 122, respectively.

具体的には、本実施例1では、ユーザ視点カメラ7は、左眼用カメラ71と、右眼用カメラ72とを備えている。さらに、本実施例1では、画像呈示部8は、左眼用呈示部81と、右眼用呈示部82とを備えている。   Specifically, in the first embodiment, the user viewpoint camera 7 includes a left-eye camera 71 and a right-eye camera 72. Further, in the first embodiment, the image presenting unit 8 includes a left eye presenting unit 81 and a right eye presenting unit 82.

左眼用カメラ71は、左眼121と光学的に共役となる位置に配置されており、左眼用ミラー131を介して、実空間での画像(例えばユーザの身体を含んだ身体画像)を撮影できるようになっている。同様に、右眼用カメラ72は、右眼122と光学的に共役となる位置に配置されており、右眼用ミラー132を介して、実空間画像を撮影できるようになっている。   The left-eye camera 71 is disposed at a position optically conjugate with the left eye 121, and an image in real space (for example, a body image including the user's body) is obtained via the left-eye mirror 131. You can shoot. Similarly, the right-eye camera 72 is disposed at a position optically conjugate with the right eye 122, and can capture a real space image via the right-eye mirror 132.

左眼用呈示部81は、左眼用ミラー131を介して、ユーザの左眼121に、左眼用の画像を呈示できる構成となっている。また、左眼用呈示部81と左眼121との間の光路上には、焦点距離を調整するための左眼用レンズ141が配置されており、これによって、呈示部81は、左眼用カメラ71と光学的に共役な位置に配置されている。同様に、右眼用呈示部82は、右眼用ミラー132を介して、ユーザの右眼122に、右眼用の画像を呈示できる構成となっている。また、右眼用呈示部82と右眼122との間の光路上には、焦点距離を調整するための右眼用レンズ142が配置されており、これによって、呈示部82は、右眼用カメラ72と光学的に共役な位置に配置されている。   The left-eye presentation unit 81 is configured to present a left-eye image to the user's left eye 121 via the left-eye mirror 131. In addition, a left-eye lens 141 for adjusting the focal length is disposed on the optical path between the left-eye presenting unit 81 and the left eye 121, whereby the presenting unit 81 can be used for the left-eye. It is arranged at a position optically conjugate with the camera 71. Similarly, the right-eye presentation unit 82 is configured to be able to present a right-eye image to the user's right eye 122 via the right-eye mirror 132. In addition, a right-eye lens 142 for adjusting the focal length is disposed on the optical path between the right-eye presentation unit 82 and the right eye 122, whereby the presentation unit 82 is used for the right-eye. It is arranged at a position optically conjugate with the camera 72.

また、実施例1では、左眼用ミラー131及び右眼用ミラー132として、図12に概略を示した台形状ミラーを用いることが好ましい。この形状を用いることにより、矩形状のVR空間画像をユーザに呈示し、さらに、矩形状の実空間画像をカメラで取得することができる。   Moreover, in Example 1, it is preferable to use the trapezoidal mirror schematically shown in FIG. 12 as the left-eye mirror 131 and the right-eye mirror 132. By using this shape, a rectangular VR space image can be presented to the user, and a rectangular real space image can be acquired by the camera.

実施例1では、ユーザは、実空間を現実には見ておらず、VR空間で生成された投影画像のみを見る。ここで、ユーザの身体の画像は、ユーザの眼と共役な位置にあるカメラで取得されており、この画像が投影画像に組み合わされているので、ユーザは、VR空間への高い埋没感を得ることができる。   In the first embodiment, the user does not actually see the real space, but only the projection image generated in the VR space. Here, the image of the user's body is acquired by a camera at a position conjugate with the user's eyes, and since this image is combined with the projection image, the user has a high feeling of being buried in the VR space. be able to.

(HMDの実施例2…視点位置補正あり)
次に、図13を参照しながら、ユーザ視点カメラ7と画像呈示部8とが実装されるヘッドマウントディスプレイ(HMD)の別の例として、実施例2を説明する。実施例2の説明においては、前記した実施例1と基本的に共通する構成要素については、同じ符号を用いることにより、説明の煩雑を避ける。
(Example 2 of HMD: with viewpoint position correction)
Next, Example 2 will be described as another example of a head mounted display (HMD) on which the user viewpoint camera 7 and the image presentation unit 8 are mounted with reference to FIG. In the description of the second embodiment, the same reference numerals are used for the components that are basically the same as those in the first embodiment, thereby avoiding complicated description.

前記した実施例1では、左右のカメラ71・72が、左右の眼121・122と光学的に共役な位置に配置されていた。これに対して、実施例2では、左右のカメラ71・72が、左右の眼121・122よりも前方にオフセットして配置されており、このため、これらの眼と光学的に共役な位置から外れている。   In the first embodiment described above, the left and right cameras 71 and 72 are disposed at positions optically conjugate with the left and right eyes 121 and 122. On the other hand, in the second embodiment, the left and right cameras 71 and 72 are arranged to be offset forward from the left and right eyes 121 and 122, and therefore, from a position optically conjugate with these eyes. It is off.

このため、実施例2では、左右のカメラ71・72が、ミラーを介さず、直接に実空間画像を取得することができる(図13参照)。一方、左右の呈示部81・82は、左右のミラー131・132を介して左右の眼121・122に画像を呈示する。   For this reason, in Example 2, the left and right cameras 71 and 72 can directly acquire a real space image without using a mirror (see FIG. 13). On the other hand, the left and right presentation units 81 and 82 present images to the left and right eyes 121 and 122 via the left and right mirrors 131 and 132, respectively.

したがって、実施例2では、HMDとしての機械的構成を簡素化することができるという利点がある。   Therefore, in Example 2, there exists an advantage that the mechanical structure as HMD can be simplified.

一方で、実施例2では、前記したように、カメラ視点とユーザ視点との間にオフセットを有している。このオフセット関係を図14に模式的に示す。この例では、ユーザ視点の画角をθ1、カメラ画角をθ2、ユーザ視点から見た投影面の幅をW1、カメラから見た投影面の幅をW2としている。また、ユーザ視点とカメラ視点とのオフセット量をD、ユーザ視点から見た投影面までの距離(焦点距離)をFとしている。   On the other hand, in the second embodiment, as described above, there is an offset between the camera viewpoint and the user viewpoint. This offset relationship is schematically shown in FIG. In this example, the angle of view of the user viewpoint is θ1, the angle of view of the camera is θ2, the width of the projection plane viewed from the user viewpoint is W1, and the width of the projection plane viewed from the camera is W2. Further, the offset amount between the user viewpoint and the camera viewpoint is D, and the distance (focal length) from the user viewpoint to the projection plane is F.

実施例2のように、ユーザ視点とカメラ視点との間にオフセットがある場合は、カメラ画像とユーザ視点画像(つまりVR空間画像)との間のマッピングを行い、両者間の整合を保つことが好ましい。例えば、カメラ画像(実空間画像)の座標変換を行うことで、VR空間における視点画像との整合性を保つことができる。もちろん、逆に、VR空間画像を座標変換することもできる。このようにすれば、視点間にオフセットがある場合でも、ユーザに違和感のない画像呈示が可能となる。なお、画像間のマッピングの計算は、図14に示すようなパラメータが既知であれば、幾何学的に算出できるので、この点についての詳しい説明は省略する。   As in the second embodiment, when there is an offset between the user viewpoint and the camera viewpoint, mapping between the camera image and the user viewpoint image (that is, the VR space image) is performed, and matching between the two can be maintained. preferable. For example, by performing coordinate conversion of a camera image (real space image), consistency with the viewpoint image in the VR space can be maintained. Of course, on the contrary, the VR space image can be coordinate-transformed. In this way, even when there is an offset between the viewpoints, it is possible to present the image without causing the user to feel uncomfortable. Note that the calculation of mapping between images can be geometrically performed if the parameters as shown in FIG. 14 are known, and thus detailed description thereof will be omitted.

実施例2における他の構成及び利点は、実施例1と基本的に共通するので、これ以上詳しい説明は省略する。   Other configurations and advantages of the second embodiment are basically the same as those of the first embodiment, and thus detailed description thereof is omitted.

前記した実施形態における計算処理は、コンピュータに適宜のコンピュータソフトウエアを組み込むことにより実施することができる。   The calculation processing in the above-described embodiment can be implemented by incorporating appropriate computer software into the computer.

なお、本発明の内容は、前記実施形態に限定されるものではない。本発明は、特許請求の範囲に記載された範囲内において、具体的な構成に対して種々の変更を加えうるものである。   The contents of the present invention are not limited to the above embodiment. In the present invention, various modifications can be made to the specific configuration within the scope of the claims.

例えば、前記した各構成要素は、機能ブロックとして存在していればよく、独立したハードウエアとして存在しなくても良い。また、実装方法としては、ハードウエアを用いてもコンピュータソフトウエアを用いても良い。さらに、本発明における一つの機能要素が複数の機能要素の集合によって実現されても良く、本発明における複数の機能要素が一つの機能要素により実現されても良い。   For example, each component described above may exist as a functional block, and may not exist as independent hardware. As a mounting method, hardware or computer software may be used. Furthermore, one functional element in the present invention may be realized by a set of a plurality of functional elements, and a plurality of functional elements in the present invention may be realized by one functional element.

また、機能要素は、物理的に離間した位置に配置されていてもよい。この場合、機能要素どうしがネットワークにより接続されていても良い。グリッドコンピューティング又はクラウドコンピューティングにより機能を実現し、あるいは機能要素を構成することも可能である。   Moreover, the functional element may be arrange | positioned in the position physically separated. In this case, the functional elements may be connected by a network. It is also possible to realize functions or configure functional elements by grid computing or cloud computing.

さらに、本実施形態では、別空間として、VR空間を想定したが、ユーザが存在する場所から離間した実空間を別空間として、本発明を適用することができる。この場合、別空間(つまりリモート空間)でのカメラ視点は、前記実施形態と同様、ユーザ視点と整合させられる。また、別空間でのカメラパラメータは、ユーザ側のカメラパラメータと一致しているか、補正により整合可能なものとされる。   Furthermore, in the present embodiment, a VR space is assumed as another space, but the present invention can be applied to a real space separated from a place where the user exists as another space. In this case, the camera viewpoint in another space (that is, the remote space) is matched with the user viewpoint as in the above embodiment. In addition, camera parameters in another space match the user-side camera parameters or can be matched by correction.

1 ユーザ姿勢取得部
2 身体形状算出部
3 視点画像生成部
4 マスク生成部
5 挿入画像生成部
6 投影画像生成部
7 ユーザ視点カメラ
71 左眼用カメラ
72 右眼用カメラ
8 画像呈示部
81 左眼用呈示部
82 右眼用呈示部
9 身体モデルデータ格納部
10 VR空間モデルデータ格納部
11 照明条件算出部
121 左眼
122 右眼
131 左眼用ミラー
132 右眼用ミラー
141 左眼用レンズ
142 右眼用レンズ
DESCRIPTION OF SYMBOLS 1 User posture acquisition part 2 Body shape calculation part 3 Viewpoint image generation part 4 Mask generation part 5 Insertion image generation part 6 Projection image generation part 7 User viewpoint camera 71 Camera for left eyes 72 Camera for right eyes 8 Image presentation part 81 Left eye Presentation unit 82 Right-eye presentation unit 9 Body model data storage unit 10 VR space model data storage unit 11 Illumination condition calculation unit 121 Left eye 122 Right eye 131 Left-eye mirror 132 Right-eye mirror 141 Left-eye lens 142 Right Ophthalmic lens

Claims (10)

実空間におけるユーザの身体画像の少なくとも一部を抽出することによって挿入画像を生成し、前記ユーザの視点から見た別空間での視点画像に前記挿入画像を重畳させるために用いるマスクを生成するための装置であって、
ユーザ姿勢取得部と、身体形状算出部と、マスク生成部とを備えており、
前記ユーザ姿勢取得部は、前記実空間内における前記ユーザの姿勢を取得する構成となっており、
前記身体形状算出部は、取得された前記ユーザの姿勢を用いて、前記ユーザの身体形状を算出する構成となっており、
前記マスク生成部は、前記別空間での前記ユーザの視点から見えるべき前記身体形状に基づいて、前記実空間における前記ユーザの身体画像から前記挿入画像を抽出するためのマスクを生成する構成となっている
ことを特徴とするマスク生成装置。
To generate an insertion image by extracting at least a part of a user's body image in real space, and to generate a mask used to superimpose the insertion image on a viewpoint image in another space viewed from the user's viewpoint Equipment,
A user posture acquisition unit, a body shape calculation unit, and a mask generation unit;
The user posture acquisition unit is configured to acquire the posture of the user in the real space,
The body shape calculation unit is configured to calculate the user's body shape using the acquired posture of the user,
The mask generation unit is configured to generate a mask for extracting the insertion image from the body image of the user in the real space based on the body shape that should be seen from the viewpoint of the user in the different space. A mask generation device characterized by that.
さらに視点画像生成部を備えており、
前記視点画像生成部は、前記別空間における前記ユーザの視点から見たときの前記視点画像を生成する構成となっており、
前記マスク生成部は、前記視点画像中に存在する前記ユーザの身体部分の少なくとも一部を、前記ユーザの視点から見えるべき身体形状として用いて、前記マスクを生成する構成となっている
請求項1に記載のマスク生成装置。
It also has a viewpoint image generator,
The viewpoint image generation unit is configured to generate the viewpoint image when viewed from the viewpoint of the user in the different space,
2. The mask generation unit is configured to generate the mask using at least a part of the body part of the user present in the viewpoint image as a body shape that should be visible from the viewpoint of the user. The mask generator described in 1.
さらにVR空間モデルデータ格納部を備えており、
前記視点画像生成部は、前記視点画像を、前記VR空間モデルデータ格納部に格納されたVR空間モデルデータに基づいて生成する構成となっている
請求項2に記載のマスク生成装置。
Furthermore, a VR space model data storage unit is provided,
The mask generation apparatus according to claim 2, wherein the viewpoint image generation unit is configured to generate the viewpoint image based on VR space model data stored in the VR space model data storage unit.
さらにユーザ視点カメラを備えており、
前記ユーザ視点カメラは、前記実空間における前記ユーザの身体画像を取得する構成となっており、
前記ユーザ視点カメラの視点の姿勢は、前記別空間における前記ユーザの視点の姿勢と一致しているか、又は、どちらかの視点から見た画像を補正することにより実質的に一致させられるものとなっている
請求項1〜3のいずれか1項に記載のマスク生成装置。
It also has a user viewpoint camera,
The user viewpoint camera is configured to acquire a body image of the user in the real space,
The attitude of the viewpoint of the user viewpoint camera matches the attitude of the user's viewpoint in the different space, or can be substantially matched by correcting an image viewed from either viewpoint. The mask production | generation apparatus of any one of Claims 1-3.
さらに照明条件算出部を備えており、
前記照明条件算出部は、前記別空間での照明条件に基づいて、前記挿入画像における輝度又は色の条件を設定する構成となっている
請求項1〜4のいずれか1項に記載のマスク生成装置。
Furthermore, it has a lighting condition calculation unit,
The mask generation according to any one of claims 1 to 4, wherein the illumination condition calculation unit is configured to set a luminance or color condition in the inserted image based on an illumination condition in the different space. apparatus.
前記別空間での前記ユーザの視点から見えるべき前記身体形状の少なくとも一部と、前記別空間における何らかの物体との間には、前記別空間における前記ユーザの視点から見た場合に、一方が他方により遮蔽される関係となっている
請求項1〜5のいずれか1項に記載のマスク生成装置。
Between at least a part of the body shape that should be seen from the user's viewpoint in the different space and some object in the different space, one is the other when viewed from the user's viewpoint in the different space The mask generation device according to any one of claims 1 to 5, wherein the mask generation device is shielded by the mask.
請求項1〜6のいずれか1項に記載のマスク生成装置と、挿入画像生成部とを備えており、
前記挿入画像生成部は、前記身体画像に前記マスクを適用することにより、前記挿入画像を生成する構成となっている
挿入画像生成装置。
Comprising the mask generation device according to any one of claims 1 to 6 and an insertion image generation unit;
The insertion image generation device is configured to generate the insertion image by applying the mask to the body image.
請求項7に記載の挿入画像生成装置と、投影画像生成部と、画像呈示部とを備えており、
前記投影画像生成部は、前記挿入画像を、前記ユーザの視点から見た別空間での視点画像に組み合わせることにより、前記ユーザに投影すべき投影画像を生成する構成となっており、
前記画像呈示部は、前記投影画像を、前記実空間内でのユーザの視点位置と光学的に共役な視点位置から投影する構成となっている
画像呈示装置。
The insertion image generation device according to claim 7, a projection image generation unit, and an image presentation unit,
The projection image generation unit is configured to generate a projection image to be projected to the user by combining the insertion image with a viewpoint image in another space viewed from the user's viewpoint.
The image presenting device is configured to project the projection image from a viewpoint position optically conjugate with a user's viewpoint position in the real space.
実空間におけるユーザの身体画像の少なくとも一部を抽出することによって挿入画像を生成し、前記ユーザの視点から見た別空間での視点画像に前記挿入画像を重畳させるために用いるマスクを生成するための装置を用いた方法であって、
前記実空間内における前記ユーザの姿勢を取得するステップと、
取得された前記ユーザの姿勢を用いて、前記ユーザの身体形状を算出するステップと、
前記別空間での前記ユーザの視点から見えるべき前記身体形状に基づいて、前記実空間における前記ユーザの身体画像から前記挿入画像を抽出するためのマスクを生成するステップと
を備えることを特徴とするマスク生成方法。
To generate an insertion image by extracting at least a part of a user's body image in real space, and to generate a mask used to superimpose the insertion image on a viewpoint image in another space viewed from the user's viewpoint A method using the apparatus of
Obtaining the posture of the user in the real space;
Calculating the user's body shape using the acquired posture of the user;
Generating a mask for extracting the insertion image from the body image of the user in the real space based on the body shape that should be seen from the viewpoint of the user in the different space. Mask generation method.
請求項9に記載の各ステップをコンピュータに実行させるためのコンピュータプログラム。   A computer program for causing a computer to execute each step according to claim 9.
JP2014049151A 2014-03-12 2014-03-12 Image presenting apparatus and mask generating apparatus used therefor Expired - Fee Related JP6402850B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014049151A JP6402850B2 (en) 2014-03-12 2014-03-12 Image presenting apparatus and mask generating apparatus used therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014049151A JP6402850B2 (en) 2014-03-12 2014-03-12 Image presenting apparatus and mask generating apparatus used therefor

Publications (2)

Publication Number Publication Date
JP2015172900A true JP2015172900A (en) 2015-10-01
JP6402850B2 JP6402850B2 (en) 2018-10-10

Family

ID=54260172

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014049151A Expired - Fee Related JP6402850B2 (en) 2014-03-12 2014-03-12 Image presenting apparatus and mask generating apparatus used therefor

Country Status (1)

Country Link
JP (1) JP6402850B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000352960A (en) * 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk Effect adding device for compound reality feeling picture, picture processing method for effect adding, and program storing medium
JP2002157606A (en) * 2000-11-17 2002-05-31 Canon Inc Image display controller, composite reality presentation system, image display control method, and medium providing processing program
JP2008046750A (en) * 2006-08-11 2008-02-28 Canon Inc Image processor and image processing method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000352960A (en) * 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk Effect adding device for compound reality feeling picture, picture processing method for effect adding, and program storing medium
JP2002157606A (en) * 2000-11-17 2002-05-31 Canon Inc Image display controller, composite reality presentation system, image display control method, and medium providing processing program
JP2008046750A (en) * 2006-08-11 2008-02-28 Canon Inc Image processor and image processing method

Also Published As

Publication number Publication date
JP6402850B2 (en) 2018-10-10

Similar Documents

Publication Publication Date Title
KR102517876B1 (en) Technique for recording augmented reality data
US11577159B2 (en) Realistic virtual/augmented/mixed reality viewing and interactions
US20210065432A1 (en) Method and system for generating an image of a subject in a scene
JP5818773B2 (en) Image processing apparatus, image processing method, and program
US8055061B2 (en) Method and apparatus for generating three-dimensional model information
KR101251701B1 (en) Stereo video for gaming
US20160267720A1 (en) Pleasant and Realistic Virtual/Augmented/Mixed Reality Experience
JP5818857B2 (en) Information processing apparatus and control method thereof
US10237531B2 (en) Discontinuity-aware reprojection
KR20140108128A (en) Method and apparatus for providing augmented reality
KR20160000873A (en) Hand localization system and the method using head worn RGB-D camera, user interaction system
JP5762600B1 (en) Information processing apparatus and information processing method
US20190371072A1 (en) Static occluder
JP2007042055A (en) Image processing method and image processor
JP2012058968A (en) Program, information storage medium and image generation system
CN105611267B (en) Merging of real world and virtual world images based on depth and chrominance information
JP2017016577A (en) Information processor, and control method, and program, for the same
JP7148634B2 (en) head mounted display device
JP7353782B2 (en) Information processing device, information processing method, and program
JP2016071645A (en) Object three-dimensional model restoration method, device, and program
Khattak et al. A real-time reconstructed 3D environment augmented with virtual objects rendered with correct occlusion
JP7262973B2 (en) Information processing device, information processing method and program
JP2014071871A (en) Video communication system and video communication method
JP2018063567A (en) Image processing device, image processing method and program
JP6402850B2 (en) Image presenting apparatus and mask generating apparatus used therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180320

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180710

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180814

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180828

R150 Certificate of patent or registration of utility model

Ref document number: 6402850

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees