JP2019121074A - Selfie device, method and program in vr space - Google Patents

Selfie device, method and program in vr space Download PDF

Info

Publication number
JP2019121074A
JP2019121074A JP2017254454A JP2017254454A JP2019121074A JP 2019121074 A JP2019121074 A JP 2019121074A JP 2017254454 A JP2017254454 A JP 2017254454A JP 2017254454 A JP2017254454 A JP 2017254454A JP 2019121074 A JP2019121074 A JP 2019121074A
Authority
JP
Japan
Prior art keywords
image
space
real
hmd
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017254454A
Other languages
Japanese (ja)
Other versions
JP7020115B2 (en
Inventor
知樹 神谷
Tomoki Kamiya
知樹 神谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toppan Inc
Original Assignee
Toppan Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toppan Printing Co Ltd filed Critical Toppan Printing Co Ltd
Priority to JP2017254454A priority Critical patent/JP7020115B2/en
Publication of JP2019121074A publication Critical patent/JP2019121074A/en
Application granted granted Critical
Publication of JP7020115B2 publication Critical patent/JP7020115B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

To provide a device, a method, and a program capable of self-taking a picture as if a person, who is experiencing virtual reality by wearing a head-mounted display, were in a virtual reality space by combining an image taken by the person in real space with an image of the virtual reality space.SOLUTION: A selfie device includes a processor configured to place in a virtual reality (VR) space a body region image representative of a body in a real space of a user wearing a head mounted display (HMD), and superimpose an image of a face of the user who is not wearing the HMD on an image in the VR space in which the body region image is arranged.SELECTED DRAWING: Figure 1

Description

本発明は、現実空間内で撮影された画像と、バーチャルリアリティの空間の映像とを合成する技術に関する。   The present invention relates to a technology for combining an image taken in a real space and an image of a space in virtual reality.

従来、ヘッドマウントディスプレイ(以下、HMDとも言う)や巨大スクリーンなどに映し出された映像を見ることによって、その映像によって表現される仮想現実の空間内にあたかも実際にいるかのような体験をすることができるバーチャルリアリティ(以下、VRとも言う)の技術が開発されている。HMDを利用するVRの場合、HMDを装着している者は、現実の世界から遮断されるので、より一層VRの世界に没入することができる。   Conventionally, by looking at an image projected on a head mounted display (hereinafter, also referred to as an HMD) or a huge screen, it is possible to experience as if it were actually in the space of virtual reality represented by the image. A technology of virtual reality (hereinafter also referred to as VR) that can be done has been developed. In the case of a VR using an HMD, a person wearing the HMD can further immerse in the VR world because it is disconnected from the real world.

しかしながら、HMDに映し出される映像は、HMDを装着している者しか見ることができない。そのため、HMDを装着している者以外の他の者は、VRを体験している者が一体どのような体験をしているのかを知ることができない。すなわち、VRの空間は、HMDを装着している者だけしか知ることができない閉じられた世界である。このように、HMDを装着している者は、VRの空間内で体験した出来事を他の者と共有するのが難しい。   However, the image projected on the HMD can only be viewed by the person wearing the HMD. Therefore, no one other than the person wearing the HMD can know what kind of experience the person experiencing the VR is doing. That is, the space of the VR is a closed world that only the person wearing the HMD can know. Thus, it is difficult for those who wear the HMD to share the experiences experienced in the VR space with other people.

ところで、昨今、自分で自分を撮影する“自撮り”が人気である。“自撮り”とは、スマートフォンなどのディスプレイで自分自身の姿を確認しながら、自分自身を被写体として写す撮影方法である。自分が体験している出来事を他の者に分かりやすいよう、自分の思い通りに撮影することが可能である。そのため、他の者は、自撮りで撮影された写真を見ることによって、自撮りを行なった者が体験した出来事を容易に知ることができる。   By the way, in recent years, "self-portrait" which photographs oneself by oneself is popular. "Self-shooting" is a shooting method of photographing oneself as a subject while confirming the appearance of oneself on a display such as a smartphone. It is possible to shoot as you wish, so that others can easily understand the events you are experiencing. Therefore, the other person can easily know the event experienced by the person who made the selfie by looking at the photographed picture.

そこで、本発明は、このような問題に鑑みてなされたものであり、その目的とするところは、HMDを装着してVRを体験している者が、その者が現実空間内で撮影された画像と、VRの空間の映像とを合成することによって、その者がVRの空間内にいるかのごとく自撮りで撮影することができる、装置、方法、およびプログラムを提供することにある。   Therefore, the present invention has been made in view of such problems, and the purpose of the present invention is that a person who wears an HMD and experiences VR is photographed in the real space by the person It is an object of the present invention to provide an apparatus, a method, and a program that can be taken by self-shooting as if the person is in the space of the VR by combining the image and the image of the space of the VR.

このような目的を達成するために、本発明の第1の態様は、装置である。この装置は、バーチャルリアリティ(VR)空間内に、ヘッドマウントディスプレイ(HMD)を装着しているユーザの現実空間内での身体を表わす身体領域画像を配置し、前記身体領域画像が配置された前記VR空間内の画像に、前記ユーザの前記HMDを装着していない顔の画像を重畳する、ように構成されたプロセッサを備える。   In order to achieve such an object, a first aspect of the present invention is an apparatus. The apparatus arranges a body area image representing a body in a real space of a user wearing a head mounted display (HMD) in a virtual reality (VR) space, and the body area image is arranged. The processor comprises a processor configured to superimpose an image of a face of the user who is not wearing the HMD on an image in the VR space.

本発明の第2の態様は、装置によって実施される方法である。この方法は、バーチャルリアリティ(VR)空間内に、ヘッドマウントディスプレイ(HMD)を装着しているユーザの現実空間内での身体を表わす身体領域画像を配置するステップと、前記身体領域画像が配置された前記VR空間内の画像に、前記ユーザの前記HMDを装着していない顔の画像を重畳するステップと、を含む。   A second aspect of the invention is a method implemented by the device. The method comprises the steps of: arranging a body region image representative of a body in real space of a user wearing a head mounted display (HMD) in a virtual reality (VR) space; Superimposing an image of a face of the user who is not wearing the HMD on the image in the VR space.

本発明の第3の態様は、プログラムである。このプログラムは、コンピュータを第1の態様の装置として機能させるプログラムである。   A third aspect of the present invention is a program. This program is a program that causes a computer to function as the device of the first aspect.

本発明によれば、HMDを装着してVRを体験している者が現実空間内で自撮りで撮影された画像と、そのVRを体験している者がHMDを装着していない顔の画像と、VR空間の映像と、を合成することができる。それにより、HMDを装着してVRを体験している者は、VRの空間内にいるかのごとく自撮りで撮影することができる。   According to the present invention, an image of a person who is experiencing the VR wearing the HMD taking a self-portrait in the real space, and an image of a face where the person experiencing the VR is not wearing the HMD And the image of the VR space can be synthesized. Thus, a person who wears an HMD and experiences VR can take a picture as if he were in the space of the VR.

本発明の一実施形態にかかるVR空間における自撮りサービスのイメージ図である。FIG. 7 is an image diagram of a self-portrait service in a VR space according to an embodiment of the present invention. 本発明の一実施形態にかかるVR空間における自撮りシステムの全体の概要図である。FIG. 1 is a schematic overview of a selfie system in VR space according to an embodiment of the present invention. 本発明の一実施形態にかかるVR空間における自撮りシステムの画像処理装置の機能ブロック図である。It is a functional block diagram of an image processing device of a self-portrait system in VR space concerning one embodiment of the present invention. 本発明の一実施形態にかかる顔合成を説明するための図である。It is a figure for demonstrating face composition concerning one embodiment of the present invention. 本発明の一実施形態にかかるVR空間における自撮りシステムの画像処理装置における処理フローの一例を示すフローチャートである。It is a flowchart which shows an example of the processing flow in the image processing apparatus of the self-portrait system in VR space concerning one Embodiment of this invention.

最初に、本明細書で利用する用語について説明する。「自撮り」とは、撮影する者が自分自身を被写体として撮影することであり、自分撮り、セルフィなどとも言われる。また、「VR空間」とは、HMD上に映し出される映像によって表現される仮想現実の空間である。また、「現実空間」とは、現実の空間、つまり、実在する空間である。なお、本発明では、両眼、単眼、非透過型、透過型などの任意のHMDを用いることができる。   First, terms used in the present specification will be described. "Self-shooting" means that a person taking a picture takes himself or herself as a subject, and is also referred to as self-shooting, selfy, and the like. Also, “VR space” is a space of virtual reality represented by a video displayed on the HMD. Also, "real space" is a real space, that is, a real space. In the present invention, any HMD such as binocular, monocular, non-transmissive and transmissive types can be used.

以下、図面を参照しながら、本発明の実施形態について詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の一実施形態にかかるVR空間における自撮りサービスのイメージ図である。図1に示されるように、現実空間110において、ユーザ100は、HMD113を装着してHMD113に映し出される映像を見ているとする。その結果、ユーザ100は、VR空間130内にいるかのような体験をすることができる。ユーザ100は、VR空間130内を視点131から見ながら(つまり、HMD113を装着したまま)、撮影デバイス112へ顔を向けて自撮りを行なう。そうすると、VR空間130内にいるユーザ100が自撮りで撮影されたかのような自撮り画像140を取得することができる。以下、さらに具体的に図1を説明する。   FIG. 1 is an illustration of a self-portrait service in a VR space according to an embodiment of the present invention. As shown in FIG. 1, in the real space 110, it is assumed that the user 100 wears the HMD 113 and is viewing an image displayed on the HMD 113. As a result, the user 100 can experience as if in the VR space 130. While looking at the inside of the VR space 130 from the viewpoint 131 (that is, with the HMD 113 attached), the user 100 faces the imaging device 112 and takes a self-portrait. Then, it is possible to acquire the self-portrait image 140 as if the user 100 in the VR space 130 was photographed by self-portrait. Hereinafter, FIG. 1 will be described more specifically.

<現実空間とVR空間の合成>
ユーザ100は、HMD113に映し出されるHMD映像111を見ながら、撮影デバイス112へ顔を向けて自撮りを行なう。HMD映像111は、ユーザ100の眼前に拡がるVR空間130の映像である。さらに、HMD映像111には、ユーザ100が自分の手に持っているかのようにVR空間130内を移動させることができる仮想カメラ122が映っている。仮想カメラ122の動きは、撮影デバイス112の動きと連動している。ユーザ100は、仮想カメラ122のモニタに表示されている現実・VR合成画像121を見ることによって、自分自身の姿を確認することができる。現実・VR合成画像121は、現実空間110とVR空間130とを合成したVR空間である現実・VR合成空間120内で仮想カメラ122が写している画像である。つまり、現実・VR合成画像121は、現実空間110内で撮影デバイス112が撮影しているユーザ100の身体の画像と、ユーザ100がHMD113を装着していない顔の画像(詳細は、下記の<顔画像の合成>で述べる)と、ユーザ100の背面に拡がるVR空間120の映像と、が合成された画像である。ユーザ100が撮影デバイス112に対して撮影するよう指示を与えると、現実・VR空間120内の仮想カメラ122が撮影を行なう。
<Composition of real space and VR space>
While watching the HMD image 111 displayed on the HMD 113, the user 100 faces the imaging device 112 and performs self-shooting. The HMD image 111 is an image of the VR space 130 spreading in front of the user 100's eyes. Furthermore, in the HMD video 111, a virtual camera 122 capable of moving in the VR space 130 appears as if the user 100 is holding it in his hand. The movement of the virtual camera 122 is linked to the movement of the imaging device 112. The user 100 can confirm his own appearance by looking at the real / VR composite image 121 displayed on the monitor of the virtual camera 122. The real / VR composite image 121 is an image captured by the virtual camera 122 in the real / VR composite space 120 which is a VR space obtained by combining the real space 110 and the VR space 130. That is, the real / VR composite image 121 is an image of the body of the user 100 captured by the imaging device 112 in the real space 110 and an image of a face on which the user 100 is not wearing the HMD 113 (details will be described below. Composition of Facial Image> and a video of the VR space 120 spreading on the back of the user 100 are composited. When the user 100 instructs the imaging device 112 to perform imaging, the virtual camera 122 in the real / VR space 120 performs imaging.

<顔画像の合成>
現実空間110内で撮影デバイス112が撮影しているユーザ100は、HMD113を装着している。そのため、現実・VR合成空間120内では、現実空間110内のHMD113を装着しているユーザ100の顔の画像に、事前に撮影しておいたHMD113を装着していないユーザ100の顔の画像を重畳している。このように、本発明では、ユーザ100が現実空間110内で自撮りで撮影された画像と、そのユーザ100がHMD113を装着していない顔の画像と、VR空間130の映像と、が合成される。
<Composition of face image>
The user 100 who is photographing the photographing device 112 in the real space 110 is wearing the HMD 113. Therefore, in the real / VR composite space 120, the image of the face of the user 100 wearing the HMD 113 in the real space 110, the image of the face of the user 100 not wearing the HMD 113 taken in advance It is overlapping. As described above, in the present invention, an image of the user 100 taken by self-portrait in the physical space 110, an image of a face where the user 100 is not wearing the HMD 113, and an image of the VR space 130 are synthesized. Ru.

図2は、本発明の一実施形態にかかるVR空間における自撮りシステム200の全体の概要図である。概要図には、画像処理装置201、撮影デバイス112、ヘッドマウントディスプレイ(HMD)113が含まれる。画像処理装置201は、撮影デバイス112、HMD113のそれぞれと、データの送受信をすることができる。画像処理装置201は、撮影デバイス112で自撮りで撮影しているHMD113を装着している者の身体の画像と、その者がHMD113を装着していない顔の画像と、HMD113に映し出されているVR空間の映像と、を合成することができる。   FIG. 2 is a schematic overview of a selfie system 200 in VR space according to an embodiment of the present invention. The schematic diagram includes an image processing apparatus 201, an imaging device 112, and a head mounted display (HMD) 113. The image processing apparatus 201 can transmit and receive data to and from each of the imaging device 112 and the HMD 113. The image processing apparatus 201 displays the image of the body of the person wearing the HMD 113 photographed by the photographing device 112 in a self-portrait, the image of the face on which the person is not wearing the HMD 113, and the HMD 113 It is possible to combine the image in the VR space.

ヘッドマウントディスプレイ(HMD)113は、両眼、単眼、非透過型、透過型などの任意のHMDである。HMD113は、画像処理装置201とデータの送受信をすることができる。HMD113は、画像処理装置201から受信した映像をディスプレイ上で表示することができる。   The head mounted display (HMD) 113 is any HMD such as binocular, monocular, non-transmissive, transmissive, and the like. The HMD 113 can transmit and receive data to and from the image processing apparatus 201. The HMD 113 can display the video received from the image processing apparatus 201 on the display.

撮影デバイス112は、カメラ機能と、ジャイロセンサ(角速度センサ)と、深度センサと、仮想カメラに対して撮影するよう指示を与えるためのボタンと、を備えることができる。また、撮影デバイス112は、完成した画像(つまり、図1の自撮り画像140)を記憶するためのメモリを備えることができる。撮影デバイス112は、画像処理装置201とデータの送受信をすることができる。撮影デバイス112は、画像処理装置201へ、カメラ機能が撮影している画像と、ジャイロセンサ(角速度センサ)および深度センサが測定している情報と、を送信することができる。また、撮影デバイス112は、画像処理装置201へ、仮想カメラに対して撮影するよう指示が与えられたという情報を送信することができる。また、撮影デバイス112は、画像処理装置201から、完成した画像(つまり、図1の自撮り画像140)を受信することができる。   The imaging device 112 can include a camera function, a gyro sensor (angular velocity sensor), a depth sensor, and a button for instructing the virtual camera to perform imaging. The imaging device 112 may also include a memory for storing the completed image (ie, the self-portrait image 140 of FIG. 1). The imaging device 112 can transmit and receive data to and from the image processing apparatus 201. The imaging device 112 can transmit, to the image processing apparatus 201, an image captured by the camera function and information measured by the gyro sensor (angular velocity sensor) and the depth sensor. Also, the imaging device 112 can transmit, to the image processing apparatus 201, information indicating that the virtual camera is instructed to perform imaging. Also, the imaging device 112 can receive a completed image (that is, the self-portrait image 140 of FIG. 1) from the image processing apparatus 201.

撮影デバイス112のカメラ機能は、従来のデジタルカメラやスマートフォンなどのカ
メラ機能のように動画像を撮影することができる。撮影デバイス112は、画像処理装置201へ、カメラ機能が撮影中の動画像を常時(リアルタイム処理で)送信することができる。
The camera function of the imaging device 112 can capture a moving image like camera functions of conventional digital cameras and smartphones. The imaging device 112 can always transmit (in real time processing) a moving image being captured by the camera function to the image processing apparatus 201.

撮影デバイス112のジャイロセンサ(角速度センサ)は、撮影デバイス112の角度や角速度を測定することができる。撮影デバイス112は、画像処理装置201へ、ジャイロセンサ(角速度センサ)が測定中の情報を常時(リアルタイム処理で)送信することができる。そのため、画像処理装置201は、撮影デバイス112の向きを算出することができる。   A gyro sensor (angular velocity sensor) of the imaging device 112 can measure an angle or an angular velocity of the imaging device 112. The imaging device 112 can transmit (in real time processing) the information being measured by the gyro sensor (angular velocity sensor) to the image processing apparatus 201 at all times. Therefore, the image processing apparatus 201 can calculate the orientation of the imaging device 112.

撮影デバイス112の深度センサは、撮影デバイス112と、撮影デバイス112で自撮りで撮影している者(つまり、HMD113を装着している者)との距離を測定することができる。また、撮影デバイス112の深度センサは、撮影デバイス112と、撮影デバイス112で自撮りで撮影している者以外の物体との距離を測定することができる。撮影デバイス112は、画像処理装置201へ、深度センサが測定中の情報を常時(リアルタイム処理で)送信することができる。そのため、画像処理装置201は、カメラ機能が撮影している動画像内の各点の奥行き(デプス)に関する情報を取得することができる。その結果、画像処理装置201は、撮影デバイス112で自撮りで撮影している者の身体やその者以外の物体を立体的に捉えることができる。画像処理装置201は、カメラ機能が撮影している動画像内の各点の奥行き(デプス)に関する情報に基づいて、撮影デバイス112で自撮りで撮影している者を、カメラ機能が撮影している動画像内で識別して、その者の身体を表わす仮想的な立体物(以下、身体領域画像とも言う)を生成することができる。   The depth sensor of the photographing device 112 can measure the distance between the photographing device 112 and a person who is photographing by the photographing device 112 in a self-shooting manner (that is, a person wearing the HMD 113). In addition, the depth sensor of the imaging device 112 can measure the distance between the imaging device 112 and an object other than the person who is photographing by the imaging device 112 in a self-portrait. The imaging device 112 can transmit (in real time processing) the information being measured by the depth sensor to the image processing apparatus 201 at all times. Therefore, the image processing apparatus 201 can obtain information on the depth of each point in the moving image captured by the camera function. As a result, the image processing apparatus 201 can three-dimensionally capture the body of the person who is photographing by the photographing device 112 and objects other than the person. In the image processing apparatus 201, the camera function captures an image of a person taking a picture with the imaging device 112 on the basis of information on the depth of each point in the moving image captured by the camera function. It is possible to identify in a moving image and generate a virtual three-dimensional object (hereinafter also referred to as a body region image) representing the person's body.

撮影デバイス112のボタンは、仮想カメラに対して撮影するよう指示が与えられたことを識別することができる。例えば、ボタンが押下されると、撮影デバイス112は、仮想カメラに対して撮影するよう指示が与えられたと判断することができる。   The button of the imaging device 112 can identify that the virtual camera is instructed to perform imaging. For example, when the button is pressed, the imaging device 112 can determine that the virtual camera is instructed to perform imaging.

図3は、本発明の一実施形態にかかる画像処理装置201の機能ブロック図である。画像処理装置201は、現実空間画像取得部301、現実・VR合成部302、顔合成部303、自撮り画像送信部304、顔画像記憶部305、自撮り画像記憶部306を含む。画像処理装置201は、プロセッサおよびメモリを含む1または複数のコンピュータである。また、画像処理装置201は、現実空間画像取得部301、現実・VR合成部302、顔合成部303、自撮り画像送信部304を動作させるためのプログラム、または、後述する処理フローを実行するためのプログラム、を格納した記憶媒体を含む。   FIG. 3 is a functional block diagram of the image processing apparatus 201 according to an embodiment of the present invention. The image processing apparatus 201 includes a physical space image acquisition unit 301, a physical / VR synthesis unit 302, a face synthesis unit 303, a self-portrait image transmission unit 304, a face image storage unit 305, and a self-portrait image storage unit 306. The image processing apparatus 201 is one or more computers including a processor and a memory. In addition, the image processing apparatus 201 executes a program for operating the physical space image acquisition unit 301, the physical / VR synthesis unit 302, the face synthesis unit 303, and the self-portrait image transmission unit 304, or a process flow to be described later. A storage medium storing the program of

現実空間画像取得部301は、撮影デバイス112から、撮影デバイス112がリアルタイム処理で送信している現実空間内の動画像、および、ジャイロセンサ(角速度センサ)および深度センサが測定した情報を受信することができる。現実空間内の動画像は、HMD113を装着している者(以下、ユーザとも言う)が撮影デバイス112で自撮りで撮影している動画像である。現実空間画像取得部301は、現実・VR合成部302が参照できるように、撮影デバイス112から受信した現実空間内の動画像とジャイロセンサ(角速度センサ)および深度センサが測定した情報とをメモリ(図示せず)に記憶することができる。   The real space image acquisition unit 301 receives, from the photographing device 112, a moving image in the real space transmitted by the photographing device 112 in real time processing, and information measured by the gyro sensor (angular velocity sensor) and the depth sensor. Can. The moving image in the real space is a moving image photographed by a person wearing the HMD 113 (hereinafter, also referred to as a user) using the photographing device 112 in a self-portrait. The real space image acquisition unit 301 stores the moving image in the real space received from the imaging device 112 and the information measured by the gyro sensor (angular velocity sensor) and the depth sensor so that the real / VR synthesis unit 302 can refer to them. (Not shown).

<現実・VR合成画像の表示>
現実・VR合成部302は、ユーザが撮影デバイス112で自撮りで撮影している現実空間内の動画像と、そのユーザの背面に拡がるVR空間の映像と、を合成して、その合成画像を仮想カメラのモニタに表示させることができる。その際、顔合成部303は、現実空間内のHMD113を装着しているユーザの顔の画像と、顔画像記憶部305に記憶されているHMD113を装着していないユーザ100の顔の画像と、を合成する。そして、仮想カメラが撮影を行なう。以下、図1を参照しながら、現実空間とVR空間の合成について詳細に説明する。
<Display of real / VR composite image>
The real / VR combining unit 302 combines a moving image in the real space photographed by the user with the photographing device 112 and an image of the VR space spreading on the back of the user, and combines the synthesized image. It can be displayed on the monitor of the virtual camera. At that time, the face synthesis unit 303 includes an image of the face of the user wearing the HMD 113 in the physical space, and an image of the face of the user 100 not wearing the HMD 113 stored in the face image storage unit 305. Synthesize Then, the virtual camera shoots. Hereinafter, the synthesis of the real space and the VR space will be described in detail with reference to FIG.

図1の現実空間110では、HMD113を装着しているユーザが撮影デバイス112で自撮りで撮影している。現実・VR合成空間 120は、ユーザが撮影デバイス112で自撮りで撮影している現実空間110内の動画像と、そのユーザの背面に拡がるVR空間130の映像とを合成した画像(つまり、現実・VR合成画像121)を生成するためのVR空間である。VR空間 130は、HMD113を装着しているユーザが見ている映像によって表現されるVR空間である。つまり、HMD113を装着しているユーザは、現実・VR合成空間 120ではなく、視点131を視点としてVR空間 130内を見ている。   In the real space 110 of FIG. 1, the user wearing the HMD 113 is photographing by the photographing device 112 by self photographing. The real / VR composite space 120 is an image obtained by combining the moving image in the real space 110 photographed by the user with the photographing device 112 and the image of the VR space 130 spreading on the back of the user (ie, real VR space for generating a VR composite image 121). The VR space 130 is a VR space represented by an image viewed by the user wearing the HMD 113. That is, the user wearing the HMD 113 is looking at the inside of the VR space 130 with the viewpoint 131 as the viewpoint, not the real / VR combined space 120.

現実・VR合成部302は、現実空間画像取得部301が受信した現実空間内の動画像と深度センサが測定した情報とに基づいて、ユーザの身体を表わす仮想的な立体物(つまり、身体領域画像)を生成することができる。また、現実・VR合成部302は、現実・VR合成空間 120内に任意の大きさで身体領域画像を配置することができる。この際、現実・VR合成部302は、HMD113のヘッドトラッキング機能(ユーザの頭の動きの検知)に基づいて、現実空間110内のユーザの顔の向きと、現実・VR空間 120内の身体領域画像の顔の向きとを一致させることができる。また、現実・VR合成部302は、HMD113のポジショントラッキング機能(HMD113の現実空間110内での位置の検知)に基づいて、現実空間110内のユーザの位置と、現実・VR空間 120内の身体領域画像の位置とを一致させることができる。   The real / VR combining unit 302 is a virtual three-dimensional object representing the user's body (that is, a body region based on the moving image in the real space received by the real space image acquiring unit 301 and the information measured by the depth sensor). Image) can be generated. In addition, the real / VR combining unit 302 can arrange a body region image in an arbitrary size in the real / VR combined space 120. At this time, based on the head tracking function (detection of the head movement of the user) of the HMD 113, the real / VR combining unit 302 determines the orientation of the user's face in the real space 110 and the body region in the real / VR space 120. The orientation of the face of the image can be matched. Also, based on the position tracking function of the HMD 113 (detection of the position of the HMD 113 in the real space 110), the real / VR combining unit 302 determines the position of the user in the real space 110 and the body in the real VR space 120. The position of the area image can be matched.

さらに、現実・VR合成部302は、現実空間110内でユーザが撮影デバイス112を持っている位置に相当する現実・VR合成空間120内での位置(つまり、身体領域画像の手)に、現実・VR合成空間120内を撮影するための仮想カメラ122を配置することができる。また、現実・VR合成部302は、VR空間130内に、仮想カメラ122のモニタを配置することができる。また、現実・VR合成部302は、VR空間130内の仮想カメラ122のモニタに、現実・VR合成空間120内の仮想カメラ122が撮影しようとしている現実・VR合成空間120内の画像を表示させることができる。なお、ユーザが手にモニタを持っているかのように、VR空間130内で、仮想カメラ122のモニタのほかに、ユーザの手または自撮り棒に相当する仮想的な立体物を配置するようにしてもよい。   Furthermore, the reality / VR combining unit 302 sets the reality in the position in the real / VR combined space 120 (that is, the hand of the body region image) corresponding to the position where the user holds the imaging device 112 in the real space 110. A virtual camera 122 for imaging in the VR composite space 120 can be arranged. Also, the real / VR combining unit 302 can arrange the monitor of the virtual camera 122 in the VR space 130. Also, the real / VR combining unit 302 causes the monitor of the virtual camera 122 in the VR space 130 to display an image in the real / VR combined space 120 that the virtual camera 122 in the real / VR combined space 120 is attempting to capture. be able to. In addition to the monitor of the virtual camera 122, a virtual three-dimensional object equivalent to the user's hand or a selfie stick is placed in the VR space 130 as if the user had a monitor in his hand. May be

ここで、現実・VR合成空間120内の仮想カメラ122およびVR空間130内の仮想カメラ122のモニタについて説明する。現実・VR合成空間120内の仮想カメラ122は、仮想カメラ122の位置を視点とし、その視点に投影される2次元画像を撮影する(記憶する)ためのものである。そして、VR空間130内の仮想カメラ122のモニタは、現実・VR合成空間120内の仮想カメラ122が撮影しようとしている現実・VR合成空間120内の画像を表示するためのものである。   Here, the virtual camera 122 in the real / VR combined space 120 and the monitor of the virtual camera 122 in the VR space 130 will be described. The virtual camera 122 in the real / VR composite space 120 is for taking (storing) a two-dimensional image projected on the viewpoint with the position of the virtual camera 122 as a viewpoint. The monitor of the virtual camera 122 in the VR space 130 is for displaying an image in the real-VR composite space 120 that the virtual camera 122 in the real-VR composite space 120 is to capture.

現実・VR合成空間120内の仮想カメラ122と、VR空間130内の仮想カメラ122のモニタと、現実空間110内の撮影デバイス112とは、位置、向き、動きが連動している。具体的には、現実・VR合成部302は、例えば、図1の位置追跡装置114(カメラなど)が測定した情報(撮影された画像など)を取得してその情報に基づいて、現実空間110内の撮影デバイス112とユーザとの位置関係を算出することができる。また、現実・VR合成部302は、現実空間画像取得部301が受信したジャイロセンサ(角速度センサ)が測定した情報に基づいて、撮影デバイス112の向きを算出することができる。あるいは、現実・VR合成部302は、図1の位置追跡装置114(例えば、カメラなど)が取得した情報(例えば、撮影された画像)に基づいて、撮影デバイス112の向きを算出することができる。   The position, the direction, and the motion of the virtual camera 122 in the real / VR composite space 120, the monitor of the virtual camera 122 in the VR space 130, and the imaging device 112 in the real space 110 are linked. Specifically, the real / VR combining unit 302 acquires, for example, information (such as a photographed image) measured by the position tracking device 114 (a camera or the like) in FIG. 1, and based on the information, the real space 110 The positional relationship between the imaging device 112 and the user can be calculated. Also, the real / VR combining unit 302 can calculate the direction of the imaging device 112 based on the information measured by the gyro sensor (angular velocity sensor) received by the real space image acquisition unit 301. Alternatively, the reality / VR combining unit 302 can calculate the orientation of the imaging device 112 based on the information (for example, a photographed image) acquired by the position tracking device 114 (for example, a camera or the like) in FIG. .

現実・VR合成部302は、現実空間110内の撮影デバイス112とユーザとの位置関係と、現実・VR空間120内の仮想カメラ122とユーザとの位置関係と、が一致するように、現実・VR空間120内に仮想カメラ122を配置することができる。また、現実・VR合成部302は、撮影デバイス112の向きと仮想カメラ122の向きとが一致するように、現実・VR空間120内に仮想カメラ122を配置することができる。   The real / VR combining unit 302 is configured so that the positional relationship between the imaging device 112 and the user in the real space 110 and the positional relationship between the virtual camera 122 and the user in the real / VR space 120 match. The virtual camera 122 can be disposed in the VR space 120. In addition, the real / VR combining unit 302 can arrange the virtual camera 122 in the real / VR space 120 such that the direction of the imaging device 112 matches the direction of the virtual camera 122.

また、現実・VR合成部302は、現実空間110内の撮影デバイス112とユーザとの位置関係と、VR空間130内の仮想カメラ122のモニタと視点131との位置関係と、が一致するように、VR空間130内に仮想カメラ122のモニタを配置することができる。また、現実・VR合成部302は、撮影デバイス112の向きと仮想カメラ122のモニタの向きとが一致するように、VR空間130内に仮想カメラ122のモニタを配置することができる。   In addition, the real / VR combining unit 302 is configured so that the positional relationship between the imaging device 112 and the user in the physical space 110 and the positional relationship between the monitor of the virtual camera 122 in the VR space 130 and the viewpoint 131 match. , And the monitor of the virtual camera 122 can be arranged in the VR space 130. Also, the real / VR combining unit 302 can arrange the monitor of the virtual camera 122 in the VR space 130 such that the direction of the imaging device 112 matches the direction of the monitor of the virtual camera 122.

<現実・VR合成画像の撮影>
現実・VR合成部302は、撮影デバイス112のボタンが押下されることに応答して、仮想カメラに撮影させることができる。具体的には、現実・VR合成部302は、撮影デバイス112から、仮想カメラに対して撮影するよう指示が与えられたという情報を受信することができる。また、現実・VR合成部302は、撮影の指示を受信した時にVR空間130内の仮想カメラ122のモニタに表示されている画像(つまり、現実・VR合成空間120内で、仮想カメラの位置を視点とし、その視点に投影される2次元画像)を取得して自撮り画像記憶部306に記憶することができる。
<Shooting of a real / VR composite image>
The real / VR combining unit 302 can cause the virtual camera to shoot in response to the button of the shooting device 112 being pressed. Specifically, the real / VR combining unit 302 can receive, from the imaging device 112, information indicating that the virtual camera is instructed to perform imaging. In addition, the real / VR combining unit 302 displays the image displayed on the monitor of the virtual camera 122 in the VR space 130 when the shooting instruction is received (that is, the position of the virtual camera in the real / VR combined space 120 As a viewpoint, a two-dimensional image (projected on the viewpoint) can be acquired and stored in the self-portrait image storage unit 306.

顔画像記憶部305は、HMD113を装着してないユーザの顔を1または複数の角度から撮影した画像を格納している。例えば、顔画像記憶部305に格納される顔の画像は、全方位(360度)から撮影された顔の画像である。ユーザの顔を全方位から撮影することによって、ユーザの顔が立体的に捉えられうる。顔の画像は、顔の特徴的な部分(鼻、口、耳、顎など)に特徴点を有している。   The face image storage unit 305 stores an image obtained by photographing the face of the user who is not wearing the HMD 113 from one or more angles. For example, the image of the face stored in the face image storage unit 305 is an image of the face taken from all directions (360 degrees). By photographing the face of the user from all directions, the face of the user can be captured stereoscopically. The image of the face has feature points in characteristic parts of the face (eg, nose, mouth, ears, jaws, etc.).

顔合成部303は、現実・VR合成空間120内で、現実空間110内のHMD113を装着しているユーザの顔の画像と、顔画像記憶部305に記憶されているHMD113を装着していないユーザ100の顔の画像と、を合成することができる。図4を参照しながら、顔合成部303について詳細に説明する。   The face combining unit 303 is an image of the face of the user wearing the HMD 113 in the real space 110 in the real-VR combining space 120 and a user not wearing the HMD 113 stored in the face image storage unit 305 One hundred face images can be combined. The face combining unit 303 will be described in detail with reference to FIG.

図4は、本発明の一実施形態にかかる顔合成を説明するための図である。   FIG. 4 is a diagram for explaining face synthesis according to the embodiment of the present invention.

画像aは、顔画像記憶部305に格納されているユーザの顔の実写の画像である。画像a内の星印で示されるように、ユーザの顔の実写の画像は、1または複数の特徴点を有している。特徴点は、ユーザの顔のなかで特徴的な部分(鼻、口、耳、顎などのHMD113に覆われる可能性が無い部分)の位置を示す。   The image a is a photographed image of the face of the user stored in the face image storage unit 305. As indicated by the asterisks in the image a, the image of the user's face image has one or more feature points. The feature point indicates the position of a characteristic portion (a portion that can not be covered by the HMD 113 such as a nose, a mouth, an ear, and a jaw) in the user's face.

画像bは、現実空間内のHMD113を装着しているユーザの顔の実写の画像である。つまり、画像bは、身体領域画像である。画像b内の星印で示されるように、身体領域画像は、1または複数の特徴点を有している。   The image b is an image of a face shot of the user wearing the HMD 113 in the real space. That is, the image b is a body area image. As indicated by the asterisks in the image b, the body region image has one or more feature points.

画像cは、顔合成部303によって生成された画像である。顔合成部303は、画像a内の特徴点と画像b内の特徴点とが合うように画像aの顔を変形させて、画像cを生成することができる。なお、画像cは、顔の上半分(つまり、HMD113で覆われている部分)の画像であるが、顔全体の画像とすることもできる。   The image c is an image generated by the face synthesis unit 303. The face combining unit 303 can generate the image c by deforming the face of the image a so that the feature points in the image a match the feature points in the image b. Although the image c is an image of the upper half of the face (that is, a portion covered by the HMD 113), the image c may be an image of the entire face.

画像dは、顔合成部303によって生成された画像である。顔合成部303は、画像bに画像cを重畳して、画像dを生成することができる。   The image d is an image generated by the face synthesis unit 303. The face synthesis unit 303 can generate the image d by superimposing the image c on the image b.

なお、本明細書では、現実・VR合成空間内120内のユーザの顔に、HMD113を装着していないユーザの顔を重畳する実施例を説明したが、仮想カメラ122が撮影した画像内のユーザの顔に、HMD113を装着していないユーザの顔を重畳するようにしてもよい。すなわち、仮想カメラ122は、現実・VR合成空間120内でHMD113を装着しているユーザを撮影する。そして、顔合成部303は、仮想カメラ122が撮影した画像内のユーザの顔に、HMD113を装着していないユーザの顔を重畳する。仮想カメラ122が撮影した画像内のユーザの顔にHMD113を装着していないユーザの顔を重畳する実施例でも、現実・VR合成空間内120内のユーザの顔にHMD113を装着していないユーザの顔を重畳する実施例と同様の自撮り画像140を取得することができる。   In this specification, although an embodiment in which the face of the user who is not wearing the HMD 113 is superimposed on the face of the user in the real / VR composite space 120 has been described, the user in the image captured by the virtual camera 122 The face of the user who is not wearing the HMD 113 may be superimposed on the face of. That is, the virtual camera 122 shoots a user wearing the HMD 113 in the real / VR combined space 120. Then, the face synthesis unit 303 superimposes the face of the user who is not wearing the HMD 113 on the face of the user in the image captured by the virtual camera 122. Even in an embodiment in which the face of the user who does not wear the HMD 113 is superimposed on the face of the user in the image captured by the virtual camera 122, the user who does not wear the HMD 113 on the face of the user in the real / VR composite space 120 A self-portrait image 140 similar to that of the face superimposing embodiment can be obtained.

図3に戻る。自撮り画像記憶部306は、仮想カメラ122が撮影した自撮り画像を格納することができる。この自撮り画像は、VR空間内にいるユーザが自撮りで撮影されたかのような画像である。   Return to FIG. The self-portrait image storage unit 306 can store a self-portrait image captured by the virtual camera 122. The self-portrait image is an image as if the user in the VR space was photographed by self-portrait.

自撮り画像送信部304は、撮影デバイス112またはその他のデバイスへ、自撮り画像記憶部306内の自撮り画像を送信することができる。具体的には、自撮り画像送信部304は、メールなどで自撮り画像を送信することができる。あるいは、自撮り画像送信部304は、撮影デバイス112またはその他のデバイスに自撮り画像をダウンロードさせることができる。   The self-portrait image transmission unit 304 can transmit the self-portrait image in the self-portrait image storage unit 306 to the imaging device 112 or another device. Specifically, the self-portrait image transmission unit 304 can transmit a self-portrait image by e-mail or the like. Alternatively, the selfie image transmission unit 304 can download the selfie image to the imaging device 112 or another device.

図5は、本発明の一実施形態にかかるVR空間における自撮りシステムの画像処理装置201における処理フローの一例を示すフローチャートである。   FIG. 5 is a flow chart showing an example of the processing flow in the image processing apparatus 201 of the selfie system in the VR space according to the embodiment of the present invention.

ステップ501で、画像処理装置201は、撮影デバイス112から、撮影デバイス112がリアルタイム処理で送信している現実空間110内の動画像、および、ジャイロセンサ(角速度センサ)および深度センサが測定した情報を受信する。   In step 501, the image processing apparatus 201 causes the imaging device 112 to transmit a moving image in the real space 110 transmitted by the imaging device 112 in real time processing, and information measured by a gyro sensor (angular velocity sensor) and a depth sensor. To receive.

ステップ502で、画像処理装置201は、ステップ501で受信した現実空間110内の動画像と深度センサが測定した情報とに基づいて、ユーザの身体を表わす仮想的な立体物(身体領域画像)を生成する。   In step 502, the image processing apparatus 201 generates a virtual three-dimensional object (body region image) representing the user's body based on the moving image in the physical space 110 received in step 501 and the information measured by the depth sensor. Generate

ステップ503で、画像処理装置201は、ステップ502で生成した身体領域画像を現実・VR合成空間120内に配置する。   In step 503, the image processing apparatus 201 places the body region image generated in step 502 in the real / VR combined space 120.

ステップ504で、画像処理装置201は、現実空間110内でユーザが撮影デバイス112を持っている位置に相当する現実・VR空間120内での位置(つまり、身体領域画像の手)に、仮想カメラを配置する。また、画像処理装置201は、現実空間110内でユーザが撮影デバイス112を持っている位置に相当するVR空間130内での位置に、仮想カメラのモニタを配置する。画像処理装置201は、例えば、図1の位置追跡装置114(カメラなど)が測定した情報(撮影された画像など)やステップ501で受信したジャイロセンサ(角速度センサ)が測定した情報に基づいて、仮想カメラや仮想カメラのモニタを配置することができる。   In step 504, the image processing apparatus 201 sets the virtual camera at a position in the real / VR space 120 (that is, the hand of the body area image) corresponding to the position where the user holds the imaging device 112 in the real space 110. Place. Further, the image processing apparatus 201 arranges the monitor of the virtual camera at a position in the VR space 130 which corresponds to the position where the user holds the imaging device 112 in the real space 110. The image processing device 201 is based on, for example, information (such as a photographed image) measured by the position tracking device 114 (such as a camera) in FIG. 1 or information measured by the gyro sensor (angular velocity sensor) received in step 501. A virtual camera or a monitor of the virtual camera can be arranged.

ステップ505で、画像処理装置201は、ステップ504で配置した仮想カメラのモニタに、ステップ504で配置した仮想カメラが撮影しようとしている現実・VR空間120内の画像を表示させる。具体的には、画像処理装置201は、仮想カメラの位置を視点とし、その視点に投影される2次元画像を仮想カメラのモニタに表示させる。   In step 505, the image processing apparatus 201 causes the monitor of the virtual camera arranged in step 504 to display an image in the real / VR space 120 which the virtual camera arranged in step 504 is to capture. Specifically, the image processing apparatus 201 uses the position of the virtual camera as a viewpoint, and displays a two-dimensional image projected on the viewpoint on the monitor of the virtual camera.

ステップ506で、画像処理装置201は、仮想カメラで撮影する。具体的には、画像処理装置201は、撮影デバイス112から撮影の指示を受信した時に仮想カメラのモニタに表示されている画像(つまり、仮想カメラの位置を視点とし、その視点に投影される2次元画像)を取得してメモリに記憶する。   In step 506, the image processing apparatus 201 captures an image with a virtual camera. Specifically, the image processing apparatus 201 displays an image displayed on the monitor of the virtual camera when receiving an instruction for photographing from the photographing device 112 (that is, with the position of the virtual camera as a viewpoint and projected on the viewpoint 2 Get the dimensional image) and store it in memory.

ステップ507で、画像処理装置201は、撮影デバイス112へ、ステップ507で仮想カメラが撮影した自撮り画像を送信する。   In step 507, the image processing apparatus 201 transmits the self-portrait image captured by the virtual camera in step 507 to the imaging device 112.

なお、上記のとおり、顔合成は、ステップ503で行なってもよいし、ステップ506後に行ってもよい。   As described above, face synthesis may be performed in step 503 or may be performed after step 506.

なお、本明細書で説明した画像処理装置201の現実空間画像取得部301〜自撮り画像記憶部306のうちの一部または全部を、撮影デバイス112またはHMD113の処理装置およびメモリが画像処理装置201の代わりに備えてもよい。また、撮影デバイス112は、専用のデバイスであってもよいし、あるいは、撮影デバイス112と同様の処理を実行可能なアプリケーションソフトがインストールされたスマートフォンなどのデバイスであってもよい。   Note that the processing device and memory of the imaging device 112 or the HMD 113 are part or all of the physical space image acquisition unit 301 to the self-portrait image storage unit 306 of the image processing apparatus 201 described in this specification. It may be provided instead of Also, the imaging device 112 may be a dedicated device or a device such as a smartphone on which application software capable of executing the same processing as the imaging device 112 is installed.

このように、本発明では、ヘッドマウントディスプレイを装着してバーチャルリアリティを体験している者が、ヘッドマウントディスプレイを装着していない状態でバーチャルリアリティの空間内で自撮りで撮影したかのような自撮り画像を生成することができる。   As described above, according to the present invention, it is as if a person who experiences virtual reality wearing the head mounted display takes a picture by himself in the space of the virtual reality without wearing the head mounted display. Selfie images can be generated.

ここまで、本発明の実施形態について説明したが、上記実施形態はあくまで一例であり、本発明は上述した実施形態に限定されず、その技術的思想の範囲内において種々異なる形態にて実施されてよいことは言うまでもない。   Although the embodiments of the present invention have been described above, the above embodiments are merely examples, and the present invention is not limited to the above-described embodiments, and can be implemented in various different forms within the scope of the technical idea thereof. It goes without saying that it is good.

また、本発明の範囲は、図示され記載された例示的な実施形態に限定されるものではなく、本発明が目的とするものと均等な効果をもたらすすべての実施形態をも含む。さらに、本発明の範囲は、各請求項により画される発明の特徴の組み合わせに限定されるものではなく、すべての開示されたそれぞれの特徴のうち特定の特徴のあらゆる所望する組み合わせによって画されうる。   Further, the scope of the present invention is not limited to the illustrated and described exemplary embodiments, but also includes all the embodiments that bring about the same effects as the object of the present invention. Further, the scope of the present invention is not limited to the combination of the features of the invention as defined by the claims, but can be defined by any desired combination of specific features of all the disclosed respective features. .

100 ユーザ
110 現実空間
111 HMD映像
112 撮影デバイス
113 HMD
114 位置追跡装置
120 現実・VR合成空間
121 現実・VR合成画像
122 仮想カメラ
130 VR空間
131 視点
140 自撮り画像
200 自撮りシステム
201 画像処理装置
301 現実空間画像取得部
302 現実・VR合成部
303 顔合成部
304 自撮り画像送信部
305 顔画像記憶部
306 自撮り画像記憶部
100 User 110 Real Space 111 HMD Image 112 Shooting Device 113 HMD
114 Position tracking device 120 Real-VR composite space 121 Real-VR composite image 122 Virtual camera 130 VR space 131 Viewpoint 140 Self-portrait image 200 Self-portrait system 201 Image processing device 301 Real-space image acquisition unit 302 Real-VR composite unit 303 Face Composing unit 304 Self-portrait image transmission unit 305 Face image storage unit 306 Self-portrait image storage unit

Claims (6)

バーチャルリアリティ(VR)空間内に、ヘッドマウントディスプレイ(HMD)を装着しているユーザの現実空間内での身体を表わす身体領域画像を配置し、
前記身体領域画像が配置された前記VR空間内の画像に、前記ユーザの前記HMDを装着していない顔の画像を重畳する
ように構成されたプロセッサを備えたことを特徴とする装置。
Place a body region image representing the body in real space of the user wearing the head mounted display (HMD) in a virtual reality (VR) space,
An apparatus comprising: a processor configured to superimpose an image of a face of the user who is not wearing the HMD on an image in the VR space in which the body region image is arranged.
前記VR空間内に仮想カメラを配置し、
前記仮想カメラのモニタに、前記仮想カメラの位置にある視点に投影される前記身体領域画像が配置された前記VR空間内の画像を表示し、
前記仮想カメラに対する撮影の指示を受けたときに前記視点に投影されている前記身体領域画像が配置された前記VR空間内の画像を取得する
ようにさらに構成されたプロセッサを備えたことを特徴とする請求項1に記載の装置。
Place a virtual camera in the VR space,
Displaying on the monitor of the virtual camera an image in the VR space in which the body region image projected to the viewpoint at the position of the virtual camera is arranged;
The processor further includes a processor configured to acquire an image in the VR space in which the body region image projected to the viewpoint is arranged when receiving an instruction to shoot the virtual camera. The device according to claim 1.
前記仮想カメラの動きは、前記ユーザの現実空間内での動きと連動していることを特徴とする請求項2に記載の装置。   The apparatus according to claim 2, wherein the motion of the virtual camera is linked to the motion of the user in the real space. 前記身体領域画像は、前記HMDを装着している前記ユーザの現実空間内の動画像、および、前記動画像の奥行きを算出するための情報に基づいて生成されることを特徴とする請求項1から3のいずれか一項に記載の装置。   The body region image is generated on the basis of a moving image in the physical space of the user wearing the HMD, and information for calculating the depth of the moving image. A device according to any one of 3. 装置によって実施される方法であって、
バーチャルリアリティ(VR)空間内に、ヘッドマウントディスプレイ(HMD)を装着しているユーザの現実空間内での身体を表わす身体領域画像を配置するステップと、
前記身体領域画像が配置された前記VR空間内の画像に、前記ユーザの前記HMDを装着していない顔の画像を重畳するステップと
を含むことを特徴とする方法。
A method implemented by the device,
Placing in a virtual reality (VR) space a body region image representative of a body in real space of a user wearing a head mounted display (HMD);
Superimposing an image of a face of the user who is not wearing the HMD on the image in the VR space in which the body region image is arranged.
請求項5に記載の方法をコンピュータに実行させるためのプログラム。   A program for causing a computer to execute the method according to claim 5.
JP2017254454A 2017-12-28 2017-12-28 Selfie devices, methods, and programs in VR space Active JP7020115B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017254454A JP7020115B2 (en) 2017-12-28 2017-12-28 Selfie devices, methods, and programs in VR space

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017254454A JP7020115B2 (en) 2017-12-28 2017-12-28 Selfie devices, methods, and programs in VR space

Publications (2)

Publication Number Publication Date
JP2019121074A true JP2019121074A (en) 2019-07-22
JP7020115B2 JP7020115B2 (en) 2022-02-16

Family

ID=67307302

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017254454A Active JP7020115B2 (en) 2017-12-28 2017-12-28 Selfie devices, methods, and programs in VR space

Country Status (1)

Country Link
JP (1) JP7020115B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023206796A1 (en) * 2022-04-25 2023-11-02 歌尔股份有限公司 Photographing calibration method and system, device and storage medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004145448A (en) * 2002-10-22 2004-05-20 Toshiba Corp Terminal device, server device, and image processing method
JP2009176025A (en) * 2008-01-24 2009-08-06 Panasonic Corp Virtual space communication system and virtual space photographing method
JP2009176035A (en) * 2008-01-24 2009-08-06 Toshiba Tec Corp Merchandise sales processor
JP2016192688A (en) * 2015-03-31 2016-11-10 大和ハウス工業株式会社 Video display system and video display method
JP2017534096A (en) * 2014-08-04 2017-11-16 フェイスブック,インク. Method and system for reconstructing an obstructed face in a virtual reality environment
JP2019021236A (en) * 2017-07-21 2019-02-07 株式会社コロプラ Program executed by computer providing virtual space, method, and information processing device executing the program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004145448A (en) * 2002-10-22 2004-05-20 Toshiba Corp Terminal device, server device, and image processing method
JP2009176025A (en) * 2008-01-24 2009-08-06 Panasonic Corp Virtual space communication system and virtual space photographing method
JP2009176035A (en) * 2008-01-24 2009-08-06 Toshiba Tec Corp Merchandise sales processor
JP2017534096A (en) * 2014-08-04 2017-11-16 フェイスブック,インク. Method and system for reconstructing an obstructed face in a virtual reality environment
JP2016192688A (en) * 2015-03-31 2016-11-10 大和ハウス工業株式会社 Video display system and video display method
JP2019021236A (en) * 2017-07-21 2019-02-07 株式会社コロプラ Program executed by computer providing virtual space, method, and information processing device executing the program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023206796A1 (en) * 2022-04-25 2023-11-02 歌尔股份有限公司 Photographing calibration method and system, device and storage medium

Also Published As

Publication number Publication date
JP7020115B2 (en) 2022-02-16

Similar Documents

Publication Publication Date Title
US10574889B2 (en) Information processing device, information processing method, and program
RU2638776C1 (en) Image generating device and method
JP5659304B2 (en) Image generating apparatus and image generating method
US11184597B2 (en) Information processing device, image generation method, and head-mounted display
CN103513421A (en) Image processing device, image processing method, and image processing system
KR20190112712A (en) Improved method and system for video conferencing with head mounted display (HMD)
KR20140108128A (en) Method and apparatus for providing augmented reality
JPWO2013069049A1 (en) Image generating apparatus and image generating method
US10386633B2 (en) Virtual object display system, and display control method and display control program for the same
JP6559870B1 (en) Movie synthesis apparatus, movie synthesis method, and movie synthesis program
JP2020004325A (en) Image processing device, image processing method, and program
JP2020036305A (en) Moving image distribution system, moving image distribution method, and moving image distribution program for live distribution of moving image including animation of character object generated based on movement of distribution user
JP2012216077A (en) Augmented reality providing device and superimposition method of virtual object
JP6649010B2 (en) Information processing device
JP2017046233A (en) Display device, information processor, and control method of the same
JP6775669B2 (en) Information processing device
JP7020115B2 (en) Selfie devices, methods, and programs in VR space
JP7262973B2 (en) Information processing device, information processing method and program
JP2018198025A (en) Image processing device, image processing device control method, and program
WO2020044749A1 (en) Moving-image delivery system for delivering moving-image live that includes animation of character object generated on the basis of motion of delivering user, moving-image delivery method, and moving-image delivery program
JP5759439B2 (en) Video communication system and video communication method
JP2023093170A (en) Portable terminal device, and its program
JP2019133276A (en) Image processing system and terminal
CN115222793A (en) Method, device and system for generating and displaying depth image and readable medium
JP7157271B1 (en) Multisite space sharing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220117

R150 Certificate of patent or registration of utility model

Ref document number: 7020115

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150