JP2019121074A - Selfie device, method and program in vr space - Google Patents
Selfie device, method and program in vr space Download PDFInfo
- Publication number
- JP2019121074A JP2019121074A JP2017254454A JP2017254454A JP2019121074A JP 2019121074 A JP2019121074 A JP 2019121074A JP 2017254454 A JP2017254454 A JP 2017254454A JP 2017254454 A JP2017254454 A JP 2017254454A JP 2019121074 A JP2019121074 A JP 2019121074A
- Authority
- JP
- Japan
- Prior art keywords
- image
- space
- real
- hmd
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 9
- 210000000746 body region Anatomy 0.000 claims abstract description 18
- 230000033001 locomotion Effects 0.000 claims description 5
- 238000003384 imaging method Methods 0.000 description 55
- 239000002131 composite material Substances 0.000 description 19
- 230000015572 biosynthetic process Effects 0.000 description 13
- 238000003786 synthesis reaction Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 11
- 230000005540 biological transmission Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 239000000203 mixture Substances 0.000 description 4
- 238000001514 detection method Methods 0.000 description 2
- 210000005069 ears Anatomy 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
Description
本発明は、現実空間内で撮影された画像と、バーチャルリアリティの空間の映像とを合成する技術に関する。 The present invention relates to a technology for combining an image taken in a real space and an image of a space in virtual reality.
従来、ヘッドマウントディスプレイ(以下、HMDとも言う)や巨大スクリーンなどに映し出された映像を見ることによって、その映像によって表現される仮想現実の空間内にあたかも実際にいるかのような体験をすることができるバーチャルリアリティ(以下、VRとも言う)の技術が開発されている。HMDを利用するVRの場合、HMDを装着している者は、現実の世界から遮断されるので、より一層VRの世界に没入することができる。 Conventionally, by looking at an image projected on a head mounted display (hereinafter, also referred to as an HMD) or a huge screen, it is possible to experience as if it were actually in the space of virtual reality represented by the image. A technology of virtual reality (hereinafter also referred to as VR) that can be done has been developed. In the case of a VR using an HMD, a person wearing the HMD can further immerse in the VR world because it is disconnected from the real world.
しかしながら、HMDに映し出される映像は、HMDを装着している者しか見ることができない。そのため、HMDを装着している者以外の他の者は、VRを体験している者が一体どのような体験をしているのかを知ることができない。すなわち、VRの空間は、HMDを装着している者だけしか知ることができない閉じられた世界である。このように、HMDを装着している者は、VRの空間内で体験した出来事を他の者と共有するのが難しい。 However, the image projected on the HMD can only be viewed by the person wearing the HMD. Therefore, no one other than the person wearing the HMD can know what kind of experience the person experiencing the VR is doing. That is, the space of the VR is a closed world that only the person wearing the HMD can know. Thus, it is difficult for those who wear the HMD to share the experiences experienced in the VR space with other people.
ところで、昨今、自分で自分を撮影する“自撮り”が人気である。“自撮り”とは、スマートフォンなどのディスプレイで自分自身の姿を確認しながら、自分自身を被写体として写す撮影方法である。自分が体験している出来事を他の者に分かりやすいよう、自分の思い通りに撮影することが可能である。そのため、他の者は、自撮りで撮影された写真を見ることによって、自撮りを行なった者が体験した出来事を容易に知ることができる。 By the way, in recent years, "self-portrait" which photographs oneself by oneself is popular. "Self-shooting" is a shooting method of photographing oneself as a subject while confirming the appearance of oneself on a display such as a smartphone. It is possible to shoot as you wish, so that others can easily understand the events you are experiencing. Therefore, the other person can easily know the event experienced by the person who made the selfie by looking at the photographed picture.
そこで、本発明は、このような問題に鑑みてなされたものであり、その目的とするところは、HMDを装着してVRを体験している者が、その者が現実空間内で撮影された画像と、VRの空間の映像とを合成することによって、その者がVRの空間内にいるかのごとく自撮りで撮影することができる、装置、方法、およびプログラムを提供することにある。 Therefore, the present invention has been made in view of such problems, and the purpose of the present invention is that a person who wears an HMD and experiences VR is photographed in the real space by the person It is an object of the present invention to provide an apparatus, a method, and a program that can be taken by self-shooting as if the person is in the space of the VR by combining the image and the image of the space of the VR.
このような目的を達成するために、本発明の第1の態様は、装置である。この装置は、バーチャルリアリティ(VR)空間内に、ヘッドマウントディスプレイ(HMD)を装着しているユーザの現実空間内での身体を表わす身体領域画像を配置し、前記身体領域画像が配置された前記VR空間内の画像に、前記ユーザの前記HMDを装着していない顔の画像を重畳する、ように構成されたプロセッサを備える。 In order to achieve such an object, a first aspect of the present invention is an apparatus. The apparatus arranges a body area image representing a body in a real space of a user wearing a head mounted display (HMD) in a virtual reality (VR) space, and the body area image is arranged. The processor comprises a processor configured to superimpose an image of a face of the user who is not wearing the HMD on an image in the VR space.
本発明の第2の態様は、装置によって実施される方法である。この方法は、バーチャルリアリティ(VR)空間内に、ヘッドマウントディスプレイ(HMD)を装着しているユーザの現実空間内での身体を表わす身体領域画像を配置するステップと、前記身体領域画像が配置された前記VR空間内の画像に、前記ユーザの前記HMDを装着していない顔の画像を重畳するステップと、を含む。 A second aspect of the invention is a method implemented by the device. The method comprises the steps of: arranging a body region image representative of a body in real space of a user wearing a head mounted display (HMD) in a virtual reality (VR) space; Superimposing an image of a face of the user who is not wearing the HMD on the image in the VR space.
本発明の第3の態様は、プログラムである。このプログラムは、コンピュータを第1の態様の装置として機能させるプログラムである。 A third aspect of the present invention is a program. This program is a program that causes a computer to function as the device of the first aspect.
本発明によれば、HMDを装着してVRを体験している者が現実空間内で自撮りで撮影された画像と、そのVRを体験している者がHMDを装着していない顔の画像と、VR空間の映像と、を合成することができる。それにより、HMDを装着してVRを体験している者は、VRの空間内にいるかのごとく自撮りで撮影することができる。 According to the present invention, an image of a person who is experiencing the VR wearing the HMD taking a self-portrait in the real space, and an image of a face where the person experiencing the VR is not wearing the HMD And the image of the VR space can be synthesized. Thus, a person who wears an HMD and experiences VR can take a picture as if he were in the space of the VR.
最初に、本明細書で利用する用語について説明する。「自撮り」とは、撮影する者が自分自身を被写体として撮影することであり、自分撮り、セルフィなどとも言われる。また、「VR空間」とは、HMD上に映し出される映像によって表現される仮想現実の空間である。また、「現実空間」とは、現実の空間、つまり、実在する空間である。なお、本発明では、両眼、単眼、非透過型、透過型などの任意のHMDを用いることができる。 First, terms used in the present specification will be described. "Self-shooting" means that a person taking a picture takes himself or herself as a subject, and is also referred to as self-shooting, selfy, and the like. Also, “VR space” is a space of virtual reality represented by a video displayed on the HMD. Also, "real space" is a real space, that is, a real space. In the present invention, any HMD such as binocular, monocular, non-transmissive and transmissive types can be used.
以下、図面を参照しながら、本発明の実施形態について詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
図1は、本発明の一実施形態にかかるVR空間における自撮りサービスのイメージ図である。図1に示されるように、現実空間110において、ユーザ100は、HMD113を装着してHMD113に映し出される映像を見ているとする。その結果、ユーザ100は、VR空間130内にいるかのような体験をすることができる。ユーザ100は、VR空間130内を視点131から見ながら(つまり、HMD113を装着したまま)、撮影デバイス112へ顔を向けて自撮りを行なう。そうすると、VR空間130内にいるユーザ100が自撮りで撮影されたかのような自撮り画像140を取得することができる。以下、さらに具体的に図1を説明する。
FIG. 1 is an illustration of a self-portrait service in a VR space according to an embodiment of the present invention. As shown in FIG. 1, in the
<現実空間とVR空間の合成>
ユーザ100は、HMD113に映し出されるHMD映像111を見ながら、撮影デバイス112へ顔を向けて自撮りを行なう。HMD映像111は、ユーザ100の眼前に拡がるVR空間130の映像である。さらに、HMD映像111には、ユーザ100が自分の手に持っているかのようにVR空間130内を移動させることができる仮想カメラ122が映っている。仮想カメラ122の動きは、撮影デバイス112の動きと連動している。ユーザ100は、仮想カメラ122のモニタに表示されている現実・VR合成画像121を見ることによって、自分自身の姿を確認することができる。現実・VR合成画像121は、現実空間110とVR空間130とを合成したVR空間である現実・VR合成空間120内で仮想カメラ122が写している画像である。つまり、現実・VR合成画像121は、現実空間110内で撮影デバイス112が撮影しているユーザ100の身体の画像と、ユーザ100がHMD113を装着していない顔の画像(詳細は、下記の<顔画像の合成>で述べる)と、ユーザ100の背面に拡がるVR空間120の映像と、が合成された画像である。ユーザ100が撮影デバイス112に対して撮影するよう指示を与えると、現実・VR空間120内の仮想カメラ122が撮影を行なう。
<Composition of real space and VR space>
While watching the
<顔画像の合成>
現実空間110内で撮影デバイス112が撮影しているユーザ100は、HMD113を装着している。そのため、現実・VR合成空間120内では、現実空間110内のHMD113を装着しているユーザ100の顔の画像に、事前に撮影しておいたHMD113を装着していないユーザ100の顔の画像を重畳している。このように、本発明では、ユーザ100が現実空間110内で自撮りで撮影された画像と、そのユーザ100がHMD113を装着していない顔の画像と、VR空間130の映像と、が合成される。
<Composition of face image>
The
図2は、本発明の一実施形態にかかるVR空間における自撮りシステム200の全体の概要図である。概要図には、画像処理装置201、撮影デバイス112、ヘッドマウントディスプレイ(HMD)113が含まれる。画像処理装置201は、撮影デバイス112、HMD113のそれぞれと、データの送受信をすることができる。画像処理装置201は、撮影デバイス112で自撮りで撮影しているHMD113を装着している者の身体の画像と、その者がHMD113を装着していない顔の画像と、HMD113に映し出されているVR空間の映像と、を合成することができる。
FIG. 2 is a schematic overview of a
ヘッドマウントディスプレイ(HMD)113は、両眼、単眼、非透過型、透過型などの任意のHMDである。HMD113は、画像処理装置201とデータの送受信をすることができる。HMD113は、画像処理装置201から受信した映像をディスプレイ上で表示することができる。
The head mounted display (HMD) 113 is any HMD such as binocular, monocular, non-transmissive, transmissive, and the like. The HMD 113 can transmit and receive data to and from the
撮影デバイス112は、カメラ機能と、ジャイロセンサ(角速度センサ)と、深度センサと、仮想カメラに対して撮影するよう指示を与えるためのボタンと、を備えることができる。また、撮影デバイス112は、完成した画像(つまり、図1の自撮り画像140)を記憶するためのメモリを備えることができる。撮影デバイス112は、画像処理装置201とデータの送受信をすることができる。撮影デバイス112は、画像処理装置201へ、カメラ機能が撮影している画像と、ジャイロセンサ(角速度センサ)および深度センサが測定している情報と、を送信することができる。また、撮影デバイス112は、画像処理装置201へ、仮想カメラに対して撮影するよう指示が与えられたという情報を送信することができる。また、撮影デバイス112は、画像処理装置201から、完成した画像(つまり、図1の自撮り画像140)を受信することができる。
The
撮影デバイス112のカメラ機能は、従来のデジタルカメラやスマートフォンなどのカ
メラ機能のように動画像を撮影することができる。撮影デバイス112は、画像処理装置201へ、カメラ機能が撮影中の動画像を常時(リアルタイム処理で)送信することができる。
The camera function of the
撮影デバイス112のジャイロセンサ(角速度センサ)は、撮影デバイス112の角度や角速度を測定することができる。撮影デバイス112は、画像処理装置201へ、ジャイロセンサ(角速度センサ)が測定中の情報を常時(リアルタイム処理で)送信することができる。そのため、画像処理装置201は、撮影デバイス112の向きを算出することができる。
A gyro sensor (angular velocity sensor) of the
撮影デバイス112の深度センサは、撮影デバイス112と、撮影デバイス112で自撮りで撮影している者(つまり、HMD113を装着している者)との距離を測定することができる。また、撮影デバイス112の深度センサは、撮影デバイス112と、撮影デバイス112で自撮りで撮影している者以外の物体との距離を測定することができる。撮影デバイス112は、画像処理装置201へ、深度センサが測定中の情報を常時(リアルタイム処理で)送信することができる。そのため、画像処理装置201は、カメラ機能が撮影している動画像内の各点の奥行き(デプス)に関する情報を取得することができる。その結果、画像処理装置201は、撮影デバイス112で自撮りで撮影している者の身体やその者以外の物体を立体的に捉えることができる。画像処理装置201は、カメラ機能が撮影している動画像内の各点の奥行き(デプス)に関する情報に基づいて、撮影デバイス112で自撮りで撮影している者を、カメラ機能が撮影している動画像内で識別して、その者の身体を表わす仮想的な立体物(以下、身体領域画像とも言う)を生成することができる。
The depth sensor of the photographing
撮影デバイス112のボタンは、仮想カメラに対して撮影するよう指示が与えられたことを識別することができる。例えば、ボタンが押下されると、撮影デバイス112は、仮想カメラに対して撮影するよう指示が与えられたと判断することができる。
The button of the
図3は、本発明の一実施形態にかかる画像処理装置201の機能ブロック図である。画像処理装置201は、現実空間画像取得部301、現実・VR合成部302、顔合成部303、自撮り画像送信部304、顔画像記憶部305、自撮り画像記憶部306を含む。画像処理装置201は、プロセッサおよびメモリを含む1または複数のコンピュータである。また、画像処理装置201は、現実空間画像取得部301、現実・VR合成部302、顔合成部303、自撮り画像送信部304を動作させるためのプログラム、または、後述する処理フローを実行するためのプログラム、を格納した記憶媒体を含む。
FIG. 3 is a functional block diagram of the
現実空間画像取得部301は、撮影デバイス112から、撮影デバイス112がリアルタイム処理で送信している現実空間内の動画像、および、ジャイロセンサ(角速度センサ)および深度センサが測定した情報を受信することができる。現実空間内の動画像は、HMD113を装着している者(以下、ユーザとも言う)が撮影デバイス112で自撮りで撮影している動画像である。現実空間画像取得部301は、現実・VR合成部302が参照できるように、撮影デバイス112から受信した現実空間内の動画像とジャイロセンサ(角速度センサ)および深度センサが測定した情報とをメモリ(図示せず)に記憶することができる。
The real space
<現実・VR合成画像の表示>
現実・VR合成部302は、ユーザが撮影デバイス112で自撮りで撮影している現実空間内の動画像と、そのユーザの背面に拡がるVR空間の映像と、を合成して、その合成画像を仮想カメラのモニタに表示させることができる。その際、顔合成部303は、現実空間内のHMD113を装着しているユーザの顔の画像と、顔画像記憶部305に記憶されているHMD113を装着していないユーザ100の顔の画像と、を合成する。そして、仮想カメラが撮影を行なう。以下、図1を参照しながら、現実空間とVR空間の合成について詳細に説明する。
<Display of real / VR composite image>
The real /
図1の現実空間110では、HMD113を装着しているユーザが撮影デバイス112で自撮りで撮影している。現実・VR合成空間 120は、ユーザが撮影デバイス112で自撮りで撮影している現実空間110内の動画像と、そのユーザの背面に拡がるVR空間130の映像とを合成した画像(つまり、現実・VR合成画像121)を生成するためのVR空間である。VR空間 130は、HMD113を装着しているユーザが見ている映像によって表現されるVR空間である。つまり、HMD113を装着しているユーザは、現実・VR合成空間 120ではなく、視点131を視点としてVR空間 130内を見ている。
In the
現実・VR合成部302は、現実空間画像取得部301が受信した現実空間内の動画像と深度センサが測定した情報とに基づいて、ユーザの身体を表わす仮想的な立体物(つまり、身体領域画像)を生成することができる。また、現実・VR合成部302は、現実・VR合成空間 120内に任意の大きさで身体領域画像を配置することができる。この際、現実・VR合成部302は、HMD113のヘッドトラッキング機能(ユーザの頭の動きの検知)に基づいて、現実空間110内のユーザの顔の向きと、現実・VR空間 120内の身体領域画像の顔の向きとを一致させることができる。また、現実・VR合成部302は、HMD113のポジショントラッキング機能(HMD113の現実空間110内での位置の検知)に基づいて、現実空間110内のユーザの位置と、現実・VR空間 120内の身体領域画像の位置とを一致させることができる。
The real /
さらに、現実・VR合成部302は、現実空間110内でユーザが撮影デバイス112を持っている位置に相当する現実・VR合成空間120内での位置(つまり、身体領域画像の手)に、現実・VR合成空間120内を撮影するための仮想カメラ122を配置することができる。また、現実・VR合成部302は、VR空間130内に、仮想カメラ122のモニタを配置することができる。また、現実・VR合成部302は、VR空間130内の仮想カメラ122のモニタに、現実・VR合成空間120内の仮想カメラ122が撮影しようとしている現実・VR合成空間120内の画像を表示させることができる。なお、ユーザが手にモニタを持っているかのように、VR空間130内で、仮想カメラ122のモニタのほかに、ユーザの手または自撮り棒に相当する仮想的な立体物を配置するようにしてもよい。
Furthermore, the reality /
ここで、現実・VR合成空間120内の仮想カメラ122およびVR空間130内の仮想カメラ122のモニタについて説明する。現実・VR合成空間120内の仮想カメラ122は、仮想カメラ122の位置を視点とし、その視点に投影される2次元画像を撮影する(記憶する)ためのものである。そして、VR空間130内の仮想カメラ122のモニタは、現実・VR合成空間120内の仮想カメラ122が撮影しようとしている現実・VR合成空間120内の画像を表示するためのものである。
Here, the
現実・VR合成空間120内の仮想カメラ122と、VR空間130内の仮想カメラ122のモニタと、現実空間110内の撮影デバイス112とは、位置、向き、動きが連動している。具体的には、現実・VR合成部302は、例えば、図1の位置追跡装置114(カメラなど)が測定した情報(撮影された画像など)を取得してその情報に基づいて、現実空間110内の撮影デバイス112とユーザとの位置関係を算出することができる。また、現実・VR合成部302は、現実空間画像取得部301が受信したジャイロセンサ(角速度センサ)が測定した情報に基づいて、撮影デバイス112の向きを算出することができる。あるいは、現実・VR合成部302は、図1の位置追跡装置114(例えば、カメラなど)が取得した情報(例えば、撮影された画像)に基づいて、撮影デバイス112の向きを算出することができる。
The position, the direction, and the motion of the
現実・VR合成部302は、現実空間110内の撮影デバイス112とユーザとの位置関係と、現実・VR空間120内の仮想カメラ122とユーザとの位置関係と、が一致するように、現実・VR空間120内に仮想カメラ122を配置することができる。また、現実・VR合成部302は、撮影デバイス112の向きと仮想カメラ122の向きとが一致するように、現実・VR空間120内に仮想カメラ122を配置することができる。
The real /
また、現実・VR合成部302は、現実空間110内の撮影デバイス112とユーザとの位置関係と、VR空間130内の仮想カメラ122のモニタと視点131との位置関係と、が一致するように、VR空間130内に仮想カメラ122のモニタを配置することができる。また、現実・VR合成部302は、撮影デバイス112の向きと仮想カメラ122のモニタの向きとが一致するように、VR空間130内に仮想カメラ122のモニタを配置することができる。
In addition, the real /
<現実・VR合成画像の撮影>
現実・VR合成部302は、撮影デバイス112のボタンが押下されることに応答して、仮想カメラに撮影させることができる。具体的には、現実・VR合成部302は、撮影デバイス112から、仮想カメラに対して撮影するよう指示が与えられたという情報を受信することができる。また、現実・VR合成部302は、撮影の指示を受信した時にVR空間130内の仮想カメラ122のモニタに表示されている画像(つまり、現実・VR合成空間120内で、仮想カメラの位置を視点とし、その視点に投影される2次元画像)を取得して自撮り画像記憶部306に記憶することができる。
<Shooting of a real / VR composite image>
The real /
顔画像記憶部305は、HMD113を装着してないユーザの顔を1または複数の角度から撮影した画像を格納している。例えば、顔画像記憶部305に格納される顔の画像は、全方位(360度)から撮影された顔の画像である。ユーザの顔を全方位から撮影することによって、ユーザの顔が立体的に捉えられうる。顔の画像は、顔の特徴的な部分(鼻、口、耳、顎など)に特徴点を有している。
The face
顔合成部303は、現実・VR合成空間120内で、現実空間110内のHMD113を装着しているユーザの顔の画像と、顔画像記憶部305に記憶されているHMD113を装着していないユーザ100の顔の画像と、を合成することができる。図4を参照しながら、顔合成部303について詳細に説明する。
The
図4は、本発明の一実施形態にかかる顔合成を説明するための図である。 FIG. 4 is a diagram for explaining face synthesis according to the embodiment of the present invention.
画像aは、顔画像記憶部305に格納されているユーザの顔の実写の画像である。画像a内の星印で示されるように、ユーザの顔の実写の画像は、1または複数の特徴点を有している。特徴点は、ユーザの顔のなかで特徴的な部分(鼻、口、耳、顎などのHMD113に覆われる可能性が無い部分)の位置を示す。
The image a is a photographed image of the face of the user stored in the face
画像bは、現実空間内のHMD113を装着しているユーザの顔の実写の画像である。つまり、画像bは、身体領域画像である。画像b内の星印で示されるように、身体領域画像は、1または複数の特徴点を有している。
The image b is an image of a face shot of the user wearing the
画像cは、顔合成部303によって生成された画像である。顔合成部303は、画像a内の特徴点と画像b内の特徴点とが合うように画像aの顔を変形させて、画像cを生成することができる。なお、画像cは、顔の上半分(つまり、HMD113で覆われている部分)の画像であるが、顔全体の画像とすることもできる。
The image c is an image generated by the
画像dは、顔合成部303によって生成された画像である。顔合成部303は、画像bに画像cを重畳して、画像dを生成することができる。
The image d is an image generated by the
なお、本明細書では、現実・VR合成空間内120内のユーザの顔に、HMD113を装着していないユーザの顔を重畳する実施例を説明したが、仮想カメラ122が撮影した画像内のユーザの顔に、HMD113を装着していないユーザの顔を重畳するようにしてもよい。すなわち、仮想カメラ122は、現実・VR合成空間120内でHMD113を装着しているユーザを撮影する。そして、顔合成部303は、仮想カメラ122が撮影した画像内のユーザの顔に、HMD113を装着していないユーザの顔を重畳する。仮想カメラ122が撮影した画像内のユーザの顔にHMD113を装着していないユーザの顔を重畳する実施例でも、現実・VR合成空間内120内のユーザの顔にHMD113を装着していないユーザの顔を重畳する実施例と同様の自撮り画像140を取得することができる。
In this specification, although an embodiment in which the face of the user who is not wearing the
図3に戻る。自撮り画像記憶部306は、仮想カメラ122が撮影した自撮り画像を格納することができる。この自撮り画像は、VR空間内にいるユーザが自撮りで撮影されたかのような画像である。
Return to FIG. The self-portrait
自撮り画像送信部304は、撮影デバイス112またはその他のデバイスへ、自撮り画像記憶部306内の自撮り画像を送信することができる。具体的には、自撮り画像送信部304は、メールなどで自撮り画像を送信することができる。あるいは、自撮り画像送信部304は、撮影デバイス112またはその他のデバイスに自撮り画像をダウンロードさせることができる。
The self-portrait
図5は、本発明の一実施形態にかかるVR空間における自撮りシステムの画像処理装置201における処理フローの一例を示すフローチャートである。
FIG. 5 is a flow chart showing an example of the processing flow in the
ステップ501で、画像処理装置201は、撮影デバイス112から、撮影デバイス112がリアルタイム処理で送信している現実空間110内の動画像、および、ジャイロセンサ(角速度センサ)および深度センサが測定した情報を受信する。
In
ステップ502で、画像処理装置201は、ステップ501で受信した現実空間110内の動画像と深度センサが測定した情報とに基づいて、ユーザの身体を表わす仮想的な立体物(身体領域画像)を生成する。
In
ステップ503で、画像処理装置201は、ステップ502で生成した身体領域画像を現実・VR合成空間120内に配置する。
In step 503, the
ステップ504で、画像処理装置201は、現実空間110内でユーザが撮影デバイス112を持っている位置に相当する現実・VR空間120内での位置(つまり、身体領域画像の手)に、仮想カメラを配置する。また、画像処理装置201は、現実空間110内でユーザが撮影デバイス112を持っている位置に相当するVR空間130内での位置に、仮想カメラのモニタを配置する。画像処理装置201は、例えば、図1の位置追跡装置114(カメラなど)が測定した情報(撮影された画像など)やステップ501で受信したジャイロセンサ(角速度センサ)が測定した情報に基づいて、仮想カメラや仮想カメラのモニタを配置することができる。
In
ステップ505で、画像処理装置201は、ステップ504で配置した仮想カメラのモニタに、ステップ504で配置した仮想カメラが撮影しようとしている現実・VR空間120内の画像を表示させる。具体的には、画像処理装置201は、仮想カメラの位置を視点とし、その視点に投影される2次元画像を仮想カメラのモニタに表示させる。
In
ステップ506で、画像処理装置201は、仮想カメラで撮影する。具体的には、画像処理装置201は、撮影デバイス112から撮影の指示を受信した時に仮想カメラのモニタに表示されている画像(つまり、仮想カメラの位置を視点とし、その視点に投影される2次元画像)を取得してメモリに記憶する。
In step 506, the
ステップ507で、画像処理装置201は、撮影デバイス112へ、ステップ507で仮想カメラが撮影した自撮り画像を送信する。
In
なお、上記のとおり、顔合成は、ステップ503で行なってもよいし、ステップ506後に行ってもよい。 As described above, face synthesis may be performed in step 503 or may be performed after step 506.
なお、本明細書で説明した画像処理装置201の現実空間画像取得部301〜自撮り画像記憶部306のうちの一部または全部を、撮影デバイス112またはHMD113の処理装置およびメモリが画像処理装置201の代わりに備えてもよい。また、撮影デバイス112は、専用のデバイスであってもよいし、あるいは、撮影デバイス112と同様の処理を実行可能なアプリケーションソフトがインストールされたスマートフォンなどのデバイスであってもよい。
Note that the processing device and memory of the
このように、本発明では、ヘッドマウントディスプレイを装着してバーチャルリアリティを体験している者が、ヘッドマウントディスプレイを装着していない状態でバーチャルリアリティの空間内で自撮りで撮影したかのような自撮り画像を生成することができる。 As described above, according to the present invention, it is as if a person who experiences virtual reality wearing the head mounted display takes a picture by himself in the space of the virtual reality without wearing the head mounted display. Selfie images can be generated.
ここまで、本発明の実施形態について説明したが、上記実施形態はあくまで一例であり、本発明は上述した実施形態に限定されず、その技術的思想の範囲内において種々異なる形態にて実施されてよいことは言うまでもない。 Although the embodiments of the present invention have been described above, the above embodiments are merely examples, and the present invention is not limited to the above-described embodiments, and can be implemented in various different forms within the scope of the technical idea thereof. It goes without saying that it is good.
また、本発明の範囲は、図示され記載された例示的な実施形態に限定されるものではなく、本発明が目的とするものと均等な効果をもたらすすべての実施形態をも含む。さらに、本発明の範囲は、各請求項により画される発明の特徴の組み合わせに限定されるものではなく、すべての開示されたそれぞれの特徴のうち特定の特徴のあらゆる所望する組み合わせによって画されうる。 Further, the scope of the present invention is not limited to the illustrated and described exemplary embodiments, but also includes all the embodiments that bring about the same effects as the object of the present invention. Further, the scope of the present invention is not limited to the combination of the features of the invention as defined by the claims, but can be defined by any desired combination of specific features of all the disclosed respective features. .
100 ユーザ
110 現実空間
111 HMD映像
112 撮影デバイス
113 HMD
114 位置追跡装置
120 現実・VR合成空間
121 現実・VR合成画像
122 仮想カメラ
130 VR空間
131 視点
140 自撮り画像
200 自撮りシステム
201 画像処理装置
301 現実空間画像取得部
302 現実・VR合成部
303 顔合成部
304 自撮り画像送信部
305 顔画像記憶部
306 自撮り画像記憶部
100
114
Claims (6)
前記身体領域画像が配置された前記VR空間内の画像に、前記ユーザの前記HMDを装着していない顔の画像を重畳する
ように構成されたプロセッサを備えたことを特徴とする装置。 Place a body region image representing the body in real space of the user wearing the head mounted display (HMD) in a virtual reality (VR) space,
An apparatus comprising: a processor configured to superimpose an image of a face of the user who is not wearing the HMD on an image in the VR space in which the body region image is arranged.
前記仮想カメラのモニタに、前記仮想カメラの位置にある視点に投影される前記身体領域画像が配置された前記VR空間内の画像を表示し、
前記仮想カメラに対する撮影の指示を受けたときに前記視点に投影されている前記身体領域画像が配置された前記VR空間内の画像を取得する
ようにさらに構成されたプロセッサを備えたことを特徴とする請求項1に記載の装置。 Place a virtual camera in the VR space,
Displaying on the monitor of the virtual camera an image in the VR space in which the body region image projected to the viewpoint at the position of the virtual camera is arranged;
The processor further includes a processor configured to acquire an image in the VR space in which the body region image projected to the viewpoint is arranged when receiving an instruction to shoot the virtual camera. The device according to claim 1.
バーチャルリアリティ(VR)空間内に、ヘッドマウントディスプレイ(HMD)を装着しているユーザの現実空間内での身体を表わす身体領域画像を配置するステップと、
前記身体領域画像が配置された前記VR空間内の画像に、前記ユーザの前記HMDを装着していない顔の画像を重畳するステップと
を含むことを特徴とする方法。 A method implemented by the device,
Placing in a virtual reality (VR) space a body region image representative of a body in real space of a user wearing a head mounted display (HMD);
Superimposing an image of a face of the user who is not wearing the HMD on the image in the VR space in which the body region image is arranged.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017254454A JP7020115B2 (en) | 2017-12-28 | 2017-12-28 | Selfie devices, methods, and programs in VR space |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017254454A JP7020115B2 (en) | 2017-12-28 | 2017-12-28 | Selfie devices, methods, and programs in VR space |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019121074A true JP2019121074A (en) | 2019-07-22 |
JP7020115B2 JP7020115B2 (en) | 2022-02-16 |
Family
ID=67307302
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017254454A Active JP7020115B2 (en) | 2017-12-28 | 2017-12-28 | Selfie devices, methods, and programs in VR space |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7020115B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023206796A1 (en) * | 2022-04-25 | 2023-11-02 | 歌尔股份有限公司 | Photographing calibration method and system, device and storage medium |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004145448A (en) * | 2002-10-22 | 2004-05-20 | Toshiba Corp | Terminal device, server device, and image processing method |
JP2009176025A (en) * | 2008-01-24 | 2009-08-06 | Panasonic Corp | Virtual space communication system and virtual space photographing method |
JP2009176035A (en) * | 2008-01-24 | 2009-08-06 | Toshiba Tec Corp | Merchandise sales processor |
JP2016192688A (en) * | 2015-03-31 | 2016-11-10 | 大和ハウス工業株式会社 | Video display system and video display method |
JP2017534096A (en) * | 2014-08-04 | 2017-11-16 | フェイスブック,インク. | Method and system for reconstructing an obstructed face in a virtual reality environment |
JP2019021236A (en) * | 2017-07-21 | 2019-02-07 | 株式会社コロプラ | Program executed by computer providing virtual space, method, and information processing device executing the program |
-
2017
- 2017-12-28 JP JP2017254454A patent/JP7020115B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004145448A (en) * | 2002-10-22 | 2004-05-20 | Toshiba Corp | Terminal device, server device, and image processing method |
JP2009176025A (en) * | 2008-01-24 | 2009-08-06 | Panasonic Corp | Virtual space communication system and virtual space photographing method |
JP2009176035A (en) * | 2008-01-24 | 2009-08-06 | Toshiba Tec Corp | Merchandise sales processor |
JP2017534096A (en) * | 2014-08-04 | 2017-11-16 | フェイスブック,インク. | Method and system for reconstructing an obstructed face in a virtual reality environment |
JP2016192688A (en) * | 2015-03-31 | 2016-11-10 | 大和ハウス工業株式会社 | Video display system and video display method |
JP2019021236A (en) * | 2017-07-21 | 2019-02-07 | 株式会社コロプラ | Program executed by computer providing virtual space, method, and information processing device executing the program |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023206796A1 (en) * | 2022-04-25 | 2023-11-02 | 歌尔股份有限公司 | Photographing calibration method and system, device and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP7020115B2 (en) | 2022-02-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10574889B2 (en) | Information processing device, information processing method, and program | |
RU2638776C1 (en) | Image generating device and method | |
JP5659304B2 (en) | Image generating apparatus and image generating method | |
US11184597B2 (en) | Information processing device, image generation method, and head-mounted display | |
CN103513421A (en) | Image processing device, image processing method, and image processing system | |
KR20190112712A (en) | Improved method and system for video conferencing with head mounted display (HMD) | |
KR20140108128A (en) | Method and apparatus for providing augmented reality | |
JPWO2013069049A1 (en) | Image generating apparatus and image generating method | |
US10386633B2 (en) | Virtual object display system, and display control method and display control program for the same | |
JP6559870B1 (en) | Movie synthesis apparatus, movie synthesis method, and movie synthesis program | |
JP2020004325A (en) | Image processing device, image processing method, and program | |
JP2020036305A (en) | Moving image distribution system, moving image distribution method, and moving image distribution program for live distribution of moving image including animation of character object generated based on movement of distribution user | |
JP2012216077A (en) | Augmented reality providing device and superimposition method of virtual object | |
JP6649010B2 (en) | Information processing device | |
JP2017046233A (en) | Display device, information processor, and control method of the same | |
JP6775669B2 (en) | Information processing device | |
JP7020115B2 (en) | Selfie devices, methods, and programs in VR space | |
JP7262973B2 (en) | Information processing device, information processing method and program | |
JP2018198025A (en) | Image processing device, image processing device control method, and program | |
WO2020044749A1 (en) | Moving-image delivery system for delivering moving-image live that includes animation of character object generated on the basis of motion of delivering user, moving-image delivery method, and moving-image delivery program | |
JP5759439B2 (en) | Video communication system and video communication method | |
JP2023093170A (en) | Portable terminal device, and its program | |
JP2019133276A (en) | Image processing system and terminal | |
CN115222793A (en) | Method, device and system for generating and displaying depth image and readable medium | |
JP7157271B1 (en) | Multisite space sharing system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201118 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210917 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211005 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211119 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220104 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220117 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7020115 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |