JP7020115B2 - Vr空間における自撮り装置、方法、およびプログラム - Google Patents

Vr空間における自撮り装置、方法、およびプログラム Download PDF

Info

Publication number
JP7020115B2
JP7020115B2 JP2017254454A JP2017254454A JP7020115B2 JP 7020115 B2 JP7020115 B2 JP 7020115B2 JP 2017254454 A JP2017254454 A JP 2017254454A JP 2017254454 A JP2017254454 A JP 2017254454A JP 7020115 B2 JP7020115 B2 JP 7020115B2
Authority
JP
Japan
Prior art keywords
image
space
hmd
user
virtual camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017254454A
Other languages
English (en)
Other versions
JP2019121074A (ja
Inventor
知樹 神谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toppan Inc
Original Assignee
Toppan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toppan Inc filed Critical Toppan Inc
Priority to JP2017254454A priority Critical patent/JP7020115B2/ja
Publication of JP2019121074A publication Critical patent/JP2019121074A/ja
Application granted granted Critical
Publication of JP7020115B2 publication Critical patent/JP7020115B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明は、現実空間内で撮影された画像と、バーチャルリアリティの空間の映像とを合成する技術に関する。
従来、ヘッドマウントディスプレイ(以下、HMDとも言う)や巨大スクリーンなどに映し出された映像を見ることによって、その映像によって表現される仮想現実の空間内にあたかも実際にいるかのような体験をすることができるバーチャルリアリティ(以下、VRとも言う)の技術が開発されている。HMDを利用するVRの場合、HMDを装着している者は、現実の世界から遮断されるので、より一層VRの世界に没入することができる。
しかしながら、HMDに映し出される映像は、HMDを装着している者しか見ることができない。そのため、HMDを装着している者以外の他の者は、VRを体験している者が一体どのような体験をしているのかを知ることができない。すなわち、VRの空間は、HMDを装着している者だけしか知ることができない閉じられた世界である。このように、HMDを装着している者は、VRの空間内で体験した出来事を他の者と共有するのが難しい。
ところで、昨今、自分で自分を撮影する“自撮り”が人気である。“自撮り”とは、スマートフォンなどのディスプレイで自分自身の姿を確認しながら、自分自身を被写体として写す撮影方法である。自分が体験している出来事を他の者に分かりやすいよう、自分の思い通りに撮影することが可能である。そのため、他の者は、自撮りで撮影された写真を見ることによって、自撮りを行なった者が体験した出来事を容易に知ることができる。
そこで、本発明は、このような問題に鑑みてなされたものであり、その目的とするところは、HMDを装着してVRを体験している者が、その者が現実空間内で撮影された画像と、VRの空間の映像とを合成することによって、その者がVRの空間内にいるかのごとく自撮りで撮影することができる、装置、方法、およびプログラムを提供することにある。
このような目的を達成するために、本発明の第1の態様は、装置である。この装置は、バーチャルリアリティ(VR)空間内に、ヘッドマウントディスプレイ(HMD)を装着しているユーザの現実空間内での身体を表わす身体領域画像を配置し、前記身体領域画像が配置された前記VR空間内の画像に、前記ユーザの前記HMDを装着していない顔の画像を重畳する、ように構成されたプロセッサを備える。
本発明の第2の態様は、装置によって実施される方法である。この方法は、バーチャルリアリティ(VR)空間内に、ヘッドマウントディスプレイ(HMD)を装着しているユーザの現実空間内での身体を表わす身体領域画像を配置するステップと、前記身体領域画像が配置された前記VR空間内の画像に、前記ユーザの前記HMDを装着していない顔の画像を重畳するステップと、を含む。
本発明の第3の態様は、プログラムである。このプログラムは、コンピュータを第1の態様の装置として機能させるプログラムである。
本発明によれば、HMDを装着してVRを体験している者が現実空間内で自撮りで撮影された画像と、そのVRを体験している者がHMDを装着していない顔の画像と、VR空間の映像と、を合成することができる。それにより、HMDを装着してVRを体験している者は、VRの空間内にいるかのごとく自撮りで撮影することができる。
本発明の一実施形態にかかるVR空間における自撮りサービスのイメージ図である。 本発明の一実施形態にかかるVR空間における自撮りシステムの全体の概要図である。 本発明の一実施形態にかかるVR空間における自撮りシステムの画像処理装置の機能ブロック図である。 本発明の一実施形態にかかる顔合成を説明するための図である。 本発明の一実施形態にかかるVR空間における自撮りシステムの画像処理装置における処理フローの一例を示すフローチャートである。
最初に、本明細書で利用する用語について説明する。「自撮り」とは、撮影する者が自分自身を被写体として撮影することであり、自分撮り、セルフィなどとも言われる。また、「VR空間」とは、HMD上に映し出される映像によって表現される仮想現実の空間である。また、「現実空間」とは、現実の空間、つまり、実在する空間である。なお、本発明では、両眼、単眼、非透過型、透過型などの任意のHMDを用いることができる。
以下、図面を参照しながら、本発明の実施形態について詳細に説明する。
図1は、本発明の一実施形態にかかるVR空間における自撮りサービスのイメージ図である。図1に示されるように、現実空間110において、ユーザ100は、HMD113を装着してHMD113に映し出される映像を見ているとする。その結果、ユーザ100は、VR空間130内にいるかのような体験をすることができる。ユーザ100は、VR空間130内を視点131から見ながら(つまり、HMD113を装着したまま)、撮影デバイス112へ顔を向けて自撮りを行なう。そうすると、VR空間130内にいるユーザ100が自撮りで撮影されたかのような自撮り画像140を取得することができる。以下、さらに具体的に図1を説明する。
<現実空間とVR空間の合成>
ユーザ100は、HMD113に映し出されるHMD映像111を見ながら、撮影デバイス112へ顔を向けて自撮りを行なう。HMD映像111は、ユーザ100の眼前に拡がるVR空間130の映像である。さらに、HMD映像111には、ユーザ100が自分の手に持っているかのようにVR空間130内を移動させることができる仮想カメラ122が映っている。仮想カメラ122の動きは、撮影デバイス112の動きと連動している。ユーザ100は、仮想カメラ122のモニタに表示されている現実・VR合成画像121を見ることによって、自分自身の姿を確認することができる。現実・VR合成画像121は、現実空間110とVR空間130とを合成したVR空間である現実・VR合成空間120内で仮想カメラ122が写している画像である。つまり、現実・VR合成画像121は、現実空間110内で撮影デバイス112が撮影しているユーザ100の身体の画像と、ユーザ100がHMD113を装着していない顔の画像(詳細は、下記の<顔画像の合成>で述べる)と、ユーザ100の背面に拡がるVR空間120の映像と、が合成された画像である。ユーザ100が撮影デバイス112に対して撮影するよう指示を与えると、現実・VR空間120内の仮想カメラ122が撮影を行なう。
<顔画像の合成>
現実空間110内で撮影デバイス112が撮影しているユーザ100は、HMD113を装着している。そのため、現実・VR合成空間120内では、現実空間110内のHMD113を装着しているユーザ100の顔の画像に、事前に撮影しておいたHMD113を装着していないユーザ100の顔の画像を重畳している。このように、本発明では、ユーザ100が現実空間110内で自撮りで撮影された画像と、そのユーザ100がHMD113を装着していない顔の画像と、VR空間130の映像と、が合成される。
図2は、本発明の一実施形態にかかるVR空間における自撮りシステム200の全体の概要図である。概要図には、画像処理装置201、撮影デバイス112、ヘッドマウントディスプレイ(HMD)113が含まれる。画像処理装置201は、撮影デバイス112、HMD113のそれぞれと、データの送受信をすることができる。画像処理装置201は、撮影デバイス112で自撮りで撮影しているHMD113を装着している者の身体の画像と、その者がHMD113を装着していない顔の画像と、HMD113に映し出されているVR空間の映像と、を合成することができる。
ヘッドマウントディスプレイ(HMD)113は、両眼、単眼、非透過型、透過型などの任意のHMDである。HMD113は、画像処理装置201とデータの送受信をすることができる。HMD113は、画像処理装置201から受信した映像をディスプレイ上で表示することができる。
撮影デバイス112は、カメラ機能と、ジャイロセンサ(角速度センサ)と、深度センサと、仮想カメラに対して撮影するよう指示を与えるためのボタンと、を備えることができる。また、撮影デバイス112は、完成した画像(つまり、図1の自撮り画像140)を記憶するためのメモリを備えることができる。撮影デバイス112は、画像処理装置201とデータの送受信をすることができる。撮影デバイス112は、画像処理装置201へ、カメラ機能が撮影している画像と、ジャイロセンサ(角速度センサ)および深度センサが測定している情報と、を送信することができる。また、撮影デバイス112は、画像処理装置201へ、仮想カメラに対して撮影するよう指示が与えられたという情報を送信することができる。また、撮影デバイス112は、画像処理装置201から、完成した画像(つまり、図1の自撮り画像140)を受信することができる。
撮影デバイス112のカメラ機能は、従来のデジタルカメラやスマートフォンなどのカ
メラ機能のように動画像を撮影することができる。撮影デバイス112は、画像処理装置201へ、カメラ機能が撮影中の動画像を常時(リアルタイム処理で)送信することができる。
撮影デバイス112のジャイロセンサ(角速度センサ)は、撮影デバイス112の角度や角速度を測定することができる。撮影デバイス112は、画像処理装置201へ、ジャイロセンサ(角速度センサ)が測定中の情報を常時(リアルタイム処理で)送信することができる。そのため、画像処理装置201は、撮影デバイス112の向きを算出することができる。
撮影デバイス112の深度センサは、撮影デバイス112と、撮影デバイス112で自撮りで撮影している者(つまり、HMD113を装着している者)との距離を測定することができる。また、撮影デバイス112の深度センサは、撮影デバイス112と、撮影デバイス112で自撮りで撮影している者以外の物体との距離を測定することができる。撮影デバイス112は、画像処理装置201へ、深度センサが測定中の情報を常時(リアルタイム処理で)送信することができる。そのため、画像処理装置201は、カメラ機能が撮影している動画像内の各点の奥行き(デプス)に関する情報を取得することができる。その結果、画像処理装置201は、撮影デバイス112で自撮りで撮影している者の身体やその者以外の物体を立体的に捉えることができる。画像処理装置201は、カメラ機能が撮影している動画像内の各点の奥行き(デプス)に関する情報に基づいて、撮影デバイス112で自撮りで撮影している者を、カメラ機能が撮影している動画像内で識別して、その者の身体を表わす仮想的な立体物(以下、身体領域画像とも言う)を生成することができる。
撮影デバイス112のボタンは、仮想カメラに対して撮影するよう指示が与えられたことを識別することができる。例えば、ボタンが押下されると、撮影デバイス112は、仮想カメラに対して撮影するよう指示が与えられたと判断することができる。
図3は、本発明の一実施形態にかかる画像処理装置201の機能ブロック図である。画像処理装置201は、現実空間画像取得部301、現実・VR合成部302、顔合成部303、自撮り画像送信部304、顔画像記憶部305、自撮り画像記憶部306を含む。画像処理装置201は、プロセッサおよびメモリを含む1または複数のコンピュータである。また、画像処理装置201は、現実空間画像取得部301、現実・VR合成部302、顔合成部303、自撮り画像送信部304を動作させるためのプログラム、または、後述する処理フローを実行するためのプログラム、を格納した記憶媒体を含む。
現実空間画像取得部301は、撮影デバイス112から、撮影デバイス112がリアルタイム処理で送信している現実空間内の動画像、および、ジャイロセンサ(角速度センサ)および深度センサが測定した情報を受信することができる。現実空間内の動画像は、HMD113を装着している者(以下、ユーザとも言う)が撮影デバイス112で自撮りで撮影している動画像である。現実空間画像取得部301は、現実・VR合成部302が参照できるように、撮影デバイス112から受信した現実空間内の動画像とジャイロセンサ(角速度センサ)および深度センサが測定した情報とをメモリ(図示せず)に記憶することができる。
<現実・VR合成画像の表示>
現実・VR合成部302は、ユーザが撮影デバイス112で自撮りで撮影している現実空間内の動画像と、そのユーザの背面に拡がるVR空間の映像と、を合成して、その合成画像を仮想カメラのモニタに表示させることができる。その際、顔合成部303は、現実空間内のHMD113を装着しているユーザの顔の画像と、顔画像記憶部305に記憶されているHMD113を装着していないユーザ100の顔の画像と、を合成する。そして、仮想カメラが撮影を行なう。以下、図1を参照しながら、現実空間とVR空間の合成について詳細に説明する。
図1の現実空間110では、HMD113を装着しているユーザが撮影デバイス112で自撮りで撮影している。現実・VR合成空間 120は、ユーザが撮影デバイス112で自撮りで撮影している現実空間110内の動画像と、そのユーザの背面に拡がるVR空間130の映像とを合成した画像(つまり、現実・VR合成画像121)を生成するためのVR空間である。VR空間 130は、HMD113を装着しているユーザが見ている映像によって表現されるVR空間である。つまり、HMD113を装着しているユーザは、現実・VR合成空間 120ではなく、視点131を視点としてVR空間 130内を見ている。
現実・VR合成部302は、現実空間画像取得部301が受信した現実空間内の動画像と深度センサが測定した情報とに基づいて、ユーザの身体を表わす仮想的な立体物(つまり、身体領域画像)を生成することができる。また、現実・VR合成部302は、現実・VR合成空間 120内に任意の大きさで身体領域画像を配置することができる。この際、現実・VR合成部302は、HMD113のヘッドトラッキング機能(ユーザの頭の動きの検知)に基づいて、現実空間110内のユーザの顔の向きと、現実・VR空間 120内の身体領域画像の顔の向きとを一致させることができる。また、現実・VR合成部302は、HMD113のポジショントラッキング機能(HMD113の現実空間110内での位置の検知)に基づいて、現実空間110内のユーザの位置と、現実・VR空間 120内の身体領域画像の位置とを一致させることができる。
さらに、現実・VR合成部302は、現実空間110内でユーザが撮影デバイス112を持っている位置に相当する現実・VR合成空間120内での位置(つまり、身体領域画像の手)に、現実・VR合成空間120内を撮影するための仮想カメラ122を配置することができる。また、現実・VR合成部302は、VR空間130内に、仮想カメラ122のモニタを配置することができる。また、現実・VR合成部302は、VR空間130内の仮想カメラ122のモニタに、現実・VR合成空間120内の仮想カメラ122が撮影しようとしている現実・VR合成空間120内の画像を表示させることができる。なお、ユーザが手にモニタを持っているかのように、VR空間130内で、仮想カメラ122のモニタのほかに、ユーザの手または自撮り棒に相当する仮想的な立体物を配置するようにしてもよい。
ここで、現実・VR合成空間120内の仮想カメラ122およびVR空間130内の仮想カメラ122のモニタについて説明する。現実・VR合成空間120内の仮想カメラ122は、仮想カメラ122の位置を視点とし、その視点に投影される2次元画像を撮影する(記憶する)ためのものである。そして、VR空間130内の仮想カメラ122のモニタは、現実・VR合成空間120内の仮想カメラ122が撮影しようとしている現実・VR合成空間120内の画像を表示するためのものである。
現実・VR合成空間120内の仮想カメラ122と、VR空間130内の仮想カメラ122のモニタと、現実空間110内の撮影デバイス112とは、位置、向き、動きが連動している。具体的には、現実・VR合成部302は、例えば、図1の位置追跡装置114(カメラなど)が測定した情報(撮影された画像など)を取得してその情報に基づいて、現実空間110内の撮影デバイス112とユーザとの位置関係を算出することができる。また、現実・VR合成部302は、現実空間画像取得部301が受信したジャイロセンサ(角速度センサ)が測定した情報に基づいて、撮影デバイス112の向きを算出することができる。あるいは、現実・VR合成部302は、図1の位置追跡装置114(例えば、カメラなど)が取得した情報(例えば、撮影された画像)に基づいて、撮影デバイス112の向きを算出することができる。
現実・VR合成部302は、現実空間110内の撮影デバイス112とユーザとの位置関係と、現実・VR空間120内の仮想カメラ122とユーザとの位置関係と、が一致するように、現実・VR空間120内に仮想カメラ122を配置することができる。また、現実・VR合成部302は、撮影デバイス112の向きと仮想カメラ122の向きとが一致するように、現実・VR空間120内に仮想カメラ122を配置することができる。
また、現実・VR合成部302は、現実空間110内の撮影デバイス112とユーザとの位置関係と、VR空間130内の仮想カメラ122のモニタと視点131との位置関係と、が一致するように、VR空間130内に仮想カメラ122のモニタを配置することができる。また、現実・VR合成部302は、撮影デバイス112の向きと仮想カメラ122のモニタの向きとが一致するように、VR空間130内に仮想カメラ122のモニタを配置することができる。
<現実・VR合成画像の撮影>
現実・VR合成部302は、撮影デバイス112のボタンが押下されることに応答して、仮想カメラに撮影させることができる。具体的には、現実・VR合成部302は、撮影デバイス112から、仮想カメラに対して撮影するよう指示が与えられたという情報を受信することができる。また、現実・VR合成部302は、撮影の指示を受信した時にVR空間130内の仮想カメラ122のモニタに表示されている画像(つまり、現実・VR合成空間120内で、仮想カメラの位置を視点とし、その視点に投影される2次元画像)を取得して自撮り画像記憶部306に記憶することができる。
顔画像記憶部305は、HMD113を装着してないユーザの顔を1または複数の角度から撮影した画像を格納している。例えば、顔画像記憶部305に格納される顔の画像は、全方位(360度)から撮影された顔の画像である。ユーザの顔を全方位から撮影することによって、ユーザの顔が立体的に捉えられうる。顔の画像は、顔の特徴的な部分(鼻、口、耳、顎など)に特徴点を有している。
顔合成部303は、現実・VR合成空間120内で、現実空間110内のHMD113を装着しているユーザの顔の画像と、顔画像記憶部305に記憶されているHMD113を装着していないユーザ100の顔の画像と、を合成することができる。図4を参照しながら、顔合成部303について詳細に説明する。
図4は、本発明の一実施形態にかかる顔合成を説明するための図である。
画像aは、顔画像記憶部305に格納されているユーザの顔の実写の画像である。画像a内の星印で示されるように、ユーザの顔の実写の画像は、1または複数の特徴点を有している。特徴点は、ユーザの顔のなかで特徴的な部分(鼻、口、耳、顎などのHMD113に覆われる可能性が無い部分)の位置を示す。
画像bは、現実空間内のHMD113を装着しているユーザの顔の実写の画像である。つまり、画像bは、身体領域画像である。画像b内の星印で示されるように、身体領域画像は、1または複数の特徴点を有している。
画像cは、顔合成部303によって生成された画像である。顔合成部303は、画像a内の特徴点と画像b内の特徴点とが合うように画像aの顔を変形させて、画像cを生成することができる。なお、画像cは、顔の上半分(つまり、HMD113で覆われている部分)の画像であるが、顔全体の画像とすることもできる。
画像dは、顔合成部303によって生成された画像である。顔合成部303は、画像bに画像cを重畳して、画像dを生成することができる。
なお、本明細書では、現実・VR合成空間内120内のユーザの顔に、HMD113を装着していないユーザの顔を重畳する実施例を説明したが、仮想カメラ122が撮影した画像内のユーザの顔に、HMD113を装着していないユーザの顔を重畳するようにしてもよい。すなわち、仮想カメラ122は、現実・VR合成空間120内でHMD113を装着しているユーザを撮影する。そして、顔合成部303は、仮想カメラ122が撮影した画像内のユーザの顔に、HMD113を装着していないユーザの顔を重畳する。仮想カメラ122が撮影した画像内のユーザの顔にHMD113を装着していないユーザの顔を重畳する実施例でも、現実・VR合成空間内120内のユーザの顔にHMD113を装着していないユーザの顔を重畳する実施例と同様の自撮り画像140を取得することができる。
図3に戻る。自撮り画像記憶部306は、仮想カメラ122が撮影した自撮り画像を格納することができる。この自撮り画像は、VR空間内にいるユーザが自撮りで撮影されたかのような画像である。
自撮り画像送信部304は、撮影デバイス112またはその他のデバイスへ、自撮り画像記憶部306内の自撮り画像を送信することができる。具体的には、自撮り画像送信部304は、メールなどで自撮り画像を送信することができる。あるいは、自撮り画像送信部304は、撮影デバイス112またはその他のデバイスに自撮り画像をダウンロードさせることができる。
図5は、本発明の一実施形態にかかるVR空間における自撮りシステムの画像処理装置201における処理フローの一例を示すフローチャートである。
ステップ501で、画像処理装置201は、撮影デバイス112から、撮影デバイス112がリアルタイム処理で送信している現実空間110内の動画像、および、ジャイロセンサ(角速度センサ)および深度センサが測定した情報を受信する。
ステップ502で、画像処理装置201は、ステップ501で受信した現実空間110内の動画像と深度センサが測定した情報とに基づいて、ユーザの身体を表わす仮想的な立体物(身体領域画像)を生成する。
ステップ503で、画像処理装置201は、ステップ502で生成した身体領域画像を現実・VR合成空間120内に配置する。
ステップ504で、画像処理装置201は、現実空間110内でユーザが撮影デバイス112を持っている位置に相当する現実・VR空間120内での位置(つまり、身体領域画像の手)に、仮想カメラを配置する。また、画像処理装置201は、現実空間110内でユーザが撮影デバイス112を持っている位置に相当するVR空間130内での位置に、仮想カメラのモニタを配置する。画像処理装置201は、例えば、図1の位置追跡装置114(カメラなど)が測定した情報(撮影された画像など)やステップ501で受信したジャイロセンサ(角速度センサ)が測定した情報に基づいて、仮想カメラや仮想カメラのモニタを配置することができる。
ステップ505で、画像処理装置201は、ステップ504で配置した仮想カメラのモニタに、ステップ504で配置した仮想カメラが撮影しようとしている現実・VR空間120内の画像を表示させる。具体的には、画像処理装置201は、仮想カメラの位置を視点とし、その視点に投影される2次元画像を仮想カメラのモニタに表示させる。
ステップ506で、画像処理装置201は、仮想カメラで撮影する。具体的には、画像処理装置201は、撮影デバイス112から撮影の指示を受信した時に仮想カメラのモニタに表示されている画像(つまり、仮想カメラの位置を視点とし、その視点に投影される2次元画像)を取得してメモリに記憶する。
ステップ507で、画像処理装置201は、撮影デバイス112へ、ステップ507で仮想カメラが撮影した自撮り画像を送信する。
なお、上記のとおり、顔合成は、ステップ503で行なってもよいし、ステップ506後に行ってもよい。
なお、本明細書で説明した画像処理装置201の現実空間画像取得部301~自撮り画像記憶部306のうちの一部または全部を、撮影デバイス112またはHMD113の処理装置およびメモリが画像処理装置201の代わりに備えてもよい。また、撮影デバイス112は、専用のデバイスであってもよいし、あるいは、撮影デバイス112と同様の処理を実行可能なアプリケーションソフトがインストールされたスマートフォンなどのデバイスであってもよい。
このように、本発明では、ヘッドマウントディスプレイを装着してバーチャルリアリティを体験している者が、ヘッドマウントディスプレイを装着していない状態でバーチャルリアリティの空間内で自撮りで撮影したかのような自撮り画像を生成することができる。
ここまで、本発明の実施形態について説明したが、上記実施形態はあくまで一例であり、本発明は上述した実施形態に限定されず、その技術的思想の範囲内において種々異なる形態にて実施されてよいことは言うまでもない。
また、本発明の範囲は、図示され記載された例示的な実施形態に限定されるものではなく、本発明が目的とするものと均等な効果をもたらすすべての実施形態をも含む。さらに、本発明の範囲は、各請求項により画される発明の特徴の組み合わせに限定されるものではなく、すべての開示されたそれぞれの特徴のうち特定の特徴のあらゆる所望する組み合わせによって画されうる。
100 ユーザ
110 現実空間
111 HMD映像
112 撮影デバイス
113 HMD
114 位置追跡装置
120 現実・VR合成空間
121 現実・VR合成画像
122 仮想カメラ
130 VR空間
131 視点
140 自撮り画像
200 自撮りシステム
201 画像処理装置
301 現実空間画像取得部
302 現実・VR合成部
303 顔合成部
304 自撮り画像送信部
305 顔画像記憶部
306 自撮り画像記憶部

Claims (5)

  1. バーチャルリアリティ(VR)空間内に、ヘッドマウントディスプレイ(HMD)を装着しているユーザの現実空間内での身体を表わす身体領域画像を配置し、
    前記身体領域画像が配置された前記VR空間内の画像に、前記ユーザの前記HMDを装着していない顔の画像を重畳し、
    前記VR空間内に仮想カメラを配置し、
    前記仮想カメラのモニタに、前記仮想カメラの位置にある視点に投影される前記身体領域画像が配置された前記VR空間内の画像を表示し、
    前記仮想カメラに対する撮影の指示を受けたときに前記視点に投影されている前記身体領域画像が配置された前記VR空間内の画像を取得する
    ように構成されたプロセッサを備えた
    ことを特徴とする装置。
  2. 前記仮想カメラの動きは、前記ユーザの現実空間内での動きと連動している
    ことを特徴とする請求項に記載の装置。
  3. 前記身体領域画像は、前記HMDを装着している前記ユーザの現実空間内の動画像、および、前記動画像の奥行きを算出するための情報に基づいて生成される
    ことを特徴とする請求項1又は2に記載の装置。
  4. 装置によって実施される方法であって、
    バーチャルリアリティ(VR)空間内に、ヘッドマウントディスプレイ(HMD)を装着しているユーザの現実空間内での身体を表わす身体領域画像を配置するステップと、
    前記身体領域画像が配置された前記VR空間内の画像に、前記ユーザの前記HMDを装着していない顔の画像を重畳するステップと
    前記VR空間内に仮想カメラを配置するステップと、
    前記仮想カメラのモニタに、前記仮想カメラの位置にある視点に投影される前記身体領域画像が配置された前記VR空間内の画像を表示するステップと、
    前記仮想カメラに対する撮影の指示を受けたときに前記視点に投影されている前記身体領域画像が配置された前記VR空間内の画像を取得するステップと
    を含む
    ことを特徴とする方法。
  5. 請求項に記載の方法をコンピュータに実行させるためのプログラム。
JP2017254454A 2017-12-28 2017-12-28 Vr空間における自撮り装置、方法、およびプログラム Active JP7020115B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017254454A JP7020115B2 (ja) 2017-12-28 2017-12-28 Vr空間における自撮り装置、方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017254454A JP7020115B2 (ja) 2017-12-28 2017-12-28 Vr空間における自撮り装置、方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2019121074A JP2019121074A (ja) 2019-07-22
JP7020115B2 true JP7020115B2 (ja) 2022-02-16

Family

ID=67307302

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017254454A Active JP7020115B2 (ja) 2017-12-28 2017-12-28 Vr空間における自撮り装置、方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP7020115B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114900624B (zh) * 2022-04-25 2024-10-15 歌尔股份有限公司 拍摄校准方法、系统、设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004145448A (ja) 2002-10-22 2004-05-20 Toshiba Corp 端末装置、サーバ装置および画像加工方法
JP2009176025A (ja) 2008-01-24 2009-08-06 Panasonic Corp 仮想空間コミュニケーションシステムおよび仮想空間撮影方法
JP2016192688A (ja) 2015-03-31 2016-11-10 大和ハウス工業株式会社 映像表示システム及び映像表示方法
JP2017534096A (ja) 2014-08-04 2017-11-16 フェイスブック,インク. 仮想現実環境において遮られた顔部分を再構築する方法およびシステム
JP2019021236A (ja) 2017-07-21 2019-02-07 株式会社コロプラ 仮想空間を提供するコンピュータで実行されるプログラム、方法、および当該プログラムを実行する情報処理装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4975652B2 (ja) * 2008-01-24 2012-07-11 東芝テック株式会社 商品販売処理装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004145448A (ja) 2002-10-22 2004-05-20 Toshiba Corp 端末装置、サーバ装置および画像加工方法
JP2009176025A (ja) 2008-01-24 2009-08-06 Panasonic Corp 仮想空間コミュニケーションシステムおよび仮想空間撮影方法
JP2017534096A (ja) 2014-08-04 2017-11-16 フェイスブック,インク. 仮想現実環境において遮られた顔部分を再構築する方法およびシステム
JP2016192688A (ja) 2015-03-31 2016-11-10 大和ハウス工業株式会社 映像表示システム及び映像表示方法
JP2019021236A (ja) 2017-07-21 2019-02-07 株式会社コロプラ 仮想空間を提供するコンピュータで実行されるプログラム、方法、および当該プログラムを実行する情報処理装置

Also Published As

Publication number Publication date
JP2019121074A (ja) 2019-07-22

Similar Documents

Publication Publication Date Title
US11983830B2 (en) Systems and methods for generating and facilitating access to a personalized augmented rendering of a user
US7427996B2 (en) Image processing apparatus and image processing method
EP3096208B1 (en) Image processing for head mounted display devices
KR102574874B1 (ko) 헤드 마운트 디스플레이(hmd)를 이용한 화상회의를 위한 개선된 방법 및 시스템
JP6340017B2 (ja) 被写体と3次元仮想空間をリアルタイムに合成する撮影システム
KR102214827B1 (ko) 증강 현실 제공 장치 및 방법
CN105980962B (zh) 信息处理设备和信息处理方法
CN107636534A (zh) 一般球面捕获方法
US11184597B2 (en) Information processing device, image generation method, and head-mounted display
CN103513421A (zh) 影像处理装置、影像处理方法及影像处理系统
CN107844190B (zh) 基于虚拟现实vr设备的图像展示方法及装置
JP2004178554A (ja) 映像合成装置及び映像合成方法
JP2008210276A (ja) 三次元モデル情報の生成方法及び装置
CN111862348A (zh) 视频显示方法、视频生成方法、装置、设备及存储介质
JP7262973B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP7020115B2 (ja) Vr空間における自撮り装置、方法、およびプログラム
JP2021512402A (ja) マルチビューイング仮想現実ユーザインターフェース
JP6775669B2 (ja) 情報処理装置
JP2017046233A (ja) 表示装置及び情報処理装置及びその制御方法
KR102490402B1 (ko) 배신 유저의 움직임에 기초하여 생성되는 캐릭터 오브젝트의 애니메이션을 포함하는 동화상을 라이브 배신하는 동화상 배신 시스템, 동화상 배신 방법 및 동화상 배신 프로그램
JP2018198025A (ja) 画像処理装置、画像処理装置の制御方法及びプログラム
JP2019133276A (ja) 画像処理システム、端末
WO2020262391A1 (ja) 表示制御装置、表示制御方法、及びプログラム
JP6916896B2 (ja) 情報処理装置および画像生成方法
WO2018173206A1 (ja) 情報処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220117

R150 Certificate of patent or registration of utility model

Ref document number: 7020115

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150