JP6340017B2 - 被写体と3次元仮想空間をリアルタイムに合成する撮影システム - Google Patents

被写体と3次元仮想空間をリアルタイムに合成する撮影システム Download PDF

Info

Publication number
JP6340017B2
JP6340017B2 JP2015554864A JP2015554864A JP6340017B2 JP 6340017 B2 JP6340017 B2 JP 6340017B2 JP 2015554864 A JP2015554864 A JP 2015554864A JP 2015554864 A JP2015554864 A JP 2015554864A JP 6340017 B2 JP6340017 B2 JP 6340017B2
Authority
JP
Japan
Prior art keywords
camera
subject
image
virtual space
dimensional virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015554864A
Other languages
English (en)
Other versions
JPWO2015098807A1 (ja
Inventor
寿之 猪子
寿之 猪子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TEAM LAB Inc
Original Assignee
TEAM LAB Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TEAM LAB Inc filed Critical TEAM LAB Inc
Publication of JPWO2015098807A1 publication Critical patent/JPWO2015098807A1/ja
Application granted granted Critical
Publication of JP6340017B2 publication Critical patent/JP6340017B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Description

本発明は,カメラによって撮影された被写体の画像とコンピュータグラフィックスで描かれた3次元仮想空間とをリアルタイムに合成して出力する撮影システムに関する。
従来から,カメラを定位置に設置して被写体の画像(静止画及び動画を含む。以下同じ)を撮影し,この被写体の画像と3次元仮想空間を合成した合成画像を生成することが知られている(特許文献1)。例えば,このような合成画像の生成方法は,テレビ番組を制作する際などによく利用されている。
特開平11−261888号公報
ところで,従来の合成画像の生成方法は,予め決められた位置にカメラを設置し,カメラの位置を動かさずに被写体を撮影しなければ,被写体と3次元仮想空間の合成画像を作成することができなかった。すなわち,従来の合成画像の生成手法では,3次元仮想空間を特定するワールド座標系において,カメラ位置(視点)の位置を固定しておかなければ,カメラ座標系に基づく投影平面に合成画像をレンダリングすることができない。このため,従来の手法は,カメラ(視点)の位置を動かしてしまうと,移動後のカメラ座標を再度設定し直さなければ,被写体と3次元仮想空間とを適切に合成することができないものとなっていた。
しかしながら,カメラの位置が変わる度にカメラ座標系を設定し直す必要があると,被写体がカメラの撮影範囲を越えて活発に動くような場合に,その被写体をカメラで捉え続けることが難しくなる。従って,従来の方法では,合成画像を生成する際に,被写体の動きを制限する必要があった。また,カメラの位置が変わらないということは,3次元仮想空間内の背景の位置及び向きが全く変わらないということを意味する。このため,そのような3次元仮想空間に被写体の画像を合成しても,リアリティ(現実感)や没入感を得られないものとなっていた。
従って,本発明は,よりリアリティと没入感の高い合成画像を生成することのできる撮影システムを提供することを目的としている。具体的には,本発明は,カメラの位置と向きを変えて被写体を撮影し続けることができ,しかもカメラの向きに応じて3次元仮想空間の背景がリアルタイムに変化する合成画像の撮影システムを提供する。
本発明の発明者は,上記の従来発明の問題点を解決する手段について鋭意検討した結果,カメラの位置及び向きを検出するためのトラッカーを設け,このトラッカーによって検出したカメラの位置及び向きに応じて,3次元仮想空間のワールド座標系におけるカメラ座標系を特定することにより,被写体と3次元仮想空間画像の画像をリアルタイムに合成することができるようになるという知見を得た。そして,本発明者は,上記知見に基づけばよりリアリティと没入感の高い合成画像を生成可能であることに想到し,本発明を完成させた。具体的に説明すると,本発明は以下の構成を有する。
本発明は,被写体と3次元仮想空間の画像をリアルタイムに合成する撮影システムに関する。
本発明の撮影システムは,カメラ10と,トラッカー20と,空間画像記憶部30と,描画部40と,を備える。
カメラ10は,被写体を撮影するためのデバイスである。トラッカー20は,カメラ10の位置及び向きを検出するためのデバイスである。空間画像記憶部30は,3次元仮想空間の画像を記憶している。描画部40は,カメラ10によって撮影された被写体の画像と空間画像記憶部30に記憶されている3次元仮想空間の画像とを合成した合成画像を生成する。描画部40は,ワールド座標系(X,Y,Z)により特定される3次元仮想空間を,カメラのカメラ座標系(U,V,N)を基準としたスクリーン座標(U,V)に投影し,このスクリーン座標(U,V)により特定される画面(UV平面)において,3次元仮想空間と被写体の画像を合成する。
ここで,カメラ座標系U,V,Nは,トラッカー20によって検出されたカメラ10の位置及び向きに基づいて設定される
上記構成のように,トラッカー20によって常にカメラ10の位置及び向きを把握しておくことで,ワールド座標系(X,Y,Z)内においてカメラ座標系(U,V,N)がどのように変化したかを把握することできる。すなわち,「カメラ10の位置」は,3次元仮想空間を特定するためのワールド座標系におけるカメラ座標の原点に相当する。また,「カメラ10」の向きは,ワールド座標系におけるカメラ座標の各座標軸(U軸,V軸,N軸)の方向に相当する。このため,カメラの位置及び向きを把握することで,3次元仮想空間が存在するワールド座標系をカメラ座標系に視野変換(幾何学的変換)することができるようになる。従って,カメラの位置及び向きを把握し続けることで,カメラの向きが変わった場合でも,リアルタイムに被写体と3次元仮想空間の画像を合成できる。さらに,カメラの向き(カメラ座標系)に応じて,3次元仮想空間内の背景の向きも変わる。従って,実際に被写体が3次元仮想空間内に存在するかのようなリアリティ(現実感)のある合成画像をリアルタイムに生成することができる。
本発明の撮影システムは,さらに,モニタ50を備えることが好ましい。このモニタ50は,カメラ10によって撮影されている状態において,人である被写体が視認可能な位置に設置されている。この場合に,描画部40は,合成画像をモニタ50へと出力する。
上記構成のように,被撮影者が視認できる位置にモニタ50を設置しておき,このモニタ50によって被撮影者と3次元仮想空間の合成画像を表示することで,被撮影者は合成画像を確認しながら撮影を受けることができる。このため,被撮影者は自らが3次元仮想空間に存在しているかのような体験をすることができる。これにより,より没入感の高い撮影システムを提供することができる。
本発明の撮影システムは,さらに,モーションセンサ60と,コンテンツ記憶部70と,を備えることが好ましい。モーションセンサ60は,被写体(被撮影者)の動作を検出するためのデバイスである。コンテンツ記憶部70は,被写体の動作に関する情報に関連付けて,画像を含むコンテンツを記憶している。この場合に,描画部40は,モーションセンサ60によって検出された被写体の動作に関連付けられているコンテンツを,画面において,3次元仮想空間の画像と被写体の画像と共に合成して,これらの合成画像をモニタ50へと出力することが好ましい。
上記構成のように,モーションセンサ60によって被撮影者の動作を検出するようにすることで,被撮影者が特定のポーズを取ったときに,そのポーズに応じたコンテンツ画像を3次元仮想空間と被写体の画像にさらに合成することができるようになる。例えば,被写体が魔法を出すポーズを取ると,そのポーズに応じた魔法がエフェクト画像として表示される。従って,被撮影者に対して,アニメーションの世界に入り込んだような没入感を与えることができる。
本発明の撮影システムにおいて,描画部40は,カメラ10から被写体までの距離,及びカメラ10に対する被写体の角度の両方又はいずれか一方を求める演算を行うことが好ましい。例えば,描画部40は,トラッカー20により検出されたカメラ10の位置及び向きと,モーションセンサ60により特定された被写体の位置とに基づいて,カメラ10から被写体までの距離や角度を求めることができる。また,描画部40は,カメラ10によって撮影された被写体の画像を解析して,カメラ10から被写体までの距離や角度を求めることも可能である。また,描画部40は,トラッカー20とモーションセンサ60のいずれか一方を利用して,カメラ10から被写体までの距離や角度を求めることとしてもよい。
そして,描画部40は,上記の演算結果に応じて,コンテンツを変化させることが好ましい。例えば,描画部40は,コンテンツのサイズや,位置,向き,色,数,表示速度,表示時間,透明度などの各種の条件を変化させることができる。また,描画部40は,カメラ10から被写体までの距離や角度に応じて,コンテンツ記憶部70から読み出してモニタ50に表示するコンテンツの種類を変化させることとしてもよい。
上記構成のように,カメラ10から被写体までの距離や角度に応じてコンテンツを変化させることで,コンテンツをよりリアリティ高く表示することができる。例えば,カメラ10から被写体までの距離が遠い場合にはコンテンツを小さく表示したり,カメラ10から被写体までの距離が近い場合にはコンテンツを大きく表示することで,被写体とコンテンツのサイズを合わせることができる。また,カメラ10と被写体の距離が近い場合においてサイズの大きいコンテンツを表示するときには,そのコンテンツの透明度を高めて被写体が透けるように表示することで,被写体がコンテンツの裏に隠れてしまうことを防止できる。
本発明の撮影システムは,さらに,ミラー型ディスプレイ80を備えることとしてもよい。このミラー型ディスプレイ80は,カメラ10によって撮影されている状態において,人である被写体(被撮影者)が視認可能な位置に設置されている。
ミラー型ディスプレイ80は,画像を表示可能なディスプレイ81と,このディスプレイ81の表示面側に配置されたハーフミラー82を有する。ハーフミラー82は,ディプレイ81が表示した画像の光を透過すると共に,ディスプレイ81とは反対側から入射した光の一部又は全部を反射する。
上記構成のように,被撮影者が視認可能な位置にミラー型ディスプレイ80を配置しておき,このミラー型ディスプレイ80に画像を表示することで,臨場感や没入感を高めることができる。また,例えば,ミラー型ディスプレイ80に,コンテンツを表示するためのポーズの見本やダンスの見本などを表示することで,被撮影者は,それらの見本と自分のポーズやダンスとを見比べることができるため,効果的に練習を行うことができる。
本発明の撮影システムは,さらに,第2の描画部90を備えていてもよい。この第2の描画部90は,空間画像記憶部30に記憶されている3次元仮想空間の画像を,ミラー型ディスプレイ80のディスプレイ81に出力する。なお,ここでは便宜的に,描画部(第1の描画部)40と第2の描画部90とを区別しているが,両者は同じ装置によって構成されているものであってもよいし,異なる装置によって構成されていてもよい。
ここで,第2の描画部90は,ワールド座標系(X,Y,Z)により特定される3次元仮想空間を,カメラのカメラ座標系(U,V,N)を基準としたスクリーン座標(U,V)に投影する。このとき,カメラ座標系(U,V,N)は,トラッカー20によって検出されたカメラの位置及び向きに基づいて設定される。
上記構成のように,ディスプレイ81には,カメラ10によって撮影された被写体の画像は表示されないが,このカメラ10の位置及び向きに応じたカメラ座標系(U,V,N)を基準とした3次元仮想空間画像が表示される。このため,モニタ50に表示される3次元仮想空間画像とディスプレイ81に表示される3次元仮想空間画像をある程度一致させることができる。すなわち,ミラー型ディスプレイ80に表示される3次元仮想空間画像の背景も,現実のカメラ10の位置や向きに応じて変化させることができるため,より臨場感を高めることができる。
本発明の撮影システムにおいて,第2の描画部90は,モーションセンサ60によって検出された被写体の動作に関連付けられているコンテンツをコンテンツ記憶部70から読み出して,ディスプレイ81へと出力することとしてもよい。
上記構成のように,例えば被撮影者が特定のポーズをとったときに,そのポーズに応じたコンテンツをミラー型ディスプレイ80にも表示させる。これにより,被写体に対してより高い没入感を提供することができる。
本発明の撮影システムは,カメラの位置と向きを変えて被写体を撮影し続けることができ,しかもカメラの向きに応じて3次元仮想空間の背景がリアルタイムに変化させることができる。従って,本発明によれば,よりリアリティと没入感の高い合成画像を提供することができる。
図1は,本発明に係る撮影システムの概要を示している。図1は,撮影システムが備え付けられた撮影スタジオの例を模式的に示した斜視図である。 図2は,本発明に係る撮影システムの構成の例を示したブロック図である。 図3は,本発明における座標系の概念を示した模式図である。 図4は,本発明に係る撮影システムのモニタの表示例を示している。 図5は,撮影スタジオの機材配置例を示した平面図である。
以下,図面を用いて本発明を実施するための形態について説明する。本発明は,以下に説明する形態に限定されるものではなく,以下の形態から当業者が自明な範囲で適宜修正したものも含む。
図1は,本発明に係る撮影システム100が備え付けられた撮影スタジオの例を示している。また,図2は,本発明に係る撮影システム100のブロック図を示している。図1及び図2に示されるように,撮影システム100は,被写体の画像を撮影するためのカメラ10を備える。ここにいう「画像」は,静止画であってもよいし動画であってもよい。カメラ10は,静止画及び/又は動画を撮影可能な公知のものを用いればよい。本発明の撮影システムにおいて,カメラ10は被写体の撮影位置や撮影の向きを自由に変えることができる。このため,カメラ10の配置位置は固定されていなくてもよい。
また,図1に示されるように,被写体は人であることが好ましい。本願明細書では人である被写体を「被撮影者」と称している。被撮影者は,例えば撮影用のステージの上で撮影を受ける。ステージは,一般的にグリーンバックやブルーバックと呼ばれるような画像合成処理を行いやすい色とされていることが好ましい。
撮影システム100は,カメラ10の位置及び向きを検出するための複数のトラッカー20を備える。図1に示されるように,トラッカー20は,スタジオの上方であって,カメラ10を捕捉可能な位置に固定されている。複数台のトラッカー20のうち,少なくとも2台以上のトラッカー20がカメラ10の位置及び向きを常時捕捉していることが好ましい。本発明では,トラッカー20とカメラ10の相対的な位置関係によって,カメラ10の位置及び向きを把握する。このため,トラッカー20の位置が動いてしまうと,カメラ10の位置及び向きを適切に把握できない。このため,本発明では,トラッカー20の固定位置は不動であることが好ましい。
トラッカー20は,物体の動きや位置を検出する公知のデバイスを利用することができる。例えば,トラッカー20としては,光学式,磁気式,ビデオ式,機械式など,公知の方式のものを利用すればよい。光学式は,複数のレーザを対象物(カメラ)に照射しその反射光などを検出することで,対象物の位置及び動作を特定する方式である。光学式のトラッカー20は,対象物に取り付けられたマーカーからの反射光を検出することもできる。また,磁気式は,複数のマーカーを対象物に設置し,このマーカーの位置を磁気センサによって把握することで,対象物の位置及び動作を特定する方式である。また,ビデオ式は,ビデオカメラで撮影された対象物の映像を解析して,3Dモーションファイルとして取り込み対象物の動作を特定する方式である。機械式は,対象物にジャイロセンサや加速度センサを取り付けて,これらのセンサによる検出結果に基づき対象物の動作を特定する方式である。上記いずれの方式によっても,被写体を撮影するカメラの位置及び向きを把握することができる。本発明においては,カメラ10の位置を適切かつ高速に検出するために,カメラ10にマーカー11を取り付けておき,複数のトラッカー20によってこのマーカー11を追跡するようにすることが好ましい。
図2に示されるように,カメラ10は被写体(被撮影者)の画像を取得し,複数のトラッカー20はカメラ10の位置及び向きに関する情報を取得する。そして,カメラ10によって撮影された画像と,トラッカー20により検出されたカメラ10の位置及び向きの情報は,第1の描画部40へと入力される。
第1の描画部40は,基本的に,コンピュータグラフィックスによって生成された3次元仮想空間の画像に,カメラ10によって撮影された被写体の画像をリアルタイムに合成する描画処理を行う機能ブロックである。図2に示されるように,第1の描画部40は,PC(Personal Computer)などの制御装置110を構成するデバイスの一部により実現される。具体的には,第1の描画部40は,制御装置11が備えるCPU(Central Processing Unit)やGPU(Graphics Processing Unit)によって構成することができる。
第1の描画部40は,被写体の画像と合成するための3次元仮想空間の画像を,空間画像記憶部30から読み出す。空間画像記憶部30には,一種類又は複数種類の3次元仮想空間の画像が記憶されている。3次元仮想空間としては,屋外,室内,空,海,森,宇宙,ファンタジー世界などの多種多様な背景をコンピュータグラフィックスによって予め生成して,空間画像記憶部30に記憶しておくことができる。また,空間画像記憶部30には,これらの背景の他に,その3次元仮想空間内に存在する複数のオブジェクトが記憶されていてもよい。オブジェクトは,3次元空間内に配置されるキャラクタや,図形,建造物,自然物などの3次元画像であり,ポリゴンなどの公知のCG処理によって予め生成されて,空間画像記憶部30に記憶されている。図1には,星型のオブジェクトが例として示されている。
第1の描画部40は,空間画像記憶部30から3次元仮想空間の画像を読み出し,その3次元仮想空間を特定するためのワールド座標系(X,Y,Z)において,実際のカメラ10の位置及び向きを決定する。その際に,第1の描画部40は,複数のトラッカー20によって検出した実際のカメラ10の位置及び向きに関する情報を参照する。つまり,カメラ10は,固有のカメラ座標系(U,V,N)を有している。そこで,第1の描画部40は,トラッカー20によって検出した実際のカメラ10の位置及び向きに関する情報に基づいて,ワールド座標系(X,Y,Z)内にカメラ座標系(U,V,N)を設定する処理を行う。
具体的に説明すると,図3には,ワールド座標系(X,Y,Z)とカメラ座標系(U,V,N)の関係性が模式的に示されている。ワールド座標系は,直交するX軸,Y軸,及びZ軸を有する。ワールド座標系(X,Y,Z)は,3次元仮想空間内の座標点を特定するものである。3次元仮想空間内には,一又は複数のオブジェクト(例:星型のオブジェクト)が存在している。各オブジェクトは,ワールド座標系における固有の座標点(Xo,Yo,Zo)に配置されている。また,本発明のシステムには,複数のトラッカー20が備わっている。各トラッカー20が取り付けられている位置は既知であり,各トラッカー20の座標点は,ワールド座標系(X,Y,Z)によって特定されている。例えば,トラッカー20の座標点は,(X1,Y1,Z1)及び(X2,Y2,Z2)で表されている。
他方,カメラ10は固有のカメラ座標系(U,V,N)を有する。カメラ座標系(U,V,N)は,そのカメラ10から見た左右方向がU軸となり,上下方向がV軸となり,奥行方向がN軸となる。これらのU軸,V軸,及びN軸は直交している。また,カメラ10によって撮影される画面の2次元の範囲が,スクリーン座標系(U,V)となる。スクリーン座標系は,モニタやディスプレイなどの表示装置に表示される3次元仮想空間の範囲を示している。スクリーン座標系(U,V)は,カメラ座標系のU軸及びV軸に相当するものである。スクリーン座標系(U,V)は,カメラ10によって撮影された空間に対して,射影変換(透視変換)を適用した後の座標となる。
第1の描画部40は,ワールド座標系(X,Y,Z)により特定されている3次元仮想空間を,カメラ10のカメラ座標系(U,V,N)を基準としたスクリーン座標(U,V)に投影する。カメラ10は,ワールド座標系(X,Y,Z)における3次元仮想空間の一部を切り出して画面に表示するものである。このため,カメラ10の撮影範囲の空間は,前方クリップ面と後方クリップ面で区切られたビューボリューム(視錐台)と呼ばれる範囲となる。このビューボリューム内に属する空間が切り出されて,スクリーン座標(U,V)によって特定される画面に表示される。また,3次元仮想空間内にはオブジェクトが存在している。オブジェクトは,固有の奥行き値を有している。オブジェクトのワールド座標系における座標点(Xo,Yo,Zo)は,カメラ10のビューボリューム(撮影範囲)に入ったときに,カメラ座標系(U,V,N)に変換される。カメラ座標系(U,V,N)において,被写体の画像やオブジェクトの画像の平面座標(U,V)が重なった場合,その奥行き値(N)が手前の画像が画面に表示され,奥行き値(N)が奥の画像は隠面消去される。
また,第1の描画部40は,スクリーン座標(U,V)により特定される画面において,3次元仮想空間の画像と,カメラ10が実際に撮影した被写体(被撮影者)の画像とを合成する。ただし,その際に,図3に示されるように,ワールド座標系(X,Y,Z)において,カメラ座標系(U,V,N)の位置(原点)やその向きを特定する必要がある。そこで,本発明では,ワールド座標系(X,Y,Z)における既知の座標点を持つトラッカー20によってカメラ10の位置及び向きを検出し,トラッカー20とカメラ10の相対的な関係から,ワールド座標系(X,Y,Z)におけるカメラ10の位置及び向きを特定することとしている。
具体的に説明すると,複数のトラッカー20はそれぞれ,カメラ10の複数の測定点(例えばマーカー11)の位置を検出する。例えば,図2に示した例では,カメラ10に3つのマーカー11が取り付けられている。カメラ10にマーカー11を3つ以上(少なくとも2つ以上)取り付けることで,カメラ10の向きを把握しやすくなる。このようにカメラ10に取り付けられたマーカー11の位置を,複数のトラッカー20によって検出する。トラッカー20は,それぞれワールド座標系(X,Y,Z)における座標点を有しており,そのトラッカー20の座標点は既知である。このため,複数のトラッカー20によってカメラ10のマーカー11の位置を検出することで,例えば三角測量のような単純なアルゴリズムによって,各マーカー11のワールド座標系(X,Y,Z)における座標点を特定することができる。そして,各マーカー11のワールド座標系(X,Y,Z)における座標点が決定すれば,そのマーカー11の座標点に基づいて,カメラ10のワールド座標系(X,Y,Z)における座標点とその向きを特定することができる。カメラ10のワールド座標系(X,Y,Z)における座標点とその向きが決まれば,その座標点と向きに基づいて,カメラ座標系(U,V,N)を設定することができる。このようにして,トラッカー20により検出したカメラ10の位置及び向きの情報に基づいて,ワールド座標系(X,Y,Z)におけるカメラ座標系(U,V,N)の相対的な位置関係を特定することが可能となる。例えば,図3に示されるように,カメラ座標系(U,V,N)の原点の座標は,ワールド座標系(X,Y,Z)において,(Xc,Yc,Zc)となる。従って,トラッカー20によってカメラ10の位置及び向きを検出することにより,カメラ10の位置や向きが変化した場合であっても,ワールド座標系(X,Y,Z)におけるカメラ座標系(U,V,N)をリアルタイムに把握し続けることができる。
このように,第1の描画部40は,ワールド座標系で定義されている3次元仮想空間を,カメラ座標系へと視野変換(幾何学的変換)する。ワールド座標系上で定義された3次元仮想空間の中で,カメラ10の位置が変化するということは,ワールド座標系に対するカメラ座標系の位置が変化することを意味する。このため,第1の描画部40は,トラッカー20によって特定されるカメラ10の向きが変わる度に,ワールド座標系からカメラ座標系への視野変換処理を行う。
そして,第1の描画部40は,上記のようにしてワールド座標系(X,Y,Z)とカメラ座標系(U,V,N)の相対的な位置関係を求めることで,最終的には,スクリーン座標(U,V)により特定される2次元の画面において,3次元仮想空間の画像とカメラ10によって撮影された被写体の画像を合成することができる。つまり,カメラ10のビューボリューム内に被写体(被撮影者)が属していると,その被写体の一部又は全部が画面に表示される。また,カメラ10のビューボリューム内に映り込む三次元仮想空間の背景画像やオブジェクト画像が画面に表示される。これにより,画像合成を行うことで,3次元仮想空間の背景の中に被写体が存在している画像を得ることができる。また,画像合成の際に,カメラ座標系(U,V,N)において,3次元仮想空間に存在するオブジェクトが被写体の画像よりも前側に存在する場合には,被写体の画像の一部又は全部を隠面消去する。また,被写体がオブジェクトの前に存在する場合には,オブジェクトの一部又は全部を隠面消去する。
図4には,本発明の撮影システム100により生成される合成画像の一例が示されている。例えば,図4に示されるように,被写体が撮影用のステージ内を動き回るような場合において,この被写体をカメラ10の撮影範囲内に捉え続けるためには,このカメラ10の位置も被写体の動きに合わせて移動させる必要がある。このとき,被写体の3次元仮想空間の画像をリアルタイムに合成して表示しようとする場合に,カメラ10の位置や向きに応じて3次元仮想空間の背景画像が変化しなければ,非常に不自然な合成画像(映像)となってしまう。そこで,本発明では,上述したとおり,複数のトラッカー20によってカメラ10の位置及び向きを常に検出し続けて,そのカメラ10の位置及び向きに応じて,合成する3次元仮想空間の背景画像を変化させる。これにより,カメラ10の位置及び向きに応じて背景画像を変化させながら,リアルタイムに被写体の撮影画像との合成することができる。従って,あたかも被写体が3次元仮想空間内に入り込んだかのような没入感の高い合成画像を得ることができる。
図2に示されるように,第1の描画部40は,上記のように生成した合成画像を,モニタ50に出力する。モニタ50は,図1に示されるように,カメラ10によって撮影されている状態の被写体(被撮影者)が視認可能な位置に配置される。モニタ50は,第1の描画部40によって生成された合成画像をリアルタイムに表示する。このため,被写体は,ステージの上を動きまわりながらモニタ50を確認することで,自分が三次元仮想空間に入り込んだかのような体験をすることができる。本発明では,被写体を追従するようにカメラ10を動かすことができ,このカメラ10の位置や向きによって合成画像の背景が移り変わっていく。従って,より臨場感を高めることができる。また,被写体はモニタ50を確認することで,どのような合成画像が生成されているかをすぐに確認することができる。
また,図2に示されるように,第1の描画部40は,合成画像をメモリ31に出力することもできる。メモリ31は,合成画像を記憶するための記憶装置であり,例えば制御装置110から取り外すことのできる外部記憶装置であってもよい。また,メモリ31は,CRやDVDなどのような情報記憶媒体であってもよい。これにより,メモリ31に合成画像を記憶しておくことができ,また,このメモリ31を被撮影者に受け渡すこともできる。
図2に示されるように,撮影システム100は,さらに,モーションセンサ60とコンテンツ記憶部70を有していてもよい。モーションセンサ60は,被写体(被撮影者)の動作を検出するためのデバイスである。図1に示されるように,モーションセンサ60は被撮影者の動作を特定可能な位置に設置される。モーションセンサ60としては,例えば,光学式,磁気式,ビデオ式,機械式など,公知の方式のものを利用すればよい。モーションセンサ60とトラッカー20は,物体の動作を検出する方式が同一であってもよいし異なっていてもよい。また,コンテンツ記憶部70は,被撮影者の動作に関する情報に関連付けて,画像を含むコンテンツを記憶している。コンテンツ記憶部70に記憶されているコンテンツは,静止画や動画であってもよいし,ポリゴン画像であってもよい。また,コンテンツは,音楽や音声などの音に関する情報であってもよい。コンテンツ記憶部70には,複数のコンテンツが記憶されおり,それぞれのコンテンツが被撮影者の動作に関する情報と関連付けられている。
図2に示されるように,被撮影者が特定の動作(ポーズ)を行うと,モーションセンサ60が被撮影者の動作を検出し,その検出した動作情報を第1の描画部40に伝達する。第1の描画部40は,動作情報を受けると,その動作情報に基づいてコンテンツ記憶部70を検索する。これにより,第1の描画部40は,コンテンツ記憶部70から動作情報に関連付けられている特定のコンテンツを読み出す。そして,第1の描画部40は,コンテンツ記憶部70から読み出したコンテンツを,カメラ10によって撮影された被撮影者の画像と,3次元仮想空間の画像と共に合成し,これらの合成画像を生成する。第1の描画部40によって生成された合成画像は,モニタ50やメモリ31に出力される。これにより,被撮影者の動作に応じて,その動作に応じたコンテンツをリアルタイムにモニタ50に表示することができる。例えば,被撮影者が呪文を唱えるようなポーズをとったときには,その呪文に応じた魔法のエフェクト画像が3次元仮想空間上に描画されるようになる。これにより,被撮影者は,あたかも魔法が使える世界(3次元仮想空間)に入り込んだような没入感を得ることができる。
また,第1の描画部40は,カメラ10から被撮影者までの距離や,カメラ10に対する被撮影者の角度を求める演算を行って,求めた距離や角度などの演算結果に基づいて,コンテンツを変化させる処理を行ってもよい。例えば,第1の描画部40は,トラッカー20により検出されたカメラ10の位置及び向きと,モーションセンサ60により特定された被撮影者の位置及び向きに基づいて,カメラ10から被撮影者までの距離や角度を求めることができる。また,第1の描画部40は,カメラ10によって撮影された被撮影者の画像を解析して,カメラ10から被写体までの距離や角度を求めることも可能である。また,描画部40は,トラッカー20とモーションセンサ60のいずれか一方を利用して,カメラ10から被写体までの距離や角度を求めることとしてもよい。その後,第1の描画部40は,上記の演算結果に応じて,コンテンツを変化させる。例えば,第1の描画部40は,コンテンツのサイズや,位置,向き,色,数,表示速度,表示時間,透明度などの各種の条件を変化させることができる。また,第1の描画部40は,カメラ10から被写体までの距離や角度に応じて,コンテンツ記憶部70から読み出してモニタ50に表示するコンテンツの種類を変化させることもできる。
上記のように,カメラ10から被撮影者までの距離や角度に合わせて,コンテンツの表示条件を調整することで,コンテンツをよりリアリティ高く表示することができる。例えば,カメラ10から被撮影者までの距離が遠い場合にはコンテンツを小さく表示したり,カメラ10から被撮影者までの距離が近い場合にはコンテンツを大きく表示することで,被撮影者とコンテンツのサイズを合わせることができる。また,カメラ10と被撮影者の距離が近い場合においてサイズの大きいコンテンツを表示するときには,そのコンテンツの透明度を高めて被写体が透けるように表示することで,被写体がコンテンツの裏に隠れてしまうことを防止できる。また,例えば,被撮影者の手の位置をカメラ10やモーションセンサ60によって認識し,その手の位置に合わせてコンテンツを表示することも可能である。
図1に示されるように,撮影システム100は,さらにミラー型ディスプレイ80を備えていることが好ましい。ミラー型ディスプレイ80は,カメラ10によって撮影されている状態において,被撮影者が視認可能な位置に設置されている。より具体的には,ミラー型ディスプレイ80は,被撮影者の鏡像を被撮影者に視認させることが可能な位置に配置される。
図1及び図2に示されるように,ミラー型ディスプレイ80は,画像を表示可能なディスプレイ81と,このディスプレイ81の表示面側に配置されたハーフミラー82によって構成されている。ハーフミラー82は,ディスプレイ81が表示した画像の光を透過すると共に,このディスプレイ81とは反対側から入射した光を反射するものである。このため,被撮影者は,ミラー型ディスプレイ80の前面に立つと,ディスプレイ81によって表示される画像と,ハーフミラー82によって反射された自らの鏡像とを同時に視認することとなる。このため,ディスプレイ81によって,ダンスやポーズの見本映像を表示することで,被撮影者は,ハーフミラー82によって映しだされる自分の姿と見比べながらダンスやポーズの練習を行うことができるようになる。また,モーションセンサ60を利用して,被撮影者の動作(ポーズやダンス)を検出し,その動作の採点を行うこともできる。例えば,制御装置110は,モーションセンサ60によって検出した被撮影者の動作を解析し,見本となるポーズやダンスとの一致度を求める演算を行う。これにより,被撮影者のポーズやダンスがどの程度上達したかを,数値として表すことができる。
また,図2に示されるように,撮影システム100は,ミラー型ディスプレイ80のディスプレイ81に表示する画像を生成するための第2の描画部90を有していてもよい。図2に示した例において,第2の描画部90は,ディスプレイ81に表示する画像を生成するものであるのに対し,第1の描画部40は,モニタ50に表示する画像を生成するものである。このため,第1の描画部40と第2の描画部90は異なる機能を持つものであるため,図2では別々の機能ブロックとして示している。ただし,第1の描画部40と第2の描画部90は,同一のデバイス(CPUやGPU)によって構成されていてもよい。また,第1の描画部40と第2の描画部90は,別々のデバイスによって構成されていてもよい。
第2の描画部90は,基本的に,空間画像記憶部30から3次元仮想空間の画像(背景及びオブジェクト)を読み出して,ディスプレイ81に表示させる。このとき,第2の描画部90がディスプレイ81に表示させる3次元仮想空間の画像は,第1の描画部40がモニタ50に表示させる3次元仮想空間の画像と同じ種類のものであることが好ましい。これにより,モニタ50とディスプレイ81を同時に視認する被撮影者は,同じ3次元仮想空間を見ることとなるため,より没入感を得ることができる。特に,図1に示されるように,ディスプレイ81の前面には,ハーフミラー82が設置されており,被撮影者は,ハーフミラー82に映り込む自分の姿が,あたかもディスプレイ81に表示されている3次元仮想空間に入り込んでいるかのような体験をすることができる。これにより,モニタ50とディスプレイ81に同じ3次元空間の画像を表示することで,より大きな臨場感を被撮影者に与えることができる。
また,図1に示されるように,ディスプレイ81には,カメラ10によって撮影された被撮影者の画像は表示されないことが好ましい。つまり,ディスプレイ81の前面には,ハーフミラー82が設置されているため,被撮影者はこのハーフミラー82に映る自分の姿を見ることができる。もし,ディスプレイ81にカメラ10による撮影画像を表示すると,被撮影者の画像と鏡像が重なって見えてしまい,却って臨場感を損なうこととなる。なお,上述したとおり,カメラ10によって撮影された被撮影者の画像はモニタ50に表示されているため,被撮影者はどのような合成画像が生成されているかを十分に確認することができる。
また,第2の描画部90は,ワールド座標系(X,Y,Z)により特定される3次元仮想空間を,カメラ10のカメラ座標系(U,V,N)を基準としたスクリーン座標(U,V)に投影したうえで,スクリーン座標(U,V)によって特定される3次元仮想空間の画像を,ディスプレイ81に出力することが好ましい。このとき,カメラ10のカメラ座標系(U,V,N)は,トラッカー20によって検出されたカメラ10の位置及び向きに基づいて設定される。つまり,第2の描画部90は,カメラ10によって撮影されている範囲の3次元仮想空間の画像を,ディスプレイ81に表示することとなる。
図2に示されるように,各トラッカー20による検出情報は,第1の描画部40に伝達され,第1の描画部40はこの検出情報に基づいて,ワールド座標系(X,Y,Z)におけるカメラ10のカメラ座標系(U,V,N)を設定している。そこで,第1の描画部40は,このワールド座標系(X,Y,Z)におけるカメラ座標系(U,V,N)の位置に関する情報を,第2の描画部90へと送出する。そして,第2の描画部90は,このワールド座標系(X,Y,Z)におけるカメラ座標系(U,V,N)の位置に関する情報基づいて,ディスプレイ81に出力する3次元仮想空間の画像を生成する。これにより,モニタ50とディスプレイ81には,同じ3次元仮想空間の画像が表示されることとなる。上述したとおり,カメラ10の視点位置が変わると,モニタ50に表示される3次元仮想空間の画像が変化する。同様の現象を,ディスプレイ81においても実現させることができる。つまり,カメラ10の視点位置が移動すると,その移動に伴って,ディスプレイ81に表示される3次元仮想空間の画像が変化する。このように,ミラー型ディスプレイ80のディスプレイ81の画像をも変化させることで,被撮影者に対してより臨場感の高い体験を提供することができる。
また,図2に示されるように,第2の描画部90は,第1の描画部40と同様に,モーションセンサ60によって検出した被撮影者の動作に関連するコンテンツをコンテンツ記憶部70から読み出して,ディスプレイ81に出力することとしてもよい。これにより,モニタ50だけでなく,ミラー型ディスプレイ80のディスプレイ81にも,被撮影者の動作に関連するエフェクト画像などのコンテンツを表示することができる。
図5は,本発明の撮影システム100を構成する機材の配置例を示した平面図である。図5のように,撮影スタジオを構築して,そのスタジオ内に撮影システム100を構成する機材を配置することが好ましい。ただし,図5は機材の配置の一例を示すものに過ぎず,本発明の撮影システム100は図示されたものに限定されない。
以上,本願明細書では,本発明の内容を表現するために,図面を参照しながら本発明の実施形態の説明を行った。ただし,本発明は,上記実施形態に限定されるものではなく,本願明細書に記載された事項に基づいて当業者が自明な変更形態や改良形態を包含するものである。
本発明は,被写体と3次元仮想空間をリアルタイムに合成する撮影システムに関する。本発明の撮影システムは,例えば写真や動画を撮影するスタジオにおいて,好適に利用することができる。
10…カメラ 11…マーカー
20…トラッカー 30…空間画像記憶部
31…メモリ 40…第1の描画部
50…モニタ 60…モーションセンサ
70…コンテンツ記憶部 80…ミラー型ディスプレイ
81…ディスプレイ 82…ハーフミラー
90…第2の描画部 100…撮影システム
110…制御装置

Claims (7)

  1. 被写体を撮影するカメラ(10)と,
    前記カメラ(10)に取り付けられたマーカー(11)と,
    前記マーカー(11)を追跡することで前記カメラ(10)の位置及び向きを検出するためのトラッカー(20)と,
    3次元仮想空間の画像を記憶した空間画像記憶部(30)と,
    前記カメラ(10)によって撮影された被写体の画像と前記空間画像記憶部(30)に記憶されている3次元仮想空間の画像とを合成した合成画像を生成する描画部(40)と,を備え,
    前記描画部(40)は,
    ワールド座標系(X,Y,Z)により特定される前記3次元仮想空間を,前記カメラ(10)のカメラ座標系(U,V,N)を基準としたスクリーン座標(U,V)に投影し,
    前記スクリーン座標(U,V)により特定される画面において,前記3次元仮想空間と前記被写体の画像を合成するものであり,
    前記カメラ座標系(U,V,N)は,前記トラッカー(20)によって検出された前記カメラ(10)の位置及び向きに基づいて設定される
    撮影システム。
  2. 前記カメラ(10)によって撮影されている状態において人である被写体が視認可能な位置に設置されたモニタ(50)を,さらに備え,
    前記描画部(40)は,前記合成画像を前記モニタ(50)へと出力する
    請求項1に記載の撮影システム。
  3. 前記被写体の動作を検出するためのモーションセンサ(60)と,
    前記被写体の動作に関する情報に関連付けて,画像を含むコンテンツを記憶したコンテンツ記憶部(70)と,をさらに備え,
    前記描画部(40)は,
    前記モーションセンサ(60)によって検出された被写体の動作に関連付けられているコンテンツを,前記画面において,前記3次元仮想空間の画像と前記被写体の画像と共に合成して,これらの合成画像を前記モニタ(50)へと出力する
    請求項2に記載の撮影システム。
  4. 前記描画部(40)は,前記カメラ(10)から前記被写体までの距離,及び前記カメラ(10)に対する前記被写体の角度の両方又はいずれか一方を求める演算を行い,当該演算結果に応じて前記コンテンツを変化させる
    請求項3に記載の撮影システム。
  5. 前記カメラ(10)によって撮影されている状態において人である被写体が視認可能な位置に設置されたミラー型ディスプレイ80を,さらに備え
    前記ミラー型ディスプレイ80は,
    画像を表示可能なディスプレイ(81)と,
    前記ディスプレイ(81)の表示面側に配置され,前記ディプレイ(81)が表示した画像の光を透過すると共に,前記ディスプレイ(81)とは反対側から入射した光を反射するハーフミラー(82)と,を有する
    請求項1から請求項3のいずれかに記載の撮影システム。
  6. 前記空間画像記憶部(30)に記憶されている3次元仮想空間の画像を前記ディスプレイ(81)に出力する第2の描画部(90)をさらに備え,
    前記第2の描画部(90)は,
    ワールド座標系(X,Y,Z)により特定される前記3次元仮想空間を,前記カメラ(10)のカメラ座標系(U,V,N)を基準としたスクリーン座標(U,V)に投影するものであり,
    前記カメラ座標系(U,V,N)は,前記トラッカー(20)によって検出された前記カメラ(10)の位置及び向きに基づいて設定される
    請求項5に記載の撮影システム。
  7. 前記第2の描画部(90)は,
    前記モーションセンサ(60)によって検出された被写体の動作に関連付けられているコンテンツを前記コンテンツ記憶部(70)から読み出して,前記ディスプレイ(81)へと出力する
    請求項5又は請求項6に記載の撮影システム。
JP2015554864A 2013-12-24 2014-12-22 被写体と3次元仮想空間をリアルタイムに合成する撮影システム Active JP6340017B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013264925 2013-12-24
JP2013264925 2013-12-24
PCT/JP2014/083853 WO2015098807A1 (ja) 2013-12-24 2014-12-22 被写体と3次元仮想空間をリアルタイムに合成する撮影システム

Publications (2)

Publication Number Publication Date
JPWO2015098807A1 JPWO2015098807A1 (ja) 2017-03-23
JP6340017B2 true JP6340017B2 (ja) 2018-06-06

Family

ID=53478661

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015554864A Active JP6340017B2 (ja) 2013-12-24 2014-12-22 被写体と3次元仮想空間をリアルタイムに合成する撮影システム

Country Status (3)

Country Link
US (1) US20160343166A1 (ja)
JP (1) JP6340017B2 (ja)
WO (1) WO2015098807A1 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10129530B2 (en) 2015-09-25 2018-11-13 Intel Corporation Video feature tagging
KR101697286B1 (ko) * 2015-11-09 2017-01-18 경북대학교 산학협력단 사용자 스타일링을 위한 증강현실 제공 장치 및 방법
EP3479352A4 (en) * 2016-06-29 2020-01-08 Seeing Machines Limited CAMERA REGISTRATION IN A MULTI-CAMERA SYSTEM
JP6902881B2 (ja) * 2017-02-17 2021-07-14 キヤノン株式会社 情報処理装置及び三次元モデルの生成方法
EP3642692B1 (en) * 2017-06-30 2021-10-13 Huawei Technologies Co., Ltd. System and method for interacting with a user via a mirror
GB201714349D0 (en) * 2017-09-06 2017-10-18 Xyz Reality Ltd A method and equipment for setting out a construction site
US10839577B2 (en) 2017-09-08 2020-11-17 Apple Inc. Creating augmented reality self-portraits using machine learning
US11394898B2 (en) * 2017-09-08 2022-07-19 Apple Inc. Augmented reality self-portraits
US11161042B2 (en) * 2017-09-22 2021-11-02 Square Enix Co., Ltd. Video game for changing model based on adjacency condition
US10497182B2 (en) * 2017-10-03 2019-12-03 Blueprint Reality Inc. Mixed reality cinematography using remote activity stations
JP6973785B2 (ja) * 2017-10-16 2021-12-01 チームラボ株式会社 照明演出システム及び照明演出方法
US10740958B2 (en) * 2017-12-06 2020-08-11 ARWall, Inc. Augmented reality background for use in live-action motion picture filming
JP2019133504A (ja) * 2018-02-01 2019-08-08 トヨタ自動車株式会社 配車サービス連携探索支援システム
US11132838B2 (en) 2018-11-06 2021-09-28 Lucasfilm Entertainment Company Ltd. LLC Immersive content production system
JP7027300B2 (ja) * 2018-12-14 2022-03-01 ヤフー株式会社 情報処理装置、情報処理方法および情報処理プログラム
WO2020235979A1 (ko) * 2019-05-23 2020-11-26 삼성전자 주식회사 포인트 클라우드 기반 데이터를 렌더링하는 방법 및 장치
CN110505463A (zh) * 2019-08-23 2019-11-26 上海亦我信息技术有限公司 基于拍照的实时自动3d建模方法
JP7223449B2 (ja) * 2019-08-23 2023-02-16 上海亦我信息技術有限公司 撮影に基づく3dモデリングシステム
US11887251B2 (en) 2021-04-23 2024-01-30 Lucasfilm Entertainment Company Ltd. System and techniques for patch color correction for an immersive content production system
CN115802165B (zh) * 2023-02-10 2023-05-12 成都索贝数码科技股份有限公司 一种应用于异地同场景直播连线的镜头移动拍摄方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004145448A (ja) * 2002-10-22 2004-05-20 Toshiba Corp 端末装置、サーバ装置および画像加工方法
JP4434890B2 (ja) * 2004-09-06 2010-03-17 キヤノン株式会社 画像合成方法及び装置
US20070248283A1 (en) * 2006-04-21 2007-10-25 Mack Newton E Method and apparatus for a wide area virtual scene preview system
JP2008271338A (ja) * 2007-04-23 2008-11-06 Bandai Co Ltd 動画記録方法、及び動画記録システム
WO2009153975A1 (ja) * 2008-06-18 2009-12-23 パナソニック株式会社 電子ミラー装置
US8970690B2 (en) * 2009-02-13 2015-03-03 Metaio Gmbh Methods and systems for determining the pose of a camera with respect to at least one object of a real environment
JP2011035638A (ja) * 2009-07-31 2011-02-17 Toppan Printing Co Ltd 仮想現実空間映像制作システム
KR101601805B1 (ko) * 2011-11-14 2016-03-11 한국전자통신연구원 스토리 기반 가상 체험 학습을 위한 혼합 현실 콘텐츠 제공 장치 및 방법
US9325943B2 (en) * 2013-02-20 2016-04-26 Microsoft Technology Licensing, Llc Providing a tele-immersive experience using a mirror metaphor

Also Published As

Publication number Publication date
WO2015098807A1 (ja) 2015-07-02
US20160343166A1 (en) 2016-11-24
JPWO2015098807A1 (ja) 2017-03-23

Similar Documents

Publication Publication Date Title
JP6340017B2 (ja) 被写体と3次元仮想空間をリアルタイムに合成する撮影システム
JP7068562B2 (ja) 拡張現実データを記録するための手法
CN109791442B (zh) 表面建模系统和方法
US11423626B2 (en) Mixed reality system with multi-source virtual content compositing and method of generating virtual content using same
US11010958B2 (en) Method and system for generating an image of a subject in a scene
JP4804256B2 (ja) 情報処理方法
JP5791433B2 (ja) 情報処理プログラム、情報処理システム、情報処理装置および情報処理方法
US10755486B2 (en) Occlusion using pre-generated 3D models for augmented reality
JP2014238731A (ja) 画像処理装置、画像処理システム、および画像処理方法
JP2007042055A (ja) 画像処理方法、画像処理装置
JP2013521544A (ja) 拡張現実のポインティング装置
JP2013003848A (ja) 仮想物体表示装置
CN110956695B (zh) 信息处理装置、信息处理方法和存储介质
Avery et al. User evaluation of see-through vision for mobile outdoor augmented reality
CA3155612A1 (en) Method and system for providing at least a portion of content having six degrees of freedom motion
JP2020067960A (ja) 画像処理装置、画像処理方法、及びプログラム
US11961190B2 (en) Content distribution system, content distribution method, and content distribution program
TWI794512B (zh) 用於擴增實境之系統及設備及用於使用一即時顯示器實現拍攝之方法
Hamadouche Augmented reality X-ray vision on optical see-through head mounted displays
JP2023163060A (ja) 画像処理プログラム、画像処理装置、及び画像処理方法
JP2005165973A (ja) 画像処理方法、画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170627

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180511

R150 Certificate of patent or registration of utility model

Ref document number: 6340017

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250