JP2023183684A - 表示システムおよび撮像装置 - Google Patents

表示システムおよび撮像装置 Download PDF

Info

Publication number
JP2023183684A
JP2023183684A JP2022097330A JP2022097330A JP2023183684A JP 2023183684 A JP2023183684 A JP 2023183684A JP 2022097330 A JP2022097330 A JP 2022097330A JP 2022097330 A JP2022097330 A JP 2022097330A JP 2023183684 A JP2023183684 A JP 2023183684A
Authority
JP
Japan
Prior art keywords
frame
image
video
real space
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022097330A
Other languages
English (en)
Inventor
俊介 池西
Shunsuke Ikenishi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022097330A priority Critical patent/JP2023183684A/ja
Priority to US18/334,064 priority patent/US20230410444A1/en
Priority to CN202310702367.7A priority patent/CN117255187A/zh
Publication of JP2023183684A publication Critical patent/JP2023183684A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】撮像装置は現実空間の映像の遅延量が小さい複合現実空間の映像を表示し、表示装置は現実空間の映像と仮想空間の映像の遅延量が一致した複合現実空間の映像を表示できるようにする。【解決手段】撮像装置は、現実空間の映像のうちの第1のフレームに基づく撮像装置の位置姿勢を基に、第1の仮想空間の映像のうちの第1のフレームを生成し、現実空間の映像のうちの第1のフレームとは異なるフレームと、第1の仮想空間の映像のうちの第1のフレームとを合成する。表示装置は、現実空間の映像のうちの第1のフレームに基づく撮像装置の位置姿勢を基に、第2の仮想空間の映像のうちの第1のフレームを生成し、現実空間の映像のうちの第1のフレームと、第2の仮想空間の映像のうちの第1のフレームとを合成する。【選択図】図5

Description

本開示は、表示システム、撮像装置、表示システムの処理方法および撮像装置の処理方法に関する。
近年、現実世界と仮想世界とをリアルタイムかつシームレスに融合させる技術として、複合現実(MR:Mixed Reality)システムがある。複合現実システムによれば、オブジェクトをCG(コンピュータグラフィックス)映像として現実世界に重畳表示できる。そして、自由な視点から確認することができる。
複合現実システムでは、映像表示装置のひとつとして、ビデオカメラ等の撮像装置とディスプレイとが一体化された頭部装着型ディスプレイ(以後、HMD:ヘッドマウントディスプレイと表記)が用いられる。HMDの一形態として、ビデオシースルー方式がある。これは、HMDに搭載された撮像装置が撮像した現実空間の画像上に、HMDの位置姿勢に応じて生成した仮想空間の画像を重畳して表示する方式である。仮想空間の画像の例としては、例えば、CG(Computer Graphics)により描画された仮想物体や文字情報等がある。
製造業の設計工程では、多人数が参加したレビューがしばしば開催される。複合現実システムを用いたレビューでは、多人数が複合現実空間(仮想空間と現実空間とを合成した空間)を体験するために、HMDに加えて、タブレットなどの手持ち型情報端末を組み合わせてシステムが構成される。このシステムは、HMDの装着者が見ている複合現実空間の映像を、他のHMDや、複数のタブレット画面にも同時に配信して表示する。これにより、HMDの装着者の視界を複数人が同時に共有し、設計と検討に参加できる。
仮想空間の画像の生成においては、HMDの位置姿勢の算出、その位置姿勢に応じたCGのレンダリング等により、現在のHMDの位置姿勢を反映した画像を表示するまで遅延が生じてしまう。MRにおいて遅延が大きいと、ユーザは自身の動作と表示がずれていることによる違和感を感じ、酔いを引き起こす要因となってしまう。そのため、仮想空間の画像の遅延量と異なることになっても、現実空間の画像は、可能な限り、遅延を少ない状態で表示することがある。
特許文献1には、仮想空間の画像を生成後にHMDの位置姿勢を再取得し、仮想空間の画像生成時に用いた位置姿勢との差分に応じて生成した仮想空間の画像をずらして表示することで、仮想空間の画像の遅延を小さく見せる技術が開示されている。
特開2008-299669号公報
しかしながら、HMDの装着者が見ている複合現実空間の映像を配信して表示している場合、その映像の共有先では、共有している映像の動きは、視聴者自身の動作を反映しているわけではない。したがって、HMDの装着者の動作が反映されるまでの遅延に対する違和感は小さく、現実空間の映像と仮想空間の映像の遅延が異なることによる違和感の方が大きく感じてしまう。
本開示の目的は、撮像装置は現実空間の映像の遅延量が小さい複合現実空間の映像を表示し、表示装置は現実空間の映像と仮想空間の映像の遅延量が一致した複合現実空間の映像を表示できるようにすることである。
表示システムは、撮像装置と、表示装置とを有する表示システムであって、前記撮像装置は、現実空間の映像を撮像する撮像手段と、前記現実空間の映像を基に、前記撮像装置の位置姿勢を算出する第1の位置姿勢算出手段と、前記撮像装置の位置姿勢を基に、第1の仮想空間の映像を生成する第1の生成手段と、前記撮像手段により撮像された現実空間の映像と、前記第1の仮想空間の映像とを合成することにより、第1の複合現実空間の映像を生成し、前記第1の複合現実空間の映像を表示する第1の映像合成手段と、少なくとも前記撮像手段により撮像された現実空間の映像を前記表示装置に送信する第1の通信手段とを有し、前記第1の位置姿勢算出手段は、前記現実空間の映像のうちの第1のフレームに基づく前記撮像装置の位置姿勢を算出し、前記第1の生成手段は、前記現実空間の映像のうちの第1のフレームに基づく前記撮像装置の位置姿勢を基に、前記第1の仮想空間の映像のうちの第1のフレームを生成し、前記第1の映像合成手段は、前記現実空間の映像のうちの第1のフレームとは異なるフレームと、前記第1の仮想空間の映像のうちの第1のフレームとを合成し、前記表示装置は、前記撮像装置から前記現実空間の映像を受信する第2の通信手段と、前記撮像装置の位置姿勢を基に、第2の仮想空間の映像を生成する第2の生成手段と、前記第2の通信手段が受信した現実空間の映像と、前記第2の仮想空間の映像とを合成することにより、第2の複合現実空間の映像を生成し、前記第2の複合現実空間の映像を表示する第2の映像合成手段とを有し、前記第2の生成手段は、前記現実空間の映像のうちの第1のフレームに基づく前記撮像装置の位置姿勢を基に、前記第2の仮想空間の映像のうちの第1のフレームを生成し、前記第2の映像合成手段は、前記現実空間の映像のうちの第1のフレームと、前記第2の仮想空間の映像のうちの第1のフレームとを合成する。
本開示によれば、撮像装置は現実空間の映像の遅延量が小さい複合現実空間の映像を表示し、表示装置は現実空間の映像と仮想空間の映像の遅延量が一致した複合現実空間の映像を表示することができる。
表示システムの構成例を示す図である。 表示システムの機能構成例を示すブロック図である。 HMDの処理例を示すフローチャートである。 表示装置の処理例を示すフローチャートである。 映像の遅延を表す図である。 HMDの機能構成例を示すブロック図である。 HMDの処理例を示すフローチャートである。
(第1の実施形態)
以下に、実施の形態を、図面に基づいて詳細に説明する。図1は、第1の実施形態に係る表示システム500の構成例を示す図である。表示システム500は、HMD(ヘッドマウントディスプレイ)100と、表示装置200と、CG(コンピュータグラフィックス)データ管理サーバ300を有する。HMD100は、頭部装着型表示装置の一例であり、現実空間の映像と仮想空間の映像とを合成した複合現実空間の映像を、HMD100を頭部に装着したユーザの眼前に提示する装置である。CGデータ管理サーバ300は、仮想空間を構築するために必要なCGデータを保持する装置である。HMD100と表示装置200は、CGデータ管理サーバ300に対して、ネットワーク経由でアクセスし、仮想現実空間のCGデータを取得し、仮想現実空間の映像を生成し、それを現実空間の映像と合成した仮想現実空間の映像を表示する。
HMD100と表示装置200は、相互にネットワーク経由で通信し、HMD100で撮像した現実空間の映像と仮想空間を生成するための情報をHMD100から表示装置200に転送することができる。表示装置200は、転送された情報を使用し、複合現実空間の映像を生成することで、HMD100の装着者の視界を表示装置200に共有して表示することができる。
なお、HMD100は、頭部装着型の部位とパーソナルコンピュータ(PC)などの画像処理装置とに分離したシステムであってもよい。また、HMD100は、スマートフォンのような手にもって撮像した現実空間の映像をディスプレイに表示するような装置でもよい。
表示装置200は、HMDでもよいし、現実空間の映像と仮想空間の映像を合成して表示することができるPC(パーソナルコンピュータ)やタブレットなどの端末でもよい。また、表示装置200が複数存在し、そのすべてにHMD100から映像が共有されてもよい。
HMD100と表示装置200は、それぞれのユーザがお互いを直接見ることができる一つの空間に配置されていてもよいし、お互いを直接見ることができない遠方に配置されていてもよい。また、CGデータ管理サーバ300は、HMD100と一体となっていてもよい。
本実施形態では、HMD100は、現実空間の映像を撮像し、HMD100の位置姿勢を算出する。そして、HMD100は、CGデータ管理サーバ300から取得したCGデータを用いて、算出した位置姿勢から見た映像となるように仮想空間の映像を生成し、撮像した現実空間の映像と生成した仮想空間の映像とを合成した複合現実空間の映像を生成する。そして、HMD100は、生成した複合現実空間の映像をHMD100の表示部に表示すると共に、撮像した現実空間の映像と、HMD100の位置姿勢とを表示装置200に送信する。
表示装置200は、CGデータ管理サーバ300から取得したCGデータを用いて、受信したHMD100の位置姿勢から見た映像となるように仮想空間の映像を生成し、仮想空間の映像と受信した現実空間の映像とを合成して表示する。このように、HMD100と表示装置200が複合現実空間の映像を共有することができる。
図2は、表示システム500の機能構成例を示すブロック図である。表示システム500は、HMD100と、表示装置200と、CGデータ管理サーバ300を有する。
HMD100は、撮像部101と、位置姿勢算出部102と、CGデータ取得部103と、CGレンダリング部104と、映像合成部105と、映像表示部106と、通信部107を有する。
撮像部101は、フレーム毎に、HMD100に装着されたカメラにより現実空間の映像を撮像する。カメラは、HMD100の装着者の目の位置に対応する映像を撮像することができ、右目用の映像と左目用の映像をそれぞれ撮像することができる。なお、以下で生成する映像や位置姿勢は、右目用と左目用のそれぞれについて生成される。撮像部101は、右目用と左目用の現実空間の映像を撮像する。
位置姿勢算出部102は、フレーム毎に、HMD100の右目用と左目用の位置姿勢を算出する。ここで、位置姿勢とは、3次元上の位置と3次元上の向きである。位置姿勢の算出方法は、種々の方法があり、どの方法を採用してもよい。本実施形態では、位置姿勢算出部102は、撮像部101で撮像された右目用と左目用の現実空間の映像から、VISUAL SLAMと呼ばれる技術により、フレーム毎に、右目用と左目用の位置姿勢を算出する。VISUAL SLAMは、現実空間の映像から特徴となる点を検出し、その点の時系列の変化を追跡することにより、カメラの位置姿勢を算出する技術である。
CGデータ取得部103は、仮想空間を構築するためのCGデータを外部のCGデータ管理サーバ300から取得する。
CGレンダリング部104は、CGデータ取得部103により取得されたCGデータを入力する。そして、CGレンダリング部104は、フレーム毎に、位置姿勢算出部102で算出した右目用と左目用の位置姿勢を視点として、CGデータをレンダリングし、右目用と左目用の仮想空間の映像を生成する。なお、レンダリング時の視野角は、撮像部101が撮像する映像の視野角と一致させる。
映像合成部105は、フレーム毎に、撮像部101により撮像された右目用と左目用の現実空間の映像と、CGレンダリング部104により生成された右目用と左目用の仮想空間の映像とを合成して、右目用と左目用の複合現実空間の映像を生成する。
映像表示部106は、フレーム毎に、映像合成部105により生成された右目用と左目用の複合現実空間の映像を、HMD100の右目と左目の前のスクリーンに表示する。
通信部107は、フレーム毎に、撮像部101により撮像された右目用と左目用の現実空間の映像と、位置姿勢算出部102により算出された右目用と左目用の位置姿勢とを表示装置200へ送信する。HMD100は共有元であり、表示装置200は共有先である。
表示装置200は、通信部201と、映像遅延部202と、CGデータ取得部203と、CGレンダリング部204と、映像合成部205と、映像表示部206を有する。
通信部201は、フレーム毎に、HMD100から送信された右目用と左目用の現実空間の映像と、右目用と左目用の位置姿勢を受信する。
映像遅延部202は、フレーム毎に、通信部201が受信した右目用と左目用の現実空間の映像をバッファリングし、現在までの現実空間の映像のフレームを保持する。映像遅延部202は、後述する映像合成部205が遅延させたいフレーム数に応じて、合成に用いる現実空間の映像のフレームを選択することで、現実空間の映像の遅延量を調整することができる。
CGデータ取得部203は、仮想空間を構築するためのCGデータを外部のCGデータ管理サーバ300から取得する。
CGレンダリング部204は、フレーム毎に、通信部201が受信した右目用と左目用の位置姿勢を視点として、CGデータ取得部203により取得されたCGデータをレンダリングし、右目用と左目用の仮想空間の映像を生成する。なお、レンダリング時の視野角は、HMD100の撮像部101が撮像する映像の視野角と一致させる。
映像合成部205は、フレーム毎に、映像遅延部202が保持している右目用と左目用の現実空間の映像と、CGレンダリング部204により生成された右目用と左目用の仮想空間の映像とを合成し、右目用と左目用の複合現実空間の映像を生成する。
映像表示部206は、映像合成部205により生成された右目用と左目用の複合現実空間の映像を、表示装置200の右目と左目の前のスクリーンに表示する。
図3は、HMD100の処理方法を示すフローチャートであり、HMD100の毎フレームの処理例を示す。図4は、表示装置200の処理方法を示すフローチャートであり、表示装置200の毎フレームの処理例を示す。図5は、HMD100および表示装置200での各処理段階での遅延の様子を表す図である。以下、図3および図4のフローチャートに従って、HMD100および表示装置200の処理の流れと、各処理段階での遅延について説明する。HMD100は、毎フレームの所定のタイミングで、図3のフローチャートの処理を開始する。表示装置200は、毎フレームの所定のタイミングで、図4のフローチャートの処理を開始する。
ここで、遅延とは、カメラが動いたり、現実空間の被写体に変化があったときにその変化が映像に反映されるまでの時間のことである。現実空間の映像の場合には、遅延は、撮像した映像のフレームが表示されるまでの時間である。仮想空間の映像の場合には、遅延は、算出した位置姿勢の時刻から、その位置姿勢を反映した仮想空間の映像が表示されるまでの時間である。
図5の横軸は、時刻(フレーム)である。図5の上段は、HMD100が撮像した現実空間の映像と、HMD100が算出した位置姿勢と、HMD100が生成した仮想空間の映像と、HMD100が生成した複合現実空間の映像を示す。図5の下段は、表示装置200が受信した現実空間の映像と、表示装置200が受信した位置姿勢と、表示装置200が生成した仮想空間の映像と、表示装置200が生成した複合現実空間の映像を示す。
HMD100および表示装置200での現実空間の映像と、位置姿勢と、仮想空間の映像と、複合現実空間の映像に記載の時刻は、どの時刻の撮像フレームに対応するものを生成しているかを示している。
ここで、HMD100が現実空間の映像から位置姿勢を算出するのにかかる時間をtsとする。また、CGレンダリング部104および204のそれぞれのレンダリングにかかる時間をtrとする。また、HMD100から表示装置200に現実空間の映像および位置姿勢を送信するのにかかる時間をtnとする。図5は、ts=1フレーム、tr=2フレーム、tn=1フレームの例である。
図3のステップS101では、撮像部101は、フレーム毎に、右目用と左目用の現実空間の映像を撮像する。図5の時刻tでは、時刻tの現実空間の映像のフレームが撮像される。
ステップS102では、位置姿勢算出部102は、フレーム毎に、撮像部101により撮像された右目用と左目用の現実空間の映像を基に、HMD100の右目用と左目用の位置姿勢を算出する。例えば、位置姿勢算出部102は、時刻tの現実空間の映像のフレームを基に、時刻tの位置姿勢を算出する。位置姿勢の算出には、tsの時間がかかるので、時刻t+tsにおいて、時刻tの位置姿勢が算出される。ここで、ts=1フレームである。
ステップS103では、通信部107は、時刻tの現実空間の映像のフレームと時刻tの位置姿勢とを表示装置200へ送信する。送信には、tnの時間がかかる。図5の時刻t+tsにおいて、通信部107は、時刻tの現実空間の映像のフレームと時刻tの位置姿勢とを表示装置200へ送信する。時刻t+ts+tnにおいて、表示装置200の通信部201は、時刻tの現実空間の映像のフレームと時刻tの位置姿勢とを受信する。ここで、tn=1フレームである。
ステップS104では、CGデータ取得部103は、CGデータ管理サーバ300からCGデータを取得する。
ステップS105では、CGレンダリング部104は、フレーム毎に、位置姿勢算出部102で算出した右目用と左目用の位置姿勢を視点として、CGデータ取得部103で取得したCGデータをレンダリングし、右目用と左目用の仮想空間の映像を生成する。例えば、CGレンダリング部104は、時刻tの位置姿勢を視点として、CGデータをレンダリングし、時刻tの仮想空間の映像を生成する。レンダリングには、trの時間がかかるので、時刻t+ts+trにおいて、時刻tの仮想空間の映像のフレームが生成される。ここで、tr=2フレームである。
ステップS106では、映像合成部105は、フレーム毎に、撮像部101により撮像された右目用と左目用の現実空間の映像と、CGレンダリング部104により生成された右目用と左目用の仮想空間の映像とを合成する。映像合成部105は、フレーム毎の合成により、右目用と左目用の複合現実空間の映像を生成する。映像表示部106は、フレーム毎に、映像合成部105により生成された右目用と左目用の複合現実空間の映像を、HMD100の右目と左目の前のスクリーンに表示する。
例えば、映像合成部105は、時刻t+3の現実空間の映像のフレームと、時刻tの仮想空間の映像のフレームとを合成し、時刻tの複合現実空間の映像のフレームを生成する。映像表示部106は、時刻tの複合現実空間の映像のフレームを、HMD100の右目と左目の前のスクリーンに表示する。
時刻t+ts+trでは、撮像部101は、時刻t+3の現実空間の映像のフレームを撮像し、CGレンダリング部104は、時刻tの仮想空間の映像のフレームを生成する。時刻t+ts+tr+1では、映像合成部105は、時刻t+3の現実空間の映像のフレームと、時刻tの仮想空間の映像のフレームとを合成し、時刻tの複合現実空間の映像のフレームを生成する。ここで、映像合成部105は、現実空間の映像の遅延を小さくするために、時刻t+3の最新の現実空間の映像のフレームと、時刻tの仮想空間の映像のフレームとを合成する。
図4のステップS201では、通信部201は、フレーム毎に、HMD100から、右目用と左目用の現実空間の映像と、右目用と左目用の位置姿勢を受信する。時刻t+ts+tnにおいて、通信部201は、時刻tの現実空間の映像のフレームと、時刻tの位置姿勢を受信する。
ステップS202では、映像遅延部202は、フレーム毎に、通信部201が受信した右目用と左目用の現実空間の映像をバッファリングし、現在までの右目用と左目用の現実空間の映像のフレームを保持する。
ステップS203では、CGデータ取得部203は、CGデータ管理サーバ300からCGデータを取得する。
ステップS204では、CGレンダリング部204は、フレーム毎に、通信部201が受信した右目用と左目用の位置姿勢を視点として、CGデータ取得部203により取得されたCGデータをレンダリングし、右目用と左目用の仮想空間の映像を生成する。例えば、CGレンダリング部204は、時刻tの位置姿勢を視点として、CGデータをレンダリングし、時刻tの仮想空間の映像を生成する。レンダリングには、trの時間がかかるので、時刻t+ts+tr+tnにおいて、時刻tの仮想空間の映像のフレームが生成される。
ステップS205では、映像合成部205は、フレーム毎に、映像遅延部202が保持している右目用と左目用の現実空間の映像と、CGレンダリング部204により生成された右目用と左目用の仮想空間の映像とを合成する。映像合成部205は、フレーム毎の合成により、右目用と左目用の複合現実空間の映像を生成する。映像表示部206は、フレーム毎に、映像合成部205により生成された右目用と左目用の複合現実空間の映像を、表示装置200の右目と左目の前のスクリーンに表示する。
時刻t+ts+tr+tnにおいて、映像合成部205は、時刻tの現実空間の映像のフレームと、時刻tの仮想空間の映像のフレームとを合成し、時刻tの複合現実空間の映像のフレームを生成する。映像表示部206は、時刻tの複合現実空間の映像のフレームを、表示装置200の右目と左目の前のスクリーンに表示する。
映像表示部206が表示する映像の動きは、表示装置200の視聴者自身の動作を反映しているわけではない。したがって、表示装置200の視聴者にとって、HMD100の装着者の動作が反映されるまでの遅延に対する違和感は小さく、現実空間の映像と仮想空間の映像との遅延量が異なることによる違和感の方が大きく感じてしまう。そこで、映像合成部205は、時刻tの現実空間の映像のフレームと、時刻tの仮想空間の映像のフレームとを合成する。これにより、映像表示部206は、現実空間の映像と仮想空間の映像の遅延量が一致した映像を表示することができる。
以上のように、HMD100の映像合成部105は、時刻t+3の現実空間の映像のフレームと、時刻tの仮想空間の映像のフレームとを合成し、時刻tの複合現実空間の映像のフレームを生成する。その結果、HMD100での複合現実空間の映像は、HMD100の装着者の動きによる現実空間の画像の遅延量を小さくし、HMD100の装着者の違和感を低減することができる。
また、表示装置200の映像合成部205は、時刻tの現実空間の映像のフレームと、時刻tの仮想空間の映像のフレームとを合成し、時刻tの複合現実空間の映像のフレームを生成する。その結果、表示装置200での複合現実空間の映像は、現実空間の映像のフレームと仮想空間の映像のフレームの遅延量が揃った映像になり、表示装置200の視聴者の違和感を低減することができる。
なお、ステップS102では、位置姿勢算出部102は、表示までの時間を考慮し、時刻t+3の位置姿勢を予測して算出してもよい。その場合、ステップS105では、CGレンダリング部104は、時刻t+3の位置姿勢を視点として、CGデータをレンダリングし、時刻t+3の仮想空間の映像を生成する。この場合においても、ステップS102では、位置姿勢算出部102は、時刻tの位置姿勢も算出する。そして、ステップS103では、通信部107は、時刻tの位置姿勢を表示装置200へ送信する。このようにすることで、HMD100は、上記の予測が当たった場合には、仮想空間の映像の遅延量が小さいように見せかける複合現実空間の映像を生成することが可能である。表示装置200は、未来の予測に基づかないHMD100の位置姿勢に基づいた複合現実空間の映像を生成することができる。
また、ステップS105の時刻t+3では、CGレンダリング部104は、時刻tの仮想空間の映像のフレームを生成する。その後、位置姿勢算出部102は、現在の時刻t+3の位置姿勢を再算出してもよい。その後、CGレンダリング部104は、時刻tの位置姿勢と時刻t+3の位置姿勢との差分を基に、上記の時刻tの仮想空間の映像のフレームを変形し、時刻t+3の仮想空間の映像のフレームを生成する。ステップS106では、映像合成部105は、時刻t+3の現実空間の映像のフレームと、時刻t+3の仮想空間の映像のフレームとを合成する。このようにすることで、HMD100は、仮想空間の映像を生成した後の変形により、可能な範囲で遅延量を小さく見せる複合現実空間の映像を生成することが可能である。
また、映像合成部205は、現実空間の映像のフレームの中で、あらかじめ決めておいた遅延量となるフレームを選択してもよい。また、HMD100は、フレーム毎に、現実空間の映像と位置姿勢に対してタイムスタンプを付与して、表示装置200に送信してもよい。その場合、表示装置200は、タイムスタンプが一致する現実空間の映像のフレームと位置姿勢を用いて、現実空間の映像のフレームを選択し、仮想空間の映像のフレームを生成し、現実空間と仮想空間の映像のフレームを合成することができる。
また、表示装置200は、通信部201が受信した現実空間の映像のフレームを基に、HMD100の位置姿勢を算出する位置姿勢算出部を設けてもよい。その場合、CGレンダリング部204は、その算出された位置姿勢を基に、仮想空間の映像のフレームを生成することができる。
以上のように、表示システム500は、HMD100と、表示装置200を有する。HMD100は、撮像装置であり、撮像部101と、位置姿勢算出部102と、CGデータ取得部103と、CGレンダリング部104と、映像合成部105と、映像表示部106と、通信部107を有する。
撮像部101は、現実空間の映像を撮像する。位置姿勢算出部102は、上記の現実空間の映像を基に、HMD100の位置姿勢を算出する。CGレンダリング部104は、生成部であり、HMD100の位置姿勢を基に、第1の仮想空間の映像を生成する。映像合成部105は、撮像部101により撮像された現実空間の映像と、上記の第1の仮想空間の映像とを合成することにより、第1の複合現実空間の映像を生成し、その第1の複合現実空間の映像を映像表示部106に表示する。通信部107は、少なくとも撮像部101により撮像された現実空間の映像を表示装置200に送信する。
位置姿勢算出部102は、上記の現実空間の映像のうちの第1のフレーム(例えば、時刻tのフレーム)に基づくHMD100の位置姿勢を算出する。CGレンダリング部104は、上記の現実空間の映像のうちの第1のフレームに基づくHMD100の位置姿勢を基に、第1の仮想空間の映像のうちの第1のフレームを生成する。映像合成部105は、上記の現実空間の映像のうちの第1のフレームとは異なるフレーム(例えば、時刻t+3のフレーム)と、上記の第1の仮想空間の映像のうちの第1のフレームとを合成する。
表示装置200は、通信部201と、映像遅延部202と、CGデータ取得部203と、CGレンダリング部204と、映像合成部205と、映像表示部206を有する。通信部201は、HMD100から現実空間の映像を受信する。CGレンダリング部204は、生成部であり、HMD100の位置姿勢を基に、第2の仮想空間の映像を生成する。映像合成部205は、通信部201が受信した現実空間の映像と、上記の第2の仮想空間の映像とを合成することにより、第2の複合現実空間の映像を生成し、その第2の複合現実空間の映像を映像表示部206に表示する。
CGレンダリング部204は、上記の現実空間の映像のうちの第1のフレームに基づくHMD100の位置姿勢を基に、第2の仮想空間の映像のうちの第1のフレームを生成する。映像合成部205は、上記の現実空間の映像のうちの第1のフレームと、上記の第2の仮想空間の映像のうちの第1のフレームとを合成する。
例えば、通信部107は、撮像部101により撮像された現実空間の映像のうちの第1のフレームと、現実空間の映像のうちの第1のフレームに基づくHMD100の位置姿勢とを表示装置200に送信する。通信部201は、HMD100から現実空間の映像のうちの第1のフレームと、現実空間の映像のうちの第1のフレームに基づくHMD100の位置姿勢とを受信する。CGレンダリング部204は、通信部201が受信した現実空間の映像のうちの第1のフレームに基づくHMD100の位置姿勢を基に、第2の仮想空間の映像のうちの第1のフレームを生成する。
なお、表示装置200は、通信部201が受信した現実空間の映像のうちの第1のフレームを基に、現実空間の映像のうちの第1のフレームに基づくHMD100の位置姿勢を算出する第2の位置姿勢算出部を有していてもよい。その場合、CGレンダリング部204は、第2の位置姿勢算出部により算出された現実空間の映像のうちの第1のフレームに基づくHMD100の位置姿勢を基に、第2の仮想空間の映像のうちの第1のフレームを生成する。
例えば、映像合成部105は、現実空間の映像のうちの第1のフレームより後の第2のフレーム(例えば、時刻t+3のフレーム)と、上記の第1の仮想空間の映像のうちの第1のフレームとを合成する。例えば、現実空間の映像のうちの第2のフレームは、現実空間の映像のうちの最新のフレームである。
例えば、位置姿勢算出部102は、現実空間の映像のうちの第1のフレームを基に、現実空間の映像のうちの第1のフレームの撮像時におけるHMD100の位置姿勢を算出する。CGレンダリング部104は、現実空間の映像のうちの第1のフレームの撮像時におけるHMD100の位置姿勢を基に、第1の仮想空間の映像のうちの第1のフレームを生成する。CGレンダリング部204は、現実空間の映像のうちの第1のフレームの撮像時におけるHMD100の位置姿勢を基に、第2の仮想空間の映像のうちの第1のフレームを生成する。
通信部107は、撮像部101により撮像された現実空間の映像のうちの第1のフレームと、現実空間の映像のうちの第1のフレームの撮像時におけるHMD100の位置姿勢とを表示装置200に送信する。通信部201は、HMD100から現実空間の映像のうちの第1のフレームと、現実空間の映像のうちの第1のフレームの撮像時におけるHMD100の位置姿勢とを受信する。CGレンダリング部204は、通信部201が受信した現実空間の映像のうちの第1のフレームの撮像時におけるHMD100の位置姿勢を基に、第2の仮想空間の映像のうちの第1のフレームを生成する。
上記のように、表示装置200は、第2の位置姿勢算出部を設けることができる。その場合、第2の位置姿勢算出部は、通信部201が受信した現実空間の映像のうちの第1のフレームを基に、現実空間の映像のうちの第1のフレームの撮像時におけるHMD100の位置姿勢を算出する。CGレンダリング部204は、第2の位置姿勢算出部により算出された現実空間の映像のうちの第1のフレームの撮像時におけるHMD100の位置姿勢を基に、第2の仮想空間の映像のうちの第1のフレームを生成する。
上記のように、映像合成部105は、現実空間の映像のうちの第1のフレームより後の第2のフレーム(例えば、時刻t+3のフレーム)と、第1の仮想空間の映像のうちの第1のフレームとを合成する。位置姿勢算出部102は、現実空間の映像のうちの第1のフレームを基に、現実空間の映像のうちの第2のフレームの撮像時におけるHMD100の位置姿勢を予測する。CGレンダリング部104は、現実空間の映像のうちの第2のフレームの撮像時におけるHMD100の位置姿勢を基に、第1の仮想空間の映像のうちの第1のフレームを生成する。CGレンダリング部204は、現実空間の映像のうちの第1のフレームの撮像時におけるHMD100の位置姿勢を基に、第2の仮想空間の映像のうちの第1のフレームを生成する。
具体的には、位置姿勢算出部102は、現実空間の映像のうちの第1のフレームを基に、現実空間の映像のうちの第1のフレームの撮像時におけるHMD100の位置姿勢を算出する。そして、位置姿勢算出部102は、現実空間の映像のうちの第1のフレームを基に、現実空間の映像のうちの第2のフレームの撮像時におけるHMD100の位置姿勢を予測する。CGレンダリング部104は、現実空間の映像のうちの第2のフレームの撮像時におけるHMD100の位置姿勢を基に、第1の仮想空間の映像のうちの第1のフレームを生成する。通信部107は、撮像部101により撮像された現実空間の映像のうちの第1のフレームと、現実空間の映像のうちの第1のフレームの撮像時におけるHMD100の位置姿勢とを表示装置200に送信する。
通信部201は、HMD100から現実空間の映像のうちの第1のフレームと、現実空間の映像のうちの第1のフレームの撮像時におけるHMD100の位置姿勢とを受信する。CGレンダリング部204は、通信部201が受信した現実空間の映像のうちの第1のフレームの撮像時におけるHMD100の位置姿勢を基に、第2の仮想空間の映像のうちの第1のフレームを生成する。
上記のように、表示装置200は、第2の位置姿勢算出部を設けることができる。その場合、第2の位置姿勢算出部は、通信部201が受信した現実空間の映像のうちの第1のフレームを基に、現実空間の映像のうちの第1のフレームの撮像時におけるHMD100の位置姿勢を算出する。CGレンダリング部204は、第2の位置姿勢算出部により算出された現実空間の映像のうちの第1のフレームの撮像時におけるHMD100の位置姿勢を基に、第2の仮想空間の映像のうちの第1のフレームを生成する。
また、映像合成部105は、現実空間の映像のうちの第1のフレームより後の第2のフレーム(例えば、時刻t+3のフレーム)と、第1の仮想空間の映像のうちの第1のフレームとを合成する。その場合、位置姿勢算出部102は、現実空間の映像のうちの第1のフレームを基に、現実空間の映像のうちの第1のフレームの撮像時におけるHMD100の位置姿勢を算出する。CGレンダリング部104は、現実空間の映像のうちの第1のフレームの撮像時におけるHMD100の位置姿勢を基に、現実空間の映像のうちの第1のフレームの撮像時における第1の仮想空間の映像の仮のフレームを生成する。位置姿勢算出部102は、現実空間の映像のうちの第2のフレームを基に、現実空間の映像のうちの第2のフレームの撮像時におけるHMD100の位置姿勢を算出する。CGレンダリング部104は、現実空間の映像のうちの第1のフレームの撮像時におけるHMD100の位置姿勢と、現実空間の映像のうちの第2のフレームの撮像時におけるHMD100の位置姿勢との差分と、第1の仮想空間の映像の仮のフレームとを基に、現実空間の映像のうちの第2のフレームの撮像時における第1の仮想空間の映像のうちの第1のフレームを生成する。
また、通信部107は、撮像部101により撮像された現実空間の映像のうちの第1のフレームと、現実空間の映像のうちの第1のフレームの撮像時におけるHMD100の位置姿勢とを表示装置200に送信する。通信部201は、HMD100から現実空間の映像のうちの第1のフレームと、現実空間の映像のうちの第1のフレームの撮像時におけるHMD100の位置姿勢とを受信する。CGレンダリング部204は、通信部201が受信した現実空間の映像のうちの第1のフレームの撮像時におけるHMD100の位置姿勢を基に、第2の仮想空間の映像のうちの第1のフレームを生成する。
上記のように、表示装置200は、第2の位置姿勢算出部を設けることができる。その場合、第2の位置姿勢算出部は、通信部201が受信した現実空間の映像のうちの第1のフレームを基に、現実空間の映像のうちの第1のフレームの撮像時におけるHMD100の位置姿勢を算出する。CGレンダリング部204は、第2の位置姿勢算出部により算出された現実空間の映像のうちの第1のフレームの撮像時におけるHMD100の位置姿勢を基に、第2の仮想空間の映像のうちの第1のフレームを生成する。
以上のように、本実施形態によれば、HMD100は、HMD100の装着者自身が見る複合現実空間の映像のうちの現実空間の映像については遅延量を小さくし、現実空間の映像の遅延量が小さい複合現実空間の映像を表示することができる。表示装置200は、現実空間の映像と仮想空間の映像の遅延量が一致した複合現実空間の映像を表示することができる。
(第2の実施形態)
次に、第2の実施形態を説明する。第2の実施形態では、HMD100は、自身の映像表示部106に表示する複合現実空間の映像に対して、遅延量が異なる複合現実空間の映像を生成して表示装置200に送信する例を説明する。このように、HMD100が、表示装置200で表示する複合現実空間の映像を生成することで、表示装置200は、一般的なストリーミング形式の映像を再生および表示できる機能を持つ装置であればよい。
以下、第2の実施形態に係る説明は、第1の実施形態との相違点についてのみ説明する。第2の実施形態は、第1の実施形態に対して、同一の構成、または、同一のステップには、第1の実施形態で説明したものと同一の符号を付与してこれを表すものとする。
図6は、第2の実施形態に係るHMD100の機能構成例を示すブロック図である。図6のHMD100は、図2のHMD100に対して、映像遅延部401を追加したものである。HMD100は、撮像部101と、位置姿勢算出部102と、CGデータ取得部103と、CGレンダリング部104と、映像合成部105と、映像表示部106と、通信部107と、映像遅延部401を有する。
図7は、図6のHMD100の処理方法を示すフローチャートであり、HMD100の毎フレームの処理例を示す。図7は、図3に対して、ステップS103を削除し、ステップS401およびS402を追加したものである。HMD100は、毎フレームの所定のタイミングで、図7のフローチャートの処理を開始する。HMD100は、図3と同様に、ステップS101、S102、S104~S106の処理を行う。
なお、ステップS101では、映像遅延部202は、フレーム毎に、撮像部101が撮像した右目用と左目用の現実空間の映像をバッファリングし、現在までの右目用と左目用の現実空間の映像のフレームを保持する。
また、ステップS106では、HMD100は、最新の時刻t+3の現実空間の映像のフレームと、時刻tの仮想空間の映像のフレームとを合成し、HMD100で表示するための複合現実空間の映像を生成する。
その後、ステップS401では、映像合成部105は、フレーム毎に、映像遅延部401が保持している右目用と左目用の現実空間の映像と、CGレンダリング部104により生成された右目用と左目用の仮想空間の映像とを合成する。映像合成部105は、フレーム毎の合成により、右目用と左目用の複合現実空間の映像を生成する。具体的には、映像合成部105は、時刻tの現実空間の映像のフレームと、時刻tの仮想空間の映像のフレームとを合成し、時刻tの複合現実空間の映像のフレームを生成する。
ステップS402では、通信部107は、フレーム毎に、ステップS401で生成された右目用と左目用の複合現実空間の映像を一般的なストリーミング形式で表示装置200に送信する。
表示装置200において、通信部201は、HMD100から、右目用と左目用の複合現実空間の映像を受信する。映像表示部206は、通信部201が受信した右目用と左目用の複合現実空間の映像を、表示装置200の右目と左目の前のスクリーンに表示する。
以上のように、HMD100は、HMD100で表示するための複合現実空間の映像と、表示装置200で表示するための複合現実空間の映像を生成する。
HMD100は、時刻t+3の現実空間の映像のフレームと、時刻tの仮想空間の映像のフレームとを合成した複合現実空間の映像のフレームを表示する。その結果、HMD100で表示される複合現実空間の映像は、HMD100の装着者の動きによる現実空間の画像の遅延量を小さくし、HMD100の装着者の違和感を低減することができる。
また、表示装置200は、時刻tの現実空間の映像のフレームと、時刻tの仮想空間の映像のフレームとを合成した複合現実空間の映像のフレームを表示する。その結果、表示装置200で表示される複合現実空間の映像は、現実空間の映像のフレームと仮想空間の映像のフレームの遅延量が揃った映像になり、表示装置200の視聴者の違和感を低減することができる。
以上のように、HMD100は、撮像装置であって、撮像部101と、位置姿勢算出部102と、CGデータ取得部103と、CGレンダリング部104と、映像合成部105と、映像表示部106と、通信部107と、映像遅延部401を有する。
撮像部101は、現実空間の映像を撮像する。位置姿勢算出部102は、現実空間の映像を基に、HMD100の位置姿勢を算出する。CGレンダリング部104は、HMD100の位置姿勢を基に、仮想空間の映像を生成する。映像合成部105は、撮像部101により撮像された現実空間の映像と、CGレンダリング部104により生成された仮想空間の映像とを合成することにより、複合現実空間の映像を生成する。通信部107は、複合現実空間の映像を表示装置200に送信する。
位置姿勢算出部102は、現実空間の映像のうちの第1のフレーム(例えば、時刻tのフレーム)に基づくHMD100の位置姿勢を算出する。CGレンダリング部104は、現実空間の映像のうちの第1のフレームに基づくHMD100の位置姿勢を基に、仮想空間の映像のうちの第1のフレームを生成する。映像合成部105は、現実空間の映像のうちの第1のフレームとは異なるフレーム(例えば、時刻t+3のフレーム)と、仮想空間の映像のうちの第1のフレームとを合成することにより、第1の複合現実空間の映像のうちの第1のフレームを生成する。そして、映像合成部105は、第1の複合現実空間の映像のうちの第1のフレームを映像表示部106に表示する。
また、映像合成部105は、現実空間の映像のうちの第1のフレームと、仮想空間の映像のうちの第1のフレームとを合成することにより、第2の複合現実空間の映像のうちの第1のフレームを生成する。通信部107は、第2の複合現実空間の映像のうちの第1のフレームを表示装置200に送信する。
具体的には、映像合成部105は、現実空間の映像のうちの第1のフレームより後の第2のフレーム(例えば、時刻t+3のフレーム)と、第1の仮想空間の映像のうちの第1のフレームとを合成することにより、第1の複合現実空間の映像のうちの第1のフレームを生成する。上記の現実空間の映像のうちの第2のフレームは、例えば、現実空間の映像のうちの最新のフレームである。
位置姿勢算出部102は、現実空間の映像のうちの第1のフレームを基に、現実空間の映像のうちの第1のフレームの撮像時におけるHMD100の位置姿勢を算出する。CGレンダリング部104は、現実空間の映像のうちの第1のフレームの撮像時におけるHMD100の位置姿勢を基に、仮想空間の映像のうちの第1のフレームを生成する。
なお、位置姿勢算出部102は、現実空間の映像のうちの第1のフレームを基に、現実空間の映像のうちの第2のフレームの撮像時におけるHMD100の位置姿勢を予測することができる。その場合、CGレンダリング部104は、現実空間の映像のうちの第2のフレームの撮像時におけるHMD100の位置姿勢を基に、第1の仮想空間の映像のうちの第1のフレームを生成する。映像合成部105は、現実空間の映像のうちの第2のフレームと、第1の仮想空間の映像のうちの第1のフレームとを合成することにより、第1の複合現実空間の映像のうちの第1のフレームを生成する。CGレンダリング部104は、現実空間の映像のうちの第1のフレームの撮像時におけるHMD100の位置姿勢を基に、第2の仮想空間の映像のうちの第1のフレームを生成する。映像合成部105は、現実空間の映像のうちの第1のフレームと、第2の仮想空間の映像のうちの第1のフレームとを合成することにより、第2の複合現実空間の映像のうちの第1のフレームを生成する。
また、位置姿勢算出部102は、現実空間の映像のうちの第1のフレームを基に、現実空間の映像のうちの第1のフレームの撮像時におけるHMD100の位置姿勢を算出することができる。CGレンダリング部104は、現実空間の映像のうちの第1のフレームの撮像時におけるHMD100の位置姿勢を基に、現実空間の映像のうちの第1のフレームの撮像時における第1の仮想空間の映像の仮のフレームを生成する。位置姿勢算出部102は、現実空間の映像のうちの第2のフレームを基に、現実空間の映像のうちの第2のフレームの撮像時におけるHMD100の位置姿勢を算出する。CGレンダリング部104は、現実空間の映像のうちの第1のフレームの撮像時におけるHMD100の位置姿勢と、現実空間の映像のうちの第2のフレームの撮像時におけるHMD100の位置姿勢との差分と、上記の第1の仮想空間の映像の仮のフレームとを基に、現実空間の映像のうちの第2のフレームの撮像時における第1の仮想空間の映像のうちの第1のフレームを生成する。
以上のように、本実施形態によれば、HMD100は、HMD100の装着者自身が見る複合現実空間の映像のうちの現実空間の映像については遅延量を小さくし、現実空間の映像の遅延量が小さい複合現実空間の映像を表示することができる。表示装置200は、現実空間の映像と仮想空間の映像の遅延量が一致した複合現実空間の映像を表示することができる。
(その他の実施形態)
本開示は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
なお、上述の実施形態は、何れも本開示を実施するにあたっての具体例を示したものに過ぎず、これらによって本開示の技術的範囲が限定的に解釈されない。すなわち、本開示はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
本実施形態の開示は、以下の構成および方法を含む。
(構成1)
撮像装置と、
表示装置とを有する表示システムであって、
前記撮像装置は、
現実空間の映像を撮像する撮像手段と、
前記現実空間の映像を基に、前記撮像装置の位置姿勢を算出する第1の位置姿勢算出手段と、
前記撮像装置の位置姿勢を基に、第1の仮想空間の映像を生成する第1の生成手段と、
前記撮像手段により撮像された現実空間の映像と、前記第1の仮想空間の映像とを合成することにより、第1の複合現実空間の映像を生成し、前記第1の複合現実空間の映像を表示する第1の映像合成手段と、
少なくとも前記撮像手段により撮像された現実空間の映像を前記表示装置に送信する第1の通信手段とを有し、
前記第1の位置姿勢算出手段は、前記現実空間の映像のうちの第1のフレームに基づく前記撮像装置の位置姿勢を算出し、
前記第1の生成手段は、前記現実空間の映像のうちの第1のフレームに基づく前記撮像装置の位置姿勢を基に、前記第1の仮想空間の映像のうちの第1のフレームを生成し、
前記第1の映像合成手段は、前記現実空間の映像のうちの第1のフレームとは異なるフレームと、前記第1の仮想空間の映像のうちの第1のフレームとを合成し、
前記表示装置は、
前記撮像装置から前記現実空間の映像を受信する第2の通信手段と、
前記撮像装置の位置姿勢を基に、第2の仮想空間の映像を生成する第2の生成手段と、
前記第2の通信手段が受信した現実空間の映像と、前記第2の仮想空間の映像とを合成することにより、第2の複合現実空間の映像を生成し、前記第2の複合現実空間の映像を表示する第2の映像合成手段とを有し、
前記第2の生成手段は、前記現実空間の映像のうちの第1のフレームに基づく前記撮像装置の位置姿勢を基に、前記第2の仮想空間の映像のうちの第1のフレームを生成し、
前記第2の映像合成手段は、前記現実空間の映像のうちの第1のフレームと、前記第2の仮想空間の映像のうちの第1のフレームとを合成することを特徴とする表示システム。
(構成2)
前記第1の通信手段は、前記撮像手段により撮像された現実空間の映像のうちの第1のフレームと、前記現実空間の映像のうちの第1のフレームに基づく前記撮像装置の位置姿勢とを前記表示装置に送信し、
前記第2の通信手段は、前記撮像装置から前記現実空間の映像のうちの第1のフレームと、前記現実空間の映像のうちの第1のフレームに基づく前記撮像装置の位置姿勢とを受信し、
前記第2の生成手段は、前記第2の通信手段が受信した前記現実空間の映像のうちの第1のフレームに基づく前記撮像装置の位置姿勢を基に、前記第2の仮想空間の映像のうちの第1のフレームを生成することを特徴とする構成1に記載の表示システム。
(構成3)
前記表示装置は、前記第2の通信手段が受信した前記現実空間の映像のうちの第1のフレームを基に、前記現実空間の映像のうちの第1のフレームに基づく前記撮像装置の位置姿勢を算出する第2の位置姿勢算出手段を有し、
前記第2の生成手段は、前記第2の位置姿勢算出手段により算出された前記現実空間の映像のうちの第1のフレームに基づく前記撮像装置の位置姿勢を基に、前記第2の仮想空間の映像のうちの第1のフレームを生成することを特徴とする構成1に記載の表示システム。
(構成4)
前記第1の映像合成手段は、前記現実空間の映像のうちの第1のフレームより後の第2のフレームと、前記第1の仮想空間の映像のうちの第1のフレームとを合成することを特徴とする構成1~3のいずれか1項に記載の表示システム。
(構成5)
前記現実空間の映像のうちの第2のフレームは、前記現実空間の映像のうちの最新のフレームであることを特徴とする構成4に記載の表示システム。
(構成6)
前記第1の位置姿勢算出手段は、前記現実空間の映像のうちの第1のフレームを基に、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢を算出し、
前記第1の生成手段は、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢を基に、前記第1の仮想空間の映像のうちの第1のフレームを生成し、
前記第2の生成手段は、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢を基に、前記第2の仮想空間の映像のうちの第1のフレームを生成することを特徴とする構成1~5のいずれか1項に記載の表示システム。
(構成7)
前記第1の位置姿勢算出手段は、前記現実空間の映像のうちの第1のフレームを基に、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢を算出し、
前記第1の生成手段は、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢を基に、前記第1の仮想空間の映像のうちの第1のフレームを生成し、
前記第1の通信手段は、前記撮像手段により撮像された現実空間の映像のうちの第1のフレームと、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢とを前記表示装置に送信し、
前記第2の通信手段は、前記撮像装置から前記現実空間の映像のうちの第1のフレームと、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢とを受信し、
前記第2の生成手段は、前記第2の通信手段が受信した前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢を基に、前記第2の仮想空間の映像のうちの第1のフレームを生成することを特徴とする構成2に記載の表示システム。
(構成8)
前記第1の位置姿勢算出手段は、前記現実空間の映像のうちの第1のフレームを基に、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢を算出し、
前記第1の生成手段は、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢を基に、前記第1の仮想空間の映像のうちの第1のフレームを生成し、
前記第2の位置姿勢算出手段は、前記第2の通信手段が受信した前記現実空間の映像のうちの第1のフレームを基に、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢を算出し、
前記第2の生成手段は、前記第2の位置姿勢算出手段により算出された前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢を基に、前記第2の仮想空間の映像のうちの第1のフレームを生成することを特徴とする構成3に記載の表示システム。
(構成9)
前記第1の映像合成手段は、前記現実空間の映像のうちの第1のフレームより後の第2のフレームと、前記第1の仮想空間の映像のうちの第1のフレームとを合成し、
前記第1の位置姿勢算出手段は、前記現実空間の映像のうちの第1のフレームを基に、前記現実空間の映像のうちの第2のフレームの撮像時における前記撮像装置の位置姿勢を予測し、
前記第1の生成手段は、前記現実空間の映像のうちの第2のフレームの撮像時における前記撮像装置の位置姿勢を基に、前記第1の仮想空間の映像のうちの第1のフレームを生成し、
前記第2の生成手段は、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢を基に、前記第2の仮想空間の映像のうちの第1のフレームを生成することを特徴とする構成1に記載の表示システム。
(構成10)
前記第1の位置姿勢算出手段は、前記現実空間の映像のうちの第1のフレームを基に、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢を算出し、前記現実空間の映像のうちの第2のフレームの撮像時における前記撮像装置の位置姿勢を予測し、
前記第1の生成手段は、前記現実空間の映像のうちの第2のフレームの撮像時における前記撮像装置の位置姿勢を基に、前記第1の仮想空間の映像のうちの第1のフレームを生成し、
前記第1の通信手段は、前記撮像手段により撮像された現実空間の映像のうちの第1のフレームと、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢とを前記表示装置に送信し、
前記第2の通信手段は、前記撮像装置から前記現実空間の映像のうちの第1のフレームと、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢とを受信し、
前記第2の生成手段は、前記第2の通信手段が受信した前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢を基に、前記第2の仮想空間の映像のうちの第1のフレームを生成することを特徴とする構成9に記載の表示システム。
(構成11)
前記表示装置は、前記第2の通信手段が受信した前記現実空間の映像のうちの第1のフレームを基に、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢を算出する第2の位置姿勢算出手段を有し、
前記第2の生成手段は、前記第2の位置姿勢算出手段により算出された前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢を基に、前記第2の仮想空間の映像のうちの第1のフレームを生成することを特徴とする構成9に記載の表示システム。
(構成12)
前記第1の映像合成手段は、前記現実空間の映像のうちの第1のフレームより後の第2のフレームと、前記第1の仮想空間の映像のうちの第1のフレームとを合成し、
前記第1の位置姿勢算出手段は、前記現実空間の映像のうちの第1のフレームを基に、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢を算出し、
前記第1の生成手段は、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢を基に、前記現実空間の映像のうちの第1のフレームの撮像時における前記第1の仮想空間の映像の仮のフレームを生成し、
前記第1の位置姿勢算出手段は、前記現実空間の映像のうちの第2のフレームを基に、前記現実空間の映像のうちの第2のフレームの撮像時における前記撮像装置の位置姿勢を算出し、
前記第1の生成手段は、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢と、前記現実空間の映像のうちの第2のフレームの撮像時における前記撮像装置の位置姿勢との差分と、前記第1の仮想空間の映像の仮のフレームとを基に、前記現実空間の映像のうちの第2のフレームの撮像時における前記第1の仮想空間の映像のうちの第1のフレームを生成することを特徴とする構成1に記載の表示システム。
(構成13)
前記第1の通信手段は、前記撮像手段により撮像された現実空間の映像のうちの第1のフレームと、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢とを前記表示装置に送信し、
前記第2の通信手段は、前記撮像装置から前記現実空間の映像のうちの第1のフレームと、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢とを受信し、
前記第2の生成手段は、前記第2の通信手段が受信した前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢を基に、前記第2の仮想空間の映像のうちの第1のフレームを生成することを特徴とする構成12に記載の表示システム。
(構成14)
前記表示装置は、前記第2の通信手段が受信した前記現実空間の映像のうちの第1のフレームを基に、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢を算出する第2の位置姿勢算出手段を有し、
前記第2の生成手段は、前記第2の位置姿勢算出手段により算出された前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢を基に、前記第2の仮想空間の映像のうちの第1のフレームを生成することを特徴とする構成12に記載の表示システム。
(構成15)
撮像装置であって、
現実空間の映像を撮像する撮像手段と、
前記現実空間の映像を基に、前記撮像装置の位置姿勢を算出する位置姿勢算出手段と、
前記撮像装置の位置姿勢を基に、仮想空間の映像を生成する生成手段と、
前記撮像手段により撮像された現実空間の映像と、前記生成手段により生成された仮想空間の映像とを合成することにより、複合現実空間の映像を生成する映像合成手段と、
前記複合現実空間の映像を表示装置に送信する通信手段とを有し、
前記位置姿勢算出手段は、前記現実空間の映像のうちの第1のフレームに基づく前記撮像装置の位置姿勢を算出し、
前記生成手段は、前記現実空間の映像のうちの第1のフレームに基づく前記撮像装置の位置姿勢を基に、前記仮想空間の映像のうちの第1のフレームを生成し、
前記映像合成手段は、前記現実空間の映像のうちの第1のフレームとは異なるフレームと、前記仮想空間の映像のうちの第1のフレームとを合成することにより、第1の複合現実空間の映像のうちの第1のフレームを生成し、前記第1の複合現実空間の映像のうちの第1のフレームを表示し、
前記映像合成手段は、前記現実空間の映像のうちの第1のフレームと、前記仮想空間の映像のうちの第1のフレームとを合成することにより、第2の複合現実空間の映像のうちの第1のフレームを生成し、
前記通信手段は、前記第2の複合現実空間の映像のうちの第1のフレームを前記表示装置に送信することを特徴とする撮像装置。
(構成16)
前記映像合成手段は、前記現実空間の映像のうちの第1のフレームより後の第2のフレームと、前記第1の仮想空間の映像のうちの第1のフレームとを合成することにより、第1の複合現実空間の映像のうちの第1のフレームを生成することを特徴とする構成15に記載の撮像装置。
(構成17)
前記現実空間の映像のうちの第2のフレームは、前記現実空間の映像のうちの最新のフレームであることを特徴とする構成16に記載の撮像装置。
(構成18)
前記位置姿勢算出手段は、前記現実空間の映像のうちの第1のフレームを基に、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢を算出し、
前記生成手段は、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢を基に、前記仮想空間の映像のうちの第1のフレームを生成することを特徴とする構成15~17のいずれか1項に記載の撮像装置。
(構成19)
前記位置姿勢算出手段は、前記現実空間の映像のうちの第1のフレームを基に、前記現実空間の映像のうちの第2のフレームの撮像時における前記撮像装置の位置姿勢を予測し、
前記生成手段は、前記現実空間の映像のうちの第2のフレームの撮像時における前記撮像装置の位置姿勢を基に、第1の仮想空間の映像のうちの第1のフレームを生成し、
前記映像合成手段は、前記現実空間の映像のうちの第2のフレームと、前記第1の仮想空間の映像のうちの第1のフレームとを合成することにより、第1の複合現実空間の映像のうちの第1のフレームを生成し、
前記生成手段は、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢を基に、第2の仮想空間の映像のうちの第1のフレームを生成し、
前記映像合成手段は、前記現実空間の映像のうちの第1のフレームと、前記第2の仮想空間の映像のうちの第1のフレームとを合成することにより、第2の複合現実空間の映像のうちの第1のフレームを生成することを特徴とする構成16または17に記載の撮像装置。
(構成20)
前記位置姿勢算出手段は、前記現実空間の映像のうちの第1のフレームを基に、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢を算出し、
前記生成手段は、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢を基に、前記現実空間の映像のうちの第1のフレームの撮像時における前記第1の仮想空間の映像の仮のフレームを生成し、
前記位置姿勢算出手段は、前記現実空間の映像のうちの第2のフレームを基に、前記現実空間の映像のうちの第2のフレームの撮像時における前記撮像装置の位置姿勢を算出し、
前記生成手段は、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢と、前記現実空間の映像のうちの第2のフレームの撮像時における前記撮像装置の位置姿勢との差分と、前記第1の仮想空間の映像の仮のフレームとを基に、前記現実空間の映像のうちの第2のフレームの撮像時における前記第1の仮想空間の映像のうちの第1のフレームを生成することを特徴とする構成16または17に記載の撮像装置。
(方法1)
撮像装置と、
表示装置とを有する表示システムの処理方法であって、
前記撮像装置は、
現実空間の映像を撮像する撮像手段と、
前記現実空間の映像を基に、前記撮像装置の位置姿勢を算出する第1の位置姿勢算出手段と、
前記撮像装置の位置姿勢を基に、第1の仮想空間の映像を生成する第1の生成手段と、
前記撮像手段により撮像された現実空間の映像と、前記第1の仮想空間の映像とを合成することにより、第1の複合現実空間の映像を生成し、前記第1の複合現実空間の映像を表示する第1の映像合成手段と、
少なくとも前記撮像手段により撮像された現実空間の映像を前記表示装置に送信する第1の通信手段とを有し、
前記表示装置は、
前記撮像装置から前記現実空間の映像を受信する第2の通信手段と、
前記撮像装置の位置姿勢を基に、第2の仮想空間の映像を生成する第2の生成手段と、
前記第2の通信手段が受信した現実空間の映像と、前記第2の仮想空間の映像とを合成することにより、第2の複合現実空間の映像を生成し、前記第2の複合現実空間の映像を表示する第2の映像合成手段とを有し、
前記表示システムの処理方法は、
前記第1の位置姿勢算出手段が、前記現実空間の映像のうちの第1のフレームに基づく前記撮像装置の位置姿勢を算出するステップと、
前記第1の生成手段が、前記現実空間の映像のうちの第1のフレームに基づく前記撮像装置の位置姿勢を基に、前記第1の仮想空間の映像のうちの第1のフレームを生成するステップと、
前記第1の映像合成手段が、前記現実空間の映像のうちの第1のフレームとは異なるフレームと、前記第1の仮想空間の映像のうちの第1のフレームとを合成するステップと、
前記第2の生成手段が、前記現実空間の映像のうちの第1のフレームに基づく前記撮像装置の位置姿勢を基に、前記第2の仮想空間の映像のうちの第1のフレームを生成するステップと、
前記第2の映像合成手段が、前記現実空間の映像のうちの第1のフレームと、前記第2の仮想空間の映像のうちの第1のフレームとを合成するステップと
を有することを特徴とする表示システムの処理方法。
(方法2)
撮像装置の処理方法であって、
前記撮像装置は、
現実空間の映像を撮像する撮像手段と、
前記現実空間の映像を基に、前記撮像装置の位置姿勢を算出する位置姿勢算出手段と、
前記撮像装置の位置姿勢を基に、仮想空間の映像を生成する生成手段と、
前記撮像手段により撮像された現実空間の映像と、前記生成手段により生成された仮想空間の映像とを合成することにより、複合現実空間の映像を生成する映像合成手段と、
前記複合現実空間の映像を表示装置に送信する通信手段とを有し、
前記撮像装置の処理方法は、
前記位置姿勢算出手段が、前記現実空間の映像のうちの第1のフレームに基づく前記撮像装置の位置姿勢を算出するステップと、
前記生成手段が、前記現実空間の映像のうちの第1のフレームに基づく前記撮像装置の位置姿勢を基に、前記仮想空間の映像のうちの第1のフレームを生成するステップと、
前記映像合成手段が、前記現実空間の映像のうちの第1のフレームとは異なるフレームと、前記仮想空間の映像のうちの第1のフレームとを合成することにより、第1の複合現実空間の映像のうちの第1のフレームを生成し、前記第1の複合現実空間の映像のうちの第1のフレームを表示するステップと、
前記映像合成手段が、前記現実空間の映像のうちの第1のフレームと、前記仮想空間の映像のうちの第1のフレームとを合成することにより、第2の複合現実空間の映像のうちの第1のフレームを生成するステップと、
前記通信手段が、前記第2の複合現実空間の映像のうちの第1のフレームを前記表示装置に送信するステップと
を有することを特徴とする撮像装置の処理方法。
101 撮像部、102 位置姿勢算出部、103 CGデータ取得部、104 CGレンダリング部、105 映像合成部、106 映像表示部、107 通信部、201 通信部、202 映像遅延部、203 CGデータ取得部、204 CGレンダリング部、205 映像合成部、206 映像表示部

Claims (22)

  1. 撮像装置と、
    表示装置とを有する表示システムであって、
    前記撮像装置は、
    現実空間の映像を撮像する撮像手段と、
    前記現実空間の映像を基に、前記撮像装置の位置姿勢を算出する第1の位置姿勢算出手段と、
    前記撮像装置の位置姿勢を基に、第1の仮想空間の映像を生成する第1の生成手段と、
    前記撮像手段により撮像された現実空間の映像と、前記第1の仮想空間の映像とを合成することにより、第1の複合現実空間の映像を生成し、前記第1の複合現実空間の映像を表示する第1の映像合成手段と、
    少なくとも前記撮像手段により撮像された現実空間の映像を前記表示装置に送信する第1の通信手段とを有し、
    前記第1の位置姿勢算出手段は、前記現実空間の映像のうちの第1のフレームに基づく前記撮像装置の位置姿勢を算出し、
    前記第1の生成手段は、前記現実空間の映像のうちの第1のフレームに基づく前記撮像装置の位置姿勢を基に、前記第1の仮想空間の映像のうちの第1のフレームを生成し、
    前記第1の映像合成手段は、前記現実空間の映像のうちの第1のフレームとは異なるフレームと、前記第1の仮想空間の映像のうちの第1のフレームとを合成し、
    前記表示装置は、
    前記撮像装置から前記現実空間の映像を受信する第2の通信手段と、
    前記撮像装置の位置姿勢を基に、第2の仮想空間の映像を生成する第2の生成手段と、
    前記第2の通信手段が受信した現実空間の映像と、前記第2の仮想空間の映像とを合成することにより、第2の複合現実空間の映像を生成し、前記第2の複合現実空間の映像を表示する第2の映像合成手段とを有し、
    前記第2の生成手段は、前記現実空間の映像のうちの第1のフレームに基づく前記撮像装置の位置姿勢を基に、前記第2の仮想空間の映像のうちの第1のフレームを生成し、
    前記第2の映像合成手段は、前記現実空間の映像のうちの第1のフレームと、前記第2の仮想空間の映像のうちの第1のフレームとを合成することを特徴とする表示システム。
  2. 前記第1の通信手段は、前記撮像手段により撮像された現実空間の映像のうちの第1のフレームと、前記現実空間の映像のうちの第1のフレームに基づく前記撮像装置の位置姿勢とを前記表示装置に送信し、
    前記第2の通信手段は、前記撮像装置から前記現実空間の映像のうちの第1のフレームと、前記現実空間の映像のうちの第1のフレームに基づく前記撮像装置の位置姿勢とを受信し、
    前記第2の生成手段は、前記第2の通信手段が受信した前記現実空間の映像のうちの第1のフレームに基づく前記撮像装置の位置姿勢を基に、前記第2の仮想空間の映像のうちの第1のフレームを生成することを特徴とする請求項1に記載の表示システム。
  3. 前記表示装置は、前記第2の通信手段が受信した前記現実空間の映像のうちの第1のフレームを基に、前記現実空間の映像のうちの第1のフレームに基づく前記撮像装置の位置姿勢を算出する第2の位置姿勢算出手段を有し、
    前記第2の生成手段は、前記第2の位置姿勢算出手段により算出された前記現実空間の映像のうちの第1のフレームに基づく前記撮像装置の位置姿勢を基に、前記第2の仮想空間の映像のうちの第1のフレームを生成することを特徴とする請求項1に記載の表示システム。
  4. 前記第1の映像合成手段は、前記現実空間の映像のうちの第1のフレームより後の第2のフレームと、前記第1の仮想空間の映像のうちの第1のフレームとを合成することを特徴とする請求項1に記載の表示システム。
  5. 前記現実空間の映像のうちの第2のフレームは、前記現実空間の映像のうちの最新のフレームであることを特徴とする請求項4に記載の表示システム。
  6. 前記第1の位置姿勢算出手段は、前記現実空間の映像のうちの第1のフレームを基に、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢を算出し、
    前記第1の生成手段は、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢を基に、前記第1の仮想空間の映像のうちの第1のフレームを生成し、
    前記第2の生成手段は、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢を基に、前記第2の仮想空間の映像のうちの第1のフレームを生成することを特徴とする請求項1に記載の表示システム。
  7. 前記第1の位置姿勢算出手段は、前記現実空間の映像のうちの第1のフレームを基に、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢を算出し、
    前記第1の生成手段は、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢を基に、前記第1の仮想空間の映像のうちの第1のフレームを生成し、
    前記第1の通信手段は、前記撮像手段により撮像された現実空間の映像のうちの第1のフレームと、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢とを前記表示装置に送信し、
    前記第2の通信手段は、前記撮像装置から前記現実空間の映像のうちの第1のフレームと、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢とを受信し、
    前記第2の生成手段は、前記第2の通信手段が受信した前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢を基に、前記第2の仮想空間の映像のうちの第1のフレームを生成することを特徴とする請求項2に記載の表示システム。
  8. 前記第1の位置姿勢算出手段は、前記現実空間の映像のうちの第1のフレームを基に、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢を算出し、
    前記第1の生成手段は、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢を基に、前記第1の仮想空間の映像のうちの第1のフレームを生成し、
    前記第2の位置姿勢算出手段は、前記第2の通信手段が受信した前記現実空間の映像のうちの第1のフレームを基に、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢を算出し、
    前記第2の生成手段は、前記第2の位置姿勢算出手段により算出された前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢を基に、前記第2の仮想空間の映像のうちの第1のフレームを生成することを特徴とする請求項3に記載の表示システム。
  9. 前記第1の映像合成手段は、前記現実空間の映像のうちの第1のフレームより後の第2のフレームと、前記第1の仮想空間の映像のうちの第1のフレームとを合成し、
    前記第1の位置姿勢算出手段は、前記現実空間の映像のうちの第1のフレームを基に、前記現実空間の映像のうちの第2のフレームの撮像時における前記撮像装置の位置姿勢を予測し、
    前記第1の生成手段は、前記現実空間の映像のうちの第2のフレームの撮像時における前記撮像装置の位置姿勢を基に、前記第1の仮想空間の映像のうちの第1のフレームを生成し、
    前記第2の生成手段は、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢を基に、前記第2の仮想空間の映像のうちの第1のフレームを生成することを特徴とする請求項1に記載の表示システム。
  10. 前記第1の位置姿勢算出手段は、前記現実空間の映像のうちの第1のフレームを基に、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢を算出し、前記現実空間の映像のうちの第2のフレームの撮像時における前記撮像装置の位置姿勢を予測し、
    前記第1の生成手段は、前記現実空間の映像のうちの第2のフレームの撮像時における前記撮像装置の位置姿勢を基に、前記第1の仮想空間の映像のうちの第1のフレームを生成し、
    前記第1の通信手段は、前記撮像手段により撮像された現実空間の映像のうちの第1のフレームと、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢とを前記表示装置に送信し、
    前記第2の通信手段は、前記撮像装置から前記現実空間の映像のうちの第1のフレームと、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢とを受信し、
    前記第2の生成手段は、前記第2の通信手段が受信した前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢を基に、前記第2の仮想空間の映像のうちの第1のフレームを生成することを特徴とする請求項9に記載の表示システム。
  11. 前記表示装置は、前記第2の通信手段が受信した前記現実空間の映像のうちの第1のフレームを基に、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢を算出する第2の位置姿勢算出手段を有し、
    前記第2の生成手段は、前記第2の位置姿勢算出手段により算出された前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢を基に、前記第2の仮想空間の映像のうちの第1のフレームを生成することを特徴とする請求項9に記載の表示システム。
  12. 前記第1の映像合成手段は、前記現実空間の映像のうちの第1のフレームより後の第2のフレームと、前記第1の仮想空間の映像のうちの第1のフレームとを合成し、
    前記第1の位置姿勢算出手段は、前記現実空間の映像のうちの第1のフレームを基に、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢を算出し、
    前記第1の生成手段は、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢を基に、前記現実空間の映像のうちの第1のフレームの撮像時における前記第1の仮想空間の映像の仮のフレームを生成し、
    前記第1の位置姿勢算出手段は、前記現実空間の映像のうちの第2のフレームを基に、前記現実空間の映像のうちの第2のフレームの撮像時における前記撮像装置の位置姿勢を算出し、
    前記第1の生成手段は、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢と、前記現実空間の映像のうちの第2のフレームの撮像時における前記撮像装置の位置姿勢との差分と、前記第1の仮想空間の映像の仮のフレームとを基に、前記現実空間の映像のうちの第2のフレームの撮像時における前記第1の仮想空間の映像のうちの第1のフレームを生成することを特徴とする請求項1に記載の表示システム。
  13. 前記第1の通信手段は、前記撮像手段により撮像された現実空間の映像のうちの第1のフレームと、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢とを前記表示装置に送信し、
    前記第2の通信手段は、前記撮像装置から前記現実空間の映像のうちの第1のフレームと、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢とを受信し、
    前記第2の生成手段は、前記第2の通信手段が受信した前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢を基に、前記第2の仮想空間の映像のうちの第1のフレームを生成することを特徴とする請求項12に記載の表示システム。
  14. 前記表示装置は、前記第2の通信手段が受信した前記現実空間の映像のうちの第1のフレームを基に、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢を算出する第2の位置姿勢算出手段を有し、
    前記第2の生成手段は、前記第2の位置姿勢算出手段により算出された前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢を基に、前記第2の仮想空間の映像のうちの第1のフレームを生成することを特徴とする請求項12に記載の表示システム。
  15. 撮像装置であって、
    現実空間の映像を撮像する撮像手段と、
    前記現実空間の映像を基に、前記撮像装置の位置姿勢を算出する位置姿勢算出手段と、
    前記撮像装置の位置姿勢を基に、仮想空間の映像を生成する生成手段と、
    前記撮像手段により撮像された現実空間の映像と、前記生成手段により生成された仮想空間の映像とを合成することにより、複合現実空間の映像を生成する映像合成手段と、
    前記複合現実空間の映像を表示装置に送信する通信手段とを有し、
    前記位置姿勢算出手段は、前記現実空間の映像のうちの第1のフレームに基づく前記撮像装置の位置姿勢を算出し、
    前記生成手段は、前記現実空間の映像のうちの第1のフレームに基づく前記撮像装置の位置姿勢を基に、前記仮想空間の映像のうちの第1のフレームを生成し、
    前記映像合成手段は、前記現実空間の映像のうちの第1のフレームとは異なるフレームと、前記仮想空間の映像のうちの第1のフレームとを合成することにより、第1の複合現実空間の映像のうちの第1のフレームを生成し、前記第1の複合現実空間の映像のうちの第1のフレームを表示し、
    前記映像合成手段は、前記現実空間の映像のうちの第1のフレームと、前記仮想空間の映像のうちの第1のフレームとを合成することにより、第2の複合現実空間の映像のうちの第1のフレームを生成し、
    前記通信手段は、前記第2の複合現実空間の映像のうちの第1のフレームを前記表示装置に送信することを特徴とする撮像装置。
  16. 前記映像合成手段は、前記現実空間の映像のうちの第1のフレームより後の第2のフレームと、前記第1の仮想空間の映像のうちの第1のフレームとを合成することにより、第1の複合現実空間の映像のうちの第1のフレームを生成することを特徴とする請求項15に記載の撮像装置。
  17. 前記現実空間の映像のうちの第2のフレームは、前記現実空間の映像のうちの最新のフレームであることを特徴とする請求項16に記載の撮像装置。
  18. 前記位置姿勢算出手段は、前記現実空間の映像のうちの第1のフレームを基に、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢を算出し、
    前記生成手段は、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢を基に、前記仮想空間の映像のうちの第1のフレームを生成することを特徴とする請求項15に記載の撮像装置。
  19. 前記位置姿勢算出手段は、前記現実空間の映像のうちの第1のフレームを基に、前記現実空間の映像のうちの第2のフレームの撮像時における前記撮像装置の位置姿勢を予測し、
    前記生成手段は、前記現実空間の映像のうちの第2のフレームの撮像時における前記撮像装置の位置姿勢を基に、第1の仮想空間の映像のうちの第1のフレームを生成し、
    前記映像合成手段は、前記現実空間の映像のうちの第2のフレームと、前記第1の仮想空間の映像のうちの第1のフレームとを合成することにより、第1の複合現実空間の映像のうちの第1のフレームを生成し、
    前記生成手段は、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢を基に、第2の仮想空間の映像のうちの第1のフレームを生成し、
    前記映像合成手段は、前記現実空間の映像のうちの第1のフレームと、前記第2の仮想空間の映像のうちの第1のフレームとを合成することにより、第2の複合現実空間の映像のうちの第1のフレームを生成することを特徴とする請求項16に記載の撮像装置。
  20. 前記位置姿勢算出手段は、前記現実空間の映像のうちの第1のフレームを基に、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢を算出し、
    前記生成手段は、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢を基に、前記現実空間の映像のうちの第1のフレームの撮像時における前記第1の仮想空間の映像の仮のフレームを生成し、
    前記位置姿勢算出手段は、前記現実空間の映像のうちの第2のフレームを基に、前記現実空間の映像のうちの第2のフレームの撮像時における前記撮像装置の位置姿勢を算出し、
    前記生成手段は、前記現実空間の映像のうちの第1のフレームの撮像時における前記撮像装置の位置姿勢と、前記現実空間の映像のうちの第2のフレームの撮像時における前記撮像装置の位置姿勢との差分と、前記第1の仮想空間の映像の仮のフレームとを基に、前記現実空間の映像のうちの第2のフレームの撮像時における前記第1の仮想空間の映像のうちの第1のフレームを生成することを特徴とする請求項16に記載の撮像装置。
  21. 撮像装置と、
    表示装置とを有する表示システムの処理方法であって、
    前記撮像装置は、
    現実空間の映像を撮像する撮像手段と、
    前記現実空間の映像を基に、前記撮像装置の位置姿勢を算出する第1の位置姿勢算出手段と、
    前記撮像装置の位置姿勢を基に、第1の仮想空間の映像を生成する第1の生成手段と、
    前記撮像手段により撮像された現実空間の映像と、前記第1の仮想空間の映像とを合成することにより、第1の複合現実空間の映像を生成し、前記第1の複合現実空間の映像を表示する第1の映像合成手段と、
    少なくとも前記撮像手段により撮像された現実空間の映像を前記表示装置に送信する第1の通信手段とを有し、
    前記表示装置は、
    前記撮像装置から前記現実空間の映像を受信する第2の通信手段と、
    前記撮像装置の位置姿勢を基に、第2の仮想空間の映像を生成する第2の生成手段と、
    前記第2の通信手段が受信した現実空間の映像と、前記第2の仮想空間の映像とを合成することにより、第2の複合現実空間の映像を生成し、前記第2の複合現実空間の映像を表示する第2の映像合成手段とを有し、
    前記表示システムの処理方法は、
    前記第1の位置姿勢算出手段が、前記現実空間の映像のうちの第1のフレームに基づく前記撮像装置の位置姿勢を算出するステップと、
    前記第1の生成手段が、前記現実空間の映像のうちの第1のフレームに基づく前記撮像装置の位置姿勢を基に、前記第1の仮想空間の映像のうちの第1のフレームを生成するステップと、
    前記第1の映像合成手段が、前記現実空間の映像のうちの第1のフレームとは異なるフレームと、前記第1の仮想空間の映像のうちの第1のフレームとを合成するステップと、
    前記第2の生成手段が、前記現実空間の映像のうちの第1のフレームに基づく前記撮像装置の位置姿勢を基に、前記第2の仮想空間の映像のうちの第1のフレームを生成するステップと、
    前記第2の映像合成手段が、前記現実空間の映像のうちの第1のフレームと、前記第2の仮想空間の映像のうちの第1のフレームとを合成するステップと
    を有することを特徴とする表示システムの処理方法。
  22. 撮像装置の処理方法であって、
    前記撮像装置は、
    現実空間の映像を撮像する撮像手段と、
    前記現実空間の映像を基に、前記撮像装置の位置姿勢を算出する位置姿勢算出手段と、
    前記撮像装置の位置姿勢を基に、仮想空間の映像を生成する生成手段と、
    前記撮像手段により撮像された現実空間の映像と、前記生成手段により生成された仮想空間の映像とを合成することにより、複合現実空間の映像を生成する映像合成手段と、
    前記複合現実空間の映像を表示装置に送信する通信手段とを有し、
    前記撮像装置の処理方法は、
    前記位置姿勢算出手段が、前記現実空間の映像のうちの第1のフレームに基づく前記撮像装置の位置姿勢を算出するステップと、
    前記生成手段が、前記現実空間の映像のうちの第1のフレームに基づく前記撮像装置の位置姿勢を基に、前記仮想空間の映像のうちの第1のフレームを生成するステップと、
    前記映像合成手段が、前記現実空間の映像のうちの第1のフレームとは異なるフレームと、前記仮想空間の映像のうちの第1のフレームとを合成することにより、第1の複合現実空間の映像のうちの第1のフレームを生成し、前記第1の複合現実空間の映像のうちの第1のフレームを表示するステップと、
    前記映像合成手段が、前記現実空間の映像のうちの第1のフレームと、前記仮想空間の映像のうちの第1のフレームとを合成することにより、第2の複合現実空間の映像のうちの第1のフレームを生成するステップと、
    前記通信手段が、前記第2の複合現実空間の映像のうちの第1のフレームを前記表示装置に送信するステップと
    を有することを特徴とする撮像装置の処理方法。
JP2022097330A 2022-06-16 2022-06-16 表示システムおよび撮像装置 Pending JP2023183684A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022097330A JP2023183684A (ja) 2022-06-16 2022-06-16 表示システムおよび撮像装置
US18/334,064 US20230410444A1 (en) 2022-06-16 2023-06-13 Display system for displaying mixed reality space image andprocessing method for use of display system
CN202310702367.7A CN117255187A (zh) 2022-06-16 2023-06-14 显示系统、用于显示系统的处理方法和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022097330A JP2023183684A (ja) 2022-06-16 2022-06-16 表示システムおよび撮像装置

Publications (1)

Publication Number Publication Date
JP2023183684A true JP2023183684A (ja) 2023-12-28

Family

ID=89125382

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022097330A Pending JP2023183684A (ja) 2022-06-16 2022-06-16 表示システムおよび撮像装置

Country Status (3)

Country Link
US (1) US20230410444A1 (ja)
JP (1) JP2023183684A (ja)
CN (1) CN117255187A (ja)

Also Published As

Publication number Publication date
CN117255187A (zh) 2023-12-19
US20230410444A1 (en) 2023-12-21

Similar Documents

Publication Publication Date Title
EP3358835B1 (en) Improved method and system for video conferences with hmds
Kasahara et al. JackIn head: immersive visual telepresence system with omnidirectional wearable camera for remote collaboration
US8072479B2 (en) Method system and apparatus for telepresence communications utilizing video avatars
JP2008146109A (ja) 画像処理方法、画像処理装置
Müller et al. PanoVC: Pervasive telepresence using mobile phones
KR101769118B1 (ko) 텔레프레젠스 영상 합성 장치, 텔레프레젠스 영상 합성 시스템 및 원격지 촬영 장치
US10154247B2 (en) Virtual reality communication systems and methods thereof
JP3488096B2 (ja) 3次元共有仮想空間通信サービスにおける顔画像制御方法,3次元共有仮想空間通信用装置およびそのプログラム記録媒体
US20230231983A1 (en) System and method for determining directionality of imagery using head tracking
JP2009239459A (ja) 映像合成システム、映像合成装置およびプログラム
WO2020137877A1 (ja) 三次元データ再生装置
JP2023183684A (ja) 表示システムおよび撮像装置
WO2021147749A1 (zh) 实现3d显示的方法、装置及3d显示系统
CN116530078A (zh) 用于显示从多个视角采集的经立体渲染的图像数据的3d视频会议系统和方法
JP3913076B2 (ja) 画像合成処理装置
WO2022181379A1 (ja) 画像処理装置、画像処理方法、及びプログラム
WO2023079987A1 (ja) 配信装置、配信方法、およびプログラム
JP5200141B2 (ja) 映像提示システム、映像提示方法、プログラム及び記録媒体
KR102380178B1 (ko) 가상현실 기술 기반의 온라인 스토어를 운용하는 장치
JP7370305B2 (ja) 提示システム、サーバ、第2端末及びプログラム
Lei et al. Middle view stereo representation-an efficient architecture for teleconference with handling occlusions
JP2010283550A (ja) コミュニケーションシステム、コミュニケーション装置
Kaynar et al. AR IN VR: OMNISTEREOSCOPIC TELEPRESENCE WITH HOLOGRAMS FOR REMOTE MAINTENANCE AND COLLABORATION.
CN116560511A (zh) 画面展示方法、装置、计算机设备和存储介质
JP2021086287A (ja) 情報処理システム、情報処理装置、及び情報処理方法