JP2020135222A - 画像生成装置および画像生成方法、プログラム - Google Patents

画像生成装置および画像生成方法、プログラム Download PDF

Info

Publication number
JP2020135222A
JP2020135222A JP2019025788A JP2019025788A JP2020135222A JP 2020135222 A JP2020135222 A JP 2020135222A JP 2019025788 A JP2019025788 A JP 2019025788A JP 2019025788 A JP2019025788 A JP 2019025788A JP 2020135222 A JP2020135222 A JP 2020135222A
Authority
JP
Japan
Prior art keywords
virtual viewpoint
virtual
image
viewpoint image
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019025788A
Other languages
English (en)
Other versions
JP7349793B2 (ja
Inventor
奥谷 泰夫
Yasuo Okuya
泰夫 奥谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019025788A priority Critical patent/JP7349793B2/ja
Priority to US16/774,476 priority patent/US11086395B2/en
Publication of JP2020135222A publication Critical patent/JP2020135222A/ja
Application granted granted Critical
Publication of JP7349793B2 publication Critical patent/JP7349793B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)

Abstract

【課題】ある仮想視点に応じた仮想視点画像を見ながら、当該仮想視点とは別に指定される仮想視点に応じた仮想視点画像を見ることを可能にする。【解決手段】画像生成装置は、撮影画像に基づいて仮想視点画像を生成するための第一の仮想視点を指定する第一の指定部と、第一の仮想視点に対応する第一の仮想視点画像と、第一の仮想視点を指定するための操作とは独立した操作により指定される第二の仮想視点に対応する第二の仮想視点画像とを取得する取得部と、第一の仮想視点画像内に第二の仮想視点画像を表示させる表示制御部と、を備える。【選択図】 図2

Description

本発明は、画像生成装置および画像生成方法、プログラムに関する。
近年、複数のカメラを異なる位置に設置して多視点で同期撮影し、当該同期撮影により得られた複数視点画像を用いて、カメラ設置位置からの画像だけでなく任意の視点から観察される仮想視点画像を生成する技術が注目されている。このような仮想視点画像の生成及び閲覧は、複数のカメラが撮影した画像をサーバ装置などの画像処理部に集約し、この画像処理部にて、視点に基づくレンダリングなどの処理を施し、ユーザ端末に仮想視点画像を表示することで実現できる。
特許文献1では、二次元のディスプレイ上に視線方向が同じである2つの仮想視点画像を重ねて表示する技術について開示されている。
特開2018−036956号公報
しかしながら、特許文献1に記載の技術では、ユーザがある仮想視点に応じた仮想視点画像を見ながら、その仮想視点とは独立して指定可能な別の仮想視点に応じた仮想視点画像を確認することができなかった。例えば、ヘッドマウントディスプレイ(以下、HMD)の左右のディスプレイに視差のある仮想視点画像を表示することにより、HMD装着者は仮想視点画像で構築された三次元仮想空間の中にいるかのような体験が可能になる。このような仮想視点画像で構築された三次元仮想空間の中で、HMD装着者が指定した別の仮想視点に応じた仮想視点画像を確認することはできなかった。
本発明は、ある仮想視点に応じた仮想視点画像を見ながら、当該仮想視点とは別に指定される仮想視点に応じた仮想視点画像を見ることを可能にする技術を提供する。
本発明の一態様による画像生成装置は以下の構成を備える。すなわち、
複数のカメラが撮影した複数の撮影画像に基づいて仮想視点画像を生成するための第一の仮想視点を指定する第一の指定手段と、
前記第一の仮想視点に対応する第一の仮想視点画像と、前記第一の仮想視点を指定するための操作とは独立した操作により指定される第二の仮想視点に対応する第二の仮想視点画像とを取得する取得手段と、
前記第一の仮想視点画像内に前記第二の仮想視点画像を表示させる表示制御手段と、を備える。
本発明によれば、ある仮想視点に応じた仮想視点画像を見ながら、当該仮想視点とは別に指定される仮想視点に応じた仮想視点画像を見ることが可能になる。
第1実施形態による画像生成装置のハードウェア構成例を示すブロック図。 第1実施形態による画像生成装置の機能構成例を示すブロック図。 第1実施形態の画像生成装置による画像生成処理を示すフローチャート。 第二の仮想視点に基づくレンダリング処理を示すフローチャート。 第一の仮想視点に基づくレンダリング処理を示すフローチャート。 仮想ディスプレイの表示位置制御を示すフローチャート。 三次元物理空間と三次元仮想空間の対応関係を示す模式図。 仮想ディスプレイの位置を制御した結果を示す模式図。 パブリックビューイングへの適用を示す模式図。 HMDとコントローラ(仮想カメラ)に対応する仮想視点を説明する模式図。
以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
<第1実施形態>
第1実施形態では、仮想視点画像で構築された三次元仮想空間において、仮想視点画像のカメラワークを行う場合について説明する。
図1は第1実施形態に係る画像生成装置100のハードウェア構成例を示すブロック図である。CPU(Central Processing Unit)は、各種処理のための演算や論理判断などを行い、システムバス109に接続された各構成要素を制御する。画像生成装置100には、プログラムメモリとデータメモリを含むメモリが搭載されている。例えば、ROM(Read−Only Memory)102は、プログラムメモリであって、後述する各種処理手順を含むCPUによる制御のためのプログラムを格納する。また、例えば、RAM(Random Access Memory)103は、データメモリであり、CPU101の上記プログラムのワーク領域、エラー処理時のデータの退避領域、上記制御プログラムのロード領域などを有する。なお、画像生成装置100に接続された外部記憶装置などからRAM103にプログラムをロードすることで、プログラムメモリを実現しても構わない。
HDD104は、第1実施形態に係る複数の電子データやプログラムを記憶しておくためのハードディスクである。同様の役割を果たすものとして、上述した外部記憶装置が用いられてもよい。外部記憶装置は、例えば、メディア(記録媒体)と、当該メディアへのアクセスを実現するための外部記憶ドライブとで実現することができる。このようなメディアとしては、例えば、フレキシブルディスク(FD)、CD−ROM、DVD、USBメモリ、MO、フラッシュメモリ等が知られている。また、外部記憶装置は、ネットワークで接続されたサーバ装置などであってもよい。
ヘッドマウントディスプレイ(以下、HMD105)は、左右の目の位置に配置されたディスプレイに画像生成装置100の出力を表示するためのデバイスである。また、HMD105は、ユーザの頭部の位置を画像生成装置100に入力するためのデバイスとしても機能する。第1実施形態では、視差を利用した三次元仮想空間を構築するため、左右の目の位置に配置されたディスプレイには、視差を考慮して得られた左目用と右目用の2種類の仮想視点画像が表示される。通信I/F106は、公知の通信技術によって、複数のカメラ108と有線あるいは無線で接続し撮影データを受信するとともに、放送局などに生成した仮想視点画像を送信する。コントローラ107は、例えば、ユーザが手に保持して携帯可能な入力デバイスであり、自身の位置および姿勢を画像生成装置100に出力する。
図7は、本実施形態における三次元物理空間と三次元仮想空間との関係を示した模式図である。図7(a)は、三次元物理空間を示した模式図である。三次元物理空間にいるユーザ701は、HMD105を装着し、コントローラ107を手に保持している。図7(b)は、三次元仮想空間を示した模式図である。ユーザ701は、HMD105を介して三次元仮想空間702を観察する。また、ユーザ701が保持している三次元物理空間におけるコントローラ107(図7(a))は、三次元仮想空間702では仮想カメラ703として観察される。また、仮想カメラ703に付帯する仮想ディスプレイ704が、HMD105を介して仮想的に表示されている。
仮想ディスプレイ704の表示領域705には、仮想カメラ703によって仮想的に撮影された三次元仮想空間702の仮想視点画像が表示されている。すなわち、仮想カメラ703に付帯している仮想ディスプレイ704には、仮想カメラ703によって特定される仮想視点を基に生成された仮想視点画像が、仮想的に表示される。ここで仮想的に表示されるというのは、HMD105を介してユーザ701には仮想ディスプレイ704の表示領域705に仮想視点画像が表示されているように見えるという意味である。706、707、708は三次元仮想空間に存在し前景として表示される選手等のオブジェクトである。709は、仮想カメラ703の画角(撮影範囲の境界)を仮想視点画像で構築された三次元仮想空間に表示したガイド線である。図7(b)では、ガイド線709が4本の二重線で表示されている。ガイド線709により、ユーザ701は、仮想ディスプレイ704を常時見続けることなく仮想カメラ703の画角を知ることができる。
図2は、第1実施形態に係る画像生成装置100の機能構成の一例を示すブロック図である。画像生成装置100が有する各機能部は、CPU101が、ROM102に格納されたプログラムをRAM103に展開し、後述する各フローチャートに従った処理を実行することで実現される。なお、各機能部は、少なくともその一部またはすべてが専用のハードウェアによって実現されてもよい。以下、機能部について説明する。
画像取得部201は、複数のカメラ108の同期撮影により得られた複数の画像を取得する。前景・背景分離部202は、画像取得部201が取得した画像を、動きのある前景と動きのない背景に分離する。前景と背景の分離には既存の手法を用いることができる。たとえば、複数のフレームにわたり画素の変化がないまたは少ない領域を背景とし、画素が変化する領域を前景として分離してもよい。たとえばサッカーの場合、前景は選手やボールに相当し、背景はフィールドや観客席に相当する。
前景形状生成部203は、前景・背景分離部202が切り出した前景に基づいてオブジェクト(選手やボール)の三次元形状および3D仮想空間での位置を推定する。前景は、複数のカメラ108で様々な角度から撮影したオブジェクトの画像である。三次元形状の推定にはビジュアルハルなどの方法を用いるのが一般的である。背景形状生成部204は、前景・背景分離部202が切り出した背景に基づいてオブジェクト(スタジアムなど)の三次元形状を推定する。スタジアムなど建造物の場合は三次元形状を別途用意することも可能である。その場合は事前にHDD104に背景モデルを保存しておき、それを読み出すものとする。
入力データ取得部205は、ユーザが装着するHMD105の位置/姿勢を特定するためのセンシングデータと、HMD105に表示する仮想視点画像の画角データとを取得する。また、入力データ取得部205は、ユーザが保持するコントローラ107の位置/姿勢を特定するためのセンシングデータを取得する。上述したように、コントローラ107は、三次元仮想空間では仮想カメラとして観察される。入力データ取得部205は、さらに仮想カメラに付帯する仮想ディスプレイに表示する仮想視点画像の画角データを取得する。HMD105はコントローラ107などのデバイスの位置/姿勢をセンシングする方法としては、既存の技術を利用することができる。例えば、加速度センサ、地磁気センサ、赤外線、レーダ、ビーコンの利用、画像処理によりデバイスの位置/姿勢を特定することがあげられる。
位置/姿勢算出部206は、入力データ取得部205が取得したセンシングデータを基に、デバイスが存在する場所における座標系(以下、デバイス座標系と呼ぶ)でのデバイスの位置/姿勢を算出する。本例において、デバイスとはHMD105およびコントローラ107である。仮想視点算出部207は、位置/姿勢算出部206が算出したデバイスの位置/姿勢を基に、仮想視点の位置と方向を決定する。
図10(a)は、HMD105の位置/姿勢を基にHMD105の左右のディスプレイに表示する仮想視点画像の仮想視点を算出する様子を示した模式図である。図10(a)において、HMD105の位置/姿勢は、ベクトル1001で表現されている。ベクトル1001の始点がHMD105の位置を、矢印がHMD105の姿勢(方向)を意味している。図10(a)では、HMD105の前方にベクトルが向いている様子が分かる。HMD105の位置/姿勢を基に、HMD105の右目用のディスプレイ1002、左目用のディスプレイ1005の位置および方向(ベクトル1004,1007)がHMD105の形状データに基づいてそれぞれ算出される。
より具体的には、仮想視点算出部207は、HMD105の位置/姿勢に基づいて決定されるベクトル1001を基準に、右目用のディスプレイ1002の中心位置1003と左目用のディスプレイ1005の中心位置1006を算出する。計算に必要なHMD105の形状データは事前に取得されているものとする。仮想視点算出部207は、中心位置1003を右目用の仮想視点の位置に設定し、これを視点としてベクトル1001と平行な方向を右目用の仮想視点の方向に設定する。結果、ベクトル1004で表される右目用の仮想視点が得らえる。同様に、仮想視点算出部207は、中心位置1006を左目用の仮想視点の位置に設定し、ベクトル1007で表される左目用の仮想視点を得る。
以上のようにして、左右それぞれの仮想視点の位置と方向が決定される。但し、決定された仮想視点はデバイス座標系における仮想視点なので、仮想視点算出部207は、これをスタジアム座標系の仮想視点に変換する。なお、スタジアム座標系とは、複数のカメラ108により撮影される空間について設定されている座標系の一例である。本実施形態では、複数のカメラ108の撮影対象がスタジアムであるためスタジアム座標系という名称を用いる。ただし、複数のカメラ108の撮影対象はスタジアムに限定されず、例えばライブステージなどであってもよい。撮影対象がスタジアムでない場合も、デバイス座標系から撮影対象の場所に応じた座標系への変換が行われる。このような座標系の変換は一般的な方法を用いることができる。デバイス座標系とスタジアム座標系のどちらも物理空間なので、スケールは同じでよく、各軸の方向を合わせておけば単純なシフト移動によって座標系の変換を行うことが可能である。
同様に、仮想視点算出部207は、位置/姿勢算出部206が算出したコントローラ107の位置/姿勢を基に、仮想カメラ703の仮想視点を算出する。図10(b)は、コントローラ107の位置/姿勢を示した模式図である。ベクトル1008の始点がコントローラ107の位置、矢印がコントローラ107の姿勢を表している。図10(c)は、三次元仮想空間で観察される仮想カメラ703の模式図である。仮想ディスプレイ704が、仮想カメラ703に付帯している。ベクトル1009は、仮想カメラ703の位置/姿勢を示すベクトルであるとともに、仮想カメラ703により特定される仮想視点を表すベクトルでもある。コントローラ107と仮想カメラ703の位置と方向は、例えばベクトル1008とベクトル1009により事前に対応付けされている。
仮想視点算出部207は、コントローラ107のセンシングされた位置/姿勢を基に、仮想カメラ703による仮想視点を決定する。こうして決定された仮想視点はデバイス座標系の仮想視点であるため、仮想視点算出部207は、これをスタジアム座標系の仮想視点に変換する。座標系の変換は、HMDによる仮想視点について上述したとおりである。なお、仮想ディスプレイ704には、仮想カメラ703の仮想視点を基に生成した仮想視点画像が仮想的に表示される。
図2に戻り、レンダリング処理部209は、仮想視点算出部207が算出したHMD105による第一の仮想視点(ベクトル1004,1007)から観察される、第一の仮想視点画像を生成する。また、レンダリング処理部209は、仮想視点算出部207が算出したコントローラ107による第二の仮想視点(ベクトル1009)から観察される第二の仮想視点画像を生成する。それぞれの仮想視点画像は、仮想視点と、前景形状生成部203および背景形状生成部204が生成した三次元形状と、カメラ108が撮影した撮影データに基づいて生成される。生成された仮想視点画像は、画像保持部210に保持される。
レンダリング処理部209は、HMD105による仮想視点から観察される第一の仮想視点画像を画像保持部210から読み出し、三次元仮想空間の画像として描画する。また、レンダリング処理部209は、コントローラ107の位置/姿勢に応じて仮想カメラ703および仮想ディスプレイ704を三次元仮想空間内に描画する。仮想物体モデル保持部208には、仮想カメラ703及び仮想ディスプレイ704の三次元形状モデルが保持されており、レンダリング処理部209はこれらのモデルを用いることができる。さらに、レンダリング処理部209は、画像保持部210が保持している第二の仮想視点画像を読み出し、仮想ディスプレイ704の画面のテクスチャとして利用する。こうして、三次元仮想空間における仮想カメラ703の仮想ディスプレイ704に、仮想カメラ703により撮影された仮想視点画像が表示される。
画像保持部210は、レンダリング処理部209が生成した仮想視点画像を保持する。画像出力部211は、レンダリング処理部209が生成した仮想視点画像をHMD105に出力することで、HMD105の表示部に仮想視点画像を表示させる。また、画像出力部211は、画像保持部210が保持する仮想視点画像を放送局などに出力する。なお、画像取得部201、前景・背景分離部202、前景形状生成部203、背景形状生成部204のいずれかあるいはすべてが画像生成装置100の外部の構成であってもよい。また、レンダリング処理部209の機能のうち、第一の仮想視点画像と第二の仮想視点画像を生成する機能を外部装置に持たせるようにしてもよい。
図3は、第1実施形態に係る画像生成装置100の処理の流れを示すフローチャートである。図3のフローチャートでは1フレーム分の仮想視点画像を生成・出力する処理の流れを示す。したがって、図3に示される処理を1秒間に60回繰り返すことで60フレーム/秒の仮想視点画像が生成される。
ステップS301において、画像取得部201は、複数のカメラ108が撮影した複数の画像を取得する。取得した画像は時間同期して撮影されたものである。ステップS302において、前景/背景分離部202は、画像取得部201が取得した複数の画像それぞれに対して、前景と背景を分離する画像処理を行う。前景/背景分離は背景差分法などの一般的な方法で実現可能である。例えば、背景差分法では、前景がない状態で撮影した画像を保持しておき、その画像との差分をとることで前景を得ることができる。
ステップS303において、背景形状生成部204は、前景/背景分離部202が分離した背景に基づいて背景の形状モデルを生成する。ステップS304において、前景形状生成部203は、前景/背景分離部202が分離した前景に基づいて前景の形状モデルを生成する。これらの形状モデルの生成には、例えば、ビジュアルハルやフォトハルなどの一般的な技術を用いることができる。なお、背景モデルは、例えば、事前に用意したスタジアムの形状モデルから取得されてもよいし、スタジアムの形状をレーザースキャナー等で測定することにより取得されてもよい。
ステップS305において、レンダリング処理部209は第二の仮想視点に基づいてレンダリングを行うことで第二の仮想視点画像を生成する。上述したように、第二の仮想視点とは、ユーザが保持するコントローラ107を仮想カメラに見立てた場合の仮想視点(図10(c)のベクトル1009)を意味する。ステップS305で生成される第二の仮想視点画像は、後述のステップS306において、仮想ディスプレイ704のテクスチャとしてレンダリングに利用される。ステップS305の詳細な処理のフローチャートに関しては後述する。
ステップS306において、レンダリング処理部209は第一の仮想視点に基づいてレンダリングを行うことで第一の仮想視点画像を生成する。第一の仮想視点とは、ユーザが装着するHMD105の左右ディスプレイの位置に基づく仮想視点を意味する。この場合、左右にそれぞれディスプレイが存在するので、2つの第一の仮想視点が存在(図10(a)のベクトル1004と1007)する。結果、左目用と右目用の2つの第一の仮想視点画像が存在する。
ステップS307において、画像出力部211は、レンダリング処理部209が生成した2つの第一の仮想視点画像をHMD105の左右のディスプレイにそれぞれ出力する。こうして、レンダリング処理部209および画像出力部211は、第一の仮想視点画像内に第二の仮想視点画像を表示させる表示制御を行う。また、画像出力部211は、画像保持部210が保持する仮想視点画像を放送局などに出力し、処理を終了する。なお、画像保持部210が保持する仮想視点画像のうち、第一の仮想視点画像はHMD105にのみ出力され、第二の仮想視点画像が放送局や外部の記憶装置へ出力されてもよい。すなわち、第一の仮想視点画像と第二の仮想視点画像との出力先が異なっていてもよい。また、第一の仮想視点画像の出力先はHMD105に限定されず、その他の液晶ディスプレイなどであってもよい。また、第一の仮想視点画像を表示する装置と、第一の仮想視点画像に対応する仮想視点を指定するための操作部とが、別の装置として構成されていてもよい。
図4は、図3のステップS305における第二の仮想視点に基づくレンダリング処理の流れを示すフローチャートである。先に述べたように、第二の仮想視点とは、ユーザが保持するコントローラ107を仮想カメラ703に見立てた場合の仮想カメラの仮想視点(図10(c)のベクトル1009)を意味する。
ステップS401において、入力データ取得部205は、仮想カメラ703の位置/姿勢を特定するためのセンシングデータをコントローラ107から取得する。また、入力データ取得部205は、仮想カメラ703に付帯する仮想ディスプレイ704に表示する仮想視点画像の画角データ(仮想カメラ703の画角)を取得する。なお、仮想視点画像の画角データは事前に用意しておくものとするが、もちろんこれに限定されるものではない。例えば、ユーザがコントローラ107などを介して、仮想カメラ703の画角を設定するようにしてもよい。
ステップS402において、位置/姿勢算出部206は、入力データ取得部205が取得したコントローラ107のセンシングデータを基に、デバイス座標系でのコントローラ107の位置/姿勢を算出する。続いて、仮想視点算出部207は、仮想物体モデル保持部208が保持する仮想カメラのモデルを基に、コントローラ107の位置/姿勢をデバイス座標系での仮想カメラの位置/姿勢(仮想視点)に変換する。さらに、デバイス座標系からスタジアム座標系に座標変換することで、スタジアム座標系での第二の仮想視点と画角を得る。
ステップS403において、レンダリング処理部209は、第二の仮想視点からみた場合の仮想視点画像の背景をレンダリングする。背景のレンダリングには、背景形状生成部204が生成した背景モデル、および、画像取得部201が取得した撮影画像が利用される。ステップS404において、レンダリング処理部209は、第二の仮想視点からみた場合の仮想視点画像の前景をレンダリングする。前景のレンダリングには、前景形状生成部203が生成した前景モデル、および、画像取得部201が取得した撮影画像が利用される。以上のように、レンダリング処理部209は、複数の撮影画像と第二の仮想視点に基づいて第二の仮想視点画像を生成する。
ステップS405において、レンダリング処理部209は、ステップS403による背景レンダリングの結果にステップS404による前景レンダリングの結果を重畳することで、第二の仮想視点から見た第二の仮想視点画像を生成する。そして、レンダリング処理部209は、第二の仮想視点画像を画像保持部210に保存する。
図5は、図3のステップS306における第一の仮想視点に基づくレンダリング処理を示すフローチャートである。先に述べたように、第一の仮想視点とは、ユーザが装着するHMD105の左右ディスプレイの位置に基づく仮想視点を意味する。この場合、左右にそれぞれディスプレイが存在するので、第一の仮想視点は2つ存在(図10(a)のベクトル1004と1007)し、生成される第一の仮想視点画像も2つ存在する。
入力データ取得部205および仮想視点算出部207は、複数のカメラ108が撮影した複数の撮影画像により再現可能な三次元仮想空間における仮想視点画像を生成するための第一の仮想視点を指定する第一の指定部の一例である。まず、ステップS501において、入力データ取得部205は、HMD105の位置/姿勢を特定するためのセンシングデータをHMD105から取得する。また、入力データ取得部205は、HMD105の左右のディスプレイに表示する仮想視点画像の画角データを取得する。ディスプレイに表示する仮想視点画像の画角データは事前に用意しておくものとするがこれに限定されるものではない。例えば、ユーザがコントローラ107などを介して、画角を設定するようにしてもよい。
ステップS502において、位置/姿勢算出部206は、入力データ取得部205が取得したHMD105のセンシングデータを基に、デバイス座標系でのHMD105の位置/姿勢を算出する。さらに、仮想視点算出部207は、算出したHMD105の位置/姿勢と仮想物体モデル保持部208が保持するHMD105のモデルを基に、HMD105の左右ディスプレイの位置と方向をそれぞれ算出する。仮想視点算出部207は、算出した左右のディスプレイの位置と方向をデバイス座標系での仮想視点(ベクトル1004,1007)とする。さらに、仮想視点算出部207は、デバイス座標系からスタジアム座標系に座標変換することで、スタジアム座標系での第一の仮想視点と画角を得る。
ステップS503において、レンダリング処理部209は、第一の仮想視点からみた場合の仮想視点画像の背景をレンダリングする。背景のレンダリングには、背景形状生成部204が生成した背景モデル、および、画像取得部201が取得した撮影画像を利用する。ステップS504において、レンダリング処理部209は、第一の仮想視点からみた場合の仮想視点画像の前景をレンダリングする。前景のレンダリングには、前景形状生成部203が生成した前景モデル、および、画像取得部201が取得した撮影画像を利用する。以上の処理により、レンダリング処理部209は、複数の撮影画像と第一の仮想視点に基づいて第一の仮想視点画像を生成する。
以上のように、レンダリング処理部209は、ステップS503〜S504で第一の仮想視点画像を取得し、ステップS403〜S404で第二の仮想視点画像を取得する。すなわち、レンダリング処理部209は、第一の仮想視点に対応する第一の仮想視点画像と、第一の仮想視点を指定するための操作(HMDの操作)とは独立した操作(コントローラの操作)により指定された第二の仮想視点に対応する第二の仮想視点画像とを取得する取得部の一例である。なお、上述したように、第一の仮想視点画像および第二の仮想視点画像の少なくとも何れかが外部装置から取得されるようにしてもよい。また、本実施形態では、第一の仮想視点は例えばHMD105により、第二の仮想視点は例えばコントローラ107により指定される。
次に、ステップS505において、入力データ取得部205は、仮想カメラ703の位置/姿勢を特定するためのセンシングデータをコントローラ107から取得する。ステップS506において、位置/姿勢算出部206は、入力データ取得部205が取得したコントローラ107のセンシングデータを基に、デバイス座標系でのコントローラ107の位置/姿勢を算出する。続いて、仮想視点算出部207は、仮想物体モデル保持部208に保持されている仮想カメラのモデルデータを基に、コントローラ107の位置/姿勢をデバイス座標系での仮想カメラ703の位置/姿勢に変換する。得られた仮想カメラ703の位置/姿勢は、デバイス座標系で表されているので、さらに座標系をデバイス座標系からスタジアム座標系に変換する。こうして、スタジアム座標系での仮想カメラの位置/姿勢が算出される。
ステップS507において、レンダリング処理部209は、仮想カメラ703のレンダリングを行う。レンダリング処理部209は、仮想物体モデル保持部208が保持する仮想カメラ703のモデルデータを用いて、第一の仮想視点から見た場合の仮想カメラ703をレンダリングする。なお、仮想カメラ703は実際には存在しないものなので、事前にCGを作成しておく、または、既存のカメラの写真などを利用してテクスチャを用意しておくものとする。
ステップS508において、レンダリング処理部209は、仮想カメラ703に付帯する、仮想の表示領域の一例である仮想ディスプレイ704の、スタジアム座標系における位置を算出する。これには、ステップS505で入力データ取得部205が取得したコントローラ107の位置/姿勢を特定するセンシングデータと、仮想物体モデル保持部208が保持する仮想カメラ703のモデルデータが用いられる。本実施形態では、仮想カメラ703のモデルデータには仮想ディスプレイ704のモデルデータが含まれているものとする。レンダリング処理部209は、仮想カメラ703のモデルデータとスタジアム座標系における位置/姿勢とに基づいて仮想ディスプレイ704の位置/姿勢を算出する。以上のステップS505〜S508を実行するレンダリング処理部209は、三次元仮想空間に仮想の表示領域を設定する設定部として機能する構成の一例である。
ステップS509において、レンダリング処理部209は、画像保持部210が保持する第二の仮想視点に基づく仮想視点画像を読み出す。第二の仮想視点画像は、ステップS405において画像保持部210に保持されたものである。ステップS510において、レンダリング処理部209は、ステップS508で算出された仮想ディスプレイ704の位置/姿勢に従って決定される表示領域705に、第二の仮想視点画像をレンダリングする。すなわち、仮想ディスプレイ704が有する画面(表示領域705)のテクスチャとして、第二の仮想視点に基づく第二の仮想視点画像を利用することになる。
上述のステップS503、S504,S507、S510では、それぞれ背景、前景、仮想カメラ、仮想ディスプレイのレンダリングが行われる。このレンダリング結果は、これらの処理の順に仮想視点画像として重畳される。重畳に際しては、各オブジェクトの前後関係が考慮されオクルージョン処理が施される。よって、ステップS510のレンダリングが完了した時点で、第一の仮想視点から見た仮想視点画像が完成することになる。以上のように、レンダリング処理部209は、第一の仮想視点画像と仮想の表示領域を描画し、仮想の表示領域に第二の仮想視点画像を描画する描画部として機能する構成の一例である。
以上説明したように、第1実施形態では、第二の仮想視点からみた第二の仮想視点画像を作成し、これを第一の仮想視点から見た第一の仮想視点画像を作成する際のテクスチャとして利用(ステップS508〜S510)する。これにより、第一の仮想視点画像内に第二の仮想視点画像が表示される。そのため、仮想視点画像で構築された三次元仮想空間の中であっても、別の仮想視点画像を確認することが可能になる。
なお、上記実施形態では、仮想ディスプレイ704の位置が仮想カメラ703の一部として固定されている場合について説明したが、これに限定されるものではなく、状況に応じて仮想ディスプレイ704の位置を制御するようにしてもよい。仮想視点画像のスムーズなカメラワークを実現するためには、仮想カメラ703を動かしながらも前景(選手やボール)の動きを確認し続ける必要がある。しかしながら、仮想カメラ703との前景の位置関係から、仮想ディスプレイ704が前景を隠してしまう場合があり、カメラワークに支障が生じる可能性がある。よって、前景を隠さない位置に仮想ディスプレイ704を表示することができれば、仮想視点画像を得る際のスムーズなカメラワークの一助となり得る。
上記ステップS508では、コントローラ107の位置/姿勢に基づいて仮想ディスプレイ704(仮想の表示領域)の位置、方向が一意に算出される。これに対し、第一の仮想視点画像に存在する前景の位置に応じて仮想ディスプレイ704(仮想の表示領域)の位置が決定されるようにしてもよい。図6は、ステップS508において、前景の位置関係に応じて仮想ディスプレイ704の位置を制御するための処理の一例を示すフローチャートである。
ステップS601において、レンダリング処理部209は、ステップS502で算出した第一の仮想視点の位置と方向を取得する。ステップS602において、レンダリング処理部209は、前景形状生成部203から前景の位置を取得する。ステップS603において、レンダリング処理部209は、位置/姿勢算出部206から取得したコントローラ107の位置に基づいて、スタジアム座標系での仮想ディスプレイ704の位置候補を算出する。このとき、本実施形態における仮想ディスプレイ704の位置候補は、仮想カメラ703の上、右、左の3か所とする。なお、仮想ディスプレイ704の候補位置を示す情報は、仮想カメラ703のモデルデータに含まれており、仮想物体モデル保持部208に保持されているものとする。
ステップS604において、仮想ディスプレイの位置候補の中で未処理の位置候補を一つ選択する。未処理の位置候補が残ってない場合、処理はステップS610に移る。ステップS605において、レンダリング処理部209は隠れ判定を行う。隠れ判定とは、ステップS601で取得した第一の仮想視点から見た場合に、仮想ディスプレイ704によってステップS602で取得した前景が隠れるか否かを判定することである。仮想ディスプレイ704によって前景が隠れると判定された場合(ステップS606でYES)、処理はステップS604に戻り、次の位置候補を選択する。他方、仮想ディスプレイ704によって前景が隠れないと判定された場合(ステップS606でNO)、処理はステップS607に進む。すなわち、前景に隠れが生じる仮想ディスプレイ704の位置は候補から除外され、前景に隠れが生じない仮想ディスプレイ704の位置に関しては、ステップS607以降の表示の見づらさ判定に進むことになる。結果、第一の仮想視点画像に存在する前景を隠さないように仮想ディスプレイ704の位置が決定される。
ステップS607において、レンダリング処理部209は、ステップS604で選択した仮想ディスプレイ704の位置/姿勢を取得する。ステップS608において、レンダリング処理部209は、第一の仮想視点から見た仮想ディスプレイ704の表示の見づらさを判定する。表示の見づらさの判定には、第一の仮想視点から見た仮想ディスプレイ704の位置と方向を考慮する。まず、位置に関しては、画角の中央に近ければ見やすく、離れるにしたがって見づらいと判定する。また、方向に関しては、正対している場合は見やすいと判定し、正対している状態から角度がつくにつれて見づらいと判定する。これらの位置と方向の見づらさを数値化してトータルの見づらさを判定する。ステップS609において、ステップS604で選択された仮想ディスプレイ704の位置候補に対する数値化した見づらさの値を保持する。その後、処理はステップS604に戻る。
ステップS610において、レンダリング処理部209は、ステップS609で保持された仮想ディスプレイ704の各位置候補に対する見づらさの値に基づいて、仮想ディスプレイ704の位置を決定する。こうして、レンダリング処理部209は、仮想ディスプレイ704の複数の位置候補から、見づらさの値が最も小さい位置候補(もっとも見やすい位置候補)を仮想ディスプレイ704の位置として決定する。以上のように、本実施形態によれば、仮想の表示領域の面が第一の仮想視点と正対するほど、および、仮想の表示領域の位置が第一の仮想視点画像の中央にあるほど高くなる評価値が算出され、評価値に基づいて仮想の表示領域が設定される。
なお、ステップS610で決定した仮想ディスプレイ704の位置に対する見づらさの値が閾値を超えている場合に、見づらさが閾値を下回るようにレンダリング処理部209が仮想ディスプレイ704の方向を変更するステップを設けてもよい。例えば、第一の仮想視点から見た仮想ディスプレイ704の方向(法線方向)が正対から45度以上の角度にならないように制御することで、見づらさを低減することが可能である。また、評価値として仮想の表示領域の位置と方向を考慮したが、何れか一方を考慮するようにしてもよい。例えば、第一の仮想視点の視線方向と仮想の表示領域の面の法線方向の差が閾値以下となるように制限するようにしてもよい。
また、ステップS603では、仮想ディスプレイ704の位置の候補を取得する場合について説明したがこれに限定されるものではなく、例えば、大きさ、向き、形などの候補を取得するように構成してもよい。
図8は、第一の仮想視点に基づく第一の仮想視点画像の一例を示す模式図である。図8では、第一の仮想視点画像801に、前景(選手)802、803、804、ユーザの仮想的な手805が表示された状態が示されている。仮想的な手805は、仮想物体モデル保持部208に保持されているものとする。仮想的な手805を表示することでユーザが自身で仮想カメラを制御していることへの理解を高める効果がある。仮想カメラ703、仮想ディスプレイ704、表示領域705については、上述したとおりである。
図8(a)は、仮想カメラ703の上に仮想ディスプレイ704が配置された場合を示す模式図である。この位置に仮想ディスプレイ704が配置されることで、前景である選手802の足が隠れてしまっている。上記実施形態によれば、前景と仮想ディスプレイ704との位置関係を考慮して仮想ディスプレイ704が配置される。図8(b)は、仮想カメラ703の右に仮想ディスプレイ704が配置された場合を示す模式図である。この位置に仮想ディスプレイ704が配置されることで、図8(a)と比べて、前景である選手802を隠すことなく第二の仮想視点に基づく仮想視点画像を確認することができている。
以上説明したように、前景の位置関係に応じて仮想ディスプレイの位置を制御することにより、仮想ディスプレイによって前景を隠すことがなくなり、スムーズなカメラワークの一助となる。なお、上記の例では仮想ディスプレイの位置が仮想カメラの位置に基づいて決まるものとしたが、これに限定されない。例えば、第二の仮想視点画像が第一の仮想視点画像内の所定位置(四隅など)に固定して表示されてもよいし、複数の所定位置の中から前景の位置等に基づいて選択された位置に表示されてもよい。また例えば、仮想ディスプレイの位置が第一の仮想視点画像に対応する三次元仮想空間702内の所定位置に固定されていてもよい。
<第2実施形態>
なお、第1実施形態では、共通の三次元仮想空間において、別の仮想視点からの仮想視点画像を観察可能とする構成に関し、仮想視点画像のカメラワークを行う例を説明したが、これに限定されるものではない。例えば、第二の仮想視点画像が、第一の仮想視点画像を生成するための複数のカメラ108からなる第一の集合とは異なる、複数のカメラからなる第二の集合により得られる複数の撮影画像と第二の仮想視点とに基づいて生成されるようにしてもよい。第2実施形態では、任意の仮想視点画像で構築される三次元仮想空間の中に設けられた仮想スクリーンに、別の仮想視点画像を表示するようにして三次元仮想空間におけるパブリックビューイングを実現する例を説明する。
図9は、第1実施形態に関連する技術をパブリックビューイングに適用した例を示す模式図である。図9(a)は、ユーザ901が仮想視点画像で構築された三次元仮想空間902の中で、仮想スクリーン903(仮想の表示領域)に表示された仮想視点画像を見ている様子を表している。点線は仮想視点画像を表すものとする。図9(b)は、スタジアムA904で行われている競技を、第一の集合に属する複数のカメラ905で撮影している様子を示す模式図である。図9(a)において、902は、複数のカメラ905で同期撮影した画像を基に生成した仮想視点画像で構築された三次元仮想空間を示す。
図9(c)は、スタジアムB906で行われている競技を、上記第一の集合とは異なる第二の集合に属する複数のカメラ907で撮影している様子を示す模式図である。複数のカメラ907で同期撮影した画像を基に生成された仮想視点画像が図9(a)の仮想スクリーン903に表示される。この場合、第一の仮想視点はユーザ901が装着するHMDに対応付けられ、第二の仮想視点は図9(c)のスタジアムB906に配置された仮想カメラ(図示せず)に対応付けられる。したがって、第2実施形態では、第一の仮想視点を生成する三次元仮想空間と第二の仮想視点を生成する三次元仮想空間は、別個のものとなる。なお、ユーザ901がスタジアムB906に配置された仮想カメラの位置、姿勢を指示できるようにしてもよい。
このようにすることで、ユーザ901は、仮想スクリーンを用いたパブリックビューイングによりスタジアムB906で行われている競技を観戦し、スタジアムA904で行われている競技を三次元仮想空間で観戦することが可能になる。つまり、スタジアムA904で行われている競技を仮想視点画像で構築された三次元仮想空間の中で三次元的に見ることができ、スタジアムB906で行われている競技を同じ三次元仮想空間の中で大型ビジョンに表示された仮想視点画像として見ることができる。
なお、第二実施形態の構成は第1実施形態(図1~図2)と同様である。但し、第二実施形態では、複数のカメラ108の第一の集合と、複数のカメラからなる第二の集合を有することになる。また、画像取得部201、前景・背景分離部202、前景形状生成部203、背景形状生成部204は、それぞれ、第一の集合のカメラ群と第二の集合のカメラ群について別々に処理を行うことになる。また、仮想物体モデル保持部208は、仮想スクリーン903のモデルデータを保持する。さらに、レンダリング処理部209は、第一、第二の仮想視点画像を、第一の集合と第二の集合のそれぞれのカメラ群から得られた撮影画像に基づいて生成する。
以上説明したように、上記各実施形態によれば、生成した仮想視点画像をテクスチャの一部としてレンダリングすることにより、仮想視点画像で構築された三次元仮想空間の中で仮想視点画像を確認することが可能になる。
なお、本発明は、仮想視点画像で構築される三次元仮想空間の中で仮想視点画像を確認する構成であり、上述したパブリックビューイングのほかに様々な用途への適用が考えられる。例えば、ゴルフや野球のフォーム比較、対戦型競技におけるトレーニング時の相手目線の確認、仮想ドローンの操縦などにも適用できる。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。
201:画像取得部、202:前景・背景分離部、203:前景形状生成部、204:背景形状生成部、205:入力データ取得部、206:位置/姿勢算出部、207:仮想視点算出部、208:仮想物体モデル保持部、209:レンダリング処理部、210:画像保持部、211:画像出力部

Claims (17)

  1. 複数のカメラが撮影した複数の撮影画像に基づいて仮想視点画像を生成するための第一の仮想視点を指定する第一の指定手段と、
    前記第一の仮想視点に対応する第一の仮想視点画像と、前記第一の仮想視点を指定するための操作とは独立した操作により指定される第二の仮想視点に対応する第二の仮想視点画像とを取得する取得手段と、
    前記第一の仮想視点画像内に前記第二の仮想視点画像を表示させる表示制御手段と、を備えることを特徴とする画像生成装置。
  2. 前記表示制御手段は、さらに、前記複数の撮影画像と前記第一の仮想視点に基づいて前記第一の仮想視点画像を生成することを特徴とする請求項1に記載の画像生成装置。
  3. 前記第一の指定手段は、前記第一の仮想視点画像を表示するヘッドマウントディスプレイの位置/姿勢に基づいて前記第一の仮想視点を指定することを特徴とする請求項1または2に記載の画像生成装置。
  4. 前記表示制御手段は、さらに、前記複数の撮影画像と前記第二の仮想視点に基づいて前記第二の仮想視点画像を生成することを特徴とする請求項1に記載の画像生成装置。
  5. 前記第二の仮想視点を、前記第一の仮想視点画像に対応する三次元仮想空間に指定する第二の指定手段をさらに備えることを特徴とする請求項1乃至4のいずれか1項に記載の画像生成装置。
  6. 前記第二の指定手段は、ユーザが携帯可能なコントローラの位置/姿勢に基づいて前記第二の仮想視点を指定することを特徴とする請求項5に記載の画像生成装置。
  7. 前記コントローラの位置/姿勢に基づいて、前記三次元仮想空間における前記第二の仮想視点画像が表示される仮想の表示領域の位置、方向を設定する設定手段を備えることを特徴とする請求項6に記載の画像生成装置。
  8. 前記設定手段は、前記第一の仮想視点画像に存在する前景の位置に応じて前記仮想の表示領域の位置を決定することを特徴とする請求項7に記載の画像生成装置。
  9. 前記設定手段は、前記第一の仮想視点画像に存在する前景を隠さないように前記仮想の表示領域の位置を決定することを特徴とする請求項8に記載の画像生成装置。
  10. 前記設定手段は、前記第一の仮想視点の視線方向と前記仮想の表示領域の面の法線方向の差が閾値以下となるように制限することを特徴とする請求項7乃至9のいずれか1項に記載の画像生成装置。
  11. 前記設定手段は、前記仮想の表示領域の面が前記第一の仮想視点と正対するほど、および、前記仮想の表示領域の位置が前記第一の仮想視点画像の中央にあるほど高くなる評価値を算出し、前記評価値に基づいて前記仮想の表示領域を設定することを特徴とする請求項7乃至9のいずれか1項に記載の画像生成装置。
  12. 前記表示制御手段は、前記コントローラの位置/姿勢に対応した仮想カメラと前記仮想の表示領域を含む仮想ディスプレイを表示させるすることを特徴とする請求項7乃至11のいずれか1項に記載の画像生成装置。
  13. 前記第二の仮想視点画像は、前記第一の仮想視点画像を生成するための前記複数のカメラからなる第一の集合とは異なる、複数のカメラからなる第二の集合により得られる複数の撮影画像と、前記第二の仮想視点とに基づいて生成されることを特徴とする請求項1に記載の画像生成装置。
  14. 前記表示制御手段は、前記複数の撮影画像と前記第一の仮想視点に基づいて前記第一の仮想視点画像を生成することを特徴とする請求項13に記載の画像生成装置。
  15. 前記表示制御手段は、第二の仮想視点と、前記第二の集合の複数のカメラから得られる複数の撮影画像に基づいて、前記第二の仮想視点画像を生成することを特徴とする請求項13または14に記載の画像生成装置。
  16. 画像生成装置による画像生成方法であって、
    複数のカメラが撮影した複数の撮影画像に基づいて仮想視点画像を生成するための第一の仮想視点を指定する第一の指定工程と、
    前記第一の仮想視点に対応する第一の仮想視点画像と、前記第一の仮想視点を指定するための操作とは独立した操作により指定される第二の仮想視点に対応する第二の仮想視点画像とを取得する取得工程と、
    前記第一の仮想視点画像内に前記第二の仮想視点画像を表示させる表示制御工程と、を備えることを特徴とする画像生成方法。
  17. 請求項1乃至15のいずれか1項に記載された画像生成装置の各手段としてコンピュータを機能させるためのプログラム。
JP2019025788A 2019-02-15 2019-02-15 画像処理装置および画像処理方法、プログラム Active JP7349793B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019025788A JP7349793B2 (ja) 2019-02-15 2019-02-15 画像処理装置および画像処理方法、プログラム
US16/774,476 US11086395B2 (en) 2019-02-15 2020-01-28 Image processing apparatus, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019025788A JP7349793B2 (ja) 2019-02-15 2019-02-15 画像処理装置および画像処理方法、プログラム

Publications (2)

Publication Number Publication Date
JP2020135222A true JP2020135222A (ja) 2020-08-31
JP7349793B2 JP7349793B2 (ja) 2023-09-25

Family

ID=72040931

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019025788A Active JP7349793B2 (ja) 2019-02-15 2019-02-15 画像処理装置および画像処理方法、プログラム

Country Status (2)

Country Link
US (1) US11086395B2 (ja)
JP (1) JP7349793B2 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7349793B2 (ja) * 2019-02-15 2023-09-25 キヤノン株式会社 画像処理装置および画像処理方法、プログラム
US11372474B2 (en) * 2019-07-03 2022-06-28 Saec/Kinetic Vision, Inc. Systems and methods for virtual artificial intelligence development and testing
JP2021064320A (ja) * 2019-10-17 2021-04-22 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP7423251B2 (ja) * 2019-10-25 2024-01-29 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP2022073651A (ja) * 2020-11-02 2022-05-17 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
US20220308659A1 (en) * 2021-03-23 2022-09-29 Htc Corporation Method for interacting with virtual environment, electronic device, and computer readable storage medium
US11978154B2 (en) 2021-04-23 2024-05-07 Lucasfilm Entertainment Company Ltd. System and techniques for lighting adjustment for an immersive content production system
US11887251B2 (en) 2021-04-23 2024-01-30 Lucasfilm Entertainment Company Ltd. System and techniques for patch color correction for an immersive content production system
US11762481B2 (en) * 2021-04-23 2023-09-19 Lucasfilm Entertainment Company Ltd. Light capture device
US11425283B1 (en) * 2021-12-09 2022-08-23 Unity Technologies Sf Blending real and virtual focus in a virtual display environment

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012048639A (ja) * 2010-08-30 2012-03-08 Kddi Corp 自由視点映像生成装置、自由視点映像システムにおいて広告を表示する方法及びプログラム
JP2014215828A (ja) * 2013-04-25 2014-11-17 シャープ株式会社 画像データ再生装置、および視点情報生成装置
JP2018107793A (ja) * 2016-12-27 2018-07-05 キヤノン株式会社 仮想視点画像の生成装置、生成方法及びプログラム
JP2018180654A (ja) * 2017-04-04 2018-11-15 キヤノン株式会社 情報処理装置、画像生成方法及びプログラム
JP2019012441A (ja) * 2017-06-30 2019-01-24 株式会社コロプラ 仮想空間を提供するためにコンピュータで実行されるプログラム、情報処理装置および仮想空間を提供するための方法

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3318680B2 (ja) * 1992-04-28 2002-08-26 サン・マイクロシステムズ・インコーポレーテッド 画像生成方法及び画像生成装置
US6011581A (en) * 1992-11-16 2000-01-04 Reveo, Inc. Intelligent method and system for producing and displaying stereoscopically-multiplexed images of three-dimensional objects for use in realistic stereoscopic viewing thereof in interactive virtual reality display environments
JP3338618B2 (ja) * 1996-10-07 2002-10-28 ミノルタ株式会社 実空間画像と仮想空間画像の表示方法及び表示装置
US20010056574A1 (en) * 2000-06-26 2001-12-27 Richards Angus Duncan VTV system
JP2002157606A (ja) * 2000-11-17 2002-05-31 Canon Inc 画像表示制御装置、複合現実感提示システム、画像表示制御方法、及び処理プログラムを提供する媒体
US7719563B2 (en) * 2003-12-11 2010-05-18 Angus Richards VTV system
JP4227561B2 (ja) * 2004-06-03 2009-02-18 キヤノン株式会社 画像処理方法、画像処理装置
JP2007272067A (ja) * 2006-03-31 2007-10-18 Brother Ind Ltd 画像表示装置
JP4926826B2 (ja) * 2007-05-25 2012-05-09 キヤノン株式会社 情報処理方法および情報処理装置
AU2012348348B2 (en) * 2011-10-28 2017-03-30 Magic Leap, Inc. System and method for augmented and virtual reality
US20170076428A1 (en) * 2015-09-14 2017-03-16 Canon Kabushiki Kaisha Information processing apparatus
JP6087453B1 (ja) * 2016-02-04 2017-03-01 株式会社コロプラ 仮想空間の提供方法、およびプログラム
JP6074525B1 (ja) * 2016-02-12 2017-02-01 株式会社コロプラ 仮想空間における視界領域調整方法、およびプログラム
JP6058184B1 (ja) * 2016-03-10 2017-01-11 株式会社コロプラ ヘッドマウントディスプレイシステムを制御するための方法、および、プログラム
US10607398B2 (en) * 2016-07-04 2020-03-31 Colopl, Inc. Display control method and system for executing the display control method
JP6938123B2 (ja) 2016-09-01 2021-09-22 キヤノン株式会社 表示制御装置、表示制御方法及びプログラム
JP6122537B1 (ja) * 2016-09-08 2017-04-26 株式会社コロプラ 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
US10365784B2 (en) * 2017-03-08 2019-07-30 Colopl, Inc. Information processing method and apparatus for executing the information processing method
JP6368411B1 (ja) * 2017-08-31 2018-08-01 株式会社コロプラ 仮想体験を提供するためにコンピュータで実行される方法、プログラム及びコンピュータ
JP6401841B1 (ja) * 2017-09-13 2018-10-10 株式会社コロプラ 情報処理方法、コンピュータ、及びプログラム
JP7075252B2 (ja) * 2018-03-23 2022-05-25 キヤノン株式会社 情報処理装置およびその制御方法、プログラム
JP7349793B2 (ja) * 2019-02-15 2023-09-25 キヤノン株式会社 画像処理装置および画像処理方法、プログラム
US11372474B2 (en) * 2019-07-03 2022-06-28 Saec/Kinetic Vision, Inc. Systems and methods for virtual artificial intelligence development and testing

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012048639A (ja) * 2010-08-30 2012-03-08 Kddi Corp 自由視点映像生成装置、自由視点映像システムにおいて広告を表示する方法及びプログラム
JP2014215828A (ja) * 2013-04-25 2014-11-17 シャープ株式会社 画像データ再生装置、および視点情報生成装置
JP2018107793A (ja) * 2016-12-27 2018-07-05 キヤノン株式会社 仮想視点画像の生成装置、生成方法及びプログラム
JP2018180654A (ja) * 2017-04-04 2018-11-15 キヤノン株式会社 情報処理装置、画像生成方法及びプログラム
JP2019012441A (ja) * 2017-06-30 2019-01-24 株式会社コロプラ 仮想空間を提供するためにコンピュータで実行されるプログラム、情報処理装置および仮想空間を提供するための方法

Also Published As

Publication number Publication date
US11086395B2 (en) 2021-08-10
US20200265633A1 (en) 2020-08-20
JP7349793B2 (ja) 2023-09-25

Similar Documents

Publication Publication Date Title
JP7349793B2 (ja) 画像処理装置および画像処理方法、プログラム
JP6329343B2 (ja) 画像処理システム、画像処理装置、画像処理プログラム、および画像処理方法
JP4804256B2 (ja) 情報処理方法
CN107315470B (zh) 图形处理方法、处理器和虚拟现实系统
JP6513169B1 (ja) 仮想視点画像を生成するシステム、方法及びプログラム
CN109952760A (zh) 多视图场景流拼接
KR20190126919A (ko) 생성 장치, 생성 방법, 및 기억 매체
US10386633B2 (en) Virtual object display system, and display control method and display control program for the same
JP6348623B2 (ja) 三次元モデルの作成方法、三次元モデル作成装置、三次元モデル作成システム、及び三次元モデル作成用プログラム
JP2010072477A (ja) 画像表示装置、画像表示方法及びプログラム
JP5833526B2 (ja) 映像コミュニケーションシステム及び映像コミュニケーション方法
JP2014095809A (ja) 画像生成方法、画像表示方法、画像生成プログラム、画像生成システム、および画像表示装置
KR101270025B1 (ko) 스테레오 카메라의 주시각 제어방법 및 그 스테레오 카메라 장치
US11847735B2 (en) Information processing apparatus, information processing method, and recording medium
CN110969706B (zh) 增强现实设备及其图像处理方法、系统以及存储介质
WO2017062730A1 (en) Presentation of a virtual reality scene from a series of images
KR20120106919A (ko) 시청자세를 반영하는 3차원 입체영상 생성 시스템 및 방법
JP2007019666A (ja) 立体画像表示装置及び立体画像表示方法
JP6775669B2 (ja) 情報処理装置
KR102381370B1 (ko) 가상 현실을 제공하기 위한 이미지 처리 방법 및 가상 현실 디바이스
TWI821220B (zh) 影像擷取之設備及方法
JP5833525B2 (ja) 映像コミュニケーションシステム及び映像コミュニケーション方法
JP7044846B2 (ja) 情報処理装置
JP6739539B2 (ja) 情報処理装置
JP7059829B2 (ja) 情報処理装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230501

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230814

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230912

R151 Written notification of patent or utility model registration

Ref document number: 7349793

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151