JP2022169177A - 情報処理装置、情報処理方法、及び、プログラム - Google Patents

情報処理装置、情報処理方法、及び、プログラム Download PDF

Info

Publication number
JP2022169177A
JP2022169177A JP2021075040A JP2021075040A JP2022169177A JP 2022169177 A JP2022169177 A JP 2022169177A JP 2021075040 A JP2021075040 A JP 2021075040A JP 2021075040 A JP2021075040 A JP 2021075040A JP 2022169177 A JP2022169177 A JP 2022169177A
Authority
JP
Japan
Prior art keywords
virtual viewpoint
data
virtual camera
information
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021075040A
Other languages
English (en)
Inventor
秀 藤田
Shu Fujita
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021075040A priority Critical patent/JP2022169177A/ja
Priority to EP22795631.5A priority patent/EP4333420A1/en
Priority to PCT/JP2022/018133 priority patent/WO2022230718A1/ja
Publication of JP2022169177A publication Critical patent/JP2022169177A/ja
Priority to US18/493,591 priority patent/US20240054739A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/167Synchronising or controlling image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

【課題】 仮想視点映像内の所望の位置に被写体が配置される仮想視点映像を生成できるようにするための情報を出力可能にする。【解決手段】 仮想カメラパスデータ処理装置1は、複数の撮影装置が被写体を撮影することにより得られる複数の撮影画像に基づいて生成される仮想視点映像を構成するフレームに対応し、仮想視点の位置及び仮想視点からの視線方向を表すパラメータを取得する仮想カメラ情報取得部101と、仮想視点映像における被写体の位置及び向きを特定する座標系調整情報取得部102と、取得されるパラメータと、特定される被写体の位置及び向きに基づく情報とが関連付けられた仮想視点データを出力する仮想カメラパスデータ出力部とを有する。【選択図】 図1

Description

本開示は、仮想視点映像を生成する技術に関するものである。
近年、撮影領域の周囲に複数の撮影装置を配置して撮影を行い、それぞれの撮影装置から取得された複数の撮影画像を用いて、指定された視点(仮想視点)から見た映像(仮想視点映像)を生成する技術が注目されている。仮想視点映像を生成する技術によれば、例えば、サッカーやバスケットボールの試合を撮影した映像から、映像制作者によって迫力のある視点のコンテンツを制作できる。また、コンテンツを視聴しているユーザ自身が自由に視点を移動しながら、試合観戦したりすることができ、従来の撮影画像と比較してユーザに高臨場感を与えることができる。特許文献1では、デバイスやUI画面を操作して仮想視点を決定する技術が示されている。
特開2017-212592号公報
仮想視点映像の生成においては、複数の撮影装置により撮影される被写体を、仮想視点映像内の任意の位置に配置した仮想視点映像を生成する場合が考えられる。しかしながら、仮想視点映像内で被写体を任意の位置に配置する場合には、単に仮想視点を決定するのみでは、適切な仮想視点映像が生成されなくなるという問題が発生しうる。特許文献1に記載の方法で生成される仮想視点のデータでは、上記の問題について考慮がされていなかった。
本開示は上記課題を鑑みてなされたものであり、仮想視点映像内の所望の位置に被写体が配置される仮想視点映像を生成できるようにするための情報を出力可能にすることを目的とする。
本開示に係る情報処理装置は、複数の撮影装置が被写体を撮影することにより得られる複数の撮影画像に基づいて生成される仮想視点映像を構成するフレームに対応し、仮想視点の位置及び前記仮想視点からの視線方向を表すパラメータを取得する取得手段と、前記仮想視点映像における被写体の位置及び向きを特定する特定手段と、前記取得手段により取得される前記パラメータと、前記特定手段により特定される前記被写体の位置及び向きに基づく情報とが関連付けられた仮想視点データを出力する出力手段とを有する。
本開示によれば、仮想視点映像内の所望の位置に被写体が配置される仮想視点映像を生成できるようにするための情報が出力可能になる。
情報処理システムの構成を説明するための図である。 座標系調整情報を説明するための図である。 シーケンスデータのフォーマットの一例を示す図である。 仮想カメラパスデータのフォーマットの一例を示す図である。 仮想カメラパスデータのフォーマットの一例を示す図である。 仮想カメラパスデータのフォーマットの一例を示す図である。 仮想カメラパスデータ生成処理装置の動作を説明するためのフローチャートである。 仮想視点映像生成装置の構成を説明するための図である。 仮想視点映像生成装置の動作を説明するためのフローチャートである。 装置間の通信状況の一例を説明するための図である。 仮想カメラパスデータの一例を示す図である。 仮想カメラパスデータ処理装置のハードウェア構成を説明するための図である。
以下、本開示の実施形態について、図面を参照しながら説明する。なお、以下の実施形態に記載される構成要素は、実施の形態の一例を示すものであり、本開示をそれらのみに限定するものではない。
(実施形態1)
本実施形態では、複数の撮影装置により異なる方向から撮影して取得された撮影データに基づいて仮想視点映像を生成するための、仮想カメラパスデータを生成する処理を行う例を述べる。本実施形態では、仮想視点映像を生成する際に使用される仮想視点を、仮想カメラと呼ぶ。すなわち、仮想カメラは、仮想視点の位置に仮想的に配置されるカメラであり、仮想視点の位置及び仮想視点からの視線方向が、それぞれ仮想カメラの位置及び仮想カメラの姿勢に対応する。
また、本実施形態では、仮想視点映像を生成する際の仮想カメラの移動経路及び姿勢の変化を表す情報を、仮想カメラパスデータと呼ぶ。すなわち、仮想カメラパスデータは、仮想視点の位置及び仮想視点からの視線方向のパラメータを含む仮想視点データであると言える。本実施形態における仮想カメラパスデータは、仮想カメラの3次元位置を表すパラメータと、パン、チルト、及びロール方向における仮想カメラの姿勢を表すパラメータとを含む。なお、仮想カメラパスデータの内容は上記に限定されない。例えば、仮想カメラパスデータには、仮想視点の視野の大きさ(画角)に対応するパラメータが含まれてもよい。
また、本実施形態における仮想カメラパスデータは、仮想視点映像を構成する複数の動画フレーム分のパラメータを有するものとする。すなわち、仮想カメラパスデータは、仮想視点映像の動画を構成する複数のフレームのそれぞれに仮想カメラパラメータが対応付けられた構成となっており、この構成により仮想視点映像における仮想カメラの移動経路及び姿勢の変化を表す。
また、本実施形態における仮想視点映像は、自由視点画像とも呼ばれるものであるが、ユーザが自由に(任意に)指定した視点に対応する画像に限定されず、例えば、複数の候補からユーザが選択した視点に対応する画像なども仮想視点映像に含まれる。また、仮想視点の指定は、ユーザ操作により行われてもよいし、画像解析の結果等に基づいて自動で行われてもよい。また、本実施形態では、仮想視点映像が動画である場合を中心に説明する。本実施形態において、動画とは、複数の画像(フレーム)で構成されるものとする。このため、仮想視点映像に映る被写体が静止した状態で、フレームごとに仮想カメラパラメータが変化する映像も、動画であると言える。さらに、仮想視点映像に映る被写体が静止した状態で、フレームごとの仮想カメラパラメータが変化しない映像は、映像としては静止しているように見えるが、複数のフレームを有するとして、動画として扱うことができる。また、本実施形態は、1つのフレームにより構成される仮想視点映像、すなわち静止画に対しても適用可能である。
<ハードウェア構成>
図12は、後述する仮想カメラパスデータ処理装置に適用可能なコンピュータのハードウェアの構成例を示すブロック図である。カメラパスデータ処理装置1は、CPU1201、ROM1202、RAM1203、操作部1204、出力部1205、外部記憶装置1206、I/F1207、バス1208を有する。なお、以下で説明するハードウェア構成は、後述する情報処理システムにおける他の装置においても適用可能である。
CPU1201は、RAM1202やROM1203に格納されているコンピュータプログラムやデータを用いてコンピュータ全体の制御を行うと共に、後述する装置が行うものとして各処理を実行する。即ち、CPU1201は、後述する仮想カメラパスデータ処理装置における各処理部として機能することになる。
RAM1202は、外部記憶装置1206からロードされたコンピュータプログラムやデータ、I/F(インターフェース)1207を介して外部から取得したデータなどを一時的に記憶するためのエリアを有する。更に、RAM1202は、CPU1201が各種の処理を実行する際に用いるワークエリアを有する。即ち、RAM1202は、例えば、フレームメモリとして割り当てたり、その他の各種のエリアを適宜提供したりすることができる。
ROM1203には、本コンピュータの設定データや、ブートプログラムなどが格納されている。操作部1204は、キーボードやマウスなどにより構成されており、本コンピュータのユーザが操作することで、各種の指示をCPU1201に対して入力することができる。出力部1205は、CPU1201による処理結果を表示する。また出力部1205は例えば液晶ディスプレイで構成される。
外部記憶装置1206は、ハードディスクドライブ装置に代表される、大容量情報記憶装置である。外部記憶装置1206には、OS(オペレーティングシステム)や、仮想カメラパスデータ処理装置の各部の機能をCPU1201に実現させるためのコンピュータプログラムが保存されている。更には、外部記憶装置1206には、処理対象としての各画像データが保存されても良い。
外部記憶装置1206に保存されているコンピュータプログラムやデータは、CPU1201による制御に従って適宜、RAM1202にロードされ、CPU1201による処理対象となる。I/F1207には、LANやインターネット等のネットワーク、投影装置や表示装置などの他の機器を接続することができ、本コンピュータはこのI/F1207を介して様々な情報を取得したり、送出したりすることができる。1208は上述の各部を繋ぐバスである。
なお、ハードウェア構成はこれに限定されない。例えば、操作部1204、出力部1205、及び外部記憶装置1206の少なくともいずれかが、仮想カメラパスデータ処理装置1とは異なる装置として外部に接続される構成でもよい。この場合、CPU1201が、操作装置及び外部記憶装置からの入力を受信する受信制御部、及び表装置などの出力装置及び外部記憶装置にデータを出力する出力制御部として機能する。
さらに、以下の形態で実現しても構わない。すなわち、記憶媒体から読み出されたコンピュータプログラムコードを、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込む。そして、そのコンピュータプログラムのコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行って、前述した機能が実現される場合も含まれる。
記憶媒体に格納されるコードは、先に説明した処理の少なくとも一部又はそれに類似した処理に対応するコンピュータプログラムのコードとなる。
<システム構成>
図1は、本実施形態における仮想カメラパスデータ処理装置を含む情報処理システムの構成例を示す図である。情報処理システム10は、仮想カメラパスデータ処理装置1、撮影装置2、形状推定装置3、記憶装置4、モデル操作装置5、仮想カメラ操作装置6、及び、シーケンスデータ処理装置7を有する。
仮想カメラパスデータ処理装置1は、後述する仮想カメラ操作装置6から仮想カメラの位置及び姿勢のパラメータ等を決定するための入力を受け付け、仮想カメラパスデータを生成する。仮想カメラパスデータ処理装置1の詳細については後述する。
撮影装置2は、仮想視点映像を生成するために使用される撮影画像を取得する撮影装置である。本実施形態では、複数の撮影装置を使用して得られる複数の撮影画像に基づいて仮想視点映像が生成される。なお、図1には撮影装置2のみ図示されるが、情報処理システム10には複数の撮影装置が含まれるものとする。以下の説明では、複数の撮影装置のそれぞれを特に区別しない場合は、撮影装置2として説明する。複数の撮影装置は、異なる複数の方向から撮影領域を撮影する。撮影領域は、例えば、ラグビーまたはサッカーなどが行われる競技場、コンサート等が行われるホールや舞台、撮影スタジオなどである。複数の撮影装置は、このような撮影領域を取り囲むようにして、それぞれ異なる位置および方向に設置され、同期して撮影を行う。なお、複数の撮影装置は、撮影領域の全周にわたって設置されなくてもよく、設置場所の制限等によっては撮影領域の一部にのみ設置されていてもよい。また、複数の撮影装置の数は限定されず、例えば、撮影領域をラグビーの競技場とする場合、競技場の周囲に数十~数百台程度の撮影装置が設置されてもよい。
また、望遠カメラおよび広角カメラなどのように、画角が異なる複数の撮影装置が設置されていてもよい。例えば、望遠カメラを用いれば、高解像度にオブジェクトを撮影できるので、生成される仮想視点映像の解像度も向上する。また、例えば、広角カメラを用いれば、一台のカメラで撮影できる範囲が広いので、カメラ台数を減らすことができる。複数の撮影装置は、現実世界の一つの時刻情報で同期され、撮影した映像には毎フレームの画像に撮影時刻を表す時刻情報が付与される。
なお、撮影装置2は、1台のカメラで構成されていてもよいし、複数台のカメラで構成されていてもよい。さらに、撮影装置2は、カメラ以外の装置を含んでいてもよい。例えば、レーザ光等による測距装置などを含んでも構わない。
また、撮影装置2の状態が制御可能であってもよい。撮影装置の状態とは、撮影装置の位置、姿勢、焦点距離、光学中心、および歪みなどの状態のことをいう。撮影装置の位置および姿勢は、撮影装置そのもので制御されてもよいし、撮影装置の位置および姿勢を制御する雲台により制御されてもよい。
撮影装置2は、他の撮影装置と識別するための固有の識別番号を持つ。撮影装置2は、撮影して取得した画像から前景画像を抽出する機能など、他の機能を有してよく、その機能を実現するハードウェア(回路または装置など)も含んでもよい。
形状推定装置3は、撮影装置2から取得される画像データに基づいて、被写体の形状を表す形状データを生成する。本実施形態では、形状推定装置3は、被写体の3次元形状を表す3次元形状データを生成するものとする。以下、本実施形態における3次元形状データの生成方法について説明する。
まず、複数の像装置2により異なる方向からそれぞれの撮影領域を撮影することで、複数の撮影画像が取得される。次に、複数の撮影画像から、人物またはボールなどのオブジェクトに対応する前景領域を抽出した前景画像と、前景領域以外の背景領域を抽出した背景画像とが取得される。ここで、前景画像とは、撮影装置により撮影されて取得された撮影画像から、オブジェクトの領域(前景領域)を抽出した画像である。前景領域として抽出されるオブジェクトとは、時系列で同じ方向から撮影を行った場合において動きのある(その位置または形が変化し得る)動的オブジェクト(動体)を指す。オブジェクトは、例えば、競技において、競技が行われるフィールド内にいる選手または審判などの人物を含み、球技であれば人物に加えボールなども含み得る。また、コンサートまたはエンタテイメントなどにおいては、歌手、演奏者、パフォーマー、または司会者などが、オブジェクトの一例である。なお、背景画像などにより事前に背景を登録しているのであれば、静止したオブジェクトでも事前に登録済みである背景に存在していなければ前景領域として抽出される。
また、背景画像とは、少なくとも前景となるオブジェクトとは異なる領域(背景領域)の画像である。具体的には、背景画像は、撮影画像から前景となるオブジェクトを取り除いた状態の画像である。また、背景は、時系列で同じ方向から撮影を行った場合において静止している、又は静止に近い状態が継続している撮影対象物を指す。このような撮影対象物は、例えば、コンサート等のステージ、競技などのイベントを行うスタジアム、球技で使用するゴールなどの構造物、またはフィールドなどである。ただし、背景は、少なくとも前景となるオブジェクトとは異なる領域であり、撮影対象物としては、オブジェクトと背景との他に、別の物体等が含まれていてもよい。撮影画像から前景画像と背景画像とを生成する処理は、形状推定装置3で行われてもよいし、撮影装置2で行われてもよい。撮影装置2で行われる場合は、撮影装置2は、前景画像と背景画像とを形状推定装置3に出力する。
形状推定装置3は、前景画像を使用して、例えば視体積交差法(shape-from-silhouette法)などの形状推定方法により、前景である被写体の3次元形状データを生成する。3次元形状データは、例えば、点群モデルデータ、ビルボードデータ、メッシュモデルデータなどである。なお、以下の説明においては、被写体の3次元形状データを、被写体モデルともいう。また、形状推定装置3は、前景画像を使用して、3次元形状データに色付けをするためのテクスチャデータを生成する。また、背景の3次元形状データは、予めスタジアムまたは会場などの撮影領域を事前に3次元測定しておくことにより生成される。形状推定装置3は、背景画像に基づいて、背景の3次元形状データに色付けをするためのテクスチャデータを生成する。形状推定装置3は、生成した3次元形状データとテクスチャデータとを、記憶装置4に送信する。
本実施形態における仮想視点映像は、例えば、以下のような方法で生成される。すなわち、前景の3次元形状データに対し、仮想カメラの位置及び姿勢のパラメータに応じてテクスチャデータをマッピングしレンダリングを行うことにより、仮想視点映像が生成される。背景の3次元形状データに対するレンダリングも同様に行われる。なお、仮想視点映像の生成方法はこれに限定されず、3次元形状データを用いずに、撮影画像の射影変換により仮想視点映像を生成する方法など、種々の方法を用いることができる。
なお、以下の説明において、3次元形状データやテクスチャデータ等、仮想視点映像の生成に使用されるデータを、まとめて素材データとも表記する。また、本実施形態においては、3次元形状データが生成される構成について説明したが、仮想視点映像の生成方法としてイメージベースドレンダリングが行われる場合においても、本実施形態は適用可能である。
記憶装置4は、形状推定装置3で生成された素材データを格納する装置である。例えば、半導体メモリや磁気記録装置などで構成される。記憶装置4に格納される素材データは、それぞれ、対応する撮影時刻情報と紐づいている。具体的には、素材データの生成に使用された撮影画像に関連付けられている撮影時刻情報を、素材データに関連付けることにより、素材データと撮影時刻情報との紐づけがされる。素材データに対する撮影時刻情報の関連付けは、例えば、素材データのメタデータに撮影時刻情報を付与することで行われる。なお、撮影時刻情報の付与を行う装置は特に限定されず、形状推定装置3で付与されても、記憶装置4で付与されてもよい。記憶装置4は、他の装置からのリクエストに応じて素材データを出力する。
モデル操作装置5は、背景の3次元形状データの設定、及び、設定した背景の3次元形状データ上に被写体の3次元形状データを配置するための指示をする装置である。背景の3次元形状データの設定とは、例えば、仮想視点映像における背景の座標系の設定、及び背景の3次元形状データの決定等である。被写体の3次元形状データの配置は、例えば、ジョイスティック、ジョグダイヤル、タッチパネル、キーボード、及びマウスなどにより、ユーザ(操作者)から指定される。モデル操作装置5は、ユーザからの指示に基づき、3次元形状データの配置を表す配置情報を出力する。配置情報は、3次元形状データの位置や向きなどの情報が含まれるが、これに限定されない。
モデル操作装置5は、ユーザから指定された背景の3次元形状データの設定及び配置情報を基に、背景と被写体とが配置された3次元空間を表す映像を表示する。ユーザは、こうして表示される3次元空間を参照しながら、背景の3次元形状データの設定及び被写体の3次元形状データの配置を検討する。モデル操作装置5は、仮想カメラパスデータ処理装置1に、設定した配置情報を送信する。なお、被写体モデルの配置情報の指定に関しては、ユーザからの指定に限定されず、映像解析等により被写体を認識するなどして、自動的に指定されても構わない。
仮想カメラ操作装置6は、仮想カメラの位置及び姿勢のパラメータの指定をするための操作装置である。仮想カメラ操作装置6は、例えば、ジョイスティック、ジョグダイヤル、タッチパネル、キーボード、及びマウスなどにより構成される。なお、指定可能な仮想カメラのパラメータは、仮想カメラの位置、姿勢、画角などの情報が含まれるが、これに限定されず、他の情報が指定可能であってもよい。
本実施形態における仮想カメラ操作装置6は、ユーザにより指定された仮想カメラパラメータをモデル操作装置5に送信する。モデル操作装置5は、受信した仮想カメラパラメータと、記憶装置4から取得した素材データとに基づいて、仮想視点画像を生成する。仮想カメラ操作装置6を操作するユーザは、モデル操作装置5により表示された、3次元空間を表す仮想視点映像を参照しながら仮想カメラパラメータを指定し、仮想カメラパスを検討する。なお、表示される映像はユーザが仮想カメラパラメータの指定をする際の補助となる映像であればよく、例えば被写体の簡易モデルや、被写体の位置のみを示すマーカ等を使用した簡易的な映像であってもよい。また、映像を生成及び表示することなく仮想カメラパラメータが指定されてもよい。また、仮想カメラパラメータの指定に関しては、ユーザからの指定に限定されず、被写体を認識するなどして、自動的に指定されても構わない。仮想カメラ操作装置6により指定された仮想カメラパラメータは、仮想カメラパスデータ処理装置1に送信される。
また、仮想カメラ操作装置6は、ユーザ操作に応じて、映像上の被写体の撮影時刻を指定することができる。具体的には、ユーザは仮想カメラ操作装置6に表示される映像において、被写体の動きを一時停止させたり、被写体の動きを逆再生したり、早送りしたりすることが可能である。また、これは、撮影装置2が撮影を行った際の撮影時刻の一時停止、逆再生、早送りに相当する。撮影時刻を変更させても、仮想カメラは操作することができるため、例えば被写体の動きを一時停止した状態で、仮想カメラを動かすような仮想視点映像の生成が可能となる。また、連続した撮影が行われなかった場合や、被写体ごとに間を空けて撮影を行った場合等にも、撮影時刻情報を参照することにより、異なる時刻に撮影された被写体を含む仮想視点映像を生成することができる。このような映像では、撮影時刻と仮想視点映像上の再生時刻とは、それぞれ独立したパラメータとして扱われる。仮想カメラ操作装置6は、表示される映像に対応する撮影時刻を表す撮影時刻情報を、仮想カメラパスデータ処理装置1に送信する。
シーケンスデータ処理装置7は、仮想カメラパスデータ処理装置1から仮想カメラパスデータを取得する。また、シーケンスデータ処理装置7は、記憶装置4から仮想カメラパスデータに対応する素材データを取得する。そして、シーケンスデータ処理装置7は、取得したデータを保存または出力するためのシーケンスデータを生成する。シーケンスデータの書式に関しては、後述する。なお、素材データは必ずしも必要ではなく、仮想カメラパスデータのみのシーケンスデータが生成されてもよい。さらに、仮想カメラパスは一つのパターンだけでなく、複数のパターンの仮想カメラパスデータを含んでもよい。
以上が、本実施形態における情報処理システムの構成である。ここで、本システムで解決すべき課題について、図2を用いて説明する。図2は、被写体モデルの配置情報と座標系調整情報の関係を説明する図である。前提として、例えば複数の被写体を含む仮想視点映像を生成する場合に、撮影を行う場所の制約等により、複数の被写体を同じ撮影領域で同時に撮影できない問題が生じうる。このような場合、複数の被写体をそれぞれ別の場所、あるいは異なる時刻で撮影し、撮影された被写体の3次元形状データの位置を変更して、一つの仮想視点映像に含まれるようにするという方法がありうる。しかしながら、上述したように、仮想カメラパラメータに応じたレンダリングにより仮想視点映像を生成する場合においては、単純に被写体の3次元形状データを移動させ、仮想カメラパラメータを決定するのみでは、適切な仮想視点映像が生成されない虞がある。より具体的には、被写体の3次元形状データに色付けするためのテクスチャデータは、仮想カメラの位置及び姿勢に応じて特定される撮像画像の画素値に基づき決定される。したがって、被写体の3次元形状データの位置を移動すると、適切な撮影画像の画素値を参照することが困難となりうる。結果として、適切な仮想視点映像が得られなくなる場合がある。
本実施形態における仮想カメラパスデータ処理装置1は、被写体の3次元形状データの位置に基づいて仮想カメラパスを調整するための情報として、座標系調整情報を含む仮想カメラパスデータを生成する。これにより、本実施形態のような仮想視点映像の生成方法においても所望の仮想視点映像を生成可能な情報を出力する。以下、座標系調整情報について説明する。
図2(a)は、異なる時間帯に同じ場所で撮影された、撮影時の撮影空間に対応する3次元空間の座標系2001~2004と、被写体の3次元形状データ(以下、被写体モデルともいう)2005~2012の例を示す。撮影時の3次元空間の座標系は撮像装置の構成やキャリブレーションデータが同じであれば同じになる。ここでは説明のため、座標系2001~2004は同じであるものとするが、異なっていてもよい。また、被写体モデル2005と被写体モデル2006とは、同じ時刻に撮影されているものとする。同様に、被写体モデル2007と被写体モデル2008、被写体モデル2009と被写体モデル2010、被写体モデル2011と被写体モデル2012も、それぞれ同じ時刻に撮影されているものとする。ただし、以上の4組の被写体モデルは、それぞれ異なる時刻に撮影されているものとする。なお、撮影時に含まれる被写体の数は2に限定されず、1でもよいし、より多くの数でも構わない。
図2(b)は、座標系2001~2004とは異なった、CGの3次元空間、あるいは別の撮影空間の3次元空間の座標系2101の例を示す。図2(b)は、ここでは被写体モデルを配置するための背景として設定される。図2(c)は、ユーザの指示に基づき、座標系2101に対応する上に被写体モデル2005~2012を配置した例である。図2(c)の被写体モデル2201と2202は被写体モデル2007と2008に対応しており、座標系2203は座標系2101に対応している。なお、図2(c)においては、簡単のため同じ時刻に撮影された被写体モデルは全て含み、位置関係も維持しているが、それに限らない。例えば、被写体モデル2201に対する被写体モデル2202の相対的な位置関係を変更してもよいし、被写体モデル2201のみを配置してもよいし、あるいは被写体モデル2201を複製して配置してもよい。この場合、撮影時の3次元空間における被写体の位置関係や数が変わるため、仮想視点映像としてレンダリングする被写体モデルあるいは対象領域の情報も格納することで、所望の仮想視点映像を得ることができる。モデル操作装置5は、図2(c)に示すような表示を行うことにより、被写体が配置された3次元空間を認識できるようにする。
図2(d)は、図2(c)に示す3次元空間および被写体モデルに対する仮想カメラパス2301の例を示す。仮想カメラパス2301は、例えばユーザがモデル操作装置3により表示される映像を見ながら仮想カメラ操作装置6を操作することにより指定される。仮想カメラ2302は、仮想カメラパス2301におけるあるフレームに対応する位置や姿勢などの仮想カメラを表す。また、図2(d)における座標系2303は座標系2203および座標系2101に対応している。なお、仮想カメラパス2301は座標系2303を基準に作成される。このとき、仮想カメラ2302の位置は(Xc、Yc、Zc)のように記述されるとする。
図2(e)は、被写体モデル2401と2402に対して、撮影時の座標系2403とそれとは異なる座標系2404の座標系の違いを説明する図である。図2(e)の被写体モデル2401と2402は、被写体モデル2201と2202および2007と2008に対応している。また、座標系2403と座標系2002とは対応しており、同じ座標系を表している。さらに、座標系2404と座標系2101と座標系2203と座標系2303は、全て対応しており、同じ座標系を表している。各被写体モデルと被写体撮影時の座標系2403との位置関係は常に一定のため、各被写体モデルの位置や向きを変更すれば、その変更量と同じだけ座標系2403の位置や向きが変わる。そのため、図2(c)のように各被写体モデルを任意の位置に配置し直すと、その変化量2405に応じて座標系2403と2404との位置関係や向きが変わる。例えば、被写体モデル2401が位置のみ変更されていたとする。このとき、被写体モデル2401の位置(重心)を座標系2404から見たときの位置を(Xw、Yw、Zw)、座標系2403から見たときの位置を(Xv、Yv、Zv)と表すると、変化量2405は(Xw―Xv、Yw―Yv、Zw―Zv)となる。この変化量2405が座標系調整情報となる。
図2(f)は、図(d)における仮想カメラパス2301を、座標系2503を基にした仮想カメラパス2501へ調整したときの例を説明する図である。仮想カメラ2502は、仮想カメラパス2501におけるあるフレームに対応する位置や姿勢などの仮想カメラを表し、座標系2503は座標系2303、2203、2101に対応している。このとき、調整後の仮想カメラ2502の位置を(XC、YC、ZC)のように記述されるとする。また、被写体モデル2504と2505は、被写体モデル2201と2202および2007と2008と2401および2402にそれぞれ対応している。ここで、仮想カメラパス2501および2301において、背景を除いて同じような仮想視点映像を生成するためには、仮想カメラから見た各被写体モデルの相対的な位置や向きは変わってはならない。しかし、仮想カメラパス2301を調整なしにそのまま座標系2503へ適用すると、仮想カメラ2502は座標系2503における位置(Xc、Yc、Zc)に存在することになる。このとき、Xc、Yc、Zcの各値は、XC、YC、ZCとはそれぞれ同じではない可能性が高く、同じでない場合、仮想カメラから見た各被写体モデルの相対的な位置や向きの関係が崩れる。したがって、被写体モデルの位置を変更した場合、座標系2503における仮想カメラの位置(Xc、Yc、Zc)を調整する必要がある。その調整は、図2(f)における場合では、座標(Xc、Yc、Zc)から変化量2405(Xw―Xv、Yw―Yv、Zw―Zv)を引くことで行われる。
このようにして、被写体モデルの位置の移動に応じて、仮想カメラの位置も移動させることにより、被写体モデルと仮想カメラとの相対的な位置関係が維持される。これにより、被写体モデルへの色付けに際し、適切な撮像画像の画素値を参照することができるようになる。
なお、上述した例においては、仮想カメラの位置のみが変更される場合について説明したが、これに限定されない。例えば、被写体モデルの向きが変更される場合は、変更される向きに対応して仮想カメラの姿勢を変化させるための変換行列が特定される。この変換行列が、座標系調整情報となる。このように、本実施形態においては、被写体モデルの位置及び向きを表す配置情報に基づいて、仮想カメラの位置及び姿勢の少なくともいずれかを変更するための座標系調整情報が取得される。
<仮想カメラパスデータ処理装置の機能構成>
図1を使用して、仮想カメラパスデータ処理装置1の構成について説明する。仮想カメラパスデータ処理装置1は、仮想カメラ情報取得部101、座標系調整情報取得部102、仮想カメラパスデータ生成部103、仮想カメラパスデータ出力部104を有する。
仮想カメラ情報取得部101は、仮想カメラ操作装置6で指定された仮想カメラパラメータを取得する。なお、仮想カメラ情報取得部101は、仮想カメラ操作装置6で決定された全フレーム分の仮想カメラパラメータをまとめて取得してもよいし、仮想カメラ操作装置6が1フレーム分の仮想カメラパラメータを出力するごとに、1フレームずつ取得し続けてもよい。
なお、本実施形態における仮想カメラ情報取得部101は、被写体が撮影された時刻に対応する撮影時刻情報も取得するものとする。本実施形態における撮影時刻情報は、ある標準時間における絶対時刻であるものとするが、これに限定されない。撮影時刻情報は、例えば、ある基準の時刻に対する相対時刻、及び、ある基準の時刻に対応するフレームに対する相対フレーム数などで表されてもよい。また、例えば、撮影時における所定のシーン(例えば、サッカーの前半45分など)、又はある一試合に対応する素材データがまとまりで管理される場合、そのシーンや試合の開始タイミングを基準とした相対時刻が、撮影時刻情報として用いられてもよい。
なお、撮影時刻情報は、あるフレームに対応する素材データの特定に使用される情報であるため、素材データを特定可能であれば、撮影時刻情報以外の情報が取得されてもよい。例えば、素材データを特定するための識別番号やIDが付与されている場合、仮想カメラ情報取得部101は、撮影時刻情報の代わりとして、素材データの識別番号及びID等を取得する構成でもよい。なお、仮想カメラ情報取得部101は、仮想カメラ操作装置6で決定された全フレーム分の撮影時刻情報をまとめて取得してもよいし、1フレームずつ取得し続けてもよい。
座標系調整情報取得部102は、モデル操作装置5で指定された被写体モデルの配置情報を取得し、取得した配置情報に基づいて仮想視点映像における被写体の位置及び向きを特定する。また、座標系調整情報取得部102は、配置情報に基づいて座標系調整情報を取得する。なお、モデル操作装置5が座標系調整情報を取得し、座標系調整情報取得部102はモデル操作装置5により取得された座標系調整情報を取得する構成でもよい。
仮想カメラパスデータ生成部103は、仮想カメラ情報取得部101で取得された仮想カメラパラメータと、座標系調整情報取得部102で取得された座標系調整情報とを関連付けた仮想カメラパスデータを生成する。図11を使用して、仮想カメラパスデータの概念について説明する。図11は、図2(d)における仮想カメラパス2301に、座標系調整情報を格納した仮想カメラパスデータの例である。ここで、仮想カメラパス時刻情報は、仮想カメラパスを構成するフレームの番号を表す情報である。この例では、仮想カメラパスは100フレームあり、各フレームに対して仮想カメラの座標系調整情報が4種類あることを表している。なお、座標系調整情報は仮想カメラの位置を調整する位置オフセットとして与えている。仮想カメラパラメータ情報は、例えば仮想カメラの3次元空間上における位置(x,y,z)や、仮想カメラの3次元空間における姿勢を表すパン、チルト、ロールの値(pan,tilt.roll)が含まれる。なお、仮想カメラパスデータには、仮想カメラの画角や歪みに対応するパラメータが含まれてもよい。
撮影時刻情報は、仮想視点映像の生成に使用される素材データを特定するための情報であり、図11の例では、所定の撮影画像のフレームに対する相対フレーム数を表すフレーム番号で表されている。図11の例では、例えば、仮想カメラパス時刻情報0に対応する被写体の撮影時刻情報は0、1000、2000、3000の4つある。すなわち、仮想カメラパス時刻情報0に対応する仮想視点映像のフレームを生成する際に使用される素材データは4つあることが示されている。本実施形態における仮想カメラパスデータ処理装置1は、図11に示すような仮想カメラパスデータを生成する。仮想カメラパスデータの使用方法については、実施形態2にて後述する。
図1に戻り、仮想カメラパスデータ出力部104は、仮想カメラパスデータ生成部103で生成された仮想カメラパスデータに対して、ヘッダ情報などを付与する処理を行い出力する。なお、仮想カメラパスデータは、データファイルとして出力されてもよいし、パケットデータとして出力されてもよい。さらに、仮想カメラパスデータは、フレーム単位で出力されてもよいし、仮想カメラパス全体あるいは一定フレーム数ごとに出力されてもよい。
<仮想カメラパスデータのフォーマット>
図4を使用して、仮想カメラパスデータ処理装置1により生成される仮想カメラパスデータのフォーマットの一例を示す。仮想カメラパスデータ処理装置1は、以下で説明するような所定のフォーマットに対応するファイルを生成する。
図4に示す仮想カメラパスデータは、所定のフレーム数分の仮想カメラパラメータを有するデータセットの例である。データセットの先頭には、仮想カメラパスデータヘッダが保存されるが、ヘッダには本データセットが仮想カメラパスデータのデータセットであること、データセットのデータサイズが保存されている。続いて、格納されている仮想カメラパスデータのフレーム数Mが記載される。そして、仮想カメラパスデータのフォーマットの情報が記載される。これは、仮想カメラパスデータがどのように格納されているかの書式を表す情報であり、仮想カメラパスに関するデータが種別単位で格納されているか、フレーム単位で格納されているか、などを示す情報である。図3はデータが種別単位で格納されている場合の例である。続いて、仮想カメラパスデータヘッダには、そのデータの数がLとして記載される。以下、各データの情報が保存される。本実施形態では、仮想カメラパス時刻情報と、撮影時刻情報と、カメラパラメータ情報と、座標系調整情報との4つのデータが含まれている。なお、仮想カメラパス時刻情報とは、仮想カメラパスにおけるフレームを表す情報であり、上述した図11におけるカメラパスフレームに相当する。すなわち、仮想カメラパス時刻情報は、仮想カメラパスにおけるフレームを区別可能な任意の情報で表される。
仮想カメラパスのデータ単位の情報では、最初にデータの種別コードが保存される。本実施形態では、データセットとして、仮想カメラパス時刻情報と、撮影時刻情報と、カメラパラメータ情報と、仮想広告表示指示情報があるものとする。なお、それぞれを仮想カメラパスデータ種別コードとして表現することにする。仮想カメラパスデータ種別コードは図3に示すように1バイトのコードとして表されるものとする。ただし、データの種別やコードはこれに限定されず、記載する情報に応じて、例えば2バイトより長いコードであってもよいし、2バイトより短いコードでもよい。仮想視点映像生成する際に用いる他のデータでも構わない。また、仮想広告表示指示情報は、仮想カメラパスデータを使用して生成される仮想視点映像に、付加情報として仮想広告を表示させるための指示情報である。仮想広告は付加情報の一例であり、仮想広告の他にも例えば被写体に関する情報やエフェクトなどの任意の付加情報を付加するための指示情報が仮想カメラパスデータに記載されてもよい。
続いて、各データへのアクセス情報(ポインタ)が保存される。そして、撮影時刻情報やカメラパラメータ情報などのデータに関するフォーマット情報が記載される。例えば、仮想カメラパス時刻情報のフォーマットは、先頭を基準としたときの相対時刻か、相対フレーム番号か、などを示す。また、撮影時刻情報のフォーマットは、実際に被写体を撮影した際のある標準時(例えば、グリニッジ標準時や日本標準時)に基づく絶対時刻、ある基準時刻に対する相対時刻、基準フレームに対する相対フレーム数等を使用するフォーマットでありうる。あるいは撮影時刻情報以外の情報が使用されるフォーマットであってもよく、例えば素材データへのファイルパスあるいはポインタなどが使用されてもよい。なお、撮影時刻情報として、基準時に対する相対時刻あるいは相対フレーム数を記述する場合、シーケンスヘッダ中の仮想カメラパスシーケンス説明において、仮想カメラパスの基準時刻情報を記載される。この基準時刻情報は、ある標準時に基づく絶対時刻や、あるコンテンツ内の管理時刻(例えば、所定の試合の開始時刻など)に基づく絶対時刻などとして保存される。具体的には、例えば、年月日時分秒を整数で表し、小数点以下の時刻を浮動小数点や、固定小数点、整数などで表しても良い。
仮想カメラパラメータのフォーマットは、例えば、仮想カメラの位置や姿勢などを表す値がクォータニオンで表記される。なお、仮想カメラパラメータの表記方法はこれに限定されない。
座標系調整情報のフォーマットは、例えば、仮想カメラの位置のオフセット情報や、カメラの位置や姿勢の変換を表す変換行列情報で表記される。なお、仮想カメラパス時刻情報とカメラパラメータ情報とは一対一で対応するが、仮想カメラパス時刻情報と撮影時刻情報とは座標系を調整する被写体の数に応じて一対多対応してもよい。例えば、図2(d)の場合では、それぞれの撮影空間の被写体を被写体グループとすると、一つの仮想カメラパス時刻情報に対応する撮影時刻情報の被写体グループは4種類となる。さらに、座標系調整情報は、フレーム単位ではなく、指定の撮影時刻帯単位であってもよい。例えば、図2(d)の場合では、4被写体グループの撮影時刻帯それぞれにおいて座標系調整情報が変わらないのであれば、座標系調整情報の数は、M×4ではなく、4でもよい。即ち、座標系調整情報データセットは、図5のような書式であってもよい。なお、座標系調整情報フォーマットコードは、図4記載の仮想カメラパスデータヘッダにおけるデータ情報のフォーマット情報に記載してもよい。なお、被写体グループ数Kが1のとき、座標系調整情報がもつ情報は座標系調整データのみとしてもよい。
以下、仮想カメラパスの各データの実データが、仮想カメラパスデータヘッダ記載のフォーマットに従って記載されていく。なお、各データの先頭には、そのデータが始まることを表すスタートコードが記載される。
図6は、仮想カメラパスデータの構成の別の一例を説明するための図である。図4では、仮想カメラパラメータに含まれる各種データがフレーム単位で格納されている。フレーム単位でデータを格納する場合、各フレームデータの先頭にはフレームデータヘッダが保存され、フレームデータが始まることを表すコードや、フレームデータがどういったデータがどんな順番で格納しているかを表す情報が記載される。
各種データがフレーム単位で格納されることにより、例えば仮想カメラパスデータのうち一部のフレームを取り出して仮想視点映像の生成に使用したい場合等に、フレーム単位でデータを取り出しやすいというメリットがある。
図3は、シーケンスデータ処理装置7で出力されるシーケンスデータの書式の一例を示す図である。シーケンスデータ処理装置7は、1つの仮想視点映像を生成するための複数の仮想カメラパスデータを含むシーケンスデータを出力する。また、シーケンスデータには、仮想視点映像を生成するために使用される素材データが含まれる。例えば、シーケンスはビデオクリップや撮影のカットごとに生成される。このように、仮想カメラパスデータと素材データとが含まれる構成により、シーケンスデータを受け取った装置側で、仮想視点映像を生成することができる。
各シーケンスにはシーケンスヘッダが含まれており、シーケンスヘッダには、対応する素材シーケンスデータを特定できる情報が保存される。例えば、素材シーケンスデータを一意に特定可能な素材データに関するシーケンスヘッダスタートコードや、被写体を撮影した場所と年月日に関する情報や、素材シーケンスデータの所在を表すパス情報、等が保存されるがこれに限定されない。また、シーケンスヘッダには、上述した仮想カメラパスデータを含むことを示す情報が含まれる。例えば、シーケンスヘッダに含まれるデータセットを示す情報や、仮想カメラパスデータの存在の有無を表す情報であっても良い。
続いて、仮想カメラパスのシーケンスデータ全体に関する情報が保存される。例えば、仮想カメラパスの作成者の情報、権利者情報、シーケンスの名称、被写体を撮影したイベント名や、撮影時のカメラフレームレート等が仮想カメラパスシーケンス説明情報に含まれうる。また例えば、仮想カメラカメラパスが基準としている時刻情報、仮想視点映像のレンダリング時に想定されている画像サイズや背景データ情報等が仮想カメラパスシーケンス説明情報に含まれうる。ただし、これらの全ての情報が含まれる必要はなく、任意の情報が含まれてよい。
シーケンスにはそれぞれの仮想カメラパスデータがデータセット単位で保存される。シーケンスヘッダには、そのデータセット数Nが記される。以下、データセット単位の情報が保存される。本実施形態では、仮想カメラパスデータと素材データの2つのデータセットが含まれている。データセット単位の情報では、最初にデータセットの識別IDが付与される。識別IDは全データセットで唯一のIDが付与される。続いて、データセットの種別コードが保存される。本実施形態では、データセットとして、仮想カメラパスデータを表すデータセットと、素材データを表すデータがあるものとする。なお、それぞれをデータセット種別コードとして表現することにする。データセット種別コードは図2に示す2バイトのコードとして表現されている。ただし、データの種別やコードはこれに限定されない。仮想視点映像を生成する際に用いる他のデータでも構わない。続いて、データセットへのポインタが保存される。ただし、各データセットへのアクセスのための情報であれば良く、ポインタに限定されない。例えば、記憶装置4で構築されているファイルシステムにおける、ファイル名としても構わない。
なお、シーケンスデータ処理装置7は、仮想カメラパスデータのみ、又は素材データのみが含まれるシーケンスデータを生成してもよい。シーケンスデータが生成されることにより、ビデオクリップなどの一つの仮想視点映像の生成に使用されるデータをまとめて一つのデータとして管理することができる。
以上説明したフォーマットに従い、仮想カメラの位置及び姿勢を変更するための座標系調整情報と、仮想視点映像を構成するフレームに対応する複数の仮想カメラパラメータとが含まれるデータが生成される。なお、上述したフォーマットは一例であり、構成や含まれる情報は上記に限定されない。
<処理フロー>
本実施形態における仮想カメラパスデータ生成処理装置1の動作について、図7のフローチャートを用いて説明する。図7に示す処理は、CPU1201がROM1202または外部記憶装置1206に記憶されたプログラムを読み出して実行することにより実現される。仮想カメラ操作装置6から、仮想カメラパスデータの生成の指示等を受けることにより、処理が開始される。
ステップS701において、仮想カメラパスデータ生成部103は、仮想カメラパスデータを生成するためのヘッダ情報を生成し、仮想カメラパスデータのヘッダとする。ステップS702において、仮想カメラ情報取得部101および座標系調整情報取得部102は、仮想カメラ操作装置6から仮想カメラパスの各データ情報、すなわち仮想カメラパス時刻情報、撮影時刻情報、カメラパラメータ情報、座標系調整情報を取得する。また、仮想カメラパスデータ生成部103は、各データのヘッダを生成する。
ステップS703において、仮想カメラパス開始時点からフレーム単位でデータの格納を繰り返す。ステップS704において、仮想カメラパスデータ生成部103は、仮想カメラ情報取得部101で取得した仮想カメラ情報に対して、座標系調整情報取得部102で取得した座標系調整情報を格納した仮想カメラパスデータを生成する。ステップS705において、仮想カメラパスが終了するか、フレーム単位での入力が終了するまでステップS703からステップS704までを繰り返す。ステップS706において、仮想カメラパスデータ出力部104は、仮想カメラパスデータ生成部103で生成した仮想カメラパスデータに対して、ヘッダ情報などを格納し、最終的な仮想カメラパスデータとして出力する。
なお、一度にやり取りするデータは、フレーム単位でもよいし、複数フレーム単位や仮想カメラパス単位でまとまっていてもよい。例えば、仮想カメラ情報取得部101は、仮想カメラ情報をフレーム単位や複数フレーム単位で受け取ってもよい。また、複数フレーム単位で処理をまとめて行う場合、被写体モデル毎の座標系調整情報を、座標系調整情報データセットに被写体単位でまとめて記載してもよい。
以上の処理により、被写体モデルの位置の変更を考慮した仮想視点映像を生成可能な仮想カメラパスデータの生成が可能となる。
(実施形態2)
本実施形態では、第1実施形態における仮想カメラパスデータ処理装置1で生成された仮想カメラパスデータを基に、仮想視点映像を生成する処理を行う例を述べる。
<システム構成、及び、仮想視点映像生成装置の機能構成>
図8は、本実施形態における仮想視点映像生成装置を含むシステムの構成例を示す図である。仮想視点映像生成装置800は、仮想カメラパスデータ処理装置1と記憶装置4とに接続されている。仮想カメラパスデータ処理装置1および記憶装置4の構成は実施形態1と同様である。以下、実施形態1と同じ構成については説明を省略する。また、仮想視点映像生成装置800のハードウェア構成は、図10に表すハードウェア構成と同様であるものとする。なお、仮想視点映像生成装置800は、実施形態1における情報処理システム10に含まれてもよい。
仮想視点映像生成装置800は、仮想カメラパスデータ取得部801、仮想カメラ情報取得部802、素材データ管理部803、座標系調整情報取得部804、カメラパラメータ情報調整部805、仮想視点映像生成部806、仮想視点映像出力部807を有する。本実施形態における仮想視点映像生成装置800は、仮想カメラパスデータ処理装置1から仮想カメラパスデータを取得し、取得した仮想カメラパスデータに基づいて仮想視点映像を生成する。以下、各処理部について説明する。
仮想カメラパスデータ取得部801は、仮想カメラパスデータ処理装置1から出力された仮想カメラパスデータを取得する。なお、仮想カメラパスデータ取得部801は、仮想カメラパスデータ処理装置1で出力される仮想カメラパスデータを、データファイルとして取得してもよいし、パケットデータとして取得してもよい。なお、仮想カメラパスデータ取得部801は、仮想カメラパスデータを、フレーム単位で取得してもよいし、一定フレーム数単位で取得してもよいし、一つあるいは複数の仮想カメラパスデータセット単位で取得してもよい。複数の仮想カメラパスデータセットを取得した場合は、後述する仮想視点映像出力部807にて、それぞれの仮想カメラパスデータセットに対応する仮想視点映像を区別して出力することができる。それぞれの仮想カメラパスデータセットは、各仮想カメラパスデータセットヘッダに記載の識別IDによって区別できる。なお、後述する仮想視点映像出力部807は、仮想カメラパスデータセットに記載される識別IDを、出力する仮想視点映像のメタデータに付与する処理を行ってもよい。
仮想カメラ情報取得部802は、仮想カメラパスデータ取得部801で取得した仮想カメラパスデータから、仮想カメラのカメラパラメータを取得する。また、仮想カメラ情報取得部802は、仮想カメラパスデータに含まれる、仮想カメラパス時刻情報に対応する撮影時刻情報を取得する。なお、これに限定されず、仮想広告などのある付加情報を付加するための指示情報やレンダリング対象の情報も取得してもよい。
素材データ管理部803は、仮想カメラ情報取得部802で取得した撮影時刻情報に対応する素材データを、記憶装置4から取得する。実施形態1で説明したように、素材データには撮影時刻情報が関連付けられているため、素材データ管理部803は、素材データに関連付けられた撮影時刻情報を参照することにより、素材データを取得することができる。なお、素材データ管理部803は、取得した素材データと仮想カメラパスデータセットおよび仮想カメラパス時刻情報との対応を保持する。
なお、素材データ管理部803により取得される素材データは、仮想視点映像生成部806において仮想視点映像を生成する方法に基づき、必要な素材データが取得される。例えば、前景モデルや背景モデルに基づく生成方法であれば、前景や背景の点群モデルデータまたはメッシュモデルデータや、それに対応するテクスチャ画像やテクスチャを生成するための撮影画像とカメラキャリブレーションデータが取得される。前景モデルや背景モデルを用いない生成方法の場合は、撮影画像やカメラキャリブレーションデータなどが取得される。
座標系調整情報取得部804は、仮想カメラパスデータ取得部801で取得した仮想カメラパスデータから、仮想カメラの座標系を調整するための座標系調整情報を取得する。カメラパラメータ情報調整部805は、座標系調整情報取得部804で取得した座標系調整情報を基に、仮想カメラパラメータを変更する。
仮想視点映像生成部806は、カメラパラメータ情報調整部805で変更された仮想カメラパラメータと、被写体データ管理部803で取得した素材データを用いて、仮想視点映像を生成する。なお、仮想カメラパラメータと素材データは、それぞれ対応するものを用いる。対応する仮想カメラパラメータと素材データは、例えば同一の仮想カメラパス時刻情報を参照することで特定される。
ここで、仮想カメラパスデータに基づいて仮想視点映像を生成する方法の一例について説明する。まず、カメラパラメータ情報調整部805は、各撮影時刻情報に対応する座標系調整情報に基づいて、仮想カメラパラメータを変更(調整)する。また、仮想視点映像生成部806は、座標系調整済みの仮想カメラパラメータに基づいて、それぞれの撮影時刻情報に対応する素材データを使用して、独立に仮想視点映像を生成する。このとき、各仮想視点映像について仮想カメラから被写体モデルまでの距離を表す距離画像も合わせて生成する。そして、仮想視点映像生成部806は、独立に生成された複数の仮想視点映像と、合わせて生成された距離画像とに基づいて、仮想カメラの位置との距離がより近い被写体モデルが手前に映るように、複数の仮想視点映像を合成する。
図11に示す仮想カメラパスデータを例に説明する。仮想カメラパス時刻情報0について、カメラパラメータ情報調整部805は、4つの撮影時刻情報のそれぞれに対応する座標系調整情報に基づいて、仮想カメラパラメータP0を調整する。また、仮想視点映像生成部806は、座標系調整済みの4つの仮想カメラパラメータと、撮影時刻0、1000、2000、3000のそれぞれに対応する素材データを使用して、4つの仮想視点映像を生成する。このとき、各仮想視点映像について仮想カメラから被写体モデルまでの距離を表す距離画像も合わせて生成する。仮想視点映像生成部806は、生成された4つの仮想視点映像と、合わせて生成された距離画像とに基づいて、仮想カメラの位置との距離がより近い被写体モデルが手前に映るように、4つの仮想視点映像を合成する。これにより、同一の仮想カメラパス時刻情報0に対応する4つの仮想視点映像が合成され、1つの仮想視点映像のフレームが生成される。同様の処理を、他の仮想カメラパス時刻情報に対応するフレームに対しても行うことにより、最終的に100フレームの仮想視点映像が生成される。
以上の処理を行うことで一枚の仮想視点映像を生成できる。なお、前述の生成方法では、それぞれの撮影時刻情報について独立に仮想視点映像を生成してから合成処理をしたが、それに限らない。例えば、各撮影時刻情報に基づく仮想視点映像を順番に生成していき、順に仮想カメラから被写体モデルまでの距離に応じて上書きしていってもよい。なお、仮想視点映像を生成する際の色付け方法として、仮想カメラ情報を基にした色付けを前提としており、その方が高画質な画を得られるが、一般的なテクスチャマッピングなどのその他の方法でもよい。
仮想視点映像出力部807は、仮想視点映像生成部806から仮想視点映像を取得し、仮想視点映像をディスプレイなどの表示デバイスを用いて出力する。なお、仮想視点映像出力部807は、仮想視点映像生成部806から取得した仮想視点映像を、画像のデータファイルやパケットデータとして出力してもよい。
<処理フロー>
上記の構成での仮想視点映像生成装置の動作について、図9のフローチャートを用いて説明する。仮想視点映像生成装置800が仮想カメラパスデータを取得することにより、処理が開始される。ステップS900において、仮想カメラパスデータからカメラパスデータヘッダを読み込む。ヘッダ情報に基づいて、処理に必要なメモリの確保等を行う。続いて、各データ情報を読み込み、各情報のヘッダ及びデータのアクセス情報を取得する。
ステップS901において、仮想視点映像生成装置800は、仮想カメラパス開始からフレーム単位で入力されるデータの取得を繰り返す。ステップS902において、仮想カメラパスデータ取得部801は、仮想カメラパスデータ処理装置1からステップS901で入力されたフレームに対応する仮想カメラパス時刻情報、撮影時刻情報、カメラパラメータ情報、座標系調整情報を取得する。ステップS903において、仮想カメラ情報取得部802は、仮想カメラパスデータ取得部801あるいはカメラパラメータヘッダに基づき、当該フレームの仮想カメラ情報、つまりカメラパラメータ情報を取得する。また、仮想カメラ情報取得部802は、撮影時刻情報ヘッダに基づき、当該フレームの撮影時刻情報を取得する。これらの情報のデータサイズは固定長であるため、先頭からのフレーム数で読み込むデータの先頭の位置が指定できる。
ステップS904において、被写体データ管理部803は、仮想カメラ情報取得部802で取得した撮影時刻情報に対応する素材データを記憶装置4から取得する。記憶装置4に格納されている被写体データから当該撮影時刻に基づいて素材データを選択する。
ステップS905において、座標系調整情報取得部804は、仮想カメラパスデータ取得部801から座標系調整情報ヘッダに基づき、当該フレームの座標系調整情報を取得する。ステップS906において、カメラパラメータ情報調整部805は、仮想カメラ情報取得部で取得した仮想カメラパラメータを、座標系調整情報取得部804で取得した座標系調整情報を基に、カメラパラメータ情報を調整する。具体的に、図2で示した例を用いてカメラパラメータ情報調整方法を説明する。例えば、仮想カメラ情報取得部で取得したあるフレームのカメラパラメータ情報を、仮想カメラ2302の仮想カメラパラメータとする。このとき、座標系調整情報取得部804で取得した座標系調整情報は、変化量2405に相当する。図2の例では、被写体モデルは向きの変更はされておらず、変化量2405だけ並行移動して配置されている。したがって、カメラパラメータ情報の調整は、カメラパラメータ情報における位置座標を変化量2405だけ引くことで行われる。
ステップS907において、仮想視点映像生成部804は、被写体データ管理部803で取得した被写体データおよびにステップS906で調整したカメラパラメータ情報に基づき、仮想視点映像を生成する。ステップS908において、仮想視点映像出力部605は、仮想視点映像生成部604で生成した仮想視点映像を、ディスプレイなどの表示デバイスを用いて出力、あるいはデータファイルやパケットデータとして出力する。ステップS909において、仮想カメラパスが終了するか、フレーム単位での入力が終了するまでステップS901からステップS908までを繰り返す。
図10は各部の通信の状況を示した図である。最初に仮想カメラパスデータ処理装置1が起動され、仮想視点映像生成装置800に対し、仮想視点映像を生成の開始を通達する。ここで、図8には図示していないが、CPUなどで構成される仮想視点映像生成装置を制御する制御部が、仮想カメラパスデータ取得部801および各部に仮想視点映像を生成の開始を通達し、各部はその準備を行う。続いて、仮想カメラパスデータ処理装置1は、仮想カメラパスデータ取得部801に対して、仮想カメラパスデータを送信する。仮想カメラパスデータ取得部801は、送られた仮想カメラパスデータのヘッダを解釈した仮想カメラパスデータにおける仮想カメラ情報と撮影時刻情報とを仮想カメラ情報取得部802に送り、座標系調整情報を座標系調整情報取得部804に送る。
仮想カメラ情報取得部802は、撮影時刻情報を被写体データ管理部803に送り、カメラパラメータ情報をカメラパラメータ情報調整部805へ送る。また、座標系調整情報取得部804は、取得した座標系調整情報をカメラパラメータ情報調整部805へ送る。被写体データ管理部803は、入力された撮影時刻情報に対応する素材データを記憶装置4から取得し、取得した素材データを仮想視点映像生成部806へ送る。カメラパラメータ情報調整部805は、取得した座標系調整情報と仮想カメラパラメータとを基に、仮想カメラパラメータを調整し、調整した仮想カメラパラメータを仮想視点映像生成部806へ送る。仮想視点映像生成部806は、取得した被写体データおよび調整済みカメラパラメータ情報に基づいて、仮想視点映像をレンダリングする。
仮想視点映像生成部806は、レンダリングが終わり次第、生成した仮想視点映像を仮想視点映像出力部807へ送り、次に生成する仮想視点映像のフレームに関する情報を要求する。以下、次のフレームの処理をするために、仮想カメラパスデータの取得、仮想カメラパスデータに対応する素材データの取得および仮想カメラパラメータの取得と調整、仮想視点映像の生成および出力が繰り返される。仮想カメラパスデータ処理装置1から送信終了が仮想視点映像生成装置を制御する制御部に送信されると、全ての処理を終了する。
なお、本実施形態では処理をシーケンシャルな流れとしてフローチャートに示したが、これに限定されない。例えば、複数の仮想カメラパスデータについて出力を並行して実施しても構わない。
なお、一度にやり取りするデータは、フレーム単位でもよいし、複数フレーム単位でまとめておこなってもよい。例えば、仮想カメラパスデータ取得部801は、受信する仮想カメラパスデータを複数フレーム単位で受け取ってもよい。この場合は、例えば、受信したフレーム分の仮想カメラパスデータを仮想カメラパスデータ取得部801で記憶しておき、記憶した仮想カメラパスデータの情報をフレーム単位で順次送信してもよいし、複数フレーム単位で送信してもよい。また、仮想視点映像生成部806に送られる仮想カメラパラメータと被写体データの送信順序はこれに限らず、順序が逆転してもよいし、同時に送ってもよい。
以上説明したように、仮想カメラパラメータと、座標系調整情報とが含まれる仮想カメラパスデータを使用することにより、被写体の3次元形状データの位置を変更した場合においても、適切な仮想視点映像を生成することができる。なお、本実施形態においては、仮想視点映像生成装置800は仮想カメラパスデータ処理装置1から直接仮想カメラパスデータを取得する構成としたが、これに限定されない。仮想視点映像生成装置800は、例えば、記憶装置4や他の記憶装置に保存された仮想カメラパスデータを取得する構成でもよい。また例えば、仮想視点映像生成装置800は、実施形態1におけるシーケンスデータ生成装置7により生成されるシーケンスデータを使用して仮想視点映像を生成してもよい。このとき、シーケンスデータに素材データが含まれていれば、仮想視点映像生成装置800は、記憶装置4に記憶される素材データを参照することなく、仮想視点映像を生成することが可能である。
(その他の実施形態)
上述した実施形態においては、仮想視点映像における被写体の位置及び向きの少なくともいずれかを変更するための変更情報として座標系調整情報を使用し、仮想カメラパラメータを変更させることについて説明したが、これに限定されない。上述の実施形態では被写体モデルの色情報を、仮想カメラパラメータに応じた撮像画像の画素値に基づいて取得し、仮想視点映像をレンダリングする方法を使用した場合について説明した。しかしながら、仮想視点映像の生成に使用される被写体モデルとしては、すでに色が付けられた(固定色の)被写体モデルが使用される場合もありうる。色が付けられた被写体モデルは、例えば色付きの点群モデルデータ及びメッシュモデルデータ、並びに固定色のテクスチャデータを有するデータでありうる。色が付けられた被写体モデルを使用する場合は、仮想カメラと色付けに使用される撮像画像との関係を考量する必要がない。したがって、この場合は被写体モデルの位置及び向きを、撮影時からどれだけ変更させるかを表す情報を仮想カメラパラメータと関連付けた仮想カメラパスデータを生成する。これにより、被写体モデルの位置及び向きが変更された仮想視点映像を生成することが可能となる。また、上述の変更情報は、撮影時の被写体の位置及び向きからどれだけ変更させるかを表す情報であるとしたが、これに限定されない。例えば、仮想カメラパスデータにおける複数のフレームのうち、基準となるフレームにおける被写体の位置及び向きからの変更量を表す情報であってもよい。
また例えば、仮想カメラパスデータに含まれる情報は、仮想視点映像における被写体の位置及び向きを表す情報、すなわち、モデル操作装置5において生成される配置情報そのものであってもよい。この場合は、仮想カメラパスデータは、配置情報である被写体の位置及び向きの情報と、仮想カメラパラメータとが関連付けられたデータとなる。
本開示は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介して装置又は装置に供給し、その装置又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
1 仮想カメラパスデータ処理装置
101 仮想カメラ情報取得部
102 座標系調整情報取得部
104 仮想カメラパスデータ出力部

Claims (19)

  1. 複数の撮影装置が被写体を撮影することにより得られる複数の撮影画像に基づいて生成される仮想視点映像を構成するフレームに対応し、仮想視点の位置及び前記仮想視点からの視線方向を表すパラメータを取得する取得手段と、
    前記仮想視点映像における前記被写体の位置及び向きを特定する特定手段と、
    前記取得手段により取得される前記パラメータと、前記特定手段により特定される前記被写体の位置及び向きに基づく所定の情報とが関連付けられた仮想視点データを出力する出力手段と
    を有することを特徴とする情報処理装置。
  2. 複数の撮影装置が被写体を撮影することにより得られる複数の撮影画像に基づいて生成される仮想視点映像を構成するフレームに対応し、仮想視点の位置及び前記仮想視点からの視線方向を表すパラメータと、前記仮想視点映像における前記被写体の位置及び向きに基づく所定の情報とが関連付けられた仮想視点データを取得する取得手段と、
    前記仮想視点データに基づいて、前記仮想視点映像を生成する生成手段と
    を有することを特徴とする情報処理装置。
  3. 前記所定の情報は、前記仮想視点映像における前記被写体の位置及び向きを表す情報であることを特徴とする請求項1又は2に記載の情報処理装置。
  4. 前記所定の情報は、前記仮想視点映像における前記被写体の位置及び向きの少なくともいずれかを、前記複数の撮影装置による撮影時における前記被写体の位置及び向きから変更させるための情報を含むことを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
  5. 前記所定の情報は、前記仮想視点映像における前記被写体の位置及び向きに基づいて、前記パラメータを変更させるための情報を含むことを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
  6. 前記仮想視点映像は、前記所定の情報に基づいて変更された前記パラメータに基づいて生成されることを特徴とする請求項5に記載の情報処理装置。
  7. 前記所定の情報は、前記仮想視点映像における前記被写体の位置に基づいて仮想視点の位置が変更されるように前記パラメータを変更させるための情報を含むことを特徴とする請求項5又は6に記載の情報処理装置。
  8. 前記所定の情報は、前記仮想視点映像における前記被写体の向きに基づいて仮想視点からの視線方向が変更されるように前記パラメータを変更させるための情報を含むことを特徴とする請求項5乃至7のいずれか1項に記載の情報処理装置。
  9. 前記仮想視点映像における前記被写体の位置及び向きは、前記仮想視点映像を生成するための座標系における前記被写体を表すデータの位置及び向きであり、
    前記座標系は、前記複数の撮影装置により撮影される撮影空間に対応する座標系とは異なる
    ことを特徴とする請求項1乃至8のいずれか1項に記載の情報処理装置。
  10. 前記パラメータは、前記仮想視点映像を生成するための座標系における仮想視点の位置及び前記仮想視点からの視線方向を表すパラメータであることを特徴とする請求項1乃至9のいずれか1項に記載の情報処理装置。
  11. 前記仮想視点映像を生成するための座標系は、前記仮想視点映像における背景に対応する座標系であることを特徴とする請求項9に記載の情報処理装置。
  12. 前記仮想視点データは、複数の前記パラメータと、複数の前記所定の情報が関連付けられたデータであり、
    複数の前記所定の情報は、同一の前記フレームと関連付けられる
    ことを特徴とする請求項1乃至11のいずれか1項に記載の情報処理装置。
  13. 前記仮想視点データは、前記被写体が撮影された時刻を特定するための時刻情報が更に関連付けられたデータであることを特徴とする請求項1乃至12のいずれか1項に記載の情報処理装置。
  14. 前記仮想視点映像は、前記複数の撮影画像に基づいて生成される素材データであって、前記被写体の3次元形状を表す3次元形状データ、及び、前記被写体の色を表すテクスチャデータを含む素材データに基づいて生成されることを特徴とする請求項1乃至13のいずれか1項に記載の情報処理装置。
  15. 前記仮想視点データは、前記パラメータと前記所定の情報とを含むファイルであることを特徴とする請求項1乃至14のいずれか1項に記載の情報処理装置。
  16. 前記仮想視点映像における前記被写体の位置及び向きは、ユーザ操作に基づいて特定されることを特徴とする請求項1乃至15のいずれか1項に記載の情報処理装置。
  17. 複数の撮影装置が被写体を撮影することにより得られる複数の撮影画像に基づいて生成される仮想視点映像を構成するフレームに対応し、仮想視点の位置及び前記仮想視点からの視線方向を表すパラメータを取得する取得工程と、
    前記仮想視点映像における被写体の位置及び向きを特定する特定工程と、
    前記取得工程において取得される前記パラメータと、前記特定工程において特定される前記被写体の位置及び向きに基づく所定の情報とが関連付けられた仮想視点データを出力する出力工程と
    を有することを特徴とする情報処理方法。
  18. 複数の撮影装置が被写体を撮影することにより得られる複数の撮影画像に基づいて生成される仮想視点映像を構成するフレームに対応し、仮想視点の位置及び前記仮想視点からの視線方向を表すパラメータと、前記仮想視点映像における前記被写体の位置及び向きに基づく所定の情報とが関連付けられた仮想視点データを取得する取得工程と、
    前記仮想視点データに基づいて、前記仮想視点映像を生成する生成手段と
    を有することを特徴とする情報処理方法。
  19. コンピュータを、請求項1乃至16のいずれか1項に記載の情報処理装置として機能させるためのプログラム。
JP2021075040A 2021-04-27 2021-04-27 情報処理装置、情報処理方法、及び、プログラム Pending JP2022169177A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2021075040A JP2022169177A (ja) 2021-04-27 2021-04-27 情報処理装置、情報処理方法、及び、プログラム
EP22795631.5A EP4333420A1 (en) 2021-04-27 2022-04-19 Information processing device, information processing method, and program
PCT/JP2022/018133 WO2022230718A1 (ja) 2021-04-27 2022-04-19 情報処理装置、情報処理方法、及び、プログラム
US18/493,591 US20240054739A1 (en) 2021-04-27 2023-10-24 Information processing apparatus, information processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021075040A JP2022169177A (ja) 2021-04-27 2021-04-27 情報処理装置、情報処理方法、及び、プログラム

Publications (1)

Publication Number Publication Date
JP2022169177A true JP2022169177A (ja) 2022-11-09

Family

ID=83847106

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021075040A Pending JP2022169177A (ja) 2021-04-27 2021-04-27 情報処理装置、情報処理方法、及び、プログラム

Country Status (4)

Country Link
US (1) US20240054739A1 (ja)
EP (1) EP4333420A1 (ja)
JP (1) JP2022169177A (ja)
WO (1) WO2022230718A1 (ja)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3388827B2 (ja) * 1993-09-06 2003-03-24 株式会社応用計測研究所 動画像処理装置
JP6482498B2 (ja) 2016-05-25 2019-03-13 キヤノン株式会社 制御装置、制御方法、及び、プログラム
JP7102173B2 (ja) * 2018-03-09 2022-07-19 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
US11995784B2 (en) * 2019-04-18 2024-05-28 Sony Group Corporation Image processing device and image processing method
US11318705B2 (en) 2019-08-26 2022-05-03 The Boeing Company Ply stackings for solid laminate stiffened panel

Also Published As

Publication number Publication date
WO2022230718A1 (ja) 2022-11-03
EP4333420A1 (en) 2024-03-06
US20240054739A1 (en) 2024-02-15

Similar Documents

Publication Publication Date Title
JP6918455B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2019047432A (ja) 情報処理装置、情報処理方法、及びプログラム
EP4054186A1 (en) Information processing apparatus, information processing method, and program
JP2021034885A (ja) 画像生成装置、画像表示装置および画像処理方法
JP7446754B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2024019537A (ja) 画像処理装置、画像処理方法、及びプログラム
US20230353717A1 (en) Image processing system, image processing method, and storage medium
CN114584681A (zh) 目标对象的运动展示方法、装置、电子设备及存储介质
WO2022230718A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP7459195B2 (ja) 生成装置、生成方法、及びプログラム
WO2022230715A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP2023057124A (ja) 画像処理装置及び方法、プログラム
JP4395082B2 (ja) 映像生成装置、及びプログラム
WO2023145571A1 (ja) 情報処理装置、情報処理方法、データ構造及びプログラム
JP2022012398A (ja) 情報処理装置、情報処理方法、及びプログラム
JP7494153B2 (ja) 生成装置、生成方法、及び、プログラム
JP7505547B2 (ja) 画像処理装置、キャリブレーションボード、および、3dモデルデータ生成方法
JP2002271692A (ja) 画像処理方法、画像処理装置、スタジオ装置、スタジオシステム及びプログラム
JP2024014517A (ja) 情報処理システム、情報処理方法及びコンピュータプログラム
US20230291883A1 (en) Image processing system, image processing method, and storage medium
JP2010074437A (ja) アノテーション付与方法及び装置及びプログラム及びコンピュータ読み取り可能な記録媒体
JP2023184358A (ja) 画像処理システム、画像処理システムの制御方法、及びプログラム
Albuquerque et al. An overview on virtual sets
JP2023540647A (ja) 映画産業向けプリビジュアライゼーション・デバイス及びシステム
JP2022073647A (ja) 画像処理装置、画像処理方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230426

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213