JP2019079468A - 画像処理システム、画像処理システムの制御方法及びプログラム - Google Patents
画像処理システム、画像処理システムの制御方法及びプログラム Download PDFInfo
- Publication number
- JP2019079468A JP2019079468A JP2017208224A JP2017208224A JP2019079468A JP 2019079468 A JP2019079468 A JP 2019079468A JP 2017208224 A JP2017208224 A JP 2017208224A JP 2017208224 A JP2017208224 A JP 2017208224A JP 2019079468 A JP2019079468 A JP 2019079468A
- Authority
- JP
- Japan
- Prior art keywords
- image
- virtual viewpoint
- data
- camera
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Generation (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
【課題】仮想視点画像の生成に要する時間を短縮することである。【解決手段】画像処理システムは、複数のカメラが被写体を複数の方向から撮影した画像から仮想視点画像を生成する画像処理システムであって、生成される仮想視点画像に係る第1の仮想視点に基づいて、第1の予測仮想視点を予測する第1の予測手段と、前記第1の予測仮想視点の仮想視点画像の生成に必要な画像を、前記複数のカメラにより撮影された画像を記憶するストレージから読み出す制御手段とを有する。【選択図】図18
Description
本発明は、画像処理システム、画像処理システムの制御方法及びプログラムに関する。
複数のカメラを異なる位置に設置して多視点で同期撮影し、当該撮影により得られた複数の画像を用いて、カメラの設置位置から撮影した画像だけでなく、視点を任意に変更可能な仮想視点画像を生成する技術がある。仮想視点画像は、例えば、サーバなどの画像処理部が複数のカメラにより撮影された画像をデータベースから取得し、三次元モデルを生成し、レンダリングなどの処理を施すことで生成される。
特許文献1には、同一の範囲を取り囲むように複数の撮像装置を配置して、その同一の範囲を撮影した画像を用いて、任意の指定に対応する仮想視点画像を生成、表示する技術が開示されている。
仮想視点画像の生成に必要となるカメラの撮影画像は、仮想視点に応じて異なる。仮想視点の位置や視線方向を連続して遷移させてその遷移に従った仮想視点画像を連続して生成する場合、必要となるカメラの撮影画像は刻一刻と変化し得る。このような場合にデータベースから仮想視点画像の生成に必要な画像データを逐次読み出すとすると、仮想視点画像の生成に時間がかかったり、遅延が発生したりすることが生じ得る。
本発明の目的は、仮想視点画像の生成に要する時間を短縮することである。
本発明の画像処理システムは、複数のカメラが被写体を複数の方向から撮影した画像から仮想視点画像を生成する画像処理システムであって、生成される仮想視点画像に係る第1の仮想視点に基づいて、第1の予測仮想視点を予測する第1の予測手段と、前記第1の予測仮想視点の仮想視点画像の生成に必要な画像を、前記複数のカメラにより撮影された画像を記憶するストレージから読み出す制御手段とを有する。
本発明によれば、仮想視点画像の生成に要する時間を短縮することができる。
(第1の実施形態)
図1は、本発明の第1の実施形態に係る画像処理システム100の構成例を示す図である。画像処理システム100は、競技場(スタジアム)やコンサートホールなどの施設に複数のカメラ及びマイクを設置し、撮影及び集音を行う。画像処理システム100は、センサシステム110a〜110z、画像コンピューティングサーバ200、コントローラ300、スイッチングハブ180、及びエンドユーザ端末190を有する。コントローラ300は、制御ステーション310と仮想カメラ操作UI330を有する。制御ステーション310は、それぞれのブロックに対して、ネットワーク310a〜310c、180a、180b、及び170a〜170yを通じて動作状態の管理及びパラメータ設定制御等を行う。以下、センサシステム110aからセンサシステム110zまでを区別せずセンサシステム110と記載する。各センサシステム110内の装置についても同様に、特別な説明がない場合は区別せず、マイク111、カメラ112、雲台113、外部センサ114、及びカメラアダプタ120と記載する。なお、画像は、動画と静止画の概念を含む。画像処理システム100は、静止画及び動画の何れについても処理可能である。センサシステム110a〜110zは、それぞれカメラ112a〜112zを有し、被写体を複数の方向から撮影する。複数のセンサシステム110同士はデイジーチェーンにより接続されるので、接続ケーブル数の削減や配線作業の省力化ができる。また、複数のセンサシステム110をいくつかのグループに分割して、分割したグループ単位でセンサシステム110間をデイジーチェーン接続してもよい。
図1は、本発明の第1の実施形態に係る画像処理システム100の構成例を示す図である。画像処理システム100は、競技場(スタジアム)やコンサートホールなどの施設に複数のカメラ及びマイクを設置し、撮影及び集音を行う。画像処理システム100は、センサシステム110a〜110z、画像コンピューティングサーバ200、コントローラ300、スイッチングハブ180、及びエンドユーザ端末190を有する。コントローラ300は、制御ステーション310と仮想カメラ操作UI330を有する。制御ステーション310は、それぞれのブロックに対して、ネットワーク310a〜310c、180a、180b、及び170a〜170yを通じて動作状態の管理及びパラメータ設定制御等を行う。以下、センサシステム110aからセンサシステム110zまでを区別せずセンサシステム110と記載する。各センサシステム110内の装置についても同様に、特別な説明がない場合は区別せず、マイク111、カメラ112、雲台113、外部センサ114、及びカメラアダプタ120と記載する。なお、画像は、動画と静止画の概念を含む。画像処理システム100は、静止画及び動画の何れについても処理可能である。センサシステム110a〜110zは、それぞれカメラ112a〜112zを有し、被写体を複数の方向から撮影する。複数のセンサシステム110同士はデイジーチェーンにより接続されるので、接続ケーブル数の削減や配線作業の省力化ができる。また、複数のセンサシステム110をいくつかのグループに分割して、分割したグループ単位でセンサシステム110間をデイジーチェーン接続してもよい。
センサシステム110aは、マイク111a、カメラ112a、雲台113a、外部センサ114a、及びカメラアダプタ120aを有する。センサシステム110b〜110zも、センサシステム110aと同様の構成である。マイク111aは、音声を集音する。カメラ112aは、画像を撮影する。カメラアダプタ120aは、その画像を画像処理し、デイジーチェーン170aを通して、画像及び音声をセンサシステム110bのカメラアダプタ120bに伝送する。同様に、センサシステム110bは、集音された音声と撮影された画像を、センサシステム110aの画像及び音声と合わせてセンサシステム110cに伝送する。センサシステム110a〜110zが取得した画像及び音声は、センサシステム110zからネットワーク180bを用いてスイッチングハブ180に伝送され、その後、画像コンピューティングサーバ200に伝送される。
画像コンピューティングサーバ200は、フロントエンドサーバ230、データベース250、バックエンドサーバ270及びタイムサーバ290を有し、センサシステム110zから取得したデータの処理を行う。タイムサーバ290は、時刻及び同期信号を配信する機能を有し、スイッチングハブ180を介してセンサシステム110a〜110zに時刻及び同期信号を配信する。カメラアダプタ120a〜120zは、カメラ112a〜112zを時刻と同期信号を基にGenlockさせ画像フレーム同期を行う。画像処理システム100は、同じタイミングで撮影された複数の撮影画像に基づいて仮想視点画像を生成できるため、撮影タイミングのずれによる仮想視点画像の品質低下を抑制できる。
フロントエンドサーバ230は、センサシステム110zから取得した画像及び音声から、セグメント化された伝送パケットを再構成してデータ形式を変換し、カメラの識別子やデータ種別、フレーム番号に応じて再構成データをデータベース250に書き込む。バックエンドサーバ270は、仮想カメラ操作UI330から視点の指定を受け付け、視点に基づいて、データベース250から対応する画像及び音声データを読み出し、レンダリング処理を行って仮想視点画像を生成する。画像処理システム100は、複数のカメラ112が被写体を複数の方向から撮影した画像から仮想視点画像を生成する。
また、バックエンドサーバ270は、仮想カメラ操作UI330から受け付けた視点の履歴を用いて、所定時間後の視点について予測を行い、所定時間後の視点に対応する画像および音声データを予測し、これらのデータをデータベース250に出力する。バックエンドサーバ270は、レンダリング処理した画像及び音声をエンドユーザ端末190に送信する。エンドユーザ端末190は、ユーザに対して、視点の指定に応じた画像及び音声を再生することが出来る。具体的には、バックエンドサーバ270は、複数のカメラ112による撮影画像から抽出された所定領域の画像データと、ユーザ操作により指定された視点に基づいて、仮想視点コンテンツを生成し、生成した仮想視点コンテンツをエンドユーザ端末190に提供する。仮想視点コンテンツは、仮想的な視点から被写体を撮影した場合に得られる画像としての仮想視点画像を含むコンテンツである。
図2は、カメラアダプタ120の機能ブロックの構成例を示す図である。カメラアダプタ120は、ネットワークアダプタ6110、伝送部6120、画像処理部6130及び外部機器制御部6140を有する。ネットワークアダプタ6110は、データ送受信部6111及び時刻制御部6112を有する。データ送受信部6111は、デイジーチェーン170、ネットワーク291及びネットワーク310aを介して他のカメラアダプタ120、フロントエンドサーバ230、タイムサーバ290及び制御ステーション310とデータ通信を行う。例えばデータ送受信部6111は、カメラ112による撮影画像から前景背景分離部6131により分離された前景画像と背景画像とを、別のカメラアダプタ120に対して出力する。出力先のカメラアダプタ120は、画像処理システム100内のカメラアダプタ120のうち、データルーティング処理部6122の処理に応じて予め定められた順序における次のカメラアダプタ120である。各カメラアダプタ120が前景画像と背景画像とを出力することで、複数の視点から撮影された前景画像と背景画像に基づいて仮想視点画像が生成される。時刻制御部6112は、タイムサーバ290との間で送受信したデータのタイムスタンプを保存する機能と、タイムサーバ290と時刻同期を行う。
伝送部6120は、ネットワークアダプタ6110を介してスイッチングハブ180等に対するデータの伝送を制御する機能を有し、以下の機能部を有する。データ圧縮・伸張部6121は、データ送受信部6111を介して送受信されるデータに対して所定の圧縮方式、圧縮率、及びフレームレートを適用した圧縮を行う機能と、圧縮されたデータを伸張する機能を有する。データルーティング処理部6122は、後述するデータルーティング情報保持部6125が保持するデータを利用し、データ送受信部6111が受信したデータ及び画像処理部6130で処理されたデータのルーティング先を決定する。さらに、データルーティング処理部6122は、決定したルーティング先へデータを送信する機能を有する。時刻同期制御部6123は、タイムサーバ290と時刻同期に係わる処理を行う機能を有する。画像・音声伝送処理部6124は、画像データ又は音声データを、データ送受信部6111を介して他のカメラアダプタ120又はフロントエンドサーバ230へ転送するためのメッセージを作成する機能を有する。また、画像・音声伝送処理部6124は、他のカメラアダプタ120からデータ送受信部6111を介して受信したメッセージに含まれるデータ種別に応じて、パケットサイズにフラグメントされたデータ情報を画像データ又は音声データに復元する。データルーティング情報保持部6125は、データ送受信部6111で送受信されるデータの送信先を決定するためのアドレス情報を保持する機能を有する。
画像処理部6130は、カメラ制御部6141の制御によりカメラ112が撮影した画像データ及び他のカメラアダプタ120から受取った画像データに対して処理を行う機能を有し、以下の機能部を有する。前景背景分離部6131は、カメラ112が撮影した画像データを前景画像と背景画像に分離する機能を有する。前景画像は、例えば人物等の重要なオブジェクトの画像であり、背景画像はそれ以外の画像である。三次元モデル情報生成部6132は、前景背景分離部6131で分離された前景画像及び他のカメラアダプタ120から受取った前景画像を利用し、例えばステレオカメラの原理を用いて三次元モデルに係わる画像情報を生成する機能を有する。キャリブレーション制御部6133は、キャリブレーションに必要な画像データを、カメラ制御部6141を介してカメラ112から取得し、キャリブレーションに係わる演算処理を行うフロントエンドサーバ230に送信する機能を有する。
外部機器制御部6140は、以下の機能部を有する。カメラ制御部6141は、カメラ112と接続し、カメラ112の制御、撮影画像取得、同期信号提供、及び時刻設定などを行う機能を有する。マイク制御部6142は、マイク111を制御する機能を有する。雲台制御部6143を制御する機能を有する。センサ制御部6144は、外部センサ114を制御する機能を有する。
図3は、フロントエンドサーバ230の機能ブロックの構成例を示す図である。制御部2110は、フロントエンドサーバ230の各機能ブロック及びフロントエンドサーバ230のシステム全体の制御を行う。また、制御部2110は、制御ステーション310から制御指示及びスタジアムCADデータ(スタジアム形状データ)を受信し、スタジアムCADデータをCADデータ記憶部2135と撮影データファイル生成部2180に送信する。データ入力制御部2120は、ネットワークを通してカメラアダプタ120から前景画像、背景画像、被写体の三次元モデル、及び音声データを取得する。前景画像は仮想視点画像の生成のための撮影画像の前景領域に基づく画像データであり、背景画像は当該撮影画像の背景領域に基づく画像データである。また、データ入力制御部2120は、取得した前景画像及び背景画像をデータ同期部2130に送信し、カメラキャリブレーション撮影画像データをキャリブレーション部2140に送信する。
データ同期部2130は、カメラアダプタ120から取得したデータを一次的に記憶し、前景画像、背景画像、音声データ及び三次元モデルデータが揃うまでバッファする。なお、前景画像、背景画像、音声データ及び三次元モデルデータをまとめて、以降では撮影データと称する。データがそろったら、データ同期部2130は、前景画像及び背景画像を画像処理部2150に、三次元モデルデータを三次元モデル結合部2160に、音声データを撮影データファイル生成部2180にそれぞれ送信する。CADデータ記憶部2135は、制御部2110から受け取ったスタジアム形状を示す三次元データを保存し、画像結合部2170に対してスタジアム形状データを送信する。キャリブレーション部2140は、カメラのキャリブレーション動作を行い、キャリブレーションによって得られたカメラパラメータを非撮影データファイル生成部2185及び三次元モデル結合部2160に送信する。
画像処理部2150は、前景画像や背景画像に対して、カメラ間の色や輝度値の合わせこみ等の画像処理を行い、前景画像を撮影データファイル生成部2180に送信し、背景画像を画像結合部2170に送信する。三次元モデル結合部2160は、カメラアダプタ120から取得した同一時刻の三次元モデルデータをキャリブレーション部2140が生成したカメラパラメータを用いて結合し、スタジアム全体における前景画像の三次元モデルデータを生成する。三次元モデルは、撮影データファイル生成部2180に送信される。画像結合部2170は、画像処理部2150から背景画像を取得し、CADデータ記憶部2135からスタジアムの三次元形状データ(スタジアム形状データ)を取得し、三次元形状データの座標に対する背景画像の位置を特定し、背景画像を結合する。
撮影データファイル生成部2180は、データ同期部2130から音声データを、画像処理部2150から前景画像を、三次元モデル結合部2160から三次元モデルデータを、画像結合部2170から三次元形状に結合された背景画像を取得する。そして、撮影データファイル生成部2180は、取得したこれらのデータをそれぞれの時間情報に基づいて対応付けてデータベース(DB)アクセス制御部2190に出力する。非撮影データファイル生成部2185は、キャリブレーション部2140からカメラパラメータ、制御部2110からスタジアムの三次元形状データを取得し、ファイル形式に応じて成形した後にDBアクセス制御部2190に送信する。DBアクセス制御部2190は、撮影データファイル生成部2180及び非撮影データファイル生成部2185から受信したファイルをデータベース250に対して送信する。
図4は、データベース250の機能ブロックの構成例を示す図である。制御部2410は、データベース250の各機能ブロック及びデータベース250のシステム全体の制御を行う。データ入力部2420は、フロントエンドサーバ230から撮影データや非撮影データのファイルを受信し、受信したファイルを書込み用キャッシュ2440に送信する。データ出力部2430は、バックエンドサーバ270から要求されたデータが書込み用キャッシュ2440及び読み出し用キャッシュ2470のいずれに保存されているか判断し、保存された先からデータを読み出してバックエンドサーバ270に送信する。書込み用キャッシュ2440は、データ入力部2420から取得した撮影データや非撮影データを一定量格納し、それを超える古いデータを一次ストレージ2450へ書き込む。二次ストレージ2460には、撮影が完了した後、データのバックアップとして一次ストレージ2450に格納されたデータが書き出される。
読み出し用キャッシュ2470には、一次ストレージ2450の所定の撮影データや非撮影データが格納される。読み出し用キャッシュ2470は、データ出力部2430及び読み出し用キャッシュ制御部2480の要求に従ってデータの読み出しを行う。読み出し用キャッシュ制御部2480は、バックエンドサーバ270によって予測された所定時間後の視点に対応するデータを受け取り、読み出し用キャッシュ2470に既に格納されているかを確認する。そして、読み出し用キャッシュ制御部2480は、読み出し用キャッシュ2470に格納されていないデータのみ読み出し用キャッシュ2470に読み出し要求を出す。読み出し用キャッシュ制御部2480は、バックエンドサーバ270によって予測された所定時間後の視点に対応するデータについては、読み出し用キャッシュ2470に対して新規データによる上書きがされないように制御する。
図5は、バックエンドサーバ270の構成例を示す図である。データ受信部3001は、データベース250から、スタジアムの形状を示す三次元データ(スタジアム形状データ)、前景画像、背景画像、前景画像の三次元モデル(以降、前景三次元モデルと称する)、及び音声を受信する。また、データ受信部3001は、コントローラ300から仮想カメラパラメータを受信する。仮想カメラパラメータは、仮想視点の位置や姿勢などを表すデータであり、例えば、外部パラメータの行列と内部パラメータの行列が用いられる。背景メッシュモデル管理部3013は、データベース250から受信した背景メッシュモデルを記憶する。背景テクスチャ貼り付け部3002は、背景メッシュモデル管理部3013から背景メッシュモデル(スタジアム形状データ)取得する。そして、背景テクスチャ貼り付け部3002は、背景メッシュモデルで示される三次元空間形状に対して背景画像をテクスチャとして貼り付けることでテクスチャ付き背景メッシュモデルを生成する。前景テクスチャ決定部3003は、前景画像及び前景三次元モデル群より前景三次元モデルのテクスチャ情報を決定する。前景テクスチャ境界色合わせ部3004は、各前景三次元モデルのテクスチャ情報と各三次元モデル群からテクスチャの境界の色合わせを行い、前景オブジェクト毎に色付き前景三次元モデル群を生成する。仮想視点前景画像生成部3005は、仮想カメラパラメータに基づいて、前景画像群を仮想視点からの見た目となるように透視変換する。レンダリング部3006は、レンダリングモード管理部3014で決定された、仮想視点画像の生成に用いられる生成方式に基づいて、背景画像と前景画像をレンダリングして全景の仮想視点画像を生成する。仮想視点音声生成部3007は、仮想カメラパラメータに基づいて、仮想視点において聞こえる音声(音声群)を生成する。合成部3008は、レンダリング部3006で生成された画像群と仮想視点音声生成部3007で生成された音声を合成して仮想視点コンテンツを生成する。画像出力部3009は、コントローラ300とエンドユーザ端末190へ仮想視点コンテンツを出力する。
前景オブジェクト決定部3010は、仮想カメラパラメータと前景三次元モデルに含まれる前景オブジェクトの空間上の位置を示す前景オブジェクトの位置情報から、表示される前景オブジェクト群を決定して、前景オブジェクトリストを出力する。要求リスト生成部3011は、指定時間の前景オブジェクトリストに対応する前景画像群と前景三次元モデル群、及び背景画像と音声データをデータベース250に要求するための、要求リストを生成する。要求データ出力部3012は、入力された要求リストを基にデータベース250に対してデータ要求のコマンドを出力する。
予想仮想視点算出部3015は、コントローラ300が出力する仮想カメラパラメータを一定時間量保持し、保持した仮想カメラパラメータから所定時間後の仮想視点を予測し、予測仮想カメラパラメータを算出する。仮想カメラパラメータは、仮想カメラの位置や姿勢を表すデータである。予想仮想視点算出部3015は、仮想カメラの位置の変化量から予測仮想視点の位置を算出し、仮想カメラの姿勢の変化量から予測仮想視点の視線の向きを算出する。また、予想仮想視点算出部3015は、仮想カメラのズーム倍率の変化量から、予測仮想視点におけるズーム倍率を算出する。予想仮想視点算出部3015は、算出した予測仮想カメラパラメータを予測仮想視点前景オブジェクト決定部3016に出力する。仮想カメラの位置の変化量は、前のフレームの仮想カメラからの位置の変化と仮想カメラの移動方向、すなわち、速度と移動方向によって算出される。さらに、仮想カメラの位置の変化量は、前のフレームの仮想カメラの加速度によって所定時間後の仮想カメラの速度を予測し、その予測された速度と移動方向に基づいて変化量を算出することができる。また、仮想カメラが直線運動でない場合、予想仮想視点算出部3015は、仮想視点の方向の変化量に基づいて所定時間後の仮想視点の方向を算出し、予測された速度によって、位置の変化量を算出できる。
予測仮想視点前景オブジェクト決定部3016は、予測仮想カメラパラメータと、前景オブジェクトの空間上の位置を示す前景オブジェクトの位置情報から、予測仮想視点における前景オブジェクト群を決定し、予測仮想視点前景オブジェクトリストを出力する。ここで、予測仮想視点における前景オブジェクト群は、前景オブジェクト決定部3010と同様に、レンダリングモード管理部3014で決定されるレンダリングモードと連動して決定される。予測仮想視点要求リスト生成部3017は、予測仮想視点前景オブジェクトリストに対応する前景画像群と前景三次元モデル群、及び背景画像と音声データをデータベース250に要求するための、予測仮想視点要求リストを生成する。要求データ出力部3018は、入力された予測仮想視点要求リストを基にデータベース250に対してデータ要求のコマンドを出力する。
図6は、仮想カメラ操作UI330の機能構成例を示す図である。仮想カメラ8001について図7(a)を用いて説明する。仮想カメラ8001は、設置されたどのカメラ112とも異なる視点において撮影を行うことができる仮想的なカメラである。即ち、画像処理システム100において生成される仮想視点画像が、仮想カメラ8001による撮影画像である。図7(a)において、円周上に配置された複数のセンサシステム110のそれぞれがカメラ112を有している。例えば、仮想視点画像を生成することにより、あたかもサッカーゴールの近くの仮想カメラ8001で撮影されたかのような画像を生成することができる。仮想カメラ8001の撮影画像である仮想視点画像は、設置された複数のカメラ112の画像を画像処理することで生成される。オペレータ(ユーザ)は仮想カメラ8001の位置等を操作することで、自由な視点からの撮影画像を得ることができる。
仮想カメラ操作UI330は、仮想カメラ管理部8130及び操作UI部8120を有する。仮想カメラ操作部8101は、オペレータの仮想カメラ8001に対する操作、すなわち仮想視点画像の生成に係る視点を指定するためのユーザによる指示を受け付けて処理する。オペレータの操作内容は、例えば、位置の変更(移動)、姿勢の変更(回転)、及びズーム倍率の変更などである。オペレータは、仮想カメラ8001を操作するために、例えば、ジョイスティック、ジョグダイヤル、タッチパネル、キーボード、及びマウスなどの入力装置を使う。また、オペレータは、軌跡を指定して仮想カメラ8001を操作することができる。例えばオペレータは、ゴールポストを中心とする円周上を仮想カメラ8001が回るという軌跡を、タッチパッドに円を書いて指定する。仮想カメラ8001は、指定された軌跡に沿ってゴールポストの回りを移動する。このとき、仮想カメラ8001が常にゴールポストの方を向くように自動で姿勢を変更してもよい。仮想カメラ操作部8101は、ライブ画像及びリプレイ画像の生成に利用することができる。リプレイ画像を生成する際は、カメラの位置及び姿勢の他に時間を指定する操作が行われる。リプレイ画像では、例えば、時間を止めて仮想カメラ8001を移動させることも可能である。
仮想カメラパラメータ導出部8102は、仮想カメラ8001の位置や姿勢などを表す仮想カメラパラメータを導出する。仮想カメラ制約管理部8103は、仮想カメラ操作部8101により受け付けられる指示に基づく視点の指定が制限される制限領域を特定するための情報を取得し管理する。この情報は例えば、仮想カメラ8001の位置や姿勢、ズーム値などに関する制約である。仮想カメラ8001は、カメラ112と異なり、自由に視点を移動して撮影を行うことができるが、常にあらゆる視点からの画像を生成できるとは限らない。例えば、どのカメラ112にも映っていない対象物が映る向きに仮想カメラ8001を向けても、その撮影画像を取得することはできない。また、仮想カメラ8001のズーム倍率を上げると、解像度の制約により画質が劣化する。そこで、一定基準の画質を保つ範囲のズーム倍率などを仮想カメラ制約としてよい。
衝突判定部8104は、仮想カメラパラメータ導出部8102で導出された仮想カメラパラメータが仮想カメラ制約を満たしているかを判定する。衝突判定部8104は、制約を満たしていない場合は、例えばオペレータによる操作入力をキャンセルし、制約を満たす位置から仮想カメラ8001が動かないよう制御したり、制約を満たす位置に仮想カメラ8001を戻したりする。フィードバック出力部8105は、衝突判定部8104の判定結果をオペレータにフィードバックする。例えば、オペレータの操作により、仮想カメラ制約が満たされなくなる場合に、そのことをオペレータに通知する。
仮想カメラパス管理部8106は、オペレータの操作に応じた仮想カメラ8001のパス(図7(b)の仮想カメラパス8002)を管理する。仮想カメラパス8002は、仮想カメラ8001の1フレーム毎の位置や姿勢を表す情報の列である。図7(b)を参照して説明する。例えば、仮想カメラ8001の位置や姿勢を表す情報として仮想カメラパラメータが用いられる。例えば、60フレーム/秒のフレームレートの設定における1秒分の情報は、60個の仮想カメラパラメータの列となる。仮想カメラパス管理部8106は、衝突判定部8104で判定済みの仮想カメラパラメータを、バックエンドサーバ270に送信する。バックエンドサーバ270は、受信した仮想カメラパラメータを用いて、仮想視点画像及び仮想視点音声を生成する。また、仮想カメラパス管理部8106は、仮想カメラパラメータを仮想カメラパス8002に付加して保持する機能も有する。例えば、仮想カメラ操作UI330を用いて、1時間分の仮想視点画像及び仮想視点音声を生成した場合、1時間分の仮想カメラパラメータが仮想カメラパス8002として保存される。仮想カメラパスを保存しておくことによって、データベース250の二次ストレージ2460に蓄積された画像情報と仮想カメラパスを後から参照することで、仮想視点画像及び仮想視点音声を再度生成することが可能になる。つまり、高度な仮想カメラ操作を行うオペレータが生成した仮想カメラパスと二次ストレージ2460に蓄積された画像情報を他のユーザが再利用できる。なお、複数の仮想カメラパスに対応する複数のシーンを選択可能となるように仮想カメラ管理部8130に蓄積することもできる。複数の仮想カメラパスを仮想カメラ管理部8130に蓄積する際には、各仮想カメラパスに対応するシーンのスクリプトや試合の経過時間、シーンの前後指定時間、及びプレーヤ情報等のメタ情報もあわせて入力及び蓄積することができる。仮想カメラ操作UI330は、これらの仮想カメラパスを仮想カメラパラメータとして、バックエンドサーバ270に通知する。
エンドユーザ端末190は、バックエンドサーバ270に仮想カメラパスを選択するための選択情報を要求することで、シーン名やプレーヤ、及び試合経過時間などから、仮想カメラパスを選択できる。バックエンドサーバ270は、エンドユーザ端末190に選択可能な仮想カメラパスの候補を通知し、エンドユーザはエンドユーザ端末190を操作して、複数の候補の中から希望の仮想カメラパスを選択する。そして、エンドユーザ端末190は、選択された仮想カメラパスに応じた画像生成をバックエンドサーバ270に要求することで、画像配信サービスをインタラクティブに享受することができる。
オーサリング部8107は、オペレータがリプレイ画像を生成する際の編集機能を提供する。オーサリング部8107は、ユーザ操作に応じて、リプレイ画像用の仮想カメラパス8002の初期値として、仮想カメラパス管理部8106が保持する仮想カメラパス8002の一部を取り出す。前述したように、仮想カメラパス管理部8106には、仮想カメラパス8002と対応付けてシーン名、プレーヤ、経過時間、及びシーンの前後指定時間などのメタ情報が保持されている。例えば、シーン名がゴールシーン、シーンの前後指定時間が前後合わせて10秒分である仮想カメラパス8002が取り出される。また、オーサリング部8107は、編集したカメラパスに再生速度を設定する。例えば、ボールがゴールに飛んで行く間の仮想カメラパス8002にスロー再生を設定する。なお、異なる視点からの画像に変更する場合、つまり仮想カメラパス8002を変更する場合は、ユーザは仮想カメラ操作部8101を用いて再度、仮想カメラ8001を操作する。
仮想カメラ画像・音声出力部8108は、バックエンドサーバ270から受け取った仮想カメラ画像・音声を出力する。オペレータは、出力された画像及び音声を確認しながら仮想カメラ8001を操作する。なお、フィードバック出力部8105によるフィードバックの内容によっては、仮想カメラ画像・音声出力部8108は、制限領域に応じた表示制御に基づく画像を表示部に表示させる。例えば、仮想カメラ画像・音声出力部8108は、オペレータが指定した視点の位置が制限領域に含まれる場合に、指定された位置の近辺であり且つ制限領域外である位置を視点とした仮想視点画像を表示させてもよい。これにより、オペレータが制限領域外に視点を指定し直す手間が削減される。
図8(a)は、競技場やコンサートホールなどの施設に複数のカメラ112やマイク111を設置し撮影を行う場合のワークフローを示す図である。以下で説明するワークフローの処理は、特に明示の記述がない場合、コントローラ300の制御により実現される。ステップS1100では、コントローラ300の制御ステーション310は、ユーザから事前情報に基づく設定を受け付ける。次に、ステップS1101では、画像処理システム100の各装置は、ユーザからの操作に基づいてコントローラ300から発行されたコマンドに従って、システムの動作確認のための処理を実行する。次に、ステップS1102では、仮想カメラ操作UI330は、競技等のための撮影開始前に画像や音声を出力する。れにより、ユーザは、競技等の前に、マイク111により集音された音声やカメラ112により撮像された画像を確認できる。次に、ステップS1103では、コントローラ300の制御ステーション310は、各マイク111に集音を実施させ、各カメラ112に撮影を実施させる。ステップS1103の詳細は、図8(b)及び図9を用いて後述する。コントローラ300は、ステップS1101で行った設定を変更する場合、又は撮影を終了する場合はステップS1104に進む。
ステップS1104では、コントローラ300は、ステップS1101で行われた設定を変更して撮影を継続する場合はステップS1105に進み、撮影を終了する場合はステップS1106に進む。ステップS1105では、コントローラ300は、ユーザ入力に基づいてステップS1101で行われた設定を変更し、ステップS1103に戻る。ステップS1106では、コントローラ300は、仮想カメラ操作UI330のユーザ操作に基づいて、複数のカメラ112により撮影された画像及び複数のマイク111により集音された音声の編集を実施する。
図8(b)は、図8(a)のステップS1103で行われる画像及び音声を生成する動作を説明する図である。画像及び音声は、独立且つ並行して生成される。先ず、画像に関する動作を説明する。ステップS1600では、仮想カメラ操作UI330は、バックエンドサーバ270に対して仮想視点画像の生成のための指示を発行する。すると、バックエンドサーバ270は、仮想カメラ操作UI330からの指示に従って仮想視点画像を生成する。次に、ステップS1601では、制御ステーション310は、ユーザ操作に応じて、画像生成を終了すると判定した場合はステップS1604に進み、画像生成を継続すると判定した場合はステップS1600に戻る。
次に、音声に関する動作を説明する。ステップS1602では、仮想カメラ操作UI330は、バックエンドサーバ270に対して仮想視点音声の生成のための指示を発行する。すると、バックエンドサーバ270は、仮想カメラ操作UI330からの指示に従って仮想視点音声を生成する。ステップS1603では、制御ステーション310は、音声生成を終了すると判定した場合はステップS1604に進み、音声生成を継続すると判定した場合はステップS1602に戻る。ステップS1604では、制御ステーション310は、画像及び音声生成を終了すると判定した場合は図8(b)の処理を終了し、画像又は音声生成を継続すると判定した場合はステップS1600及び/又はS1602に戻る。
図9は、図8(a)のステップS1103で行われるシステムの制御及び確認動作を説明する図である。画像と音声の制御及び確認動作は、独立且つ同時に実施される。先ず、画像に関する動作を説明する。ステップS1500では、仮想カメラ操作UI330は、バックエンドサーバ270が生成した仮想視点画像を表示する。次に、ステップS1501では、仮想カメラ操作UI330は、ステップS1500で表示された画像のユーザによる確認結果に関する入力を受け付ける。次に、ステップS1502では、制御ステーション310は、ユーザ入力に応じて、撮影を終了すると判定した場合はステップS1508に進み、撮影を継続すると判定した場合はステップS1500に戻る。
次に、音声に関する動作を説明する。ステップS1503では、仮想カメラ操作UI330は、マイク111の選択に関するユーザ操作を受け付ける。次に、ステップS1504では、仮想カメラ操作UI330は、ステップS1503で選択されたマイク111の音声を再生する。次に、ステップS1505では、仮想カメラ操作UI330は、ステップS1504で再生された音声のノイズ有無を確認する。次に、ステップS1506では、仮想カメラ操作UI330は、ステップS1505でノイズが確認された場合には、マイクゲインの調整を実施する。次に、ステップS1507では、制御ステーション310は、ユーザ入力に応じて、集音を終了すると判定した場合はステップS1508に進み、集音を継続すると判定した場合はステップS1503に戻る。
ステップS1508では、制御ステーション310は、ユーザ操作に基づいて、システムを終了すると判定した場合はステップS1509に進み、システムを継続すると判定した場合はステップS1500及び/又はS1503に戻る。ステップS1509では、制御ステーション310は、画像処理システム100で取得されたログを収集する。
図10は、設置時キャリブレーションを説明するためのシーケンス図である。カメラ112の設置が完了すると、ユーザは、制御ステーション310に対して、設置時キャリブレーションの実行を指示する。すると、ステップS4100では、制御ステーション310は、フロントエンドサーバ230及びカメラアダプタ120に対して、キャリブレーション開始を指示する。次に、ステップS4102aでは、フロントエンドサーバ230は、キャリブレーション開始指示を受けると、それ以降に受信した画像データをキャリブレーション用データと判定し、キャリブレーション部2140が処理できるように制御モードを変更する。ステップS4102bでは、カメラアダプタ120は、キャリブレーション開始指示を受けると、前景背景分離等の画像処理を行わず、非圧縮のフレーム画像を扱う制御モードに移行する。ステップS4101では、カメラアダプタ120は、カメラ112に対してカメラモード変更を指示する。ステップS4102cでは、これを受けたカメラ112は、例えば、フレームレートを1fpsに設定する。ステップS4103では、制御ステーション310は、カメラアダプタ120に対して、カメラのズーム値とフォーカス値の取得を指示する。ステップS4104では、カメラアダプタ120は、制御ステーション310に、カメラ112のズーム値とフォーカス値を送信する。ステップS4105では、制御ステーション310は、フロントエンドサーバ230に、ステップS4104で受信した全カメラ分のズーム値とフォーカス値を送信する。
次に、ステップS4106では、制御ステーション310は、フロントエンドサーバ230に、設置時キャリブレーション用撮影の撮影パターンを通知する。ステップS4107では、制御ステーション310は、カメラアダプタ120に対して同期静止画撮影を指示する。ステップS4108では、カメラアダプタ120は、全カメラで同期した静止画撮影をカメラ112に指示する。ステップS4109では、カメラ112は、撮影画像をカメラアダプタ120に送信する。ステップS4110では、制御ステーション310は、カメラアダプタ120に対して、ステップS4107で撮影指示した画像をフロントエンドサーバ230に伝送するように指示する。ステップS4111では、カメラアダプタ120は、伝送先として指定されたフロントエンドサーバ230にステップS4109で受信したキャリブレーション用画像を伝送する。キャリブレーション用画像は、前景背景分離等の画像処理が行われず、撮影された画像が圧縮せずにそのまま伝送される。撮影パターンが複数ある場合には、ステップS4106〜S4111の処理をパターン数分繰り返す。
次に、ステップS4112では、制御ステーション310は、フロントエンドサーバ230に対して、カメラパラメータ推定処理を指示する。ステップS4113では、フロントエンドサーバ230は、カメラパラメータ推定処理指示を受けると、S4105で受信した全カメラ分のズーム値とフォーカス値、及びS4111で受信した全カメラ分の撮影画像を用いて、カメラパラメータ推定処理を行う。ステップS4114では、フロントエンドサーバ230は、ステップS4113のカメラパラメータ推定処理の結果として導出された全カメラ分のカメラパラメータをデータベース250に送信して保存する。ステップS4115では、フロントエンドサーバ230は、制御ステーション310に対しても同様に全カメラ分のカメラパラメータを送信する。ステップS4116では、制御ステーション310は、カメラアダプタ120に対して、各カメラ112に対応するカメラパラメータを送信する。ステップS4117では、カメラアダプタ120は、受信した自カメラ112のカメラパラメータを保存する。
次に、ステップS4118では、制御ステーション310は、キャリブレーション結果を確認する。ステップS4119では、制御ステーション310は、フロントエンドサーバ230に対して、キャリブレーション終了を指示する。ステップS4120aでは、フロントエンドサーバ230は、ステップS4101で実行したキャリブレーション開始処理とは逆に、それ以降に受信した画像データをキャリブレーション用データでないと判定するよう制御モードを変更する。ステップS4120では、カメラアダプタ120は、カメラ112に、カメラモードの変更を指示する。ステップS4121cでは、カメラ112は、制御モードを変更する。ステップS4121bでは、カメラアダプタ120は、制御モードを変更する。
以上の処理により、設置時キャリブレーション処理として、全カメラ分のカメラパラメータを導出し、導出されたカメラパラメータをカメラアダプタ120及びデータベース250に保存することができる。
図11(a)は、フロントエンドサーバ230の動作を説明するためのフローチャートである。設置前に、ステップS2210では、フロントエンドサーバ230の制御部2110は、制御ステーション310からCADデータの入力モードに切り替える指示を受信し、CADデータ入力モードに切り替えを行う。ステップS2220では、データ入力制御部2120は、制御ステーション310からスタジアムCADデータ(スタジアム形状データ)を受信する。ステップS2230では、データ入力制御部2120は、受信したデータを非撮影データファイル生成部2185とCADデータ記憶部2135に送信する。CADデータ記憶部2135は、データ入力制御部2120から受信したスタジアム形状データを保存する。設置時に、ステップS2240では、制御部2110は、制御ステーション310からキャリブレーションモードに切り替える指示を受信し、キャリブレーションモードに切り替えを行う。ステップS2250では、データ入力制御部2120は、カメラアダプタ120からキャリブレーション撮影画像を受信し、キャリブレーション部2140にキャリブレーション撮影画像を送信する。ステップS2260では、キャリブレーション部2140は、キャリブレーションを行い、カメラパラメータを導出する。ステップS2270では、キャリブレーション部2140は、導出されたカメラパラメータを保存し、非撮影データファイル生成部2185及びDBアクセス制御部2190を介してデータベース250にカメラパラメータを送信する。
図11(b)は、設置前のデータベース250の動作を説明するためのフローチャートである。ステップS2510では、データ入力部2420は、フロントエンドサーバ230からスタジアムCADデータ(スタジアム形状データ)を受信し、書込み用キャッシュ2440上にデータを保存する。ステップS2520では、書込み用キャッシュ2440は、保存されたスタジアムCADデータを一次ストレージ2450に移動して格納する。ステップS2550では、制御部2410は、制御ステーション310からの指示、又は書込み用キャッシュ2440の容量に応じて、キャッシュするフレーム数Nを設定する。
図11(c)は、設置時のデータベース250の動作を説明するためのフローチャートである。ステップS2610では、データ入力部2420は、フロントエンドサーバ230からカメラパラメータを受信し、書込み用キャッシュ2440上にデータを保存する。ステップS2620では、書込み用キャッシュ2440は、保存されたカメラパラメータを一次ストレージ2450に移動して格納する。
図12は、フロントエンドサーバ230のキャリブレーション部2140におけるカメラパラメータ推定処理を説明するためのフローチャートである。キャリブレーション部2140は、内部パラメータマップ、スタジアムデータ、全カメラ分のズーム値とフォーカス値、及び全カメラ分のキャリブレーション用撮影画像を既に保持している。ステップS4201では、キャリブレーション部2140は、カメラ112を特定する。ステップS4202では、キャリブレーション部2140は、対応するズーム値とフォーカス値を特定し、特定したズーム値とフォーカス値より、内部パラメータマップを用いて内部パラメータ初期値を導出する。ステップS4203では、キャリブレーション部2140は、ステップS4202における内部パラメータ初期値の導出が全カメラ分完了するまで、ステップS4201とS4202の処理を繰り返す。
次に、ステップS4204では、キャリブレーション部2140は、再度カメラ112を特定し、対応するキャリブレーション用撮影画像を特定する。ステップS4205では、キャリブレーション部2140は、画像内の特徴点(画像特徴点)を検出する。画像特徴点は、例えば、キャリブレーション用に用意したマーカや、予めスタジアムの地面に描かれているピッチラインや、予め置かれている物(例えば、サッカーゴールや選手控えベンチなど)のエッジ部分などである。ステップS4206では、キャリブレーション部2140は、ステップS4205における画像特徴点検出が全カメラ分完了するまで、ステップS4205とS4205の処理を繰り返す。
次に、ステップS4207では、キャリブレーション部2140は、ステップS4205で検出した各カメラ112におけるキャリブレーション用撮影画像の画像特徴点のマッチングを行う。ステップS4208では、キャリブレーション部2140は、カメラ112間でマッチングされた使用特徴点数が閾値以下である場合はステップS4213に進み、閾値以下でない場合はステップS4209に進む。ステップS4209では、キャリブレーション部2140は、各カメラ112の外部パラメータ推定処理を行う。ステップS4210では、キャリブレーション部2140は、ステップS4209の外部パラメータ推定処理の結果、再投影誤差が閾値以下である場合はステップS4214に進み、閾値以下でない場合はステップS4211に進む。ステップS4211では、キャリブレーション部2140は、誤差が大きいと判断し、ステップS4205における画像特徴点の誤検出、及びステップS4207における画像特徴点の誤マッチングの削除処理を行い、ステップS4212に進む。ステップS4212では、キャリブレーション部2140は、ステップS4202で導出した内部パラメータ初期値に対して、内部パラメータの補正を行い、ステップS4208に戻る。
ステップS4213では、キャリブレーション部2140は、キャリブレーション失敗と判断し、キャリブレーション用撮影からやり直す。ステップS4214では、キャリブレーション部2140は、スタジアムデータを用いて、ステップS4209で推定された外部パラメータ座標について、カメラ座標系から世界座標系へ剛体変換を行う。以上の処理により、カメラパラメータ推定処理として、全カメラ分のカメラパラメータが導出され、導出されたカメラパラメータをカメラアダプタ120及びデータベース250に保存することができる。
図13は、注視点グループを説明するための図である。各カメラ112は、光軸が特定の注視点6302A又は6302Bを向くように設置される。同じ注視点グループ6301A又は6301Bに分類されるカメラ112は、同じ注視点6302A又は6302Bを向くように設置される。例えば、2つの注視点6302Aと注視点6302Bが設定され、9台のカメラ112a〜112iが設置される。4台のカメラ112a、112c、112e及び112gは、同じ注視点6302Aを向いており、注視点グループ6301Aに属する。また、残りの5台のカメラ112b、112d、112f、112h及び112iは、同じ注視点6302Bを向いており、注視点グループ6301Bに属する。ここでは、同じ注視点グループ6301A又は6301Bに属するカメラ112の中で最も近い(接続ホップ数が小さい)カメラ112の組を論理的に隣接していると表現する。例えば、カメラ112aとカメラ112bは、物理的には隣接しているが、異なる注視点グループ6301A及び6301Bに属するため論理的には隣接していない。カメラ112aと論理的に隣接しているのは、カメラ112cである。一方、カメラ112hとカメラ112iは、物理的に隣接しているだけでなく、論理的にも隣接している。
図14(a)は、図8(b)のステップS1600及び図9のステップS1500におけるフロントエンドサーバ230の動作を説明するためのフローチャートである。ステップS2300では、制御部2110は、制御ステーション310から撮影モードに切り替える指示を受信し、撮影モードに切り替える。ステップS2310では、データ入力制御部2120は、撮影が開始されると、カメラアダプタ120からの撮影データの受信を開始する。ステップS2320では、データ同期部2130は、ファイル作成に必要な撮影データが全て揃うまで、撮影データをバッファリングする。ステップS2330では、画像処理部2150は、RAW画像データの現像処理やレンズ歪み補正、前景画像及び背景画像の各カメラで撮影された画像間の色や輝度値を合わせるなどの各種変換処理を行う。
ステップS2335では、フロントエンドサーバ230は、バッファリングされたデータが背景画像を含む場合はステップS2340に進み、背景画像を含まない場合はステップS2350に進む。ステップS2340では、画像結合部2170は、CADデータ記憶部2135が保存されたスタジアム形状データの座標に合わせて、背景画像の結合処理を行い、結合した背景画像を撮影データファイル生成部2180に送信し、ステップS2350に進む。ステップS2350では、三次元モデル結合部2160は、カメラパラメータを使って、三次元モデルの結合処理を行い、前景画像の三次元モデルを生成する。ステップS2360では、撮影データファイル生成部2180は、撮影データをファイル形式に応じて成形してからパッキングし、撮影データファイルを作成する。ステップS2370では、DBアクセス制御部2190は、撮影データファイル生成部2180が作成した撮影データファイルを、データベース250に送信する。
図14(b)は、図8(b)のステップS1600及び図9のステップS1500におけるデータベース250の書き込み動作を説明するためのフローチャートである。ステップS2810では、データベース250のデータ入力部2420は、フロントエンドサーバ230から撮影データを入力する。データ入力部2420は、入力された撮影データにメタ情報として紐づいている時刻情報又はタイムコード情報を抽出し、入力された撮影データが時刻t1の撮影データであることを検出する。ステップS2820では、データ入力部2420は、入力された時刻t1の撮影データを書込み用キャッシュ2440に送信する。書込み用キャッシュ2440は、時刻t1の撮影データをキャッシュする。ステップS2825では、データ入力部2420は、時刻t1のNフレーム前の撮影データ、すなわち時刻t1−Nの撮影データがキャッシュされている場合はステップS2830に進み、キャッシュされていない場合は処理を終了する。ステップS2830では、書込み用キャッシュ2440は、時刻t1の撮影データをキャッシュすると、キャッシュ済みの時刻t1−Nの撮影データを一次ストレージ2450上に転送する。一次ストレージ2450は、書込み用キャッシュ2440から転送された時刻t1−Nの撮影データを記録する。これにより、高速アクセス可能なキャッシュの容量制限に応じて、所定時間よりも前のフレームが一次ストレージ2450に逐次保管されていく。
図15は、図8(b)のステップS1600及び図9のステップS1500におけるデータベース250の読み出し動作を説明するためのフローチャートである。ステップS2910では、データ出力部2430は、バックエンドサーバ270から、タイムコードが時刻tに対応するデータ取得の要求を受け付ける。ステップS2920では、データ出力部2430は、時刻tのデータについて、書込み用キャッシュ2440、読み出し用キャッシュ2470、一次ストレージ2450のどこに保持されているかを判断し、データ読み出し元を決定する。ここで、時刻t1がデータ入力部2420に撮影データが入力された時刻とする。データ出力部2430は、時刻tが時刻t1−Nより前の時刻であれば、読み出し用キャッシュ2470又は一次ストレージ2450にデータが保持されていると判断し、ステップS2930に進む。また、データ出力部2430は、時刻tが時刻t1−Nとt1の間の時刻であれば、ステップS2940に進み、時刻tが時刻t1より後の時刻であれば、ステップS2950に進む。
ステップS2930では、データ出力部2430は、時刻tのデータが読み出し用キャッシュ2470上に保持されている場合はステップS2932に進み、読み出し用キャッシュ2470上に保持されていない場合はステップS2931に進む。ステップS2931では、データ出力部2430は、時刻tのデータを一次ストレージ2450から読み出し、時刻tのデータを読み出し用キャッシュ2470へ格納し、ステップS2932に進む。ステップS2932では、データ出力部2430は、読み出し用キャッシュ2470から時刻tのデータを読み出し、時刻tのデータをバックエンドサーバ270に送信する。
ステップS2940では、データ出力部2430は、時刻tのデータを書込み用キャッシュ2440から読み出し、時刻tのデータをバックエンドサーバ270に送信する。ステップS2950では、データ出力部2430は、データ出力部2430は、バックエンドサーバ270に対してエラー通知を行う。
図16は、オペレータ(ユーザ)による操作が行われてから仮想視点画像が表示されるまでの仮想カメラ操作UI330、バックエンドサーバ270及びデータベース250の処理を示すシーケンス図である。ステップS3300では、仮想カメラ操作UI330は、仮想カメラを操作するためのユーザの操作を受け付ける。ステップS3301では、仮想カメラ操作UI330は、入力された仮想カメラの位置や姿勢等を表す仮想カメラパラメータを算出する。ステップS3302では、仮想カメラ操作UI330は、算出した仮想カメラパラメータをバックエンドサーバ270に送信する。
ステップS3303では、バックエンドサーバ270は、仮想カメラパラメータを受信すると、データベース250に対して前景三次元モデル群を要求する。ステップS3304では、データベース250は、要求に応じて、前景オブジェクトの位置情報を含む前景三次元モデル群をバックエンドサーバ270に送信する。ステップS3305では、バックエンドサーバ270は、仮想カメラパラメータと前景三次元モデルに含まれる前景オブジェクトの位置情報に基づいて、仮想カメラの視野に入る前景オブジェクト群を幾何学的に導出する。ステップS3306では、バックエンドサーバ270は、導出した前景オブジェクト群の前景画像、前景三次元モデル、背景画像及び音声データ群をデータベース250に要求する。ステップS3307では、データベース250は、要求に応じて、データをバックエンドサーバ270に送信する。ステップS3308では、バックエンドサーバ270は、受信した前景画像、前景三次元モデル及び背景画像から仮想視点の前景画像及び背景画像を生成し、それらを合成して仮想視点の全景画像を生成する。また、バックエンドサーバ270は、音声データ群に基づいて、仮想カメラの位置に応じた音声データの合成を行い、仮想視点の全景画像と統合して仮想視点の画像及び音声を生成する。ステップS3309では、バックエンドサーバ270は、生成した仮想視点の画像及び音声を仮想カメラ操作UI330に送信する。仮想カメラ操作UI330は、受信した画像を表示することで、仮想カメラの撮影画像の表示を実現する。
図17(a)は、仮想カメラ操作UI330を用いて生成された複数の仮想カメラ画像の中から所望の仮想カメラ画像をユーザが選択して鑑賞するための処理手順を説明するフローチャートである。ステップS8401では、エンドユーザ端末190は、仮想カメラパス8002のリストを画像コンピューティングサーバ200から取得し、仮想カメラパス8002のリストを表示する。ステップS8402では、エンドユーザ端末190は、ユーザによりリストの中から選択された仮想カメラパス8002に関する指定情報を取得する。ステップS8403では、エンドユーザ端末190は、ユーザにより選択された仮想カメラパス8002をバックエンドサーバ270に送信する。バックエンドサーバ270は、受信した仮想カメラパス8002から仮想視点画像及び仮想視点音声を生成し、エンドユーザ端末190へ送信する。ステップS8404では、エンドユーザ端末190は、バックエンドサーバ270から受信した仮想視点画像及び仮想視点音声を出力する。
図17(b)は、バックエンドサーバ270が1フレームの仮想視点画像を生成する処理を示すフローチャートである。ステップS3100では、データ受信部3001は、コントローラ300から、仮想視点の位置や姿勢などを表す仮想カメラパラメータを受信する。ステップS3101では、前景オブジェクト決定部3010は、受信した仮想カメラパラメータと前景オブジェクトの位置を基に、仮想視点画像の生成で必要となる前景オブジェクトを決定する。ステップS3102では、要求リスト生成部3011は、決定した前景オブジェクトの前景画像、前景三次元モデル群、背景画像及び音声データ群の要求リストを生成し、要求データ出力部3012を介してデータベース250に要求を行う。ステップS3103では、データ受信部3001は、要求した情報をデータベース250から受信する。
ステップS3104では、データ受信部3001は、データベース250から受信した情報にエラーを示す情報が含まれている場合は、仮想視点画像の生成が不可であると判断し、データを出力せず処理を終了する。また、データ受信部3001は、データベース250から受信した情報にエラーを示す情報が含まれていない場合は、仮想視点における背景画像の生成、前景画像の生成、及び視点に応じた音声の生成を行うため、ステップS3105〜S3107に進む。ステップS3105では、背景テクスチャ貼り付け部3002は、背景メッシュモデル管理部3013で保持されている背景メッシュモデルとデータベース250から取得した背景画像から、テクスチャ付き背景メッシュモデルを生成する。ステップS3106では、バックエンドサーバ270は、レンダリングモードに応じて前景画像を生成する。ステップS3107では、バックエンドサーバ270は、仮想視点での音の聞こえ方を模擬するように音声データ群を合成して音声を生成する。
ステップS3108では、レンダリング部3006は、ステップS3105で生成したテクスチャ付き背景メッシュモデルを仮想視点から見た視野にトリミングし、そこに前景画像を合成することで、仮想視点の全景画像を生成する。ステップS3109では、合成部3008は、ステップS3107で生成された仮想音声とレンダリングされた仮想視点の全景画像を合成し、1フレームの仮想視点コンテンツを生成する。ステップS3110では、画像出力部3009は、生成された1フレームの仮想視点コンテンツを外部のコントローラ300及びエンドユーザ端末190へ出力する。
図18(a)は、今後画像を生成する際に必要となるデータの先読み処理を示すフローチャートである。この処理は、ライブ及びリプレイの画像生成処理が実行されている際に、バックグラウンドで実行される。データベース250の一次ストレージ2450は、複数のカメラ112により撮影された画像を記憶する。ステップS3401では、バックエンドサーバ270の予測仮想視点算出部3015は、コントローラ300から入力される仮想カメラパラメータを所定時間蓄積し、所定時間後における仮想カメラの位置や姿勢を予測する。そして、予測仮想視点算出部3015は、予測した仮想カメラの位置や姿勢を表す仮想カメラパラメータを算出する。すなわち、予測仮想視点算出部3015は、現在仮想視点から所定時間後の予測仮想視点を予測し、予測仮想視点を表す仮想カメラパラメータを算出する。この際、予測仮想視点算出部3015は、現在仮想視点の移動方向、速度、加速度、現在仮想視点の方向の変化量のうちの1つ以上を用いて、予測仮想視点を予測する。
ステップS3402では、予測仮想視点前景オブジェクト決定部3016は、予測仮想カメラパラメータと前景オブジェクトの位置を基に、所定時間後の予測仮想視点の仮想視点画像の生成に必要となる前景オブジェクト(画像)を決定する。ステップS3403では、予測仮想視点要求リスト生成部3017は、決定した前景オブジェクトの前景画像、前景三次元モデル群、背景画像及び音声データ群の予測仮想視点要求リストを生成する。予測仮想視点要求データ出力部3018は、データベース250に上記の予測仮想視点要求リストを送信する。
ステップS3404では、データベース250の読み出し用キャッシュ制御部2480は、受信した予測仮想視点要求リスト内のデータと、読み出し用キャッシュ2470上のデータを比較し、読み出し用キャッシュ2470上に存在しないデータを特定する。ステップS3405では、読み出し用キャッシュ制御部2480は、特定したデータのうちの読み出し用キャッシュ2470上に存在しないデータを一次ストレージ2450から読み出し、読み出し用キャッシュ2470に書き込む。すなわち、読み出し用キャッシュ制御部2480は、所定時間後の予測仮想視点の仮想視点画像の生成に必要な画像のうちの読み出し用キャッシュ2470に記憶されていない画像を一次ストレージ2450から読み出して読み出し用キャッシュ2470に書き込む。
ステップS3406では、読み出し用キャッシュ制御部2480は、読み出し用キャッシュ2470上のデータのアクセス権の変更を行う。具体的には、読み出し用キャッシュ制御部2480は、読み出し用キャッシュ2470にステップS3405で書き込まれたデータを上書き禁止に設定し、読み出し用キャッシュ2470に対して一定時間アクセスされていないデータを上書き許可に設定する。以上の処理により、仮想視点の移動に応じて画像生成に必要なデータを効率的に読み出すことができ、仮想視点コンテンツ画像の生成全体にかかる速度を向上できる。
(第2の実施形態)
第1の実施形態では、一つのデータベース250に対して、一つのバックエンドサーバ270が接続された画像処理システム100の制御方法について説明した。第2の実施形態では、一つのデータベース250に対して複数のバックエンドサーバ270及び271(図4)が接続された画像処理システム100を説明する。データベース250は、複数のバックエンドサーバ270及び271から同時に異なる仮想視点の画像生成に必要なデータを要求された際の読み出し用キャッシュ2470を制御する。ここで、一つのデータベース250に対して複数のバックエンドサーバ270が接続されている画像処理システム100においては、撮影しているシーンによって、複数のバックエンドサーバ270が同一のデータを同時に要求することを考える。このような際に、データの先読み処理をバックエンドサーバ270毎に独立して行うと、読み出し用キャッシュ2470上に同じデータがキャッシュされることになり、キャッシュ容量を効率的に使用できない。そこで、第2の実施形態では、複数のバックエンドサーバ270から要求されるデータが重複しているような場合であっても、読み出し用キャッシュ2470を効率的に使用する読み出し用キャッシュ制御方法について説明する。
第1の実施形態では、一つのデータベース250に対して、一つのバックエンドサーバ270が接続された画像処理システム100の制御方法について説明した。第2の実施形態では、一つのデータベース250に対して複数のバックエンドサーバ270及び271(図4)が接続された画像処理システム100を説明する。データベース250は、複数のバックエンドサーバ270及び271から同時に異なる仮想視点の画像生成に必要なデータを要求された際の読み出し用キャッシュ2470を制御する。ここで、一つのデータベース250に対して複数のバックエンドサーバ270が接続されている画像処理システム100においては、撮影しているシーンによって、複数のバックエンドサーバ270が同一のデータを同時に要求することを考える。このような際に、データの先読み処理をバックエンドサーバ270毎に独立して行うと、読み出し用キャッシュ2470上に同じデータがキャッシュされることになり、キャッシュ容量を効率的に使用できない。そこで、第2の実施形態では、複数のバックエンドサーバ270から要求されるデータが重複しているような場合であっても、読み出し用キャッシュ2470を効率的に使用する読み出し用キャッシュ制御方法について説明する。
第2の実施形態におけるデータベース250の構成は、図4と同じである。ただし、データベース250には、バックエンドサーバ270以外にもう一台のバックエンドサーバ271が接続されている。バックエンドサーバ270とバックエンドサーバ271は、データベース250への接続時に予め優先度が設定される。例えば、バックエンドサーバ270の優先度は、バックエンドサーバ271の優先度より高い。
図18(b)は、データベース250がバックエンドサーバ270及び271から予測仮想視点要求リストを受信した際の処理を示すフローチャートである。ステップS3501では、バックエンドサーバ270及び271は、図18(a)のステップS3401〜S3403と同じ処理を行い、予測仮想視点要求リストをそれぞれ作成し、データベース250に送信する。バックエンドサーバ270の予測仮想視点算出部3015は、第1の現在仮想視点から所定時間後の第1の予測仮想視点を予測し、第1の予測仮想視点を表す仮想カメラパラメータを算出する。バックエンドサーバ271の予測仮想視点算出部3015は、第2の現在仮想視点から所定時間後の第2の予測仮想視点を予測し、第2の予測仮想視点を表す仮想カメラパラメータを算出する。
ステップS3502では、読み出し用キャッシュ制御部2480は、各バックエンドサーバ270及び271より受信した予測仮想視点要求リスト内のデータを比較し、優先度の低いバックエンドサーバ271より受信した予測仮想視点要求リストを再編する。具体的には、読み出し用キャッシュ制御部2480は、バックエンドサーバ271より受信した予測仮想視点要求リスト内のデータのうち、バックエンドサーバ270より受信した予測仮想視点要求リスト内のデータと重複しているものを削除する。
ステップS3503では、読み出し用キャッシュ制御部2480は、バックエンドサーバ270より受信した予測仮想視点要求リストと、S3502で再編した予測仮想視点要求リストに対して、読み出し用キャッシュ2470上に存在しないデータを特定する。このデータ特定は、バックエンドサーバ270及び271毎に行われる。ステップS3504では、読み出し用キャッシュ制御部2480は、バックエンドサーバ270及び271毎に、読み出し用キャッシュ2470上に存在しないデータのデータ量(以下、差分データ量)を算出する。ここで、バックエンドサーバ270の第1の予測仮想視点の仮想視点画像の生成に必要な画像とバックエンドサーバ271の第2の予測仮想視点の仮想視点画像の生成に必要な画像との間で重複する画像を重複画像と呼ぶ。読み出し用キャッシュ制御部2480は、バックエンドサーバ270の第1の予測仮想視点の仮想視点画像の生成に必要な画像のデータ量のうちの読み出し用キャッシュ2470に記憶されていない画像のデータ量を第1のデータ量Vaとして算出する。また、読み出し用キャッシュ制御部2480は、バックエンドサーバ271の第2の予測仮想視点の仮想視点画像の生成に必要な画像のデータ量から上記の重複画像のデータ量を削除したデータ量を第2のデータ量Vbとして算出する。
ステップS3505では、読み出し用キャッシュ制御部2480は、算出した各差分データ量に基づいて読み出し用キャッシュ2470内において、各バックエンドサーバ270及び271がアクセス可能な領域のサイズを算出する。以下、バックエンドサーバ270を例に、各バックエンドサーバがアクセス可能なキャッシュ内の領域サイズの算出方法について具体的に説明する。読み出し用キャッシュ2470の容量をCt、バックエンドサーバ270の第1のデータ量をVa、バックエンドサーバ271の第2のデータ量をVbとすると、バックエンドサーバ270がアクセス可能な第1のキャッシュ領域のサイズCaは以下の式で求められる。また、バックエンドサーバ271がアクセス可能な第2のキャッシュ領域のサイズCbは以下の式で求められる。
Ca=Ct×Va/(Va+Vb)
Cb=Ct×Vb/(Va+Vb)
Ca=Ct×Va/(Va+Vb)
Cb=Ct×Vb/(Va+Vb)
ステップS3506では、読み出し用キャッシュ制御部2480は、読み出し用キャッシュ2470にステップS3505で算出したサイズ分の領域を確保する。このとき、確保する領域が今まで確保していた領域より大きくなる場合には、読み出し用キャッシュ制御部2480は、上書き許可設定されているデータの領域を確保するものとする。読み出し用キャッシュ制御部2480は、ステップS3504の第1のデータ量Vaを基に読み出し用キャッシュ2470内に第1のキャッシュ領域を確保する。また、読み出し用キャッシュ制御部2480は、ステップS3504の第2のデータ量Vbを基に読み出し用キャッシュ2470内に第2のキャッシュ領域を確保する。
次に、ステップS3507では、読み出し用キャッシュ制御部2480は、図18(a)のステップS3405及びS3406と同様の処理を行う。ここで、バックエンドサーバ270の第1の予測仮想視点の仮想視点画像の生成に必要な画像のうちの読み出し用キャッシュ2470に記憶されていない画像を第1の画像データとする。また、バックエンドサーバ271の第2の予測仮想視点の仮想視点画像の生成に必要な画像のうちの読み出し用キャッシュ2470に記憶されていない画像を第2の画像データとする。読み出し用キャッシュ制御部2480は、上記の第1の画像データを一次ストレージ2450から読み出して読み出し用キャッシュ2470内の第1のキャッシュ領域に書き込む。また、読み出し用キャッシュ制御部2480は、上記の第2の画像データを一次ストレージ2450から読み出して読み出し用キャッシュ2470内の第2のキャッシュ領域に書き込む。この際、読み出し用キャッシュ制御部2480は、上記の重複画像を一次ストレージ2450から読み出して読み出し用キャッシュ2470内の第1のキャッシュ領域に書き込む。また、読み出し用キャッシュ制御部2480は、上記の重複画像を読み出し用キャッシュ2470内の第2のキャッシュ領域に書き込まない。
読み出し用キャッシュ制御部2480は、読み出し用キャッシュ2470に書き込まれたデータを上書き禁止に設定し、読み出し用キャッシュ2470に対して一定時間アクセスされていないデータを上書き許可に設定する。
以上のように、画像処理システム100では、一つのデータベース250に対して複数のバックエンドサーバ270及び271が接続されている。画像処理システム100は、仮想視点の移動に応じて画像生成に必要なデータを先読みすることができ、仮想視点コンテンツ画像の生成全体にかかる速度を向上できる。また、画像処理システム100は、複数のバックエンドサーバ270及び271から要求されるデータが重複しているような場合でも、読み出し用キャッシュ2470を効率的に使用できる。
第1及び第2の実施形態によれば、画像処理システム100は、複数のカメラ112が撮影した画像を集約するデータベース250を有する。画像処理システム100は、所定時間後の仮想視点の動きを予測し、その予測に基づいて仮想視点画像の生成に必要なデータを一次ストレージ2450から読み出し用キャッシュ2470に先読みすることで、データ読み出し速度の向上を図ることができる。また、画像処理システム100は、仮想視点画像の生成に必要となるデータを仮想視点毎に一次ストレージ2450から読み出し用キャッシュ2470に先読みしておくため、仮想視点画像の生成に要する時間を短縮できる。
なお、上述の実施形態において、第1の予測仮想視点を、生成した仮想視点画像に写るオブジェクトに基づいて予測してもよい。例えば、画像処理システム100は、生成済の仮想視点画像に写るオブジェクト(例えば、選手)の位置や動きから所定時間後の当該オブジェクトの位置や向きを予測する。そして、画像処理システム100は、予測したオブジェクトの位置や向きに基づいて、当該オブジェクトを写すことができる位置を第1の予測仮想視点としてもよい。
また、上述の実施形態において、画像処理システム100は、予測した仮想視点画像の生成に必要なデータをキャッシュ2470に記憶する構成を示したが、これに限らない。例えば、画像処理システム100は、予測した仮想視点画像の生成に必要なデータを、当該データを必要とする装置に転送したり、他の記憶装置に記憶したりしてもよい。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
以上、上述した実施形態によれば、カメラ112の台数などの画像処理システム100を構成する装置の規模、及び撮影画像の出力解像度や出力フレームレートなどに依らず、仮想視点画像を簡便に生成することが出来る。以上、本発明の実施形態について詳述したが、本発明は上述の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形及び変更が可能である。
112 カメラ、2450 一次ストレージ、2470 読み出し用キャッシュ、2480 読み出し用キャッシュ制御部、3015 予測仮想視点算出部
Claims (10)
- 複数のカメラが被写体を複数の方向から撮影した画像から仮想視点画像を生成する画像処理システムであって、
生成される仮想視点画像に係る第1の仮想視点に基づいて、第1の予測仮想視点を予測する第1の予測手段と、
前記第1の予測仮想視点の仮想視点画像の生成に必要な画像を、前記複数のカメラにより撮影された画像を記憶するストレージから読み出す制御手段と
を有することを特徴とする画像処理システム。 - 前記制御手段は、前記第1の予測仮想視点の仮想視点画像の生成に必要な画像を、前記ストレージから読み出してキャッシュに書き込むことを特徴とする請求項1に記載の画像処理システム。
- 第2の仮想視点から所定時間後の第2の予測仮想視点を予測する第2の予測手段をさらに有し、
前記制御手段は、前記第1の予測仮想視点の仮想視点画像の生成に必要な画像を前記ストレージから読み出して前記キャッシュ内の前記第1の予測手段のための第1のキャッシュ領域に書き込み、前記第2の予測仮想視点の仮想視点画像の生成に必要な画像を前記ストレージから読み出して前記キャッシュ内の前記第2の予測手段のための第2のキャッシュ領域に書き込むことを特徴とする請求項2に記載の画像処理システム。 - 前記第1の予測手段の優先度は、前記第2の予測手段の優先度より高く、
前記制御手段は、前記第1の予測仮想視点の仮想視点画像の生成に必要な画像と前記第2の予測仮想視点の仮想視点画像の生成に必要な画像との間で重複する画像を前記ストレージから読み出して前記キャッシュ内の前記第1のキャッシュ領域に書き込み、前記重複する画像を前記キャッシュ内の前記第2のキャッシュ領域に書き込まないことを特徴とする請求項3に記載の画像処理システム。 - 前記制御手段は、前記第1の予測仮想視点の仮想視点画像の生成に必要な画像のデータ量を基に前記キャッシュ内に前記第1のキャッシュ領域を確保し、前記第2の予測仮想視点の仮想視点画像の生成に必要な画像のデータ量から前記重複する画像のデータ量を削除したデータ量を基に前記キャッシュ内に前記第2のキャッシュ領域を確保することを特徴とする請求項4に記載の画像処理システム。
- 前記制御手段は、前記第1の予測仮想視点の仮想視点画像の生成に必要な画像のうちの前記キャッシュに記憶されていない画像を前記ストレージから読み出して前記キャッシュに書き込むことを特徴とする請求項2〜5のいずれか1項に記載の画像処理システム。
- 前記制御手段は、前記キャッシュに書き込まれた画像を上書き禁止に設定し、前記キャッシュに対して一定時間アクセスされていない画像を上書き許可に設定することを特徴とする請求項2〜6のいずれか1項に記載の画像処理システム。
- 前記第1の予測手段は、前記第1の仮想視点の移動方向、速度、加速度、前記第1の仮想視点の方向の変化量のうちの1つ以上を用いて、前記第1の予測仮想視点を予測することを特徴とする請求項1〜7のいずれか1項に記載の画像処理システム。
- 複数のカメラが被写体を複数の方向から撮影した画像から仮想視点画像を生成する画像処理システムの制御方法であって、
生成される仮想視点画像に係る第1の仮想視点に基づいて、第1の予測仮想視点を予測する第1の予測ステップと、
前記第1の予測仮想視点の仮想視点画像の生成に必要な画像を、前記複数のカメラにより撮影された画像を記憶するストレージから読み出す読み出しステップと
を有することを特徴とする画像処理システムの制御方法。 - コンピュータを、請求項1〜8のいずれか1項に記載された画像処理システムの各手段として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017208224A JP2019079468A (ja) | 2017-10-27 | 2017-10-27 | 画像処理システム、画像処理システムの制御方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017208224A JP2019079468A (ja) | 2017-10-27 | 2017-10-27 | 画像処理システム、画像処理システムの制御方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019079468A true JP2019079468A (ja) | 2019-05-23 |
Family
ID=66628867
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017208224A Pending JP2019079468A (ja) | 2017-10-27 | 2017-10-27 | 画像処理システム、画像処理システムの制御方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019079468A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021200140A1 (ja) * | 2020-03-31 | 2021-10-07 | ソニーグループ株式会社 | 信号処理装置、信号処理方法、および信号処理システム |
JP2022543158A (ja) * | 2019-08-07 | 2022-10-07 | アークソフト コーポレーション リミテド | キャリブレーションパラメータの取得方法、装置、プロセッサ及び電子機器 |
WO2023145571A1 (ja) * | 2022-01-31 | 2023-08-03 | キヤノン株式会社 | 情報処理装置、情報処理方法、データ構造及びプログラム |
EP4277282A2 (en) | 2022-05-12 | 2023-11-15 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, system, and program |
-
2017
- 2017-10-27 JP JP2017208224A patent/JP2019079468A/ja active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022543158A (ja) * | 2019-08-07 | 2022-10-07 | アークソフト コーポレーション リミテド | キャリブレーションパラメータの取得方法、装置、プロセッサ及び電子機器 |
JP7387872B2 (ja) | 2019-08-07 | 2023-11-28 | アークソフト コーポレーション リミテド | キャリブレーションパラメータの取得方法、装置、プロセッサ及び電子機器 |
WO2021200140A1 (ja) * | 2020-03-31 | 2021-10-07 | ソニーグループ株式会社 | 信号処理装置、信号処理方法、および信号処理システム |
WO2023145571A1 (ja) * | 2022-01-31 | 2023-08-03 | キヤノン株式会社 | 情報処理装置、情報処理方法、データ構造及びプログラム |
EP4277282A2 (en) | 2022-05-12 | 2023-11-15 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, system, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11750792B2 (en) | Information processing apparatus, image generation method, control method, and storage medium | |
US11689706B2 (en) | Method for generating virtual viewpoint image and image processing apparatus | |
JP6878014B2 (ja) | 画像処理装置及びその方法、プログラム、画像処理システム | |
CN109565580B (zh) | 信息处理设备、图像生成方法、控制方法和程序 | |
JP6482498B2 (ja) | 制御装置、制御方法、及び、プログラム | |
CN109565582B (zh) | 控制装置及其控制方法和计算机可读存储介质 | |
JP2019079468A (ja) | 画像処理システム、画像処理システムの制御方法及びプログラム | |
JP6894687B2 (ja) | 画像処理システム、画像処理装置、制御方法、及び、プログラム | |
EP2724343B1 (en) | Video remixing system | |
KR101530826B1 (ko) | 360도 공간영상 재생방법 및 그 시스템 | |
JP2014127987A (ja) | 情報処理装置および記録媒体 | |
JP2019047431A (ja) | 画像処理装置及びその制御方法、画像処理システム | |
JP2019103067A (ja) | 情報処理装置、記憶装置、画像処理装置、画像処理システム、制御方法、及びプログラム | |
KR20160021706A (ko) | 360도 공간영상 재생방법 및 그 시스템 | |
JP6790145B2 (ja) | 制御装置、制御方法、及び、プログラム | |
JP2018082298A (ja) | 画像表示システム、通信システム、画像表示方法、及びプログラム | |
CN101018309A (zh) | 图像控制装置 | |
JP2010166218A (ja) | カメラシステム及びその制御方法 | |
JP7297969B2 (ja) | 情報処理装置、プログラム、生成方法、及び、システム | |
JP6827996B2 (ja) | 画像処理装置、制御方法、及び、プログラム | |
JP2023075859A (ja) | 情報処理装置、情報処理方法、及び、プログラム | |
JP6632703B2 (ja) | 制御装置、制御方法、及び、プログラム | |
JP7249637B2 (ja) | 映像配信装置、映像配信システム、映像配信方法及び映像配信プログラム | |
CN115836517A (zh) | 信息处理装置、信息处理程序及记录介质 | |
JP7204789B2 (ja) | 制御装置、制御方法、及び、プログラム |