JP2020039063A - 情報処理装置、情報処理方法及びプログラム - Google Patents
情報処理装置、情報処理方法及びプログラム Download PDFInfo
- Publication number
- JP2020039063A JP2020039063A JP2018165729A JP2018165729A JP2020039063A JP 2020039063 A JP2020039063 A JP 2020039063A JP 2018165729 A JP2018165729 A JP 2018165729A JP 2018165729 A JP2018165729 A JP 2018165729A JP 2020039063 A JP2020039063 A JP 2020039063A
- Authority
- JP
- Japan
- Prior art keywords
- image
- area
- camera
- data
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Processing Or Creating Images (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
【課題】より適切な仮想視点画像の生成を支援することを目的とする。【解決手段】仮想視点画像に対応する仮想カメラの位置、方向及び画角のうち少なくとも1つの変化を示す変化情報を取得する取得手段と、前記取得手段により取得された前記変化情報に基づいて、撮影部による撮影により取得される撮影画像において、送信対象の部分領域の位置を決定する位置決定手段と、を有する。【選択図】図4
Description
本発明は、情報処理装置、情報処理方法及びプログラムに関する。
複数の撮影部を異なる位置に設置して多視点で同期撮影し、撮影により得られた複数視点画像を用いて仮想視点画像を生成する技術がある。仮想視点画像を生成する技術によれば、例えば、サッカーやバスケットボールのハイライトシーンを様々な角度から視聴することができるため、通常の画像よりもユーザに高臨場感を与えることができる。
仮想視点画像の生成及び閲覧は、以下のようにして実現できる。即ち、複数の撮影部により撮影された画像をサーバ等の画像処理部に集約し、その画像処理部にて、三次元モデル生成、レンダリング等の処理を施し、ユーザ端末に送信を行うことで実現できる。
このように、複数の撮影部それぞれからサーバ等に撮影画像が送信されるため、撮影画像の送信により通信量が増大し、通信帯域が逼迫してしまう場合がある。これに対して、特許文献1には、複数の撮影部により撮影された画像より任意視点画像を再構成する際に、撮影画像領域の内、再構成に用いられる領域のみを送信する方法が開示されている。
仮想視点画像の生成及び閲覧は、以下のようにして実現できる。即ち、複数の撮影部により撮影された画像をサーバ等の画像処理部に集約し、その画像処理部にて、三次元モデル生成、レンダリング等の処理を施し、ユーザ端末に送信を行うことで実現できる。
このように、複数の撮影部それぞれからサーバ等に撮影画像が送信されるため、撮影画像の送信により通信量が増大し、通信帯域が逼迫してしまう場合がある。これに対して、特許文献1には、複数の撮影部により撮影された画像より任意視点画像を再構成する際に、撮影画像領域の内、再構成に用いられる領域のみを送信する方法が開示されている。
再構成を行っている間に、仮想視点の位置及び方向等が変化することがある。位置、方向等の変化に応じて、仮想視点画像の生成に必要な、撮影画像中の領域も変化する。しかしながら、従来技術においては、このように位置、方向等が変化した場合に、変化後の位置、方向等に対応した、仮想視点画像の生成に必要なデータを適切なタイミングで送信することができないという問題があった。
本発明の情報処理装置は、仮想視点画像に対応する仮想カメラの位置、方向及び画角のうち少なくとも1つの変化を示す変化情報を取得する取得手段と、前記取得手段により取得された前記変化情報に基づいて、撮影部による撮影により取得される撮影画像において、送信対象の部分領域の位置を決定する位置決定手段と、を有する。
本発明によれば、より適切な仮想視点画像の生成を支援できる。
以下に、本発明の実施の形態の一例を、図面に基づいて詳細に説明する。
<実施形態1>
図1は、本発実施形態の画像処理システム100のシステム構成の一例を示す図である。画像処理システム100は、カメラ120A〜120D、カメラアダプタ130A〜130D、サーバ装置110を含む。
サーバ装置110は、カメラ120A〜120Dにより撮影された複数の画像から仮想視点画像を生成する情報処理装置である。サーバ装置110は、例えば、パーソナルコンピュータ、サーバ装置、タブレット装置等である。
カメラ120A〜120Dそれぞれは、撮影中心140と撮影対象領域150とを取り囲むように配置されている撮影部である。以下では、カメラ120A〜120Dを、適宜、カメラ120と総称する。カメラアダプタ130A〜130Dは、それぞれカメラ120A〜120Dを制御する情報処理装置である。以下では、カメラアダプタ130A〜130Dを、適宜、カメラアダプタ130と総称する。
図1は、本発実施形態の画像処理システム100のシステム構成の一例を示す図である。画像処理システム100は、カメラ120A〜120D、カメラアダプタ130A〜130D、サーバ装置110を含む。
サーバ装置110は、カメラ120A〜120Dにより撮影された複数の画像から仮想視点画像を生成する情報処理装置である。サーバ装置110は、例えば、パーソナルコンピュータ、サーバ装置、タブレット装置等である。
カメラ120A〜120Dそれぞれは、撮影中心140と撮影対象領域150とを取り囲むように配置されている撮影部である。以下では、カメラ120A〜120Dを、適宜、カメラ120と総称する。カメラアダプタ130A〜130Dは、それぞれカメラ120A〜120Dを制御する情報処理装置である。以下では、カメラアダプタ130A〜130Dを、適宜、カメラアダプタ130と総称する。
カメラ120は、対応するカメラアダプタ130と画像伝送ケーブルで接続されている。画像伝送ケーブルは、例えば、SDI(Serial Digital Interface)ケーブルである。
カメラアダプタ130Aとカメラアダプタ130Bとは、データ伝送ケーブルで接続されている。また、カメラアダプタ130Bとカメラアダプタ130Cとは、データ伝送ケーブルで接続されている。また、カメラアダプタ130Cとカメラアダプタ130Dとは、データ伝送ケーブルで接続されている。また、カメラアダプタ130Aとサーバ装置110とは、データ伝送ケーブルで接続されている。データ伝送ケーブルは、例えばEthernetケーブルである。
カメラアダプタ130Aとカメラアダプタ130Bとは、データ伝送ケーブルで接続されている。また、カメラアダプタ130Bとカメラアダプタ130Cとは、データ伝送ケーブルで接続されている。また、カメラアダプタ130Cとカメラアダプタ130Dとは、データ伝送ケーブルで接続されている。また、カメラアダプタ130Aとサーバ装置110とは、データ伝送ケーブルで接続されている。データ伝送ケーブルは、例えばEthernetケーブルである。
画像処理システム100は、撮影対象領域150の周囲に配置されたカメラ120A〜120Dにより、撮影対象を異なる方向から撮影し、撮影した画像群をサーバ装置110に送信する。そして、サーバ装置110は、仮想視点画像の生成処理を行うことで、任意の視点(仮想視点)から見た仮想視点画像を生成して、生成した仮想視点画像をユーザに提供する。仮想視点に関する情報とは、画像がどの位置からどの方向を見た画像であるのかを示す情報であり、仮想カメラの位置姿勢に対応する情報である。
本実施形態では、画像処理システム100は、カメラアダプタ130からサーバ装置110へ仮想視点画像の生成に用いられないデータを優先的に送信し、仮想視点画像の生成に用いられるデータを送信しないようにする。これにより、画像処理システム100は、通信帯域を節約することができる。結果として、画像処理システム100は、通信帯域が逼迫することで、仮想視点画像の生成が滞ることを防止することができる。
本実施形態では、画像処理システム100は、カメラアダプタ130からサーバ装置110へ仮想視点画像の生成に用いられないデータを優先的に送信し、仮想視点画像の生成に用いられるデータを送信しないようにする。これにより、画像処理システム100は、通信帯域を節約することができる。結果として、画像処理システム100は、通信帯域が逼迫することで、仮想視点画像の生成が滞ることを防止することができる。
図2(a)は、カメラアダプタ130Aのハードウェア構成の一例を示す図である。カメラアダプタ130Aは、CPU131、主記憶装置132、補助記憶装置133、デバイスI/F134、ネットワークI/F135を含む。各要素は、システムバス136を介して相互に通信可能に接続されている。
CPU131は、カメラアダプタ130Aを制御する中央演算装置である。主記憶装置132は、CPU131のワークエリアやデータの一時的な記憶領域として機能するRandom Access Memory(RAM)等の記憶装置である。補助記憶装置133は、各種プログラム、各種設定情報、カメラ120により撮影された画像データ等を記憶する記憶装置である。補助記憶装置133は、例えば、Read Only Memory(ROM)、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)等である。デバイスI/F134は、カメラ120等の外部のデバイスとの接続に用いられるインターフェースである。ネットワークI/F135は、サーバ装置110、他のカメラアダプタ130等の外部の装置との間でのネットワークを介した通信に用いられるインターフェースである。
CPU131は、カメラアダプタ130Aを制御する中央演算装置である。主記憶装置132は、CPU131のワークエリアやデータの一時的な記憶領域として機能するRandom Access Memory(RAM)等の記憶装置である。補助記憶装置133は、各種プログラム、各種設定情報、カメラ120により撮影された画像データ等を記憶する記憶装置である。補助記憶装置133は、例えば、Read Only Memory(ROM)、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)等である。デバイスI/F134は、カメラ120等の外部のデバイスとの接続に用いられるインターフェースである。ネットワークI/F135は、サーバ装置110、他のカメラアダプタ130等の外部の装置との間でのネットワークを介した通信に用いられるインターフェースである。
CPU131が、補助記憶装置133に記憶されたプログラムにしたがって処理を実行することで、図3で後述するカメラアダプタ130Aの機能、図4、8、11で後述するフローチャートの処理等が実現される。
本実施形態では、カメラアダプタ130B〜Dそれぞれのハードウェア構成は、図2(a)を用いて説明したカメラアダプタ130Aのハードウェア構成と同様であるとする。
カメラアダプタ130B〜DそれぞれのCPU131が、カメラアダプタ130B〜Dそれぞれの補助記憶装置133に記憶されたプログラムにしたがって処理を実行することで、以下が実現される。即ち、カメラアダプタ130B〜Dそれぞれの図3で後述するカメラアダプタ130Aと同様の機能、図4、8、11で後述するフローチャートと同様の処理等が実現される。
本実施形態では、カメラアダプタ130B〜Dそれぞれのハードウェア構成は、図2(a)を用いて説明したカメラアダプタ130Aのハードウェア構成と同様であるとする。
カメラアダプタ130B〜DそれぞれのCPU131が、カメラアダプタ130B〜Dそれぞれの補助記憶装置133に記憶されたプログラムにしたがって処理を実行することで、以下が実現される。即ち、カメラアダプタ130B〜Dそれぞれの図3で後述するカメラアダプタ130Aと同様の機能、図4、8、11で後述するフローチャートと同様の処理等が実現される。
図2(b)は、サーバ装置110のハードウェア構成の一例を示す図である。サーバ装置110は、CPU111、主記憶装置112、補助記憶装置113、ネットワークI/F114を含む。各要素は、システムバス115を介して相互に通信可能に接続されている。
CPU111は、サーバ装置110を制御する中央演算装置である。主記憶装置112は、CPU111のワークエリアやデータの一時的な記憶領域として機能するRAM等の記憶装置である。補助記憶装置133は、各種プログラム、各種設定情報、カメラ120により撮影された画像データ等を記憶するROM、HDD、SSD等の記憶装置である。ネットワークI/F114は、カメラアダプタ130A等の外部の装置との間でのネットワークを介した通信に用いられるインターフェースである。
CPU111が、補助記憶装置113に記憶されたプログラムにしたがって処理を実行することで、サーバ装置110の機能、サーバ装置110の処理等が実現される。
CPU111は、サーバ装置110を制御する中央演算装置である。主記憶装置112は、CPU111のワークエリアやデータの一時的な記憶領域として機能するRAM等の記憶装置である。補助記憶装置133は、各種プログラム、各種設定情報、カメラ120により撮影された画像データ等を記憶するROM、HDD、SSD等の記憶装置である。ネットワークI/F114は、カメラアダプタ130A等の外部の装置との間でのネットワークを介した通信に用いられるインターフェースである。
CPU111が、補助記憶装置113に記憶されたプログラムにしたがって処理を実行することで、サーバ装置110の機能、サーバ装置110の処理等が実現される。
図3は、カメラアダプタ130Aの機能構成等の一例を示す図である。カメラアダプタ130Aは、取得部201、領域決定部202、データ決定部203、送信部204を含む。
取得部201は、対応するカメラ120から入力された撮影画像のデータを、画像データ205として取得する。取得部201は、例えば、SDIケーブルを介して、対応するカメラ120から撮影画像のデータを取得する。取得部201は、取得した画像データ205をカメラアダプタ130内部での処理が可能な形式に変換して他の機能構成要素に出力する。
領域決定部202は、サーバ装置110から、仮想視点画像に対応する視点となる仮想視点の情報を仮想視点情報207として取得する。領域決定部202は、取得した仮想視点情報207に基づいて、対応するカメラ120の撮影画像中における仮想視点画像の生成に用いられる領域の位置を決定する。以下では、カメラ120の撮影画像中における仮想視点画像の生成に用いられる部分領域を、利用領域とする。即ち、領域決定部202は、カメラ120の撮影画像中における利用領域の位置を決定する。領域決定部202によるカメラ120の撮影画像中における利用領域の位置を決定する処理は、位置決定処理の一例である。
取得部201は、対応するカメラ120から入力された撮影画像のデータを、画像データ205として取得する。取得部201は、例えば、SDIケーブルを介して、対応するカメラ120から撮影画像のデータを取得する。取得部201は、取得した画像データ205をカメラアダプタ130内部での処理が可能な形式に変換して他の機能構成要素に出力する。
領域決定部202は、サーバ装置110から、仮想視点画像に対応する視点となる仮想視点の情報を仮想視点情報207として取得する。領域決定部202は、取得した仮想視点情報207に基づいて、対応するカメラ120の撮影画像中における仮想視点画像の生成に用いられる領域の位置を決定する。以下では、カメラ120の撮影画像中における仮想視点画像の生成に用いられる部分領域を、利用領域とする。即ち、領域決定部202は、カメラ120の撮影画像中における利用領域の位置を決定する。領域決定部202によるカメラ120の撮影画像中における利用領域の位置を決定する処理は、位置決定処理の一例である。
データ決定部203は、取得部201により取得された画像データ205と領域決定部202により決定された利用領域の位置とに基づいて、仮想視点画像の生成に用いられるデータを決定する。以下では、データ決定部203により決定される仮想視点画像の生成に用いられるデータを、生成用データとする。
送信部204は、データ決定部203により決定されたデータを、カメラアダプタ130、サーバ装置110等の外部の送信先への送信が可能なデータ形式に変換して、変換したデータを送信データ210として送信先に送信する。例えば、データがEthernet上のTCP/IPプロトコルで送信される場合、送信部204は、TCP/IPのプロトコルスタック処理やMAC層、PHY層のデータ送信処理を行う。
送信部204は、データ決定部203により決定されたデータを、カメラアダプタ130、サーバ装置110等の外部の送信先への送信が可能なデータ形式に変換して、変換したデータを送信データ210として送信先に送信する。例えば、データがEthernet上のTCP/IPプロトコルで送信される場合、送信部204は、TCP/IPのプロトコルスタック処理やMAC層、PHY層のデータ送信処理を行う。
本実施形態では、カメラアダプタ130B〜Dそれぞれの機能構成は、図3を用いて説明したカメラアダプタ130Aの機能構成と同様である。
本実施形態では、カメラアダプタ130Dの送信部204は、カメラアダプタ130Dの送信データ210を、カメラアダプタ130A〜130Cを経由して、サーバ装置110に送信する。また、カメラアダプタ130Cの送信部204は、カメラアダプタ130Cの送信データ210を、カメラアダプタ130A〜130Bを経由して、サーバ装置110に送信する。また、カメラアダプタ130Bの送信部204は、カメラアダプタ130Bの送信データ210を、カメラアダプタ130Aを経由して、サーバ装置110に送信する。
本実施形態では、カメラアダプタ130Dの送信部204は、カメラアダプタ130Dの送信データ210を、カメラアダプタ130A〜130Cを経由して、サーバ装置110に送信する。また、カメラアダプタ130Cの送信部204は、カメラアダプタ130Cの送信データ210を、カメラアダプタ130A〜130Bを経由して、サーバ装置110に送信する。また、カメラアダプタ130Bの送信部204は、カメラアダプタ130Bの送信データ210を、カメラアダプタ130Aを経由して、サーバ装置110に送信する。
次に、本実施形態におけるカメラアダプタ130の処理について説明する。
図4は、本実施形態におけるカメラアダプタ130Aの処理の一例を示すフローチャートである。図4の処理は、1フレーム分の画像データの送信処理である。即ち、カメラアダプタ130Aは、対応するカメラ120であるカメラ120Aから撮影画像のデータが入力される度に、図4の処理を実行する。カメラ120から撮影画像のデータが60フレーム毎秒で入力される場合、カメラアダプタ130Aは、1秒間に60回、図4の処理を実行することとなる。
S301において、取得部201は、対応するカメラ120から画像データ205を取得する。
S302において、領域決定部202は、サーバ装置110から、図5で後述する仮想カメラ401の撮影条件の情報と、仮想カメラ401の撮影条件の変化を示す変化情報と、を含む仮想視点情報207を取得する。以下では、仮想カメラ401の撮影条件とは、仮想カメラ401による撮影に関する条件であり、本実施形態では、仮想カメラの位置と姿勢と画角とのことである。
図4は、本実施形態におけるカメラアダプタ130Aの処理の一例を示すフローチャートである。図4の処理は、1フレーム分の画像データの送信処理である。即ち、カメラアダプタ130Aは、対応するカメラ120であるカメラ120Aから撮影画像のデータが入力される度に、図4の処理を実行する。カメラ120から撮影画像のデータが60フレーム毎秒で入力される場合、カメラアダプタ130Aは、1秒間に60回、図4の処理を実行することとなる。
S301において、取得部201は、対応するカメラ120から画像データ205を取得する。
S302において、領域決定部202は、サーバ装置110から、図5で後述する仮想カメラ401の撮影条件の情報と、仮想カメラ401の撮影条件の変化を示す変化情報と、を含む仮想視点情報207を取得する。以下では、仮想カメラ401の撮影条件とは、仮想カメラ401による撮影に関する条件であり、本実施形態では、仮想カメラの位置と姿勢と画角とのことである。
本実施形態における撮影状況について図5を用いて説明する。図5の左側の図は、撮影対象領域150の周囲に配置されたカメラ120A〜120Dと、仮想カメラ401と、による撮影の状況の一例が示されている。仮想カメラとは、仮想視点が示す位置に、仮想視点が示す姿勢で配置されたと仮定される仮想的な撮影部である。そのため、仮想視点画像に対応する仮想視点は、仮想カメラ401の位置姿勢であるとみなすことができる。画像処理システム100は、仮想カメラ401を、撮影対象領域150を任意の位置から撮影可能なように配置できる。画像処理システム100が生成する仮想視点画像は、仮想カメラ401から見える画像として生成された画像となる。そのため、仮想視点画像は、仮想カメラ401により撮影された画像ともみなすことができる。
仮想撮影領域402は、仮想カメラ401の撮影範囲を示す領域である。仮想カメラ401の撮影領域は、仮想視点から観察可能な領域の一例である。仮想撮影領域402は、仮想カメラ401の撮影条件(位置、姿勢、画角)により定まる領域であり、仮想視点画像として描画される領域である。領域決定部202は、仮想視点情報207から仮想カメラの撮影条件(位置、姿勢、画角)を特定する。そして、領域決定部202は、特定した仮想カメラ401の撮影条件に基づいて、仮想撮影領域402を特定する。
また、領域決定部202は、サーバ装置110から、仮想撮影領域402の情報を含む仮想視点情報207を取得することとしてもよい。その場合、領域決定部202は、仮想視点情報に含まれる仮想撮影領域402の情報から仮想撮影領域402を特定する。
仮想撮影領域402は、仮想カメラ401の撮影範囲を示す領域である。仮想カメラ401の撮影領域は、仮想視点から観察可能な領域の一例である。仮想撮影領域402は、仮想カメラ401の撮影条件(位置、姿勢、画角)により定まる領域であり、仮想視点画像として描画される領域である。領域決定部202は、仮想視点情報207から仮想カメラの撮影条件(位置、姿勢、画角)を特定する。そして、領域決定部202は、特定した仮想カメラ401の撮影条件に基づいて、仮想撮影領域402を特定する。
また、領域決定部202は、サーバ装置110から、仮想撮影領域402の情報を含む仮想視点情報207を取得することとしてもよい。その場合、領域決定部202は、仮想視点情報に含まれる仮想撮影領域402の情報から仮想撮影領域402を特定する。
矢印403は、仮想カメラ401の姿勢(仮想視点の方向)の変化を示す矢印である。領域決定部202は、仮想視点情報207に含まれる変化情報から、仮想カメラ401の位置、姿勢、画角がどのように変化するかを特定する。図5の例では、領域決定部202は、仮想カメラ401の姿勢(仮想視点の方向)が矢印403のように変化することを特定する。
画像処理システム100は、仮想カメラ401に対して、任意の動き(位置、姿勢の変化)を行わせることができる。また、画像処理システム100は、仮想カメラ401の画角の値を任意に変化させることができる。これにより、画像処理システム100は、撮影対象領域150の中で自由に動き、画角を任意に変更可能な仮想カメラ401が撮影する仮想視点画像を提供することができる。
図5の右側の画像404は、仮想カメラ401により仮想的に撮影された画像(仮想視点から見た画像)である。矢印405は、矢印403が示す仮想カメラ401の姿勢の動きにより、仮想カメラ401により撮影される撮影範囲が変化する方向を示す。即ち、図5の例では、これから仮想カメラ401の姿勢が動くことで、仮想カメラ401の撮影領域は、より左側に変化することとなる。
オブジェクト406〜408それぞれは、注目対象のオブジェクトである。オブジェクト406〜408それぞれは、仮想視点画像を生成するにあたって三次元モデル化される対象となる。本実施形態では、サッカーを撮影対象としており、オブジェクト406〜408それぞれは、サッカー選手となる。図5の例では、画像404には、仮想カメラ401の位置や撮影領域により、オブジェクト406のみが映るようになる。
画像処理システム100は、仮想カメラ401に対して、任意の動き(位置、姿勢の変化)を行わせることができる。また、画像処理システム100は、仮想カメラ401の画角の値を任意に変化させることができる。これにより、画像処理システム100は、撮影対象領域150の中で自由に動き、画角を任意に変更可能な仮想カメラ401が撮影する仮想視点画像を提供することができる。
図5の右側の画像404は、仮想カメラ401により仮想的に撮影された画像(仮想視点から見た画像)である。矢印405は、矢印403が示す仮想カメラ401の姿勢の動きにより、仮想カメラ401により撮影される撮影範囲が変化する方向を示す。即ち、図5の例では、これから仮想カメラ401の姿勢が動くことで、仮想カメラ401の撮影領域は、より左側に変化することとなる。
オブジェクト406〜408それぞれは、注目対象のオブジェクトである。オブジェクト406〜408それぞれは、仮想視点画像を生成するにあたって三次元モデル化される対象となる。本実施形態では、サッカーを撮影対象としており、オブジェクト406〜408それぞれは、サッカー選手となる。図5の例では、画像404には、仮想カメラ401の位置や撮影領域により、オブジェクト406のみが映るようになる。
S303において、領域決定部202は、S302で取得した仮想視点情報207に基づいて、対応するカメラ120の撮影画像において、仮想視点画像の生成に用いられる利用領域の位置を決定する。S303で決定される利用領域の位置は、カメラ120の撮影画像におけるサーバ装置110への送信対象となる部分領域の位置となる。
図6(a)を用いて、S303の処理の一例について説明する。まず、仮想視点の変化情報を用いないこととする場合の処理について説明する。図6(a)は、図5に示す状況における仮想カメラ401とカメラ120Aとの撮影領域の一例を示す図である。画像502は、カメラ120Aの撮影画像である。領域501は、カメラ120Aの撮影領域である。カメラ120Aの撮影領域の情報は、予めカメラアダプタ130Aの補助記憶装置133に記憶されているとする。領域決定部202は、予めカメラアダプタ130Aの補助記憶装置133に記憶されているカメラ120Aの撮影領域の情報に基づいて、領域501を特定する。領域決定部202は、領域501と仮想撮影領域402との共通領域を決定する。領域決定部202による領域501と仮想撮影領域402との共通領域を決定する処理は、領域決定処理の一例である。そして、領域決定部202は、画像502における決定した共通領域の位置、撮影条件の変化前の仮想カメラ401から見た仮想視点画像の生成に用いられる利用領域の位置として決定する。図6(a)の例では、領域決定部202は、領域503の位置を特定する。画像処理システム100は、画像データ205における領域503の部分を用いることで、変化前の撮影条件の仮想カメラ401から見た仮想視点画像を生成することができることとなる。
図6(a)を用いて、S303の処理の一例について説明する。まず、仮想視点の変化情報を用いないこととする場合の処理について説明する。図6(a)は、図5に示す状況における仮想カメラ401とカメラ120Aとの撮影領域の一例を示す図である。画像502は、カメラ120Aの撮影画像である。領域501は、カメラ120Aの撮影領域である。カメラ120Aの撮影領域の情報は、予めカメラアダプタ130Aの補助記憶装置133に記憶されているとする。領域決定部202は、予めカメラアダプタ130Aの補助記憶装置133に記憶されているカメラ120Aの撮影領域の情報に基づいて、領域501を特定する。領域決定部202は、領域501と仮想撮影領域402との共通領域を決定する。領域決定部202による領域501と仮想撮影領域402との共通領域を決定する処理は、領域決定処理の一例である。そして、領域決定部202は、画像502における決定した共通領域の位置、撮影条件の変化前の仮想カメラ401から見た仮想視点画像の生成に用いられる利用領域の位置として決定する。図6(a)の例では、領域決定部202は、領域503の位置を特定する。画像処理システム100は、画像データ205における領域503の部分を用いることで、変化前の撮影条件の仮想カメラ401から見た仮想視点画像を生成することができることとなる。
しかし、領域503は、撮影条件が変化する前の仮想カメラ401の撮影領域と、カメラ120Aの撮影領域と、の共通領域である。仮想カメラ401の位置、姿勢、画角の少なくとも何れか1つは、仮想視点情報207に含まれる変化情報が示すように変化することとなる。そのため、領域503は、撮影条件が変化した仮想カメラ401の撮影領域とカメラ120Aの撮影領域との共通領域と同じとはならない。
このような、仮想カメラ401の撮影条件の変化に対応するために、本実施形態では、領域決定部202は、仮想視点情報に含まれる変化情報に基づいて、以下の処理を行う。即ち、領域決定部202は、仮想視点情報207に含まれる変化情報が示す撮影条件の変化後の仮想カメラ401の撮影領域と、カメラ120Aの撮影領域と、の共通領域を決定する。決定された共通領域は、撮影条件変化後の仮想カメラ401の撮影領域とカメラ120Aの撮影領域との共通領域の予測値とみなすことができる。そして、領域決定部202は、画像502における決定した共通領域の位置を、仮想カメラ401の撮影条件が変化した後の仮想視点画像の生成に用いられる部分が描画される利用領域の位置として決定する。図6(a)の例では、領域決定部202は、領域504の位置を利用領域の位置として決定する。
領域決定部202は、決定した領域503と領域504との位置の情報をデータ決定部203に出力する。
このような、仮想カメラ401の撮影条件の変化に対応するために、本実施形態では、領域決定部202は、仮想視点情報に含まれる変化情報に基づいて、以下の処理を行う。即ち、領域決定部202は、仮想視点情報207に含まれる変化情報が示す撮影条件の変化後の仮想カメラ401の撮影領域と、カメラ120Aの撮影領域と、の共通領域を決定する。決定された共通領域は、撮影条件変化後の仮想カメラ401の撮影領域とカメラ120Aの撮影領域との共通領域の予測値とみなすことができる。そして、領域決定部202は、画像502における決定した共通領域の位置を、仮想カメラ401の撮影条件が変化した後の仮想視点画像の生成に用いられる部分が描画される利用領域の位置として決定する。図6(a)の例では、領域決定部202は、領域504の位置を利用領域の位置として決定する。
領域決定部202は、決定した領域503と領域504との位置の情報をデータ決定部203に出力する。
S304において、データ決定部203は、S301で取得された画像データ205における利用領域の部分(S303で決定された位置が示す領域503と領域504との部分)を、仮想視点画像の生成に用いられる生成用データとして決定する。より具体的には、データ決定部203は、画像データ205から切り取られた領域503の部分のデータと領域504の部分のデータとを、生成用データとして決定する。
S305において、送信部204は、S304で決定された生成用データを、送信データ210として、サーバ装置110に送信する。
以上、カメラアダプタ130Aの処理について説明した。
S305において、送信部204は、S304で決定された生成用データを、送信データ210として、サーバ装置110に送信する。
以上、カメラアダプタ130Aの処理について説明した。
また、本実施形態のカメラアダプタ130B〜130Dそれぞれは、図4を用いて説明したカメラアダプタ130Aと同様の処理を行う。
図6(b)を用いて、カメラアダプタ130Bが実行するS303の処理で決定される利用領域の一例について説明する。図6(b)は、図5に示す状況における仮想カメラ401とカメラ120Bとの撮影領域の一例を示す図である。画像506は、カメラ120Bの撮影画像である。領域505は、カメラ120Bの撮影領域である。領域507は、撮影条件の変化前の仮想カメラ401の撮影領域とカメラ120Bの撮影領域との共通領域を示す。領域507は、仮想カメラ401の撮影条件の変化前の仮想視点画像の生成に用いられる利用領域である。領域508は、撮影条件の変化後の仮想カメラ401の撮影領域とカメラ120Bの撮影領域との共通領域を示す。領域508は、仮想カメラ401の撮影条件の変化後の仮想視点画像の生成に用いられる利用領域である。
図6(b)を用いて、カメラアダプタ130Bが実行するS303の処理で決定される利用領域の一例について説明する。図6(b)は、図5に示す状況における仮想カメラ401とカメラ120Bとの撮影領域の一例を示す図である。画像506は、カメラ120Bの撮影画像である。領域505は、カメラ120Bの撮影領域である。領域507は、撮影条件の変化前の仮想カメラ401の撮影領域とカメラ120Bの撮影領域との共通領域を示す。領域507は、仮想カメラ401の撮影条件の変化前の仮想視点画像の生成に用いられる利用領域である。領域508は、撮影条件の変化後の仮想カメラ401の撮影領域とカメラ120Bの撮影領域との共通領域を示す。領域508は、仮想カメラ401の撮影条件の変化後の仮想視点画像の生成に用いられる利用領域である。
図6(c)を用いて、カメラアダプタ130Cが実行するS303の処理で決定される利用領域の一例について説明する。図6(c)は、図5に示す状況における仮想カメラ401とカメラ120Cとの撮影領域の一例を示す図である。画像510は、カメラ120Cの撮影画像である。領域509は、カメラ120Cの撮影領域である。領域511は、撮影条件の変化前の仮想カメラ401の撮影領域とカメラ120Cの撮影領域との共通領域を示す。領域511は、仮想カメラ401の撮影条件の変化前の仮想視点画像の生成に用いられる利用領域である。領域512は、撮影条件の変化後の仮想カメラ401の撮影領域とカメラ120Cの撮影領域との共通領域を示す。領域512は、仮想カメラ401の撮影条件の変化後の仮想視点画像の生成に用いられる利用領域である。
図6(d)を用いて、カメラアダプタ130Dが実行するS303の処理で決定される利用領域の一例について説明する。図6(d)は、図5に示す状況における仮想カメラ401とカメラ120Dとの撮影領域の一例を示す図である。画像514は、カメラ120Dの撮影画像である。領域513は、カメラ120Dの撮影領域である。領域515は、撮影条件の変化前の仮想カメラ401の撮影領域とカメラ120Dの撮影領域との共通領域を示す。領域5013は、仮想カメラ401の撮影条件の変化前の仮想視点画像の生成に用いられる利用領域である。領域516は、撮影条件の変化後の仮想カメラ401の撮影領域とカメラ120Dの撮影領域との共通領域を示す。領域516は、仮想カメラ401の撮影条件の変化後の仮想視点画像の生成に用いられる利用領域である。
図6(d)を用いて、カメラアダプタ130Dが実行するS303の処理で決定される利用領域の一例について説明する。図6(d)は、図5に示す状況における仮想カメラ401とカメラ120Dとの撮影領域の一例を示す図である。画像514は、カメラ120Dの撮影画像である。領域513は、カメラ120Dの撮影領域である。領域515は、撮影条件の変化前の仮想カメラ401の撮影領域とカメラ120Dの撮影領域との共通領域を示す。領域5013は、仮想カメラ401の撮影条件の変化前の仮想視点画像の生成に用いられる利用領域である。領域516は、撮影条件の変化後の仮想カメラ401の撮影領域とカメラ120Dの撮影領域との共通領域を示す。領域516は、仮想カメラ401の撮影条件の変化後の仮想視点画像の生成に用いられる利用領域である。
以上、本実施形態では、画像処理システム100は、仮想カメラ401の撮影条件の変化情報に基づいて、撮影条件の変化後の仮想カメラ401の撮影領域と、カメラ120の撮影領域と、の共通領域を決定した。決定した共通領域は、撮影条件変化後の仮想カメラ401の撮影領域とカメラ120の撮影領域との共通領域の予測値である。そして、画像処理システム100は、カメラ120の撮影画像における決定した共通領域の位置を、仮想視点画像の生成に用いられる利用領域の位置として決定した。これにより、画像処理システム100は、カメラ120の撮影画像における決定した位置の領域を、利用領域としてサーバ装置110に送信できる。サーバ装置110は、撮影条件が変化した後の仮想カメラ401から見た仮想視点画像の生成に用いられるデータを取得できる。そのため、サーバ装置110は、撮影条件が変化した後の仮想カメラ401から見た仮想視点画像を適切に生成できる。このように、画像処理システム100は、より適切な仮想視点画像の生成を支援することができる。
また、本実施形態では、画像処理システム100は、撮影条件の変化前の仮想カメラ401の撮影領域と、カメラ120の撮影領域と、共通領域を決定した。そして、画像処理システム100は、カメラ120の撮影画像における決定した共通領域の位置を、仮想視点画像の生成に用いられる利用領域の位置として決定した。これにより、画像処理システム100は、撮影条件が変化する前の仮想カメラ401から見た仮想視点画像の生成に用いられるデータをサーバ装置110に送信できる。結果として、サーバ装置110は、撮影条件変化前の仮想カメラ401から見た仮想視点画像を生成できる。このように、画像処理システム100は、仮想カメラ401の撮影条件の変化前と変化後とにおける適切な仮想視点画像を生成できる。
また、本実施形態の画像処理システム100は、カメラ120により撮影された画像全体でなく、その画像における仮想視点画像の生成に用いられる領域のデータをサーバ装置110に送信することとした。これにより、画像処理システム100は、通信帯域を節約できる。特に、各カメラアダプタ130がデイジーチェーン接続されている場合、通信帯域の逼迫が生じやすい。そのため、画像処理システム100は、このような場合、通信帯域が逼迫する事態を防止するという顕著な効果を奏することができる。
また、本実施形態では、画像処理システム100は、撮影条件の変化前の仮想カメラ401の撮影領域と、カメラ120の撮影領域と、共通領域を決定した。そして、画像処理システム100は、カメラ120の撮影画像における決定した共通領域の位置を、仮想視点画像の生成に用いられる利用領域の位置として決定した。これにより、画像処理システム100は、撮影条件が変化する前の仮想カメラ401から見た仮想視点画像の生成に用いられるデータをサーバ装置110に送信できる。結果として、サーバ装置110は、撮影条件変化前の仮想カメラ401から見た仮想視点画像を生成できる。このように、画像処理システム100は、仮想カメラ401の撮影条件の変化前と変化後とにおける適切な仮想視点画像を生成できる。
また、本実施形態の画像処理システム100は、カメラ120により撮影された画像全体でなく、その画像における仮想視点画像の生成に用いられる領域のデータをサーバ装置110に送信することとした。これにより、画像処理システム100は、通信帯域を節約できる。特に、各カメラアダプタ130がデイジーチェーン接続されている場合、通信帯域の逼迫が生じやすい。そのため、画像処理システム100は、このような場合、通信帯域が逼迫する事態を防止するという顕著な効果を奏することができる。
<実施形態2>
仮想視点画像において、背景モデルが予め生成されている場合、背景モデルを新たに生成する必要はない。そのため、前景となる撮影対象のオブジェクトの3次元モデルのみを生成することが要望される場合がある。このような場合、仮想視点画像の生成に、画像における背景領域は用いられずに、その画像における前景領域となる撮影対象のオブジェクトの領域だけが用いられることとなる。
そこで、本実施形態では、画像処理システム100は、カメラ120により撮影された画像における前景領域のデータを生成用データとしてサーバ装置110に送信する処理を行う。
本実施形態の画像処理システム100のシステム構成は、実施形態1と同様である。本実施形態の画像処理システム100の各構成要素のハードウェア構成は、実施形態1と同様である。
仮想視点画像において、背景モデルが予め生成されている場合、背景モデルを新たに生成する必要はない。そのため、前景となる撮影対象のオブジェクトの3次元モデルのみを生成することが要望される場合がある。このような場合、仮想視点画像の生成に、画像における背景領域は用いられずに、その画像における前景領域となる撮影対象のオブジェクトの領域だけが用いられることとなる。
そこで、本実施形態では、画像処理システム100は、カメラ120により撮影された画像における前景領域のデータを生成用データとしてサーバ装置110に送信する処理を行う。
本実施形態の画像処理システム100のシステム構成は、実施形態1と同様である。本実施形態の画像処理システム100の各構成要素のハードウェア構成は、実施形態1と同様である。
図7は、実施形態2におけるカメラアダプタ130Aの機能構成の一例を示す図である。カメラアダプタ130Aは、取得部201、領域決定部202、前景抽出部601、データ決定部602、送信部603を含む。
取得部201、領域決定部202は、それぞれ図3を用いて説明した取得部201、領域決定部202と同様である。
前景抽出部601は、取得部201により取得された画像データ205内に含まれる前景領域を抽出する。画像の前景領域とは、画像において定められた背景領域と異なる領域である。本実施形態では、撮影対象がサッカーの試合であり、カメラ120により撮影された画像の背景領域は、その画像におけるサッカーの試合場(フィールド、観客席等)の領域である。また、その画像の前景領域は、その画像におけるサッカー選手、ボール、審判等の領域となる。
データ決定部602は、前景抽出部601により抽出された前景領域と、領域決定部202により決定された利用領域の位置と、に基づいて、生成用データを決定する。
送信部603は、データ決定部602により決定された生成用データをサーバ装置110に送信する。
本実施形態では、カメラアダプタ130B〜Dそれぞれの機能構成は、図7を用いて説明したカメラアダプタ130Aの機能構成と同様である。
取得部201、領域決定部202は、それぞれ図3を用いて説明した取得部201、領域決定部202と同様である。
前景抽出部601は、取得部201により取得された画像データ205内に含まれる前景領域を抽出する。画像の前景領域とは、画像において定められた背景領域と異なる領域である。本実施形態では、撮影対象がサッカーの試合であり、カメラ120により撮影された画像の背景領域は、その画像におけるサッカーの試合場(フィールド、観客席等)の領域である。また、その画像の前景領域は、その画像におけるサッカー選手、ボール、審判等の領域となる。
データ決定部602は、前景抽出部601により抽出された前景領域と、領域決定部202により決定された利用領域の位置と、に基づいて、生成用データを決定する。
送信部603は、データ決定部602により決定された生成用データをサーバ装置110に送信する。
本実施形態では、カメラアダプタ130B〜Dそれぞれの機能構成は、図7を用いて説明したカメラアダプタ130Aの機能構成と同様である。
次に、本実施形態のカメラアダプタ130の処理について説明する。
図8は、本実施形態のカメラアダプタ130Aの処理の一例を示すフローチャートである。図8のフローチャートは、実施形態1の図4と同様に1フレーム分の処理を示すフローチャートである。
S301〜S303の処理は、それぞれ図4と同様の処理である。
図8は、本実施形態のカメラアダプタ130Aの処理の一例を示すフローチャートである。図8のフローチャートは、実施形態1の図4と同様に1フレーム分の処理を示すフローチャートである。
S301〜S303の処理は、それぞれ図4と同様の処理である。
S701において、前景抽出部601は、S301で取得された画像データ205の前景領域を抽出する。前景抽出部601は、対応するカメラ120を介して一定時間かけて撮影した複数の画像から背景画像を生成し、その背景画像と、比較対象の画像データと、を比較し背景差分を行うことで、前景領域を抽出する。また、前景抽出部601は、予め定められた背景領域を用いて背景差分を行うことで前景領域を抽出してもよい。
図9(a)を用いて、S701で抽出された前景領域の一例について説明する。図9(a)は、図6(a)と同様に、図5に示す状況における仮想カメラ401とカメラ120Aとの撮影領域の一例を示す図である。画像502は、カメラ120Aにより撮影された画像である。S701の処理により、画像502内のオブジェクト406〜408の領域が前景領域として抽出される。
図9(a)を用いて、S701で抽出された前景領域の一例について説明する。図9(a)は、図6(a)と同様に、図5に示す状況における仮想カメラ401とカメラ120Aとの撮影領域の一例を示す図である。画像502は、カメラ120Aにより撮影された画像である。S701の処理により、画像502内のオブジェクト406〜408の領域が前景領域として抽出される。
S702において、データ決定部602は、S701で抽出された前景領域と、S303で決定された利用領域の位置と、に基づいて、生成用データを決定する。データ決定部602は、この前景領域のうち利用領域に含まれている部分を生成用データとして決定する。
図9(a)の例では、データ決定部602は、画像502の内、領域503に含まれる前景領域を、仮想カメラ401の撮影条件の変化前における仮想視点画像の生成に用いられる生成用データとして決定する。即ち、データ決定部602は、オブジェクト406の全領域と、オブジェクト408の一部の領域と、を生成用データとして決定する。また、データ決定部602は、領域504の境界をまたいで存在するオブジェクト408については、画像502におけるオブジェクト408の全領域を、生成用データとして決定してもよい。また、データ決定部602は、画像502の内、領域504に含まれる前景領域を、仮想カメラ401の撮影条件の変化後における仮想視点画像の生成に用いられる生成用データとして決定する。
S703において、送信部603は、S702で決定された生成用データを、サーバ装置110に送信する。
以上、本実施形態のカメラアダプタ130Aの処理について説明した。
図9(a)の例では、データ決定部602は、画像502の内、領域503に含まれる前景領域を、仮想カメラ401の撮影条件の変化前における仮想視点画像の生成に用いられる生成用データとして決定する。即ち、データ決定部602は、オブジェクト406の全領域と、オブジェクト408の一部の領域と、を生成用データとして決定する。また、データ決定部602は、領域504の境界をまたいで存在するオブジェクト408については、画像502におけるオブジェクト408の全領域を、生成用データとして決定してもよい。また、データ決定部602は、画像502の内、領域504に含まれる前景領域を、仮想カメラ401の撮影条件の変化後における仮想視点画像の生成に用いられる生成用データとして決定する。
S703において、送信部603は、S702で決定された生成用データを、サーバ装置110に送信する。
以上、本実施形態のカメラアダプタ130Aの処理について説明した。
また、本実施形態のカメラアダプタ130B〜130Dそれぞれは、図8を用いて説明したカメラアダプタ130Aと同様の処理を行う。
図9(b)を用いて、カメラアダプタ130Bが実行するS702の処理で決定される生成用データの一例について説明する。カメラアダプタ130Bのデータ決定部602は、画像506におけるオブジェクト406〜408の領域(前景領域)のうち、領域507に含まれる領域のデータを特定する。そして、カメラアダプタ130Bのデータ決定部602は、特定したデータを、仮想カメラ401の撮影条件の変化前における仮想視点画像の生成に用いられる生成用データとして決定する。図9(b)の例では、画像506におけるオブジェクト406の全領域とオブジェクト407の一部の領域とのデータが、仮想カメラ401の撮影条件の変化前における仮想視点画像の生成に用いられる生成用データとして決定される。
カメラアダプタ130Bのデータ決定部602は、画像506における前景領域のうち、領域508に含まれる領域のデータを特定する。そして、カメラアダプタ130Bのデータ決定部602は、特定したデータを、仮想カメラ401の撮影条件の変化後における仮想視点画像の生成に用いられる生成用データとして決定する。図9(b)の例では、画像506におけるオブジェクト406の全領域とオブジェクト407の全領域とのデータが、仮想カメラ401の撮影条件変化後の仮想視点画像の生成に用いられる生成用データとして決定される。
図9(b)を用いて、カメラアダプタ130Bが実行するS702の処理で決定される生成用データの一例について説明する。カメラアダプタ130Bのデータ決定部602は、画像506におけるオブジェクト406〜408の領域(前景領域)のうち、領域507に含まれる領域のデータを特定する。そして、カメラアダプタ130Bのデータ決定部602は、特定したデータを、仮想カメラ401の撮影条件の変化前における仮想視点画像の生成に用いられる生成用データとして決定する。図9(b)の例では、画像506におけるオブジェクト406の全領域とオブジェクト407の一部の領域とのデータが、仮想カメラ401の撮影条件の変化前における仮想視点画像の生成に用いられる生成用データとして決定される。
カメラアダプタ130Bのデータ決定部602は、画像506における前景領域のうち、領域508に含まれる領域のデータを特定する。そして、カメラアダプタ130Bのデータ決定部602は、特定したデータを、仮想カメラ401の撮影条件の変化後における仮想視点画像の生成に用いられる生成用データとして決定する。図9(b)の例では、画像506におけるオブジェクト406の全領域とオブジェクト407の全領域とのデータが、仮想カメラ401の撮影条件変化後の仮想視点画像の生成に用いられる生成用データとして決定される。
図9(c)を用いて、カメラアダプタ130Cが実行するS702の処理で決定される生成用データの一例について説明する。カメラアダプタ130Cのデータ決定部602は、画像510におけるオブジェクト406〜408の領域(前景領域)のうち、領域511に含まれる領域のデータを特定する。そして、カメラアダプタ130Cのデータ決定部602は、特定したデータを、仮想カメラ401の撮影条件の変化前における仮想視点画像の生成に用いられる生成用データとして決定する。図9(c)の例では、画像510におけるオブジェクト406の全領域とオブジェクト408の一部の領域とのデータが、仮想カメラ401の撮影条件の変化前における仮想視点画像の生成に用いられる生成用データとして決定される。
カメラアダプタ130Cのデータ決定部602は、画像510における前景領域のうち、領域512に含まれる領域のデータを特定する。そして、カメラアダプタ130Cのデータ決定部602は、特定したデータを、仮想カメラ401の撮影条件の変化後における仮想視点画像の生成に用いられる生成用データとして決定する。図9(c)の例では、画像510におけるオブジェクト406の全領域とオブジェクト407の一部の領域とオブジェクト408の一部の領域とのデータが、仮想カメラ401の撮影条件変化後の仮想視点画像の生成に用いられる生成用データとして決定される。
カメラアダプタ130Cのデータ決定部602は、画像510における前景領域のうち、領域512に含まれる領域のデータを特定する。そして、カメラアダプタ130Cのデータ決定部602は、特定したデータを、仮想カメラ401の撮影条件の変化後における仮想視点画像の生成に用いられる生成用データとして決定する。図9(c)の例では、画像510におけるオブジェクト406の全領域とオブジェクト407の一部の領域とオブジェクト408の一部の領域とのデータが、仮想カメラ401の撮影条件変化後の仮想視点画像の生成に用いられる生成用データとして決定される。
図9(d)を用いて、カメラアダプタ130Dが実行するS702の処理で決定される生成用データの一例について説明する。カメラアダプタ130Dのデータ決定部602は、画像514におけるオブジェクト406〜408の領域(前景領域)のうち、領域515に含まれる領域のデータを特定する。そして、カメラアダプタ130Dのデータ決定部602は、特定したデータを、仮想カメラ401の撮影条件の変化前における仮想視点画像の生成に用いられる生成用データとして決定する。図9(d)の例では、画像514におけるオブジェクト406の全領域のデータが、仮想カメラ401の撮影条件の変化前における仮想視点画像の生成に用いられる生成用データとして決定される。
カメラアダプタ130Dのデータ決定部602は、画像514における前景領域のうち、領域516に含まれる領域のデータを特定する。そして、カメラアダプタ130Dのデータ決定部602は、特定したデータを、仮想カメラ401の撮影条件の変化後における仮想視点画像の生成に用いられる生成用データとして決定する。図9(d)の例では、画像514におけるオブジェクト406の全領域とオブジェクト407の一部の領域とのデータが、仮想カメラ401の撮影条件変化後の仮想視点画像の生成に用いられる生成用データとして決定される。
カメラアダプタ130Dのデータ決定部602は、画像514における前景領域のうち、領域516に含まれる領域のデータを特定する。そして、カメラアダプタ130Dのデータ決定部602は、特定したデータを、仮想カメラ401の撮影条件の変化後における仮想視点画像の生成に用いられる生成用データとして決定する。図9(d)の例では、画像514におけるオブジェクト406の全領域とオブジェクト407の一部の領域とのデータが、仮想カメラ401の撮影条件変化後の仮想視点画像の生成に用いられる生成用データとして決定される。
以上、本実施形態では、画像処理システム100は、仮想視点画像生成のためにサーバ装置110に伝送するデータを、カメラ120により撮影された画像の前景領域のみとすることとした。これにより、画像処理システム100は、送信するデータ量をより低減することで、より通信帯域を節約できる。
<実施形態3>
本実施形態では、画像処理システム100は、送信データ量の制限指示に応じて、カメラ120により撮影された画像の一部をサーバ装置110に送信する制御を行う処理を行う。
本実施形態の画像処理システム100のシステム構成は、実施形態1と同様である。本実施形態の画像処理システム100の各構成要素のハードウェア構成は、実施形態1と同様である。
本実施形態では、画像処理システム100は、送信データ量の制限指示に応じて、カメラ120により撮影された画像の一部をサーバ装置110に送信する制御を行う処理を行う。
本実施形態の画像処理システム100のシステム構成は、実施形態1と同様である。本実施形態の画像処理システム100の各構成要素のハードウェア構成は、実施形態1と同様である。
図10は、本実施形態のカメラアダプタ130Aの機能構成の一例を示す図である。カメラアダプタ130Aは、取得部201、領域決定部202、データ決定部901、送信部902を含む。
取得部201、領域決定部202は、それぞれ図3を用いて説明した取得部201、領域決定部202と同様である。
データ決定部901は、サーバ装置110等の外部の装置から、制限情報903を取得する。制限情報903は、通信されるデータ量の制限を指示するための情報である。データ決定部901は、制限情報903に応じて、対応するカメラ120により撮影された画像の一部の領域のデータを、生成用データとして決定する。
送信部902は、データ決定部901により決定された生成用データをサーバ装置110に送信する。
取得部201、領域決定部202は、それぞれ図3を用いて説明した取得部201、領域決定部202と同様である。
データ決定部901は、サーバ装置110等の外部の装置から、制限情報903を取得する。制限情報903は、通信されるデータ量の制限を指示するための情報である。データ決定部901は、制限情報903に応じて、対応するカメラ120により撮影された画像の一部の領域のデータを、生成用データとして決定する。
送信部902は、データ決定部901により決定された生成用データをサーバ装置110に送信する。
図11は、本実施形態のカメラアダプタ130Aの処理の一例を示すフローチャートである。図11のフローチャートの処理は、画像データ1フレーム分の処理である。
S301〜S303の処理は、図4のS301〜S303の処理と同様である。
S1001において、データ決定部901は、外部の装置から取得した制限情報903に基づいて、送信データ量を制限する指示がなされたか否かを判定する。本実施形態では、制限情報903は、送信可能な画像データ1フレームあたりの送信データ量の制限量を示す情報を含む。データ決定部901は、S301で取得された画像データ205のデータサイズが、制限情報903が示す制限量よりも大きい場合、送信データ量を制限する指示がなされたと判定して、処理をS302に進める。データ決定部901は、画像データ205のデータサイズが、制限情報903が示す制限量以下の場合、送信データ量を制限する指示がなされていないと判定して、処理をS1002に進める。
また、この制限情報903は、外部の装置から、カメラアダプタ130とサーバ装置110との間のデータ伝送量に応じて、外部の装置から送信されるものであり、時々刻々と送信される。各カメラアダプタ130は、その時々の制限情報903に従い、サーバ装置110に送信するデータのサイズを制限する。
S301〜S303の処理は、図4のS301〜S303の処理と同様である。
S1001において、データ決定部901は、外部の装置から取得した制限情報903に基づいて、送信データ量を制限する指示がなされたか否かを判定する。本実施形態では、制限情報903は、送信可能な画像データ1フレームあたりの送信データ量の制限量を示す情報を含む。データ決定部901は、S301で取得された画像データ205のデータサイズが、制限情報903が示す制限量よりも大きい場合、送信データ量を制限する指示がなされたと判定して、処理をS302に進める。データ決定部901は、画像データ205のデータサイズが、制限情報903が示す制限量以下の場合、送信データ量を制限する指示がなされていないと判定して、処理をS1002に進める。
また、この制限情報903は、外部の装置から、カメラアダプタ130とサーバ装置110との間のデータ伝送量に応じて、外部の装置から送信されるものであり、時々刻々と送信される。各カメラアダプタ130は、その時々の制限情報903に従い、サーバ装置110に送信するデータのサイズを制限する。
S1002において、データ決定部901は、S1001で送信データ量が制限されないと判定した場合、S301で取得された画像データ205全体を、生成用データに決定する。また、データ決定部901は、S1001で送信データ量が制限されると判定した場合、S301で取得された画像データ205におけるS303で決定された位置が示す利用領域のデータを、生成用データに決定する。
また、制限情報903が示す制限量が、画像データ205における利用領域のデータのサイズよりも小さい場合、このデータをサーバ装置110に送信することができない。そこで、この場合、データ決定部901は、画像データ205における利用領域のデータを圧縮し、圧縮したデータを生成用データとして決定してもよい。
また、制限情報903が示す制限量が、画像データ205における利用領域のデータのサイズよりも小さい場合、このデータをサーバ装置110に送信することができない。そこで、この場合、データ決定部901は、画像データ205における利用領域のデータを圧縮し、圧縮したデータを生成用データとして決定してもよい。
図12を用いて、画像データ205における利用領域のデータの圧縮の方法の一例について説明する。画像1101は、あるカメラ120により撮影された画像である。画像1101には、サッカーの試合中の3人の選手が撮影されている。領域1102は、S303で決定された画像1101における利用領域に対応する領域である。グラフ1104は、領域1102の横軸方向の圧縮後のデータサイズを示すグラフである。グラフ1105は、領域1102の縦軸方向の圧縮後のデータサイズを示すグラフである。
データ決定部901は、領域1102に含まれる一部の領域を、重要度が他の領域よりも高い重要領域1103として決定する。図12の例では、データ決定部901は、領域1102の中心の矩形領域を重要領域1103として決定する。そして、データ決定部901は、領域1102中の重要領域1103における圧縮率が、領域1102中の重要領域1103以外の領域における圧縮率よりも小さくなるように、領域1102の部分のデータを圧縮する。図12の例では、グラフ1104、1105に示されるように、重要領域1103における圧縮率が、その他の領域よりも低くなっている。また、重要領域1103以外の領域については、領域1102の中心から離れるほどに圧縮率が高くなるようになっている。
データ決定部901は、領域1102に含まれる一部の領域を、重要度が他の領域よりも高い重要領域1103として決定する。図12の例では、データ決定部901は、領域1102の中心の矩形領域を重要領域1103として決定する。そして、データ決定部901は、領域1102中の重要領域1103における圧縮率が、領域1102中の重要領域1103以外の領域における圧縮率よりも小さくなるように、領域1102の部分のデータを圧縮する。図12の例では、グラフ1104、1105に示されるように、重要領域1103における圧縮率が、その他の領域よりも低くなっている。また、重要領域1103以外の領域については、領域1102の中心から離れるほどに圧縮率が高くなるようになっている。
以上、本実施形態では、画像処理システム100は、送信データ量が制限されている場合のみ、S302〜S303の処理を実行することとした。そのため、画像処理システム100は、実行が不要な場合にS302〜S303の処理を行わないことで処理負担を軽減できる。
<その他の実施形態>
実施形態1〜3では、画像処理システム100は、カメラ120を4台含むとしたが、3台以下の台数含むこととしてもよいし、5台以上含むこととしてもよい。
実施形態1〜3では、カメラ120Aとカメラアダプタ130Aとは、それぞれ異なるデバイスであるとした。しかし、カメラアダプタ130Aがカメラ120Aに組み込まれていることとしてもよい。その場合、カメラ120Aが、カメラアダプタ130Aと同様の機能、処理を実行することとなる。カメラ120Bとカメラアダプタ130Bとについても、同様に、カメラアダプタ130Bがカメラ120Bに組み込まれていることとしてもよい。カメラ120Cとカメラアダプタ130Cとについても、同様に、カメラアダプタ130Cがカメラ120Cに組み込まれていることとしてもよい。カメラ120Dとカメラアダプタ130Dとについても、同様に、カメラアダプタ130Dがカメラ120Dに組み込まれていることとしてもよい。
実施形態1〜3では、画像処理システム100は、カメラ120を4台含むとしたが、3台以下の台数含むこととしてもよいし、5台以上含むこととしてもよい。
実施形態1〜3では、カメラ120Aとカメラアダプタ130Aとは、それぞれ異なるデバイスであるとした。しかし、カメラアダプタ130Aがカメラ120Aに組み込まれていることとしてもよい。その場合、カメラ120Aが、カメラアダプタ130Aと同様の機能、処理を実行することとなる。カメラ120Bとカメラアダプタ130Bとについても、同様に、カメラアダプタ130Bがカメラ120Bに組み込まれていることとしてもよい。カメラ120Cとカメラアダプタ130Cとについても、同様に、カメラアダプタ130Cがカメラ120Cに組み込まれていることとしてもよい。カメラ120Dとカメラアダプタ130Dとについても、同様に、カメラアダプタ130Dがカメラ120Dに組み込まれていることとしてもよい。
実施形態1〜3では、画像処理システム100は、仮想カメラ401の撮影条件変化前の仮想視点画像の生成に用いられる生成用データと、仮想カメラ401の撮影条件変化後の仮想視点画像の生成に用いられる生成用データと、サーバ装置110に送信した。
しかし、例えば、サーバ装置110が生成用データを受信した時点において、仮想カメラ401の撮影条件が既に変化している場合があり得る。このような場合、撮影条件が変化する前の仮想カメラ401から見た仮想視点画像の生成が行われない。このような事態に対して、画像処理システム100は、仮想カメラ401の撮影条件変化後の仮想視点画像の生成に用いられる生成用データのみをサーバ装置110に送信することとしてもよい。即ち、画像処理システム100は、仮想視点情報207に含まれる変化情報に基づいて決定した利用領域のデータのみをサーバ装置110に送信することとしてもよい。
しかし、例えば、サーバ装置110が生成用データを受信した時点において、仮想カメラ401の撮影条件が既に変化している場合があり得る。このような場合、撮影条件が変化する前の仮想カメラ401から見た仮想視点画像の生成が行われない。このような事態に対して、画像処理システム100は、仮想カメラ401の撮影条件変化後の仮想視点画像の生成に用いられる生成用データのみをサーバ装置110に送信することとしてもよい。即ち、画像処理システム100は、仮想視点情報207に含まれる変化情報に基づいて決定した利用領域のデータのみをサーバ装置110に送信することとしてもよい。
また、実施形態1〜3では、各カメラアダプタ130が、各カメラ120の撮影画像中における利用領域の位置を決定することとした。しかし、サーバ装置110が、各カメラ120の撮影画像中における利用領域の位置を決定することとしてもよい。その場合、サーバ装置110は、以下のような処理を実行する。
CPU111は、仮想カメラ401の撮影条件(位置、姿勢、画角)の情報と、仮想カメラ401の撮影条件の変化情報と、を補助記憶装置113から取得する。補助記憶装置113は、予め仮想カメラ401の位置姿勢(仮想視点の位置及び方向)の情報と、仮想カメラ401の画角の情報と、仮想カメラ401の撮影条件の変化情報と、を記憶している。そして、CPU111は、取得した仮想カメラ401の撮影条件の情報に基づいて、撮影条件の変化前の仮想カメラ401の撮影領域を特定する。CPU111は、各カメラ120の撮影領域の情報を補助記憶装置113から取得し、取得した情報に基づいて、各カメラ120の撮影領域を特定する。補助記憶装置113は、予め、各カメラ120の撮影領域の情報を記憶している。そして、CPU111は、特定した仮想カメラ401の撮影領域と、各カメラ120の撮影領域と、の共通領域を決定する。CPU111は、各カメラ120の撮影画像の座標における決定した共通領域に対応する領域の位置を、仮想カメラ401の撮影条件の変化前の利用領域の位置として決定する。
また、CPU111は、取得した仮想カメラ401の撮影条件の情報と変化情報とに基づいて、撮影条件の変化後の仮想カメラ401の撮影領域を特定する。CPU111は、特定した仮想カメラ401の撮影領域と、各カメラ120の撮影領域と、の共通領域を決定する。CPU111は、各カメラ120の撮影画像の座標における決定した共通領域に対応する領域の位置を、仮想カメラ401の撮影条件の変化後の利用領域の位置として決定する。
CPU111は、仮想カメラ401の撮影条件(位置、姿勢、画角)の情報と、仮想カメラ401の撮影条件の変化情報と、を補助記憶装置113から取得する。補助記憶装置113は、予め仮想カメラ401の位置姿勢(仮想視点の位置及び方向)の情報と、仮想カメラ401の画角の情報と、仮想カメラ401の撮影条件の変化情報と、を記憶している。そして、CPU111は、取得した仮想カメラ401の撮影条件の情報に基づいて、撮影条件の変化前の仮想カメラ401の撮影領域を特定する。CPU111は、各カメラ120の撮影領域の情報を補助記憶装置113から取得し、取得した情報に基づいて、各カメラ120の撮影領域を特定する。補助記憶装置113は、予め、各カメラ120の撮影領域の情報を記憶している。そして、CPU111は、特定した仮想カメラ401の撮影領域と、各カメラ120の撮影領域と、の共通領域を決定する。CPU111は、各カメラ120の撮影画像の座標における決定した共通領域に対応する領域の位置を、仮想カメラ401の撮影条件の変化前の利用領域の位置として決定する。
また、CPU111は、取得した仮想カメラ401の撮影条件の情報と変化情報とに基づいて、撮影条件の変化後の仮想カメラ401の撮影領域を特定する。CPU111は、特定した仮想カメラ401の撮影領域と、各カメラ120の撮影領域と、の共通領域を決定する。CPU111は、各カメラ120の撮影画像の座標における決定した共通領域に対応する領域の位置を、仮想カメラ401の撮影条件の変化後の利用領域の位置として決定する。
そして、CPU111は、決定した利用領域の位置の情報を、各カメラ120に対応する各カメラアダプタ130に送信する。以上の処理により、各カメラアダプタ130は、S303で決定されるものと同様の利用領域の位置の情報を取得することができる。CPU111は、各カメラアダプタ130に対する利用領域の位置の情報の送信後に、各カメラアダプタ130から各カメラ120の撮影画像における利用領域の画像を受信することとなる。
この場合、各カメラアダプタ130は、S302、S303の処理を実行しないこととなる。各カメラアダプタ130は、S304、S702、S1002において、サーバ装置110から送信された利用領域の情報を用いて生成用データを決定することとなる。このように、サーバ装置110が、利用領域を決定し、その情報を各カメラアダプタ130に送信することで、各カメラアダプタ130におけるS302、S303の処理の実行に係る負担を軽減できる。
この場合、各カメラアダプタ130は、S302、S303の処理を実行しないこととなる。各カメラアダプタ130は、S304、S702、S1002において、サーバ装置110から送信された利用領域の情報を用いて生成用データを決定することとなる。このように、サーバ装置110が、利用領域を決定し、その情報を各カメラアダプタ130に送信することで、各カメラアダプタ130におけるS302、S303の処理の実行に係る負担を軽減できる。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
例えば、上述した画像処理システム100の機能構成の一部又は全てをハードウェアとしてサーバ装置110、カメラアダプタ130等に実装してもよい。
以上、本発明の実施形態の一例について詳述したが、本発明は係る特定の実施形態に限定されるものではない。例えば、上述した各実施形態を任意に組み合わせたり、適宜改良乃至は応用した形態としたりしてもよい。
以上、本発明の実施形態の一例について詳述したが、本発明は係る特定の実施形態に限定されるものではない。例えば、上述した各実施形態を任意に組み合わせたり、適宜改良乃至は応用した形態としたりしてもよい。
100 画像処理システム
110 サーバ装置
130 カメラアダプタ
110 サーバ装置
130 カメラアダプタ
Claims (14)
- 仮想視点画像に対応する仮想カメラの位置、方向及び画角のうち少なくとも1つの変化を示す変化情報を取得する取得手段と、
前記取得手段により取得された前記変化情報に基づいて、撮影部による撮影により取得される撮影画像において、送信対象の部分領域の位置を決定する位置決定手段と、
を有する情報処理装置。 - 前記部分領域の画像を外部装置に送信する送信手段を更に有する請求項1記載の情報処理装置。
- 前記撮影画像における前景領域を抽出する抽出手段を更に有し、
前記送信手段は、前記抽出手段により抽出された前記前景領域のうち、前記部分領域に含まれる領域の画像を前記外部装置に送信する請求項2記載の情報処理装置。 - 前記送信手段は、送信データ量の制限指示を受け付けた場合に、前記部分領域の画像を前記外部装置に送信する請求項2又は3記載の情報処理装置。
- 前記撮影部の撮影領域と、前記変化情報と、に基づいて、前記撮影領域において、仮想視点画像の生成に用いられる領域を決定する領域決定手段を更に有し、
前記位置決定手段は、前記領域決定手段により決定された領域に対応した、前記撮影画像中の領域の位置を、前記部分領域の位置として決定する請求項1乃至4何れか1項記載の情報処理装置。 - 前記情報処理装置は、前記撮影部の制御装置である請求項1乃至5何れか1項記載の情報処理装置。
- 前記撮影部を更に有する請求項1乃至6何れか1項記載の情報処理装置。
- 前記部分領域の位置を示す情報を、前記撮影部の制御装置へ送信する送信手段を更に有する請求項1記載の情報処理装置。
- 前記部分領域の位置を示す情報の送信後に、前記部分領域の画像を受信する受信手段を更に有する請求項8記載の情報処理装置。
- 情報処理装置が実行する情報処理方法であって、
仮想視点画像に対応する仮想カメラの位置、方向及び画角のうち少なくとも1つの変化を示す変化情報を取得する取得ステップと、
前記取得ステップで取得された前記変化情報に基づいて、撮影部による撮影により取得される撮影画像において、送信対象の部分領域の位置を決定する位置決定ステップと、
を含む情報処理方法。 - 前記部分領域の画像を外部装置に送信する送信ステップを更に含む請求項10記載の情報処理方法。
- 前記撮影画像における前景領域を抽出する抽出ステップを更に含み、
前記送信ステップでは、前記抽出ステップで抽出された前記前景領域のうち、前記部分領域に含まれる領域の画像を前記外部装置に送信する請求項11記載の情報処理方法。 - 前記送信ステップでは、送信データ量の制限指示を受け付けた場合に、前記部分領域の画像を前記外部装置に送信する請求項11又は12記載の情報処理方法。
- コンピュータを、請求項1乃至9何れか1項記載の情報処理装置の各手段として、機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018165729A JP2020039063A (ja) | 2018-09-05 | 2018-09-05 | 情報処理装置、情報処理方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018165729A JP2020039063A (ja) | 2018-09-05 | 2018-09-05 | 情報処理装置、情報処理方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020039063A true JP2020039063A (ja) | 2020-03-12 |
Family
ID=69738326
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018165729A Pending JP2020039063A (ja) | 2018-09-05 | 2018-09-05 | 情報処理装置、情報処理方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020039063A (ja) |
-
2018
- 2018-09-05 JP JP2018165729A patent/JP2020039063A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2718119C1 (ru) | Устройство обработки информации, способ генерации изображения, способ управления и носитель данных | |
US20230283757A1 (en) | Method for generating virtual viewpoint image and image processing apparatus | |
JP7121470B2 (ja) | 画像処理システム、制御方法、及び、プログラム | |
KR102153985B1 (ko) | 가상 시점 화상을 생성하는 장치, 시스템, 방법, 및 비일시적 컴퓨터 판독가능 기억 매체 | |
US11012674B2 (en) | Information processing apparatus, image generation method, control method, and program | |
RU2713238C1 (ru) | Устройство управления, способ управления и программа | |
US20200322584A1 (en) | Control device, control method, and storage medium | |
JP7179515B2 (ja) | 装置、制御方法、及びプログラム | |
US11677925B2 (en) | Information processing apparatus and control method therefor | |
US20190335162A1 (en) | System that generates virtual viewpoint image, method and storage medium | |
US20180330163A1 (en) | Image processing apparatus and image processing method | |
US11490066B2 (en) | Image processing apparatus that obtains model data, control method of image processing apparatus, and storage medium | |
JP2019022151A (ja) | 情報処理装置、画像処理システム、制御方法、及び、プログラム | |
US20180332291A1 (en) | Information processing system and information processing method | |
US10552980B2 (en) | Image processing apparatus, image processing method, and storage medium | |
JP2020039063A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2019140483A (ja) | 画像処理システム、画像処理システムの制御方法、伝送装置、伝送方法及びプログラム | |
JP7195791B2 (ja) | 画像処理装置、情報処理方法及びプログラム | |
EP3926949A1 (en) | Control apparatus, control method, and program | |
JP2020126393A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP2020039072A (ja) | 情報処理装置、情報処理方法及びプログラム | |
TW202130169A (zh) | 實現3d拍攝的方法、裝置及3d顯示終端 | |
JP2022098116A5 (ja) | 画像処理システム、画像処理方法およびプログラム | |
JP2019080183A (ja) | 画像伝送装置、画像伝送方法、及びプログラム | |
CN117544839A (zh) | 一种组合摄像头的图像获取方法、装置、设备及存储介质 |