JP2021090127A - 制御装置、制御方法、及び、プログラム - Google Patents

制御装置、制御方法、及び、プログラム Download PDF

Info

Publication number
JP2021090127A
JP2021090127A JP2019218930A JP2019218930A JP2021090127A JP 2021090127 A JP2021090127 A JP 2021090127A JP 2019218930 A JP2019218930 A JP 2019218930A JP 2019218930 A JP2019218930 A JP 2019218930A JP 2021090127 A JP2021090127 A JP 2021090127A
Authority
JP
Japan
Prior art keywords
image data
communication
image
communication means
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019218930A
Other languages
English (en)
Inventor
基治 鈴木
Motoharu Suzuki
基治 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019218930A priority Critical patent/JP2021090127A/ja
Publication of JP2021090127A publication Critical patent/JP2021090127A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

【課題】 同期信号の伝送が制限されることを抑制する。【解決手段】 画像処理システム100におけるセンサシステム110は、他のセンサシステム110又はスイッチングハブ115と、画像データ及び同期信号を通信するためのネットワーク113を有する。センサシステム110におけるカメラアダプタ111は、ネットワーク113の状態に基づいて、画像データと同期信号とを通信する処理モード(リアルタイムモード)と、及び、画像データの通信を行わず、同期信号を通信する処理モード(バッチモード)とのうちいずれかを実行する。【選択図】 図1

Description

本発明は、仮想視点画像を生成する技術に関するものである。
近年、撮像領域の周囲に複数の撮像装置を配置し、各撮像装置を同期させて撮像領域を撮像することにより得られる複数の撮像画像を用いて、指定された視点(仮想視点)から見た画像(仮想視点画像)を生成する技術が注目されている。このような仮想視点画像を生成する技術によれば、例えば、スポーツの試合やコンサート等のイベントを様々な角度から視聴することが出来るため、ユーザに高臨場感を与えることが出来る。
特許文献1には、複数の撮像装置が撮像することにより得られる撮像画像に基づく画像データを用いて、仮想視点画像を生成する方法について記載されている。各撮像装置はネットワークを介して画像データを画像処理装置に送信する。また、特許文献1には、撮像画像を取得するための複数の撮像装置の撮像タイミングを同期させる方法についても記載されている。すなわち、各撮像装置はIEEE1588規格のPTP(Precision Time Protocol)の機能を有し、タイムサーバからネットワークを介して同期信号を受信して時刻同期処理を行うことにより、各撮像装置の撮像タイミングが同期される。撮像装置同士の同期の精度が高いほど、生成される仮想視点画像の画質は高くなる。
特開2017−211828号公報
しかしながら、特許文献1のように、画像データと、時刻同期処理に使用される同期信号とが同一のネットワークを介して伝送される場合、以下の問題が発生しうる。すなわち、同期信号と比較してデータサイズの大きい画像データの伝送により、ネットワークの伝送帯域が圧迫され、画像データの伝送の制限に加え、同期信号の伝送も制限される場合がある。これにより、撮像装置同士の同期の精度が低下する可能性がある。
本発明は上記の課題に鑑みてなされたものである。その目的は、同期信号の伝送が制限されることを抑制することである。
本発明に係る制御装置は、複数の撮像手段のそれぞれが行う撮像を同期させるための同期信号と、前記撮像手段が撮像することにより得られる撮像画像に基づく画像データとを通信するための通信手段の状態に関する情報を取得する取得手段と、前記取得手段により取得された情報が示す前記通信手段の状態が所定の条件を満たす場合、前記通信手段を用いた前記画像データの通信が行われ、前記取得手段により取得された情報が示す前記通信手段の状態が所定の条件を満たさない場合、前記通信手段を用いた前記画像データの通信が制限され、且つ、前記通信手段の状態が前記所定の条件を満たす場合及び満たさない場合のいずれの場合であっても、前記通信手段を用いた前記同期信号の通信が行われるように、前記画像データ及び前記同期信号の通信を制御する制御手段とを有することを特徴とする。
本発明によれば、同期信号の伝送が制限されることを抑制することができる。
画像処理システムの機能構成を説明するための図である。 カメラアダプタの機能構成を説明するための図である。 カメラによる同期撮像処理を説明するための図である。 画像処理システムにおいて通信される通信パケットのフローを説明するための図である。 センサシステムの動作シーケンスを説明するための図である。 コントローラの動作シーケンスを説明するための図である。 カメラアダプタのハードウェア構成を説明するための図である。
以下、本発明の実施形態について、図面を参照しながら説明する。なお、以下の実施形態に記載される構成要素は、本発明の実施の形態の一例を示すものであり、本発明をそれらのみに限定するものではない。
本実施形態においては、仮想視点画像を生成するための処理を行う画像処理システムについて説明する。仮想視点画像とは、複数の撮像装置による撮像に基づく複数の画像と、指定された任意の視点(仮想視点)とに基づいて、指定された仮想視点からの見えを表す画像である。また、本実施形態における仮想視点画像は、自由視点画像とも呼ばれるものであるが、ユーザが自由に(任意に)指定した視点に対応する画像に限定されず、例えば複数の候補からユーザが選択した視点に対応する画像なども仮想視点画像に含まれる。また、本実施形態における仮想視点画像は、静止画及び動画のいずれであってもよい。また、画像処理システムが扱う画像データについても、静止画及び動画のいずれであってもよい。すなわち、本実施形態の画像処理システムは、静止画及び動画の何れについても処理可能であるものとする。
本実施形態における画像処理システムが有する各装置のハードウェア構成について、図7を用いて説明する。図7に示すカメラアダプタ111は、CPU701、ROM702、RAM703、補助記憶装置704、表示部705、操作部706、通信I/F707、及びバス708を有する。なお、後述するタイムサーバ、画像コンピューティングサーバ、コントローラ、及びエンドユーザ端末についても、CPU、ROM、RAM、補助記憶装置、表示部、操作部、通信I/F、及びバスの少なくともいずれかを有するハードウェア構成となりうる。ここでは、各部の特徴について、カメラアダプタ111を例として説明する。
CPU701は、ROM702やRAM703に格納されているコンピュータプログラムやデータを用いてカメラアダプタ111の全体を制御することで、カメラアダプタ111が有する各処理部の機能を実現する。なお、カメラアダプタ111がCPU701とは異なる1又は複数の専用のハードウェアを有し、CPU701による処理の少なくとも一部を専用のハードウェアが実行してもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。ROM702は、変更を必要としないプログラムなどを格納する。RAM703は、補助記憶装置704から供給されるプログラムやデータ、及び通信I/F707を介して外部から供給されるデータなどを一時記憶する。補助記憶装置704は、例えばハードディスクドライブ等で構成され、画像データや音声データなどの種々のデータを記憶する。
表示部705は、例えば液晶ディスプレイやLED等で構成され、ユーザがカメラアダプタ111を操作するためのGUI(Graphical User Interface)などを表示する。操作部706は、例えばキーボードやマウス、ジョイスティック、タッチパネル等で構成され、ユーザによる操作を受けて各種の指示をCPU701に入力する。CPU701は、表示部705を制御する表示制御部、及び操作部706を制御する操作制御部として動作する。
通信I/F707は、カメラアダプタ111の外部の装置との通信に用いられる。例えば、カメラアダプタ111が外部の装置と有線で接続される場合には、通信用のケーブルが通信I/F707に接続される。カメラアダプタ111が外部の装置と無線通信する機能を有する場合には、通信I/F707はアンテナを備える。バス708は、カメラアダプタ111の各部をつないで情報を伝達する。
本実施形態では表示部705と操作部706とがカメラアダプタ111の内部に存在するものとするが、表示部705と操作部706との少なくとも一方がカメラアダプタ111の外部に別の装置として存在していてもよい。また、表示部705と操作部706とのいずれか又は両方がない構成であってもよい。これらは、後述するタイムサーバ、画像コンピューティングサーバ、及びエンドユーザ端末等についても同様に当てはまる。
次に、図1を用いて、画像処理システム100の機能構成について説明する。画像処理システム100は、画像処理システム100は、センサシステム110a―センサシステム110z、画像コンピューティングサーバ118、コントローラ119、スイッチングハブ115、タイムサーバ116、及び、エンドユーザ端末120を有する。以下、各処理部について説明する。
センサシステム110a―センサシステム110zは、それぞれ撮像領域の撮像を行い、撮像により得られた撮像画像に基づく画像データを、後述する画像コンピューティングサーバ118に送信する。センサシステム110a―センサシステム110zは、それぞれ撮像領域を撮像するためのカメラ112a−112z及びセンサシステムを制御するためのカメラアダプタ111a−カメラアダプタ111zを有する。以降の説明においては、特別な説明がない場合は、センサシステム110aからセンサシステム110zまでの26セットのシステムを区別せず、単にセンサシステム110と記載する。各センサシステム110が有するカメラ112a−カメラ112z及びカメラアダプタ111a−カメラアダプタ111zについても同様に、特別な説明がない場合は区別せず、単にカメラ112及びカメラアダプタ111と記載する。なお、センサシステムの台数として26セットと記載しているが、あくまでも一例であり、台数をこれに限定するものではない。
また、本実施形態における画像処理システム100は、撮像手段として複数のカメラ112を有する構成であるが、これに限定されない。例えば、一つの筐体に複数の撮像部が含まれる装置を有する構成であってもよい。また、各センサシステム110が有する各カメラ112は同一符号(112)を用いて説明するが、各カメラ112同士の性能、設定及び機種等が異なっていてもよい。
本実施形態における複数のセンサシステム110は、デイジーチェーン接続される。この接続形態により、撮像画像の4Kや8Kなどへの高解像度化及び高フレームレート化に伴う画像データの大容量化において、接続ケーブル数の削減や配線作業の省力化ができる効果があることをここに明記しておく。図1に示す各センサシステム110は、それぞれネットワーク113a−113yにより接続される。以降の説明において、特別な説明がない場合は、ネットワーク113a−113yを区別せず、単にネットワーク113と記載する。また、デイジーチェーン接続の終端となるセンサシステム110aが有するカメラアダプタ111aは、ネットワーク114によりスイッチングハブ114と接続される。ただし、センサシステム110の接続方法はこれに限定されない。例えば、各センサシステム110a−110zがスイッチングハブ115に接続されて、スイッチングハブ115を経由してセンサシステム110間のデータ送受信を行うスター型のネットワーク構成としてもよい。
また、図1ではセンサシステム110a−110zの全てがデイジーチェーン接続されている構成を示したがこれに限定するものではない。例えば、複数のセンサシステム110をいくつかのグループに分割して、分割したグループ単位でセンサシステム110同士がデイジーチェーン接続され、各グループの終端となるカメラアダプタ111がスイッチングハブ115に接続される構成であってもよい。グループごとにデイジーチェーン接続される構成は、以下のような場合に有効である。例えば、複数フロアにより構成されるスタジアムにおいて、フロア毎にセンサシステム110を配備する場合について考える。このとき、フロア毎又はスタジアムの半周毎にセンサシステム110をグループ分けし、グループごとにデイジーチェーン接続をすることにより、全センサシステム110を1つのデイジーチェーンで接続する配線が困難な場所でもシステムの設置が可能となる。
また本実施形態におけるセンサシステム110は、カメラ112及びカメラアダプタ111を有するが、この構成に限定するものではない。例えば、マイク等の音声デバイスや、カメラの向きを制御する雲台等を含んでも良い。このように、センサシステムy110が他の処理部を有する構成であってもよい。また例えば、センサシステム110は1台のカメラアダプタ111と、複数のカメラ112により構成されてもよいし、1台のカメラ112と複数のカメラアダプタ111により構成されてもよい。即ち、同期撮影システム100内の複数のカメラ103と複数のカメラアダプタ101はN対M(NとMは共に1以上の整数)で対応する。また、カメラ112とカメラアダプタ111とが同一の筐体により構成されてもよい。また、カメラアダプタ111の機能の少なくとも一部を、後述する画像コンピューティングサーバ118が有していてもよい。また、複数のセンサシステム110のそれぞれが異なる構成であってもよい。
センサシステム110の動作について説明する。ここで、センサシステム110bを例として説明する。センサシステム110bが有するカメラアダプタ111bは、カメラ112bが撮像することにより取得された撮像画像に対し、後述する画像処理を行うことにより、撮像画像に基づく画像データを取得する。また、取得された画像データは、センサシステム110aと接続される通信路であるネットワーク113aを通して、センサシステム110aのカメラアダプタ111aに伝送される。センサシステム110aは、センサシステム110bから伝送された画像データを、スイッチングハブ115に伝送する。また、センサシステム110aが有するカメラアダプタ111aは、カメラ112aが撮像することにより取得された撮像画像に対して、カメラアダプタ111bが行う処理と同様の画像処理を行い、取得された画像データをイッチングハブ115に伝送する。センサシステム110c−110zも、それぞれ上述の処理と同様の処理を実施する。これにより、センサシステム110a―センサシステム110zが取得した画像データは、センサシステム110aからネットワーク114を用いてスイッチングハブ115に伝送され、その後、後述する画像コンピューティングサーバ118に伝送される。
画像コンピューティングサーバ118は、センサシステム110から伝送される画像データに対し、以下の処理を行う。まず、画像コンピューティングサーバ118は、画像データの再構成を行う。画像データは、センサシステム110によりパケットに分割された画像パケットとして伝送される。画像コンピューティングサーバ118は、伝送された画像パケットを用いて画像データを再構成する。また、画像コンピューティングサーバ118は、再構成した画像データを、画像データの取得元であるカメラの識別子、及びデータ種別等の情報と関連付けて記憶する。また、画像データが動画である場合は、例えば動画フレームごとに画像データをまとめた形で記憶する。
また、画像コンピューティングサーバ118は、コントローラ119から取得される情報と、画像データとに基づいて、仮想視点画像の生成を行う。コントローラ119は、画像処理システム100を制御するための入力や、仮想視点を指定するための入力を受け付ける。コントローラ119と画像処理システム100が有する各処理部とはネットワークにより接続される。ネットワークとしては、例えば、Ethernet(登録商標)であるIEEE標準準拠のGbE(ギガビットイーサーネット)や10GbE等が使用される。しかし、それ以外にもインターコネクトInfiniband、及び産業用イーサーネット等を組合せて構成されてもよい。また、これらに限定されず、他の種別のネットワークであってもよい。例えば、IEEE802.11標準準拠のWireless LANで構築されても良い。
画像コンピューティングサーバ118は、コントローラ119が受け付けた、仮想視点を指定するための入力を取得し、取得した入力に基づいて指定される仮想視点に対応する仮想視点画像を生成する。このとき、画像コンピューティングサーバ118は、指定された仮想視点に応じて、必要な画像データを読み出し、読み出した画像データを用いてレンダリング処理を行うことにより仮想視点画像を生成する。生成された仮想視点画像は、画像コンピューティングサーバ118からエンドユーザ端末120に送信さる。これにより、エンドユーザ端末120を操作するユーザは生成された仮想視点画像を閲覧することが出来る。なお、画像コンピューティングサーバ118の機能の少なくとも一部を、コントローラ119、センサシステム110、又はエンドユーザ端末120等が有する構成でもよい。
タイムサーバ116は、時刻情報、及び、2つ以上のカメラ112が行う撮像を同期するための同期信号を配信する機能を有する。タイムサーバ116はGPS(Global Positioning System)117から時刻情報を取得する。また、タイムサーバ116は、取得した時刻情報を用いて画像処理システム100の時刻同期をするための処理を行う。具体的には、タイムサーバ116は、スイッチングハブ115を介して各センサシステム110に時刻及び同期信号を配信する。時刻と同期信号を受信したカメラアダプタ111は、タイムサーバ116から受信した時刻及び同期信号に基づいて、カメラ112にGenlock(Generator Lock)信号を伝送し、撮像により取得される撮像画像を同期する。即ち、タイムサーバ116は、複数のカメラ112が行う撮像のタイミングを同期させる役割を担う。これにより、画像処理システム100は、同じタイミングで撮像されることにより取得された複数の撮像画像に基づいて仮想視点画像を生成することが可能となる。
なお、本実施形態においては、タイムサーバ116が複数のカメラ112の時刻同期を管理するものとするが、これに限らず、時刻同期のための処理を各カメラ112又は各カメラアダプタ111が独立して行ってもよい。また、タイムサーバ116が、時刻設定方法として、GPS117を用いる場合について説明したが、これに限定されない。タイムサーバ116は、例えば、NTP(Network Time Protocol)など他の方法により時刻を設定してもよい。以上が画像処理システム100の全体構成に関する説明である。
次に、画像処理システム100が実行する処理モードについて説明する。画像処理システム100は2つの処理モードを実行することが可能である。1つは、撮像対象の撮像開始から低遅延で仮想視点画像を生成するモードで、本実施形態においてはこのモードをリアルタイムモードと表現する。このモードでは、例えば、スポーツ競技やコンサート等のイベントが撮像される場合に、イベントが撮像されるたびに逐次仮想視点画像が提供される。もう1つは、撮像対象の撮像後、一定期間経過後に仮想視点画像を作成するモードで、本実施形態においてはこのモードをバッチモードと表現する。このモードでは、例えばイベントが撮像される場合に、イベントの終了後に仮想視点画像の生成が開始される。リアルタイムモードは低遅延で仮想視点画像が生成される。このとき、センサシステム110により、撮像処理に必要な同期信号の通信と、画像データの通信とが同期間に行われるように制御される。一方バッチモードでは、各センサシステム110は、撮像終了後、すなわち同期信号の通信が不要になってから、画像データを伝送することができる。すなわち、バッチモードにおいては、同期信号の通信が行われる間は画像データの通信は行われないように、センサシステム110によりデータの通信が制御される。よって、リアルタイムモードとバッチモードとを比較したとき、リアルタイムモードの方が広い伝送帯域が必要となる。この性質より、例えば光ケーブル等のように他の通信路と比較して安定的に広い伝送帯域を望める通信路を用いた場合はリアルタイムモードを選択し、安定的な伝送帯域の確保が必ずしも望めない場合はバッチモードを選択するといった運用が考えられる。
また、画像処理システム100は、処理中にリアルタイムモードとバッチモードとを切り替えることが可能である。すなわち、画像処理システム100は、処理の開始時はリアルタイムモードによる処理を実行するが、処理後途中からバッチモードに変更して処理を実行することができる。処理モードを切り替える場合としては、例えば、不測の事態でネットワークの伝送帯域確保が難しくなった場合、あるいは伝送するデータ量が増加することにより、所定の時間以内にデータの伝送が不可能になった場合等である。このような場合に、処理モードの変更を行うことにより、通常時はリアルタイムモードによる低遅延での仮想視点画像の生成を行い、通信路の状態が途中で変化しても、必要最低限の伝送帯域を使用し同期信号のみ送信することが可能となる。すなわち、センサシステム110は、リアルタイムモード及びバッチモードのいずれの場合であっても、同期信号の通信は制限しないように、同期信号の通信を制御する。これにより、画像処理システム100は、カメラ112による撮像の同期の精度を低下させることなく撮像を継続することが可能となる。なお、リアルタイムモード及びバッチモードは、所定の条件を満たすか否かに応じて決定されるが、これについては後述する。以上が、画像処理システム100が実行する処理モードに関する説明である。
次に、カメラアダプタ111の機能構成について、図2を用いて説明する。カメラアダプタ111は、ネットワーク部240、伝送部230、画像処理部220、及び、カメラ制御部210から構成されている。以下、各処理部について説明する。
カメラ制御部210は、カメラ112と接続し、カメラ112の制御、撮像画像の取得、同期信号の提供、及び時刻設定などの処理を行う機能を有している。カメラ112の制御は、例えば撮像パラメータ(画素数、色深度、フレームレート、及びホワイトバランス等)の設定及び参照、カメラ112の状態(撮像中、停止中、同期中、及びエラー状態等)の取得、撮像の開始、停止、及びピント調整の制御等である。同期信号の提供は、後述する伝送部230における時刻同期制御部233がタイムサーバ116と同期した時刻を利用し、撮像タイミング(制御クロック)をカメラ112に提供することにより行われる。時刻設定は、時刻同期制御部233がタイムサーバ116と同期した時刻を、例えばSMPTE12Mのフォーマットに準拠したタイムコードを提供することにより行われる。これにより、カメラ112が撮像することにより取得された撮像画像に基づく画像データに、提供したタイムコードが付与される。なおタイムコードのフォーマットはSMPTE12Mに限定されず、他のフォーマットであってもよい。なお、カメラ制御部210は、カメラ112に対するタイムコードの提供はせず、カメラ112から取得した画像データに対してタイムコードを付与してもよい。
画像処理部220は、カメラ制御部210が行う制御に基づいてカメラ112が撮像することにより取得された撮像画像に基づいて、仮想視点画像の生成に使用される画像データを取得するための画像処理を行う。画像処理部220は、直接接続されたカメラ112から取得される撮像画像だけでなく、他のカメラアダプタ111から伝送された画像データに対しても画像処理を行うことが可能である。
画像処理部220が行う画像データを取得するための画像処理の例について説明する。画像処理部220は、撮像画像に基づいて、被写体領域を分離する処理を行う。この処理は、撮像画像における被写体(例えば、選手やボール等)に対応する領域を抽出する処理である。画像処理部220は、複数のカメラ112により連続する時間において撮像された複数の撮像画像同士を比較することにより、画素値に変化のない領域を検出する。画像処理部220は、検出した領域を背景領域であると判定し、背景領域に基づいて背景画像を生成する。また、画像処理部220は、生成した背景画像と撮像画像とを比較し、画像値の差が所定の閾値以上である領域を被写体領域であると判定し、被写体領域を抽出し、被写体領域を示す被写体画像(前景画像)を生成する。なお、被写体領域を抽出する方法は上記に限定されない。画像処理部220は、例えば、連続する時間において撮像された複数の撮像画像同士を比較し、画素値の変化量が所定の閾値以上である領域を被写体領域として抽出してもよい。
画像処理部220は、抽出した被写体領域に基づいて、撮像画像における被写体の領域を示すシルエット画像を生成する。画像処理部220は、撮像画像において被写体領域に対応する画素の値を「1」、及び被写体領域以外の領域に対応する画素の値を「0」とすることにより、シルエット画像を生成する。なお、画素値は一例であり、他の値が使用されてもよい。また、画像処理部220は、抽出した被写体領域に基づいて、被写体の形状を表す形状データに色付けをするためのテクスチャデータを生成する。テクスチャデータは、撮像画像における被写体領域に対応する画素の値に基づいて生成される。
画像処理部220は、被写体の形状を表す形状データを生成する。ここでは、形状データとして、被写体の3次元形状を表す3次元モデルデータが生成されるものとする。本実施形態における3次元モデルデータは、シルエット画像に基づいて、視体積交差法を用いて生成される。以上述べたように、画像処理部220は、画像データとして、前景画像、シルエット画像、テクスチャデータ、及び3次元形状データを生成する。なお、必ずしも画像処理部220が上記の画像処理をすべて行う構成でなくてもよい。例えば、画像処理部220は、画像データとして、前景画像、シルエット画像、テクスチャデータ、及び3次元形状データのうち少なくともいずれかを生成する画像処理を行う構成であってもよい。また、画像処理部220は、上記の画像処理を行わず、画像データとして撮像画像を扱う構成であってもよい。画像処理部220で行われなかった画像処理が画像コンピューティングサーバ118で行われる構成でもよい。
伝送部230は、後述するネットワーク部240を介したデータの伝送を制御する機能を有する。伝送部230は、データルーティング情報保持部231、データルーティング処理部232、時刻同期制御部233、及び、画像伝送処理部234を有する。データルーティング情報保持部231は、後述するネットワーク部240におけるデータ送受信部241が送受信するデータの伝送先を決定するためのアドレス情報を保持する。データルーティング処理部232は、データルーティング情報保持部231が保持するデータを利用し、データ送受信部241が受信したデータ及び画像処理部220で処理されたデータの伝送先を決定し、決定した伝送先にデータを送信する。
時刻同期制御部233は、IEEE1588規格で規定されるPTP(Precision Time Protocol)に準拠し、タイムサーバ116と時刻同期に係わる処理を行う機能を有する。また、本機能に付随する同期処理部242の制御、及び、カメラアダプタ111で使用されるローカルタイムの管理を行う。なお、時刻同期制御部233は、PTP以外の他のプロトコルを利用して時刻同期する構成であってもよい。画像伝送処理部234は、画像データを、データ送受信部241を介して他のカメラアダプタ111又は画像コンピューティングサーバ118へ伝送するためのメッセージを生成する。画像伝送処理部234が生成するメッセージには、画像データ及び画像データに関するメタ情報が含まれる。また、画像伝送処理部234は、データ送受信部241を介して、他のカメラアダプタ111から伝送されるメッセージを受信する。画像伝送処理部234は、メッセージに含まれるデータ種別に応じて、伝送プロトコル規定のパケットサイズに分割された画像パケットから、画像データを再構成する。
ネットワーク部240は、データ送受信部241、同期処理部242、インターフェースA250、及び、インターフェースB251を有する。データ送受信部241は、スイッチングハブ115を介して、画像コンピューティングサーバ118、タイムサーバ116、及びコントローラ119とデータ通信を行う。また、データ送受信部241は、ネットワーク113を介して、他のカメラアダプタ111とデータ通信を行う。データ送受信部241は、カメラ112から取得された撮像画像に基づいて画像処理部220により取得された画像データを、別のカメラアダプタ111に伝送する。このときの画像データの伝送先のカメラアダプタ111は、データルーティング処理部232により決定されるカメラアダプタ111である。同期処理部242は、例えばIEEE1588規格のOrdinayClockに準拠し、タイムサーバ116との間で送受信したデータのタイムスタンプを保存し、タイムサーバ116との時刻同期を行う。また、後段のセンサシステム110を同期させるための機能として、IEEE1588規格のTransparentClock、また、BoundaryClockの機能も有していると良い。なお、同期処理部242は、IEEE1588以外の他のEtherAVB規格、又は独自プロトコルによってタイムサーバ116との時刻同期を実現してもよい。
また、本実施形態においては、ネットワーク部240として、例えばNIC(NetworkInterface Card)等が使用される。ただしこれに限定されず、同様の他のInterfaceを利用してもよい。なお、IEEE1588はIEEE1588−2002、IEEE1588−2008のように標準規格として更新されており、後者については、PTPv2(Precision Time Protocol Version2)とも呼ばれる。同期処理部242が利用する企画は、上記のいずれの規格でもよい。
インターフェースA250及びインターフェースB251は、図7における通信I/F707に対応する処理部である。インターフェースA250及びインターフェースB251として使用されるネットワークは、Ethernet(登録商標)であるIEEE標準準拠のGbE(ギガビットイーサーネット)及び10GbE等のいずれでもよい。また、インターフェースA250及びインターフェースB251は、インターコネクトInfiniband及び産業用イーサーネット等を組合せた構成であってもよい。また、これらに限定されず、IEEE802.11標準準拠のWireless LAN等の他の種別のネットワークが使用されてもよい。
次に、カメラ112が行う同期撮像処理について、図3を用いて説明する。図3に示す処理は、タイムサーバ及びカメラアダプタにおけるCPUがROMまたは補助記憶装置に記憶されたプログラムを読み出して実行することにより実現される。なお、以下の説明においては、処理ステップを単にSと表記する。また、以下の処理において、同様の処理が複数回行われる処理ステップについては、例えば一回目のS302の処理はS302i、二回目のS302の処理はS302ii・・・というように記載する。画像処理システム100が、カメラ112による撮像を開始する指示を受け付けると、処理が開始される。
タイムサーバ116は、GPS117と時刻同期を行い、タイムサーバ116内で管理される時刻の設定を行う(S301)。カメラアダプタ111は、タイムサーバ116との間でPTPを使用した通信を行い(S302i)、カメラアダプタ111内で管理される時刻を補正し、タイムサーバ116と時刻同期を行う(S303i)。カメラアダプタ111は、カメラ112に対して、Genlock信号や3値同期信号等の同期撮影信号及びタイムコード信号を提供する(S304i)。なお提供される情報はタイムコードに限定されるものではなく、撮像画像、画像データ、あるいは撮像により得られた動画における動画フレームを識別できる識別子であれば他の情報でもよい。Genlock信号および3値同期信号を受信したカメラ112は、Genlock信号に応じた同期処理を行う(S305i)。そして、カメラアダプタ111はカメラ112に対して撮像開始指示を行う(S306)。カメラ112は、撮像開始指示を受けると、Genlock信号に基づいて同期撮像を行う(S307)。カメラ112は、撮像により取得した撮像画像にタイムコード信号を付与し、カメラアダプタ111に伝送する(S308)。カメラ112が撮像を停止するまで、Genlock信号に基づく同期撮像が行われる。
カメラアダプタ111は、撮像途中に時刻同期を行うことで、同期の補正を行うことが可能である。カメラアダプタ111は、タイムサーバ116との間でPTPを使用した時刻同期の処理を行い(S302ii/S303ii)、Genlock信号の発生タイミングを補正する(S304ii/S305ii)。なお、あらかじめ決められた補正量に基づいて補正が行われる構成でもよい。以上の処理により、画像処理システム100における複数のカメラ112の同期撮像が実現される。なお、本実施形態においては、Genlock信号を用いた同期撮像の方法について説明したが、Genlock信号を用いず、撮像毎にカメラアダプタ111から撮像開始指示を送信することにより、撮像するタイミングを揃える方法が用いられてもよい。
次に、図4を用いて、図3に示す処理を含んだ画像処理システム全体の動作についてより詳細に説明する。図4は、画像処理システム100において通信される通信パケットのフローについて説明するための図である。なお、図4において、図3の処理と同様の処理ステップについては、同じ符号が付されている。また、図4においては、例えばセンサシステム110aが行うS302の処理はS302a、センサシステム110bが行うS302の処理はS302bというように区別して記載される。ただし、以下の説明においては、特に区別する必要がない場合は、S302a−S302zを、単にS302と記載する。
タイムサーバ116は、GPS117を利用してGPSと時刻同期をする(S301)。また、センサシステム110は、タイムサーバ116と時刻同期を行うための時刻同期パケットの通信を行い(S302)、タイムサーバ116との時刻同期を行う(S303)。ここで、時刻同期パケットとは、同期信号を通信用のパケットに分割したものである。全てのセンサシステム110が同期処理を行うことにより、システム全体の時刻同期(S401i)が完了する。なお、このシステム同期は定期的に実行される。時刻同期の更新頻度は、各センサシステム110が使用しているクロック精度と、画像処理システム100に必要となる同期精度要件とに基づいて決定されるのが良い。
システム全体の時刻同期(S401i)が完了すると、各センサシステム110におけるカメラ112は、カメラアダプタ111が生成するGenlock信号に同期した撮像処理を行う(S307)。これにより、画像処理システム100としての同期撮像(S402i)が実行される。同期撮像が実行されると、各センサシステム110は、撮像により取得された撮像画像に基づく画像データを、画像パケットとして画像コンピューティングサーバ118に伝送する。図4においては、センサシステム110zからセンサシステム110aに向かって順に画像データが伝送される例について示しているが、特にこの順に限定されない。全てのセンサシステム110からの画像データの伝送を以って、画像データの一括伝送(S403i)が完了する。なお、この同期撮像(S402)および画像データの一括伝送(S403)も定期的に行われる。これらの頻度は、例えば仮想視点画像を動画像として生成する場合には、その動画像の単位時間あたりの動画フレーム数(FPS:Frames Per Second)に基づいて決定されるのが良い。
ここで、本実施形態のようにデイジーチェーン接続されたネットワークを使用した場合は、各通信路を流れる通信データのトラフィック量に偏りが生じる。すなわち、スイッチングハブ115と、センサシステム110a間を接続するネットワーク114におけるデータのトラフィック量が最も多く、センサシステム110z側に近づくにつれて、ネットワーク113におけるデータのトラフィック量は減少する。
次にセンサシステム110の動作シーケンスについて、図5を用いて説明する。画像処理システム100が起動すると、処理が開始される。最初に、各センサシステム110の電源がOnに切り替わる(S501)。次に、各センサシステム110のネットワーク設定が行われる(S502)。具体的には、IPアドレスの設定が挙げられる。IPアドレスは、静的に割り振られても良いし、DHCP(Dynamic Host Configuration Protocol)により動的に割り当てられてもよい。ネットワーク設定の後、センサシステム110は、時刻同期に関する設定を行う(S503)。具体的には、図3におけるS302〜S305の処理が行われる。時刻同期が完了した後、各センサシステム110は、コントローラ119に対して時刻同期が完了したことを通知するようにすると良い。これにより、コントローラ119を操作するユーザは、時刻同期が完了したことを認識することができる。時刻同期の完了後、処理モードの設定が行われる(S504)。各センサシステム110は、リアルタイムモード又はバッチモードのいずれの処理モードを実行するかを指定するための入力をコントローラ119から取得する。なお、センサシステム110の起動時に、あらかじめ設定された処理モードが自動で実行される構成でもよい。処理モードの設定を終えた各センサシステム110は、コントローラ119に対し撮像開始を指示するための入力があるまで(S505において「受信」となるまで)待機する。
コントローラ119に対し撮像開始を指示するための入力がされると、各センサシステム110は動作を開始する。主に5つの処理を実施する。1つ目は、タイムサーバ116との時刻同期を維持するための同期処理を定期的に実施する処理である(S507)。具体的には、図3におけるS302〜S305に示す時刻同期を補正する処理が行われる。2つ目は、撮像処理である(S508)。具体的には、図3におけるS306及びS307に示す同期撮像が実行される。
3つ目は、画像データの伝送処理である。この処理は、リアルタイムモード(S509でYes)の場合にのみ行われる。リアルタイムモードが実行される場合、各センサシステム110は、撮像画像に基づく画像データを画像パケットとして画像コンピューティングサーバ118に向けて伝送する(S510)。一方バッチモードが実行される場合は、各センサシステム110は、画像データを各センサシステム110が有する記憶領域に保存し、画像データの伝送はこの段階では行わない。
4つ目は、センサシステム110の状態を通知する処理である。センサシステム110は通信路の状態を監視する(S511)。センサシステム110は、例えば、各通信路の接続状態、リンク速度、及び使用される伝送帯域等の状態を監視する。また、通信路が無線である場合は、センサシステム110は、例えばBit Error Rate(BER)、及びSNR(Signal−Noise Ratio)等の状態をリアルタイムに監視する。センサシステム110は、通信路の状態を示す情報を逐次、又は、状態の異常発生時、若しくは検出した値が所定の閾値を超えた場合等に、コントローラ119に送信する(S512)。
5つ目は、転送処理である。各センサシステム110は、インターフェースA(250)、またはインターフェース(251)から受信したパケットが他機器宛のパケットであった場合(S514でYes)、転送処理を行う(S514)。本実施形態のようにデイジーチェーンで構成される場合、センサシステム110は、インターフェースA250及びインターフェースB251のうち一方のインターフェースを用いて通信パケットを受信する。また、センサシステム110は、もう一方のインターフェースを用いて、受信した通信パケットを他のセンサシステム110又はスイッチングハブ115に伝送する。
以上が、主な5つの処理である。この5つの処理は、コントローラ119から何らかの指示があるまで継続して実行される(S506)。コントローラ119から追加の指示を受けた場合、指示内容に応じて処理が分岐する(S515)。処理の中断指示があった場合、センサシステム110は、処理を中断し(S516)、処理の再開指示があるまで待機する。処理モードの変更指示があった場合、センサシステム110は、処理モードの変更内容を確認し、処理モードを変更する(S517)。処理モードが変更された後は、センサシステム110は、変更した処理モードに応じてS506以降の処理を実行する。なお、ここでいう処理モードとは、リアルタイムモード及びバッチモードのことであるが、それ以外のモードあるいは指示が含まれていてもよい。例えば、カメラの画質及びフレームレート等の撮像の設定を変更するための指示が含まれていてもよい。コントローラ119から処理を終了させる指示があった場合は、各センサシステム110はS506〜S515の処理を終了する(S518)。ここで、センサシステム110の記憶領域内に未送信の画像データがある場合(S519でYes)は、その画像データを画像コンピューティングサーバ118に伝送する(S520)。センサシステム110の記憶領域内に未送信の画像データがあるのは、例えばバッチモードの処理が実行されている場合である。その他にも、伝送するデータ量が増加したために一部の画像データを伝送しなかった場合等も想定される。全ての画像データの伝送が完了した場合(S510でNo)、センサシステム110は、コントローラ119に対して、処理が完了したことを通知する(S521)。以上が、各センサシステム110の動作シーケンスである。
次にコントローラ119の動作シーケンスについて、図6を用いて説明する。画像処理システム100が起動すると、処理が開始される。画像処理システム100が起動し、各センサシステム110及びコントローラ119の電源がOnになると(S601)、コントローラ119は、各センサシステム110のネットワークを設定する(S602)。具体的には、コントローラ119は、IPアドレスの設定及びICMP(Internet Control Message Protocol)による通信の疎通確認を実行する。コントローラ119は、タイムサーバ116及び各センサシステム110に対して同期処理を開始するよう指示する(S603)。
コントローラ119は、全てのセンサシステム110の同期処理が完了したことを検知した後、各センサシステム110に対して処理の開始指示を行う(S604)。ここでいう処理は、図5におけるS506〜S515の処理である。また、コントローラ119は、処理の開始時に実行する処理モード(リアルタイムモード又はバッチモード)も併せてセンサシステム110に通知する。コントローラ119は、処理が終了するまで各センサシステム110の状態を監視し、状態に応じた指示を行う。S506〜S515の処理は、例えばコントローラ119を操作するユーザによる、処理を終了させるための入力に基づいて終了する。また、例えばスポーツ競技やコンサート等のイベントのように、あらかじめ終了時刻又は撮像時間が決まっている場合は、コントローラ119にセットされた終了時刻を迎えるか、所定の撮像時間が経過した後に処理が終了する構成であってもよい。
各センサシステム110に処理の開始指示をしたコントローラ119は、各センサシステム110の状態の監視を始める。コントローラ119は、いずれかのセンサシステム110からステータス情報を受信すると(S606でYes)、そのステータス情報の解析を行う(S607)。ここで、ステータス情報とは、以下のものとする。すなわち、各センサシステム110間の通信路において、利用可能な最大の伝送帯域(以下、最大伝送帯域という)、及び、実際に使用を予定している伝送帯域(以下、予定伝送帯域という)の2つの値であるとする。コントローラ119は、ステータス情報の解析結果に応じた処理及び指示を行う。本実施形態においては、ステータス情報の解析結果に応じた処理及び指示として、処理モードの切り替えに関係する内容について説明する。ただしコントローラ119が行う処理及び指示はこれに限定されるものではない。
ステータス情報の解析方法について説明する。最大伝送帯域は、通信路が所定時間内に通信可能なデータ量を表す指標である。最大伝送帯域は、例えばリンク速度に基づいて算出される。Ethernetであれば、10G/1G/100/10Mbpsなどの値が取得される。無線であれば、例えばIEEE802.11ac、11n、11a、11b/gなどのそれぞれの規格において、実際のデータ伝送時の伝送レートに基づいて算出することができる。予定伝送帯域は、通信路を介して実際に伝送される通信データのデータ量を表す指標であり、以下のように計算される。まず1台のセンサシステム110がPTPを利用した時刻同期のための同期信号に使用する伝送帯域と、画像データの伝送に使用する伝送帯域の二つをUp Link及びDown Linkのそれぞれについて計算する。さらにデイジーチェーンネットワークであれば、下流につながるセンサシステム110の台数を先の計算により算出された伝送帯域の結果に乗算して計上することにより、各通信路の使用伝送帯域を求めることができる。なお、最大伝送帯域及び予定伝送帯域のうち、値が変化しないものは、あらかじめコントローラ119に値がセットされていてもよい。また、最大伝送帯域及び予定伝送帯域のうち、値が動的に変化するものは、コントローラ119が定期的に計算を行うことにより算出されてもよい。また、コントローラ119が最大伝送帯域及び予定伝送帯域を計算するのではなく、センサシステム110が実際に使用している伝送帯域をモニタリングし、定期的にコントローラ119に通知する構成であってもよい。このとき、センサシステム110は、最大伝送帯域及び予定伝送帯域の少なくともいずれかの値が変化した場合に、変化した値をコントローラ119に通知するようにしてもよい。
S604においてコントローラ119が指示した処理モードがバッチモードであった場合(s608において「バッチモード」である場合)、コントローラ119はモードの切り替えは行わず(S616)、各センサシステム110の監視を継続する(S606)。S604においてコントローラ119が指示した処理モードがリアルタイムモードであった場合(S608において「リアルタイムモード」である場合)、処理モードの切り替えを行うか否かを判定する。ここで、コントローラ119は、S607において取得した最大伝送帯域及び予定伝送帯域の比較を行う。最大伝送帯域の値が予定伝送帯域の値以上である場合、通信路の伝送帯域は、リアルタイムモードで動作するに当たり、十分な帯域が確保されていることから、リアルタイムモードを執行すると仮決定する(S610)。一方、最大伝送帯域の値が予定伝送帯域の値未満である場合、バッチモードを実行すると決定する(S613)。
リアルタイムモードを実行すると仮決定した場合、コントローラ119は、他の通信路の状態についても確認を行う。全ての通信路について、リアルタイムモードを実行すると判定されている場合(S611でYes)、コントローラ119は、リアルタイムモードを実行すると決定する(S612)。一方、いずれかの通信路において、バッチモードを実行すると決定されている場合(S611でNo)、コントローラ119は、バッチモードを実行すると判定する(S613)。S612及びS613で決定したモードと、現在実行中のモードが異なる場合(S614でYes)、コントローラ119は各センサシステム110に対し、処理モードを切り替えると判定し、切り替え指示を各センサシステム110に伝送する(S615)。一方、S612及びS613で決定したモードと、現在実行しているモードが一致している場合(S614でNo)、コントローラ119は、処理モードの切り替えを行わないと判定し、実行されている処理モードを継続する(S616)。
コントローラ119は、ユーザによる入力又はあらかじめ設定された終了条件等に基づいて、処理を終了すると判断した場合、各センサシステム110に対して処理の終了指示を伝送する(S617)。コントローラ119は、全てセンサシステム110から動作完了の通知を受け取るまでシステムの監視を行い(S618及びS619)、すべての動作官僚の通知を受け取ると(S618においてYes)、画像処理システム100を終了させる。以上が、コントローラ119の動作シーケンスである。
なお、図6によれば、S604において最初に指示された処理モードがリアルタイムモードであった場合、S615においてバッチモードに切り替わっても、再度S608以降の処理においてリアルタイムモードに切り替わる場合がある。これにより、画像処理システム100は、最初に指示した処理モードを可能な限り実行する構成となっている。ただしこれに限定されない。例えば、S608の処理は行わない構成であってもよい。すなわち、コントローラ119は、S604において指示された処理モードに関わらず、リアルタイムモードを実行可能か否かを定期的に判定する構成であってもよい。また、コントローラ119は、ステータス情報の解析結果をユーザに通知し、ユーザによる処理モードを変更するための指示を受け付ける構成であってもよい。これにより、ユーザはステータス情報を確認したうえで所望する処理モードを実行させることが可能となる。
また、図6の例ではコントローラ119が処理モードを切り替えるか否かの判定を行っているが、各センサシステム110が判定を行い、判定結果をコントローラ119に通知する方法でも良い。その場合、各センサシステム110は、前回通知時の判定結果と変更が生じた場合のみ通知するとしてもよい。また、本実施形態においては、処理モード切り替えの指示はコントローラ119から各センサシステム110に一括で指示されるが、この方法以外でも良い。例えば、リアルタイムモードからバッチモードに切り替える必要がある場合は、切り替えが必要と判定されたセンサシステム110が、他のセンサシステム110に対して処理モードの切り替え指示をする方法を用いても良い。またこのとき、デイジーチェーンネットワークにおいて、センサシステム110から隣のセンサシステム110に切り替えの指示が通知される方法でもよい。逆に、バッチモードからリアルタイムモードに変更する場合には、全てのネットワークの状態を把握する必要があるため、コントローラ119による管理、および、指示が好適である。
また、図6の例では、通信路の最大伝送帯域及び予定伝送帯域に基づいて処理モードの切り替えの判定がされる構成について説明したが、これに限定されない。例えば、通信路の最大伝送帯域及び予定伝送帯域の少なくともいずれかに基づいて処理モードの切り替えの判定がされてもよい。例えば、最大伝送帯域の値が所定の閾値以上である場合、及び予定伝送帯域の値が所定の閾値未満である場合の少なくともいずれかの場合に、リアルタイムモードを実行すると判定される。あるいは、最大伝送帯域の値が所定の閾値未満である場合、及び予定伝送帯域の値が所定の閾値以上である場合の少なくともいずれかの場合に、バッチモードを実行すると判定される。
また例えば、センサシステム110の通信状態に応じて判定がされてもよい。例えば、コントローラ119は、各センサシステム110の通信状態を監視し、いずれかの通信路が切断されるなどのエラーが発生した場合に、処理モードを切り替えると判定する構成であってもよい。また、例えばあるセンサシステム110にエラーが発生し、画像処理ができなくなった場合に、各センサシステム110は、停止したセンサシステム110における画像処理部220を経由せずに通信データが伝送されるように通信路を変更する。この場合、通信経路がより長くなるため、伝送される通信データの品質が低下する可能性がある。ここでいう通信データの品質とは、通信データの解像度及び信号の正確さ等に基づいて決定される指標である。画像データの場合、例えば、伝送される画像データの解像度が所定の基準値よりも高ければ、伝送されるデータの品質が高いと言える。また、同期信号の場合、例えば、伝送される同期信号に誤りが発生する確率が所定の基準値よりも低ければ、伝送されるデータの品質が高いと言える。なお、解像度及び信号の正確さ以外の値に基づいて品質が決定されても構わない。
上記のように、通信経路が長くことにより通信データの品質が低下すると、通信路の最大伝送帯域が低くなる場合がある。このような状況においても、コントローラ119は、変化後の最大伝送帯域の値を取得し、処理モードの切り替え判定を行う。すなわち、コントローラ119は、センサシステム110の通信状態を監視し、エラー及び通信路の変化等により、通信路を用いて所定の品質以上の画像データの通信ができなくなった場合に、画像データの通信を制限するようにセンサシステム110を制御する。また、複数のセンサシステム110のいずれかがエラー及び通信経路の変化等を検知し、コントローラ119に通知する、あるいは検知した結果に基づいて自身の処理を制御する構成であってもよい。このように、通信路に関する種々の状態に応じて処理モードの切り替えの判定が可能である。
また、本実施形態におけるバッチモードは、画像データの通信が行われないようにすることにより、画像データの通信を制限し、同期信号の伝送に使用される帯域を確保する処理モードであるが、画像データのデータ量の制限方法はこれに限定されない。例えば、予定伝送帯域の値が最大伝送帯域の値を超える場合、画像データの少なくとも一部が伝送されないように、画像データのデータ量が制限される構成であってもよい。この場合、センサシステム110は、例えば特定のカメラ112から得られる撮像画像に基づく画像データのみを伝送し、その他のカメラ112から得られる撮像画像に基づく画像データを伝送しない。あるいは、各画像データの少なくとも一部分を伝送しない、又は画像データのうち特定の種別のデータ(例えば、前景画像など)の一部を伝送しない等の処理が行われてもよい。このように、画像データの少なくとも一部が伝送されないことにより、伝送する画像データのデータ量が制限される。なお、伝送しない画像データは一例であり、上記以外の画像データの伝送が制限される構成でもよい。また、例えば、画像データの少なくとも一部について、解像度が荒くなるように変更したり、データ量がより小さくなるように圧縮率を変更したりすることにより、画像データのデータ量が制限される構成であってもよい。これらの構成によれば、すべての画像データの伝送を制限することなく処理を行うことが可能となる。
また、本実施形態においてはすべてのセンサシステム110が同一の処理モードを実施する場合について説明したが、これに限定されない。例えば、あるセンサシステム110について、ステータス情報に基づいて、リアルタイムモードからバッチモードへの切り替えが必要であると判定された場合について考える。このとき、例えば全センサシステム110のうち一部のセンサシステム110から伝送される画像データを削減すればリアルタイムモードの継続が可能である場合は、画像データを削減する対象のセンサシステム110のみバッチモードに切り替えられてもよい。これにより、伝送される画像データが削減されるため、生成される仮想視点画像の品質は低下するものの、同期撮像を継続したまま低遅延での仮想視点画像の提供が可能となる。
以上説明した画像処理システム100は、通信路の状態に基づいて、リアルタイムモード及びバッチモードのいずれかを実行する。この構成により、同期信号の伝送が安定して行われるため、複数の撮像装置が行う撮像の同期の精度の低下を抑制することができる。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
110 センサシステム
111 カメラアダプタ
113、114 ネットワーク

Claims (17)

  1. 複数の撮像手段のそれぞれが行う撮像を同期させるための同期信号と、前記撮像手段が撮像することにより得られる撮像画像に基づく画像データとを通信するための通信手段の状態に関する情報を取得する取得手段と、
    前記取得手段により取得された情報が示す前記通信手段の状態が所定の条件を満たす場合、前記通信手段を用いた前記画像データの通信が行われ、前記取得手段により取得された情報が示す前記通信手段の状態が所定の条件を満たさない場合、前記通信手段を用いた前記画像データの通信が制限され、且つ、前記通信手段の状態が前記所定の条件を満たす場合及び満たさない場合のいずれの場合であっても、前記通信手段を用いた前記同期信号の通信が行われるように、前記画像データ及び前記同期信号の通信を制御する制御手段と
    を有することを特徴とする制御装置。
  2. 前記取得手段は、前記通信手段の状態に関する情報として、前記通信手段を用いて通信される前記画像データ及び前記同期信号のデータ量を示す情報を取得し、
    前記制御手段は、前記取得手段により取得された情報が示す前記データ量が所定の閾値を超えない場合、前記通信手段を用いた前記画像データの通信が行われ、前記データ量が所定の閾値を超える場合、前記通信手段を用いた前記画像データの通信が制限されるように前記画像データの通信を制御する
    ことを特徴とする請求項1に記載の制御装置。
  3. 前記所定の閾値は、前記通信手段が通信可能なデータ量であることを特徴とする請求項2に記載の制御装置。
  4. 前記制御手段は、前記通信手段による通信状態が所定の状態でない場合、前記通信手段を用いた前記画像データの通信が制限されるように、前記画像データの通信を制御する
    ことを特徴とする請求項1乃至3のいずれか1項に記載の制御装置。
  5. 前記所定の状態は、前記通信手段を用いて前記画像データが通信される場合に、所定の品質以上の前記画像データが通信可能な状態である
    ことを特徴とする請求項4に記載の制御装置。
  6. 前記制御手段は、前記取得手段により取得された情報が所定の条件を満たさない場合、前記通信手段を用いて通信される前記画像データのデータ量が制限されるように、前記画像データの通信を制御することを特徴とする請求項1乃至5のいずれか1項に記載の制御装置。
  7. 前記制御手段は、前記取得手段により取得された情報が所定の条件を満たさない場合、前記画像データの少なくとも一部の通信が行われないようにすることにより、前記通信手段を用いて通信される前記画像データのデータ量が制限されるようにすることを特徴とする請求項6に記載の制御装置。
  8. 前記制御手段は、前記取得手段により取得された情報が所定の条件を満たさない場合、前記画像データの少なくとも一部の解像度が変更されるようにする、又は、前記画像データの少なくとも一部の圧縮率を変更されるようにすることにより、前記通信手段を用いて通信される前記画像データのデータ量が制限されるようにすることを特徴とする請求項6又は7に記載の制御装置。
  9. 前記制御手段は、前記画像データを用いて仮想視点画像の生成に係る処理を行う装置、前記同期信号を生成する装置、又は他の画像処理装置に対して行われる画像データの通信及び同期信号の通信を制御することを特徴とする請求項1乃至8のいずれか1項に記載の制御装置。
  10. 前記制御手段は、前記画像データを用いて仮想視点画像の生成に係る処理を行う装置、前記同期信号を生成する装置、及び複数の他の制御装置のうち少なくとも二以上の装置の間で行われる画像データの通信及び同期信号の通信を制御することを特徴とする請求項1乃至8のいずれか1項に記載の制御装置。
  11. 複数の撮像手段のそれぞれが行う撮像を同期させるための同期信号と、前記撮像手段が撮像することにより得られる撮像画像に基づく画像データとを通信するための通信手段の状態に関する情報を取得する取得工程と、
    前記取得工程において取得された情報が示す前記通信手段の状態が所定の条件を満たす場合、前記通信手段を用いて前記画像データの通信を行い、前記取得工程において取得された情報が示す前記通信手段の状態が所定の条件を満たさない場合、前記通信手段を用いた前記画像データの通信を制限し、且つ、前記通信手段の状態が前記所定の条件を満たす場合及び満たさない場合のいずれの場合であっても、前記通信手段を用いた前記同期信号の通信を行うように、前記画像データ及び前記同期信号の通信を制御する制御工程と
    を有することを特徴とする制御方法。
  12. 前記取得工程では、前記通信手段の状態に関する情報として、前記通信手段を用いて通信される前記画像データ及び前記同期信号のデータ量を示す情報を取得し、
    前記制御工程では、前記取得工程において取得された情報が示す前記データ量が所定の閾値を超えない場合、前記通信手段を用いた前記画像データの通信が行われ、前記データ量が所定の閾値を超える場合、前記通信手段を用いた前記画像データの通信が制限されるように前記画像データの通信を制御する
    ことを特徴とする請求項11に記載の制御方法。
  13. 前記所定の閾値は、前記通信手段が通信可能なデータ量であることを特徴とする請求項12に記載の制御方法。
  14. 前記制御工程では、前記通信手段による通信状態が所定の状態でない場合、前記通信手段を用いた前記画像データの通信が制限されるように、前記画像データの通信を制御する
    ことを特徴とする請求項11乃至13のいずれか1項に記載の制御方法。
  15. 前記所定の状態は、前記通信手段を用いて前記画像データが通信される場合に、所定の品質以上の前記画像データが通信可能な状態である
    ことを特徴とする請求項14に記載の制御方法。
  16. 前記制御工程では、前記取得工程において取得された情報が所定の条件を満たさない場合、前記通信手段を用いて通信される前記画像データのデータ量が制限されるように、前記画像データの通信を制御することを特徴とする請求項11乃至15のいずれか1項に記載の制御方法。
  17. コンピュータを、請求項1乃至10のいずれか1項に記載の制御装置として機能させるためのコンピュータプログラム。
JP2019218930A 2019-12-03 2019-12-03 制御装置、制御方法、及び、プログラム Pending JP2021090127A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019218930A JP2021090127A (ja) 2019-12-03 2019-12-03 制御装置、制御方法、及び、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019218930A JP2021090127A (ja) 2019-12-03 2019-12-03 制御装置、制御方法、及び、プログラム

Publications (1)

Publication Number Publication Date
JP2021090127A true JP2021090127A (ja) 2021-06-10

Family

ID=76220711

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019218930A Pending JP2021090127A (ja) 2019-12-03 2019-12-03 制御装置、制御方法、及び、プログラム

Country Status (1)

Country Link
JP (1) JP2021090127A (ja)

Similar Documents

Publication Publication Date Title
JP6957215B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6894687B2 (ja) 画像処理システム、画像処理装置、制御方法、及び、プログラム
US10951804B2 (en) Photographing synchronization method and apparatus
CN107465474B (zh) 数控系统总线设备的时间同步系统及方法
JP2019106064A (ja) 画像生成装置およびその制御方法、画像生成システム
US10855763B2 (en) Method and apparatus for synchronizing applications' consumption of remote data
JP2019050451A (ja) 画像処理装置及びその制御方法及びプログラム及び画像処理システム
US11050992B2 (en) Control apparatus, image processing system, control method, and medium
US20180376131A1 (en) Image processing apparatus, image processing system, and image processing method
KR20130051860A (ko) 카메라 시스템, 신호 지연량 조정 방법 및 프로그램
US9179095B2 (en) Scalable multi-videoconferencing system
JP2021090127A (ja) 制御装置、制御方法、及び、プログラム
US9667443B2 (en) Data distribution device and imaging apparatus
JP7104504B2 (ja) 画像処理システム、画像処理装置、画像伝送方法、及び、プログラム
JP2021190937A (ja) 伝送処理装置、伝送処理方法、及びプログラム
JP2019140643A (ja) 伝送装置
JP2019003325A (ja) 画像処理装置、画像処理方法及びプログラム
WO2022269723A1 (ja) 同期制御を行う通信システム、その同期制御方法、受信サーバ及び同期制御プログラム
JP2020145559A (ja) 情報処理装置、情報処理方法及びプログラム
JP2021097300A (ja) 制御装置、制御方法、及び、プログラム
JP7492331B2 (ja) 画像処理装置、画像処理装置の制御方法及びプログラム
US20240072919A1 (en) Communication apparatus and control method therefor
US20230155949A1 (en) Communication apparatus, control method for communication apparatus, and storage medium
US20240072990A1 (en) Synchronous control apparatus, synchronous imaging apparatus, synchronous control method, and storage medium
JP7129283B2 (ja) 処理装置、制御方法、及びプログラム