JP2020092301A - Image processing device, image processing system, image processing method, and program - Google Patents
Image processing device, image processing system, image processing method, and program Download PDFInfo
- Publication number
- JP2020092301A JP2020092301A JP2018226778A JP2018226778A JP2020092301A JP 2020092301 A JP2020092301 A JP 2020092301A JP 2018226778 A JP2018226778 A JP 2018226778A JP 2018226778 A JP2018226778 A JP 2018226778A JP 2020092301 A JP2020092301 A JP 2020092301A
- Authority
- JP
- Japan
- Prior art keywords
- image
- resolution
- subject
- priority
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 128
- 238000003672 processing method Methods 0.000 title claims description 3
- 238000000926 separation method Methods 0.000 claims abstract description 31
- 238000004364 calculation method Methods 0.000 claims abstract description 28
- 230000007423 decrease Effects 0.000 claims description 3
- 230000006837 decompression Effects 0.000 abstract description 18
- 238000013144 data compression Methods 0.000 abstract description 17
- 230000006866 deterioration Effects 0.000 abstract description 5
- 238000000034 method Methods 0.000 description 47
- 230000005540 biological transmission Effects 0.000 description 44
- 230000008569 process Effects 0.000 description 26
- 238000006243 chemical reaction Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 230000009466 transformation Effects 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 230000006835 compression Effects 0.000 description 3
- 238000013500 data storage Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 238000012937 correction Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000000275 quality assurance Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000000087 stabilizing effect Effects 0.000 description 1
- 238000011144 upstream manufacturing Methods 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
本発明は、画像処理装置、画像処理システム、画像処理方法、及びプログラムに関する。 The present invention relates to an image processing device, an image processing system, an image processing method, and a program.
複数のカメラ(撮像装置)を異なる位置に設置して多視点で同期撮影するマルチカメラシステムにより得られた複数の視点画像を用いて仮想視点コンテンツを生成する技術が注目されている。複数の視点画像から仮想視点コンテンツを生成する技術によれば、例えば、サッカーやバスケットボールのハイライトシーンを様々な角度から視聴することができるため、通常の画像と比較してユーザに高臨場感を与えることができる。 A technique for generating virtual viewpoint content using a plurality of viewpoint images obtained by a multi-camera system in which a plurality of cameras (imaging devices) are installed at different positions and synchronously shoots from multiple viewpoints has been attracting attention. According to the technique of generating virtual viewpoint content from a plurality of viewpoint images, for example, a soccer or basketball highlight scene can be viewed from various angles, so that the user has a higher sense of realism than normal images. Can be given.
複数の視点画像に基づく仮想視点コンテンツの生成及び閲覧は、複数のカメラが撮影した画像をサーバ等の画像処理部に集約し、画像処理部にて3次元モデル生成やレンダリング等の処理を施し、ユーザ端末に伝送を行うことで実現できる。また、特許文献1には、カメラと撮影シーンの距離が近い場合にはフレームレートを高くし、その際の処理負荷を低減するために画像の解像度を低下させる技術が提案されている。
To generate and browse virtual viewpoint content based on a plurality of viewpoint images, images captured by a plurality of cameras are aggregated in an image processing unit such as a server, and the image processing unit performs processing such as three-dimensional model generation and rendering. It can be realized by transmitting to the user terminal.
ここで、大規模なマルチカメラシステムを構築する際には、各視点で生成された画像データのデータ量が伝送帯域を超えてしまう場合がある。この場合、意図しない画像データの欠損が生じることで、生成される仮想視点コンテンツの画像品質を損なってしまう。これを防止する1つの方法として、特許文献1に記載のように画像の解像度を低下させることが考えられる。
Here, when constructing a large-scale multi-camera system, the data amount of image data generated from each viewpoint may exceed the transmission band. In this case, the image quality of the generated virtual viewpoint content is deteriorated due to the unintended loss of image data. As one method of preventing this, it is conceivable to reduce the resolution of the image as described in
しかしながら、サッカーやバスケットボールといったスポーツシーンの撮影においては、カメラ視野内にカメラからの距離が異なる複数の被写体が同時に存在することがある。カメラからの距離が近い被写体とカメラからの距離が遠い被写体とでは対象の画素密度が異なるので、良好な画質を得るために必要な解像度も異なる。したがって、特許文献1に記載のようにカメラ全体で解像度を制御する方法では、カメラからの距離が遠い被写体の画質が損なわれてしまう。
However, when shooting a sports scene such as soccer or basketball, a plurality of subjects having different distances from the camera may simultaneously exist within the field of view of the camera. Since the pixel density of the target differs between a subject having a short distance from the camera and a subject having a long distance from the camera, the resolution required to obtain a good image quality also differs. Therefore, the method of controlling the resolution of the entire camera as described in
本発明は、このような事情に鑑みてなされたものであり、カメラからの距離が異なる複数の被写体が含まれていても距離が遠い被写体の画質劣化を抑制し画像のデータ量を制御できるようにすることを目的とする。 The present invention has been made in view of such circumstances, and it is possible to suppress image quality deterioration of a distant subject and control the amount of image data even if a plurality of subjects at different distances from the camera are included. The purpose is to
本発明に係る画像処理装置は、入力される画像から被写体に係る被写体画像を得る画像取得手段と、前記被写体画像の解像度を取得する解像度取得手段と、前記被写体画像を1つ以上の解像度成分に分離する処理手段と、分離された前記解像度成分に対する優先度を算出する優先度算出手段とを有し、前記優先度算出手段は、前記解像度成分が表す被写体の解像度が第1の解像度より小さい第2の解像度である場合、前記第1の解像度で算出される優先度よりも高い優先度を算出することを特徴とする。 An image processing apparatus according to the present invention includes an image acquisition unit that obtains a subject image of a subject from an input image, a resolution acquisition unit that obtains the resolution of the subject image, and the subject image as one or more resolution components. And a priority calculation means for calculating a priority for the separated resolution component, wherein the priority calculation means is such that the resolution of the subject represented by the resolution component is smaller than the first resolution. When the resolution is 2, a priority higher than the priority calculated in the first resolution is calculated.
本発明によれば、解像度に応じた優先度を設定して被写体毎に解像度を制御することが可能となり、カメラからの距離が異なる複数の被写体が含まれていても距離が遠い被写体の画質劣化を抑制し画像のデータ量を制御することができる。 According to the present invention, it is possible to set the priority according to the resolution and control the resolution for each subject, and even if a plurality of subjects with different distances from the camera are included, the image quality degradation of the subject with a long distance Can be suppressed and the amount of image data can be controlled.
以下、本発明の実施形態を図面に基づいて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(第1の実施形態)
本発明の第1の実施形態について説明する。以下に説明する第1の実施形態では、異なる位置に設置された複数のカメラが同期して撮影を行う画像処理システム100において、カメラ毎に独立して符号量(画像データのデータ量)の制御を行う。符号量制御は、1フレームあたりの符号量の上限を設定してフレーム単位で行う。1フレームの符号量が上限を超えない場合には可逆(ロスレス)のデータが伝送され、すべてのデータを伝送すると上限を超えてしまう場合には画像の品質に影響の少ない情報を優先して欠落させる。
(First embodiment)
A first embodiment of the present invention will be described. In the first embodiment described below, control of the code amount (data amount of image data) is independently performed for each camera in the
競技場(スタジアム)やコンサートホール等の施設に複数のカメラ及びマイクを設置して撮影及び集音を行うシステムについて、図1のシステム構成図を用いて説明する。図1は、本発明の一実施形態における画像処理システム100の構成例を示すブロック図である。画像処理システム100は、センサシステム110a〜110z、画像コンピューティングサーバ120、コントローラ130、スイッチングハブ140、及びエンドユーザ端末150を有する。
A system in which a plurality of cameras and microphones are installed in a facility such as a stadium or a concert hall to perform shooting and sound collection will be described with reference to the system configuration diagram of FIG. 1. FIG. 1 is a block diagram showing a configuration example of an
コントローラ130は、制御ステーション131及び仮想カメラ操作UI(ユーザインターフェース)132を有する。制御ステーション131は、画像処理システム100が有するそれぞれの機能部(ブロック)に対してネットワーク161a〜161c、162a、162b、及び163a〜163yを通じて動作状態の管理及びパラメータの設定制御等を行う。ここで、ネットワークは、例えばEthernet(登録商標)であるIEEE標準準拠のGbE(ギガビットイーサネット)や10GbEでもよいし、インターコネクトInfiniband、産業用イーサネット等を組み合わせて構成されてもよい。また、これらに限定されず、他の種別のネットワークであってもよい。
The
26セットのセンサシステム110a〜110zにより得られる画像及び音声を、センサシステム110zから画像コンピューティングサーバ120へ送信する動作を説明する。本実施形態における画像処理システム100において、センサシステム110a〜110zはデイジーチェーンにより接続される。
The operation of transmitting images and sounds obtained by the 26 sets of
なお、本実施形態において、特別な説明がない場合、センサシステム110aからセンサシステム110zまでの26セットのセンサシステムを区別せずにセンサシステム110と記載する。各センサシステム110内の装置についても同様に、特別な説明がない場合は区別せず、マイク111、カメラ112、雲台113、外部センサ114、及びカメラアダプタ115と記載する。なお、図1には、26セットのセンサシステムを有する例を示したが、これは一例であり、センサシステムの数はこれに限定されるものではない。
In the present embodiment, unless otherwise specified, 26 sets of sensor systems from the
また、本実施形態では、特に断りがない限り、画像という文言が、動画と静止画の概念を含むものとして説明する。すなわち、本実施形態における画像処理システム100は、静止画及び動画の何れについても処理可能である。また、画像処理システム100により提供される仮想視点コンテンツには、仮想視点画像と仮想視点音声が含まれる例を説明するが、これに限らない。例えば、仮想視点コンテンツに音声が含まれていなくてもよい。また例えば、仮想視点コンテンツに含まれる音声が、仮想視点に最も近いマイクにより集音された音声であってもよい。また、本実施形態では、説明の簡略化のため、部分的に音声についての記載を省略するが、基本的に画像と音声は共に処理されるものとする。
In addition, in the present embodiment, the word “image” will be described as including the concept of a moving image and a still image unless otherwise specified. That is, the
センサシステム110a〜110zは、それぞれ1台ずつのカメラ112a〜112zを有する。すなわち、画像処理システム100は、被写体を複数の方向から撮影するための複数のカメラを有する。複数のセンサシステム110同士はデイジーチェーンにより接続される。この接続形態により、撮影画像の4Kや8K等への高解像度化及び高フレームレート化に伴う画像データの大容量化において、接続ケーブル数の削減や配線作業の省力化ができる。なお、この接続形態に限らず、例えば、各センサシステム110a〜110zがスイッチングハブ140に接続されて、スイッチングハブ140を経由してセンサシステム110間のデータ送受信を行うスター型のネットワーク構成としてもよい。
Each of the
また、図1には、デイジーチェーンとなるようセンサシステム110のすべてがカスケード接続される構成を示したが、これに限定されるものではない。例えば、複数のセンサシステム110をいくつかのグループに分割して、分割したグループ単位でセンサシステム110間をデイジーチェーン接続してもよい。そして、分割単位の終端となるカメラアダプタ115がスイッチングハブに接続されて画像コンピューティングサーバ120へ画像の入力を行うようにしてもよい。このような構成は、例えば、複数階で構成されるスタジアムにおいて、フロア毎にセンサシステム110を配備する場合等に有効である。この場合、フロア毎、或いはスタジアムの半周毎に画像コンピューティングサーバ120への入力が可能になり、全センサシステム110を1つのデイジーチェーンで接続する配線が困難な場所でも設置の簡便化及びシステムの柔軟化を図ることができる。
Further, FIG. 1 shows a configuration in which all of the sensor systems 110 are cascade-connected to form a daisy chain, but the present invention is not limited to this. For example, the plurality of sensor systems 110 may be divided into some groups, and the sensor systems 110 may be connected in a daisy chain in units of the divided groups. Then, the
また、デイジーチェーン接続されて画像コンピューティングサーバ120へ画像入力を行うカメラアダプタ115が1つであるか2つ以上であるかに応じて、画像コンピューティングサーバ120での画像処理の制御が切り替えられる。すなわち、センサシステム110が複数のグループに分割されているかどうかに応じて制御が切り替えられる。画像入力を行うカメラアダプタ115が1つである場合には、デイジーチェーン接続で画像伝送を行いながら競技場全周画像が生成されるため、画像コンピューティングサーバ120において全周の画像データが揃うタイミングは同期がとられている。すなわち、センサシステム110が複数のグループに分割されていなければ、同期はとれる。
Further, the control of the image processing in the image computing server 120 is switched according to whether there is one or two or
しかし、画像入力を行うカメラアダプタ115が複数である(センサシステム110が複数のグループに分割される)場合には、デイジーチェーンのレーン(経路)によって遅延が異なることが考えられる。そのため、画像コンピューティングサーバ120において全周の画像データが揃うまで待って同期をとる同期制御によって、画像データの集結をチェックしながら後段の画像処理を行う必要がある。
However, when there are a plurality of
本実施形態では、センサシステム110a〜110zの各々は、マイク111、カメラ112、雲台113、外部センサ114、及びカメラアダプタ115を有する。なお、センサシステム110の構成は、これに限定されるものではなく、少なくとも1つのカメラアダプタ115と、1つのカメラ112又は1つのマイク111を有していればよい。また例えば、センサシステム110は、1つのカメラアダプタ115と複数のカメラ112で構成されてもよいし、1つのカメラ112と複数のカメラアダプタ115で構成されてもよい。すなわち、画像処理システム100内の複数のカメラ112と複数のカメラアダプタ115とはN対M(NとMは共に1以上の整数)で対応する。
In the present embodiment, each of the
また、センサシステム110は、マイク111、カメラ112、雲台113、外部センサ114、及びカメラアダプタ115以外の装置を含んでいてもよい。また、センサシステム110は、例えばカメラ112とカメラアダプタ115が一体となって構成されていてもよい。さらに、カメラアダプタ115の機能の少なくとも一部をフロントエンドサーバ121が有していてもよい。なお、センサシステム110a〜110zは、同じ構成に限定されるものではなく、センサシステム110の一部又は全部が異なる構成でもよい。
Further, the sensor system 110 may include devices other than the
センサシステム110aのマイク111aで集音された音声とカメラ112aで撮影された画像は、カメラアダプタ115aにおいて画像処理が施された後、ネットワーク163aを通してセンサシステム110bのカメラアダプタ115bに伝送される。同様に、センサシステム110bは、集音された音声と撮影された画像をセンサシステム110aから取得した画像及び音声と合わせて、ネットワーク163bを介してセンサシステム110cに伝送する。この動作を続けることにより、センサシステム110a〜110zにより取得した画像及び音声が、センサシステム110zからネットワーク162b及びスイッチングハブ140等を介して画像コンピューティングサーバ120へ伝送される。
The sound collected by the microphone 111a of the
なお、本実施形態では、センサシステム110において、カメラ112とカメラアダプタ115とが分離された構成にしているが、同一筺体で一体化されていてもよい。その場合、マイク111は、一体化されたカメラ112に内蔵されてもよいし、カメラ112の外部に接続されていてもよい。
Although the
次に、画像コンピューティングサーバ120の構成及び動作について説明する。本実施形態における画像コンピューティングサーバ120は、センサシステム110zから取得したデータの処理を行う。画像コンピューティングサーバ120は、フロントエンドサーバ121、データベース(DB)122、バックエンドサーバ123、及びタイムサーバ124を有する。
Next, the configuration and operation of the image computing server 120 will be described. The image computing server 120 in this embodiment processes the data acquired from the sensor system 110z. The image computing server 120 includes a
タイムサーバ124は、時刻及び同期信号を配信する機能を有し、スイッチングハブ140を介してセンサシステム110a〜110zに時刻及び同期信号を配信する。時刻及び同期信号を受信したセンサシステム110a〜110zのカメラアダプタ115a〜115zは、カメラ112a〜112zを時刻及び同期信号を基に外部同期(Genlock)させ画像フレーム同期を行う。すなわち、タイムサーバ124は、複数のカメラ112の撮影タイミングを同期させる。これにより、画像処理システム100は同じタイミングで撮影された複数の撮影画像に基づいて仮想視点画像を生成できるため、撮影タイミングのずれによる仮想視点画像の品質低下を抑制できる。なお、本実施形態では、タイムサーバ124が複数のカメラ112の時刻同期を管理するが、これに限らず、時刻同期のための処理を各カメラ112又は各カメラアダプタ115が独立して行ってもよい。
The
フロントエンドサーバ121は、センサシステム110zから取得した画像及び音声から、セグメント化された伝送パケットを再構成してデータ形式を変換した後に、カメラの識別子やデータ種別、フレーム番号に応じてデータベース122に書き込む。バックエンドサーバ123は、仮想カメラ操作UI132から視点の指定を受け付け、受け付けた視点に基づいて、データベース122から対応する画像及び音声データを読み出し、レンダリング処理等を行って仮想視点画像を生成する。
The front-
なお、画像コンピューティングサーバ120の構成は、これに限られるものではない。例えば、フロントエンドサーバ121、データベース122、及びバックエンドサーバ123のうちの少なくとも2つが一体となって構成されていてもよい。また、フロントエンドサーバ121、データベース122、及びバックエンドサーバ123の少なくとも何れかが複数含まれてもよい。また、画像コンピューティングサーバ120内の任意の位置に他の装置が含まれてもよい。さらに、画像コンピューティングサーバ120の機能の少なくとも一部をエンドユーザ端末150や仮想カメラ操作UI132が有していてもよい。
The configuration of the image computing server 120 is not limited to this. For example, at least two of the
レンダリング処理された画像は、バックエンドサーバ123からエンドユーザ端末150に送信され、エンドユーザ端末150を操作するユーザは視点の指定に応じた画像閲覧及び音声視聴を行うことができる。すなわち、バックエンドサーバ123は、複数のカメラ112により撮影された撮影画像(複数の視点画像)と視点情報とに基づく仮想視点コンテンツを生成する。具体的には、バックエンドサーバ123は、例えば複数のカメラアダプタ115により複数のカメラ112による撮影画像から抽出された所定領域の画像データと、ユーザ操作により指定された視点に基づいて、仮想視点コンテンツを生成する。そして、バックエンドサーバ123は、生成した仮想視点コンテンツをエンドユーザ端末150に提供する。
The rendered image is transmitted from the
本実施形態における仮想視点コンテンツは、仮想的な視点から被写体を撮影した場合に得られる画像としての仮想視点画像を含むコンテンツである。言い換えると、仮想視点画像は、指定された視点における見えを表す画像であるとも言える。仮想的な視点(仮想視点)は、ユーザにより指定されてもよいし、画像解析の結果等に基づいて自動的に指定されてもよい。すなわち、仮想視点画像には、ユーザが任意に指定した視点に対応する任意視点画像(自由視点画像)が含まれる。また、複数の候補からユーザが指定した視点に対応する画像や、装置が自動で指定した視点に対応する画像も、仮想視点画像に含まれる。 The virtual viewpoint content in the present embodiment is content including a virtual viewpoint image as an image obtained when a subject is photographed from a virtual viewpoint. In other words, it can be said that the virtual viewpoint image is an image showing the appearance at the specified viewpoint. The virtual viewpoint (virtual viewpoint) may be designated by the user, or may be automatically designated based on the result of image analysis or the like. That is, the virtual viewpoint image includes an arbitrary viewpoint image (free viewpoint image) corresponding to the viewpoint arbitrarily designated by the user. Further, the image corresponding to the viewpoint specified by the user from the plurality of candidates and the image corresponding to the viewpoint automatically specified by the device are also included in the virtual viewpoint image.
なお、本実施形態では、仮想視点コンテンツは、音声データ(オーディオデータ)を含むものとして説明するが、音声データを含まなくてもよい。また、バックエンドサーバ123は、仮想視点画像を例えばH.264やHEVC等の符号化方式に従って圧縮符号化したうえで、MPEG−DASHプロトコルを使ってエンドユーザ端末150へ送信してもよい。また、仮想視点画像は、非圧縮でエンドユーザ端末150へ送信されてもよい。例えば、圧縮符号化を行う前者はエンドユーザ端末150としてスマートフォンやタブレットを想定しており、後者は非圧縮画像を表示可能なディスプレイを想定している。すなわち、エンドユーザ端末150の種別に応じて画像フォーマットを切り替えるようにしてもよい。また、画像の送信プロトコルはMPEG−DASHに限らず、例えば、HLS(HTTP Live Streaming)やその他の送信方法を用いてもよい。
In the present embodiment, the virtual viewpoint content is described as including audio data (audio data), but it does not have to include audio data. In addition, the back-
このように、画像処理システム100は、映像収集ドメイン、データ保存ドメイン、及び映像生成ドメインという3つの機能ドメインを有する。映像収集ドメインはセンサシステム110a〜110zを含み、データ保存ドメインはフロントエンドサーバ121、データベース122、及びバックエンドサーバ123を含み、映像生成ドメインは仮想カメラ操作UI132及びエンドユーザ端末150を含む。
As described above, the
なお、本構成に限らず、例えば、仮想カメラ操作UI132が直接センサシステム110a〜110zから画像を取得することも可能である。しかしながら、本実施形態では、センサシステム110a〜110zから直接画像を取得する方法ではなく、データ保存機能を中間に配置する方法をとる。具体的には、フロントエンドサーバ121がセンサシステム110a〜110zが生成した画像データや音声データ及びそれらのデータのメタ情報をデータベース122の共通スキーマ及びデータ型に変換する。これにより、センサシステム110a〜110zのカメラ112が他機種のカメラに変化しても、変化した差分をフロントエンドサーバ121が吸収し、データベース122に登録することができる。このことによって、カメラ112が他機種カメラに変わった場合に、仮想カメラ操作UI132が適切に動作しないおそれを低減できる。
Note that the present invention is not limited to this configuration, and for example, the virtual
また、仮想カメラ操作UI132は、直接データベース122にアクセスせずにバックエンドサーバ123を介してアクセスする構成である。バックエンドサーバ123で画像生成処理に係わる共通処理を行い、操作UIに係わるアプリケーションの差分部分を仮想カメラ操作UI132で行う。このことにより、仮想カメラ操作UI132の開発において、UI操作デバイスや生成したい仮想視点画像を操作するUIの機能要求に対する開発に注力することができる。また、バックエンドサーバ123は、仮想カメラ操作UI132の要求に応じて画像生成処理に係わる共通処理を追加又は削除することも可能である。このことによって、仮想カメラ操作UI132の要求に柔軟に対応することができる。
Further, the virtual
このように、画像処理システム100においては、被写体を複数の方向から撮影するための複数のカメラ112による撮影に基づく画像データに基づいて、バックエンドサーバ123により仮想視点画像が生成される。なお、本実施形態における画像処理システム100は、前述した物理的な構成に限定されるものではなく、論理的に構成されていてもよい。以上で画像処理システム100の概要の説明を終える。
As described above, in the
次に、カメラアダプタ115について説明する。図2は、カメラアダプタ115の構成例を示すブロック図である。本実施形態におけるカメラアダプタ115は、符号量制御を行う機能を有する。カメラアダプタ115は、ネットワークアダプタ210、伝送部220、画像処理部230、及び外部機器制御部240を有する。
Next, the
ネットワークアダプタ210は、データ送受信部211及び時刻制御部212を有する。データ送受信部211は、ネットワーク等を介して、他のカメラアダプタ115、フロントエンドサーバ121、タイムサーバ124、及び制御ステーション131とデータ通信を行う。例えば、データ送受信部211は、カメラ112による撮影画像から前景背景分離部231により分離された前景画像及び背景画像を、データルーティング処理部222の処理に応じて予め定められた次のカメラアダプタ115に出力する。各カメラアダプタ115が前景画像と背景画像とを出力することで、複数の視点から撮影された前景画像と背景画像に基づいて仮想視点画像が生成される。なお、画像処理システム100において、前景画像は出力し背景画像は出力しないカメラアダプタ115が存在してもよい。
The
時刻制御部212は、例えばIEEE1588規格のOrdinary Clockに準拠し、タイムサーバ124との間で送受信したデータのタイムスタンプを保存する機能と、タイムサーバ124と時刻同期を行う機能を有する。なお、IEEE1588規格に限らず、他のEtherAVB規格や、独自プロトコルによってタイムサーバとの時刻同期を実現してもよい。本実施形態では、ネットワークアダプタ210としてNIC(Network Interface Card)を利用するが、NICに限定するものではなく、同様の他のインターフェースを利用してもよい。
The
伝送部220は、ネットワークアダプタ210を介してスイッチングハブ140等に対するデータの伝送を制御する機能を有する。伝送部220は、データ圧縮・伸張部221、データルーティング処理部222、時刻同期制御部223、画像・音声伝送処理部224、及びデータルーティング情報保持部225を有する。データ圧縮・伸張部221は、データ送受信部211を介して送受信されるデータに対して、所定の圧縮方式、圧縮率、及びフレームレートを適用してデータを圧縮する機能と、圧縮されたデータを伸張する機能を有する。
The
データルーティング処理部222は、データルーティング情報保持部225が保持する情報を利用し、データ送受信部211が受信したデータや画像処理部230で処理されたデータのルーティング先を決定する。また、データルーティング処理部222は、決定したルーティング先へデータを送信させる機能を有する。データルーティング情報保持部225は、データ送受信部211で送受信されるデータの送信先を決定するためのアドレス情報を保持する機能を有する。
The data
ここで、ルーティング先は、同一の注視点に向けられたカメラ112に対応するカメラアダプタ115とするのが、カメラ同士の画像フレーム相関が高いため画像処理を行う上で好適である。複数のカメラアダプタ115のデータルーティング処理部222による決定に応じて、画像処理システム100内において前景画像や背景画像をリレー形式で出力するカメラアダプタ115の順序が定まる。
Here, the routing destination is the
時刻同期制御部223は、IEEE1588規格のPTP(Precision Time Protocol)に準拠し、タイムサーバ124と時刻同期に係わる処理を行う機能を有する。なお、PTPに限らず、他の同様のプロトコルを利用して時刻同期に係わる処理を行ってもよい。
The time
画像・音声伝送処理部224は、画像データ又は音声データを、データ送受信部211を介して他のカメラアダプタ115又はフロントエンドサーバ121へ転送するためのメッセージを作成する機能を有する。メッセージには、画像データ又は音声データ、及び各データのメタ情報が含まれる。メタ情報には、画像の撮影又は音声のサンプリングを行った時のタイムコード又はシーケンス番号、データ種別、及びカメラ112やマイク111の個体を示す識別子等が含まれる。
The image/sound
また、画像・音声伝送処理部224は、他のカメラアダプタ115からデータ送受信部211を介してメッセージを受け取る。そして、画像・音声伝送処理部224は、メッセージに含まれるデータ種別に応じて、伝送プロトコル規定のパケットサイズにフラグメントされたデータ情報を画像データ又は音声データに復元する。なお、送信する画像データ又は音声データは、データ圧縮・伸張部221でデータ圧縮されていてもよい。また、データを復元した際にデータが圧縮されている場合、データ圧縮・伸張部221が伸張処理を行う。
The image/sound
画像処理部230は、カメラ112が撮影した画像データ及び他のカメラアダプタ115から受け取った画像データに対して処理を行う機能を有する。画像処理部230は、前景背景分離部231、優先度生成部232、及びキャリブレーション制御部233を有する。
The
前景背景分離部231は、カメラ112が撮影した画像データを前景画像と背景画像に分離する機能を有する。すなわち、複数のカメラアダプタ115のそれぞれの前景背景分離部231は、複数のカメラ112のうち、対応するカメラ112による撮影画像から所定領域を抽出する。所定領域は、例えば撮影画像に対するオブジェクト検出の結果得られる前景画像であり、この抽出により前景背景分離部231は、撮影画像を前景画像と背景画像に分離する。なお、オブジェクトとは、例えば人物である。オブジェクトが、特定人物(選手、監督、及び/又は審判等)であってもよいし、ボールやゴール等の画像パターンが予め定められている物体であってもよい。また、オブジェクトとして、動体が検出されるようにしてもよい。
The foreground/
前景背景分離部231により人物等の重要なオブジェクトを含む前景画像とオブジェクトを含まない背景画像を分離して処理することで、画像処理システム100において生成される仮想視点画像のオブジェクトに該当する部分の画像の品質を向上できる。また、前景と背景の分離を複数のカメラアダプタ115のそれぞれが行うことで、複数のカメラ112を有する画像処理システム100における負荷を分散させることができる。なお、所定領域は、前景画像に限らず、例えば背景画像であってもよい。
The foreground/
優先度生成部232は、前景背景分離部231で分離された前景画像及びカメラパラメータを利用して優先度を生成する機能を有する。カメラパラメータは、カメラ固有の内部パラメータ(焦点距離、センサピッチ、画像中心、及びレンズ歪みパラメータ等)と、世界座標系に対するカメラの位置姿勢を表す外部パラメータ(回転行列及び位置ベクトル等)を含む。
The
キャリブレーション制御部233は、キャリブレーションに必要な画像データを、カメラ制御部241を介してカメラ112から取得し、キャリブレーションに係わる演算処理を行うフロントエンドサーバ121に送信する機能を有する。また、キャリブレーション制御部233は、カメラ制御部241を介してカメラ112から取得した画像データに対して、予め設定されたパラメータに応じて撮影中のキャリブレーション(動的キャリブレーション)を行う機能を有する。本実施形態では、キャリブレーションに係わる演算処理をフロントエンドサーバ121で行うが、演算処理を行うノードはフロントエンドサーバ121に限定されない。例えば、制御ステーション131やカメラアダプタ115(他のカメラアダプタ115を含む)等の他のノードで演算処理を行ってもよい。
The
外部機器制御部240は、カメラアダプタ115に接続する機器を制御する機能を有する。外部機器制御部240は、カメラ制御部241、マイク制御部242、雲台制御部243、及びセンサ制御部244を有する。
The external
カメラ制御部241は、カメラ112と接続し、カメラ112の制御、撮影画像取得、同期信号提供、及び時刻設定等を行う機能を有する。カメラ112の制御には、例えば撮影パラメータ(画素数、色深度、フレームレート、及びホワイトバランスの設定等)の設定及び参照、カメラ112の状態(撮影中、停止中、同期中、及びエラー等)の取得、撮影の開始及び停止や、ピント調整等がある。なお、本実施形態では、カメラ112を介してピント調整を行うが、取り外し可能なレンズがカメラ112に装着されている場合、カメラアダプタ115がレンズに接続して直接レンズの調整を行ってもよい。また、カメラアダプタ115がカメラ112を介してズーム等のレンズ調整を行ってもよい。
The
同期信号提供は、時刻同期制御部223がタイムサーバ124と同期した時刻を利用し、撮影タイミング(制御クロック)をカメラ112に提供することで行われる。時刻設定は、時刻同期制御部223がタイムサーバ124と同期した時刻を、例えばSMPTE12Mのフォーマットに準拠したタイムコードで提供することで行われる。これにより、カメラ112から受け取る画像データに提供したタイムコードが付与される。なお、タイムコードのフォーマットは、SMPTE12Mに限らず、他のフォーマットであってもよい。また、カメラ制御部241は、カメラ112に対してタイムコードの提供を行わず、カメラ112から受け取った画像データに自身がタイムコードを付与してもよい。
The synchronization signal is provided by the time
マイク制御部242は、マイク111と接続し、マイク111の制御、収音の開始及び停止、及び収音された音声データの取得等を行う機能を有する。マイク111の制御は、例えば、ゲイン調整や状態取得等である。また、カメラ制御部241と同様に、マイク制御部242は、マイク111に対して音声サンプリングするタイミングとタイムコードを提供する。音声サンプリングのタイミングとなるクロック情報としては、タイムサーバ124からの時刻情報が、例えば48kHzのワードクロックに変換されてマイク111に供給される。
The
雲台制御部243は、雲台113と接続し、雲台113の制御を行う機能を有する。雲台113の制御は、例えば、パン・チルト制御や状態取得等がある。センサ制御部244は、外部センサ114と接続し、外部センサ114がセンシングしたセンサ情報を取得する機能を有する。例えば、外部センサ114としてジャイロセンサが利用される場合には、振動を表す情報を取得することができる。そして、センサ制御部244が取得した振動情報を用いて、画像処理部230は、前景背景分離部231での処理に先立って、振動を抑えた画像を生成することができる。
The
振動情報は、例えば、8Kカメラの画像データを、振動情報を考慮して、元の8Kサイズよりも小さいサイズで切り出して、隣接設置されたカメラ112の画像との位置合わせを行う場合に利用される。これにより、建造物の躯体振動が各カメラに異なる周波数で伝搬しても、カメラアダプタ115に配備された本機能で位置合わせを行う。その結果、電子的に防振された画像データを生成でき、画像コンピューティングサーバ120におけるカメラ112の台数分の位置合わせの処理負荷を軽減する効果が得られる。なお、センサシステム110のセンサは、外部センサ114に限らず、カメラアダプタ115に内蔵されたセンサであってもよく、同様の効果が得られる。
The vibration information is used, for example, when the image data of the 8K camera is cut out in a size smaller than the original 8K size in consideration of the vibration information and the position of the image data of the
以上で、カメラアダプタ115の構成の説明を終える。カメラアダプタ115において、符号量制御に深く関わりを持つのが、優先度生成部232、データ圧縮・伸張部221、及び画像・音声伝送処理部224である。以下、図3及び図4を用いて符号量制御に係る符号の優先度を生成するための構成及び処理の流れについて説明する。
This is the end of the description of the configuration of the
図3は、カメラアダプタ115内の画像処理部230の構成例を示すブロック図である。図3において、図2に示したブロックと同一の機能を有するブロックには同一の符号を付している。キャリブレーション制御部233は、入力された画像に対して、カメラ毎の色のばらつきを抑えるための色補正処理や、カメラの振動に起因するブレに対して画像の位置を安定させるためのブレ補正処理(電子防振処理)等を行う。
FIG. 3 is a block diagram showing a configuration example of the
前景背景分離部231について説明する。前景分離部311は、カメラ112の画像に関して位置合わせが行われた画像データに対して、背景画像312との比較により前景画像の分離処理を行う。ここで得られた前景画像は、その画像データと画像全体における前景画像領域のオフセット値(例えば、前景画像の左上の画素の位置)を対にして出力される。背景更新部313は、背景画像312とカメラ112の位置合わせが行われた画像を用いて新しい背景画像を生成し、背景画像312を新しい背景画像に更新する。背景切出部314は、背景画像312の一部を切り出す制御を行う。
The foreground/
優先度生成部232について説明する。以降の説明では、前景画像を、被写体を映した画像領域として「被写体画像」とも呼ぶ。カメラパラメータ受信部321は、カメラパラメータを受信する。カメラパラメータは、例えばキャリブレーション処理で得られる情報であり、制御ステーション131から対象となるカメラアダプタ115に対して送信及び設定される。解像度取得部322は、前景分離部311で分離された被写体画像のオフセット値と、伝送部220を介して受信したカメラパラメータを用いて、被写体画像の解像度を取得し、分離パラメータ算出部323及び優先度算出部324に出力する。分離パラメータ算出部323は、入力された被写体画像内での被写体の解像度からデータ圧縮・伸張部221で利用される分離パラメータを算出し、伝送部220及び優先度算出部324に出力する。優先度算出部324は、入力された被写体の解像度及び分離パラメータから符号化後の各解像度成分に対する優先度を算出し、伝送部220に出力する。
The
図4(A)は、優先度生成部232による優先度及び分離パラメータの算出処理の例を示すフローチャートである。ステップS401では、カメラパラメータ受信部321が、撮影平面(地面)に対するカメラの位置・姿勢を示すカメラパラメータを入力する。ステップS402では、前景分離部311が、被写体画像の元画像全体におけるオフセット値を入力する。ステップS403では、解像度取得部322が、被写体画像の解像度を取得する。ここでは解像度を、撮像された被写体表面を表す単位面積あたりの画素数と定義する。解像度は、撮像センサのセンサピッチと焦点距離、被写体までの距離に依存する。例えば、解像度取得部322は、焦点距離が大きい程、あるいはセンサピッチが小さい程、大きい値を被写体画像の解像度とする。また、例えば、解像度取得部322は、被写体までの距離大きい程、小さい値を被写体画像の解像度とする。
FIG. 4A is a flowchart showing an example of priority and separation parameter calculation processing by the
ステップS404では、分離パラメータ算出部323が、分離パラメータを算出する。本実施形態では、画像データをウェーブレット変換により周波数の異なる解像度成分に分離するものとし、分離パラメータは、ウェーブレット変換回数を表すものとする。ウェーブレット変換処理には方向があり、横方向に分離すると、元の画像サイズに対して横方向が半分であり、縦方向が同じサイズの2つの画像が高周波と低周波の解像度成分として生成される。ここで生成された解像度成分の画像をそれぞれさらに縦方向に分離すると、元の画像サイズに対して縦横のサイズが半分の4つの解像度成分が生成される。このように、縦横1回ずつの変換をあわせて1回のウェーブレット変換とする。
In step S404, the separation
ウェーブレット変換によって生成される4つの解像度成分のうち、縦横ともに低周波の解像度成分をLL成分と呼び、縦方向が高周波で横方向が低周波の解像度成分をLH成分と呼ぶ。また、縦方向が低周波で横方向が高周波の解像度成分をHL成分と呼び、縦横ともに高周波の解像度成分をHH成分と呼ぶ。一般に、LL成分が元の画像に対して半分の解像度の縮小画像であり、LH成分が縦方向のエッジ情報、HL成分が横方向のエッジ情報、及びHH成分が斜め方向のエッジ情報を保持している。さらに、解像度成分を分離する場合、LL成分についてウェーブレット変換を再度行い4つ解像度成分に階層的に分離する。 Of the four resolution components generated by the wavelet transform, a resolution component having a low frequency in both the vertical and horizontal directions is called an LL component, and a resolution component having a high frequency in the vertical direction and a low frequency in the horizontal direction is called an LH component. A resolution component having a low frequency in the vertical direction and a high frequency in the horizontal direction is called an HL component, and a resolution component having a high frequency in both the vertical and horizontal directions is called an HH component. In general, the LL component is a reduced image with half the resolution of the original image, the LH component holds vertical edge information, the HL component holds horizontal edge information, and the HH component holds diagonal edge information. ing. Further, when the resolution components are separated, the LL component is wavelet-transformed again to be hierarchically separated into four resolution components.
図5に、3回のウェーブレット変換を適用した例を示す。(0,0)は1回目の変換におけるHH成分であり、(0,1)は1回目の変換におけるHL成分であり、(1,0)は1回目の変換におけるLH成分である。図5において、括弧内の1番目の要素は横方向の低周波成分を抽出した回数を示し、2番目の要素は縦方向の低周波成分を抽出した回数を示す。したがって、(3,3)は3回のウェーブレット変換の結果得られたLL成分である。 FIG. 5 shows an example in which the wavelet transform is applied three times. (0,0) is the HH component in the first conversion, (0,1) is the HL component in the first conversion, and (1,0) is the LH component in the first conversion. In FIG. 5, the first element in parentheses indicates the number of times the horizontal low-frequency component is extracted, and the second element indicates the number of times the vertical low-frequency component is extracted. Therefore, (3, 3) is the LL component obtained as a result of three wavelet transforms.
前述のように、1回のウェーブレット変換により、縦横それぞれにおいて変換前の半分の解像度の画像がLL成分として生成される。本実施形態では、LL成分での被写体の解像度が予め与えられた要求される解像度<α>を下回るまでウェーブレット変換を実行する。要求解像度とは、仮想視点画像の生成において、映像品質を担保するために最低限必要とする解像度である。入力された被写体画像の解像度が<d>である場合、S回のウェーブレット変換を行った後のLL成分の解像度は(d×4-S)となる。したがって、LL成分での被写体の解像度が要求される解像度<α>を下回る最小の回数Sは、次のように求められる。つまり、以下の例では、被写体画像の解像度<d>と、被写体について要求される解像度<α>との比に基づいて、分離パラメータとしての回数Sが決定される。 As described above, a wavelet transform is performed once to generate an image having half the resolution before transformation in the vertical and horizontal directions as an LL component. In the present embodiment, the wavelet transform is executed until the resolution of the subject in the LL component falls below a predetermined required resolution <α>. The required resolution is the minimum resolution required to secure the video quality in the generation of the virtual viewpoint image. When the resolution of the input subject image is <d>, the resolution of the LL component after performing the wavelet transform S times is (d×4 −S ). Therefore, the minimum number S of times when the resolution of the subject in the LL component is lower than the required resolution <α> is obtained as follows. That is, in the following example, the number S of times as the separation parameter is determined based on the ratio between the resolution <d> of the subject image and the resolution <α> required for the subject.
ステップS405では、優先度算出部324が、優先度Pを算出する。優先度は、成分が表す画像情報の解像度が小さくなる、つまり低周波であるほど大きな値を設定する。図5において説明した縦横方向の低周波成分の抽出回数を(Wx,Wy)で表現すると、優先度Pは以下の式で定義される。
In step S405, the
すなわち、優先度算出部324は、縦横方向の低周波成分の抽出回数(Wx,Wy)が多くなるに伴って高い優先度を算出し、被写体画像の解像度<d>が小さくなるに伴って高い優先度を算出する。なお、図4(A)に示した処理において、ステップS401とステップS402との処理順序は順不同であり、ステップS404とステップS405との処理順序は順不同である。
That is, the
図4(B)は、図4(A)に示したステップS403において解像度取得部322が被写体画像の解像度<d>を取得する処理の例を示すフローチャートである。ステップS411では、解像度取得部322が、要求解像度αを取得する。この値は、カメラ間で優先度の基準を統一するため、事前に設定して、すべてのカメラで共通化しておくことが好ましく、この場合にはカメラパラメータと同時にネットワークを介して取得する。
FIG. 4B is a flowchart showing an example of processing in which the
ステップS412〜S414では、解像度取得部322が、視点と被写体との間の距離を求める。本実施形態では、すべての被写体(例えば人)が撮影平面上にあるものと仮定し、被写体画像において最も下の画素が、被写体が撮影平面に接地している点に対応するものとする。例えば、人であれば、その人の画像において最も下の画素が、足と撮影平面とが接触している点に対応する。
In steps S412 to S414, the
ステップS412〜S414の処理について説明する。ステップS412では、解像度取得部322が、被写体画像に係る代表画素として、被写体画像の内で最も下の画素を選択する。なお、最も下の画素が複数ある場合、それら複数の画素における中央の画素を代表画素として選択する。また、最も下の画素が複数ある場合、それら複数の画素の内で被写体領域の中央に最も近い画素を代表画素として選択するようにしてもよい。
The processing of steps S412 to S414 will be described. In step S412, the
ステップS413では、解像度取得部322が、代表画素に対応する視線と撮影平面との交点<X>を求める。予めカメラパラメータが与えられており、撮影平面と視点の位置関係及びカメラ姿勢は既知であるため、交点を算出可能であることは自明である。ステップS414では、解像度取得部322が、視点位置<U>と交点<X>との距離を計算し、これを視点と被写体位置との距離<L>とする。
In step S413, the
図6に被写体位置の推定方法を説明する模式図を示す。被写体601に係る代表画素の位置から算出される代表視線604がカメラ602の視点位置<U>605から伸ばされ、これと撮影平面603との交点を<X>とする。この交点<X>が、撮影平面603に対する被写体の接地点606となることを仮定している。本実施形態では、被写体までの距離の推定に、被写体画像の画素位置から推定される3次元空間上の被写体位置を利用する。ただし、被写体までの距離を取得することができれば、他の方法でもよく、例えば距離カメラを用いてもよいし、その他の被写体位置取得センサを利用してもよい。 FIG. 6 shows a schematic diagram for explaining the method of estimating the subject position. The representative line-of-sight 604 calculated from the position of the representative pixel of the subject 601 is extended from the viewpoint position <U>605 of the camera 602, and the intersection of this and the shooting plane 603 is <X>. It is assumed that this intersection point <X> is the ground contact point 606 of the subject with respect to the photographing plane 603. In the present embodiment, the subject position in the three-dimensional space estimated from the pixel position of the subject image is used to estimate the distance to the subject. However, another method may be used as long as the distance to the subject can be acquired, for example, a distance camera may be used, or another subject position acquisition sensor may be used.
ステップS415では、解像度取得部322が、距離<L>の位置にある被写体の解像度<d>を算出する。図7を用いて被写体の解像度の導出について説明する。焦点距離(レンズ面とセンサ面の距離)をT、レンズ面と被写体面の距離をL、センサの縦方向のサイズをS、被写体面の縦方向の画角のサイズをHとする。この場合、倍率M(=H/S)はM=L/Tとなり、さらに、センサの縦方向の画素数をhとすると、縦方向のセンサピッチUはU=S/hである。したがった、被写体の解像度<d>は、d=M/Uで求められる。
In step S415, the
なお、ここでは簡易なモデルを用いた解像度の算出方法について示したが、精度を必要とする場合、レンズの厚みや組み合わせ等を考慮した複雑なモデルから解像度を求めてもよい。また、縦方向のサイズと画素数の比(単位長あたりの画素数)から単位面積あたりの画素数を算出したが、縦横両方のサイズと画素数から、その積の比によって単位面積あたりの画素数を算出してもよい。さらには、撮影平面に対する代表視線の交点と視点との距離を被写体までの距離として算出したが、隣接する視点との視差から被写体までの距離を求めてもよいし、距離センサを使って距離を求めてもよいし、距離を求めることができればその他の方法でもよい。また、解像度は、撮像された被写体の単位面積あたりの画素数としているが、被写体の単位長さあたりの画素数としてもよい。以上で、解像度を取得する処理についての説明を終える。 Although a method of calculating the resolution using a simple model has been shown here, the resolution may be obtained from a complicated model in consideration of the thickness and combination of lenses when accuracy is required. In addition, the number of pixels per unit area was calculated from the ratio of the size in the vertical direction to the number of pixels (the number of pixels per unit length). The number may be calculated. Furthermore, although the distance between the viewpoint and the intersection of the representative line of sight with respect to the shooting plane is calculated as the distance to the subject, the distance to the subject may be calculated from the parallax between adjacent viewpoints, or the distance may be calculated using a distance sensor. It may be obtained, or another method may be used as long as the distance can be obtained. Further, the resolution is the number of pixels per unit area of the imaged subject, but may be the number of pixels per unit length of the subject. This is the end of the description of the process of acquiring the resolution.
次に、前述のようにして生成した優先度を考慮したデータ伝送パケットの生成、及びパケットの制御について説明する。図8は、符号量制御に関わる伝送部220内の構成例を示すブロック図である。図8においては、被写体画像を伝送する際のデータの流れを示しており、その説明に寄与しない他の構成の記載を省略している。
Next, generation of a data transmission packet in consideration of the priority generated as described above and packet control will be described. FIG. 8 is a block diagram showing a configuration example in the
データ圧縮・伸張部221は、画像符号化部811及びメッセージ生成部812を有する。画像符号化部811は、画像処理部230から被写体画像及び分離パラメータを受け取り、分離パラメータに従って被写体画像を解像度成分に分離して符号化する。すなわち、画像符号化部811は、分離パラメータとして示されるウェーブレット変換回数分、被写体画像に対するウェーブレット変換を行って解像度成分に分離する。
The data compression/
メッセージ生成部812は、解像度成分及びその特定情報、優先度を受け取り、メッセージを生成して画像・音声伝送処理部224に出力する。ここで、特定情報は、対応する解像度成分が、どのカメラで撮像された、どの被写体画像のどの成分であるかを特定するための情報であり、例えば画像データの復号に利用される。メッセージ生成部812は、メッセージのデータ領域に解像度成分を格納し、ヘッダ領域に優先度と解像度成分の特定情報を格納する。
The
画像・音声伝送処理部224は、メッセージ制御部821、メッセージ保持領域822、及びパケット生成部823を有する。メッセージ制御部821は、メッセージ生成部812により生成された優先度付き符号データをメッセージとして取り扱い、優先度を考慮してメッセージ保持領域822に保持されたメッセージを管理する。また、メッセージ制御部821は、メッセージをパケット生成部823に出力する。パケット生成部823は、入力されたメッセージを所定サイズ単位に分解してパケットを生成する。パケット生成部823により生成されたパケットはネットワークアダプタ210に出力される。
The image/sound
図9は、データ圧縮・伸張部221の処理例を示すフローチャートである。ステップS901では、データ圧縮・伸張部221の画像符号化部811が、画像処理部230から被写体画像及び分離パラメータを受け取る。ステップS902では、データ圧縮・伸張部221の画像符号化部811が、分離パラメータとして受け取ったウェーブレット変換回数に従い、被写体画像を解像度成分に分離して符号化する。ここでの符号化はJPEG2000を用いる。JPEG2000はウェーブレット変換によって、画像データを解像度成分に分離することができる。符号化方式は、JPEG2000のように画像データを解像度成分に分離可能なものであれば他の方式を利用してもよい。
FIG. 9 is a flowchart showing a processing example of the data compression/
ステップS903では、データ圧縮・伸張部221のメッセージ生成部812が、画像処理部230から優先度を受け取る。ステップS904では、データ圧縮・伸張部221のメッセージ生成部812が、ステップS902において生成した解像度成分に、対応する優先度を付加してメッセージを生成する。メッセージ生成部812は、データ領域に解像度成分を格納し、ヘッダ領域に優先度と解像度成分の特定情報を格納して、メッセージを生成する。ステップS905では、データ圧縮・伸張部221のメッセージ生成部812が、生成したメッセージを出力する。この図9に示した処理は、フレームから切り出されたすべての被写体画像に対して実行される。
In step S903, the
図10は、メッセージ制御部821の処理例を示すフローチャートである。ステップS1001では、データ圧縮・伸張部221からメッセージ制御部821に、メッセージ<m>が入力される。ステップS1002では、メッセージ制御部821が、メッセージ保持領域822の空き領域をチェックし、メッセージ保持領域822にメッセージ<m>を保持できるか否かを判断する。メッセージ保持領域822にメッセージ<m>を保持するための領域があると判断した場合(Yes)、ステップS1003で、メッセージ制御部821が、メッセージ<m>をメッセージ保持領域822に格納して処理を終了する。
FIG. 10 is a flowchart showing a processing example of the
一方、ステップS1002において、メッセージ保持領域822にメッセージ<m>を保持するための空き領域がないとメッセージ制御部821が判断した場合(No)、ステップS1004へ進む。ステップS1004では、メッセージ制御部821が、メッセージ保持領域822に格納されているメッセージ及びメッセージ<m>の内で、メッセージ<m>が最も優先度が高いメッセージであるか否かを判断する。すなわち、メッセージ制御部821が、メッセージ保持領域822に格納されているメッセージの中で最大の優先度とメッセージ<m>の優先度とを比較する。
On the other hand, in step S1002, when the
ステップS1004において、メッセージ<m>が最も優先度が高いメッセージであると判断した場合(Yes)、ステップS1005で、メッセージ制御部821が、メッセージ<m>をパケット生成部823に出力して処理を終了する。一方、ステップS1004において、メッセージ<m>が最も優先度が高いメッセージではないとメッセージ制御部821が判断した場合(No)、ステップS1006へ進む。すなわち、メッセージ保持領域822に格納されているメッセージの内に最も優先度が高いメッセージがあるとメッセージ制御部821が判断した場合、ステップS1006へ進む。ステップS1006では、メッセージ制御部821が、メッセージ保持領域822の中で優先度が最大のメッセージをパケット生成部823に出力して、ステップS1002に戻る。
When it is determined in step S1004 that the message <m> is the message with the highest priority (Yes), the
このようにしてメッセージ制御部821は、順次入力されるメッセージをメッセージ保持領域822に適宜格納しながら、優先度が高いメッセージを選別して出力する役割を担う。メッセージ保持領域822のサイズが小さいと、メッセージの到着順序によっては所望の選別結果を得られないため、十分なサイズを保持するものとする。
In this way, the
図11は、パケット生成部823の処理例を示すフローチャートである。ステップS1101では、メッセージ制御部821からパケット生成部823に、メッセージ<s>が入力される。ステップS1102では、パケット生成部823が、入力されたメッセージ<s>を現在生成中のパケットに挿入できるか否かを判断する。パケットは所定のサイズが予め規定されており、パケット生成部823は、メッセージ<s>を入力した場合にそのサイズを超えるかどうかを確認する。
FIG. 11 is a flowchart showing a processing example of the
ステップS1102においてメッセージ<s>を現在生成中のパケットに挿入できると判断した場合(Yes)、ステップS1103で、パケット生成部823が、メッセージ<s>をパケットに挿入して終了する。一方、ステップS1102においてメッセージ<s>を現在生成中のパケットに挿入できないとパケット生成部823が判断した場合(No)、ステップS1104へ進む。ステップS1104では、パケット生成部823が、現在生成中のパケットの生成を完了して、パケットのヘッダ領域にパケット内で最大の優先度を書き込み、パケット生成部823にパケットを出力する。その後、ステップS1105で、パケット生成部823が、新規パケットを生成する。
When it is determined in step S1102 that the message <s> can be inserted into the packet currently being generated (Yes), the
以上で、メッセージ制御部821及びパケット生成部823の処理の説明を終える。前述した図10及び図11に示した処理は、フレームから取得されたすべての被写体画像に対して実行される。ただし、本実施形態においては、予め1フレームあたりのデータ量の上限値MAXが設定されている。1フレームあたりのデータ量の上限値MAXと1パケットあたりのサイズAから、1フレームあたりに出力可能なパケット数Rが、次の式により求められる。
This is the end of the description of the processing of the
したがって、図11に示したステップS1104でのパケットの出力がR回に達した時点で、現フレームの処理は終了される。また、すべての被写体画像の処理が完了しても出力したパケット数がRに達していない場合、メッセージ制御部821は、メッセージ保持領域822に格納されたメッセージを優先度の高いものから順にパケット生成部823に出力する。この処理は、出力パケット数がRに達するか、あるいはすべてのメッセージを出力するまで繰り返される。以上の処理により、優先度付きの解像度成分のうち、大きな優先度を持つものを優先的に伝送することができる。なお、メッセージ保持領域822は、フレーム単位で初期化される。
Therefore, when the output of the packet in step S1104 shown in FIG. 11 reaches R times, the processing of the current frame is ended. In addition, when the number of output packets does not reach R even after the processing of all the subject images is completed, the
第1の実施形態によれば、前景領域(被写体画像)の画像データを解像度成分に分離し、データ量が伝送帯域を超える場合には、解像度に応じた優先度に従って符号データを破棄する。これにより、意図しない画像情報の欠損を防ぎ、前景となる被写体の位置に依らず、仮想視点コンテンツの画像品質を安定させることができる。したがって、カメラからの距離が異なる複数の被写体が含まれていても距離が遠い被写体の画質劣化を抑制し画像のデータ量を適切に制御することができる。 According to the first embodiment, the image data of the foreground area (subject image) is separated into resolution components, and when the data amount exceeds the transmission band, the code data is discarded according to the priority according to the resolution. This makes it possible to prevent unintended loss of image information and stabilize the image quality of the virtual viewpoint content regardless of the position of the subject in the foreground. Therefore, even if a plurality of subjects having different distances from the camera are included, it is possible to suppress the image quality deterioration of the subject having a long distance and to appropriately control the data amount of the image.
(第2の実施形態)
次に、本発明の第2の実施形態について説明する。第1の実施形態では、カメラ毎に独立して符号量制御を行う。しかしながら、カメラ毎に切り出された被写体の数や距離が大きく異なる場合、それぞれのカメラで品質の保証に必要とされる符号量が異なるため、システム全体で符号量制御を行うことが望ましい。例えば、切り出された被写体の数が多いほど必要な符号量が大きくなる。そこで、第2の実施形態では、カメラアダプタ115が伝送帯域の飽和度を監視し、システム全体として符号量(データ量)を制御することで、画像の品質をさらに高める。以下では、第2の実施形態における画像処理システムにおいて、前述した第1の実施形態と異なる点についてのみ説明する。
(Second embodiment)
Next, a second embodiment of the present invention will be described. In the first embodiment, the code amount control is independently performed for each camera. However, when the number of subjects cut out for each camera and the distance are greatly different, the code amount required for quality assurance differs for each camera, so it is desirable to control the code amount in the entire system. For example, the larger the number of cut-out subjects, the larger the required code amount. Therefore, in the second embodiment, the
図12は、第2の実施形態における伝送部220内の構成例を示すブロック図である。図12において、図8に示したブロックに対応するブロックには同一の符号を付し、重複する説明は省略する。図12に示すように、第2の実施形態における伝送部220において、画像・音声伝送処理部224は、メッセージ制御部821、メッセージ保持領域822、及びパケット生成部823に加え、パケット制御部824及びパケット保持領域825を有する。このような構成により、デイジーチェーンの上流から伝送されるパケットと自身が生成するパケットの優先度を鑑みて、システム全体で画像の品質劣化を低減するための符号量制御を行う。
FIG. 12 is a block diagram showing a configuration example inside the
第2の実施形態において、パケット生成部823は、生成したパケットをパケット制御部824に出力する。パケット制御部824は、パケット生成部823及びネットワークアダプタ210からそれぞれ自視点とネットワーク上のパケットを受け取り、優先度に応じたパケットの破棄と、ネットワークアダプタ210へのパケットの出力を行う。パケット保持領域825は、パケット制御部824が受け取ったパケットを適宜保持するための領域である。
In the second embodiment, the
図13(A)及び図13(B)は、パケット制御部824の処理例を示すフローチャートである。図13(A)には、パケットの優先度に応じた破棄を行う処理の例を示している。ステップS1301では、パケット制御部824にパケット<p>が入力される。ステップS1302では、パケット制御部824が、パケット保持領域825の空き領域をチェックし、パケット保持領域825にパケット<p>を保持できるか否かを判断する。パケット保持領域825にパケット<p>を保持するための領域があると判断した場合(Yes)、ステップS1303で、パケット制御部824が、パケット<p>をパケット保持領域825に格納して処理を終了する。
13A and 13B are flowcharts showing a processing example of the
一方、ステップS1302において、パケット保持領域825にパケット<p>を保持するための空き領域がないとパケット制御部824が判断した場合(No)、ステップS1304へ進む。ステップS1304では、パケット制御部824が、パケット保持領域825に格納されているパケット及びパケット<p>の内で、パケット<p>が最も優先度が低いパケットであるか否かを判断する。すなわち、パケット制御部824が、パケット保持領域825に格納されているメッセージの中で最も低い優先度とパケット<p>の優先度とを比較する。
On the other hand, in step S1302, when the
ステップS1304において、パケット<p>が最も優先度が低いメッセージであると判断した場合(Yes)、ステップS1305で、パケット制御部824が、パケット<p>を破棄して処理を終了する。一方、ステップS1304において、パケット<p>が最も優先度が低いメッセージではないとパケット制御部824が判断した場合(No)、ステップS1306へ進む。すなわち、パケット保持領域825に格納されているパケットの内に最も優先度が低いメッセージがあるとパケット制御部824が判断した場合、ステップS1306へ進む。ステップS1306では、パケット制御部824が、パケット保持領域825の中で優先度が最も低いパケットを破棄して、ステップS1302に戻る。
When it is determined in step S1304 that the packet <p> is the message with the lowest priority (Yes), the
図13(B)には、ネットワークを流れるパケットと自視点のデータから生成したパケットをパケット保持領域825に一端格納し、優先度に応じてネットワークにパケットを伝送する処理の例を示している。ステップS1311では、パケット制御部824が、ネットワークアダプタ210へのパケットの出力可否を確認し、出力が可能になるまで待機する。出力が可能になったと判断すると、ステップS1312で、パケット制御部824が、パケット保持領域825の中で最も優先度が高いパケットをネットワークアダプタ210に出力する。
FIG. 13B shows an example of a process of temporarily storing a packet flowing through the network and a packet generated from the data of its own viewpoint in the
本実施形態では、パケット制御部824及びパケット保持領域825によって実現されるパケット破棄を制御する機能を、画像・音声伝送処理部224の一部として有する例を示した。ただし、すべての画像・音声伝送処理部224がパケット破棄の制御機能を有する必要はなく、一部の画像・音声伝送処理部224がパケット破棄の制御機能を有していてもよい。また、パケット破棄の制御機能が画像・音声伝送処理部224から独立した装置として成り、ネットワーク上に単体で設置される構成としてもよい。ここで説明したどの形態においても、パケット制御部824及びパケット保持領域825の機能は変わらない。
In the present embodiment, an example is shown in which the
また、本実施形態では被写体画像を解像度成分に分離する処理を、ウェーブレット変換ではなく、DCT変換によって実現する。まず、被写体画像を8×8のブロックに分割し、ブロック単位にDCT変換を行う。このとき得られるDCT係数も8×8のブロックで得られ、左上ほど低周波の情報を表す。例えば、左上の4×4のブロックを取り出して逆変換を行えば、縦横方向のそれぞれにおいて解像度が半分の画像を得ることができる。図14は、8×8のブロック単位でDCT変換した場合のDCT係数の解像度成分を表している。同じ番号を持つ係数は1つの解像度成分である。ブロックサイズをK×Kとし、解像度成分を表す番号をi(i<K)とした時、解像度成分の優先度Pを以下のように計算する。 Further, in the present embodiment, the processing of separating the subject image into resolution components is realized by DCT transformation instead of wavelet transformation. First, the subject image is divided into 8×8 blocks, and DCT conversion is performed in block units. The DCT coefficient obtained at this time is also obtained in an 8×8 block, and the lower left side indicates lower frequency information. For example, if the upper left 4×4 block is taken out and inverse transformation is performed, an image having half the resolution in each of the vertical and horizontal directions can be obtained. FIG. 14 shows the resolution component of the DCT coefficient when DCT conversion is performed in 8×8 block units. Coefficients having the same number are one resolution component. When the block size is K×K and the number representing the resolution component is i (i<K), the priority P of the resolution component is calculated as follows.
これは、元の解像度に対するi番目の解像度成分が表す解像度の画素数の割合を表した指標となっている。本実施形態では、前述の解像度成分を取得するのにJPEGのアルゴリズムを流用する。JPEGの画像符号化アルゴリズムは、大きく分けて、ブロック分割、DCT変換、及び変換係数の符号化の3ステップで構成される、ここでは、変換係数の符号化に修正を加える。JPEGでは変換係数をジグザグスキャン順に量子化してハフマン符号化する。本実施形態では、変換係数を図14に示したように解像度成分に分離し、解像度成分単位で変換係数を量子化して符号化する。ここで得られた符号データを解像度成分として取り扱う。ただし、解像度成分の取得方法は、これに限らず、ブロック分割は任意の大きさでよく、変換係数の符号化方法もハフマン符号化ではなく算術符号化等の他のエントロピー符号化アルゴリズムを用いてもよい。また、解像度成分の分離方法として、本実施形態ではDCT変換の例を示したが、同じように周波数成分に分離可能なものであればよく、例えばアダマール変換を用いてもよい。 This is an index showing the ratio of the number of pixels of the resolution represented by the i-th resolution component to the original resolution. In this embodiment, the JPEG algorithm is used to acquire the above-described resolution component. The image coding algorithm of JPEG is roughly divided into three steps of block division, DCT transform, and coding of transform coefficients. Here, the coding of transform coefficients is modified. In JPEG, transform coefficients are quantized in zigzag scan order and Huffman coded. In the present embodiment, the transform coefficient is separated into resolution components as shown in FIG. 14, and the transform coefficient is quantized and coded in resolution component units. The code data obtained here is treated as a resolution component. However, the resolution component acquisition method is not limited to this, and the block division may be of any size, and the transform coefficient coding method may also use other entropy coding algorithms such as arithmetic coding instead of Huffman coding. Good. Further, as the resolution component separating method, the example of the DCT transform is shown in the present embodiment, but any method that can similarly be separated into frequency components may be used, and for example, Hadamard transform may be used.
第2の実施形態によれば、第1の実施形態と同様の効果が得られるとともに、ネットワーク全体で符号量を制御することで、カメラ間で必要な符号量の偏りを吸収し、システム全体として得られる画像情報の品質を高めることができる。 According to the second embodiment, the same effect as that of the first embodiment can be obtained, and by controlling the code amount in the entire network, the deviation of the required code amount between the cameras can be absorbed, and the entire system can be realized. The quality of the obtained image information can be improved.
(その他の実施形態)
本実施形態を構成する各装置のハードウェア構成について説明する。前述した実施形態では、カメラアダプタ115がFPGA及び/又はASIC等のハードウェアを実装し、これらのハードウェアによって、前述した各処理を実行する場合の例を説明した。それはセンサシステム110内の各種装置や、フロントエンドサーバ121、データベース122、バックエンドサーバ123、及びコントローラ130についても同様である。しかしながら、これらの装置のうち、少なくとも何れかが、例えばCPU、GPU、DSP等を用い、ソフトウェア処理によって本実施形態の処理を実行するようにしても良い。
(Other embodiments)
The hardware configuration of each device that constitutes this embodiment will be described. In the above-described embodiment, an example has been described in which the
図15は、図2に示した機能構成をソフトウェア処理によって実現するための、カメラアダプタ115のハードウェア構成を示すブロック図である。なお、フロントエンドサーバ121、データベース122、バックエンドサーバ123、制御ステーション131、仮想カメラ操作UI132、及びエンドユーザ端末150等の装置も、図15のハードウェア構成となりうる。カメラアダプタ115は、CPU1501、ROM1502、RAM1503、補助記憶装置1504、表示部1505、操作部1506、通信部1507、及びバス1508を有する。
FIG. 15 is a block diagram showing a hardware configuration of the
CPU1501は、ROM1502やRAM1503に格納されているコンピュータプログラムやデータを用いてカメラアダプタ115の全体を制御する。ROM1502は、変更を必要としないプログラムやパラメータを格納する。RAM1503は、補助記憶装置1504から供給されるプログラムやデータ、及び通信部1507を介して外部から供給されるデータ等を一時記憶する。補助記憶装置1504は、例えばハードディスクドライブ等で構成され、静止画や動画等のコンテンツデータを記憶する。
The
表示部1505は、例えば液晶ディスプレイ等で構成され、ユーザがカメラアダプタ115を操作するためのGUI(Graphical User Interface)等を表示する。操作部1506は、例えばキーボードやマウス等で構成され、ユーザによる操作を受けて各種の指示をCPU1501に入力する。通信部1507は、カメラ112やフロントエンドサーバ121等の外部の装置と通信を行う。例えば、カメラアダプタ115が外部の装置と有線で接続される場合には、LANケーブル等が通信部1507に接続される。なお、カメラアダプタ115が外部の装置と無線通信する機能を有する場合、通信部1507はアンテナを備える。バス1508は、カメラアダプタ115の各部を繋いで情報を伝達する。
The
なお、例えばカメラアダプタ115の処理のうち一部をFPGAで行い、別の一部の処理を、CPUを用いたソフトウェア処理によって実現するようにしてもよい。また、本実施形態では表示部1505と操作部1506はカメラアダプタ115の内部に存在するが、カメラアダプタ115は表示部1505及び操作部1506の少なくとも一方を備えていなくてもよい。また、表示部1505及び操作部1506の少なくとも一方がカメラアダプタ115の外部に別の装置として存在していて、CPU1501が、表示部1505を制御する表示制御部、及び操作部1506を制御する操作制御部として動作してもよい。
Note that, for example, a part of the processing of the
また、前述の実施形態は、画像処理システム100が競技場やコンサートホール等の施設に設置される場合の例を中心に説明した。施設の他の例としては、例えば、遊園地、公園、競馬場、競輪場、カジノ、プール、スケートリンク、スキー場、ライブハウス等がある。また、各種施設で行われるイベントは、屋内で行われるものであっても屋外で行われるものであってもよい。また、本実施形態における施設は、一時的に(期間限定で)建設される施設も含む。
Further, the above-described embodiment has been described focusing on an example in which the
本発明は、前述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. It can also be realized by the processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
なお、前記実施形態は、何れも本発明を実施するにあたっての具体化のほんの一例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 It should be noted that each of the above-described embodiments is merely an example of the embodiment in carrying out the present invention, and the technical scope of the present invention should not be limitedly interpreted by these. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.
100:画像処理システム 110:センサシステム 112:カメラ 114:外部センサ 115:カメラアダプタ 120:画像コンピューティングサーバ 121:フロントエンドサーバ 122:データベース 123:バックエンドサーバ 130:コントローラ 131:制御ステーション 132:仮想カメラ操作UI 150:エンドユーザ端末 210:ネットワークアダプタ 211:データ送受信部 220:伝送部 221:データ圧縮・伸張部 224:画像・音声伝送処理部 230:画像処理部 231:前景背景分離部 232:優先度生成部 233:キャリブレーション制御部 240:外部機器制御部 311:前景分離部 321:カメラパラメータ受信部 322:解像度取得部 323:分離パラメータ算出部 324:優先度算出部 811:画像符号化部 812:メッセージ生成部 821:メッセージ制御部 822:メッセージ保持領域 823:パケット生成部 824:パケット制御部 825:パケット保持領域 100: Image Processing System 110: Sensor System 112: Camera 114: External Sensor 115: Camera Adapter 120: Image Computing Server 121: Front End Server 122: Database 123: Back End Server 130: Controller 131: Control Station 132: Virtual Camera Operation UI 150: End user terminal 210: Network adapter 211: Data transmission/reception unit 220: Transmission unit 221: Data compression/decompression unit 224: Image/audio transmission processing unit 230: Image processing unit 231: Foreground/background separation unit 232: Priority Generation unit 233: Calibration control unit 240: External device control unit 311: Foreground separation unit 321: Camera parameter reception unit 322: Resolution acquisition unit 323: Separation parameter calculation unit 324: Priority calculation unit 811: Image coding unit 812: Message generation unit 821: Message control unit 822: Message holding area 823: Packet generation unit 824: Packet control unit 825: Packet holding area
Claims (15)
前記被写体画像の解像度を取得する解像度取得手段と、
前記被写体画像を1つ以上の解像度成分に分離する処理手段と、
分離された前記解像度成分に対する優先度を算出する優先度算出手段とを有し、
前記優先度算出手段は、前記解像度成分が表す被写体の解像度が第1の解像度より小さい第2の解像度である場合、前記第1の解像度で算出される優先度よりも高い優先度を算出することを特徴とする画像処理装置。 Image acquisition means for obtaining a subject image relating to the subject from the input image;
Resolution acquisition means for acquiring the resolution of the subject image,
Processing means for separating the subject image into one or more resolution components;
And a priority calculation means for calculating the priority for the separated resolution components,
When the resolution of the subject represented by the resolution component is a second resolution smaller than the first resolution, the priority calculation means calculates a priority higher than the priority calculated in the first resolution. An image processing device characterized by.
前記解像度取得手段は、前記被写体までの距離が大きい程、小さい値を前記被写体画像の解像度とすることを特徴とする請求項1〜3の何れか1項に記載の画像処理装置。 The priority calculation means calculates a high priority as the resolution of the subject image decreases,
The image processing apparatus according to claim 1, wherein the resolution acquisition unit sets a smaller value to the resolution of the subject image as the distance to the subject increases.
前記優先度算出手段は、前記被写体画像の解像度が小さくなるに伴って高い優先度を算出し、
前記解像度取得手段は、前記焦点距離が大きい程、あるいは前記センサピッチが小さい程、大きい値を前記被写体画像の解像度とすることを特徴とする請求項1〜3の何れか1項に記載の画像処理装置。 A parameter receiving unit for acquiring the focal length and the sensor pitch of the subject image,
The priority calculation means calculates a high priority as the resolution of the subject image decreases,
The image according to any one of claims 1 to 3, wherein the resolution acquisition unit sets a larger value to the resolution of the subject image as the focal length is larger or the sensor pitch is smaller. Processing equipment.
生成された複数の前記メッセージを格納してパケットを生成するパケット生成手段と、
付加された優先度に従って、前記メッセージ生成手段により生成されたメッセージを前記パケット生成手段に出力するメッセージ制御手段とを有することを特徴とする請求項1〜8の何れか1項に記載の画像処理装置。 Message generating means for generating a message by adding the priority corresponding to the resolution component,
Packet generating means for storing a plurality of the generated messages and generating a packet,
9. The image processing according to claim 1, further comprising a message control unit that outputs the message generated by the message generation unit to the packet generation unit according to the added priority. apparatus.
入力される前記パケットを保持領域に保持できない場合、前記パケットの優先度が最も低いパケットを破棄するパケット制御手段を有することを特徴とする請求項9記載の画像処理装置。 The packet generation means stores the highest priority among the messages stored in the packet as the priority of the packet in the packet,
10. The image processing apparatus according to claim 9, further comprising a packet control unit that discards the packet having the lowest priority when the input packet cannot be held in the holding area.
複数の前記画像処理装置から取得した画像データに基づいて仮想視点画像を生成する画像生成装置とを有する画像処理システム。 A plurality of image processing devices according to any one of claims 1 to 12,
An image processing system comprising: an image generation device that generates a virtual viewpoint image based on image data acquired from a plurality of image processing devices.
前記被写体画像の解像度を取得する解像度取得工程と、
前記被写体画像を1つ以上の解像度成分に分離する処理工程と、
分離された前記解像度成分に対する優先度を算出する優先度算出工程とを有し、
前記優先度算出工程では、前記解像度成分が表す被写体の解像度が第1の解像度より小さい第2の解像度である場合、前記第1の解像度で算出される優先度よりも高い優先度を算出することを特徴とする画像処理方法。 An image acquisition step of obtaining a subject image relating to the subject from the input image,
A resolution acquisition step of acquiring the resolution of the subject image,
A processing step of separating the subject image into one or more resolution components;
A priority calculation step of calculating a priority for the separated resolution components,
In the priority calculation step, when the resolution of the subject represented by the resolution component is the second resolution smaller than the first resolution, a priority higher than the priority calculated in the first resolution is calculated. An image processing method characterized by:
前記被写体画像の解像度を取得する解像度取得ステップと、
前記被写体画像を1つ以上の解像度成分に分離する処理ステップと、
分離された前記解像度成分に対する優先度を算出する優先度算出ステップとをコンピュータに実行させ、
かつ前記優先度算出ステップでは、前記解像度成分が表す被写体の解像度が第1の解像度より小さい第2の解像度である場合、前記第1の解像度で算出される優先度よりも高い優先度を算出する処理をコンピュータに実行させるためのプログラム。 An image acquisition step of obtaining a subject image relating to the subject from the input image;
A resolution acquisition step of acquiring the resolution of the subject image,
A processing step of separating the subject image into one or more resolution components;
Causing the computer to execute a priority calculation step of calculating a priority for the separated resolution components,
Further, in the priority calculation step, when the resolution of the subject represented by the resolution component is the second resolution smaller than the first resolution, a priority higher than the priority calculated in the first resolution is calculated. A program that causes a computer to perform processing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018226778A JP2020092301A (en) | 2018-12-03 | 2018-12-03 | Image processing device, image processing system, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018226778A JP2020092301A (en) | 2018-12-03 | 2018-12-03 | Image processing device, image processing system, image processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020092301A true JP2020092301A (en) | 2020-06-11 |
Family
ID=71013150
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018226778A Pending JP2020092301A (en) | 2018-12-03 | 2018-12-03 | Image processing device, image processing system, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020092301A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112423147A (en) * | 2020-11-10 | 2021-02-26 | 常州沃翌智能科技有限公司 | Distributed multi-camera image acquisition and processing system |
CN115278042A (en) * | 2021-04-30 | 2022-11-01 | 西门子股份公司 | Method and apparatus for setting frame rate in image processing, and computer readable medium |
-
2018
- 2018-12-03 JP JP2018226778A patent/JP2020092301A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112423147A (en) * | 2020-11-10 | 2021-02-26 | 常州沃翌智能科技有限公司 | Distributed multi-camera image acquisition and processing system |
CN112423147B (en) * | 2020-11-10 | 2022-12-02 | 常州沃翌智能科技有限公司 | Distributed multi-camera image acquisition and processing system |
CN115278042A (en) * | 2021-04-30 | 2022-11-01 | 西门子股份公司 | Method and apparatus for setting frame rate in image processing, and computer readable medium |
CN115278042B (en) * | 2021-04-30 | 2023-11-28 | 西门子股份公司 | Method, apparatus and computer readable medium for setting frame rate in image processing |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7121470B2 (en) | Image processing system, control method, and program | |
US11750792B2 (en) | Information processing apparatus, image generation method, control method, and storage medium | |
JP6429829B2 (en) | Image processing system, image processing apparatus, control method, and program | |
JP6482498B2 (en) | Control device, control method, and program | |
KR102129792B1 (en) | Information processing device, image generation method, control method and program | |
KR102270429B1 (en) | Method and apparatus for generating a virtual image from a viewpoint selected by a user, from a camera array whose default parameters are associated with a selected type of sporting event | |
JP6871801B2 (en) | Image processing equipment, image processing method, information processing equipment, imaging equipment and image processing system | |
JP7042571B2 (en) | Image processing device and its control method, program | |
US10708469B2 (en) | Image processing apparatus, method of controlling the same, non-transitory computer-readable storage medium, and image processing system | |
US11050992B2 (en) | Control apparatus, image processing system, control method, and medium | |
JP2019103067A (en) | Information processing device, storage device, image processing device, image processing system, control method, and program | |
JP2019022151A (en) | Information processing apparatus, image processing system, control method, and program | |
JP2020092301A (en) | Image processing device, image processing system, image processing method, and program | |
JP2019008429A (en) | Image processing apparatus, image processing system, image processing method and program | |
JP2019134428A (en) | Control device, control method, and program | |
JP2018191251A (en) | Information processing system, information processing method, and program | |
JP6827996B2 (en) | Image processing device, control method, and program | |
JP2019140483A (en) | Image processing system, image processing system control method, transmission device, transmission method, and program | |
JP2022095791A (en) | Information processing device, generation method, and program | |
JP7104504B2 (en) | Image processing system, image processing device, image transmission method, and program | |
JP2021077120A (en) | Image processing system, controller and control method therefor, image transmission method and program | |
JP2019071650A (en) | Control device, control method, and program | |
JP2019083405A (en) | Decoding device, transmission device, decoding method, control method for transmission device, and program | |
JP2018191236A (en) | Information processing system, information processing method, apparatus, and program | |
JP2021068373A (en) | Control apparatus, image processing system, control method, and program |