JP7150501B2 - Control device, control method, and program - Google Patents
Control device, control method, and program Download PDFInfo
- Publication number
- JP7150501B2 JP7150501B2 JP2018128459A JP2018128459A JP7150501B2 JP 7150501 B2 JP7150501 B2 JP 7150501B2 JP 2018128459 A JP2018128459 A JP 2018128459A JP 2018128459 A JP2018128459 A JP 2018128459A JP 7150501 B2 JP7150501 B2 JP 7150501B2
- Authority
- JP
- Japan
- Prior art keywords
- cameras
- camera
- color
- color difference
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Studio Circuits (AREA)
- Color Television Image Signal Generators (AREA)
- Image Analysis (AREA)
Description
本発明は、仮想視点コンテンツの生成のためのシステムに関する。 The present invention relates to a system for the generation of virtual viewpoint content.
従来、同一シーンを複数のカメラで撮影し、カメラを切り替えながら映像を配信するシステムや、ユーザが指定した仮想視点からオブジェクト(被写体)を観察できるシステムが知られている。このようなシステムにおいて、各カメラで撮影された撮影画像の色合いに違いがあると、配信される映像や生成された映像が不自然になってしまう。 2. Description of the Related Art Conventionally, there are known a system in which the same scene is photographed by a plurality of cameras and the images are distributed while switching the cameras, and a system in which an object (subject) can be observed from a virtual viewpoint specified by a user. In such a system, if there is a difference in the color tone of the captured images captured by each camera, the distributed video or the generated video will be unnatural.
特許文献1には、3台以上のカメラで撮影された各撮影画像の色合いが均一となるように、各撮影画像を補正するための設定パラメータを最適化する方法が開示されている。
しかしながら、従来技術では、隣接するカメラ間の個体差が大きい場合には、当該個体差を色補正だけで吸収しきれなかった。すなわち、従来技術による色補正では、カメラ間の色合わせに限界があった。 However, in the prior art, when individual differences between adjacent cameras are large, the individual differences cannot be absorbed by color correction alone. In other words, the conventional color correction has limitations in color matching between cameras.
本発明は、このような問題に鑑みてなされたものであり、その目的とするところは、複数のカメラで撮影された各撮影画像の色差を小さくすることにある。 SUMMARY OF THE INVENTION The present invention has been made in view of such problems, and an object of the present invention is to reduce the color difference between images captured by a plurality of cameras.
本発明の一実施形態に係る制御装置は、仮想視点コンテンツの生成のためのマルチカメラシステムにおける複数のカメラの配置を、前記複数のカメラによる撮影画像に基づいて決定する決定手段と、前記決定手段による決定に応じた出力を行う出力手段とを有し、前記決定手段は、隣のカメラとの撮影画像の色差が小さくなるように、前記複数のカメラの配置を決定する。 A control device according to an embodiment of the present invention comprises: determining means for determining an arrangement of a plurality of cameras in a multi-camera system for generating virtual viewpoint content based on images captured by the plurality of cameras; and an output means for outputting according to the determination by the determination means, wherein the determination means determines the arrangement of the plurality of cameras so that the color difference between the photographed images of the adjacent cameras is reduced .
本発明によれば、複数のカメラで撮影された各撮影画像の色差を小さくすることができる。 ADVANTAGE OF THE INVENTION According to this invention, the color difference of each picked-up image image|photographed with several cameras can be made small.
以下、本発明の実施形態について、図面を参照して説明する。なお、以下の実施形態は本発明を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。なお、同一の構成については、同じ符号を付して説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings. It should be noted that the following embodiments do not limit the present invention, and not all combinations of features described in the embodiments are essential for the solution of the present invention. In addition, the same configuration will be described by attaching the same reference numerals.
(第1の実施形態)
[画像処理装置および画像処理システムの構成]
図1は、本実施形態における画像処理装置の構成例を示すブロック図である。
(First embodiment)
[Configuration of Image Processing Apparatus and Image Processing System]
FIG. 1 is a block diagram showing a configuration example of an image processing apparatus according to this embodiment.
画像処理装置100によって選定された複数のカメラ(マルチカメラ)が、後述する画像処理システム(マルチカメラシステム)200の複数のカメラ212として配置される。すなわち、画像処理装置100は、本実施形態におけるマルチカメラ選定装置として機能する。 A plurality of cameras (multi-cameras) selected by the image processing apparatus 100 are arranged as a plurality of cameras 212 of an image processing system (multi-camera system) 200, which will be described later. That is, the image processing device 100 functions as a multi-camera selection device in this embodiment.
CPU101は、メインメモリ102のRAMをワークメモリとして、メインメモリ102のROMおよびハードディスクドライブ(HDD)105に格納されたオペレーティングシステム(OS)や各種プログラムを実行する。そして、PCI (Peripheral Component Interconnect)バスなどのシステムバス114を介して各構成を制御する。さらに、後述する画像処理を含む各種プログラムを実行する。
The
CPU101は、システムバス114およびシリアルATAインタフェイス(SATA I/F)103を介してHDD105にアクセスする。また、ネットワークI/F104を介してローカルエリアネットワーク(LAN)などのネットワーク115にアクセスする。
また、CPU101は、シリアルバスインタフェイス(I/F)108とUSBやIEEE1394などのシリアルバス110に接続されたデバイスと通信を行う。そして、後述する画像処理対象の画像データを、カードリーダを含む画像入力デバイス113から取得したり、処理結果をプリンタ109に出力したりして、例えばユーザが指示する処理結果を印刷する。尚、画像処理対象の画像データは、HHD105やネットワーク115上のサーバから読み出してもよい。
The
また、CPU101は、後述する処理のユーザインタフェイスや処理結果を、グラフィックアクセラレータ106を介してモニタ107に表示し、ユーザ指示をシリアルバス110に接続されたキーボード111、マウス112を介して入力する。
The
図2は、本実施形態における画像処理システムの構成例を示すブロック図である。 FIG. 2 is a block diagram showing a configuration example of an image processing system according to this embodiment.
画像処理システム200は、競技場(スタジアム)やコンサートホールなどの施設に設置された複数のカメラ及びマイクを使用して、撮影及び集音を行うシステム(マルチカメラシステム)である。前述した画像処理装置100によって選定された複数のカメラが、画像処理システム200の複数のカメラ212として配置される。
The
画像処理システム200は、センサシステム210a~210z、画像コンピューティングサーバ300、コントローラ400、スイッチングハブ280、及びエンドユーザ端末290を有する。
コントローラ400は、制御ステーション410と仮想カメラ操作UI(ユーザインタフェイス)430を有する。
The
制御ステーション410は、画像処理システム200を構成するそれぞれのブロックに対してネットワーク410a~410c、280a、280b、及び270a~270yを通じて動作状態の管理及びパラメータ設定制御などを行う。ここで、ネットワークはEthernet(登録商標)であるIEEE標準準拠のGbE(ギガビットイーサーネット)や10GbEでもよいし、インターコネクトInfiniband、産業用イーサーネット等を組合せて構成されてもよい。また、ネットワークはこれらに限定されず、他の種別のネットワークであってもよい。
The
最初に、センサシステム210a~210zの26セットの画像及び音声をセンサシステム210zから画像コンピューティングサーバ300へ送信する動作を説明する。画像処理システム200では、センサシステム210a~210zが、デイジーチェーンにより接続される。
First, the operation of transmitting the 26 sets of images and sounds of
本実施形態において、特別な説明がない場合は、センサシステム210aからセンサシステム210zまでの26セットのシステムを区別せずセンサシステム210と記載する。各センサシステム210内の装置についても同様に、特別な説明がない場合は区別せず、マイク211、カメラ212、雲台213、及びカメラアダプタ220と記載する。なお、センサシステムの台数を26セットとして記載しているが、あくまでも一例であり、台数をこれに限定するものではない。また、複数のセンサシステム210は同一の構成でなくてもよく、例えばそれぞれが異なる機種の装置で構成されていてもよい。なお、本実施形態では、特に断りがない限り、画像という文言が、動画と静止画の概念を含むものとして説明する。すなわち、本実施形態の画像処理システム200は、静止画及び動画の何れについても処理可能である。また、本実施形態では、画像処理システム200により提供される仮想視点コンテンツには、仮想視点画像と仮想視点音声が含まれる例を中心に説明するが、これに限らない。例えば、仮想視点コンテンツに音声が含まれていなくても良い。また例えば、仮想視点コンテンツに含まれる音声が、仮想視点に最も近いマイクにより集音された音声であっても良い。また、本実施形態では、説明の簡略化のため、部分的に音声についての記載を省略しているが、基本的に画像と音声は共に処理されるものとする。
In this embodiment, the 26 sets of systems from the
センサシステム210は、それぞれ1台ずつカメラ212を有する。即ち、画像処理システム200は、オブジェクトを複数の方向から撮影するための複数のカメラ212を有する。なお、複数のカメラ212は同一符号を用いて説明するが、性能や機種が異なっていてもよい。複数のセンサシステム210同士はデイジーチェーンにより接続される。この接続形態により、撮影画像の4Kや8Kなどへの高解像度化及び高フレームレート化に伴う画像データの大容量化において、接続ケーブル数の削減や配線作業の省力化ができる。
Sensor systems 210 each have one camera 212 . That is, the
なお、これに限らず、接続形態として、各センサシステム210がスイッチングハブ280に接続されて、スイッチングハブ280を経由してセンサシステム210間のデータ送受信を行うスター型のネットワーク構成としてもよい。
Note that the connection configuration is not limited to this, and a star network configuration in which each sensor system 210 is connected to the
また、図2では、デイジーチェーンとなるよう、センサシステム210の全てがカスケード接続されている構成を示したが、これに限定するものではない。例えば、複数のセンサシステム210をいくつかのグループに分割して、分割したグループ単位でセンサシステム210間をデイジーチェーン接続してもよい。そして、分割単位の終端となるカメラアダプタ220が、スイッチングハブに接続されて画像コンピューティングサーバ300へ画像の入力を行うようにしてもよい。このような構成は、スタジアムにおいてとくに有効である。例えば、スタジアムが複数階で構成され、フロア毎にセンサシステム210を配備する場合が考えられる。この場合に、フロア毎、あるいはスタジアムの半周毎に画像コンピューティングサーバ300への入力を行うことができ、全センサシステム210を1つのデイジーチェーンで接続する配線が困難な場所でも設置の簡便化及びシステムの柔軟化を図ることができる。
Moreover, although FIG. 2 shows a configuration in which all of the sensor systems 210 are cascade-connected so as to form a daisy chain, the present invention is not limited to this. For example, the plurality of sensor systems 210 may be divided into several groups, and the sensor systems 210 may be daisy-chained for each divided group. Then, the camera adapter 220 that is the end of the division unit may be connected to the switching hub and input the image to the
また、画像コンピューティングサーバ300へ画像入力を行う終端のカメラアダプタ220が1つであるか、または2つ以上であるかに応じて、画像コンピューティングサーバ300での画像処理の制御が切り替えられる。すなわち、センサシステム210が複数のグループに分割されているかどうかに応じて制御が切り替えられる。画像入力を行うカメラアダプタ220が1つの場合は、デイジーチェーン接続で画像伝送を行いながら競技場全周画像が生成されるため、画像コンピューティングサーバ300において全周の画像データが揃うタイミングは同期がとられている。すなわち、センサシステム210がグループに分割されていなければ、同期はとられている。しかし、画像コンピューティングサーバ300へ画像入力を行うカメラアダプタ220が複数になる場合は、画像が撮影されてから画像コンピューティングサーバ300に入力されるまでの遅延がデイジーチェーンのレーン(経路)ごとに異なる場合が考えられる。すなわち、センサシステム210が複数のグループに分割される場合は、画像コンピューティングサーバ300に全周の画像データが入力されるタイミングは同期がとられないことがある。そのため、画像コンピューティングサーバ300において、全周の画像データが揃うまで待って同期をとる同期制御によって、画像データの集結をチェックしながら後段の画像処理を行う必要がある。
In addition, control of image processing in the
本実施形態では、センサシステム210aは、マイク211a、カメラ212a、雲台213a、及びカメラアダプタ220aを有する。なお、センサシステム210aは、この構成に限定されるものではなく、少なくとも1台のカメラアダプタ220aと、1台のカメラ212aまたは1台のマイク211aを有していれば良い。また例えば、センサシステム210aは、1台のカメラアダプタ220aと、複数のカメラ212aで構成されてもよいし、1台のカメラ212aと複数のカメラアダプタ220aで構成されてもよい。また、センサシステム210は、マイク211a、カメラ212a、雲台213a、及びカメラアダプタ220a以外の装置を含んでいてもよい。また、カメラ212とカメラアダプタ220が一体となって構成されていてもよい。さらに、カメラアダプタ220の機能の少なくとも一部をフロントエンドサーバ330が有していてもよい。本実施形態では、センサシステム210b~210zについては、センサシステム210aと同様の構成なので省略する。なお、センサシステム210aと同じ構成に限定されるものではなく、それぞれのセンサシステム210の構成は異なっていてもよい。
In this embodiment, the
マイク211aによって集音された音声と、カメラ212aによって撮影された画像は、カメラアダプタ220aにおいて画像処理が施された後、デイジーチェーン270aを通して、次のセンサシステム210bに伝送される。同様にセンサシステム210bは、集音された音声と撮影された画像を、センサシステム210aから取得した画像及び音声と合わせて、次のセンサシステム210cに伝送する。このような動作を続けることにより、センサシステム210a~210zが取得した画像及び音声は、センサシステム210zからネットワーク280bを介してスイッチングハブ280に伝送され、その後、画像コンピューティングサーバ300へ伝送される。
The sound collected by the
なお、本実施形態では、カメラ212a~212zとカメラアダプタ220a~220zが分離された構成にしているが、同一筺体で一体化されていてもよい。その場合、マイク211a~211zは、一体化されたカメラ212に内蔵されてもよいし、カメラ212の外部に接続されていてもよい。
Although the
次に、画像コンピューティングサーバ300の構成及び動作について説明する。本実施形態の画像コンピューティングサーバ300は、終端のセンサシステム210zから取得した画像及び音声データの処理を行う。画像コンピューティングサーバ300は、フロントエンドサーバ330、データベース350(以下、DBとも記載する。)、バックエンドサーバ370、及びタイムサーバ390を有する。
Next, the configuration and operation of
タイムサーバ390は、時刻及び同期信号を配信する機能を有し、スイッチングハブ280を介してセンサシステム210a~210zに時刻及び同期信号を配信する。時刻と同期信号を受信したカメラアダプタ220a~220zは、カメラ212a~212zを時刻と同期信号をもとにGenlockさせ、画像フレーム同期を行う。即ち、タイムサーバ390は、複数のカメラ212の撮影タイミングを同期させる。これにより、画像処理システム200は同じタイミングで撮影された複数の撮影画像に基づいて仮想視点画像を生成できるため、撮影タイミングのずれによる仮想視点画像の品質低下を抑制できる。なお、本実施形態では、タイムサーバ390が複数のカメラ212の時刻同期を管理するものとするが、これに限らず、時刻同期のための処理を各カメラ212又は各カメラアダプタ220が独立して行ってもよい。
The
フロントエンドサーバ330は、終端のセンサシステム210zから取得した画像及び音声について、セグメント化された伝送パケットを再構成してデータ形式を変換する。そして、カメラの識別子やデータ種別、フレーム番号に応じてデータベース350に書き込む。
The front-
バックエンドサーバ370は、仮想カメラ操作UI430から、ユーザが入力した視点の指定を受け付け、受け付けられた視点に基づいて、データベース350から対応する画像及び音声データを読み出し、レンダリング処理を行って仮想視点画像を生成する。
The back-
なお、画像コンピューティングサーバ300の構成はこれに限らない。例えば、フロントエンドサーバ330、データベース350、及びバックエンドサーバ370のうち少なくとも2つが一体となって構成されていてもよい。また、フロントエンドサーバ330、データベース350、及びバックエンドサーバ370の少なくとも何れかが複数含まれていてもよい。また、画像コンピューティングサーバ300内の任意の位置に上記の装置以外の装置が含まれていてもよい。さらに、画像コンピューティングサーバ300の機能の少なくとも一部をエンドユーザ端末290や仮想カメラ操作UI430が有していてもよい。
Note that the configuration of the
バックエンドサーバ370は、生成した仮想視点画像を、エンドユーザ端末290に送信する。エンドユーザ端末290を操作するユーザは、視点の指定に応じた画像閲覧及び音声視聴が出来る。すなわち、バックエンドサーバ370は、複数のカメラ212により撮影された撮影画像(複数視点画像)と視点情報とに基づく仮想視点コンテンツを生成する。より具体的には、バックエンドサーバ370は、例えば複数のカメラアダプタ220により複数のカメラ212による撮影画像から抽出された所定領域の画像データと、ユーザ操作により指定された視点に基づいて、仮想視点コンテンツを生成する。そしてバックエンドサーバ370は、生成した仮想視点コンテンツをエンドユーザ端末290に提供する。なお、仮想視点コンテンツは、画像コンピューティングサーバ300に含まれるバックエンドサーバ370以外の装置により生成されてもよいし、コントローラ400やエンドユーザ端末290により生成されてもよい。
The
本実施形態における仮想視点コンテンツは、仮想的な視点からオブジェクトを撮影した場合に得られる画像としての仮想視点画像を含むコンテンツである。言い換えると、仮想視点画像は、指定された視点におけるビューを表す画像であるとも言える。仮想的な視点(仮想視点)は、ユーザにより指定されても良いし、画像解析の結果等に基づいて自動的に指定されても良い。すなわち仮想視点画像には、ユーザが任意に指定した視点に対応する任意視点画像(自由視点画像)が含まれる。また、複数の候補からユーザが指定した視点に対応する画像や、装置が自動で指定した視点に対応する画像も、仮想視点画像に含まれる。なお、本実施形態では、仮想視点コンテンツに音声データ(オーディオデータ)が含まれる場合の例を中心に説明しているが、必ずしも音声データが含まれていなくても良い。また、バックエンドサーバ370は、仮想視点画像を例えばH.264やHEVCなどの符号化方式に従って圧縮符号化したうえで、MPEG-DASHプロトコルを使ってエンドユーザ端末290へ送信してもよい。また、仮想視点画像は、非圧縮でエンドユーザ端末290へ送信されてもよい。とくに圧縮符号化を行う前者はエンドユーザ端末290としてスマートフォンやタブレットを想定している。一方、後者は、非圧縮画像を表示可能なディスプレイを想定している。すなわち、エンドユーザ端末290の種別に応じて画像フォーマットが切り替え可能である。また、画像の送信プロトコルはMPEG-DASHに限らず、例えば、HLS(HTTP Live Streaming)やその他の送信方法を用いても良い。
The virtual viewpoint content in this embodiment is content that includes a virtual viewpoint image as an image obtained when an object is photographed from a virtual viewpoint. In other words, it can be said that the virtual viewpoint image is an image representing a view at a specified viewpoint. A virtual viewpoint (virtual viewpoint) may be specified by the user, or may be automatically specified based on the result of image analysis or the like. That is, the virtual viewpoint image includes an arbitrary viewpoint image (free viewpoint image) corresponding to a viewpoint arbitrarily designated by the user. The virtual viewpoint image also includes an image corresponding to a viewpoint specified by the user from among a plurality of candidates and an image corresponding to a viewpoint automatically specified by the device. Note that, in the present embodiment, an example in which voice data (audio data) is included in the virtual viewpoint content is mainly described, but voice data does not necessarily have to be included. Also, the back-
このように、画像処理システム200は、映像収集ドメイン、データ保存ドメイン、及び映像生成ドメインという3つの機能ドメインを有する。映像収集ドメインは、センサシステム210-210zを含む。データ保存ドメインは、データベース350、フロントエンドサーバ330及びバックエンドサーバ370を含む。映像生成ドメインは、仮想カメラ操作UI430及びエンドユーザ端末290を含む。なお本構成に限らず、例えば、仮想カメラ操作UI430が直接センサシステム210a~210zから画像を取得する事も可能である。しかしながら、本実施形態では、センサシステム210a~210zから直接画像を取得する方法ではなく、データ保存機能を中間に配置する方法をとる。具体的には、フロントエンドサーバ330が、センサシステム210a~210zが生成した画像データや音声データ及びそれらのデータのメタ情報を、データベース350の共通スキーマ及びデータ型に変換する。これにより、センサシステム210a~210zのカメラ212が他機種のカメラに変更されても、変更された差分をフロントエンドサーバ330が吸収し、データベース350に登録することができる。このような構成によって、カメラ212が他機種のカメラに変わった場合に、仮想カメラ操作UI430が適切に動作しない虞を低減できる。
Thus, the
また、仮想カメラ操作UI430は、直接データベース350にアクセスせずに、バックエンドサーバ370を介してアクセスする。バックエンドサーバ370で画像生成処理に係わる共通処理を行い、操作UIに係わるアプリケーションの差分部分を仮想カメラ操作UI430が吸収している。このような構成により、仮想カメラ操作UI430の開発において、UI操作デバイスや、生成したい仮想視点画像を操作するUIの機能要求に対する開発に注力する事ができる。また、バックエンドサーバ370は、仮想カメラ操作UI430の要求に応じて画像生成処理に係わる共通処理を追加又は削除する事も可能である。このような構成によって、バックエンドサーバ370は、仮想カメラ操作UI430の要求に柔軟に対応する事ができる。
Also, the virtual camera operation UI 430 does not access the
以上説明したように、画像処理システム200においては、オブジェクトを複数の方向から撮影するための複数のカメラ212による撮影画像に基づいて、バックエンドサーバ370により仮想視点画像が生成される。なお、本実施形態における画像処理システム200は、上記で説明した物理的な構成に限定されず、論理的に構成されていてもよい。また、本実施形態は、例えば仮想視点画像を生成せず、複数のカメラ212を切り替えることによって撮影画像をエンドユーザ端末290へ送信する場合にも適用できる。
As described above, in the
[マルチカメラの選定]
先述したように、仮想視点画像は、画像処理システム200において同じタイミングで撮影された複数の撮影画像に基づいて生成される。このため、複数のカメラ212の各撮影画像の特性(明るさや色味)に違いがあると、仮想視点を移動させた際に生成される仮想視点画像が不自然になる。
[Multi camera selection]
As described above, a virtual viewpoint image is generated based on a plurality of captured images captured at the same timing by the
そこで、本実施形態では、画像処理システム200において、カメラ間色差が小さくなるように複数のカメラ(以下、マルチカメラともいう)212を選定して、選定した各カメラの相対的な位置関係を決定する。
Therefore, in the present embodiment, in the
画像処理システム200が、仮想視点画像を生成するために必要な台数(M台)以上のカメラ(L台)を有している場合には、カメラ間の色差が小さくなるようにM台のカメラを選定する必要がある。
When the
L台のカメラから選定されるM台(M≦L)のカメラの組み合わせの数は、式(1)で示される。 The number of combinations of M (M≦L) cameras selected from L cameras is given by equation (1).
図3は、本実施形態におけるマルチカメラ配置の例を示す概念図であり、M台のカメラを円形に並べた例を示している。なお、M台のカメラは、オブジェクトを異なる方向から捉えていればよく、図示した配置に限定されるものではない。例えば、M台のカメラは、真円上、楕円上、または一直線上に配置してもよい。本実施形態では簡単化のため、円形を例に説明する。 FIG. 3 is a conceptual diagram showing an example of a multi-camera arrangement in this embodiment, showing an example in which M cameras are arranged in a circle. Note that the M cameras are not limited to the arrangement shown in the figure, as long as they capture the object from different directions. For example, the M cameras may be arranged in a circle, an ellipse, or a line. In this embodiment, for the sake of simplification, a circle will be described as an example.
M台のカメラを円形に並べる円順列の総数は、式(2)で示される。 The total number of circular permutations for arranging M cameras in a circle is given by Equation (2).
よって、L台のカメラからM台(M≦L)のマルチカメラを選定し、選定したM台のカメラを円形に並べる円順列の総数は、式(3)で示される。 Therefore, the total number of circular permutations for selecting M (M≦L) multi-cameras from L cameras and arranging the selected M cameras in a circle is given by Equation (3).
つまり、M台のカメラを円形に並べたマルチカメラの組の候補は、式(3)で示される数だけ存在するので、各候補においてカメラ間の色差を評価し、その色差が最も小さくなるマルチカメラの組を決定する。なお、マルチカメラの組とは、M台のカメラの相対的な位置関係を表す。これにより、画像処理システム200で配置する複数のカメラ212と、各カメラの相対的な位置関係を求めることができる。
That is, since there are as many candidates for a multi-camera set in which M cameras are arranged in a circle as the number indicated by equation (3), the color difference between cameras is evaluated for each candidate, and the multi-camera set with the smallest color difference is evaluated. Decide on a set of cameras. Note that the multi-camera set represents the relative positional relationship of the M cameras. Thereby, the relative positional relationship between the plurality of cameras 212 arranged in the
[カラーチャート撮影とカラーパッチの抽出]
カメラ間の色差を求めるため、同一のカラーチャートを異なるカメラで撮影する。
[Capturing a color chart and extracting color patches]
In order to obtain the color difference between cameras, the same color chart is photographed by different cameras.
図4は、本実施形態におけるカラーチャート撮影の例を示す概念図であり、L台のカメラがカラーチャート500を撮影する例を示している。
FIG. 4 is a conceptual diagram showing an example of photographing a color chart according to this embodiment, and shows an example of photographing a
カラーチャート500は、複数のカラーパッチから構成される。各カラーパッチは、測色器等によってCIE XYZやCIE Labなどのデバイス非依存の色値が予め測定されている。オブジェクトとしてのカラーチャート500は、暗室の観察ブース内に置かれてもよいし、撮影現場のオブジェクトの位置に置かれてもよい。また、カラーチャート500は、各カメラが異なる方向から同時に撮影してもよいし、カメラを1台ずつ正対させて撮影してもよい。
A
画像処理装置100は、画像入力デバイス113から、カラーチャート500をオブジェクトとしたL台のカメラ501、502、503、504、…の撮影画像を取得し、各撮影画像からカラーチャート500の各カラーパッチの色値を抽出する。ここで、各カラーパッチの色値の抽出は自動であっても手動であってもよい。
The image processing apparatus 100 obtains, from the
次に、画像処理装置100は、各カラーパッチの色値を撮影画像の色空間からCIE XYZやCIE Labなどのデバイス非依存な色空間へ変換する。撮影画像の色空間が、ITU-R BT.709、ITU-R BT.2020、DCI-P3、ACES、sRGB、Adobe RGBなどの「定義された色空間」である場合、デバイス非依存な色空間へ変換することができる。また、撮影画像がRAW画像の場合には、RAW現像処理によって「定義された色空間」へ変換する。また、L台のカメラ501、502、503、504、…の撮影画像の取得方法は、画像入力デバイス113経由に限定されず、L台のカメラを画像処理システム200の複数のカメラ212として接続して、ネットワーク115経由で取得してもよい。
Next, the image processing apparatus 100 converts the color value of each color patch from the color space of the captured image to a device-independent color space such as CIE XYZ or CIE Lab. If the color space of the captured image is a "defined color space" such as ITU-R BT.709, ITU-R BT.2020, DCI-P3, ACES, sRGB, Adobe RGB, device-independent color space can be converted to Also, if the captured image is a RAW image, it is converted into a "defined color space" by RAW development processing. In addition, the method of acquiring images captured by the
[カメラ間色差評価]
図5は、本実施形態におけるカメラ間色差評価テーブルの例を示し、M台のカメラを円形に並べたマルチカメラの組のカメラ間色差評価の例を示している。
[Evaluation of color difference between cameras]
FIG. 5 shows an example of an inter-camera color difference evaluation table in this embodiment, showing an example of inter-camera color difference evaluation for a multi-camera set in which M cameras are arranged in a circle.
カメラ間色差評価テーブル600の各行は、カラーチャート500の各カラーパッチの色を示す。カメラ間色差評価テーブル600は、例えばカラーチャートがColorChecker Classic(24色)の場合には、24行のデータを含む。カラーチャート500は、自作のカラーチャートを利用してもよいし、ColorChecker Digital SG(140色)のような市販のカラーチャートを利用してもよい。
Each row of the inter-camera color difference evaluation table 600 indicates the color of each color patch of the
カラーチャート500の各カラーパッチのLab値610には、カラーチャート500の各カラーパッチを測色器で測色したLab値が格納される。
The
カラーチャート500の各カラーパッチに対する各カメラのLab値620には、M台のカメラを円形に並べたマルチカメラの組の候補の各カメラの撮影画像から各カラーパッチの色を抽出して変換したLab値が格納される。
The
画像処理装置100は、マルチカメラの組におけるカメラ間色差を評価し、色差が最も小さくなるマルチカメラの組を求める。 The image processing apparatus 100 evaluates the inter-camera color difference in the multi-camera set and obtains the multi-camera set with the smallest color difference.
M台のカメラから2台のカメラを選んで色差を求める組み合わせの総数は、式(4)で示される。 The total number of combinations in which two cameras are selected from M cameras and the color difference is obtained is given by equation (4).
式(4)の組み合わせの総数に対して色差を評価すればマルチカメラ全体の色差を小さくすることができるが、本実施形態では簡単化のため、隣接するカメラ間の色差を評価する例を説明する。 If the color difference is evaluated with respect to the total number of combinations of formula (4), the color difference of the entire multi-camera can be reduced. In this embodiment, for the sake of simplification, an example of evaluating the color difference between adjacent cameras will be described. do.
円形に並べたマルチカメラにおけるi番目のカラーパッチに対する隣接カメラ間色差630は、式(5)によって求めることができる。ここでは、カメラ212aのLab値を(L*
1(i),a*
1(i),b*
1(i))、カメラ212bのLab値を(L*
2(i),a*
2(i),b*
2(i))とする。
The
同様に、ΔE23(i)、ΔE34(i)、…、ΔE(M-1)M(i)、ΔEM1(i)のように、M通りの各カラーパッチの隣接カメラ間色差630を求める。 Similarly, ΔE 23 ( i ), ΔE 34 (i), . Ask.
ここで、本実施形態では簡単化のため、色差式としてΔE76(CIE76)を用いているが、ΔE94(CIE94)やΔE00(CIEDE2000)などを用いてもよい。 Here, in this embodiment, ΔE76 (CIE76) is used as the color difference formula for simplification, but ΔE94 (CIE94), ΔE00 (CIEDE2000), or the like may be used.
更に、M台のカメラを円形に並べたマルチカメラの組の候補におけるi番目のカラーパッチに対する隣接カメラ間単純平均色差640は、式(6)によって求めることができる。
Furthermore, the simple
一方、各カラーパッチに対する隣接カメラ間色差630が式(5)によって求められているので、M台のカメラを円形に並べたマルチカメラの組の候補における隣接カメラ(j,j+1)に対する隣接カメラ間平均色差650を求めることもできる。隣接カメラ間平均色差650は、単純平均色差(ΔEj(j+1))aまたは加重平均色差(ΔEj(j+1))wを使用目的に応じて選択的に格納することができる。
On the other hand, since the
撮影において、オブジェクトの色が事前に予測できない場合には、単純平均によるカメラ間色差評価を行うことができる。隣接カメラ(j,j+1)に対する隣接カメラ間単純平均色差(ΔEj(j+1))aは、i番目のカラーパッチに対する隣接カメラ(j,j+1)の色差をΔEj(j+1)(i)、カラーパッチの総数をNとすれば、式(7)によって求めることができる。 In photography, if the color of an object cannot be predicted in advance, it is possible to evaluate the color difference between cameras by simple averaging. Simple average color difference between adjacent cameras (ΔE j(j+1) ) a for adjacent camera (j, j+1) is the color difference between adjacent cameras (j, j+1) for i-th color patch as ΔE j(j+1) ( i), where N is the total number of color patches, it can be obtained by equation (7).
一方、撮影が競技場(スタジアム)やコンサートホールなどの施設で行われる場合には、リハーサルの段階で重要色(芝生、ユニフォーム、広告、肌色、衣装、楽器などの色)が事前にわかることが多い。したがって、特定の色に対して重み付けを行ったカメラ間色差評価を行うことができる。例えば、カラーチャート500の全カラーパッチの中から重要色に近いカラーパッチを特定し、特定したカラーパッチに対する隣接カメラ(j,j+1)の色差に対して他のカラーパッチより大きい重みを与える。隣接カメラ(j,j+1)に対する隣接カメラ間加重平均色差(ΔEj(j+1))wは、i番目のカラーパッチに対する重みをwiとすれば、式(8)によって求めることができる。なお、i番目のカラーパッチに対する隣接カメラ(j,j+1)の色差はΔEj(j+1)(i)、カラーパッチの総数をNとする。
On the other hand, when filming takes place in facilities such as stadiums and concert halls, important colors (lawn, uniforms, advertisements, skin colors, costumes, musical instrument colors, etc.) can be known in advance at the rehearsal stage. many. Therefore, it is possible to perform inter-camera color difference evaluation in which a specific color is weighted. For example, a color patch close to the important color is specified from all color patches of the
また、隣接カメラ間平均色差650の算出方法に応じて、カメラ間色差評価結果660も、単純平均色差または加重平均色差が用いられる。すなわち、単純平均色差(ΔEj(j+1))aの単純平均が格納される場合(式(9))と、加重平均色差(ΔEj(j+1))wの単純平均が格納される場合(式(10))が存在する。
In addition, depending on the calculation method of the average color difference between
[マルチカメラ配置の決定]
最適なマルチカメラの組を決定するためには、式(3)で示されるマルチカメラの組の全候補の中で、式(9)または式(10)によって算出されるカメラ間色差評価結果660が最小となるマルチカメラの組を求める必要がある。
[Determination of multi-camera placement]
In order to determine the optimum multi-camera set, the inter-camera color
カメラ間色差評価結果660が最小となるマルチカメラの組が決定できれば、画像処理システム200で配置するカメラ212と、各カメラの相対的な位置関係を一意に決定することができる。但し、マルチカメラの組は円順列によって決定されているため、各カメラの相対的な位置関係を保ったままカメラの全体配置を回転させる自由度は残る。
If a multi-camera set that minimizes the inter-camera color
そこで、撮影する上で重要な視線が集まる区間と、マルチカメラの円周上で隣接カメラ間平均色差650が小さくなる区間とが重なるようにして、最適なマルチカメラ配置を決定する。撮影する上で重要な視線が集まる区間とは、例えば、スタジアムのメインスタンド側、コンサートホールのステージ正面側などである。
Therefore, the optimal multi-camera arrangement is determined so that the section where the line of sight that is important for shooting overlaps with the section where the
画像処理装置100は、隣接カメラ間平均色差650の分布を利用して、隣接カメラ(j,j+1)の平均色差が小さくなる区間を特定し、撮影する上で重要な視線が集まる区間と重なるようにしてマルチカメラの配置を決定する。
The image processing apparatus 100 uses the distribution of the
[マルチカメラ選定の処理の流れ]
図6は、本実施形態におけるマルチカメラ選定処理のフローチャートである。
[Process flow of multi-camera selection]
FIG. 6 is a flowchart of multi-camera selection processing in this embodiment.
フローチャートに示される一連の処理は、画像処理装置100のCPU101がメインメモリ102またはHDD105などの記憶装置に記憶された制御プログラムをRAMに展開し、実行することにより行われる。あるいはまた、フローチャートにおけるステップの一部または全部の機能をASICや電子回路等のハードウェアで実現してもよい。各処理の説明における記号「S」は、当該フローチャートにおけるステップを意味する。その他のフローチャートについても同様である。
A series of processes shown in the flowchart is performed by the
まず、S1001において、L台のカメラのそれぞれによって撮影されたカラーチャート500の撮影画像を取得する。
First, in S1001, captured images of the
次に、S1002において、各撮影画像からカラーチャート500の各カラーパッチの色値を抽出する。
Next, in S1002, the color value of each color patch of the
次に、S1003において、抽出した各カラーパッチの色値をLab値に変換する。 Next, in S1003, the color values of each extracted color patch are converted into Lab values.
次に、S1004において、L台のカメラからM台(M≦L)のマルチカメラを選定し、更にM台のカメラを円形に並べたマルチカメラの組の候補を決定する。すなわち、画像処理装置100のCPU101は、マルチカメラの組の候補を決定する候補決定手段として機能する。具体的には、式(3)で示されるM台のカメラを円形に並べる円順列の総数分のマルチカメラの組の候補を順次決定する。
Next, in S1004, M (M≦L) multi-cameras are selected from the L cameras, and candidates for a multi-camera set in which the M cameras are arranged in a circle are determined. That is, the
ここでは、5台のカメラから4台のマルチカメラの組の候補(L=5、M=4)を生成する例を説明する。 Here, an example of generating four multi-camera set candidates (L=5, M=4) from five cameras will be described.
5台のカメラ(1,2,3,4,5)から4台のマルチカメラを選ぶ組み合わせは、式(1)より次の5通り(=5C4)となる。
(1,2,3,4)
(1,2,3,5)
(1,2,4,5)
(1,3,4,5)
(2,3,4,5)
Combinations for selecting four multi-cameras from five cameras (1, 2, 3, 4, 5) are the following five (= 5 C 4 ) from equation (1).
(1,2,3,4)
(1,2,3,5)
(1,2,4,5)
(1,3,4,5)
(2,3,4,5)
更に、4台のマルチカメラ(1,2,3,4)を円形に並べたマルチカメラの組の候補(円順列)は、式(2)より次の6通り(=3!)となる。
(1,2,3,4)
(1,2,4,3)
(1,3,2,4)
(1,3,4,2)
(1,4,2,3)
(1,4,3,2)
Further, the candidates (circular permutation) of the multi-camera set in which the four multi-cameras (1, 2, 3, 4) are arranged in a circle are the following six (=3!) from equation (2).
(1,2,3,4)
(1,2,4,3)
(1,3,2,4)
(1,3,4,2)
(1,4,2,3)
(1,4,3,2)
同様に、他のマルチカメラの組み合わせ(1,2,3,5)、(1,2,4,5)、(1,3,4,5)、(2,3,4,5)に対してもマルチカメラの組の候補を求める。そうすると、5台のカメラ(1,2,3,4,5)から生成される4台のマルチカメラの組の候補の総数は、式(3)で示される30通りとなる。 Similarly, for other multi-camera combinations (1,2,3,5), (1,2,4,5), (1,3,4,5), (2,3,4,5) However, candidates for multi-camera pairs are obtained. Then, the total number of candidates for a set of four multi-cameras generated from five cameras (1, 2, 3, 4, 5) is 30 as shown in Equation (3).
次に、S1005において、S1004で決定されたM台のマルチカメラの組の候補に対して、カメラ間色差評価結果660を算出し、カメラ間色差評価テーブル600に格納する。すなわち、画像処理装置100のCPU101は、カメラ間色差を評価する色差評価手段として機能する。具体的には、円形に並べられた隣接カメラ間におけるカラーパッチの平均色差を算出し、さらに、算出した平均色差の単純平均を、当該マルチカメラの組の候補に対するカメラ間色差評価結果660として算出する。尚、カメラ間色差評価結果660を求める方法は、先述した式(9)及び式(10)のように使用目的によって複数存在する。
Next, in S<b>1005 , inter-camera color
次に、S1006において、マルチカメラの組の全候補に対してS1004からS1005の処理を実施したか否かを判定する。未了の場合はS1004に戻る。一方、終了の場合にはS1007へ進む。 Next, in S1006, it is determined whether or not the processing from S1004 to S1005 has been performed for all candidates of the multi-camera set. If not completed, the process returns to S1004. On the other hand, in the case of end, the process proceeds to S1007.
次に、S1007において、マルチカメラの組の全候補の中でカメラ間色差評価結果660が最小となるマルチカメラの組を決定する。すなわち、画像処理装置100のCPU101は、マルチカメラの組を決定する組決定手段として機能する。ここでは、マルチカメラにおける各カメラの相対的な位置関係が決定する。
Next, in S1007, a multi-camera set with the smallest inter-camera color
次に、S1008において、撮影する上で重要な視線が集まる重要視線区間の情報を取得し、重要視線区間に基づいてマルチカメラの配置を決定する。すなわち、画像処理装置100のCPU101は、マルチカメラの組の配置を決定する配置決定手段として機能する。また、重要視線区間とは、マルチカメラによって撮影される特定区間を意味する。
Next, in S1008, the information of the important line-of-sight section in which the lines of sight that are important for shooting are gathered is acquired, and the arrangement of the multi-cameras is determined based on the important line-of-sight section. That is, the
ここでは、重要視線区間の情報が、「既に決まっているM台のマルチカメラの配置場所の内、p番目からq番目の間が重要なカメラ」という情報である場合の例を示す。 Here, an example is shown in which the information of the important line-of-sight section is information that "the important camera is located between the p-th and the q-th among the M multi-cameras that have already been determined".
図8は、本実施形態における重要視線区間の例を示す概念図である。重要なカメラがp番目からq番目の間とすると、その区間の台数は(q-p+1)台となる。そこで、隣接カメラ間平均色差650において隣接する(q-p+1)台のカメラに対する(q-p)箇所の隣接カメラ間平均色差の単純平均を順次求めていく。そして、r番目(r∈[1,M])から(r+q-p)番目の間のカメラに対する(q-p)箇所の隣接カメラ間平均色差の単純平均であるave(ΔEr→r+q-p)aまたはave(ΔEr→r+q-p)wが最小となる区間を特定する。
FIG. 8 is a conceptual diagram showing an example of important line-of-sight segments in this embodiment. Assuming that the important cameras are between the p-th and the q-th, the number of cameras in that section is (q−p+1). Therefore, in the average color difference between
また、p~q番目の間の重要なカメラにおいて、隣接カメラ間平均色差に対する重要度分布(または重み係数)が予めわかっている場合には、各隣接カメラ間平均色差に対する重みをvj(j∈[r, r+q-p-1])として、加重平均を算出してもよい。すなわち、隣接カメラ間平均色差の単純平均を求める式(11)や式(12)の代わりに、隣接カメラ間平均色差の加重平均を求める式(13)や式(14)を利用することもできる。 In addition, if the importance distribution (or weight coefficient) for the average color difference between adjacent cameras is known in advance for the p to q-th important cameras, the weight for the average color difference between each adjacent camera is given by v j (j ∈[r, r+qp-1]). That is, equations (13) and (14) for obtaining the weighted average of the average color difference between adjacent cameras can be used instead of the equations (11) and (12) for obtaining the simple average of the average color difference between adjacent cameras. .
そして、隣接カメラ間平均色差の単純平均であるave(ΔEr→r+q-p)aやave(ΔEr→r+q-p)wが最小となる区間において、r番目のカメラを求める。または、隣接カメラ間平均色差の加重平均であるweighted(ΔEr→r+q-p)aやweighted(ΔEr→r+q-p)wが最小となる区間において、r番目のカメラを求める。r番目のカメラがp番目のカメラと一致するように円形に並べたマルチカメラを回転させれば、マルチカメラ配置を決定することができる。 Then, the r-th camera is found in the section where ave(ΔE r→r+qp ) a and ave(ΔE r→r+qp ) w , which are simple averages of average color differences between adjacent cameras, are minimum. Alternatively, the r-th camera is found in the section where weighted(ΔE r→r+qp ) a and weighted(ΔE r→r+qp ) w , which are weighted averages of average color differences between adjacent cameras, are minimum. The multi-camera arrangement can be determined by rotating the circular array of multi-cameras so that the r-th camera coincides with the p-th camera.
なお、重要視線区間や隣接カメラ間平均色差に対する重要度分布は、設定ファイルによって指定することもできるし、ユーザがユーザインタフェイスを介して指定することもできる。 Note that the importance distribution for the important line-of-sight segment and the average color difference between adjacent cameras can be specified by a setting file, or can be specified by the user via a user interface.
図7は、本実施形態におけるカメラ間色差評価(S1005)のフローチャートである。 FIG. 7 is a flowchart of inter-camera color difference evaluation (S1005) in this embodiment.
図7(a)は、全てのカメラ間の単純平均色差を評価する処理の一例を示す。 FIG. 7A shows an example of processing for evaluating the simple average color difference between all cameras.
S1009において、M台のカメラのうち、2台のカメラの全ての組み合わせに対して各カラーパッチのカメラ間色差を求め、全カラーパッチに対するカメラ間単純平均色差を求める。そして、式(4)で示される総数のカメラ間単純平均色差を単純平均して、カメラ間色差評価結果660を算出する。
In S1009, the inter-camera color difference of each color patch is obtained for all combinations of two cameras out of the M cameras, and the inter-camera simple average color difference for all color patches is obtained. Then, the inter-camera color
図7(b)は、隣接カメラ間の単純平均色差を評価する処理の一例を示す。 FIG. 7B shows an example of processing for evaluating the simple average color difference between adjacent cameras.
S1010において、カメラ間色差を全ての組み合わせに対して求めるのではなく、式(5)で各カラーパッチの隣接カメラ間色差を求める。そして、式(7)で隣接カメラ間単純平均色差を求め、式(9)に従ってカメラ間色差評価結果660を算出する。
In S1010, the color difference between adjacent cameras of each color patch is obtained by Equation (5) instead of obtaining the color difference between cameras for all combinations. Then, the simple average color difference between adjacent cameras is obtained by equation (7), and the color
図7(c)は、全てのカメラ間の加重平均色差を評価する処理の一例を示す。 FIG. 7(c) shows an example of processing for evaluating the weighted average color difference between all cameras.
S1011において、M台のカメラのうち、2台のカメラの全ての組み合わせに対して各カラーパッチのカメラ間色差を求め、各カラーパッチに対する重み係数を取得して全カラーパッチに対するカメラ間加重平均色差を求める。そして、式(4)で示される総数のカメラ間加重平均色差を単純平均して、カメラ間色差評価結果660を算出する。
In S1011, the inter-camera color difference of each color patch is obtained for all combinations of two cameras out of the M cameras, the weighting factor for each color patch is obtained, and the weighted average inter-camera color difference for all color patches is obtained. Ask for Then, an inter-camera color
図7(d)は、隣接カメラ間の加重平均色差を評価する処理の一例を示す。 FIG. 7D shows an example of processing for evaluating the weighted average color difference between adjacent cameras.
S1012において、カメラ間色差を全ての組み合わせに対して求めるのではなく、式(5)で各カラーパッチの隣接カメラ間色差を求める。そして、各カラーパッチに対する重み係数を取得して式(8)によって隣接カメラ間加重平均色差を求め、式(10)に従ってカメラ間色差評価結果660を算出する。
In S1012, the color difference between adjacent cameras of each color patch is obtained by Equation (5) instead of obtaining the color difference between cameras for all combinations. Then, a weighting factor for each color patch is obtained, a weighted average color difference between adjacent cameras is obtained by equation (8), and an inter-camera color
なお、各カラーパッチに対する重み係数は、設定ファイルによって指定することもできるし、ユーザインタフェイスによって指定することもできる。 Note that the weighting coefficient for each color patch can be specified by a setting file or by a user interface.
本実施形態では、マルチカメラの組の候補を順次評価する例を示したが、組み合わせ最適化問題として他の解法を適用してもよい。 In this embodiment, an example of sequentially evaluating multi-camera set candidates has been shown, but other solutions may be applied as a combinatorial optimization problem.
[効果]
以上説明したように、本実施形態によれば、カメラ間色差が小さくなるようにマルチカメラを選定し、マルチカメラの組を決定することにより、マルチカメラで撮影された各撮影画像間の色差を小さくすることができる。また、重要視線区間に応じてマルチカメラの配置を決定することができる。
[effect]
As described above, according to the present embodiment, multi-cameras are selected so that the inter-camera color difference is small, and a set of multi-cameras is determined. can be made smaller. Also, the arrangement of the multi-cameras can be determined according to the important line-of-sight segment.
(第2の実施形態)
第1の実施形態では、L台のカメラからM台(M≦L)のマルチカメラを選定し、更にM台のカメラを円形に並べたマルチカメラの組の候補(円順列)についてカメラ間色差評価結果660が最小となるマルチカメラの組を決定する方法について説明した。第1の実施形態の方法は、最適なマルチカメラ配置を決定する方法として有効であるが、カメラの台数(LやM)が多くなると、マルチカメラの組の候補の総数が急激に増加するため処理時間が多くかかってしまう。
(Second embodiment)
In the first embodiment, M (M≦L) multi-cameras are selected from L cameras, and the color difference between cameras is calculated for candidates of multi-camera sets (circular permutation) in which the M cameras are arranged in a circle. A method for determining the set of multi-cameras with the
本実施形態では、カメラの台数が多くても実用的な時間内に最適なマルチカメラ配置を決定できる方法について説明する。なお、カメラの台数や画像処理装置100の処理能力に応じて、第1の実施形態と本実施形態を切り替えたり、組み合わせたりしてもよい。 In this embodiment, a method for determining an optimal multi-camera arrangement within a practical time even if the number of cameras is large will be described. Note that the first embodiment and the present embodiment may be switched or combined according to the number of cameras and the processing capability of the image processing apparatus 100 .
[マルチカメラの選定]
第1の実施形態では、L台のカメラからM台(M≦L)のマルチカメラの候補を挙げてからカメラ間色差評価を行った。一方、本実施形態ではL台のカメラに対して基準色との色差による順位付けを行い、色差の小さい方からM台のマルチカメラを選定する。
[Multi camera selection]
In the first embodiment, the inter-camera color difference evaluation is performed after selecting M (M≦L) multi-camera candidates from L cameras. On the other hand, in the present embodiment, the L cameras are ranked according to the color difference from the reference color, and the M multi-cameras are selected in descending order of color difference.
基準色との色差による順位付けには、カラーチャートを基準にする方法と、マスターカメラを基準にする方法がある。 There are a method based on the color chart and a method based on the master camera for ranking according to the color difference from the reference color.
カラーチャートを基準にする方法は、忠実な色再現が重視される場合に有効である。カメラの色調整が不十分な場合や、カメラ内で画づくりされている場合には色差が大きくなることがある。 A method based on a color chart is effective when emphasis is placed on faithful color reproduction. If the color adjustment of the camera is insufficient, or if the image is created in the camera, the color difference may become large.
一方、マスターカメラを基準にする方法は、カメラ間の色合わせが重視される場合に有効である。同一モデルのカメラをマルチカメラとして利用する場合には、各カメラの特性が似ているため、カメラ内で画づくりされていても色差は小さくなる。異なるモデルのカメラを組み合わせてマルチカメラとして利用している場合や、従来の画づくりとの互換性が重視される場合など、慣例としてマスターカメラが決まっている場合には、基準となっているマスターカメラをそのまま利用する。マスターカメラが決まっていない場合には、カラーチャート、または複数カメラの平均値を基準にマスターカメラを選定し、そのマスターカメラを基準としてマルチカメラを決定してもよい。すなわち、L台のカメラによってカラーチャートを撮影した各撮影画像と、カラーチャートの測定値との色差に基づいて、当該色差が最も小さい特定のカメラをマスターカメラとして決定してもよい。また、L台のカメラによってカラーチャートを撮影した各撮影画像と、カラーチャートの測定値との色差の平均値に最も近い撮影画像を撮影した特定のカメラをマスターカメラとして決定してもよい。あるいは、カラーチャートを基準にマスターカメラを選定するのではなく、複数カメラの平均色差、または加重平均色差を基準にマスターカメラを選定してもよい。 On the other hand, the method based on the master camera is effective when importance is attached to color matching between cameras. When cameras of the same model are used as multiple cameras, the characteristics of each camera are similar, so even if an image is created in the camera, the color difference will be small. In cases where a master camera has been determined by convention, such as when using a combination of cameras of different models as a multi-camera, or when compatibility with conventional image creation is emphasized, the master camera that is the standard Just use the camera. If a master camera has not been determined, a master camera may be selected based on a color chart or an average value of a plurality of cameras, and multi-cameras may be determined based on that master camera. That is, based on the color difference between the captured images of the color chart captured by L cameras and the measured values of the color chart, a specific camera with the smallest color difference may be determined as the master camera. Alternatively, a specific camera that captures a captured image that is closest to the average value of the color difference between each captured image of the color chart captured by the L cameras and the measured value of the color chart may be determined as the master camera. Alternatively, instead of selecting the master camera based on the color chart, the master camera may be selected based on the average color difference or weighted average color difference of a plurality of cameras.
図9は、本実施形態における基準色とカメラの色差評価テーブルの例を示し、L台のカメラの色差評価の例を示している。 FIG. 9 shows an example of a reference color and a color difference evaluation table of cameras in this embodiment, and shows an example of color difference evaluation of L cameras.
基準色とカメラの色差評価テーブル700の各行は、カラーチャート500の各カラーパッチの色を示しており、例えばカラーチャートがColorChecker Classic(24色)の場合には24行となる。カラーチャート500は自作のカラーチャートを利用してもよいし、ColorChecker Digital SG(140色)のような市販のカラーチャートを利用してもよい。
Each row of the color difference evaluation table 700 between the reference color and the camera indicates the color of each color patch of the
基準色のLab値710には、カラーチャートの基準色、またはマスターカメラの基準色のLab値が格納される。カラーチャートの基準色の場合には、カラーチャート500の各カラーパッチを測色器で測色したLab値が格納される。一方、マスターカメラの基準色の場合には、カラーチャート500を撮影したマスターカメラの撮影画像から各カラーパッチの色を抽出して変換したLab値が格納される。
The Lab value of the
カラーチャート500の各カラーパッチに対する各カメラのLab値720には、L台の各カメラの撮影画像から各カラーパッチの色を抽出して変換したLab値が格納される。
The
各カメラにおけるi番目のカラーパッチに対するカメラ色差730は、式(15)によって求めることができる。ここで、基準色のLab値は(L*
0(i), a*
0(i), b*
0(i))、カメラ1のLab値は(L*
1(i), a*
1(i), b*
1(i))とする。
A
同様に、ΔE2(i)、ΔE3(i)、…、ΔE(L-1)(i)、ΔEL(i)のように、L台のカメラにおけるカメラ色差730を求める。
Similarly,
ここで、本実施形態では簡単化のため、色差式としてΔE76(CIE76)を用いているが、ΔE94(CIE94)やΔE00(CIEDE2000)などを用いてもよい。 Here, in this embodiment, ΔE76 (CIE76) is used as the color difference formula for simplification, but ΔE94 (CIE94), ΔE00 (CIEDE2000), or the like may be used.
各カラーパッチに対する各カメラの色差が式(15)によって求められているので、L台のカメラのうち、j番目のカメラに対するカメラ平均色差740を求めることもできる。カメラ平均色差740には、単純平均色差(ΔEj)aまたは加重平均色差(ΔEj)wを使用目的に応じて選択的に格納することができる。
Since the color difference for each camera for each color patch is determined by equation (15), it is also possible to determine the average
撮影の前に、オブジェクトの色が事前に予測できない場合には、単純平均によるカメラ色差評価を行うことができる。L台のカメラのうち、j番目のカメラに対するカメラ単純平均色差(ΔEj)aは、i番目のカラーパッチに対するカメラjのカメラ色差をΔEj(i)、カラーチャート500のカラーパッチ総数をNとすれば、式(16)によって求めることができる:
Before photographing, if the color of the object cannot be predicted in advance, simple average camera color difference evaluation can be performed. Camera simple average color difference (ΔE j ) a for the j-th camera among the L cameras is ΔE j (i) for the camera j's camera color difference for the i-th color patch, and N for the total number of color patches in the
一方、撮影が競技場(スタジアム)やコンサートホールなどの施設で行われる場合には、リハーサルの段階で重要色(芝生、ユニフォーム、広告、肌色、衣装、楽器などの色)が事前にわかることが多い。そのため、特定の色に対して重み付けを行ったカメラ色差評価を行うことができる。例えば、カラーチャート500の全カラーパッチの中から重要色に近いカラーパッチを特定し、特定したカラーパッチに対するカメラ色差に対して他のカラーパッチより大きい重みを与える。L台のカメラのうち、j番目のカメラに対するカメラ加重平均色差(ΔEj)wは、式(17)によって求めることができる。ここで、i番目のカラーパッチに対するカメラjのカメラ色差およびその重みをΔEj(i)およびwi、カラーチャート500のカラーパッチ総数をNとする。
On the other hand, when filming takes place in facilities such as stadiums and concert halls, important colors (lawn, uniforms, advertisements, skin colors, costumes, musical instrument colors, etc.) can be known in advance at the rehearsal stage. many. Therefore, it is possible to perform camera color difference evaluation in which a specific color is weighted. For example, a color patch close to the important color is specified from all the color patches of the
次に、カメラ平均色差740が式(16)または式(17)によって求められているので、カメラ平均色差740による順位付けを行う。カメラ平均色差740の小さい方からM台のカメラを選定すれば、基準色(カラーチャートの基準色、またはマスターカメラの基準色)に近い色再現が可能なマルチカメラが構成できる。
Next, since the camera
[マルチカメラ配置の決定]
これまでの手順で、M台のマルチカメラ選定と、各カメラの順位付け(基準色に対するカメラ平均色差740の小さい順)は行われているが、各カメラの相対的な位置関係は確定していない。以下では、M台のカメラを円形に並べたマルチカメラ配置において、カメラ間の色差を小さくする方法を述べる。
[Determination of multi-camera placement]
Up to this point, M multi-cameras have been selected and the cameras have been ranked (in descending order of camera
図10は、本実施形態におけるマルチカメラの相対的な位置関係の例を示す概念図である。簡単化のため、円形に並べた6台のカメラ800~805は、それぞれ色値1~6を示すものとする。 FIG. 10 is a conceptual diagram showing an example of relative positional relationships of multi-cameras in this embodiment. For the sake of simplicity, the six cameras 800-805 arranged in a circle indicate color values 1-6, respectively.
図10(a)は、6台のカメラ800~805を色値の小さい順に時計回りに配置した例である。
FIG. 10A shows an example in which six
図10(a)において、カメラ800と801、801と802、802と803、803と804、および804と805の色値の差は1であるが、カメラ805と800の色値の差は5である。ここで、色値の差の合計は10であり、色値の差の単純平均は、10/6(≒1.667)である。
In FIG. 10A, the color value difference between
一方、図10(b)は、6台のカメラ800~805を色値の小さい順に、カメラ800からの距離が近くなるように配置した例である。
On the other hand, FIG. 10B shows an example in which the six
図10(b)において、カメラ800と801、および805と804の色値の差は1であるが、カメラ801と803、803と805、804と802、および802と800の色値の差は2である。ここで、色値の差の合計は10であり、色値の差の単純平均は、10/6(≒1.667)である。
In FIG. 10B, the color value difference between
図10(a)の配置でも図10(b)の配置でも、色値の差の単純平均は同じ値であるが、カメラを円形に並べるマルチカメラ配置としては、隣接するカメラの色が連続的に変化する図10(b)の方が好ましい。 10(a) and 10(b), the simple average of the difference in color values is the same value. FIG. 10(b), in which changes to , is preferable.
図11は、本実施形態における基準色とカメラの色差の例を示す概念図である。 FIG. 11 is a conceptual diagram showing an example of the color difference between the reference color and the camera in this embodiment.
図10では色値が1次元の場合の例を示したが、実際の色値は図11のように3次元となる。図11は、カメラ800をマスターカメラとした場合の例を示している。図示されるように、基準色(マスターカメラ)と各カメラの色差はユークリッド距離によって定義されるので、各カメラを基準色に対する色差の小さい順に配置したとしても、カメラ間の色差が小さくなるという保証はない。例えば、図11では、カメラ800とカメラ803の色差や、カメラ800とカメラ804の色差より、カメラ803とカメラ804の色差の方が大きくなっている。
Although FIG. 10 shows an example in which the color values are one-dimensional, the actual color values are three-dimensional as shown in FIG. FIG. 11 shows an example in which the
カメラ間色差が小さくなることを保証するためには、マスターカメラを基準として色差が最も小さいカメラを探し、次にそのカメラを基準として色差が最も小さいカメラを探すというように、カメラ間色差が小さくなるカメラを順次探していけばよい。 In order to ensure that the color difference between cameras is small, use the master camera as a reference to find the camera with the smallest color difference, then use that camera as the reference to find the camera with the smallest color difference, and so on. All you have to do is search for a camera that has
したがって、M台のカメラの順位付け(カメラ間色差の小さい順)が全て完了すれば、図10(b)のようにカメラ間色差が小さい順に、カメラ800からの距離が近くなるように次のカメラを順次配置する。 Therefore, when the ranking of all the M cameras (in descending order of inter-camera color difference) is completed, as shown in FIG. Arrange the cameras in order.
また、カメラの台数が多い場合には、M台のカメラをP個(P<M)のグループに分割して配置してもよい。ここでは、30台のマルチカメラを第1~第6グループの6グループに分割(M=30、P=6)して配置する例を説明する。また、各グループには5台(=M/P)のカメラを割り当てるものとする。 Moreover, when the number of cameras is large, M cameras may be divided into P (P<M) groups and arranged. Here, an example will be described in which 30 multi-cameras are divided into 6 groups (M=30, P=6) and arranged. It is also assumed that each group is assigned 5 (=M/P) cameras.
第1グループは、基準色とカメラの色差評価テーブル700において、30台のマルチカメラの色差評価を行うことによって求めることができる。基準色のLab値710としてマスターカメラの基準色を格納し、カメラ平均色差740を求めた後、カメラ平均色差740による順位付けを行う。カメラ平均色差740の小さい方から5台(マスターカメラを含む)のカメラを第1グループとして選定する。カメラ平均色差740には、単純平均色差(ΔEj)aまたは加重平均色差(ΔEj)wを使用目的に応じて選択できるものとする。
The first group can be obtained by performing color difference evaluation of 30 multi-cameras in the reference color and camera color difference evaluation table 700 . After the reference color of the master camera is stored as the
次に、マスターカメラを基準としたカメラ平均色差740において、カメラ平均色差が6番目に小さいカメラを第2グループの代表カメラとする。第2グループは、基準色とカメラの色差評価テーブル700において、30台のマルチカメラから第1グループの5台を除いた25台のカメラの色差評価を行うことによって求めることができる。基準色のLab値710に第2グループの代表カメラの基準色を格納し、カメラ平均色差740を求めた後、カメラ平均色差740による順位付けを行う。カメラ平均色差740の小さい方から5台(第2グループの代表カメラを含む)のカメラを第2グループとして選定する。
Next, in the camera
同様に、第3~第6グループの代表カメラ、および各グループのカメラ5台を順次選定する。 Similarly, the representative cameras of the third to sixth groups and the five cameras of each group are sequentially selected.
次に、第1~第6グループにグループ分けされた各グループのカメラを、図10(b)のカメラ800~805の位置に割り当てる。各グループ内の5台のカメラの配置は、各グループの代表カメラとの平均色差が小さい順に、カメラ800からの距離が近くなるように同一円周上に配置する。なお、第1グループはカメラ800の位置に割り当てる等、カメラの属するグループが決定すればカメラの割り当て位置も自動的に決定される。したがって、全てのグループのカメラが選定されてから各カメラを配置するのではなく、各カメラの属するグループが決まった時点で各カメラを配置してもよい。
Next, the cameras in each of the first to sixth groups are assigned to the positions of the
以上の処理により、マルチカメラにおける各カメラの相対的な位置関係を一意に決定することができたので、第1の実施形態と同様に、カメラ間色差評価テーブル600を利用して、カメラの全体配置を確定すればよい。つまり、撮影する上で重要な視線が集まる区間(スタジアムのメインスタンド側、コンサートホールのステージ正面側など)と、マルチカメラの円周上で隣接カメラ間平均色差650が小さくなる区間が重なるようにマルチカメラ配置を決定する。
By the above processing, it was possible to uniquely determine the relative positional relationship of each camera in the multi-camera. Placement should be confirmed. In other words, the section where the line of sight that is important for shooting (the main stand side of a stadium, the front side of the stage in a concert hall, etc.) overlaps with the section where the
[マルチカメラ選定の処理の流れ]
図12、13は、第2の実施形態におけるマルチカメラ選定処理のフローチャートである。尚、第1の実施形態と同一の処理については同じ符号を付して説明を省略し、第1の実施形態と異なる点を中心に簡潔に説明する。
[Process flow of multi-camera selection]
12 and 13 are flowcharts of multi-camera selection processing in the second embodiment. The same reference numerals are assigned to the same processing as in the first embodiment, and the description thereof is omitted, and the points different from the first embodiment will be briefly described.
図12は、マスターカメラを基準としてカメラ間色差の小さいカメラを順次探索して、マルチカメラを選定する処理の一例を示す。 FIG. 12 shows an example of processing for sequentially searching for cameras with small inter-camera color differences using the master camera as a reference and selecting a multi-camera.
S1001からS1003までの処理により、第1の実施形態と同様に、L台のカメラのそれぞれによりカラーチャート500を撮影した撮影画像を取得し、各カラーパッチの色値をLab値へ変換する。そして、カラーチャート500の各カラーパッチに対する各カメラのLab値720へ格納する。
Through the processing from S1001 to S1003, similarly to the first embodiment, captured images of the
次に、S2001において、カラーチャート500の各カラーパッチを測色したLab値を基準色のLab値710へ格納し、L台のカメラにおけるカメラ色差730を求める。
Next, in S2001, the Lab value obtained by measuring each color patch of the
次に、S2002において、各カラーパッチに対する重み係数を取得し、L台のカメラにおけるカメラ平均色差740を求め、カメラ平均色差が最も小さいカメラをマスターカメラとして選定する。
Next, in S2002, a weighting factor for each color patch is obtained, the average
次に、S2003において、マスターカメラの基準色を基準色のLab値710へ格納し、カメラ平均色差740の小さい方からM台のカメラをマルチカメラとして選定する。すなわち、画像処理装置100のCPU101は、M台のカメラをマルチカメラとして選定するマルチカメラ選定手段として機能する。
Next, in S2003, the reference color of the master camera is stored in the
次に、S2004において、マスターカメラの基準色を基準色のLab値710へ格納した状態で、カメラ平均色差740が最小となるカメラを近傍カメラとして選定する。
Next, in S2004, with the reference color of the master camera stored in the
次に、S2005において、図10(b)のカメラ800の位置にマスターカメラを配置し、カメラ801の位置に近傍カメラを配置する。
Next, in S2005, the master camera is placed at the position of the
次に、S2006において、マルチカメラを構成する全てのカメラ(M台)に対してS2004からS2005の処理を施したか否かを判定する。未了の場合はS2004に戻る。一方、終了の場合にはS1005へ進む。 Next, in S2006, it is determined whether or not the processing from S2004 to S2005 has been performed for all the cameras (M cameras) configuring the multi-camera. If not completed, the process returns to S2004. On the other hand, in the case of end, the process proceeds to S1005.
なお、S2004に処理が戻った場合には、直前に選定された近傍カメラの各カラーパッチの色が、次の基準色として基準色のLab値710へ格納され、その時のカメラ平均色差740が最小となるカメラが「次の近傍カメラ」として選定される。但し、既に近傍カメラとして選定されているカメラは選定しないものとする。「次の近傍カメラ」は、S2005において、図10(b)のカメラ802の位置に配置される。
When the process returns to S2004, the color of each color patch of the neighboring camera selected immediately before is stored as the next reference color in the reference
次に、S1005において、M台のマルチカメラのカメラ間色差が算出され、隣接カメラ間平均色差650が求められる。
Next, in S1005, inter-camera color differences of the M multi-cameras are calculated, and an average inter-adjacent
次に、S1008において、撮影する上で重要な視線が集まる重要視線区間の情報と、隣接カメラ間平均色差650の分布を利用して、マルチカメラ配置が決定される。
Next, in S1008, the multi-camera arrangement is determined using the information of the important line-of-sight section in which the lines of sight important for photographing gather and the distribution of the
一方、図13は単体の近傍カメラではなく、M台のマルチカメラをP個(P<M)のグループに分割し、各グループの代表カメラと、各グループに属するカメラを順次探索して、マルチカメラを選定する処理の一例を示す。 On the other hand, in FIG. 13, instead of a single neighboring camera, M multi-cameras are divided into P (P<M) groups, and the representative camera of each group and the cameras belonging to each group are sequentially searched. An example of processing for selecting a camera is shown.
S1001からS2003までの処理により、図12と同様に、L台のカメラのそれぞれによりカラーチャート500を撮影した撮影画像を取得し、カメラ平均色差740の小さい方からM台のカメラをマルチカメラとして選定する。
By the processing from S1001 to S2003, similarly to FIG. 12, captured images of the
次に、S2007において、マスターカメラを第1グループの代表カメラとして選定する。 Next, in S2007, the master camera is selected as the representative camera of the first group.
次に、S2008において、第1グループの代表カメラの基準色を基準色のLab値710へ格納した状態で、カメラ平均色差740の小さい方から(M/P)台(グループの代表カメラを含む)のカメラを、第1グループに属するカメラとして選定する。
Next, in S2008, with the reference color of the representative camera of the first group stored in the
次に、S2009において、図10(b)のカメラ800の位置に、第1グループに属するカメラとして選定したカメラを配置する。第1グループ内のカメラは、代表カメラに対するカメラ平均色差が小さい順に、円周上を反時計回りに配置される。
Next, in S2009, the camera selected as the camera belonging to the first group is placed at the position of the
次に、S2010において、P個の全てのグループに対してS2007からS2009の処理を施したか否かを判定する。未了の場合はS2007に戻る。一方、終了の場合には、S1005へ進む。 Next, in S2010, it is determined whether or not the processing from S2007 to S2009 has been performed for all P groups. If not completed, the process returns to S2007. On the other hand, in the case of end, the process proceeds to S1005.
なお、S2007に処理が戻った場合には、直前のグループの代表カメラに対してカメラ平均色差740の小さい方から((M/P)+1)台目のカメラを「次のグループの代表カメラ」として選定する。次に、S2008において、「次のグループの代表カメラ」の基準色を基準色のLab値710へ格納した状態で、カメラ平均色差740の小さい方から(M/P)台(グループの代表カメラを含む)のカメラを「次のグループに属するカメラ」として選定する。但し、既にグループに属するカメラとして選定されているカメラは選定しないものとする。次に、S2009において、図10(b)のように次のグループに属するカメラを配置する。第2グループは、カメラ801の位置に配置され、第2グループ内のカメラは、代表カメラに対するカメラ平均色差が小さい順に、第1グループに続けて同じ円周上を時計回りに配置される。さらに、第3グループは、カメラ802の位置に配置され、第3グループ内のカメラは、代表カメラに対するカメラ平均色差が小さい順に、第1グループに続けて円周上を反時計回りに配置される。このようにして、P個の全てのグループについて、カメラが配置される。
Note that when the process returns to S2007, the ((M/P)+1)th camera with the smallest average
次に、S1005において、M台のマルチカメラのカメラ間色差が算出され、隣接カメラ間平均色差650が求められる。
Next, in S1005, inter-camera color differences of the M multi-cameras are calculated, and an average inter-adjacent
次に、S1008において、撮影する上で重要な視線が集まる重要視線区間の情報と、隣接カメラ間平均色差650の分布を利用して、マルチカメラ配置が決定する。
Next, in S1008, the multi-camera arrangement is determined using the information of the important line-of-sight section in which the lines of sight important for photographing gather and the distribution of the
[効果]
以上説明したように、本実施形態では、マルチカメラにおいてカラーチャートまたはマスターカメラを基準として色差が小さくなるようにカメラ選定を行う。そうすることにより、マルチカメラで撮影された各撮影画像の色差を小さくするようなカメラ配置を実用的な時間内に決定することができる。
[effect]
As described above, in the present embodiment, cameras are selected so that the color difference becomes small with reference to a color chart or a master camera in a multi-camera. By doing so, it is possible to determine, within a practical time, a camera arrangement that reduces the color difference between images captured by multiple cameras.
(第3の実施形態)
第1の実施形態、および第2の実施形態では、L台のカメラからM台(M≦L)のマルチカメラを選定し、カメラ間の色差が小さくなるようにマルチカメラ配置を決定する方法について説明した。
(Third Embodiment)
In the first embodiment and the second embodiment, a method of selecting M (M≦L) multi-cameras from L cameras and determining the multi-camera arrangement so as to reduce the color difference between the cameras is described. explained.
本実施形態では、第1の実施形態や第2の実施形態において、特定の色に対して重み付けの指定を行う場合や、撮影する上で重要な視線が集まる区間に対して重み付けの指定を行う場合のユーザインタファイスについて説明する。 In the present embodiment, in the first embodiment and the second embodiment, weighting is designated for a specific color, and weighting is designated for a section in which the line of sight that is important for shooting is gathered. A user interface in this case will be described.
図14は、本実施形態における重み付け指定を行うためのユーザインタフェイスの例を示す。 FIG. 14 shows an example of a user interface for weighting designation in this embodiment.
図14(a)は、特定の色に対して重み付け指定を行うユーザインタフェイスの一例を示す。先述したように、ユーザは、カラーチャート500の全カラーパッチの中から重要色(例えば、芝生、ユニフォーム、広告、肌色、衣装、楽器などの色)に近いカラーパッチを特定し、特定したカラーパッチに対して他のカラーパッチより大きい重みを与える。
FIG. 14(a) shows an example of a user interface for weighting a specific color. As described above, the user identifies a color patch close to the important color (for example, the color of the lawn, uniform, advertisement, skin color, costume, musical instrument, etc.) from all the color patches in the
カラーパッチの色名900は、カラーチャート500の各カラーパッチの色名を表す。色名は、設定ファイルによって設定することも可能であるし、ユーザがモニタ107上で直接編集し、設定することも可能である。色名が不明な場合には、「Color1」「Color2」という表現でもよい。
A color
カラーパッチの色901は、カラーチャート500の各カラーパッチの色を表示する。モニタ107がsRGBモニタの場合には、カラーチャート500の各カラーパッチのLab値610や基準色のLab値710をsRGB色空間へ変換して表示してもよい。
A
カラーパッチの重み902は、ユーザによって入力された各カラーパッチに対する重み係数を表示する。入力された重み係数は、図7(c)のカメラ間加重平均色差評価(S1011)、隣接カメラ間加重平均色差評価(S1012)、および図12、13のマスターカメラ選定(S2002)において取得される各カラーパッチに対する重み係数として利用される。重み係数のデフォルト値は1であり、重要色の場合には1より大きい値が入力される。取得された重み係数は、式(8)や式(17)のi番目のカラーパッチに対する重みwiとして代入され、隣接カメラ間平均色差650やカメラ平均色差740の加重平均計算に利用される。
図14(b)は、重要視線区間に対して重み付け指定を行うユーザインタファイスの一例を示す。先述したように、ユーザは、重要視線区間の情報として、撮影する上で重要な視線が集まる区間(スタジアムのメインスタンド側、コンサートホールのステージ正面側など)のカメラに対して他の区間のカメラより大きい重みを与える。 FIG. 14(b) shows an example of a user interface for weighting and designating important line-of-sight segments. As described above, as the information of the important line-of-sight section, the user can set the camera in the section where the line of sight that is important for shooting (the side of the main stand of the stadium, the front side of the stage in the concert hall, etc.) to the camera in the other section. give more weight.
カメラ表示903は、画像処理システム200の複数のカメラ212の配置を、モニタ107上に表示する。カメラ表示903により、カメラがスタジアムやコンサートホールのどこに配置されているかを俯瞰することができる。
A camera display 903 displays the arrangement of the multiple cameras 212 of the
重要視線区間のカメラの重み904は、ユーザによって入力された各カメラに対する重み係数を表示する。入力された重み係数は、図6や図12、13のマルチカメラ配置決定(S1008)において取得される重要視線区間の情報として利用される。重み係数のデフォルト値は1であり、重要視線区間のカメラの場合には1より大きい値が入力される。取得された重み係数は各カメラに対する重み係数なので、2台の隣接カメラの重みに対する線形補間、または重要視線区間の重要度分布に対する曲線補間によって隣接カメラ(2台)間の重み係数を求める必要がある。求められた重み係数は、式(13)や式(14)の各隣接カメラ間平均色差に対する重みvjとして代入され、隣接カメラ間平均色差650に対する加重平均計算に利用される。
The camera weights for key line-of-sight segments 904 display the weighting factors for each camera entered by the user. The input weighting coefficients are used as the information of the important line-of-sight section acquired in the multi-camera arrangement determination (S1008) in FIGS. The default value of the weighting factor is 1, and a value greater than 1 is input for cameras in the important line-of-sight section. Since the obtained weighting coefficients are weighting coefficients for each camera, it is necessary to obtain the weighting coefficients between the adjacent cameras (two cameras) by linear interpolation of the weights of the two adjacent cameras or curve interpolation of the importance distribution of the important line-of-sight section. be. The calculated weighting factor is substituted as the weight v j for the average color difference between adjacent cameras in equations (13) and (14), and is used for the weighted average calculation for the
[効果]
以上説明したように、本実施形態では、特定の色や重要視線区間に対する重み付け指定を行うユーザインタフェイスを備える。そうすることにより、マルチカメラで撮影された各撮影画像の色差を小さくするようなカメラ配置を撮影現場に最適化することができる。
[effect]
As described above, the present embodiment is provided with a user interface for weighting designation of a specific color or important line-of-sight segment. By doing so, it is possible to optimize the camera arrangement for the shooting site so as to reduce the color difference of each shot image shot by the multi-camera.
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.
なお、上述の実施形態のすべての構成が、効果を得るために必須の構成とは限らない。例えば、L台のカメラのうち、M台のカメラを選択する構成のみであっても、効果が得られうる。例えば、L台のカメラのうち1台が、他のL-1台とは明らかに異なる個体差を持っている場合、当該1台を除外してM台のカメラを選択することができる。これのみによっても、マルチカメラによる各撮影画像の色差を小さくすることができる。また、別の例として、L=Mの場合には、カメラを選択するステップは省略することができる。この場合、L台(=M台)のカメラの位置関係が、各カメラによる撮影画像に基づいて決定される。これによっても、マルチカメラによる各撮影画像の色差を小さくすることができる。 It should be noted that not all the configurations of the above-described embodiments are essential configurations to obtain the effects. For example, even if only M cameras are selected from L cameras, the effect can be obtained. For example, if one of the L cameras has an individual difference that is clearly different from the other L−1 cameras, the camera can be excluded and the M cameras can be selected. This alone can also reduce the color difference between the images captured by the multi-camera. Also, as another example, if L=M, the step of selecting a camera can be omitted. In this case, the positional relationship of the L (=M) cameras is determined based on the images captured by each camera. This also makes it possible to reduce the color difference between the images captured by the multi-camera.
100 画像処理装置
101 CPU
102 メインメモリ
103 SATA I/F
104 ネットワーク I/F
105 HDD
106 グラフィックアクセラレータ
107 モニタ
108 シリアルバス I/F
109 プリンタ
110 シリアルバス
111 キーボード
112 マウス
113 画像入力デバイス
114 システムバス
115 ネットワーク
100
102
104 Network I/F
105 HDDs
106
109
Claims (20)
前記決定手段による決定に応じた出力を行う出力手段と
を有し、
前記決定手段は、隣のカメラとの撮影画像の色差が小さくなるように、前記複数のカメラの配置を決定することを特徴とする制御装置。 determining means for determining, based on images captured by the plurality of cameras, the arrangement of a plurality of cameras in a multi-camera system for generating virtual viewpoint content;
and output means for outputting according to the determination by the determination means ,
The control device, wherein the determining means determines the arrangement of the plurality of cameras so that the color difference between the images captured by adjacent cameras is small .
をさらに有し、 further having
前記決定手段は、前記選定手段により選定されたM台のカメラの配置を決定することを特徴とする請求項1に記載の制御装置。 2. The control device according to claim 1, wherein said determining means determines the arrangement of the M cameras selected by said selecting means.
前記選定手段により選定された前記M台のカメラの相対的な位置関係を表すマルチカメラの組の候補を決定する候補決定手段と、
前記マルチカメラの組の候補のそれぞれについて、前記M台のカメラによって撮影された各撮影画像のカメラ間色差を評価する色差評価手段と、
前記カメラ間色差の評価結果に基づいて、前記マルチカメラの組を決定する組決定手段と
を有することを特徴とする請求項2に記載の制御装置。 The determining means is
Candidate determining means for determining a candidate for a multi-camera set representing the relative positional relationship of the M cameras selected by the selecting means;
color difference evaluation means for evaluating inter-camera color differences of each of the captured images captured by the M cameras for each of the candidates for the multi-camera set;
3. The control device according to claim 2 , further comprising pair determination means for determining the pair of the multi-cameras based on the evaluation result of the inter-camera color difference.
を有することを特徴とする請求項2に記載の制御装置。 The determining means repeats selection of a camera positioned near the specific camera based on the inter-camera color difference with respect to the specific camera among the M cameras, thereby determining the relative positions of the M cameras. 3. A control device according to claim 2 , further comprising pair determination means for determining a pair of multi-cameras representing the relationship.
を有することを特徴とする請求項2に記載の制御装置。 The determination means divides the M cameras into P (P<M) groups, selects a specific camera in each of the P groups as a representative camera, and selects the P cameras based on the inter-camera color difference. 3. The control according to claim 2 , further comprising a set determining means for determining a set of multi-cameras representing the relative positional relationship of said M cameras by determining the arrangement of said groups of cameras. Device.
仮想視点コンテンツの生成のためのマルチカメラシステムにおける複数のカメラの配置を、前記複数のカメラによる撮影画像に基づいて決定する決定工程と、
前記決定工程による決定に応じた出力を行う出力工程と
を含み、
前記決定工程は、隣のカメラとの撮影画像の色差が小さくなるように、前記複数のカメラの配置を決定することを特徴とする制御方法。 A control method implemented by a computer, comprising:
a determining step of determining an arrangement of a plurality of cameras in a multi-camera system for generating virtual viewpoint content based on images captured by the plurality of cameras;
and an output step of performing an output according to the determination by the determination step,
The control method , wherein the determining step determines the arrangement of the plurality of cameras so that a color difference between images taken by adjacent cameras is reduced .
前記撮影工程により得られた複数の撮影画像に基づいて、隣のカメラとの撮影画像の色差が小さくなるように、前記複数のカメラの配置を決定する決定工程と、 a determination step of determining the arrangement of the plurality of cameras based on the plurality of captured images obtained by the photographing step so that the color difference between the captured images of adjacent cameras is small;
を含むことを特徴とする制御方法。 A control method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018128459A JP7150501B2 (en) | 2018-07-05 | 2018-07-05 | Control device, control method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018128459A JP7150501B2 (en) | 2018-07-05 | 2018-07-05 | Control device, control method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020010141A JP2020010141A (en) | 2020-01-16 |
JP7150501B2 true JP7150501B2 (en) | 2022-10-11 |
Family
ID=69152526
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018128459A Active JP7150501B2 (en) | 2018-07-05 | 2018-07-05 | Control device, control method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7150501B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113938606B (en) * | 2021-10-27 | 2023-04-07 | 杭州海康威视数字技术股份有限公司 | Method and device for determining ball machine erection parameters and computer storage medium |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005260753A (en) | 2004-03-12 | 2005-09-22 | Ntt Docomo Inc | Device and method for selecting camera |
JP2007036615A (en) | 2005-07-26 | 2007-02-08 | Matsushita Electric Ind Co Ltd | Camera controller and monitoring system |
JP2009049759A (en) | 2007-08-21 | 2009-03-05 | Kddi Corp | Color correction apparatus, method and program |
US20130002827A1 (en) | 2011-06-30 | 2013-01-03 | Samsung Electronics Co., Ltd. | Apparatus and method for capturing light field geometry using multi-view camera |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10285610A (en) * | 1997-04-01 | 1998-10-23 | Sony Corp | Color correction device and color correction controller |
-
2018
- 2018-07-05 JP JP2018128459A patent/JP7150501B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005260753A (en) | 2004-03-12 | 2005-09-22 | Ntt Docomo Inc | Device and method for selecting camera |
JP2007036615A (en) | 2005-07-26 | 2007-02-08 | Matsushita Electric Ind Co Ltd | Camera controller and monitoring system |
JP2009049759A (en) | 2007-08-21 | 2009-03-05 | Kddi Corp | Color correction apparatus, method and program |
US20130002827A1 (en) | 2011-06-30 | 2013-01-03 | Samsung Electronics Co., Ltd. | Apparatus and method for capturing light field geometry using multi-view camera |
Non-Patent Citations (1)
Title |
---|
池野 一成,マルチでねらえ! 後編,ビデオサロン 4月号 第47巻第4号 通巻285号,第47巻 第4号,日本,株式会社玄光社,2004年04月01日,58~65 |
Also Published As
Publication number | Publication date |
---|---|
JP2020010141A (en) | 2020-01-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10979631B2 (en) | Image processing system, apparatus, and control method | |
JP2018112997A (en) | Image processor, method of the same, program, and image processing system | |
JP2017211828A (en) | Image processing system, image processor, control method, and program | |
JP2017212593A (en) | Information processing device, image processing system, information processing method, and program | |
JP2017211827A (en) | Information processing unit, control method and program | |
JP2017212591A (en) | Control apparatus, control method, and program | |
JP6409107B1 (en) | Information processing apparatus, information processing method, and program | |
JP7042571B2 (en) | Image processing device and its control method, program | |
WO2013093175A1 (en) | A method, an apparatus and a computer program for determination of an audio track | |
JP6471418B2 (en) | Image / sound distribution system, image / sound distribution device, and image / sound distribution program | |
JP7150501B2 (en) | Control device, control method, and program | |
JP2019022151A (en) | Information processing apparatus, image processing system, control method, and program | |
CN112689140A (en) | White balance synchronization method and device, electronic equipment and storage medium | |
US9986066B2 (en) | Collective output system, collective output method and terminal device | |
JP2003102031A (en) | Image processing method, image processing apparatus, method for evaluation imaging device, image information storage method, image processing system, and data structure in image data file | |
JP6977483B2 (en) | Image processing equipment, image processing methods, image processing systems and programs | |
TWI620442B (en) | Flash optimization for camera devices | |
JP6742216B2 (en) | Sound processing system, sound processing method, program | |
JP7121629B2 (en) | IMAGING DEVICE, PROGRAM, AND CONTENT SHARING SYSTEM | |
US20220417598A1 (en) | Image processing device, operation method of image processing device, and operation program of image processing device | |
JP2019020845A (en) | Image processing apparatus and method, and image processing system | |
JP6857032B2 (en) | Control device, system, control method of control device | |
WO2018147089A1 (en) | Information processing device and method | |
JP2019050593A (en) | Image processing system, image processor, control method, and program | |
JP2023075859A (en) | Information processing apparatus, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210630 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220412 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220426 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220624 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220830 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220928 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7150501 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |