JP7150501B2 - Control device, control method, and program - Google Patents

Control device, control method, and program Download PDF

Info

Publication number
JP7150501B2
JP7150501B2 JP2018128459A JP2018128459A JP7150501B2 JP 7150501 B2 JP7150501 B2 JP 7150501B2 JP 2018128459 A JP2018128459 A JP 2018128459A JP 2018128459 A JP2018128459 A JP 2018128459A JP 7150501 B2 JP7150501 B2 JP 7150501B2
Authority
JP
Japan
Prior art keywords
cameras
camera
color
color difference
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018128459A
Other languages
Japanese (ja)
Other versions
JP2020010141A (en
Inventor
学 大賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018128459A priority Critical patent/JP7150501B2/en
Publication of JP2020010141A publication Critical patent/JP2020010141A/en
Application granted granted Critical
Publication of JP7150501B2 publication Critical patent/JP7150501B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Circuits (AREA)
  • Color Television Image Signal Generators (AREA)
  • Image Analysis (AREA)

Description

本発明は、仮想視点コンテンツの生成のためのシステムに関する。 The present invention relates to a system for the generation of virtual viewpoint content.

従来、同一シーンを複数のカメラで撮影し、カメラを切り替えながら映像を配信するシステムや、ユーザが指定した仮想視点からオブジェクト(被写体)を観察できるシステムが知られている。このようなシステムにおいて、各カメラで撮影された撮影画像の色合いに違いがあると、配信される映像や生成された映像が不自然になってしまう。 2. Description of the Related Art Conventionally, there are known a system in which the same scene is photographed by a plurality of cameras and the images are distributed while switching the cameras, and a system in which an object (subject) can be observed from a virtual viewpoint specified by a user. In such a system, if there is a difference in the color tone of the captured images captured by each camera, the distributed video or the generated video will be unnatural.

特許文献1には、3台以上のカメラで撮影された各撮影画像の色合いが均一となるように、各撮影画像を補正するための設定パラメータを最適化する方法が開示されている。 Patent Literature 1 discloses a method of optimizing setting parameters for correcting each captured image so that each captured image captured by three or more cameras has a uniform color tone.

特開2009-122842号公報JP 2009-122842 A

しかしながら、従来技術では、隣接するカメラ間の個体差が大きい場合には、当該個体差を色補正だけで吸収しきれなかった。すなわち、従来技術による色補正では、カメラ間の色合わせに限界があった。 However, in the prior art, when individual differences between adjacent cameras are large, the individual differences cannot be absorbed by color correction alone. In other words, the conventional color correction has limitations in color matching between cameras.

本発明は、このような問題に鑑みてなされたものであり、その目的とするところは、複数のカメラで撮影された各撮影画像の色差を小さくすることにある。 SUMMARY OF THE INVENTION The present invention has been made in view of such problems, and an object of the present invention is to reduce the color difference between images captured by a plurality of cameras.

本発明の一実施形態に係る制御装置は、仮想視点コンテンツの生成のためのマルチカメラシステムにおける複数のカメラの配置を、前記複数のカメラによる撮影画像に基づいて決定する決定手段と、前記決定手段による決定に応じた出力を行う出力手段とを有し、前記決定手段は、隣のカメラとの撮影画像の色差が小さくなるように、前記複数のカメラの配置を決定する。 A control device according to an embodiment of the present invention comprises: determining means for determining an arrangement of a plurality of cameras in a multi-camera system for generating virtual viewpoint content based on images captured by the plurality of cameras; and an output means for outputting according to the determination by the determination means, wherein the determination means determines the arrangement of the plurality of cameras so that the color difference between the photographed images of the adjacent cameras is reduced .

本発明によれば、複数のカメラで撮影された各撮影画像の色差を小さくすることができる。 ADVANTAGE OF THE INVENTION According to this invention, the color difference of each picked-up image image|photographed with several cameras can be made small.

第1の実施形態における画像処理装置の構成例を示すブロック図である。1 is a block diagram showing a configuration example of an image processing apparatus according to a first embodiment; FIG. 第1の実施形態における画像処理システムの構成例を示すブロック図である。1 is a block diagram showing a configuration example of an image processing system according to a first embodiment; FIG. 第1の実施形態におけるマルチカメラ配置の例を示す概念図である。4 is a conceptual diagram showing an example of multi-camera arrangement in the first embodiment; FIG. 第1の実施形態におけるカラーチャート撮影の例を示す概念図である。FIG. 4 is a conceptual diagram showing an example of color chart imaging according to the first embodiment; 第1の実施形態におけるカメラ間色差評価テーブルの例を示す図である。FIG. 5 is a diagram showing an example of an inter-camera color difference evaluation table in the first embodiment; 第1の実施形態におけるマルチカメラ選定処理のフローチャートである。4 is a flowchart of multi-camera selection processing in the first embodiment. 第1の実施形態におけるカメラ間色差評価処理のフローチャートである。4 is a flowchart of inter-camera color difference evaluation processing in the first embodiment. 第1の実施形態における重要視線区間の例を示す概念図である。FIG. 4 is a conceptual diagram showing an example of an important line-of-sight segment in the first embodiment; 第2の実施形態における基準色とカメラの色差評価テーブルの例を示す図である。FIG. 10 is a diagram showing an example of a reference color and a color difference evaluation table of a camera in the second embodiment; 第2の実施形態におけるカメラの相対的な位置関係の例を示す概念図である。FIG. 11 is a conceptual diagram showing an example of relative positional relationship of cameras in the second embodiment; 第2の実施形態における基準色とカメラの色差の例を示す概念図である。FIG. 11 is a conceptual diagram showing an example of color differences between a reference color and a camera in the second embodiment; 第2の実施形態におけるマルチカメラ選定処理のフローチャートである。10 is a flowchart of multi-camera selection processing according to the second embodiment. 第2の実施形態におけるマルチカメラ選定処理のフローチャートである。10 is a flowchart of multi-camera selection processing according to the second embodiment. 第3の実施形態における重み付け指定を行うためのユーザインタフェイスの例を示す図である。FIG. 13 is a diagram showing an example of a user interface for weighting designation in the third embodiment; FIG.

以下、本発明の実施形態について、図面を参照して説明する。なお、以下の実施形態は本発明を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。なお、同一の構成については、同じ符号を付して説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings. It should be noted that the following embodiments do not limit the present invention, and not all combinations of features described in the embodiments are essential for the solution of the present invention. In addition, the same configuration will be described by attaching the same reference numerals.

(第1の実施形態)
[画像処理装置および画像処理システムの構成]
図1は、本実施形態における画像処理装置の構成例を示すブロック図である。
(First embodiment)
[Configuration of Image Processing Apparatus and Image Processing System]
FIG. 1 is a block diagram showing a configuration example of an image processing apparatus according to this embodiment.

画像処理装置100によって選定された複数のカメラ(マルチカメラ)が、後述する画像処理システム(マルチカメラシステム)200の複数のカメラ212として配置される。すなわち、画像処理装置100は、本実施形態におけるマルチカメラ選定装置として機能する。 A plurality of cameras (multi-cameras) selected by the image processing apparatus 100 are arranged as a plurality of cameras 212 of an image processing system (multi-camera system) 200, which will be described later. That is, the image processing device 100 functions as a multi-camera selection device in this embodiment.

CPU101は、メインメモリ102のRAMをワークメモリとして、メインメモリ102のROMおよびハードディスクドライブ(HDD)105に格納されたオペレーティングシステム(OS)や各種プログラムを実行する。そして、PCI (Peripheral Component Interconnect)バスなどのシステムバス114を介して各構成を制御する。さらに、後述する画像処理を含む各種プログラムを実行する。 The CPU 101 executes an operating system (OS) and various programs stored in the ROM of the main memory 102 and a hard disk drive (HDD) 105 using the RAM of the main memory 102 as a work memory. Each component is controlled via a system bus 114 such as a PCI (Peripheral Component Interconnect) bus. Furthermore, various programs including image processing, which will be described later, are executed.

CPU101は、システムバス114およびシリアルATAインタフェイス(SATA I/F)103を介してHDD105にアクセスする。また、ネットワークI/F104を介してローカルエリアネットワーク(LAN)などのネットワーク115にアクセスする。 CPU 101 accesses HDD 105 via system bus 114 and serial ATA interface (SATA I/F) 103 . It also accesses a network 115 such as a local area network (LAN) via the network I/F 104 .

また、CPU101は、シリアルバスインタフェイス(I/F)108とUSBやIEEE1394などのシリアルバス110に接続されたデバイスと通信を行う。そして、後述する画像処理対象の画像データを、カードリーダを含む画像入力デバイス113から取得したり、処理結果をプリンタ109に出力したりして、例えばユーザが指示する処理結果を印刷する。尚、画像処理対象の画像データは、HHD105やネットワーク115上のサーバから読み出してもよい。 The CPU 101 also communicates with devices connected to a serial bus interface (I/F) 108 and a serial bus 110 such as USB and IEEE1394. Then, image data to be subjected to image processing, which will be described later, is acquired from the image input device 113 including a card reader, and the processing result is output to the printer 109, for example, the processing result instructed by the user is printed. Image data to be subjected to image processing may be read from the HHD 105 or a server on the network 115 .

また、CPU101は、後述する処理のユーザインタフェイスや処理結果を、グラフィックアクセラレータ106を介してモニタ107に表示し、ユーザ指示をシリアルバス110に接続されたキーボード111、マウス112を介して入力する。 The CPU 101 also displays a user interface and processing results of processing, which will be described later, on the monitor 107 via the graphic accelerator 106 , and inputs user instructions via a keyboard 111 and a mouse 112 connected to the serial bus 110 .

図2は、本実施形態における画像処理システムの構成例を示すブロック図である。 FIG. 2 is a block diagram showing a configuration example of an image processing system according to this embodiment.

画像処理システム200は、競技場(スタジアム)やコンサートホールなどの施設に設置された複数のカメラ及びマイクを使用して、撮影及び集音を行うシステム(マルチカメラシステム)である。前述した画像処理装置100によって選定された複数のカメラが、画像処理システム200の複数のカメラ212として配置される。 The image processing system 200 is a system (multi-camera system) that takes pictures and collects sounds using a plurality of cameras and microphones installed in facilities such as stadiums and concert halls. A plurality of cameras selected by the image processing apparatus 100 described above are arranged as a plurality of cameras 212 of the image processing system 200 .

画像処理システム200は、センサシステム210a~210z、画像コンピューティングサーバ300、コントローラ400、スイッチングハブ280、及びエンドユーザ端末290を有する。 Image processing system 200 includes sensor systems 210 a - 210 z, image computing server 300 , controller 400 , switching hub 280 and end user terminal 290 .

コントローラ400は、制御ステーション410と仮想カメラ操作UI(ユーザインタフェイス)430を有する。 The controller 400 has a control station 410 and a virtual camera operation UI (user interface) 430 .

制御ステーション410は、画像処理システム200を構成するそれぞれのブロックに対してネットワーク410a~410c、280a、280b、及び270a~270yを通じて動作状態の管理及びパラメータ設定制御などを行う。ここで、ネットワークはEthernet(登録商標)であるIEEE標準準拠のGbE(ギガビットイーサーネット)や10GbEでもよいし、インターコネクトInfiniband、産業用イーサーネット等を組合せて構成されてもよい。また、ネットワークはこれらに限定されず、他の種別のネットワークであってもよい。 The control station 410 manages the operation state and controls parameter settings for each block that configures the image processing system 200 through the networks 410a to 410c, 280a, 280b, and 270a to 270y. Here, the network may be GbE (Gigabit Ethernet) or 10GbE conforming to the IEEE standard, which is Ethernet (registered trademark), or may be configured by combining interconnect Infiniband, industrial Ethernet, and the like. Also, the network is not limited to these, and may be another type of network.

最初に、センサシステム210a~210zの26セットの画像及び音声をセンサシステム210zから画像コンピューティングサーバ300へ送信する動作を説明する。画像処理システム200では、センサシステム210a~210zが、デイジーチェーンにより接続される。 First, the operation of transmitting the 26 sets of images and sounds of sensor systems 210a-210z from sensor system 210z to image computing server 300 will be described. In image processing system 200, sensor systems 210a-210z are connected by a daisy chain.

本実施形態において、特別な説明がない場合は、センサシステム210aからセンサシステム210zまでの26セットのシステムを区別せずセンサシステム210と記載する。各センサシステム210内の装置についても同様に、特別な説明がない場合は区別せず、マイク211、カメラ212、雲台213、及びカメラアダプタ220と記載する。なお、センサシステムの台数を26セットとして記載しているが、あくまでも一例であり、台数をこれに限定するものではない。また、複数のセンサシステム210は同一の構成でなくてもよく、例えばそれぞれが異なる機種の装置で構成されていてもよい。なお、本実施形態では、特に断りがない限り、画像という文言が、動画と静止画の概念を含むものとして説明する。すなわち、本実施形態の画像処理システム200は、静止画及び動画の何れについても処理可能である。また、本実施形態では、画像処理システム200により提供される仮想視点コンテンツには、仮想視点画像と仮想視点音声が含まれる例を中心に説明するが、これに限らない。例えば、仮想視点コンテンツに音声が含まれていなくても良い。また例えば、仮想視点コンテンツに含まれる音声が、仮想視点に最も近いマイクにより集音された音声であっても良い。また、本実施形態では、説明の簡略化のため、部分的に音声についての記載を省略しているが、基本的に画像と音声は共に処理されるものとする。 In this embodiment, the 26 sets of systems from the sensor system 210a to the sensor system 210z are referred to as the sensor system 210 without distinction unless otherwise specified. Similarly, the devices in each sensor system 210 will be referred to as a microphone 211, a camera 212, a pan head 213, and a camera adapter 220 without distinction unless otherwise specified. Although the number of sensor systems is described as 26 sets, this is merely an example, and the number is not limited to this. Also, the plurality of sensor systems 210 may not have the same configuration, and may be configured with different models of devices, for example. In this embodiment, unless otherwise specified, the term "image" will be described as including the concepts of moving images and still images. That is, the image processing system 200 of this embodiment can process both still images and moving images. Also, in the present embodiment, an example in which the virtual viewpoint content provided by the image processing system 200 includes a virtual viewpoint image and a virtual viewpoint sound will be mainly described, but the present invention is not limited to this. For example, virtual viewpoint content does not have to include audio. Further, for example, the sound included in the virtual viewpoint content may be sound collected by a microphone closest to the virtual viewpoint. In addition, in this embodiment, for the sake of simplification of explanation, the description of audio is partially omitted, but it is assumed that basically both images and audio are processed.

センサシステム210は、それぞれ1台ずつカメラ212を有する。即ち、画像処理システム200は、オブジェクトを複数の方向から撮影するための複数のカメラ212を有する。なお、複数のカメラ212は同一符号を用いて説明するが、性能や機種が異なっていてもよい。複数のセンサシステム210同士はデイジーチェーンにより接続される。この接続形態により、撮影画像の4Kや8Kなどへの高解像度化及び高フレームレート化に伴う画像データの大容量化において、接続ケーブル数の削減や配線作業の省力化ができる。 Sensor systems 210 each have one camera 212 . That is, the image processing system 200 has multiple cameras 212 for photographing the object from multiple directions. Note that the plurality of cameras 212 will be described using the same reference numerals, but may differ in performance and model. A plurality of sensor systems 210 are connected by a daisy chain. With this connection mode, it is possible to reduce the number of connection cables and labor for wiring work when the resolution of captured images is increased to 4K or 8K and the capacity of image data is increased due to increased frame rates.

なお、これに限らず、接続形態として、各センサシステム210がスイッチングハブ280に接続されて、スイッチングハブ280を経由してセンサシステム210間のデータ送受信を行うスター型のネットワーク構成としてもよい。 Note that the connection configuration is not limited to this, and a star network configuration in which each sensor system 210 is connected to the switching hub 280 and data is transmitted and received between the sensor systems 210 via the switching hub 280 may be employed.

また、図2では、デイジーチェーンとなるよう、センサシステム210の全てがカスケード接続されている構成を示したが、これに限定するものではない。例えば、複数のセンサシステム210をいくつかのグループに分割して、分割したグループ単位でセンサシステム210間をデイジーチェーン接続してもよい。そして、分割単位の終端となるカメラアダプタ220が、スイッチングハブに接続されて画像コンピューティングサーバ300へ画像の入力を行うようにしてもよい。このような構成は、スタジアムにおいてとくに有効である。例えば、スタジアムが複数階で構成され、フロア毎にセンサシステム210を配備する場合が考えられる。この場合に、フロア毎、あるいはスタジアムの半周毎に画像コンピューティングサーバ300への入力を行うことができ、全センサシステム210を1つのデイジーチェーンで接続する配線が困難な場所でも設置の簡便化及びシステムの柔軟化を図ることができる。 Moreover, although FIG. 2 shows a configuration in which all of the sensor systems 210 are cascade-connected so as to form a daisy chain, the present invention is not limited to this. For example, the plurality of sensor systems 210 may be divided into several groups, and the sensor systems 210 may be daisy-chained for each divided group. Then, the camera adapter 220 that is the end of the division unit may be connected to the switching hub and input the image to the image computing server 300 . Such a configuration is particularly effective in stadiums. For example, a stadium may have multiple floors and the sensor system 210 may be deployed on each floor. In this case, it is possible to input to the image computing server 300 for each floor or for each half circumference of the stadium. System flexibility can be achieved.

また、画像コンピューティングサーバ300へ画像入力を行う終端のカメラアダプタ220が1つであるか、または2つ以上であるかに応じて、画像コンピューティングサーバ300での画像処理の制御が切り替えられる。すなわち、センサシステム210が複数のグループに分割されているかどうかに応じて制御が切り替えられる。画像入力を行うカメラアダプタ220が1つの場合は、デイジーチェーン接続で画像伝送を行いながら競技場全周画像が生成されるため、画像コンピューティングサーバ300において全周の画像データが揃うタイミングは同期がとられている。すなわち、センサシステム210がグループに分割されていなければ、同期はとられている。しかし、画像コンピューティングサーバ300へ画像入力を行うカメラアダプタ220が複数になる場合は、画像が撮影されてから画像コンピューティングサーバ300に入力されるまでの遅延がデイジーチェーンのレーン(経路)ごとに異なる場合が考えられる。すなわち、センサシステム210が複数のグループに分割される場合は、画像コンピューティングサーバ300に全周の画像データが入力されるタイミングは同期がとられないことがある。そのため、画像コンピューティングサーバ300において、全周の画像データが揃うまで待って同期をとる同期制御によって、画像データの集結をチェックしながら後段の画像処理を行う必要がある。 In addition, control of image processing in the image computing server 300 is switched depending on whether there is one camera adapter 220 or two or more terminal camera adapters 220 that input images to the image computing server 300 . That is, control is switched depending on whether the sensor system 210 is divided into multiple groups. If there is only one camera adapter 220 for image input, the image of the entire circumference of the stadium is generated while transmitting the image through the daisy chain connection. is taken. That is, if the sensor system 210 is not divided into groups, it is synchronized. However, if there are a plurality of camera adapters 220 that input images to the image computing server 300, the delay from the time an image is captured until it is input to the image computing server 300 is different for each lane (route) of the daisy chain. Different cases are conceivable. That is, when the sensor system 210 is divided into a plurality of groups, the timing at which the image data for the entire circumference is input to the image computing server 300 may not be synchronized. Therefore, in the image computing server 300, it is necessary to perform subsequent image processing while checking the collection of image data by synchronous control that waits until the image data of all circumferences are ready and synchronizes them.

本実施形態では、センサシステム210aは、マイク211a、カメラ212a、雲台213a、及びカメラアダプタ220aを有する。なお、センサシステム210aは、この構成に限定されるものではなく、少なくとも1台のカメラアダプタ220aと、1台のカメラ212aまたは1台のマイク211aを有していれば良い。また例えば、センサシステム210aは、1台のカメラアダプタ220aと、複数のカメラ212aで構成されてもよいし、1台のカメラ212aと複数のカメラアダプタ220aで構成されてもよい。また、センサシステム210は、マイク211a、カメラ212a、雲台213a、及びカメラアダプタ220a以外の装置を含んでいてもよい。また、カメラ212とカメラアダプタ220が一体となって構成されていてもよい。さらに、カメラアダプタ220の機能の少なくとも一部をフロントエンドサーバ330が有していてもよい。本実施形態では、センサシステム210b~210zについては、センサシステム210aと同様の構成なので省略する。なお、センサシステム210aと同じ構成に限定されるものではなく、それぞれのセンサシステム210の構成は異なっていてもよい。 In this embodiment, the sensor system 210a has a microphone 211a, a camera 212a, a platform 213a, and a camera adapter 220a. Note that the sensor system 210a is not limited to this configuration, and may have at least one camera adapter 220a and one camera 212a or one microphone 211a. Further, for example, the sensor system 210a may be configured with one camera adapter 220a and multiple cameras 212a, or may be configured with one camera 212a and multiple camera adapters 220a. Also, the sensor system 210 may include devices other than the microphone 211a, the camera 212a, the platform 213a, and the camera adapter 220a. Alternatively, the camera 212 and the camera adapter 220 may be integrated. Furthermore, at least part of the functionality of camera adapter 220 may be provided by front-end server 330 . In this embodiment, the sensor systems 210b to 210z have the same configuration as the sensor system 210a, so description thereof will be omitted. The configuration of each sensor system 210 is not limited to the same as that of the sensor system 210a, and the configuration of each sensor system 210 may be different.

マイク211aによって集音された音声と、カメラ212aによって撮影された画像は、カメラアダプタ220aにおいて画像処理が施された後、デイジーチェーン270aを通して、次のセンサシステム210bに伝送される。同様にセンサシステム210bは、集音された音声と撮影された画像を、センサシステム210aから取得した画像及び音声と合わせて、次のセンサシステム210cに伝送する。このような動作を続けることにより、センサシステム210a~210zが取得した画像及び音声は、センサシステム210zからネットワーク280bを介してスイッチングハブ280に伝送され、その後、画像コンピューティングサーバ300へ伝送される。 The sound collected by the microphone 211a and the image captured by the camera 212a are subjected to image processing in the camera adapter 220a and then transmitted to the next sensor system 210b through the daisy chain 270a. Similarly, the sensor system 210b transmits the collected sound and the captured image together with the image and sound acquired from the sensor system 210a to the next sensor system 210c. By continuing such operations, images and sounds acquired by sensor systems 210 a - 210 z are transmitted from sensor system 210 z through network 280 b to switching hub 280 and then to image computing server 300 .

なお、本実施形態では、カメラ212a~212zとカメラアダプタ220a~220zが分離された構成にしているが、同一筺体で一体化されていてもよい。その場合、マイク211a~211zは、一体化されたカメラ212に内蔵されてもよいし、カメラ212の外部に接続されていてもよい。 Although the cameras 212a to 212z and the camera adapters 220a to 220z are separated in this embodiment, they may be integrated in the same housing. In that case, the microphones 211 a to 211 z may be built into the integrated camera 212 or may be connected to the outside of the camera 212 .

次に、画像コンピューティングサーバ300の構成及び動作について説明する。本実施形態の画像コンピューティングサーバ300は、終端のセンサシステム210zから取得した画像及び音声データの処理を行う。画像コンピューティングサーバ300は、フロントエンドサーバ330、データベース350(以下、DBとも記載する。)、バックエンドサーバ370、及びタイムサーバ390を有する。 Next, the configuration and operation of image computing server 300 will be described. The image computing server 300 of this embodiment processes image and audio data obtained from the terminal sensor system 210z. The image computing server 300 has a front end server 330 , a database 350 (hereinafter also referred to as DB), a back end server 370 and a time server 390 .

タイムサーバ390は、時刻及び同期信号を配信する機能を有し、スイッチングハブ280を介してセンサシステム210a~210zに時刻及び同期信号を配信する。時刻と同期信号を受信したカメラアダプタ220a~220zは、カメラ212a~212zを時刻と同期信号をもとにGenlockさせ、画像フレーム同期を行う。即ち、タイムサーバ390は、複数のカメラ212の撮影タイミングを同期させる。これにより、画像処理システム200は同じタイミングで撮影された複数の撮影画像に基づいて仮想視点画像を生成できるため、撮影タイミングのずれによる仮想視点画像の品質低下を抑制できる。なお、本実施形態では、タイムサーバ390が複数のカメラ212の時刻同期を管理するものとするが、これに限らず、時刻同期のための処理を各カメラ212又は各カメラアダプタ220が独立して行ってもよい。 The time server 390 has a function of distributing time and synchronization signals, and distributes the time and synchronization signals to the sensor systems 210a to 210z via the switching hub 280. FIG. The camera adapters 220a to 220z that have received the time and synchronization signal Genlock the cameras 212a to 212z based on the time and the synchronization signal, and perform image frame synchronization. That is, the time server 390 synchronizes the photographing timings of the multiple cameras 212 . Accordingly, since the image processing system 200 can generate a virtual viewpoint image based on a plurality of captured images captured at the same timing, it is possible to suppress deterioration in the quality of the virtual viewpoint image due to the deviation of the capturing timing. In this embodiment, the time server 390 manages the time synchronization of a plurality of cameras 212, but this is not limitative, and each camera 212 or each camera adapter 220 independently performs time synchronization processing. you can go

フロントエンドサーバ330は、終端のセンサシステム210zから取得した画像及び音声について、セグメント化された伝送パケットを再構成してデータ形式を変換する。そして、カメラの識別子やデータ種別、フレーム番号に応じてデータベース350に書き込む。 The front-end server 330 reconstructs the segmented transmission packets and converts the data format for images and sounds acquired from the terminal sensor system 210z. Then, it writes to the database 350 according to the camera identifier, data type, and frame number.

バックエンドサーバ370は、仮想カメラ操作UI430から、ユーザが入力した視点の指定を受け付け、受け付けられた視点に基づいて、データベース350から対応する画像及び音声データを読み出し、レンダリング処理を行って仮想視点画像を生成する。 The back-end server 370 accepts the designation of the viewpoint input by the user from the virtual camera operation UI 430, reads the corresponding image and audio data from the database 350 based on the accepted viewpoint, and renders the virtual viewpoint image. to generate

なお、画像コンピューティングサーバ300の構成はこれに限らない。例えば、フロントエンドサーバ330、データベース350、及びバックエンドサーバ370のうち少なくとも2つが一体となって構成されていてもよい。また、フロントエンドサーバ330、データベース350、及びバックエンドサーバ370の少なくとも何れかが複数含まれていてもよい。また、画像コンピューティングサーバ300内の任意の位置に上記の装置以外の装置が含まれていてもよい。さらに、画像コンピューティングサーバ300の機能の少なくとも一部をエンドユーザ端末290や仮想カメラ操作UI430が有していてもよい。 Note that the configuration of the image computing server 300 is not limited to this. For example, at least two of the front-end server 330, database 350, and back-end server 370 may be integrated. Also, at least one of the front-end server 330, the database 350, and the back-end server 370 may be included in multiple numbers. Also, devices other than those described above may be included at any location within image computing server 300 . Furthermore, at least part of the functions of the image computing server 300 may be included in the end user terminal 290 or the virtual camera operation UI 430 .

バックエンドサーバ370は、生成した仮想視点画像を、エンドユーザ端末290に送信する。エンドユーザ端末290を操作するユーザは、視点の指定に応じた画像閲覧及び音声視聴が出来る。すなわち、バックエンドサーバ370は、複数のカメラ212により撮影された撮影画像(複数視点画像)と視点情報とに基づく仮想視点コンテンツを生成する。より具体的には、バックエンドサーバ370は、例えば複数のカメラアダプタ220により複数のカメラ212による撮影画像から抽出された所定領域の画像データと、ユーザ操作により指定された視点に基づいて、仮想視点コンテンツを生成する。そしてバックエンドサーバ370は、生成した仮想視点コンテンツをエンドユーザ端末290に提供する。なお、仮想視点コンテンツは、画像コンピューティングサーバ300に含まれるバックエンドサーバ370以外の装置により生成されてもよいし、コントローラ400やエンドユーザ端末290により生成されてもよい。 The backend server 370 transmits the generated virtual viewpoint image to the end user terminal 290 . A user operating the end-user terminal 290 can view images and listen to audio according to the specified viewpoint. That is, the backend server 370 generates virtual viewpoint content based on captured images (multi-viewpoint images) captured by the plurality of cameras 212 and viewpoint information. More specifically, the back-end server 370 generates a virtual viewpoint based on image data of a predetermined region extracted from images captured by the cameras 212 by the camera adapters 220 and a viewpoint specified by user operation. Generate content. The backend server 370 then provides the generated virtual viewpoint content to the end user terminal 290 . Note that the virtual viewpoint content may be generated by a device other than the backend server 370 included in the image computing server 300 , or may be generated by the controller 400 or the end user terminal 290 .

本実施形態における仮想視点コンテンツは、仮想的な視点からオブジェクトを撮影した場合に得られる画像としての仮想視点画像を含むコンテンツである。言い換えると、仮想視点画像は、指定された視点におけるビューを表す画像であるとも言える。仮想的な視点(仮想視点)は、ユーザにより指定されても良いし、画像解析の結果等に基づいて自動的に指定されても良い。すなわち仮想視点画像には、ユーザが任意に指定した視点に対応する任意視点画像(自由視点画像)が含まれる。また、複数の候補からユーザが指定した視点に対応する画像や、装置が自動で指定した視点に対応する画像も、仮想視点画像に含まれる。なお、本実施形態では、仮想視点コンテンツに音声データ(オーディオデータ)が含まれる場合の例を中心に説明しているが、必ずしも音声データが含まれていなくても良い。また、バックエンドサーバ370は、仮想視点画像を例えばH.264やHEVCなどの符号化方式に従って圧縮符号化したうえで、MPEG-DASHプロトコルを使ってエンドユーザ端末290へ送信してもよい。また、仮想視点画像は、非圧縮でエンドユーザ端末290へ送信されてもよい。とくに圧縮符号化を行う前者はエンドユーザ端末290としてスマートフォンやタブレットを想定している。一方、後者は、非圧縮画像を表示可能なディスプレイを想定している。すなわち、エンドユーザ端末290の種別に応じて画像フォーマットが切り替え可能である。また、画像の送信プロトコルはMPEG-DASHに限らず、例えば、HLS(HTTP Live Streaming)やその他の送信方法を用いても良い。 The virtual viewpoint content in this embodiment is content that includes a virtual viewpoint image as an image obtained when an object is photographed from a virtual viewpoint. In other words, it can be said that the virtual viewpoint image is an image representing a view at a specified viewpoint. A virtual viewpoint (virtual viewpoint) may be specified by the user, or may be automatically specified based on the result of image analysis or the like. That is, the virtual viewpoint image includes an arbitrary viewpoint image (free viewpoint image) corresponding to a viewpoint arbitrarily designated by the user. The virtual viewpoint image also includes an image corresponding to a viewpoint specified by the user from among a plurality of candidates and an image corresponding to a viewpoint automatically specified by the device. Note that, in the present embodiment, an example in which voice data (audio data) is included in the virtual viewpoint content is mainly described, but voice data does not necessarily have to be included. Also, the back-end server 370 may store virtual viewpoint images in H.264, for example. 264 or HEVC, and then transmitted to the end user terminal 290 using the MPEG-DASH protocol. Alternatively, the virtual viewpoint image may be transmitted to the end user terminal 290 uncompressed. In particular, the former, which performs compression encoding, assumes that the end user terminal 290 is a smart phone or a tablet. On the other hand, the latter assumes a display capable of displaying uncompressed images. That is, the image format can be switched according to the type of the end user terminal 290. FIG. Also, the image transmission protocol is not limited to MPEG-DASH, and for example, HLS (HTTP Live Streaming) or other transmission methods may be used.

このように、画像処理システム200は、映像収集ドメイン、データ保存ドメイン、及び映像生成ドメインという3つの機能ドメインを有する。映像収集ドメインは、センサシステム210-210zを含む。データ保存ドメインは、データベース350、フロントエンドサーバ330及びバックエンドサーバ370を含む。映像生成ドメインは、仮想カメラ操作UI430及びエンドユーザ端末290を含む。なお本構成に限らず、例えば、仮想カメラ操作UI430が直接センサシステム210a~210zから画像を取得する事も可能である。しかしながら、本実施形態では、センサシステム210a~210zから直接画像を取得する方法ではなく、データ保存機能を中間に配置する方法をとる。具体的には、フロントエンドサーバ330が、センサシステム210a~210zが生成した画像データや音声データ及びそれらのデータのメタ情報を、データベース350の共通スキーマ及びデータ型に変換する。これにより、センサシステム210a~210zのカメラ212が他機種のカメラに変更されても、変更された差分をフロントエンドサーバ330が吸収し、データベース350に登録することができる。このような構成によって、カメラ212が他機種のカメラに変わった場合に、仮想カメラ操作UI430が適切に動作しない虞を低減できる。 Thus, the image processing system 200 has three functional domains: an image collection domain, a data storage domain, and an image generation domain. The image collection domain includes sensor systems 210-210z. The data storage domain includes database 350 , front end server 330 and back end server 370 . The video production domain includes virtual camera manipulation UI 430 and end user terminal 290 . Note that the configuration is not limited to this configuration, and for example, the virtual camera operation UI 430 can directly acquire images from the sensor systems 210a to 210z. However, in this embodiment, rather than acquiring images directly from the sensor systems 210a-210z, a data storage function is placed in the middle. Specifically, the front-end server 330 converts the image data and audio data generated by the sensor systems 210a to 210z and the meta information of these data into the common schema and data type of the database 350. FIG. As a result, even if the cameras 212 of the sensor systems 210a to 210z are changed to cameras of other models, the front-end server 330 can absorb the changed differences and register them in the database 350. FIG. With such a configuration, it is possible to reduce the risk that the virtual camera operation UI 430 will not operate properly when the camera 212 is changed to a camera of another model.

また、仮想カメラ操作UI430は、直接データベース350にアクセスせずに、バックエンドサーバ370を介してアクセスする。バックエンドサーバ370で画像生成処理に係わる共通処理を行い、操作UIに係わるアプリケーションの差分部分を仮想カメラ操作UI430が吸収している。このような構成により、仮想カメラ操作UI430の開発において、UI操作デバイスや、生成したい仮想視点画像を操作するUIの機能要求に対する開発に注力する事ができる。また、バックエンドサーバ370は、仮想カメラ操作UI430の要求に応じて画像生成処理に係わる共通処理を追加又は削除する事も可能である。このような構成によって、バックエンドサーバ370は、仮想カメラ操作UI430の要求に柔軟に対応する事ができる。 Also, the virtual camera operation UI 430 does not access the database 350 directly, but accesses it via the backend server 370 . The back-end server 370 performs common processing related to image generation processing, and the virtual camera operation UI 430 absorbs the differences of the application related to the operation UI. With such a configuration, in the development of the virtual camera operation UI 430, it is possible to focus on the development of the functional requirements of the UI operation device and the UI for operating the virtual viewpoint image to be generated. Also, the backend server 370 can add or delete common processing related to image generation processing in response to a request from the virtual camera operation UI 430 . With such a configuration, the backend server 370 can flexibly respond to requests from the virtual camera operation UI 430 .

以上説明したように、画像処理システム200においては、オブジェクトを複数の方向から撮影するための複数のカメラ212による撮影画像に基づいて、バックエンドサーバ370により仮想視点画像が生成される。なお、本実施形態における画像処理システム200は、上記で説明した物理的な構成に限定されず、論理的に構成されていてもよい。また、本実施形態は、例えば仮想視点画像を生成せず、複数のカメラ212を切り替えることによって撮影画像をエンドユーザ端末290へ送信する場合にも適用できる。 As described above, in the image processing system 200, the backend server 370 generates a virtual viewpoint image based on the images captured by the multiple cameras 212 for capturing images of the object from multiple directions. Note that the image processing system 200 according to the present embodiment is not limited to the physical configuration described above, and may be configured logically. Further, this embodiment can also be applied to a case in which captured images are transmitted to the end-user terminal 290 by switching between the plurality of cameras 212 without generating a virtual viewpoint image, for example.

[マルチカメラの選定]
先述したように、仮想視点画像は、画像処理システム200において同じタイミングで撮影された複数の撮影画像に基づいて生成される。このため、複数のカメラ212の各撮影画像の特性(明るさや色味)に違いがあると、仮想視点を移動させた際に生成される仮想視点画像が不自然になる。
[Multi camera selection]
As described above, a virtual viewpoint image is generated based on a plurality of captured images captured at the same timing by the image processing system 200 . Therefore, if there is a difference in the characteristics (brightness and color) of the images captured by the plurality of cameras 212, the virtual viewpoint image generated when the virtual viewpoint is moved becomes unnatural.

そこで、本実施形態では、画像処理システム200において、カメラ間色差が小さくなるように複数のカメラ(以下、マルチカメラともいう)212を選定して、選定した各カメラの相対的な位置関係を決定する。 Therefore, in the present embodiment, in the image processing system 200, a plurality of cameras (hereinafter also referred to as multi-cameras) 212 are selected so that the color difference between the cameras is small, and the relative positional relationship between the selected cameras is determined. do.

画像処理システム200が、仮想視点画像を生成するために必要な台数(M台)以上のカメラ(L台)を有している場合には、カメラ間の色差が小さくなるようにM台のカメラを選定する必要がある。 When the image processing system 200 has more than the number (M) of cameras (L) required to generate a virtual viewpoint image, the M cameras are used so that the color difference between the cameras becomes small. must be selected.

L台のカメラから選定されるM台(M≦L)のカメラの組み合わせの数は、式(1)で示される。 The number of combinations of M (M≦L) cameras selected from L cameras is given by equation (1).

Figure 0007150501000001
Figure 0007150501000001

図3は、本実施形態におけるマルチカメラ配置の例を示す概念図であり、M台のカメラを円形に並べた例を示している。なお、M台のカメラは、オブジェクトを異なる方向から捉えていればよく、図示した配置に限定されるものではない。例えば、M台のカメラは、真円上、楕円上、または一直線上に配置してもよい。本実施形態では簡単化のため、円形を例に説明する。 FIG. 3 is a conceptual diagram showing an example of a multi-camera arrangement in this embodiment, showing an example in which M cameras are arranged in a circle. Note that the M cameras are not limited to the arrangement shown in the figure, as long as they capture the object from different directions. For example, the M cameras may be arranged in a circle, an ellipse, or a line. In this embodiment, for the sake of simplification, a circle will be described as an example.

M台のカメラを円形に並べる円順列の総数は、式(2)で示される。 The total number of circular permutations for arranging M cameras in a circle is given by Equation (2).

Figure 0007150501000002
Figure 0007150501000002

よって、L台のカメラからM台(M≦L)のマルチカメラを選定し、選定したM台のカメラを円形に並べる円順列の総数は、式(3)で示される。 Therefore, the total number of circular permutations for selecting M (M≦L) multi-cameras from L cameras and arranging the selected M cameras in a circle is given by Equation (3).

Figure 0007150501000003
Figure 0007150501000003

つまり、M台のカメラを円形に並べたマルチカメラの組の候補は、式(3)で示される数だけ存在するので、各候補においてカメラ間の色差を評価し、その色差が最も小さくなるマルチカメラの組を決定する。なお、マルチカメラの組とは、M台のカメラの相対的な位置関係を表す。これにより、画像処理システム200で配置する複数のカメラ212と、各カメラの相対的な位置関係を求めることができる。 That is, since there are as many candidates for a multi-camera set in which M cameras are arranged in a circle as the number indicated by equation (3), the color difference between cameras is evaluated for each candidate, and the multi-camera set with the smallest color difference is evaluated. Decide on a set of cameras. Note that the multi-camera set represents the relative positional relationship of the M cameras. Thereby, the relative positional relationship between the plurality of cameras 212 arranged in the image processing system 200 and each camera can be obtained.

[カラーチャート撮影とカラーパッチの抽出]
カメラ間の色差を求めるため、同一のカラーチャートを異なるカメラで撮影する。
[Capturing a color chart and extracting color patches]
In order to obtain the color difference between cameras, the same color chart is photographed by different cameras.

図4は、本実施形態におけるカラーチャート撮影の例を示す概念図であり、L台のカメラがカラーチャート500を撮影する例を示している。 FIG. 4 is a conceptual diagram showing an example of photographing a color chart according to this embodiment, and shows an example of photographing a color chart 500 with L cameras.

カラーチャート500は、複数のカラーパッチから構成される。各カラーパッチは、測色器等によってCIE XYZやCIE Labなどのデバイス非依存の色値が予め測定されている。オブジェクトとしてのカラーチャート500は、暗室の観察ブース内に置かれてもよいし、撮影現場のオブジェクトの位置に置かれてもよい。また、カラーチャート500は、各カメラが異なる方向から同時に撮影してもよいし、カメラを1台ずつ正対させて撮影してもよい。 A color chart 500 is composed of a plurality of color patches. For each color patch, device-independent color values such as CIE XYZ and CIE Lab are measured in advance by a colorimeter or the like. The color chart 500 as an object may be placed in an observation booth in a darkroom, or may be placed at the position of the object in the shooting scene. Further, the color chart 500 may be photographed simultaneously by each camera from different directions, or may be photographed by directing the cameras one by one.

画像処理装置100は、画像入力デバイス113から、カラーチャート500をオブジェクトとしたL台のカメラ501、502、503、504、…の撮影画像を取得し、各撮影画像からカラーチャート500の各カラーパッチの色値を抽出する。ここで、各カラーパッチの色値の抽出は自動であっても手動であってもよい。 The image processing apparatus 100 obtains, from the image input device 113, captured images of the L cameras 501, 502, 503, 504, . Extract the color value of . Here, the extraction of the color value of each color patch may be automatic or manual.

次に、画像処理装置100は、各カラーパッチの色値を撮影画像の色空間からCIE XYZやCIE Labなどのデバイス非依存な色空間へ変換する。撮影画像の色空間が、ITU-R BT.709、ITU-R BT.2020、DCI-P3、ACES、sRGB、Adobe RGBなどの「定義された色空間」である場合、デバイス非依存な色空間へ変換することができる。また、撮影画像がRAW画像の場合には、RAW現像処理によって「定義された色空間」へ変換する。また、L台のカメラ501、502、503、504、…の撮影画像の取得方法は、画像入力デバイス113経由に限定されず、L台のカメラを画像処理システム200の複数のカメラ212として接続して、ネットワーク115経由で取得してもよい。 Next, the image processing apparatus 100 converts the color value of each color patch from the color space of the captured image to a device-independent color space such as CIE XYZ or CIE Lab. If the color space of the captured image is a "defined color space" such as ITU-R BT.709, ITU-R BT.2020, DCI-P3, ACES, sRGB, Adobe RGB, device-independent color space can be converted to Also, if the captured image is a RAW image, it is converted into a "defined color space" by RAW development processing. In addition, the method of acquiring images captured by the L cameras 501, 502, 503, 504, . may be acquired via the network 115.

[カメラ間色差評価]
図5は、本実施形態におけるカメラ間色差評価テーブルの例を示し、M台のカメラを円形に並べたマルチカメラの組のカメラ間色差評価の例を示している。
[Evaluation of color difference between cameras]
FIG. 5 shows an example of an inter-camera color difference evaluation table in this embodiment, showing an example of inter-camera color difference evaluation for a multi-camera set in which M cameras are arranged in a circle.

カメラ間色差評価テーブル600の各行は、カラーチャート500の各カラーパッチの色を示す。カメラ間色差評価テーブル600は、例えばカラーチャートがColorChecker Classic(24色)の場合には、24行のデータを含む。カラーチャート500は、自作のカラーチャートを利用してもよいし、ColorChecker Digital SG(140色)のような市販のカラーチャートを利用してもよい。 Each row of the inter-camera color difference evaluation table 600 indicates the color of each color patch of the color chart 500 . The inter-camera color difference evaluation table 600 includes 24 rows of data when the color chart is ColorChecker Classic (24 colors), for example. The color chart 500 may be a self-made color chart or a commercially available color chart such as ColorChecker Digital SG (140 colors).

カラーチャート500の各カラーパッチのLab値610には、カラーチャート500の各カラーパッチを測色器で測色したLab値が格納される。 The Lab value 610 of each color patch of the color chart 500 stores the Lab value obtained by measuring each color patch of the color chart 500 with a colorimeter.

カラーチャート500の各カラーパッチに対する各カメラのLab値620には、M台のカメラを円形に並べたマルチカメラの組の候補の各カメラの撮影画像から各カラーパッチの色を抽出して変換したLab値が格納される。 The Lab value 620 of each camera for each color patch of the color chart 500 is obtained by extracting and converting the color of each color patch from the captured image of each camera as a candidate for a multi-camera set in which M cameras are arranged in a circle. Lab value is stored.

画像処理装置100は、マルチカメラの組におけるカメラ間色差を評価し、色差が最も小さくなるマルチカメラの組を求める。 The image processing apparatus 100 evaluates the inter-camera color difference in the multi-camera set and obtains the multi-camera set with the smallest color difference.

M台のカメラから2台のカメラを選んで色差を求める組み合わせの総数は、式(4)で示される。 The total number of combinations in which two cameras are selected from M cameras and the color difference is obtained is given by equation (4).

Figure 0007150501000004
Figure 0007150501000004

式(4)の組み合わせの総数に対して色差を評価すればマルチカメラ全体の色差を小さくすることができるが、本実施形態では簡単化のため、隣接するカメラ間の色差を評価する例を説明する。 If the color difference is evaluated with respect to the total number of combinations of formula (4), the color difference of the entire multi-camera can be reduced. In this embodiment, for the sake of simplification, an example of evaluating the color difference between adjacent cameras will be described. do.

円形に並べたマルチカメラにおけるi番目のカラーパッチに対する隣接カメラ間色差630は、式(5)によって求めることができる。ここでは、カメラ212aのLab値を(L* 1(i),a* 1(i),b* 1(i))、カメラ212bのLab値を(L* 2(i),a* 2(i),b* 2(i))とする。 The color difference 630 between adjacent cameras for the i-th color patch in the circularly arranged multi-cameras can be obtained by Equation (5). Here, the Lab value of the camera 212a is (L * 1 (i),a * 1 (i),b * 1 (i)), and the Lab value of the camera 212b is (L * 2 (i),a * 2 ( i),b * 2 (i)).

Figure 0007150501000005
Figure 0007150501000005

同様に、ΔE23(i)、ΔE34(i)、…、ΔE(M-1)M(i)、ΔEM1(i)のように、M通りの各カラーパッチの隣接カメラ間色差630を求める。 Similarly, ΔE 23 ( i ), ΔE 34 (i), . Ask.

ここで、本実施形態では簡単化のため、色差式としてΔE76(CIE76)を用いているが、ΔE94(CIE94)やΔE00(CIEDE2000)などを用いてもよい。 Here, in this embodiment, ΔE76 (CIE76) is used as the color difference formula for simplification, but ΔE94 (CIE94), ΔE00 (CIEDE2000), or the like may be used.

更に、M台のカメラを円形に並べたマルチカメラの組の候補におけるi番目のカラーパッチに対する隣接カメラ間単純平均色差640は、式(6)によって求めることができる。 Furthermore, the simple average color difference 640 between adjacent cameras for the i-th color patch in the candidates of the multi-camera set in which M cameras are arranged in a circle can be obtained by Equation (6).

Figure 0007150501000006
Figure 0007150501000006

一方、各カラーパッチに対する隣接カメラ間色差630が式(5)によって求められているので、M台のカメラを円形に並べたマルチカメラの組の候補における隣接カメラ(j,j+1)に対する隣接カメラ間平均色差650を求めることもできる。隣接カメラ間平均色差650は、単純平均色差(ΔEj(j+1)aまたは加重平均色差(ΔEj(j+1)wを使用目的に応じて選択的に格納することができる。 On the other hand, since the color difference 630 between adjacent cameras for each color patch is obtained by equation (5), the color difference 630 between adjacent cameras for adjacent cameras (j, j+1) in candidates for a multi-camera set in which M cameras are arranged in a circle is An average color difference 650 can also be determined. The average color difference between adjacent cameras 650 can selectively store a simple average color difference (ΔE j(j+1) ) a or a weighted average color difference (ΔE j(j+1) ) w depending on the purpose of use.

撮影において、オブジェクトの色が事前に予測できない場合には、単純平均によるカメラ間色差評価を行うことができる。隣接カメラ(j,j+1)に対する隣接カメラ間単純平均色差(ΔEj(j+1)aは、i番目のカラーパッチに対する隣接カメラ(j,j+1)の色差をΔEj(j+1)(i)、カラーパッチの総数をNとすれば、式(7)によって求めることができる。 In photography, if the color of an object cannot be predicted in advance, it is possible to evaluate the color difference between cameras by simple averaging. Simple average color difference between adjacent cameras (ΔE j(j+1) ) a for adjacent camera (j, j+1) is the color difference between adjacent cameras (j, j+1) for i-th color patch as ΔE j(j+1) ( i), where N is the total number of color patches, it can be obtained by equation (7).

Figure 0007150501000007
Figure 0007150501000007

一方、撮影が競技場(スタジアム)やコンサートホールなどの施設で行われる場合には、リハーサルの段階で重要色(芝生、ユニフォーム、広告、肌色、衣装、楽器などの色)が事前にわかることが多い。したがって、特定の色に対して重み付けを行ったカメラ間色差評価を行うことができる。例えば、カラーチャート500の全カラーパッチの中から重要色に近いカラーパッチを特定し、特定したカラーパッチに対する隣接カメラ(j,j+1)の色差に対して他のカラーパッチより大きい重みを与える。隣接カメラ(j,j+1)に対する隣接カメラ間加重平均色差(ΔEj(j+1)wは、i番目のカラーパッチに対する重みをwiとすれば、式(8)によって求めることができる。なお、i番目のカラーパッチに対する隣接カメラ(j,j+1)の色差はΔEj(j+1)(i)、カラーパッチの総数をNとする。 On the other hand, when filming takes place in facilities such as stadiums and concert halls, important colors (lawn, uniforms, advertisements, skin colors, costumes, musical instrument colors, etc.) can be known in advance at the rehearsal stage. many. Therefore, it is possible to perform inter-camera color difference evaluation in which a specific color is weighted. For example, a color patch close to the important color is specified from all color patches of the color chart 500, and the color difference of the adjacent camera (j, j+1) with respect to the specified color patch is given greater weight than other color patches. The weighted average color difference between adjacent cameras (ΔE j(j+1) ) w for the adjacent camera ( j , j+1) can be obtained by Equation (8), where wi is the weight for the i-th color patch. Let ΔE j(j+1) (i) be the color difference of the adjacent camera (j, j+1) with respect to the i-th color patch, and N be the total number of color patches.

Figure 0007150501000008
Figure 0007150501000008

また、隣接カメラ間平均色差650の算出方法に応じて、カメラ間色差評価結果660も、単純平均色差または加重平均色差が用いられる。すなわち、単純平均色差(ΔEj(j+1)aの単純平均が格納される場合(式(9))と、加重平均色差(ΔEj(j+1)wの単純平均が格納される場合(式(10))が存在する。 In addition, depending on the calculation method of the average color difference between adjacent cameras 650, a simple average color difference or a weighted average color difference is also used for the color difference evaluation result 660 between cameras. That is, when the simple average of the simple average color difference (ΔE j(j+1) ) a is stored (equation (9)), and when the simple average of the weighted average color difference (ΔE j(j+1) ) w is stored There is a case (equation (10)) where

Figure 0007150501000009
Figure 0007150501000009

Figure 0007150501000010
Figure 0007150501000010

[マルチカメラ配置の決定]
最適なマルチカメラの組を決定するためには、式(3)で示されるマルチカメラの組の全候補の中で、式(9)または式(10)によって算出されるカメラ間色差評価結果660が最小となるマルチカメラの組を求める必要がある。
[Determination of multi-camera placement]
In order to determine the optimum multi-camera set, the inter-camera color difference evaluation result 660 calculated by the formula (9) or the formula (10) among all candidates for the multi-camera set shown in the formula (3) It is necessary to find a set of multi-cameras that minimizes .

カメラ間色差評価結果660が最小となるマルチカメラの組が決定できれば、画像処理システム200で配置するカメラ212と、各カメラの相対的な位置関係を一意に決定することができる。但し、マルチカメラの組は円順列によって決定されているため、各カメラの相対的な位置関係を保ったままカメラの全体配置を回転させる自由度は残る。 If a multi-camera set that minimizes the inter-camera color difference evaluation result 660 can be determined, the relative positional relationship between the cameras 212 arranged in the image processing system 200 and each camera can be uniquely determined. However, since the multi-camera set is determined by circular permutation, there remains a degree of freedom to rotate the overall arrangement of the cameras while maintaining the relative positional relationship of each camera.

そこで、撮影する上で重要な視線が集まる区間と、マルチカメラの円周上で隣接カメラ間平均色差650が小さくなる区間とが重なるようにして、最適なマルチカメラ配置を決定する。撮影する上で重要な視線が集まる区間とは、例えば、スタジアムのメインスタンド側、コンサートホールのステージ正面側などである。 Therefore, the optimal multi-camera arrangement is determined so that the section where the line of sight that is important for shooting overlaps with the section where the average color difference 650 between adjacent cameras is small on the circumference of the multi-camera. Sections where important lines of sight gather for shooting include, for example, the main stand side of a stadium, the stage front side of a concert hall, and the like.

画像処理装置100は、隣接カメラ間平均色差650の分布を利用して、隣接カメラ(j,j+1)の平均色差が小さくなる区間を特定し、撮影する上で重要な視線が集まる区間と重なるようにしてマルチカメラの配置を決定する。 The image processing apparatus 100 uses the distribution of the average color difference 650 between adjacent cameras to identify a section in which the average color difference of the adjacent camera (j, j+1) is small, and overlaps the section where the line of sight that is important for shooting is specified. to determine the placement of the multi-camera.

[マルチカメラ選定の処理の流れ]
図6は、本実施形態におけるマルチカメラ選定処理のフローチャートである。
[Process flow of multi-camera selection]
FIG. 6 is a flowchart of multi-camera selection processing in this embodiment.

フローチャートに示される一連の処理は、画像処理装置100のCPU101がメインメモリ102またはHDD105などの記憶装置に記憶された制御プログラムをRAMに展開し、実行することにより行われる。あるいはまた、フローチャートにおけるステップの一部または全部の機能をASICや電子回路等のハードウェアで実現してもよい。各処理の説明における記号「S」は、当該フローチャートにおけるステップを意味する。その他のフローチャートについても同様である。 A series of processes shown in the flowchart is performed by the CPU 101 of the image processing apparatus 100 loading a control program stored in a storage device such as the main memory 102 or the HDD 105 into a RAM and executing the control program. Alternatively, some or all of the functions of the steps in the flowcharts may be realized by hardware such as ASICs and electronic circuits. The symbol "S" in the description of each process means a step in the flowchart. The same applies to other flowcharts.

まず、S1001において、L台のカメラのそれぞれによって撮影されたカラーチャート500の撮影画像を取得する。 First, in S1001, captured images of the color chart 500 captured by each of the L cameras are acquired.

次に、S1002において、各撮影画像からカラーチャート500の各カラーパッチの色値を抽出する。 Next, in S1002, the color value of each color patch of the color chart 500 is extracted from each photographed image.

次に、S1003において、抽出した各カラーパッチの色値をLab値に変換する。 Next, in S1003, the color values of each extracted color patch are converted into Lab values.

次に、S1004において、L台のカメラからM台(M≦L)のマルチカメラを選定し、更にM台のカメラを円形に並べたマルチカメラの組の候補を決定する。すなわち、画像処理装置100のCPU101は、マルチカメラの組の候補を決定する候補決定手段として機能する。具体的には、式(3)で示されるM台のカメラを円形に並べる円順列の総数分のマルチカメラの組の候補を順次決定する。 Next, in S1004, M (M≦L) multi-cameras are selected from the L cameras, and candidates for a multi-camera set in which the M cameras are arranged in a circle are determined. That is, the CPU 101 of the image processing apparatus 100 functions as candidate determination means for determining candidates for a multi-camera set. Specifically, multi-camera set candidates for the total number of circular permutations in which M cameras represented by Equation (3) are arranged in a circle are sequentially determined.

ここでは、5台のカメラから4台のマルチカメラの組の候補(L=5、M=4)を生成する例を説明する。 Here, an example of generating four multi-camera set candidates (L=5, M=4) from five cameras will be described.

5台のカメラ(1,2,3,4,5)から4台のマルチカメラを選ぶ組み合わせは、式(1)より次の5通り(=54)となる。
(1,2,3,4)
(1,2,3,5)
(1,2,4,5)
(1,3,4,5)
(2,3,4,5)
Combinations for selecting four multi-cameras from five cameras (1, 2, 3, 4, 5) are the following five (= 5 C 4 ) from equation (1).
(1,2,3,4)
(1,2,3,5)
(1,2,4,5)
(1,3,4,5)
(2,3,4,5)

更に、4台のマルチカメラ(1,2,3,4)を円形に並べたマルチカメラの組の候補(円順列)は、式(2)より次の6通り(=3!)となる。
(1,2,3,4)
(1,2,4,3)
(1,3,2,4)
(1,3,4,2)
(1,4,2,3)
(1,4,3,2)
Further, the candidates (circular permutation) of the multi-camera set in which the four multi-cameras (1, 2, 3, 4) are arranged in a circle are the following six (=3!) from equation (2).
(1,2,3,4)
(1,2,4,3)
(1,3,2,4)
(1,3,4,2)
(1,4,2,3)
(1,4,3,2)

同様に、他のマルチカメラの組み合わせ(1,2,3,5)、(1,2,4,5)、(1,3,4,5)、(2,3,4,5)に対してもマルチカメラの組の候補を求める。そうすると、5台のカメラ(1,2,3,4,5)から生成される4台のマルチカメラの組の候補の総数は、式(3)で示される30通りとなる。 Similarly, for other multi-camera combinations (1,2,3,5), (1,2,4,5), (1,3,4,5), (2,3,4,5) However, candidates for multi-camera pairs are obtained. Then, the total number of candidates for a set of four multi-cameras generated from five cameras (1, 2, 3, 4, 5) is 30 as shown in Equation (3).

次に、S1005において、S1004で決定されたM台のマルチカメラの組の候補に対して、カメラ間色差評価結果660を算出し、カメラ間色差評価テーブル600に格納する。すなわち、画像処理装置100のCPU101は、カメラ間色差を評価する色差評価手段として機能する。具体的には、円形に並べられた隣接カメラ間におけるカラーパッチの平均色差を算出し、さらに、算出した平均色差の単純平均を、当該マルチカメラの組の候補に対するカメラ間色差評価結果660として算出する。尚、カメラ間色差評価結果660を求める方法は、先述した式(9)及び式(10)のように使用目的によって複数存在する。 Next, in S<b>1005 , inter-camera color difference evaluation results 660 are calculated for the M multi-camera set candidates determined in S<b>1004 and stored in the inter-camera color difference evaluation table 600 . That is, the CPU 101 of the image processing apparatus 100 functions as color difference evaluation means for evaluating inter-camera color differences. Specifically, the average color difference of color patches between adjacent cameras arranged in a circle is calculated, and the simple average of the calculated average color differences is calculated as the inter-camera color difference evaluation result 660 for the candidates for the multi-camera set. do. It should be noted that there are a plurality of methods for obtaining the inter-camera color difference evaluation result 660 depending on the purpose of use, such as Equations (9) and (10) described above.

次に、S1006において、マルチカメラの組の全候補に対してS1004からS1005の処理を実施したか否かを判定する。未了の場合はS1004に戻る。一方、終了の場合にはS1007へ進む。 Next, in S1006, it is determined whether or not the processing from S1004 to S1005 has been performed for all candidates of the multi-camera set. If not completed, the process returns to S1004. On the other hand, in the case of end, the process proceeds to S1007.

次に、S1007において、マルチカメラの組の全候補の中でカメラ間色差評価結果660が最小となるマルチカメラの組を決定する。すなわち、画像処理装置100のCPU101は、マルチカメラの組を決定する組決定手段として機能する。ここでは、マルチカメラにおける各カメラの相対的な位置関係が決定する。 Next, in S1007, a multi-camera set with the smallest inter-camera color difference evaluation result 660 is determined among all candidates for the multi-camera set. In other words, the CPU 101 of the image processing apparatus 100 functions as a set determination unit that determines a set of multi-cameras. Here, the relative positional relationship of each camera in the multi-camera is determined.

次に、S1008において、撮影する上で重要な視線が集まる重要視線区間の情報を取得し、重要視線区間に基づいてマルチカメラの配置を決定する。すなわち、画像処理装置100のCPU101は、マルチカメラの組の配置を決定する配置決定手段として機能する。また、重要視線区間とは、マルチカメラによって撮影される特定区間を意味する。 Next, in S1008, the information of the important line-of-sight section in which the lines of sight that are important for shooting are gathered is acquired, and the arrangement of the multi-cameras is determined based on the important line-of-sight section. That is, the CPU 101 of the image processing apparatus 100 functions as an arrangement determination unit that determines the arrangement of the set of multi-cameras. Also, the important line-of-sight segment means a specific segment captured by a multi-camera.

ここでは、重要視線区間の情報が、「既に決まっているM台のマルチカメラの配置場所の内、p番目からq番目の間が重要なカメラ」という情報である場合の例を示す。 Here, an example is shown in which the information of the important line-of-sight section is information that "the important camera is located between the p-th and the q-th among the M multi-cameras that have already been determined".

図8は、本実施形態における重要視線区間の例を示す概念図である。重要なカメラがp番目からq番目の間とすると、その区間の台数は(q-p+1)台となる。そこで、隣接カメラ間平均色差650において隣接する(q-p+1)台のカメラに対する(q-p)箇所の隣接カメラ間平均色差の単純平均を順次求めていく。そして、r番目(r∈[1,M])から(r+q-p)番目の間のカメラに対する(q-p)箇所の隣接カメラ間平均色差の単純平均であるave(ΔEr→r+q-paまたはave(ΔEr→r+q-pwが最小となる区間を特定する。 FIG. 8 is a conceptual diagram showing an example of important line-of-sight segments in this embodiment. Assuming that the important cameras are between the p-th and the q-th, the number of cameras in that section is (q−p+1). Therefore, in the average color difference between adjacent cameras 650, a simple average of the average color differences between adjacent cameras at (qp) locations for (qp+1) adjacent cameras is sequentially obtained. Then, ave(ΔE r→r+qp ) a or ave(ΔE r→r+qp ) Identify the interval where w is minimum.

Figure 0007150501000011
Figure 0007150501000011

Figure 0007150501000012
Figure 0007150501000012

また、p~q番目の間の重要なカメラにおいて、隣接カメラ間平均色差に対する重要度分布(または重み係数)が予めわかっている場合には、各隣接カメラ間平均色差に対する重みをvj(j∈[r, r+q-p-1])として、加重平均を算出してもよい。すなわち、隣接カメラ間平均色差の単純平均を求める式(11)や式(12)の代わりに、隣接カメラ間平均色差の加重平均を求める式(13)や式(14)を利用することもできる。 In addition, if the importance distribution (or weight coefficient) for the average color difference between adjacent cameras is known in advance for the p to q-th important cameras, the weight for the average color difference between each adjacent camera is given by v j (j ∈[r, r+qp-1]). That is, equations (13) and (14) for obtaining the weighted average of the average color difference between adjacent cameras can be used instead of the equations (11) and (12) for obtaining the simple average of the average color difference between adjacent cameras. .

Figure 0007150501000013
Figure 0007150501000013

Figure 0007150501000014
Figure 0007150501000014

そして、隣接カメラ間平均色差の単純平均であるave(ΔEr→r+q-paやave(ΔEr→r+q-pwが最小となる区間において、r番目のカメラを求める。または、隣接カメラ間平均色差の加重平均であるweighted(ΔEr→r+q-paやweighted(ΔEr→r+q-pwが最小となる区間において、r番目のカメラを求める。r番目のカメラがp番目のカメラと一致するように円形に並べたマルチカメラを回転させれば、マルチカメラ配置を決定することができる。 Then, the r-th camera is found in the section where ave(ΔE r→r+qp ) a and ave(ΔE r→r+qp ) w , which are simple averages of average color differences between adjacent cameras, are minimum. Alternatively, the r-th camera is found in the section where weighted(ΔE r→r+qp ) a and weighted(ΔE r→r+qp ) w , which are weighted averages of average color differences between adjacent cameras, are minimum. The multi-camera arrangement can be determined by rotating the circular array of multi-cameras so that the r-th camera coincides with the p-th camera.

なお、重要視線区間や隣接カメラ間平均色差に対する重要度分布は、設定ファイルによって指定することもできるし、ユーザがユーザインタフェイスを介して指定することもできる。 Note that the importance distribution for the important line-of-sight segment and the average color difference between adjacent cameras can be specified by a setting file, or can be specified by the user via a user interface.

図7は、本実施形態におけるカメラ間色差評価(S1005)のフローチャートである。 FIG. 7 is a flowchart of inter-camera color difference evaluation (S1005) in this embodiment.

図7(a)は、全てのカメラ間の単純平均色差を評価する処理の一例を示す。 FIG. 7A shows an example of processing for evaluating the simple average color difference between all cameras.

S1009において、M台のカメラのうち、2台のカメラの全ての組み合わせに対して各カラーパッチのカメラ間色差を求め、全カラーパッチに対するカメラ間単純平均色差を求める。そして、式(4)で示される総数のカメラ間単純平均色差を単純平均して、カメラ間色差評価結果660を算出する。 In S1009, the inter-camera color difference of each color patch is obtained for all combinations of two cameras out of the M cameras, and the inter-camera simple average color difference for all color patches is obtained. Then, the inter-camera color difference evaluation result 660 is calculated by simply averaging the total number of inter-camera simple average color differences shown in Equation (4).

図7(b)は、隣接カメラ間の単純平均色差を評価する処理の一例を示す。 FIG. 7B shows an example of processing for evaluating the simple average color difference between adjacent cameras.

S1010において、カメラ間色差を全ての組み合わせに対して求めるのではなく、式(5)で各カラーパッチの隣接カメラ間色差を求める。そして、式(7)で隣接カメラ間単純平均色差を求め、式(9)に従ってカメラ間色差評価結果660を算出する。 In S1010, the color difference between adjacent cameras of each color patch is obtained by Equation (5) instead of obtaining the color difference between cameras for all combinations. Then, the simple average color difference between adjacent cameras is obtained by equation (7), and the color difference evaluation result 660 between cameras is calculated according to equation (9).

図7(c)は、全てのカメラ間の加重平均色差を評価する処理の一例を示す。 FIG. 7(c) shows an example of processing for evaluating the weighted average color difference between all cameras.

S1011において、M台のカメラのうち、2台のカメラの全ての組み合わせに対して各カラーパッチのカメラ間色差を求め、各カラーパッチに対する重み係数を取得して全カラーパッチに対するカメラ間加重平均色差を求める。そして、式(4)で示される総数のカメラ間加重平均色差を単純平均して、カメラ間色差評価結果660を算出する。 In S1011, the inter-camera color difference of each color patch is obtained for all combinations of two cameras out of the M cameras, the weighting factor for each color patch is obtained, and the weighted average inter-camera color difference for all color patches is obtained. Ask for Then, an inter-camera color difference evaluation result 660 is calculated by simply averaging the total number of weighted average inter-camera color differences shown in Equation (4).

図7(d)は、隣接カメラ間の加重平均色差を評価する処理の一例を示す。 FIG. 7D shows an example of processing for evaluating the weighted average color difference between adjacent cameras.

S1012において、カメラ間色差を全ての組み合わせに対して求めるのではなく、式(5)で各カラーパッチの隣接カメラ間色差を求める。そして、各カラーパッチに対する重み係数を取得して式(8)によって隣接カメラ間加重平均色差を求め、式(10)に従ってカメラ間色差評価結果660を算出する。 In S1012, the color difference between adjacent cameras of each color patch is obtained by Equation (5) instead of obtaining the color difference between cameras for all combinations. Then, a weighting factor for each color patch is obtained, a weighted average color difference between adjacent cameras is obtained by equation (8), and an inter-camera color difference evaluation result 660 is calculated according to equation (10).

なお、各カラーパッチに対する重み係数は、設定ファイルによって指定することもできるし、ユーザインタフェイスによって指定することもできる。 Note that the weighting coefficient for each color patch can be specified by a setting file or by a user interface.

本実施形態では、マルチカメラの組の候補を順次評価する例を示したが、組み合わせ最適化問題として他の解法を適用してもよい。 In this embodiment, an example of sequentially evaluating multi-camera set candidates has been shown, but other solutions may be applied as a combinatorial optimization problem.

[効果]
以上説明したように、本実施形態によれば、カメラ間色差が小さくなるようにマルチカメラを選定し、マルチカメラの組を決定することにより、マルチカメラで撮影された各撮影画像間の色差を小さくすることができる。また、重要視線区間に応じてマルチカメラの配置を決定することができる。
[effect]
As described above, according to the present embodiment, multi-cameras are selected so that the inter-camera color difference is small, and a set of multi-cameras is determined. can be made smaller. Also, the arrangement of the multi-cameras can be determined according to the important line-of-sight segment.

(第2の実施形態)
第1の実施形態では、L台のカメラからM台(M≦L)のマルチカメラを選定し、更にM台のカメラを円形に並べたマルチカメラの組の候補(円順列)についてカメラ間色差評価結果660が最小となるマルチカメラの組を決定する方法について説明した。第1の実施形態の方法は、最適なマルチカメラ配置を決定する方法として有効であるが、カメラの台数(LやM)が多くなると、マルチカメラの組の候補の総数が急激に増加するため処理時間が多くかかってしまう。
(Second embodiment)
In the first embodiment, M (M≦L) multi-cameras are selected from L cameras, and the color difference between cameras is calculated for candidates of multi-camera sets (circular permutation) in which the M cameras are arranged in a circle. A method for determining the set of multi-cameras with the smallest evaluation result 660 has been described. The method of the first embodiment is effective as a method of determining the optimal multi-camera arrangement, but as the number of cameras (L and M) increases, the total number of multi-camera set candidates increases rapidly. It takes a lot of processing time.

本実施形態では、カメラの台数が多くても実用的な時間内に最適なマルチカメラ配置を決定できる方法について説明する。なお、カメラの台数や画像処理装置100の処理能力に応じて、第1の実施形態と本実施形態を切り替えたり、組み合わせたりしてもよい。 In this embodiment, a method for determining an optimal multi-camera arrangement within a practical time even if the number of cameras is large will be described. Note that the first embodiment and the present embodiment may be switched or combined according to the number of cameras and the processing capability of the image processing apparatus 100 .

[マルチカメラの選定]
第1の実施形態では、L台のカメラからM台(M≦L)のマルチカメラの候補を挙げてからカメラ間色差評価を行った。一方、本実施形態ではL台のカメラに対して基準色との色差による順位付けを行い、色差の小さい方からM台のマルチカメラを選定する。
[Multi camera selection]
In the first embodiment, the inter-camera color difference evaluation is performed after selecting M (M≦L) multi-camera candidates from L cameras. On the other hand, in the present embodiment, the L cameras are ranked according to the color difference from the reference color, and the M multi-cameras are selected in descending order of color difference.

基準色との色差による順位付けには、カラーチャートを基準にする方法と、マスターカメラを基準にする方法がある。 There are a method based on the color chart and a method based on the master camera for ranking according to the color difference from the reference color.

カラーチャートを基準にする方法は、忠実な色再現が重視される場合に有効である。カメラの色調整が不十分な場合や、カメラ内で画づくりされている場合には色差が大きくなることがある。 A method based on a color chart is effective when emphasis is placed on faithful color reproduction. If the color adjustment of the camera is insufficient, or if the image is created in the camera, the color difference may become large.

一方、マスターカメラを基準にする方法は、カメラ間の色合わせが重視される場合に有効である。同一モデルのカメラをマルチカメラとして利用する場合には、各カメラの特性が似ているため、カメラ内で画づくりされていても色差は小さくなる。異なるモデルのカメラを組み合わせてマルチカメラとして利用している場合や、従来の画づくりとの互換性が重視される場合など、慣例としてマスターカメラが決まっている場合には、基準となっているマスターカメラをそのまま利用する。マスターカメラが決まっていない場合には、カラーチャート、または複数カメラの平均値を基準にマスターカメラを選定し、そのマスターカメラを基準としてマルチカメラを決定してもよい。すなわち、L台のカメラによってカラーチャートを撮影した各撮影画像と、カラーチャートの測定値との色差に基づいて、当該色差が最も小さい特定のカメラをマスターカメラとして決定してもよい。また、L台のカメラによってカラーチャートを撮影した各撮影画像と、カラーチャートの測定値との色差の平均値に最も近い撮影画像を撮影した特定のカメラをマスターカメラとして決定してもよい。あるいは、カラーチャートを基準にマスターカメラを選定するのではなく、複数カメラの平均色差、または加重平均色差を基準にマスターカメラを選定してもよい。 On the other hand, the method based on the master camera is effective when importance is attached to color matching between cameras. When cameras of the same model are used as multiple cameras, the characteristics of each camera are similar, so even if an image is created in the camera, the color difference will be small. In cases where a master camera has been determined by convention, such as when using a combination of cameras of different models as a multi-camera, or when compatibility with conventional image creation is emphasized, the master camera that is the standard Just use the camera. If a master camera has not been determined, a master camera may be selected based on a color chart or an average value of a plurality of cameras, and multi-cameras may be determined based on that master camera. That is, based on the color difference between the captured images of the color chart captured by L cameras and the measured values of the color chart, a specific camera with the smallest color difference may be determined as the master camera. Alternatively, a specific camera that captures a captured image that is closest to the average value of the color difference between each captured image of the color chart captured by the L cameras and the measured value of the color chart may be determined as the master camera. Alternatively, instead of selecting the master camera based on the color chart, the master camera may be selected based on the average color difference or weighted average color difference of a plurality of cameras.

図9は、本実施形態における基準色とカメラの色差評価テーブルの例を示し、L台のカメラの色差評価の例を示している。 FIG. 9 shows an example of a reference color and a color difference evaluation table of cameras in this embodiment, and shows an example of color difference evaluation of L cameras.

基準色とカメラの色差評価テーブル700の各行は、カラーチャート500の各カラーパッチの色を示しており、例えばカラーチャートがColorChecker Classic(24色)の場合には24行となる。カラーチャート500は自作のカラーチャートを利用してもよいし、ColorChecker Digital SG(140色)のような市販のカラーチャートを利用してもよい。 Each row of the color difference evaluation table 700 between the reference color and the camera indicates the color of each color patch of the color chart 500. For example, if the color chart is ColorChecker Classic (24 colors), there are 24 rows. The color chart 500 may be a self-made color chart or a commercially available color chart such as ColorChecker Digital SG (140 colors).

基準色のLab値710には、カラーチャートの基準色、またはマスターカメラの基準色のLab値が格納される。カラーチャートの基準色の場合には、カラーチャート500の各カラーパッチを測色器で測色したLab値が格納される。一方、マスターカメラの基準色の場合には、カラーチャート500を撮影したマスターカメラの撮影画像から各カラーパッチの色を抽出して変換したLab値が格納される。 The Lab value of the reference color 710 stores the Lab value of the reference color of the color chart or the reference color of the master camera. In the case of the reference color of the color chart, the Lab value obtained by measuring each color patch of the color chart 500 with a colorimeter is stored. On the other hand, in the case of the reference color of the master camera, the Lab value obtained by extracting and converting the color of each color patch from the captured image of the master camera that captured the color chart 500 is stored.

カラーチャート500の各カラーパッチに対する各カメラのLab値720には、L台の各カメラの撮影画像から各カラーパッチの色を抽出して変換したLab値が格納される。 The Lab value 720 of each camera for each color patch of the color chart 500 stores the Lab value obtained by extracting and converting the color of each color patch from the images captured by each of the L cameras.

各カメラにおけるi番目のカラーパッチに対するカメラ色差730は、式(15)によって求めることができる。ここで、基準色のLab値は(L* 0(i), a* 0(i), b* 0(i))、カメラ1のLab値は(L* 1(i), a* 1(i), b* 1(i))とする。 A camera color difference 730 for the i-th color patch in each camera can be obtained by equation (15). Here, the Lab value of the reference color is (L * 0 (i), a * 0 (i), b * 0 (i)), and the Lab value of camera 1 is (L * 1 (i), a * 1 ( i), b * 1 (i)).

Figure 0007150501000015
Figure 0007150501000015

同様に、ΔE2(i)、ΔE3(i)、…、ΔE(L-1)(i)、ΔEL(i)のように、L台のカメラにおけるカメラ色差730を求める。 Similarly, camera color differences 730 for the L cameras are obtained as ΔE 2 ( i ), ΔE 3 (i), .

ここで、本実施形態では簡単化のため、色差式としてΔE76(CIE76)を用いているが、ΔE94(CIE94)やΔE00(CIEDE2000)などを用いてもよい。 Here, in this embodiment, ΔE76 (CIE76) is used as the color difference formula for simplification, but ΔE94 (CIE94), ΔE00 (CIEDE2000), or the like may be used.

各カラーパッチに対する各カメラの色差が式(15)によって求められているので、L台のカメラのうち、j番目のカメラに対するカメラ平均色差740を求めることもできる。カメラ平均色差740には、単純平均色差(ΔEjaまたは加重平均色差(ΔEjwを使用目的に応じて選択的に格納することができる。 Since the color difference for each camera for each color patch is determined by equation (15), it is also possible to determine the average camera color difference 740 for the j-th camera among the L cameras. The camera average color difference 740 can selectively store the simple average color difference (ΔE j ) a or the weighted average color difference (ΔE j ) w depending on the purpose of use.

撮影の前に、オブジェクトの色が事前に予測できない場合には、単純平均によるカメラ色差評価を行うことができる。L台のカメラのうち、j番目のカメラに対するカメラ単純平均色差(ΔEjaは、i番目のカラーパッチに対するカメラjのカメラ色差をΔEj(i)、カラーチャート500のカラーパッチ総数をNとすれば、式(16)によって求めることができる: Before photographing, if the color of the object cannot be predicted in advance, simple average camera color difference evaluation can be performed. Camera simple average color difference (ΔE j ) a for the j-th camera among the L cameras is ΔE j (i) for the camera j's camera color difference for the i-th color patch, and N for the total number of color patches in the color chart 500. Then, it can be obtained by equation (16):

Figure 0007150501000016
Figure 0007150501000016

一方、撮影が競技場(スタジアム)やコンサートホールなどの施設で行われる場合には、リハーサルの段階で重要色(芝生、ユニフォーム、広告、肌色、衣装、楽器などの色)が事前にわかることが多い。そのため、特定の色に対して重み付けを行ったカメラ色差評価を行うことができる。例えば、カラーチャート500の全カラーパッチの中から重要色に近いカラーパッチを特定し、特定したカラーパッチに対するカメラ色差に対して他のカラーパッチより大きい重みを与える。L台のカメラのうち、j番目のカメラに対するカメラ加重平均色差(ΔEjwは、式(17)によって求めることができる。ここで、i番目のカラーパッチに対するカメラjのカメラ色差およびその重みをΔEj(i)およびwi、カラーチャート500のカラーパッチ総数をNとする。 On the other hand, when filming takes place in facilities such as stadiums and concert halls, important colors (lawn, uniforms, advertisements, skin colors, costumes, musical instrument colors, etc.) can be known in advance at the rehearsal stage. many. Therefore, it is possible to perform camera color difference evaluation in which a specific color is weighted. For example, a color patch close to the important color is specified from all the color patches of the color chart 500, and the camera color difference for the specified color patch is given greater weight than other color patches. The camera-weighted average color difference (ΔE j ) w for the j-th camera among the L cameras can be obtained by Equation (17). Let ΔE j (i) and w i denote the camera color difference of camera j for the i-th color patch and its weight, and N be the total number of color patches in the color chart 500 .

Figure 0007150501000017
Figure 0007150501000017

次に、カメラ平均色差740が式(16)または式(17)によって求められているので、カメラ平均色差740による順位付けを行う。カメラ平均色差740の小さい方からM台のカメラを選定すれば、基準色(カラーチャートの基準色、またはマスターカメラの基準色)に近い色再現が可能なマルチカメラが構成できる。 Next, since the camera average color difference 740 is obtained by the equation (16) or (17), the camera average color difference 740 is used for ranking. If M cameras are selected in descending order of camera average color difference 740, a multi-camera capable of reproducing colors close to the reference color (the reference color of the color chart or the reference color of the master camera) can be constructed.

[マルチカメラ配置の決定]
これまでの手順で、M台のマルチカメラ選定と、各カメラの順位付け(基準色に対するカメラ平均色差740の小さい順)は行われているが、各カメラの相対的な位置関係は確定していない。以下では、M台のカメラを円形に並べたマルチカメラ配置において、カメラ間の色差を小さくする方法を述べる。
[Determination of multi-camera placement]
Up to this point, M multi-cameras have been selected and the cameras have been ranked (in descending order of camera average color difference 740 with respect to the reference color), but the relative positional relationship of each camera has not been determined. do not have. A method for reducing the color difference between cameras in a multi-camera arrangement in which M cameras are arranged in a circle will be described below.

図10は、本実施形態におけるマルチカメラの相対的な位置関係の例を示す概念図である。簡単化のため、円形に並べた6台のカメラ800~805は、それぞれ色値1~6を示すものとする。 FIG. 10 is a conceptual diagram showing an example of relative positional relationships of multi-cameras in this embodiment. For the sake of simplicity, the six cameras 800-805 arranged in a circle indicate color values 1-6, respectively.

図10(a)は、6台のカメラ800~805を色値の小さい順に時計回りに配置した例である。 FIG. 10A shows an example in which six cameras 800 to 805 are arranged clockwise in ascending order of color values.

図10(a)において、カメラ800と801、801と802、802と803、803と804、および804と805の色値の差は1であるが、カメラ805と800の色値の差は5である。ここで、色値の差の合計は10であり、色値の差の単純平均は、10/6(≒1.667)である。 In FIG. 10A, the color value difference between cameras 800 and 801, 801 and 802, 802 and 803, 803 and 804, and 804 and 805 is 1, but the difference between cameras 805 and 800 is 5. is. Here, the sum of the color value differences is 10, and the simple average of the color value differences is 10/6 (≈1.667).

一方、図10(b)は、6台のカメラ800~805を色値の小さい順に、カメラ800からの距離が近くなるように配置した例である。 On the other hand, FIG. 10B shows an example in which the six cameras 800 to 805 are arranged so that the distance from the camera 800 decreases in ascending order of color values.

図10(b)において、カメラ800と801、および805と804の色値の差は1であるが、カメラ801と803、803と805、804と802、および802と800の色値の差は2である。ここで、色値の差の合計は10であり、色値の差の単純平均は、10/6(≒1.667)である。 In FIG. 10B, the color value difference between cameras 800 and 801 and 805 and 804 is 1, but the color value difference between cameras 801 and 803, 803 and 805, 804 and 802, and 802 and 800 is 2. Here, the sum of the color value differences is 10, and the simple average of the color value differences is 10/6 (≈1.667).

図10(a)の配置でも図10(b)の配置でも、色値の差の単純平均は同じ値であるが、カメラを円形に並べるマルチカメラ配置としては、隣接するカメラの色が連続的に変化する図10(b)の方が好ましい。 10(a) and 10(b), the simple average of the difference in color values is the same value. FIG. 10(b), in which changes to , is preferable.

図11は、本実施形態における基準色とカメラの色差の例を示す概念図である。 FIG. 11 is a conceptual diagram showing an example of the color difference between the reference color and the camera in this embodiment.

図10では色値が1次元の場合の例を示したが、実際の色値は図11のように3次元となる。図11は、カメラ800をマスターカメラとした場合の例を示している。図示されるように、基準色(マスターカメラ)と各カメラの色差はユークリッド距離によって定義されるので、各カメラを基準色に対する色差の小さい順に配置したとしても、カメラ間の色差が小さくなるという保証はない。例えば、図11では、カメラ800とカメラ803の色差や、カメラ800とカメラ804の色差より、カメラ803とカメラ804の色差の方が大きくなっている。 Although FIG. 10 shows an example in which the color values are one-dimensional, the actual color values are three-dimensional as shown in FIG. FIG. 11 shows an example in which the camera 800 is used as the master camera. As shown in the figure, the color difference between the reference color (master camera) and each camera is defined by the Euclidean distance, so even if each camera is arranged in order of decreasing color difference with respect to the reference color, it is guaranteed that the color difference between cameras will be small. no. For example, in FIG. 11, the color difference between the cameras 803 and 804 is greater than the color difference between the cameras 800 and 803 and the color difference between the cameras 800 and 804 .

カメラ間色差が小さくなることを保証するためには、マスターカメラを基準として色差が最も小さいカメラを探し、次にそのカメラを基準として色差が最も小さいカメラを探すというように、カメラ間色差が小さくなるカメラを順次探していけばよい。 In order to ensure that the color difference between cameras is small, use the master camera as a reference to find the camera with the smallest color difference, then use that camera as the reference to find the camera with the smallest color difference, and so on. All you have to do is search for a camera that has

したがって、M台のカメラの順位付け(カメラ間色差の小さい順)が全て完了すれば、図10(b)のようにカメラ間色差が小さい順に、カメラ800からの距離が近くなるように次のカメラを順次配置する。 Therefore, when the ranking of all the M cameras (in descending order of inter-camera color difference) is completed, as shown in FIG. Arrange the cameras in order.

また、カメラの台数が多い場合には、M台のカメラをP個(P<M)のグループに分割して配置してもよい。ここでは、30台のマルチカメラを第1~第6グループの6グループに分割(M=30、P=6)して配置する例を説明する。また、各グループには5台(=M/P)のカメラを割り当てるものとする。 Moreover, when the number of cameras is large, M cameras may be divided into P (P<M) groups and arranged. Here, an example will be described in which 30 multi-cameras are divided into 6 groups (M=30, P=6) and arranged. It is also assumed that each group is assigned 5 (=M/P) cameras.

第1グループは、基準色とカメラの色差評価テーブル700において、30台のマルチカメラの色差評価を行うことによって求めることができる。基準色のLab値710としてマスターカメラの基準色を格納し、カメラ平均色差740を求めた後、カメラ平均色差740による順位付けを行う。カメラ平均色差740の小さい方から5台(マスターカメラを含む)のカメラを第1グループとして選定する。カメラ平均色差740には、単純平均色差(ΔEjaまたは加重平均色差(ΔEjwを使用目的に応じて選択できるものとする。 The first group can be obtained by performing color difference evaluation of 30 multi-cameras in the reference color and camera color difference evaluation table 700 . After the reference color of the master camera is stored as the Lab value 710 of the reference color and the camera average color difference 740 is obtained, the camera average color difference 740 is used for ranking. Five cameras (including the master camera) with the smallest camera average color difference 740 are selected as the first group. For the camera average color difference 740, the simple average color difference (ΔE j ) a or the weighted average color difference (ΔE j ) w can be selected according to the purpose of use.

次に、マスターカメラを基準としたカメラ平均色差740において、カメラ平均色差が6番目に小さいカメラを第2グループの代表カメラとする。第2グループは、基準色とカメラの色差評価テーブル700において、30台のマルチカメラから第1グループの5台を除いた25台のカメラの色差評価を行うことによって求めることができる。基準色のLab値710に第2グループの代表カメラの基準色を格納し、カメラ平均色差740を求めた後、カメラ平均色差740による順位付けを行う。カメラ平均色差740の小さい方から5台(第2グループの代表カメラを含む)のカメラを第2グループとして選定する。 Next, in the camera average color difference 740 based on the master camera, the camera with the sixth smallest camera average color difference is set as the representative camera of the second group. The second group can be obtained by evaluating the color difference of 25 cameras, excluding the 5 cameras of the first group, from the 30 multi-cameras in the reference color and camera color difference evaluation table 700 . After the reference color of the representative camera of the second group is stored in the Lab value 710 of the reference color and the camera average color difference 740 is obtained, the cameras are ranked according to the camera average color difference 740 . Five cameras (including the representative camera of the second group) are selected as the second group from the smallest camera average color difference 740 .

同様に、第3~第6グループの代表カメラ、および各グループのカメラ5台を順次選定する。 Similarly, the representative cameras of the third to sixth groups and the five cameras of each group are sequentially selected.

次に、第1~第6グループにグループ分けされた各グループのカメラを、図10(b)のカメラ800~805の位置に割り当てる。各グループ内の5台のカメラの配置は、各グループの代表カメラとの平均色差が小さい順に、カメラ800からの距離が近くなるように同一円周上に配置する。なお、第1グループはカメラ800の位置に割り当てる等、カメラの属するグループが決定すればカメラの割り当て位置も自動的に決定される。したがって、全てのグループのカメラが選定されてから各カメラを配置するのではなく、各カメラの属するグループが決まった時点で各カメラを配置してもよい。 Next, the cameras in each of the first to sixth groups are assigned to the positions of the cameras 800 to 805 in FIG. 10(b). The five cameras in each group are arranged on the same circle so that the distances from the camera 800 become shorter in order of decreasing average color difference with the representative camera of each group. Note that once the group to which the camera belongs is determined, for example, the position of the camera 800 is assigned to the first group, the assigned position of the camera is automatically determined. Therefore, each camera may be arranged when the group to which each camera belongs is decided, instead of arranging each camera after all the cameras of the group are selected.

以上の処理により、マルチカメラにおける各カメラの相対的な位置関係を一意に決定することができたので、第1の実施形態と同様に、カメラ間色差評価テーブル600を利用して、カメラの全体配置を確定すればよい。つまり、撮影する上で重要な視線が集まる区間(スタジアムのメインスタンド側、コンサートホールのステージ正面側など)と、マルチカメラの円周上で隣接カメラ間平均色差650が小さくなる区間が重なるようにマルチカメラ配置を決定する。 By the above processing, it was possible to uniquely determine the relative positional relationship of each camera in the multi-camera. Placement should be confirmed. In other words, the section where the line of sight that is important for shooting (the main stand side of a stadium, the front side of the stage in a concert hall, etc.) overlaps with the section where the average color difference 650 between adjacent cameras on the circumference of the multi-camera is small. Determine multi-camera placement.

[マルチカメラ選定の処理の流れ]
図12、13は、第2の実施形態におけるマルチカメラ選定処理のフローチャートである。尚、第1の実施形態と同一の処理については同じ符号を付して説明を省略し、第1の実施形態と異なる点を中心に簡潔に説明する。
[Process flow of multi-camera selection]
12 and 13 are flowcharts of multi-camera selection processing in the second embodiment. The same reference numerals are assigned to the same processing as in the first embodiment, and the description thereof is omitted, and the points different from the first embodiment will be briefly described.

図12は、マスターカメラを基準としてカメラ間色差の小さいカメラを順次探索して、マルチカメラを選定する処理の一例を示す。 FIG. 12 shows an example of processing for sequentially searching for cameras with small inter-camera color differences using the master camera as a reference and selecting a multi-camera.

S1001からS1003までの処理により、第1の実施形態と同様に、L台のカメラのそれぞれによりカラーチャート500を撮影した撮影画像を取得し、各カラーパッチの色値をLab値へ変換する。そして、カラーチャート500の各カラーパッチに対する各カメラのLab値720へ格納する。 Through the processing from S1001 to S1003, similarly to the first embodiment, captured images of the color chart 500 captured by each of the L cameras are acquired, and the color values of each color patch are converted into Lab values. Then, each color patch of the color chart 500 is stored in the Lab value 720 of each camera.

次に、S2001において、カラーチャート500の各カラーパッチを測色したLab値を基準色のLab値710へ格納し、L台のカメラにおけるカメラ色差730を求める。 Next, in S2001, the Lab value obtained by measuring each color patch of the color chart 500 is stored in the Lab value 710 of the reference color, and the camera color difference 730 for the L cameras is obtained.

次に、S2002において、各カラーパッチに対する重み係数を取得し、L台のカメラにおけるカメラ平均色差740を求め、カメラ平均色差が最も小さいカメラをマスターカメラとして選定する。 Next, in S2002, a weighting factor for each color patch is obtained, the average camera color difference 740 of the L cameras is obtained, and the camera with the smallest average camera color difference is selected as the master camera.

次に、S2003において、マスターカメラの基準色を基準色のLab値710へ格納し、カメラ平均色差740の小さい方からM台のカメラをマルチカメラとして選定する。すなわち、画像処理装置100のCPU101は、M台のカメラをマルチカメラとして選定するマルチカメラ選定手段として機能する。 Next, in S2003, the reference color of the master camera is stored in the Lab value 710 of the reference color, and M cameras with the smallest camera average color difference 740 are selected as multi-cameras. That is, the CPU 101 of the image processing apparatus 100 functions as multi-camera selection means for selecting M cameras as multi-cameras.

次に、S2004において、マスターカメラの基準色を基準色のLab値710へ格納した状態で、カメラ平均色差740が最小となるカメラを近傍カメラとして選定する。 Next, in S2004, with the reference color of the master camera stored in the Lab value 710 of the reference color, the camera with the smallest camera average color difference 740 is selected as the neighboring camera.

次に、S2005において、図10(b)のカメラ800の位置にマスターカメラを配置し、カメラ801の位置に近傍カメラを配置する。 Next, in S2005, the master camera is placed at the position of the camera 800 in FIG. 10B, and the neighboring cameras are placed at the position of the camera 801.

次に、S2006において、マルチカメラを構成する全てのカメラ(M台)に対してS2004からS2005の処理を施したか否かを判定する。未了の場合はS2004に戻る。一方、終了の場合にはS1005へ進む。 Next, in S2006, it is determined whether or not the processing from S2004 to S2005 has been performed for all the cameras (M cameras) configuring the multi-camera. If not completed, the process returns to S2004. On the other hand, in the case of end, the process proceeds to S1005.

なお、S2004に処理が戻った場合には、直前に選定された近傍カメラの各カラーパッチの色が、次の基準色として基準色のLab値710へ格納され、その時のカメラ平均色差740が最小となるカメラが「次の近傍カメラ」として選定される。但し、既に近傍カメラとして選定されているカメラは選定しないものとする。「次の近傍カメラ」は、S2005において、図10(b)のカメラ802の位置に配置される。 When the process returns to S2004, the color of each color patch of the neighboring camera selected immediately before is stored as the next reference color in the reference color Lab value 710, and the camera average color difference 740 at that time is the minimum. is selected as the "next nearby camera". However, cameras that have already been selected as nearby cameras are not selected. The “next nearby camera” is placed at the position of the camera 802 in FIG. 10B in S2005.

次に、S1005において、M台のマルチカメラのカメラ間色差が算出され、隣接カメラ間平均色差650が求められる。 Next, in S1005, inter-camera color differences of the M multi-cameras are calculated, and an average inter-adjacent camera color difference 650 is obtained.

次に、S1008において、撮影する上で重要な視線が集まる重要視線区間の情報と、隣接カメラ間平均色差650の分布を利用して、マルチカメラ配置が決定される。 Next, in S1008, the multi-camera arrangement is determined using the information of the important line-of-sight section in which the lines of sight important for photographing gather and the distribution of the average color difference 650 between adjacent cameras.

一方、図13は単体の近傍カメラではなく、M台のマルチカメラをP個(P<M)のグループに分割し、各グループの代表カメラと、各グループに属するカメラを順次探索して、マルチカメラを選定する処理の一例を示す。 On the other hand, in FIG. 13, instead of a single neighboring camera, M multi-cameras are divided into P (P<M) groups, and the representative camera of each group and the cameras belonging to each group are sequentially searched. An example of processing for selecting a camera is shown.

S1001からS2003までの処理により、図12と同様に、L台のカメラのそれぞれによりカラーチャート500を撮影した撮影画像を取得し、カメラ平均色差740の小さい方からM台のカメラをマルチカメラとして選定する。 By the processing from S1001 to S2003, similarly to FIG. 12, captured images of the color chart 500 captured by each of L cameras are obtained, and M cameras are selected as multi-cameras in descending order of camera average color difference 740. do.

次に、S2007において、マスターカメラを第1グループの代表カメラとして選定する。 Next, in S2007, the master camera is selected as the representative camera of the first group.

次に、S2008において、第1グループの代表カメラの基準色を基準色のLab値710へ格納した状態で、カメラ平均色差740の小さい方から(M/P)台(グループの代表カメラを含む)のカメラを、第1グループに属するカメラとして選定する。 Next, in S2008, with the reference color of the representative camera of the first group stored in the Lab value 710 of the reference color, (M/P) units (including the representative camera of the group) from the smallest camera average color difference 740 are calculated. are selected as cameras belonging to the first group.

次に、S2009において、図10(b)のカメラ800の位置に、第1グループに属するカメラとして選定したカメラを配置する。第1グループ内のカメラは、代表カメラに対するカメラ平均色差が小さい順に、円周上を反時計回りに配置される。 Next, in S2009, the camera selected as the camera belonging to the first group is placed at the position of the camera 800 in FIG. 10B. The cameras in the first group are arranged counterclockwise on the circumference in ascending order of camera average color difference with respect to the representative camera.

次に、S2010において、P個の全てのグループに対してS2007からS2009の処理を施したか否かを判定する。未了の場合はS2007に戻る。一方、終了の場合には、S1005へ進む。 Next, in S2010, it is determined whether or not the processing from S2007 to S2009 has been performed for all P groups. If not completed, the process returns to S2007. On the other hand, in the case of end, the process proceeds to S1005.

なお、S2007に処理が戻った場合には、直前のグループの代表カメラに対してカメラ平均色差740の小さい方から((M/P)+1)台目のカメラを「次のグループの代表カメラ」として選定する。次に、S2008において、「次のグループの代表カメラ」の基準色を基準色のLab値710へ格納した状態で、カメラ平均色差740の小さい方から(M/P)台(グループの代表カメラを含む)のカメラを「次のグループに属するカメラ」として選定する。但し、既にグループに属するカメラとして選定されているカメラは選定しないものとする。次に、S2009において、図10(b)のように次のグループに属するカメラを配置する。第2グループは、カメラ801の位置に配置され、第2グループ内のカメラは、代表カメラに対するカメラ平均色差が小さい順に、第1グループに続けて同じ円周上を時計回りに配置される。さらに、第3グループは、カメラ802の位置に配置され、第3グループ内のカメラは、代表カメラに対するカメラ平均色差が小さい順に、第1グループに続けて円周上を反時計回りに配置される。このようにして、P個の全てのグループについて、カメラが配置される。 Note that when the process returns to S2007, the ((M/P)+1)th camera with the smallest average camera color difference 740 with respect to the representative camera of the previous group is set as the "representative camera of the next group". Select as Next, in S2008, the reference color of the "representative camera of the next group" is stored in the Lab value 710 of the reference color, and (M/P) units (representative camera of the group) are selected from the smallest camera average color difference 740. ) are selected as “cameras belonging to the following group”. However, cameras that have already been selected as belonging to a group are not selected. Next, in S2009, the cameras belonging to the next group are arranged as shown in FIG. 10(b). The second group is arranged at the position of the camera 801, and the cameras in the second group are arranged clockwise on the same circumference following the first group in order of decreasing camera average color difference with respect to the representative camera. Furthermore, the third group is arranged at the position of the camera 802, and the cameras in the third group are arranged counterclockwise on the circumference following the first group in order of decreasing camera average color difference with respect to the representative camera. . In this way, cameras are arranged for all P groups.

次に、S1005において、M台のマルチカメラのカメラ間色差が算出され、隣接カメラ間平均色差650が求められる。 Next, in S1005, inter-camera color differences of the M multi-cameras are calculated, and an average inter-adjacent camera color difference 650 is obtained.

次に、S1008において、撮影する上で重要な視線が集まる重要視線区間の情報と、隣接カメラ間平均色差650の分布を利用して、マルチカメラ配置が決定する。 Next, in S1008, the multi-camera arrangement is determined using the information of the important line-of-sight section in which the lines of sight important for photographing gather and the distribution of the average color difference 650 between adjacent cameras.

[効果]
以上説明したように、本実施形態では、マルチカメラにおいてカラーチャートまたはマスターカメラを基準として色差が小さくなるようにカメラ選定を行う。そうすることにより、マルチカメラで撮影された各撮影画像の色差を小さくするようなカメラ配置を実用的な時間内に決定することができる。
[effect]
As described above, in the present embodiment, cameras are selected so that the color difference becomes small with reference to a color chart or a master camera in a multi-camera. By doing so, it is possible to determine, within a practical time, a camera arrangement that reduces the color difference between images captured by multiple cameras.

(第3の実施形態)
第1の実施形態、および第2の実施形態では、L台のカメラからM台(M≦L)のマルチカメラを選定し、カメラ間の色差が小さくなるようにマルチカメラ配置を決定する方法について説明した。
(Third Embodiment)
In the first embodiment and the second embodiment, a method of selecting M (M≦L) multi-cameras from L cameras and determining the multi-camera arrangement so as to reduce the color difference between the cameras is described. explained.

本実施形態では、第1の実施形態や第2の実施形態において、特定の色に対して重み付けの指定を行う場合や、撮影する上で重要な視線が集まる区間に対して重み付けの指定を行う場合のユーザインタファイスについて説明する。 In the present embodiment, in the first embodiment and the second embodiment, weighting is designated for a specific color, and weighting is designated for a section in which the line of sight that is important for shooting is gathered. A user interface in this case will be described.

図14は、本実施形態における重み付け指定を行うためのユーザインタフェイスの例を示す。 FIG. 14 shows an example of a user interface for weighting designation in this embodiment.

図14(a)は、特定の色に対して重み付け指定を行うユーザインタフェイスの一例を示す。先述したように、ユーザは、カラーチャート500の全カラーパッチの中から重要色(例えば、芝生、ユニフォーム、広告、肌色、衣装、楽器などの色)に近いカラーパッチを特定し、特定したカラーパッチに対して他のカラーパッチより大きい重みを与える。 FIG. 14(a) shows an example of a user interface for weighting a specific color. As described above, the user identifies a color patch close to the important color (for example, the color of the lawn, uniform, advertisement, skin color, costume, musical instrument, etc.) from all the color patches in the color chart 500, and selects the identified color patch. give more weight to the color patch than other color patches.

カラーパッチの色名900は、カラーチャート500の各カラーパッチの色名を表す。色名は、設定ファイルによって設定することも可能であるし、ユーザがモニタ107上で直接編集し、設定することも可能である。色名が不明な場合には、「Color1」「Color2」という表現でもよい。 A color patch color name 900 represents the color name of each color patch of the color chart 500 . The color name can be set by a setting file, or can be directly edited and set by the user on the monitor 107 . If the color names are unknown, the expressions "Color1" and "Color2" may be used.

カラーパッチの色901は、カラーチャート500の各カラーパッチの色を表示する。モニタ107がsRGBモニタの場合には、カラーチャート500の各カラーパッチのLab値610や基準色のLab値710をsRGB色空間へ変換して表示してもよい。 A color patch color 901 displays the color of each color patch in the color chart 500 . If the monitor 107 is an sRGB monitor, the Lab value 610 of each color patch of the color chart 500 and the Lab value 710 of the reference color may be converted into the sRGB color space and displayed.

カラーパッチの重み902は、ユーザによって入力された各カラーパッチに対する重み係数を表示する。入力された重み係数は、図7(c)のカメラ間加重平均色差評価(S1011)、隣接カメラ間加重平均色差評価(S1012)、および図12、13のマスターカメラ選定(S2002)において取得される各カラーパッチに対する重み係数として利用される。重み係数のデフォルト値は1であり、重要色の場合には1より大きい値が入力される。取得された重み係数は、式(8)や式(17)のi番目のカラーパッチに対する重みwiとして代入され、隣接カメラ間平均色差650やカメラ平均色差740の加重平均計算に利用される。 Color patch weight 902 displays the weighting factor for each color patch entered by the user. The input weighting factors are obtained in the weighted average color difference evaluation between cameras (S1011) in FIG. 7C, the weighted average color difference evaluation between adjacent cameras (S1012), and the master camera selection (S2002) in FIGS. Used as a weighting factor for each color patch. The default value for the weighting factor is 1, and values greater than 1 are entered for important colors. The obtained weight coefficient is substituted as the weight wi for the i -th color patch in equations (8) and (17), and is used to calculate the weighted average of the average color difference 650 between adjacent cameras and the average color difference 740 between cameras.

図14(b)は、重要視線区間に対して重み付け指定を行うユーザインタファイスの一例を示す。先述したように、ユーザは、重要視線区間の情報として、撮影する上で重要な視線が集まる区間(スタジアムのメインスタンド側、コンサートホールのステージ正面側など)のカメラに対して他の区間のカメラより大きい重みを与える。 FIG. 14(b) shows an example of a user interface for weighting and designating important line-of-sight segments. As described above, as the information of the important line-of-sight section, the user can set the camera in the section where the line of sight that is important for shooting (the side of the main stand of the stadium, the front side of the stage in the concert hall, etc.) to the camera in the other section. give more weight.

カメラ表示903は、画像処理システム200の複数のカメラ212の配置を、モニタ107上に表示する。カメラ表示903により、カメラがスタジアムやコンサートホールのどこに配置されているかを俯瞰することができる。 A camera display 903 displays the arrangement of the multiple cameras 212 of the image processing system 200 on the monitor 107 . A camera display 903 allows a bird's eye view of where the cameras are arranged in the stadium or concert hall.

重要視線区間のカメラの重み904は、ユーザによって入力された各カメラに対する重み係数を表示する。入力された重み係数は、図6や図12、13のマルチカメラ配置決定(S1008)において取得される重要視線区間の情報として利用される。重み係数のデフォルト値は1であり、重要視線区間のカメラの場合には1より大きい値が入力される。取得された重み係数は各カメラに対する重み係数なので、2台の隣接カメラの重みに対する線形補間、または重要視線区間の重要度分布に対する曲線補間によって隣接カメラ(2台)間の重み係数を求める必要がある。求められた重み係数は、式(13)や式(14)の各隣接カメラ間平均色差に対する重みvjとして代入され、隣接カメラ間平均色差650に対する加重平均計算に利用される。 The camera weights for key line-of-sight segments 904 display the weighting factors for each camera entered by the user. The input weighting coefficients are used as the information of the important line-of-sight section acquired in the multi-camera arrangement determination (S1008) in FIGS. The default value of the weighting factor is 1, and a value greater than 1 is input for cameras in the important line-of-sight section. Since the obtained weighting coefficients are weighting coefficients for each camera, it is necessary to obtain the weighting coefficients between the adjacent cameras (two cameras) by linear interpolation of the weights of the two adjacent cameras or curve interpolation of the importance distribution of the important line-of-sight section. be. The calculated weighting factor is substituted as the weight v j for the average color difference between adjacent cameras in equations (13) and (14), and is used for the weighted average calculation for the average color difference 650 between adjacent cameras.

[効果]
以上説明したように、本実施形態では、特定の色や重要視線区間に対する重み付け指定を行うユーザインタフェイスを備える。そうすることにより、マルチカメラで撮影された各撮影画像の色差を小さくするようなカメラ配置を撮影現場に最適化することができる。
[effect]
As described above, the present embodiment is provided with a user interface for weighting designation of a specific color or important line-of-sight segment. By doing so, it is possible to optimize the camera arrangement for the shooting site so as to reduce the color difference of each shot image shot by the multi-camera.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

なお、上述の実施形態のすべての構成が、効果を得るために必須の構成とは限らない。例えば、L台のカメラのうち、M台のカメラを選択する構成のみであっても、効果が得られうる。例えば、L台のカメラのうち1台が、他のL-1台とは明らかに異なる個体差を持っている場合、当該1台を除外してM台のカメラを選択することができる。これのみによっても、マルチカメラによる各撮影画像の色差を小さくすることができる。また、別の例として、L=Mの場合には、カメラを選択するステップは省略することができる。この場合、L台(=M台)のカメラの位置関係が、各カメラによる撮影画像に基づいて決定される。これによっても、マルチカメラによる各撮影画像の色差を小さくすることができる。 It should be noted that not all the configurations of the above-described embodiments are essential configurations to obtain the effects. For example, even if only M cameras are selected from L cameras, the effect can be obtained. For example, if one of the L cameras has an individual difference that is clearly different from the other L−1 cameras, the camera can be excluded and the M cameras can be selected. This alone can also reduce the color difference between the images captured by the multi-camera. Also, as another example, if L=M, the step of selecting a camera can be omitted. In this case, the positional relationship of the L (=M) cameras is determined based on the images captured by each camera. This also makes it possible to reduce the color difference between the images captured by the multi-camera.

100 画像処理装置
101 CPU
102 メインメモリ
103 SATA I/F
104 ネットワーク I/F
105 HDD
106 グラフィックアクセラレータ
107 モニタ
108 シリアルバス I/F
109 プリンタ
110 シリアルバス
111 キーボード
112 マウス
113 画像入力デバイス
114 システムバス
115 ネットワーク
100 image processing device 101 CPU
102 Main memory 103 SATA I/F
104 Network I/F
105 HDDs
106 graphic accelerator 107 monitor 108 serial bus I/F
109 Printer 110 Serial Bus 111 Keyboard 112 Mouse 113 Image Input Device 114 System Bus 115 Network

Claims (20)

仮想視点コンテンツの生成のためのマルチカメラシステムにおける複数のカメラの配置を、前記複数のカメラによる撮影画像に基づいて決定する決定手段と、
前記決定手段による決定に応じた出力を行う出力手段と
を有し、
前記決定手段は、隣のカメラとの撮影画像の色差が小さくなるように、前記複数のカメラの配置を決定することを特徴とする制御装置。
determining means for determining, based on images captured by the plurality of cameras, the arrangement of a plurality of cameras in a multi-camera system for generating virtual viewpoint content;
and output means for outputting according to the determination by the determination means ,
The control device, wherein the determining means determines the arrangement of the plurality of cameras so that the color difference between the images captured by adjacent cameras is small .
L台のカメラから、仮想視点コンテンツの生成のためのマルチカメラシステムにおいて用いられるべきM(M<L)台のカメラを、前記L台のカメラによる撮影画像に基づいて選定する選定手段、 selection means for selecting M (M<L) cameras to be used in a multi-camera system for generating virtual viewpoint content from L cameras, based on images captured by the L cameras;
をさらに有し、 further having
前記決定手段は、前記選定手段により選定されたM台のカメラの配置を決定することを特徴とする請求項1に記載の制御装置。 2. The control device according to claim 1, wherein said determining means determines the arrangement of the M cameras selected by said selecting means.
前記決定手段は、
前記選定手段により選定された前記M台のカメラの相対的な位置関係を表すマルチカメラの組の候補を決定する候補決定手段と、
前記マルチカメラの組の候補のそれぞれについて、前記M台のカメラによって撮影された各撮影画像のカメラ間色差を評価する色差評価手段と、
前記カメラ間色差の評価結果に基づいて、前記マルチカメラの組を決定する組決定手段と
を有することを特徴とする請求項に記載の制御装置。
The determining means is
Candidate determining means for determining a candidate for a multi-camera set representing the relative positional relationship of the M cameras selected by the selecting means;
color difference evaluation means for evaluating inter-camera color differences of each of the captured images captured by the M cameras for each of the candidates for the multi-camera set;
3. The control device according to claim 2 , further comprising pair determination means for determining the pair of the multi-cameras based on the evaluation result of the inter-camera color difference.
前記色差評価手段は、前記マルチカメラの組の候補における2台のカメラの全ての組み合わせについて前記カメラ間色差を算出することを特徴とする請求項3に記載の制御装置。 4. The control device according to claim 3, wherein said color difference evaluation means calculates said inter-camera color difference for all combinations of two cameras in said multi-camera set candidates. 前記色差評価手段は、前記マルチカメラの組の候補において隣接する2台のカメラの組み合わせについて前記カメラ間色差を算出することを特徴とする請求項3に記載の制御装置。 4. The control device according to claim 3, wherein said color difference evaluation means calculates said inter-camera color difference for a combination of two adjacent cameras in said multi-camera set candidate. 前記色差評価手段は、特定の色に対する重み係数を使用して、前記カメラ間色差を算出することを特徴とする請求項4または5に記載の制御装置。 6. The control device according to claim 4, wherein said color difference evaluation means calculates said inter-camera color difference using a weighting factor for a specific color. 前記決定手段は、前記M台のカメラにおいて、特定のカメラに対するカメラ間色差に基づいて、前記特定のカメラの近傍に位置するカメラの選定を繰り返すことで、前記M台のカメラの相対的な位置関係を表すマルチカメラの組を決定する組決定手段
を有することを特徴とする請求項に記載の制御装置。
The determining means repeats selection of a camera positioned near the specific camera based on the inter-camera color difference with respect to the specific camera among the M cameras, thereby determining the relative positions of the M cameras. 3. A control device according to claim 2 , further comprising pair determination means for determining a pair of multi-cameras representing the relationship.
前記決定手段は、前記M台のカメラをP(P<M)個のグループに分割し、前記P個のグループのそれぞれにおける特定のカメラを代表カメラとして選定し、カメラ間色差に基づいて前記P個のグループのカメラの配置を決定することで、前記M台のカメラの相対的な位置関係を表すマルチカメラの組を決定する組決定手段
を有することを特徴とする請求項に記載の制御装置。
The determination means divides the M cameras into P (P<M) groups, selects a specific camera in each of the P groups as a representative camera, and selects the P cameras based on the inter-camera color difference. 3. The control according to claim 2 , further comprising a set determining means for determining a set of multi-cameras representing the relative positional relationship of said M cameras by determining the arrangement of said groups of cameras. Device.
前記選定手段は、前記L台のカメラによって撮影された各撮影画像の、基準色に対する色差が小さい順に、前記M台のカメラを選定することを特徴とする請求項7または8に記載の制御装置。 9. The control device according to claim 7, wherein the selecting means selects the M cameras in ascending order of color difference of each captured image captured by the L cameras with respect to a reference color. . 前記基準色は、カラーチャートを基準とすることを特徴とする請求項9に記載の制御装置。 10. The control device according to claim 9, wherein the reference color is based on a color chart. 前記基準色は、マスターカメラを基準とすることを特徴とする請求項9に記載の制御装置。 10. The control device according to claim 9, wherein the reference color is based on a master camera. 前記マスターカメラは、前記L台のカメラによってカラーチャートを撮影した各撮影画像と前記カラーチャートとの色差に基づいて選定されることを特徴とする請求項11に記載の制御装置。 12. The control device according to claim 11, wherein the master camera is selected based on a color difference between each photographed image obtained by photographing a color chart by the L cameras and the color chart. 前記マスターカメラは、前記カラーチャートとの前記色差の平均値に基づいて選定されることを特徴とする請求項12に記載の制御装置。 13. The control device according to claim 12, wherein said master camera is selected based on an average value of said color difference with said color chart. 前記マスターカメラは、特定の色に対する重み係数を使用して算出された前記色差に基づいて選定されることを特徴とする請求項12または13に記載の制御装置。 14. A controller as claimed in claim 12 or 13, wherein the master camera is selected based on the color difference calculated using a weighting factor for a particular color. 前記決定手段は、前記M台のカメラのうちの特定区間のカメラによって撮影された撮影画像のカメラ間色差に応じて、マルチカメラの組の配置を決定する配置決定手段を有することを特徴とする請求項乃至14のいずれか1項に記載の制御装置。 The determining means has an arrangement determining means for determining the arrangement of the multi- camera set in accordance with the inter-camera color difference of the images captured by the cameras in a specific section among the M cameras. 15. The control device according to any one of claims 2 to 14. 前記特定の色に対する重み係数を指定するための重み指定手段をさらに有することを特徴とする請求項6または14に記載の制御装置。 15. The control device according to claim 6, further comprising weight specifying means for specifying a weighting factor for said specific color. 前記特定区間のカメラに対する重み係数を指定するための重み指定手段をさらに有することを特徴とする請求項15に記載の制御装置。 16. The control device according to claim 15, further comprising weight designation means for designating a weight coefficient for the camera in the specific section. コンピュータを、請求項1乃至17のいずれか1項に記載の制御装置として機能させるためのプログラム。 A program for causing a computer to function as the control device according to any one of claims 1 to 17. コンピュータによって実行される制御方法であって、
仮想視点コンテンツの生成のためのマルチカメラシステムにおける複数のカメラの配置を、前記複数のカメラによる撮影画像に基づいて決定する決定工程と、
前記決定工程による決定に応じた出力を行う出力工程と
を含み、
前記決定工程は、隣のカメラとの撮影画像の色差が小さくなるように、前記複数のカメラの配置を決定することを特徴とする制御方法。
A control method implemented by a computer, comprising:
a determining step of determining an arrangement of a plurality of cameras in a multi-camera system for generating virtual viewpoint content based on images captured by the plurality of cameras;
and an output step of performing an output according to the determination by the determination step,
The control method , wherein the determining step determines the arrangement of the plurality of cameras so that a color difference between images taken by adjacent cameras is reduced .
仮想視点コンテンツの生成のためのマルチカメラシステムにおける複数のカメラにより撮影する撮影工程と、 a filming process of filming with a plurality of cameras in a multi-camera system for generating virtual viewpoint content;
前記撮影工程により得られた複数の撮影画像に基づいて、隣のカメラとの撮影画像の色差が小さくなるように、前記複数のカメラの配置を決定する決定工程と、 a determination step of determining the arrangement of the plurality of cameras based on the plurality of captured images obtained by the photographing step so that the color difference between the captured images of adjacent cameras is small;
を含むことを特徴とする制御方法。 A control method comprising:
JP2018128459A 2018-07-05 2018-07-05 Control device, control method, and program Active JP7150501B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018128459A JP7150501B2 (en) 2018-07-05 2018-07-05 Control device, control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018128459A JP7150501B2 (en) 2018-07-05 2018-07-05 Control device, control method, and program

Publications (2)

Publication Number Publication Date
JP2020010141A JP2020010141A (en) 2020-01-16
JP7150501B2 true JP7150501B2 (en) 2022-10-11

Family

ID=69152526

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018128459A Active JP7150501B2 (en) 2018-07-05 2018-07-05 Control device, control method, and program

Country Status (1)

Country Link
JP (1) JP7150501B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113938606B (en) * 2021-10-27 2023-04-07 杭州海康威视数字技术股份有限公司 Method and device for determining ball machine erection parameters and computer storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005260753A (en) 2004-03-12 2005-09-22 Ntt Docomo Inc Device and method for selecting camera
JP2007036615A (en) 2005-07-26 2007-02-08 Matsushita Electric Ind Co Ltd Camera controller and monitoring system
JP2009049759A (en) 2007-08-21 2009-03-05 Kddi Corp Color correction apparatus, method and program
US20130002827A1 (en) 2011-06-30 2013-01-03 Samsung Electronics Co., Ltd. Apparatus and method for capturing light field geometry using multi-view camera

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10285610A (en) * 1997-04-01 1998-10-23 Sony Corp Color correction device and color correction controller

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005260753A (en) 2004-03-12 2005-09-22 Ntt Docomo Inc Device and method for selecting camera
JP2007036615A (en) 2005-07-26 2007-02-08 Matsushita Electric Ind Co Ltd Camera controller and monitoring system
JP2009049759A (en) 2007-08-21 2009-03-05 Kddi Corp Color correction apparatus, method and program
US20130002827A1 (en) 2011-06-30 2013-01-03 Samsung Electronics Co., Ltd. Apparatus and method for capturing light field geometry using multi-view camera

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
池野 一成,マルチでねらえ! 後編,ビデオサロン 4月号 第47巻第4号 通巻285号,第47巻 第4号,日本,株式会社玄光社,2004年04月01日,58~65

Also Published As

Publication number Publication date
JP2020010141A (en) 2020-01-16

Similar Documents

Publication Publication Date Title
US10979631B2 (en) Image processing system, apparatus, and control method
JP2018112997A (en) Image processor, method of the same, program, and image processing system
JP2017211828A (en) Image processing system, image processor, control method, and program
JP2017212593A (en) Information processing device, image processing system, information processing method, and program
JP2017211827A (en) Information processing unit, control method and program
JP2017212591A (en) Control apparatus, control method, and program
JP6409107B1 (en) Information processing apparatus, information processing method, and program
JP7042571B2 (en) Image processing device and its control method, program
WO2013093175A1 (en) A method, an apparatus and a computer program for determination of an audio track
JP6471418B2 (en) Image / sound distribution system, image / sound distribution device, and image / sound distribution program
JP7150501B2 (en) Control device, control method, and program
JP2019022151A (en) Information processing apparatus, image processing system, control method, and program
CN112689140A (en) White balance synchronization method and device, electronic equipment and storage medium
US9986066B2 (en) Collective output system, collective output method and terminal device
JP2003102031A (en) Image processing method, image processing apparatus, method for evaluation imaging device, image information storage method, image processing system, and data structure in image data file
JP6977483B2 (en) Image processing equipment, image processing methods, image processing systems and programs
TWI620442B (en) Flash optimization for camera devices
JP6742216B2 (en) Sound processing system, sound processing method, program
JP7121629B2 (en) IMAGING DEVICE, PROGRAM, AND CONTENT SHARING SYSTEM
US20220417598A1 (en) Image processing device, operation method of image processing device, and operation program of image processing device
JP2019020845A (en) Image processing apparatus and method, and image processing system
JP6857032B2 (en) Control device, system, control method of control device
WO2018147089A1 (en) Information processing device and method
JP2019050593A (en) Image processing system, image processor, control method, and program
JP2023075859A (en) Information processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210630

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220412

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220624

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220830

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220928

R151 Written notification of patent or utility model registration

Ref document number: 7150501

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151