JP2023019727A - Imaging control system and operation method of the same - Google Patents

Imaging control system and operation method of the same Download PDF

Info

Publication number
JP2023019727A
JP2023019727A JP2021124672A JP2021124672A JP2023019727A JP 2023019727 A JP2023019727 A JP 2023019727A JP 2021124672 A JP2021124672 A JP 2021124672A JP 2021124672 A JP2021124672 A JP 2021124672A JP 2023019727 A JP2023019727 A JP 2023019727A
Authority
JP
Japan
Prior art keywords
subject
camera
photographing
control system
tracked
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021124672A
Other languages
Japanese (ja)
Inventor
智裕 矢埜
Tomohiro Yano
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021124672A priority Critical patent/JP2023019727A/en
Publication of JP2023019727A publication Critical patent/JP2023019727A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an imaging control system which tracks a subject continuously, and an operation method of the system.SOLUTION: The imaging control system comprises: shape estimation means 202 which estimates a three-dimensional shape of a subject from a plurality of captured images captured by a plurality of imaging apparatuses, and generates model information of the subject; a virtual viewpoint image generation unit 209 which generates a virtual viewpoint image based on the captured images and the model information; and a camera mechanism control unit 206 which performs control to vary a positional attitude of at least one imaging means different from the imaging apparatuses based on the model information.SELECTED DRAWING: Figure 2

Description

本発明は、撮影制御システム及びその動作方法に関する。 The present invention relates to an imaging control system and its operating method.

近年、複数のカメラを異なる位置に設置して多視点で同期撮影し、当該撮影により得られた複数視点画像を用いて、カメラ設置位置の画像だけでなく、任意の視点からの仮想視点画像を生成する技術が注目されている。上記の技術によれば、例えばサッカーやバスケットボールのハイライトシーンを、従来では実現不可能な試合中のフィールド上から視聴するなど、様々な位置や角度から視聴することができるため、従来の映像と比較し、ユーザは高い臨場感を得ることができる。 In recent years, multiple cameras have been installed at different positions to take synchronous multi-view images. The technology to generate it is attracting attention. According to the above technology, for example, the highlight scenes of soccer or basketball can be viewed from various positions and angles, such as viewing from the field during a game, which is not possible with the conventional technology. By comparison, the user can obtain a high sense of realism.

複数視点画像に基づく仮想視点画像の生成及び閲覧では、複数のカメラが撮影した画像をサーバなどの画像処理装置に集約する。そして、当該画像処理装置にて、前景背景分離、三次元形状の推定、三次元形状データ生成、レンダリングなどの処理を施し、ユーザ端末に映像を転送することで実現できる。 In generating and browsing virtual viewpoint images based on multi-viewpoint images, images captured by a plurality of cameras are aggregated in an image processing device such as a server. Then, the image processing apparatus performs processes such as foreground/background separation, 3D shape estimation, 3D shape data generation, and rendering, and transfers the video to the user terminal.

一方、スポーツ中継などでは、臨場感のある映像を撮影するために、機動性のある様々なカメラを用いて撮影が行われている。例えば、クレーンカメラや、スパイダーカム(登録商標)と呼ばれるカメラなどがあり、これらのカメラの操作には高い技術を必要とする。 On the other hand, sports broadcasts and the like are shot using various mobile cameras in order to capture realistic images. For example, there are crane cameras and cameras called spider cams (registered trademark), and these cameras require high skill to operate.

これに対して、特許文献1は、これらのカメラに関して、ターゲットとなる被写体を自動追尾して、撮影をアシストする技術を開示している。 On the other hand, Japanese Patent Laid-Open No. 2002-200002 discloses a technique for automatically tracking a target subject and assisting in photographing with respect to these cameras.

特開2005-86360号公報JP-A-2005-86360

しかしながら、特許文献1に記載の技術では、被写体がカメラの画角内から消失してしまう場合や、被写体がカメラによって追尾可能な範囲を超えてしまう場合に、追尾を継続することが難しい。 However, with the technique described in Patent Document 1, it is difficult to continue tracking when the subject disappears from within the angle of view of the camera or when the subject exceeds the range that can be tracked by the camera.

本発明は、上記の課題に鑑みてなされたものであり、被写体を継続して追尾するための技術を提供することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique for continuously tracking a subject.

上記の目的を達成する本発明に係る撮影制御システムは、
複数の撮影装置により撮影された複数の撮影画像から被写体の3次元形状を推定して前記被写体のモデル情報を生成する形状推定手段と、
前記複数の撮影画像と前記モデル情報とに基づいて仮想視点画像を生成する仮想視点画像生成手段と、
前記モデル情報に基づいて、前記複数の撮影装置とは異なる少なくとも1つの撮影手段の位置姿勢を変化させるように制御する制御手段と、
を備えることを特徴とする。
A photographing control system according to the present invention for achieving the above object includes:
a shape estimating means for estimating a three-dimensional shape of a subject from a plurality of captured images captured by a plurality of imaging devices and generating model information of the subject;
virtual viewpoint image generation means for generating a virtual viewpoint image based on the plurality of captured images and the model information;
control means for controlling to change the position and orientation of at least one photographing means different from the plurality of photographing devices based on the model information;
characterized by comprising

本発明によれば、被写体を継続して追尾することができる。 According to the present invention, the subject can be continuously tracked.

一実施形態に係る撮影制御システムのハードウェア構成の一例を示す図。The figure which shows an example of the hardware constitutions of the imaging|photography control system which concerns on one Embodiment. 実施形態1に係る撮影制御システムの機能ブロックの一例を示す図。4 is a diagram showing an example of functional blocks of the imaging control system according to the first embodiment; FIG. 実施形態1に係る撮影制御システムにおいて機動カメラが被写体を追尾する際の処理の手順を示すフローチャート。4 is a flow chart showing a procedure of processing when a mobile camera tracks a subject in the shooting control system according to the first embodiment; 実施形態1に係る被写体を指定する様子を示した模式図。4A and 4B are schematic diagrams showing how a subject is specified according to the first embodiment; FIG. 実施形態1に係るワイヤカメラで被写体を追尾する様子を示した模式図。4 is a schematic diagram showing how the wire camera according to the first embodiment tracks a subject; FIG. 実施形態1に係る衝突が予測される場合のカメラパラメータを求める様子を示した図。FIG. 4 is a diagram showing how camera parameters are obtained when a collision is predicted according to the first embodiment; 実施形態2に係る撮影制御システムの機能ブロックの一例を示す図。The figure which shows an example of the functional block of the imaging|photography control system which concerns on Embodiment 2. FIG. 実施形態2に係る撮影制御システムにおいて機動カメラが被写体を追尾する際の処理の手順を示すフローチャート。10 is a flowchart showing the procedure of processing when the mobile camera tracks a subject in the imaging control system according to the second embodiment; 実施形態2に係るクレーンカメラがボールを追尾する様子を示した模式図。FIG. 8 is a schematic diagram showing how a crane camera according to the second embodiment tracks a ball; 実施形態3に係る撮影制御システムの機能ブロックの一例を示す図。The figure which shows an example of the functional block of the imaging|photography control system which concerns on Embodiment 3. FIG. 実施形態3に係る撮影制御システムにおいてカメラをスイッチングしながら追尾を行う際の処理の手順を示すフローチャート。10 is a flowchart showing the procedure of processing when tracking is performed while switching cameras in the imaging control system according to the third embodiment; 実施形態3に係るサッカーの試合の様子を示した模式図。FIG. 11 is a schematic diagram showing a soccer match according to Embodiment 3; 実施形態4に係る撮影制御システムにおいて、ユーザの操作や外部機器からの信号によるスイッチング処理の手順を示すフローチャート。10 is a flowchart showing a procedure of switching processing based on a user's operation or a signal from an external device in the imaging control system according to the fourth embodiment; 実施形態4に係るサッカーの試合の様子を示した模式図。FIG. 12 is a schematic diagram showing a soccer match according to Embodiment 4; 実施形態5に係る撮影制御システムにおいて、機動カメラの回避処理時のスイッチング処理の手順を示すフローチャート。14 is a flowchart showing a procedure of switching processing during avoidance processing of the mobile camera in the shooting control system according to the fifth embodiment; 実施形態5に係るサッカーの試合の場面の一部を示した模式図。FIG. 11 is a schematic diagram showing a part of a scene of a soccer match according to Embodiment 5;

以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものでない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. It should be noted that the following embodiments do not limit the invention according to the scope of claims. Although multiple features are described in the embodiments, not all of these multiple features are essential to the invention, and multiple features may be combined arbitrarily. Furthermore, in the accompanying drawings, the same or similar configurations are denoted by the same reference numerals, and redundant description is omitted.

(実施形態1)
本実施形態では、仮想視点画像を生成するために用いられる被写体のモデル情報を用いて、実空間上を物理的に移動しながら撮影を行う撮影装置を制御することで、被写体を見失わずに撮影を続ける例を説明する。
(Embodiment 1)
In this embodiment, the model information of the subject used to generate the virtual viewpoint image is used to control the imaging device that performs imaging while physically moving in the real space. will be explained.

<ハードウェア構成>
図1は、一実施形態に係る撮影制御システム100のハードウェア構成の一例を示す図である。
<Hardware configuration>
FIG. 1 is a diagram showing an example of a hardware configuration of an imaging control system 100 according to one embodiment.

撮影制御システム100は、CPU(Central Processing Unit)101、主記憶装置102、補助記憶装置103、外部I/F104、GPU(Graphics Processing Unit)105を含む。そして、それらが内部バス108を介して相互に通信可能に接続されている。 The imaging control system 100 includes a CPU (Central Processing Unit) 101 , a main storage device 102 , an auxiliary storage device 103 , an external I/F 104 and a GPU (Graphics Processing Unit) 105 . They are connected via an internal bus 108 so as to be able to communicate with each other.

CPU101は、1以上の中央演算装置であり、各種演算や判断、画像処理、データの入出力など撮影制御システム100の全体を制御する。 A CPU 101 is one or more central processing units, and controls the overall imaging control system 100 such as various calculations and judgments, image processing, and data input/output.

主記憶装置102は、CPU101のワークエリアやデータの一時的な記憶領域として機能する記憶装置である。主記憶装置102はDynamic Random Access Memory(DRAM)やStatic Random Access Memory(SRAM)などの記憶媒体を用いて実装される。 The main storage device 102 is a storage device that functions as a work area for the CPU 101 and a temporary storage area for data. The main storage device 102 is implemented using storage media such as Dynamic Random Access Memory (DRAM) and Static Random Access Memory (SRAM).

補助記憶装置103は、各種プログラム、各種設定情報、各種画像データ、カメラパラメータ、3次元形状データ、2次元マップなどの情報を記憶する記憶装置である。補助記憶装置103は、各種のRead Only Memory(ROM)やフラッシュメモリなどの不揮発性メモリ、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)、テープメディアなどの記憶媒体を用いて実装される。それらは大容量化や高速化のために複数を組み合わせてもよく、RAID(Redundant Array of Inexpensive Disks)など論理的に1つにまとめられていてもよい。 The auxiliary storage device 103 is a storage device that stores information such as various programs, various setting information, various image data, camera parameters, three-dimensional shape data, and two-dimensional maps. The auxiliary storage device 103 is implemented using storage media such as various types of read only memory (ROM), nonvolatile memory such as flash memory, hard disk drive (HDD), solid state drive (SSD), and tape media. A plurality of them may be combined in order to increase capacity and speed, or may be logically integrated into one such as RAID (Redundant Array of Inexpensive Disks).

外部I/F104は、カメラやPC、サーバなど外部の機器との通信に利用される通信インターフェースである。あるいは、ジョイスティックやキーボード、マウスなどのユーザによる各種操作を受け付ける外部機器との接続インターフェースである。あるいは、外部ストレージを接続してファイル入出力を行うための汎用的な入出力インターフェースである。外部I/F104は、InfiniBandやEthernet、USBなどの物理的なケーブルの接続端子を持つインターフェース、または無線LANやBluetooth(登録商標)などの無線を用いたインターフェースなどで実装される。USBは、Universal Serial Busの略である。 The external I/F 104 is a communication interface used for communication with external devices such as cameras, PCs, and servers. Alternatively, it is a connection interface with an external device such as a joystick, keyboard, or mouse that accepts various operations by the user. Alternatively, it is a general-purpose input/output interface for connecting an external storage and performing file input/output. The external I/F 104 is implemented by an interface having a physical cable connection terminal such as InfiniBand, Ethernet, or USB, or a wireless interface such as wireless LAN or Bluetooth (registered trademark). USB is an abbreviation for Universal Serial Bus.

GPU105は、画像処理演算を高速に実行するための演算装置であり、テレビなどの外部映像表示装置に対して映像信号を出力する機能を有する。また、仮想視点からの映像をレンダリングする処理の他、仮想視点画像に必要な形状データや色情報を生成する機能を実行する機能も有する。GPU105は映像信号の出力は、DVIやHDMI(登録商標)、Display Port、SDIなどの映像端子として実装される。なお、GPU105は主記憶装置102とは異なる主記憶装置を別途含んでいてもよい。また、上記に示した以外のCPU101で行われる各種演算の一部または全部をGPU105が行ってもよい。また、GPU105は映像信号の出力機能を有さず、外部I/F104が映像出力機能または映像出力に必要なデータ出力機能をさらに有し、GPU105は画像処理や仮想視点画像に必要な形状データや色情報などの演算のみを行う構成としてもよい。 The GPU 105 is an arithmetic unit for executing image processing operations at high speed, and has a function of outputting a video signal to an external video display device such as a television. In addition to the process of rendering an image from a virtual viewpoint, it also has a function of generating shape data and color information necessary for a virtual viewpoint image. A video signal output from the GPU 105 is implemented as a video terminal such as DVI, HDMI (registered trademark), Display Port, or SDI. Note that the GPU 105 may include a separate main memory device different from the main memory device 102 . Also, the GPU 105 may perform part or all of the various operations performed by the CPU 101 other than those described above. The GPU 105 does not have a video signal output function, and the external I/F 104 further has a video output function or a data output function necessary for video output. A configuration in which only computation of color information or the like may be performed.

撮影装置106は、レンズなどの光学系とCMOSセンサなどの光学センサなどによって構成されるカメラなどを少なくとも2台以上の複数台有し、撮影された画像を信号に変換する。 The photographing device 106 has at least two or more cameras each including an optical system such as a lens and an optical sensor such as a CMOS sensor, and converts a photographed image into a signal.

機械装置107は、モータなどの駆動力によって、機械的に形状を変化させることのできる装置である。機械装置107には撮影装置106の一部または全部が設置され、カメラによる撮影の位置や姿勢を機械的に変更することができる。 The mechanical device 107 is a device that can mechanically change its shape by a driving force such as a motor. A part or all of the photographing device 106 is installed in the mechanical device 107, and the photographing position and posture of the camera can be mechanically changed.

内部バス108は、PCIExpressなどの汎用的なバスによって構成され、ハードウェアブロックの各部との双方向通信を行うことができる。 The internal bus 108 is configured by a general-purpose bus such as PCI Express, and can perform bidirectional communication with each part of the hardware block.

撮影制御システム100は、CPU101が補助記憶装置103に記憶された1以上のプログラムを読み出して処理を実行することで、後述するフローチャートにおける画像処理が実現される。 In the imaging control system 100, the CPU 101 reads out one or more programs stored in the auxiliary storage device 103 and executes processing, thereby realizing image processing in flowcharts to be described later.

なお、図1に示す構成は、撮影制御システム100を構成する一例である。例えば、図1に示す機能を別のハードウェアで実現してもよく、例えば補助記憶装置103が撮影制御システム100の外部に外部I/F104によって接続されていてもよい。また、主記憶装置102および補助記憶装置103を一つのハードウェアで実現してもよい。また、GPU105の代わりにFPGAやDSP、画像処理LISなど、実施形態の趣旨を逸脱しない範囲で別のハードウェアを用いてもよい。FPGAは、Field-Programmable Gate Arrayの略である。DSPは、Digital Signal Processorの略である。また、内部バス108は、ハードウェアブロックの各部が双方向に通信を行うことのできるものであればどのようなものを用いてもよく、USBなどの他、求められる性能が発揮されるような標準化されていない専用設計の通信バスを用いてもよい。また、撮影制御システム100は1台の装置とは限らない。同様の構成を持つ装置を複数用意してもよく、また実施形態の趣旨を逸脱しない範囲で、個々の構成が異なっていてもよい。 Note that the configuration shown in FIG. 1 is an example of configuring the imaging control system 100 . For example, the functions shown in FIG. 1 may be realized by separate hardware, and for example, the auxiliary storage device 103 may be connected to the outside of the imaging control system 100 via the external I/F 104 . Also, the main storage device 102 and the auxiliary storage device 103 may be realized by one piece of hardware. Further, instead of the GPU 105, other hardware such as FPGA, DSP, image processing LIS, etc. may be used without departing from the gist of the embodiments. FPGA is an abbreviation for Field-Programmable Gate Array. DSP is an abbreviation for Digital Signal Processor. The internal bus 108 may use any bus as long as each part of the hardware block can communicate bidirectionally. A non-standardized proprietary design communication bus may also be used. Also, the imaging control system 100 is not limited to one device. A plurality of devices having the same configuration may be prepared, and each device may have a different configuration without departing from the spirit of the embodiments.

<機能構成>
図2は、本実施形態に係る撮影制御システム100の機能ブロックの一例である。
<Functional configuration>
FIG. 2 is an example of functional blocks of the imaging control system 100 according to this embodiment.

仮想視点画像生成用カメラ部201は、物理的に離れた場所に設置された(例えば、スタジアムを取り囲むように設置された)、少なくとも2台以上の複数台のカメラによって構成され、人物などを多方面から撮影する。ここで使用されるカメラは同期され、同一タイムコードの撮影タイミングが高精度に制御され、同時に撮影することができる。 The virtual viewpoint image generation camera unit 201 is composed of at least two or more cameras installed at physically separated locations (for example, installed so as to surround a stadium). Shoot from the other side. The cameras used here are synchronized, the shooting timing of the same time code is controlled with high accuracy, and simultaneous shooting is possible.

形状推定処理部202は、仮想視点画像生成用カメラ部201によって撮影された画像を前景と背景とに分離し、仮想視点画像の生成に必要な形状推定処理をリアルタイムに行う。形状推定処理とは、各カメラの位置や姿勢などの情報を含むカメラパラメータを用いて、仮想視点画像を生成するためのモデル情報を生成して取得する処理であり、モデル情報は、被写体の3次元形状データやそれらの色情報、世界座標の情報等を含みうる。 A shape estimation processing unit 202 separates an image captured by the virtual viewpoint image generation camera unit 201 into a foreground and a background, and performs shape estimation processing necessary for generating a virtual viewpoint image in real time. The shape estimation process is a process of generating and acquiring model information for generating a virtual viewpoint image using camera parameters including information such as the position and orientation of each camera. It can include dimensional shape data, their color information, world coordinate information, and the like.

被写体抽出部203は、形状推定処理部202によって推定された形状の中から、指定された3次元形状データを抽出する。例えば、生成される仮想視点画像のデータがサッカーなどのスポーツを対象とする場合、ボールなどの大きさや形状に特徴のあるものを特定の被写体として抽出する。あるいは、個々のモデルデータのバウンディングボックスや顔の情報やユニホームの背番号などを含む服装などから特定の人物モデルを抽出する。あるいは、被写体の識別を行うためのマーカを付けるなどによってクレーンカメラなどを抽出する。すなわち、被写体抽出部203は、推定された3次元形状を、独立した個々の被写体として抽出する処理を行う。 The subject extraction unit 203 extracts designated three-dimensional shape data from the shape estimated by the shape estimation processing unit 202 . For example, when data of a virtual viewpoint image to be generated targets sports such as soccer, an object having a characteristic size and shape such as a ball is extracted as a specific subject. Alternatively, a specific person model is extracted from the bounding box of individual model data, the clothing including face information, uniform number, and the like. Alternatively, a crane camera or the like is extracted by attaching a marker for identifying the subject. That is, the subject extraction unit 203 performs processing for extracting the estimated three-dimensional shape as individual subjects.

ユーザ操作部204は、外部I/F104などで構成され、ユーザインターフェースを通じてユーザからの入力を受け付ける。 A user operation unit 204 is configured by the external I/F 104 and the like, and receives input from the user through a user interface.

機動カメラ部205は、クレーンやワイヤなどの機械的な構造によって設置され、モータなどの駆動力を制御信号によって制御し、機械的にカメラの位置や姿勢を変更することのできる機構を有するカメラである。機動カメラ部205は、後述するカメラ機構制御部206の指示によってカメラの位置や姿勢を物理的に変化させることができる。 The mobile camera unit 205 is a camera that is installed with a mechanical structure such as a crane or wire, and has a mechanism that can mechanically change the position and posture of the camera by controlling the driving force of a motor or the like with a control signal. be. The mobile camera unit 205 can physically change the position and orientation of the camera according to instructions from the camera mechanism control unit 206, which will be described later.

カメラ機構制御部206は、ユーザ操作部204の操作に応じたユーザからの入力に従って、制御信号を機動カメラ部205に送信し、機動カメラ部205を動かして位置や姿勢を物理的に変更させる制御を行う。この時、カメラ機構制御部206は、物理的な上下左右や前後、回転などの情報による制御の他、世界座標を用いた指定や、カメラパラメータを用いた制御を行うことができる。また、カメラ機構制御部206は、後述するカメラパラメータ演算部207に対して、現在のカメラパラメータを送信することもできる。 The camera mechanism control unit 206 transmits a control signal to the mobile camera unit 205 in accordance with an input from the user according to the operation of the user operation unit 204, and controls the mobile camera unit 205 to physically change its position and posture. I do. At this time, the camera mechanism control unit 206 can perform control based on physical information such as up/down/left/right, forward/backward, and rotation, as well as designation using world coordinates and control using camera parameters. The camera mechanism control unit 206 can also transmit current camera parameters to the camera parameter calculation unit 207, which will be described later.

カメラパラメータ演算部207は、機動カメラ部205のカメラパラメータを算出する。被写体抽出部203によって抽出された被写体から、ユーザ操作部204によって指定された被写体を追尾するようにカメラパラメータを算出する。また、ユーザ操作部204によってユーザに操作された際にユーザ操作の結果をカメラパラメータとして出力することもできる。この時、例えば、求めたカメラパラメータが被写体抽出部203によって抽出された他の被写体と予め決められた距離以上離れておらず衝突する恐れがあると判定される場合には、前述のカメラパラメータの算出をやり直す。 A camera parameter calculation unit 207 calculates camera parameters of the mobile camera unit 205 . Camera parameters are calculated so as to track the subject specified by the user operation unit 204 from the subjects extracted by the subject extraction unit 203 . Also, when the user operates the user operation unit 204, the result of the user operation can be output as a camera parameter. At this time, for example, if it is determined that the obtained camera parameters are not separated from another subject extracted by the subject extraction unit 203 by a predetermined distance or more and there is a risk of collision, the above-described camera parameters are changed. Redo the calculation.

カメラ可動範囲取得部208は、カメラ機構制御部206によって制御される機動カメラ部205の動作可能範囲についての情報を、カメラパラメータ演算部207に提供する。動作可能範囲とは、カメラの可動範囲を示しており、カメラ機構制御部206を用いて対象となる被写体を機動カメラ部205が実際に画像として捉えることができる範囲である。 The camera movable range acquisition unit 208 provides the camera parameter calculation unit 207 with information about the operable range of the mobile camera unit 205 controlled by the camera mechanism control unit 206 . The operable range indicates the movable range of the camera, and is the range in which the mobile camera section 205 can actually capture the target subject as an image using the camera mechanism control section 206 .

これにより、カメラパラメータ演算部207は、カメラ機構制御部206により機動カメラ部205を物理的に動かせる範囲内であって、機動カメラ部205によるカメラのズームまたはピント調整によって焦点を合わせることのできる範囲内でカメラパラメータを算出することができる。 As a result, the camera parameter calculation unit 207 determines a range within which the mobile camera unit 205 can be physically moved by the camera mechanism control unit 206 and within which the mobile camera unit 205 can focus by zooming or focusing the camera. The camera parameters can be calculated in

仮想視点画像生成部209は、形状推定処理部202の仮想視点画像データを用いて仮想視点画像を生成する。また、仮想視点画像生成部209は、仮想視点画像における仮想視点のユーザ操作をユーザ操作部204から受信する。 A virtual viewpoint image generation unit 209 generates a virtual viewpoint image using the virtual viewpoint image data of the shape estimation processing unit 202 . The virtual viewpoint image generation unit 209 also receives a user operation of a virtual viewpoint in the virtual viewpoint image from the user operation unit 204 .

本実施形態に係る撮影制御システム100は、仮想視点画像の撮影と同時に、物理的なカメラ、すなわちスタジアム等の撮影施設に固定設置されたカメラや、撮影施設内の空間を移動しながら撮影を行うワイヤカメラや、クレーンカメラなどを用いて撮影を行っているような場合に適用される。例えば、サッカーなどのスポーツ中継や、コンサートなどのイベント撮影などが考えられる。このような撮影では、選手やパフォーマンスを行っている人物を物理的なカメラを用いて撮影を行うと同時に、自由視点映像によって物理的なカメラでは撮影することが困難な映像、例えば試合中の選手の真横のような、臨場感のある撮影を行うことができる。このような撮影において、カメラの操作はカメラマンによる操作の他、ボールや選手などを自動的に追尾する操作による撮影も行われており、以降、実施形態ではサッカーの試合の撮影を例に挙げて説明する。なお、これに限定されず、他のスポーツやコンサートなどのイベント撮影など、実施形態の趣旨を逸脱しない範囲でどのような撮影であってもよい。 The imaging control system 100 according to this embodiment simultaneously captures a virtual viewpoint image with a physical camera, that is, a camera fixedly installed in a photography facility such as a stadium, or while moving in the space within the photography facility. This is applicable when shooting with a wire camera, crane camera, or the like. For example, it is conceivable to broadcast a sport such as soccer or shoot an event such as a concert. In such filming, athletes and people performing are filmed using a physical camera, and at the same time, free-viewpoint video is used to capture images that are difficult to capture with a physical camera, such as athletes during a match. It is possible to shoot with a sense of realism, such as right next to the. In such photography, the camera is operated not only by the camera operator, but also by the operation of automatically tracking the ball or the player. explain. It should be noted that the present invention is not limited to this, and any type of photography, such as event photography such as other sports or concerts, may be used without departing from the scope of the embodiments.

また、このような撮影において物理的なカメラの位置や座標を取得する方法には様々なものがある。機械的に正確に制御することによって、基準となる位置からの差分値で座標を求めてもよいし、特別なマーカなどを用いてセンサで情報を読み取ってもよい。あるいは、自由視点映像によってカメラの物理的な形状を取得し、そこから座標情報を取得してもよく、どのような方法を用いてもよい。 In addition, there are various methods for obtaining the position and coordinates of the physical camera in such photographing. By performing accurate mechanical control, the coordinates may be obtained from the difference value from the reference position, or the information may be read by a sensor using a special marker or the like. Alternatively, the physical shape of the camera may be obtained from the free-viewpoint video, and the coordinate information may be obtained therefrom, or any method may be used.

<処理>
図3は、本実施形態に係る撮影制御システム100において、機動カメラ部205が被写体を追尾する際の処理の手順を示すフローチャートである。
<Processing>
FIG. 3 is a flowchart showing the procedure of processing when the mobile camera unit 205 tracks a subject in the shooting control system 100 according to this embodiment.

ステップS301において、形状推定処理部202は、仮想視点画像生成用カメラ部201により撮影された画像データを用いて形状推定処理を実行し、仮想視点画像の生成に必要なデータを生成する。仮想視点画像の生成に必要なデータを生成方法としては、どのような方法を用いてもよく、例えば視体積交差法(VisualHull)を用いることができる
ステップS302において、被写体抽出部203は、ステップS301で生成した3次元形状データとそれらの色情報やバウンディングボックスなどの情報を用いて、被写体の抽出処理を行う。ここでは、例えばサッカーの試合を撮影しており、サッカーボールや個々の選手、審判などの他、フィールド付近やフィールド上空に設置されたクレーンカメラや、ワイヤカメラ、ドローンカメラ等の物理的に撮影位置を変更することのできるカメラが、形状推定処理部202により形状推定されている。形状推定された結果に基づいて、被写体抽出部203によって独立した個別の被写体として抽出処理が行われる。
In step S301, the shape estimation processing unit 202 executes shape estimation processing using image data captured by the virtual viewpoint image generation camera unit 201, and generates data necessary for generating a virtual viewpoint image. Any method may be used as a method for generating data necessary for generating a virtual viewpoint image. For example, a visual volume intersection method (Visual Hull) may be used. Using the three-dimensional shape data generated in step 3 and information such as color information and bounding box, the subject is extracted. Here, for example, we are shooting a soccer match, and in addition to soccer balls, individual players, referees, etc., the physical shooting positions of crane cameras, wire cameras, drone cameras, etc. installed near or above the field The shape of the camera capable of changing is estimated by the shape estimation processing unit 202 . Based on the result of the shape estimation, the subject extraction unit 203 performs extraction processing as an independent individual subject.

ステップS303において、ユーザ操作部204は、ステップS302で抽出された独立した被写体の中から任意の被写体についての指定を受け付ける。例えば、ここではサッカーボールの指定を受け付ける。本実施形態ではユーザによってサッカーボールが指定を受け付けたものとして説明を行うが、これに限定されない。ステップS302で独立した被写体として抽出されていれば、どのような被写体の指定を受け付けてもよい。選手や審判などの人物や、クレーンカメラやワイヤカメラ、ドローンカメラなど、形状推定され、独立した被写体として抽出された、種々の被写体の指定を受け付けることができる。また、既にユーザから被写体の指定を受け付けている場合は、再度ユーザによって別の被写体の指定を受け付けない限り、以前にユーザによって指定された同一の被写体が指定されるものとしてもよい。 In step S303, the user operation unit 204 accepts designation of an arbitrary subject among the independent subjects extracted in step S302. For example, a specification of a soccer ball is accepted here. In the present embodiment, it is assumed that the soccer ball has been designated by the user, but the present invention is not limited to this. Any subject designation may be accepted as long as it is extracted as an independent subject in step S302. It is possible to accept the designation of various subjects whose shapes are estimated and extracted as independent subjects, such as people such as athletes and referees, crane cameras, wire cameras, and drone cameras. In addition, when the subject has already been specified by the user, the same subject previously specified by the user may be specified unless the user again specifies another subject.

ここで、図4は、本実施形態に係る被写体を指定する様子を模式的に表した模式図である。グラフィックス表示400は、ユーザの表示装置(不図示)上に表示されている、被写体指定画面を表している。画面上には、形状推定処理部202によって生成された仮想視点画像が全体を俯瞰できるように表示され、仮想視点画像には選手やボールなどの被写体が表示されている。 Here, FIG. 4 is a schematic diagram schematically showing how a subject is specified according to the present embodiment. Graphics display 400 represents a subject designation screen displayed on a user's display device (not shown). The virtual viewpoint image generated by the shape estimation processing unit 202 is displayed on the screen so that the entire virtual viewpoint image can be viewed from above, and subjects such as players and balls are displayed in the virtual viewpoint image.

さらに、これらの被写体に対してバウンディングボックスが表示されており、ユーザはこれらの中から、例えば選手401やボール402を、ユーザ操作部204であるマウスやタッチパネルなどのポインティングデバイスによって指定する。ここでは、ユーザによってボール402が選択されたものとする。なお、被写体の選択方法はこの方法に限らない。例えば、それぞれのバウンディングボックスに番号等を合わせて表示し、キー入力によってそれらの数字を指定することにより選択してもよい。 Further, bounding boxes are displayed for these subjects, and the user designates, for example, a player 401 or a ball 402 from among these using a pointing device such as a mouse or a touch panel, which is the user operation unit 204 . Here, it is assumed that the ball 402 has been selected by the user. Note that the subject selection method is not limited to this method. For example, a number or the like may be displayed in each bounding box, and selection may be made by specifying those numbers by key input.

ステップS304において、カメラパラメータ演算部207は、ステップS303で指定された被写体の世界座標に対して、カメラ可動範囲取得部208で取得された可動範囲内で被写体をカメラ内に収めることのできるカメラパラメータを演算により求める。そして、求めたカメラパラメータをカメラ機構制御部206に送る。 In step S<b>304 , the camera parameter calculation unit 207 obtains camera parameters that allow the subject to be captured within the camera within the movable range acquired by the camera movable range acquisition unit 208 with respect to the world coordinates of the subject specified in step S<b>303 . is obtained by calculation. Then, the obtained camera parameters are sent to the camera mechanism control unit 206 .

ここで、図5(a)乃至図5(c)は、本実施形態に係るワイヤカメラ502で被写体を追尾する様子を模式的に示した模式図である。ワイヤ501は、カメラ機構制御部206の指示によって制御され、機動カメラ部205であるワイヤカメラ502の物理的な移動や回転などの操作を行う。ワイヤカメラ502は、スタジアムの四隅などと接続したワイヤによってフィールド上を3次元的に自在に操縦することができる。 Here, FIGS. 5A to 5C are schematic diagrams schematically showing how a subject is tracked by the wire camera 502 according to this embodiment. A wire 501 is controlled by an instruction from the camera mechanism control unit 206 and performs operations such as physical movement and rotation of a wire camera 502 which is the mobile camera unit 205 . The wire camera 502 can be freely manipulated three-dimensionally on the field by wires connected to the four corners of the stadium.

図5(a)は、選手401がボール402を蹴って、矢印503の軌跡を描いた後、移動後のボール位置504に移動する様子を示している。この時、ワイヤカメラ502で撮影されている画像を表したのが、図5(b)である。この例では、追尾対象となっているボール402を、画面中央部の一定範囲内に収まるように追尾を行うものであるとする。選手401によって蹴られたボール402が、矢印503の軌跡に沿って急速に移動し、画角外に追尾対象であるボール402が移動してしまっている。この時、ワイヤカメラ502単独では、ボールの位置がわからずに追尾を継続することができない。しかしながら、被写体抽出部203の情報によって、移動後のボール位置504にあるボールを抽出することができる。そのため、カメラパラメータ演算部207はボールの移動に応じて、図5(c)に示すカメラ位置505をボール追尾のためのワイヤカメラ502の移動先の位置として算出する。そして、この時のカメラパラメータを求め、求めたカメラパラメータをカメラ機構制御部206に送ることで、画角外に移動してしまった被写体を追尾することができる。 FIG. 5(a) shows how a player 401 kicks a ball 402, traces the trajectory of an arrow 503, and then moves to a post-movement ball position 504. FIG. FIG. 5B shows an image captured by the wire camera 502 at this time. In this example, it is assumed that tracking is performed so that the ball 402 to be tracked is within a certain range at the center of the screen. A ball 402 kicked by a player 401 moves rapidly along the trajectory of an arrow 503, and the ball 402 to be tracked has moved outside the angle of view. At this time, the wire camera 502 alone cannot determine the position of the ball and cannot continue tracking. However, it is possible to extract the ball at the ball position 504 after movement based on the information from the subject extraction unit 203 . Therefore, the camera parameter calculation unit 207 calculates a camera position 505 shown in FIG. 5C as the movement destination position of the wire camera 502 for tracking the ball according to the movement of the ball. By obtaining the camera parameters at this time and sending the obtained camera parameters to the camera mechanism control unit 206, it is possible to track the subject that has moved outside the angle of view.

この例では、ワイヤカメラ502の位置を移動させてワイヤカメラ502の移動先の位置を求めたが、これに限らず、どのような方法を用いてもよい。例えばワイヤカメラ502はその位置から動かずに、パンやチルトなどの回転の動きによって移動後のボール位置504を撮影できるように回転の動き量を算出し、回転の制御を行ってもよい。また、パンやチルトなどによってボールの追尾を行わせ、ユーザ操作部204を介したユーザ操作によって、ワイヤ501を操作してワイヤカメラ502の位置を動かす操作や、ズームなどの操作を別途行ってもよい。また、パンやチルトなどの操作をユーザが行い、ワイヤ操作によるワイヤカメラ502の位置を動かす操作のみをカメラパラメータ演算部207によって求められるカメラパラメータに基づいてカメラ機構制御部206が制御してもよい。 In this example, the position of the wire camera 502 is moved to obtain the destination position of the wire camera 502, but any method may be used. For example, the wire camera 502 may calculate the amount of rotational movement and control the rotation so that the ball position 504 after movement can be captured by rotational movement such as panning or tilting without moving from that position. Alternatively, the ball may be tracked by panning or tilting, and the wire 501 may be operated to move the position of the wire camera 502 by user operation via the user operation unit 204, or an operation such as zooming may be separately performed. good. Alternatively, the camera mechanism control unit 206 may control only the operation of moving the position of the wire camera 502 by the user, such as panning and tilting, based on the camera parameters obtained by the camera parameter calculation unit 207. .

ステップS305において、カメラパラメータ演算部207は、ステップS301で形状推定処理部202により生成されたモデル情報の動きの量から被写体の動作を予測する(被写体の予測される動作情報を算出、取得する)。そして、ステップS304で求めたカメラパラメータに基づいて、追尾対象であるボールの他、選手などの追尾対象以外の被写体を含めた被写体と機動カメラ部205とが衝突する恐れがあるか否かを判定する。被写体と衝突の恐れがあると判定される場合、ステップS304に戻ってカメラパラメータを求め直す。一方、被写体と衝突の恐れがないと判定される場合、ステップS306へ進む。 In step S305, the camera parameter calculation unit 207 predicts the motion of the subject based on the motion amount of the model information generated by the shape estimation processing unit 202 in step S301 (calculates and acquires information about the predicted motion of the subject). . Then, based on the camera parameters obtained in step S304, it is determined whether or not there is a risk of collision between the mobile camera unit 205 and subjects including subjects other than the tracking target, such as players, in addition to the ball that is the tracking target. do. If it is determined that there is a risk of collision with the subject, the process returns to step S304 to obtain the camera parameters again. On the other hand, if it is determined that there is no risk of collision with the object, the process proceeds to step S306.

ここで、図6(a)及び図6(b)は、本実施形態に係るカメラパラメータの演算によって衝突が予測される場合におけるカメラパラメータ演算部207がカメラパラメータを求める様子を示した図である。 Here, FIGS. 6A and 6B are diagrams showing how the camera parameter calculation unit 207 obtains camera parameters when a collision is predicted by calculation of camera parameters according to the present embodiment. .

図5(a)~図5(c)と同様に、ワイヤカメラ502を移動後のボール位置504に追従させて、カメラ位置505へ移動させようとする際、選手601がワイヤカメラ502の移動線上に、選手602がカメラ位置505上にいる。そのため、ワイヤカメラ502をカメラ位置505に移動させると、選手601および選手602と衝突する可能性がある。よって、カメラパラメータ演算部207は、カメラ位置505以外の位置に移動するように再度カメラパラメータを求め直し、例えば図6(b)に示すようなカメラ位置603を求める。この時、例えばカメラ位置505は、追尾対象を一定の距離で追尾するようにカメラパラメータを求めたものとしてもよい。そして、カメラ位置603は、距離が離れた分ズームを行うことで、カメラ位置505と同程度の大きさでボールが見えるようにカメラパラメータを求めたものとしてもよい。このようにして、カメラパラメータを求める際の各パラメータに優先順位を設け、優先順位に従ってカメラパラメータを求めてもよい。 As in FIGS. 5A to 5C, when the wire camera 502 is to follow the ball position 504 after movement and is to be moved to the camera position 505, the player 601 moves along the movement line of the wire camera 502. At the same time, player 602 is on camera position 505 . Therefore, moving the wire camera 502 to the camera position 505 may collide with the players 601 and 602 . Therefore, the camera parameter calculation unit 207 obtains the camera parameters again so as to move to a position other than the camera position 505, and obtains a camera position 603 as shown in FIG. 6B, for example. At this time, for the camera position 505, for example, the camera parameters may be obtained so as to track the tracking target at a certain distance. Then, for the camera position 603 , the camera parameters may be determined so that the ball can be seen in the same size as the camera position 505 by performing zooming by the distance. In this way, priority may be given to each parameter when obtaining camera parameters, and camera parameters may be obtained according to the priority.

ステップS306において、カメラ機構制御部206は、ステップS304でカメラパラメータ演算部207から受信したカメラパラメータに基づいて、機動カメラ部205を動かす(位置姿勢を変化させる)ことにより、被写体を追尾する制御を行う。 In step S306, the camera mechanism control unit 206 controls tracking of the subject by moving the mobile camera unit 205 (changing the position and orientation) based on the camera parameters received from the camera parameter calculation unit 207 in step S304. conduct.

ステップS307において、ユーザ操作部204は、処理を終了するか否かを判定する。ユーザから処理の終了指示がない場合は、ステップS701に戻る。 In step S307, the user operation unit 204 determines whether or not to end the process. If the user does not give an instruction to end processing, the process returns to step S701.

以上説明したように、本実施形態によれば、仮想視点画像生成用のデータ(被写体のモデル情報)を用いることで、被写体を見失うことなく被写体を追尾し続けることができる。また、被写体との衝突を回避することができる。 As described above, according to the present embodiment, by using the data for generating the virtual viewpoint image (the model information of the subject), the subject can be continuously tracked without losing sight of the subject. Also, collision with the subject can be avoided.

なお、本実施形態では追尾対象となる被写体が画面外(画角外)に移動した場合について説明を行ったが、これに限らない。例えば、ステップS304でカメラパラメータを求める際、ボールがカメラの前にいる多くの選手によって隠れてしまい、オクルージョンが発生する場合がある。そのような場合、ボールの位置情報から、オクルージョンが発生しない位置を計算によって求めることで、追尾対象である被写体が隠れないようにしてもよい。 In this embodiment, the case where the subject to be tracked has moved outside the screen (outside the angle of view) has been described, but the present invention is not limited to this. For example, when the camera parameters are determined in step S304, the ball may be hidden by many players in front of the camera, causing occlusion. In such a case, a position where occlusion does not occur may be calculated from the position information of the ball so that the subject to be tracked is not hidden.

その場合、カメラ機構制御部206は、形状推定処理部202により生成されたモデル情報に基づいて、機動カメラ部205の撮影画像において追尾対象の被写体が他の被写体に隠れないように機構を制御する。 In this case, the camera mechanism control unit 206 controls the mechanism based on the model information generated by the shape estimation processing unit 202 so that the subject to be tracked is not hidden behind other subjects in the image captured by the mobile camera unit 205. .

(実施形態2)
本実施形態では、仮想視点画像生成用のデータを用いることで、カメラが被写体を捉えることができるようになる前から被写体を撮影するための準備を行うことで、被写体の撮影が可能になった場合に即座に撮影を行う例を説明する。
(Embodiment 2)
In this embodiment, by using the data for generating the virtual viewpoint image, the subject can be photographed by preparing for photographing the subject before the camera can capture the subject. An example will be described in which shooting is immediately performed when a situation arises.

<構成>
本実施形態に係る撮影制御システムのハードウェア構成は、図1に示したハードウェア構成と同一であるため、説明を省略する。
<Configuration>
Since the hardware configuration of the imaging control system according to this embodiment is the same as the hardware configuration shown in FIG. 1, the description thereof will be omitted.

図7は、本実施形態に係る撮影制御システム700の機能ブロックの一例を示す。なお、図7に示される仮想視点画像生成用カメラ部201~仮想視点画像生成部209は、図2の構成要素と同一である。 FIG. 7 shows an example of functional blocks of an imaging control system 700 according to this embodiment. Note that the virtual viewpoint image generation camera unit 201 to the virtual viewpoint image generation unit 209 shown in FIG. 7 are the same as the components in FIG.

被写体撮影可能範囲取得部701は、機動カメラ部205がカメラ機構制御部206によって制御される動作可能範囲の情報を、カメラパラメータ演算部207に提供する。 The subject photographable range acquisition unit 701 provides the camera parameter calculation unit 207 with information on the operable range in which the mobile camera unit 205 is controlled by the camera mechanism control unit 206 .

<処理>
ここで、図8は、本実施形態に係る撮影制御システム700において、機動カメラ部205が被写体を追尾する際の処理の手順を示すフローチャートである。なお、図8中のステップS301乃至ステップS307は図3の対応するステップと同様であるため、説明を省略する。
<Processing>
Here, FIG. 8 is a flowchart showing the procedure of processing when the mobile camera unit 205 tracks the subject in the imaging control system 700 according to this embodiment. Note that steps S301 to S307 in FIG. 8 are the same as the corresponding steps in FIG. 3, so descriptions thereof will be omitted.

ステップS801において、カメラパラメータ演算部207は、被写体撮影可能範囲取得部701から機動カメラ部205の動作可能範囲の情報を取得し、ステップS303で指定された被写体が機動カメラ部205の動作可能範囲内にあるか否かを判定する。動作可能範囲内にない場合は、ステップS802へ進む。一方、動作可能範囲内にある場合は、ステップS304へ進む。 In step S801, the camera parameter calculation unit 207 acquires information on the operable range of the mobile camera unit 205 from the subject photographable range acquisition unit 701, and the subject specified in step S303 is within the operable range of the mobile camera unit 205. It is determined whether or not there is If not within the operable range, the process proceeds to step S802. On the other hand, if it is within the operable range, the process proceeds to step S304.

ステップS802において、カメラパラメータ演算部207は、追尾対象の被写体の位置情報を取得し、機動カメラ部205の動作可能範囲内で、最も追尾対象の被写体に近い位置となるカメラパラメータを求める。 In step S<b>802 , the camera parameter calculation unit 207 acquires the position information of the tracking target subject, and obtains camera parameters that are closest to the tracking target subject within the operable range of the mobile camera unit 205 .

ここで、図9(a)及び図9(b)は、本実施形態に係るクレーンカメラがボールを追尾する様子を示した模式図である。 Here, FIGS. 9A and 9B are schematic diagrams showing how the crane camera according to the present embodiment tracks the ball.

図9(a)に示すように、クレーン901は、カメラ機構制御部206の指示によって制御され、機動カメラ部205であるクレーンカメラ902の物理的な移動や回転などの操作を行う。 As shown in FIG. 9A, a crane 901 is controlled by instructions from the camera mechanism control unit 206, and performs operations such as physical movement and rotation of a crane camera 902, which is the mobile camera unit 205. FIG.

動作可能範囲903は、クレーン901の制御によりクレーンカメラ902によって撮影可能なエリアを示している。クレーンカメラ902は、動作可能範囲903の内部の被写体を追尾することが可能であり、動作可能範囲903の外部においては被写体を追尾することができない。ここでは、クレーンカメラ902はボール402を追尾するように設定されているものとする。 A operable range 903 indicates an area that can be photographed by the crane camera 902 under the control of the crane 901 . The crane camera 902 can track the subject inside the operable range 903 and cannot track the subject outside the operable range 903 . Assume here that the crane camera 902 is set to track the ball 402 .

ボール402は、機動カメラ部205の動作可能範囲903のエリア内にあり、機動カメラ部205によって追尾されている状態である。 The ball 402 is within the operable range 903 of the mobile camera unit 205 and is being tracked by the mobile camera unit 205 .

この状態から、選手401がボール402を蹴ったことで、動作可能範囲903の外側であるボール位置904に移動したとする。ボール位置904は、動作可能範囲903の外側であるため、クレーンカメラ902によって追尾することができなくなってしまう。この時、カメラパラメータ演算部207は、動作可能範囲903のエリア内において、ボール位置904に対して最も近い位置と考えられる画角905のカメラパラメータを求めて、クレーンカメラ902を画角905に向けさせる。この動作は、動作可能範囲903の外側でボール位置904の位置が移動する度に、ボールの位置に合わせてカメラパラメータの再計算を行うことで適宜画角905の画角を修正してもよい。 Assume that the player 401 kicks the ball 402 from this state and moves to the ball position 904 outside the movable range 903 . Since the ball position 904 is outside the operable range 903 , it cannot be tracked by the crane camera 902 . At this time, the camera parameter calculation unit 207 obtains camera parameters for an angle of view 905 that is considered to be the closest position to the ball position 904 within the area of the operable range 903, and directs the crane camera 902 to the angle of view 905. Let In this operation, every time the position of the ball position 904 moves outside the operable range 903, the angle of view of the angle of view 905 may be appropriately corrected by recalculating the camera parameters according to the position of the ball. .

例えば、図9(b)に示すように、追尾対象となっているボール402が、ボール位置904から、ボール位置904'を経てボール位置904''で動作可能範囲903の内部へと位置を変えていく。これに応じて、クレーンカメラ902は、カメラパラメータ演算部207によって、画角905から画角905'を経て画角905''へと、ボール402の位置に応じて画角を変えていく。これにより、ボール402が動作可能範囲903の内部に入ったボール位置904''で、画角905''によって即座にボールをとらえることが可能になる。 For example, as shown in FIG. 9B, the ball 402 to be tracked changes its position from a ball position 904 to a ball position 904'' and into the movable range 903. To go. In response to this, the crane camera 902 changes the angle of view according to the position of the ball 402 from the angle of view 905 through the angle of view 905 ′ to the angle of view 905 ″ by the camera parameter calculator 207 . As a result, at a ball position 904'' where the ball 402 has entered the movable range 903, the ball can be immediately caught by the angle of view 905''.

以上説明したように、本実施形態によれば、仮想視点画像生成用のデータを用いることで、クレーンカメラなどのカメラが被写体を捉えることができるようになる前から、被写体を撮影するための準備を行う。そのため、被写体を捉えることができるようになった場合に即座に撮影することができる。 As described above, according to the present embodiment, by using data for generating a virtual viewpoint image, preparations for photographing a subject can be made before a camera such as a crane camera can capture the subject. I do. Therefore, when the subject can be captured, the subject can be photographed immediately.

なお、本実施形態では、動作可能範囲903は連続する1つの領域のみを有していたが、これに限定されない。複眼カメラなどの複数のカメラを有する機動カメラの場合などでは、複数の動作可能範囲を有していてもよく、物理的にレンズが変更されるような機構を有する場合や、天候やその他の制約等カメラの状態に応じて複数の動作可能範囲が切り替わってもよい。 It should be noted that although the operable range 903 has only one continuous region in the present embodiment, it is not limited to this. In the case of a mobile camera with multiple cameras such as a compound eye camera, it may have multiple operable ranges, and it may have a mechanism that physically changes the lens, weather or other restrictions. A plurality of operable ranges may be switched according to the state of the camera.

(実施形態3)
本実施形態では、追尾対象の位置に応じて撮影するカメラを適切にスイッチングすることで適切なカメラを使って被写体を追尾する例を説明する。
(Embodiment 3)
In this embodiment, an example will be described in which an appropriate camera is used to track a subject by appropriately switching the camera for shooting according to the position of the tracking target.

<構成>
本実施形態に係る撮影制御システムのハードウェア構成は、図1に示したハードウェア構成と同一であるため、説明を省略する。
<Configuration>
Since the hardware configuration of the imaging control system according to this embodiment is the same as the hardware configuration shown in FIG. 1, the description thereof will be omitted.

図10は、本実施形態に係る撮影制御システム1000の機能ブロックの一例を示す。なお、図10に示される仮想視点画像生成用カメラ部201~仮想視点画像生成部209は、図2の構成要素と同様である。ただし、図10の例では、機動カメラ部205に代えて、機動カメラ部205'を備えており、機動カメラ部205'は、少なくとも2つ以上の複数台の機動カメラ部205で構成される。また、カメラ機構制御部206に代えて、カメラ機構制御部206'を備えており、カメラ機構制御部206'は、少なくとも2つ以上の複数台のカメラ機構制御部206で構成される。被写体撮影可能範囲取得部701は図7の構成要素と同様である。 FIG. 10 shows an example of functional blocks of an imaging control system 1000 according to this embodiment. Note that the virtual viewpoint image generation camera unit 201 to the virtual viewpoint image generation unit 209 shown in FIG. 10 are the same as the components in FIG. However, in the example of FIG. 10, a mobile camera section 205′ is provided in place of the mobile camera section 205, and the mobile camera section 205′ is composed of at least two or more mobile camera sections 205. FIG. A camera mechanism control unit 206 ′ is provided in place of the camera mechanism control unit 206 , and the camera mechanism control unit 206 ′ is composed of at least two or more camera mechanism control units 206 . A subject shootable range acquisition unit 701 is the same as the components in FIG.

スイッチング部1001は、カメラパラメータ演算部207によって追尾対象の被写体が機動カメラ部205'の各々の撮影可能範囲内にあるか否かを判定する。そして、撮影可能な機動カメラ部205にスイッチングするように、外部I/F104を介した通信によって外部の映像スイッチング装置に対して指示を出す。 The switching unit 1001 uses the camera parameter calculation unit 207 to determine whether or not the subject to be tracked is within the photographable range of each mobile camera unit 205′. Then, an instruction is issued to an external video switching device through communication via the external I/F 104 so as to switch to the mobile camera unit 205 capable of shooting.

なお、本実施形態では、外部のスイッチング装置に対して通信による指示を出すことでスイッチングを実現するものであるとするが、これに限定されず、撮影制御システム1000の内部に別途スイッチング装置を有してもよい。あるいは、CPU101またはGPU105などの演算装置によって、新たに装置を追加することなくソフトウェアによって処理されてもよい。 Note that in the present embodiment, switching is realized by issuing a communication instruction to an external switching device, but the present invention is not limited to this. You may Alternatively, it may be processed by software by an arithmetic device such as the CPU 101 or the GPU 105 without adding a new device.

<処理>
ここで、図11は、本実施形態に係る撮影制御システム1000において、機動カメラ部205'を用いて被写体を複数のカメラで追尾している場合に、適当なカメラへとスイッチングしながら追尾を行う際の処理の手順を示すフローチャートである。なお、図11中のステップS301乃至ステップS307は図3の対応するステップと同様であり、ステップS801及びステップS802は図8の対応するステップと同様であるため、説明を省略する。
<Processing>
Here, in FIG. 11, in the shooting control system 1000 according to the present embodiment, when a plurality of cameras are used to track an object using the mobile camera unit 205′, tracking is performed while switching to an appropriate camera. 10 is a flow chart showing a procedure of processing at the time; Note that steps S301 to S307 in FIG. 11 are the same as the corresponding steps in FIG. 3, and steps S801 and S802 are the same as the corresponding steps in FIG.

ステップS1101において、カメラパラメータ演算部207は、機動カメラ部205'の追尾動作処理が、機動カメラ部205'のすべてについて終了したか否かを判定する。すべての追尾動作処理が終わっていれば、ステップS1102へ進む。一方、すべての追尾動作処理が終わっていなければ、ステップS801に戻る。 In step S1101, the camera parameter calculation unit 207 determines whether or not the tracking operation processing of the mobile camera units 205' has been completed for all of the mobile camera units 205'. If all tracking operation processing has been completed, the process advances to step S1102. On the other hand, if all tracking operation processing has not ended, the process returns to step S801.

ステップS1102において、カメラパラメータ演算部207は、被写体撮影可能範囲取得部701によって取得された情報に基づいて、追尾している被写体が現在選択している機動カメラ部205で撮影可能な範囲内であるか否かを判定する。追尾中の被写体が現在選択している機動カメラ部205の撮影可能範囲内にある場合は、ステップS307へ進む。一方、追尾中の被写体が現在選択している機動カメラ部205の撮影可能範囲外にある場合は、ステップS1103へ進む。 In step S<b>1102 , the camera parameter calculation unit 207 determines that the object being tracked is within the photographable range of the currently selected mobile camera unit 205 based on the information acquired by the subject photographable range acquisition unit 701 . Determine whether or not If the subject being tracked is within the photographable range of the currently selected mobile camera unit 205, the process proceeds to step S307. On the other hand, if the subject being tracked is outside the photographable range of the currently selected mobile camera unit 205, the process advances to step S1103.

ステップS1103において、カメラパラメータ演算部207は、撮影可能範囲に追尾している被写体が映っている機動カメラ205を、によって求める。そして、スイッチング部1001は、追尾している被写体が撮影可能範囲に映っている機動カメラ205に切り替える。 In step S1103, the camera parameter calculation unit 207 obtains the mobile camera 205 in which the tracking subject is captured within the photographable range. Then, the switching unit 1001 switches to the mobile camera 205 in which the tracked subject is captured within the photographable range.

ここで、図12は、本実施形態に係るサッカーの試合の様子を表した模式図である。図12を用いてカメラの切り替わりを説明する。 Here, FIG. 12 is a schematic diagram showing a state of a soccer match according to this embodiment. Switching of cameras will be described with reference to FIG.

図12において、クレーン1201aは、カメラ機構制御部の指示によって制御される。クレーンカメラ1202aは、撮影可能範囲1203aを撮影可能範囲として設定される機動カメラである。同様に、クレーン1201bは、カメラ機構制御部の指示によって制御される。クレーンカメラ1202bは、撮影可能範囲1203bを撮影可能範囲として設定された機動カメラである。クレーン1201cは、カメラ機構制御部の指示によって制御される。クレーンカメラ1202cは、撮影可能範囲1203cを撮影可能範囲として設定された機動カメラである。 In FIG. 12, a crane 1201a is controlled by instructions from the camera mechanism control section. The crane camera 1202a is a mobile camera for which the photographable range 1203a is set as the photographable range. Similarly, crane 1201b is controlled by instructions from the camera mechanism controller. The crane camera 1202b is a mobile camera in which the photographable range 1203b is set as the photographable range. The crane 1201c is controlled by instructions from the camera mechanism controller. The crane camera 1202c is a mobile camera in which the photographable range 1203c is set as the photographable range.

このような機動カメラ群を用いて追尾対象であるボールを撮影する際に、ボールの位置が位置1204a、位置1204b、位置1204cへと移動した場合の動作について説明する。 A description will be given of the operation when the ball, which is the tracking target, is photographed using such a mobile camera group and the ball moves to positions 1204a, 1204b, and 1204c.

ボールが位置1204aにある時、カメラパラメータ演算部207は、撮影可能範囲1203a内にボールがあることから、クレーンカメラ1202aへスイッチングするようにスイッチング部1001に対して指示を出す。クレーンカメラ1202aは、カメラパラメータ演算部207によって、ステップS301乃至S306の処理によって、追尾対象となっているボールを追いかけるようにクレーンカメラ1202aを制御する。この時、クレーンカメラ1202b及びクレーンカメラ1202cは、ステップS802の処理によって、各撮影可能範囲の中でボールに最も近くなるようにそれぞれ制御される。 When the ball is at the position 1204a, the camera parameter calculation unit 207 instructs the switching unit 1001 to switch to the crane camera 1202a because the ball is within the photographable range 1203a. The crane camera 1202a controls the crane camera 1202a by the camera parameter calculation unit 207 so as to follow the ball to be tracked through the processing of steps S301 to S306. At this time, the crane camera 1202b and the crane camera 1202c are controlled by the processing in step S802 so as to be closest to the ball within each photographable range.

次に、ボールが位置1204bに移動すると、カメラパラメータ演算部207は、ボールの位置が撮影可能範囲1203aの外に移動し、撮影可能範囲1203b内にボールが存在する。従って、クレーンカメラ1202bへスイッチするようにスイッチング部1001に指示を出す。この時、クレーンカメラ1202bは、ステップS802の処理によって、ボールに最も近くなるように制御されているため、撮影可能範囲1203bの境界部1205をボールが超えた直後から追尾を開始することができる。よって、クレーンカメラ1202aからクレーンカメラ1202bにスイッチされた際に、ボールを追尾した状態でスイッチすることができる。また、クレーンカメラ1202aは、ボールを追尾できなくなった後、ステップS802の処理によって撮影可能範囲1203a内でボールに対して最も近くなるように制御される。 Next, when the ball moves to position 1204b, the camera parameter calculation unit 207 determines that the position of the ball moves outside the photographable range 1203a and the ball exists within the photographable range 1203b. Therefore, the switching unit 1001 is instructed to switch to the crane camera 1202b. At this time, the crane camera 1202b is controlled by the processing in step S802 so as to be closest to the ball, so tracking can be started immediately after the ball crosses the boundary 1205 of the photographable range 1203b. Therefore, when switching from the crane camera 1202a to the crane camera 1202b, it is possible to switch while tracking the ball. Also, after the crane camera 1202a cannot track the ball, it is controlled by the processing in step S802 so as to come closest to the ball within the photographable range 1203a.

その後、同様に、ボールが位置1204cに移動すると、クレーンカメラ1202bからクレーンカメラ1202cにスイッチするようにスイッチング部1001に対して指示を出す。 After that, similarly, when the ball moves to position 1204c, an instruction is issued to switching unit 1001 to switch from crane camera 1202b to crane camera 1202c.

なお、撮影可能範囲が重複する領域においては前述のように現在使用中のカメラを用いてもよし、撮影可能範囲が重複する領域にボールが移動した場合に、現在使用中のカメラではなく、撮影可能範囲が重複する移動先の領域のカメラに切り替えてもよい。また、2台の映像をトランジションによって切り替えてもよい。 In addition, in the area where the shooting range overlaps, the currently used camera may be used as described above. You may switch to the camera of the area|region of a move-destination with which possible range overlaps. Also, the two images may be switched by a transition.

以上説明したように、本実施形態によれば、追尾対象の位置(例えばボール位置)に応じて、カメラを適切にスイッチングする(切替える)ことで、適切なカメラを使って被写体を追尾することができる。 As described above, according to the present embodiment, the camera can be appropriately switched (switched) according to the position of the tracking target (for example, the position of the ball), thereby tracking the subject using an appropriate camera. can.

(実施形態4)
本実施形態では、追尾対象となっている被写体を撮影できないカメラへのスイッチングを抑制することで、被写体が映っていない映像が表示されることを抑制する例を説明する。
(Embodiment 4)
In the present embodiment, an example will be described in which switching to a camera that cannot capture a subject to be tracked is suppressed, thereby suppressing display of an image in which the subject is not captured.

<構成>
本実施形態に係る撮影制御システムのハードウェア構成は、図1に示したハードウェア構成と同一であるため、説明を省略する。また、本実施形態に係る撮影制御システムの機能ブロックの構成は、図10に示した構成と同一であるため、説明を省略する。
<Configuration>
Since the hardware configuration of the imaging control system according to this embodiment is the same as the hardware configuration shown in FIG. 1, the description thereof will be omitted. Also, since the configuration of the functional blocks of the imaging control system according to this embodiment is the same as the configuration shown in FIG. 10, description thereof will be omitted.

<処理>
図13は、本実施形態に係る処理の手順を示すフローチャートである。本フローは、ユーザ操作に基づく又は外部機器からの信号の受信に基づく、機動カメラ部205'に対するスイッチング処理を表している。なお、図13中のステップS301乃至ステップS307、ステップS801及びステップS802の各処理は、図3及び図8で説明した対応する各処理と同様である。
<Processing>
FIG. 13 is a flowchart showing the procedure of processing according to this embodiment. This flow represents switching processing for the mobile camera unit 205' based on user operation or based on reception of a signal from an external device. 13 are the same as the corresponding processes described with reference to FIGS. 3 and 8. In FIG.

ステップS1301において、ユーザ操作部204は、ユーザ操作に基づいて、スイッチング指示の入力を受け付ける。あるいは、外部機器からのスイッチング信号の受信に基づいてスイッチング指示を受信してもよい。 In step S1301, the user operation unit 204 receives input of a switching instruction based on user operation. Alternatively, the switching instruction may be received based on the reception of the switching signal from the external device.

本実施形態では、ステップS1301の後のステップS801における判定処理を行い、被写体が動作可能範囲内にあるか否かの判定結果に応じて、Yesの場合はステップS1302へ、Noの場合はステップS1303へと、処理が分岐する。 In the present embodiment, determination processing in step S801 after step S1301 is performed, and depending on the determination result as to whether or not the subject is within the operable range, the process proceeds to step S1302 if Yes, and to step S1303 if No. , the process branches.

ステップS1302において、カメラパラメータ演算部207は、追尾対象となっている被写体が動作可能範囲内にあるので、スイッチング指示を受け付け、スイッチング部1001に対して映像の切り替えを指示する。 In step S1302, the camera parameter calculation unit 207 accepts the switching instruction and instructs the switching unit 1001 to switch the video because the subject to be tracked is within the operable range.

ステップS1303において、カメラパラメータ演算部207は、追尾対象となっている被写体が動作可能範囲外にあるため、スイッチング指示を受け付けない。この時、ユーザに対して、スイッチング指示を受け付けない旨を示すグラフィックス表示やテキストメッセージなどを、表示装置上に表示させてもよい。 In step S1303, the camera parameter calculation unit 207 does not accept a switching instruction because the subject to be tracked is outside the operable range. At this time, a graphic display, a text message, or the like indicating that the switching instruction is not accepted may be displayed on the display device.

このように、ユーザ操作部204により機動カメラ部の切り替え指示が入力された場合、追尾対象の被写体が切り替え先の機動カメラ部の可動範囲内にあるか否かに応じて、機動カメラ部の切り替え可否を制御する。 In this manner, when an instruction to switch the mobile camera unit is input through the user operation unit 204, switching of the mobile camera unit is performed depending on whether or not the subject to be tracked is within the movable range of the mobile camera unit to which switching is to be performed. control whether or not

ここで、図14は、本実施形態に係るサッカーの試合の様子を模式的に表した模式図である。図14を参照して、カメラがスイッチングする際の挙動について説明する。 Here, FIG. 14 is a schematic diagram schematically showing a state of a soccer match according to this embodiment. The behavior when the camera switches will be described with reference to FIG.

クレーンカメラ1402は、クレーン1401によって3次元的に位置や向きが変化する。クレーンカメラ1402は、撮影可能範囲1403の範囲内を撮影できるカメラであり、クレーンカメラ1402はサッカーボールを追尾するように設定されているものとする。 The position and orientation of the crane camera 1402 are three-dimensionally changed by the crane 1401 . Crane camera 1402 is a camera capable of capturing an image within photographable range 1403, and crane camera 1402 is set to track a soccer ball.

サッカーボールが位置1404aの位置にある時に、ユーザの操作によってクレーンカメラ1402へのスイッチング指示を受けた場合、サッカーボールは撮影可能範囲内にあるため、スイッチング処理を受け付ける。そして、クレーンカメラ1402の映像へのスイッチング処理を行う。 If an instruction to switch to the crane camera 1402 is received by the user's operation when the soccer ball is at the position 1404a, the switching process is accepted because the soccer ball is within the photographable range. Then, switching processing to the image of the crane camera 1402 is performed.

一方、サッカーボールが位置1404bにある時に、ユーザの操作によってクレーンカメラ1402へのスイッチング指示を受けた場合、サッカーボールは撮影可能範囲の外側にあるため、クレーンカメラ1402で撮影することができない状態である。この場合、スイッチング処理を受け付けない。なお、本実施形態では、スイッチング処理を受け付けないとしているが、これに限らない。スイッチング処理は受け付けるが、被写体の追尾ができない旨をユーザに対して通知するような表示を行ってもよい。あるいは、それらのユーザへの通知を行ったうえで、仮想視点画像生成部209によって仮想視点画像を生成して出力してもよい。その際、スイッチングできなかったため、仮想視点画像生成部209によって生成された仮想視点画像に切り替えた旨を示す情報をユーザに対して表示してもよい。 On the other hand, when the soccer ball is at the position 1404b, if an instruction to switch to the crane camera 1402 is received by the user's operation, the soccer ball is outside the photographable range, so the crane camera 1402 cannot photograph the soccer ball. be. In this case, switching processing is not accepted. In this embodiment, it is assumed that the switching process is not accepted, but the present invention is not limited to this. Although the switching process is accepted, a display may be made to notify the user that the subject cannot be tracked. Alternatively, the virtual viewpoint image may be generated and output by the virtual viewpoint image generation unit 209 after notifying those users. At that time, information indicating that switching to the virtual viewpoint image generated by the virtual viewpoint image generation unit 209 has been performed may be displayed to the user because the switching was not possible.

あるいは、ユーザによって指定された機動カメラ部205'の撮影可能範囲外であるが、他の機動カメラ部205'の撮影可能範囲内である場合に、それらの追尾対象となる被写体が撮影可能範囲内にある機動カメラ部205'へスイッチングしてもよい。 Alternatively, if it is outside the photographable range of the mobile camera unit 205' specified by the user but is within the photographable range of another mobile camera unit 205', the subject to be tracked is within the photographable range. may be switched to the mobile camera unit 205' located at .

また、本実施形態では、機動カメラ部205'が1台(クレーンカメラ1402)の場合について示しているが、これに限らない。機動カメラ部205'が複数台存在する場合であっても、ユーザによってスイッチング指示されたカメラ1台に対して処理を実施することができる。 Also, in the present embodiment, the case where there is one mobile camera unit 205' (the crane camera 1402) is shown, but the present invention is not limited to this. Even if there are a plurality of mobile camera units 205', processing can be performed for one camera for which a switching instruction is given by the user.

以上説明したように、本実施形態によれば、追尾対象となっている被写体を撮影できないカメラへのスイッチングを抑制し、追尾対象となっている被写体が映っていない映像が表示されることを抑制することができる。 As described above, according to the present embodiment, switching to a camera that cannot capture the subject to be tracked is suppressed, and display of an image that does not capture the subject to be tracked is suppressed. can do.

(実施形態5)
本実施形態では、被写体の追尾を行っている際、特にカメラに映っていない被写体との衝突を回避する例を説明する。
(Embodiment 5)
In this embodiment, an example of avoiding collision with a subject that is not captured by the camera when tracking the subject will be described.

<構成>
本実施形態に係る撮影制御システムのハードウェア構成は、図1に示したハードウェア構成と同一であるため、説明を省略する。また、本実施形態に係る撮影制御システムの機能ブロックの構成は、図10に示した構成と同一であるため、説明を省略する。
<Configuration>
Since the hardware configuration of the imaging control system according to this embodiment is the same as the hardware configuration shown in FIG. 1, the description thereof will be omitted. Also, since the configuration of the functional blocks of the imaging control system according to this embodiment is the same as the configuration shown in FIG. 10, the description thereof will be omitted.

<処理>
図15は、本実施形態に係る処理の手順を示すフローチャートである。なお、ステップS301乃至ステップS307、ステップS801及びステップS802、ステップS1101乃至ステップS1103の各処理は、図3、図8及び図11の対応する各処理と同様である。
<Processing>
FIG. 15 is a flowchart showing the procedure of processing according to this embodiment. Note that each process of steps S301 to S307, steps S801 and S802, and steps S1101 to S1103 is the same as the corresponding processes in FIGS.

本実施形態では、ステップS305における被写体との衝突判定処理の結果、Yesである場合、ステップS1501へ進み、Noである場合、ステップS306へ進む。 In this embodiment, if the result of the collision determination process with the subject in step S305 is Yes, the process proceeds to step S1501, and if No, the process proceeds to step S306.

ステップS1501において、カメラパラメータ演算部207は、ステップS305で被写体との衝突が予測されたため、衝突を回避するような機動カメラ部のカメラパラメータを求める。すなわち、機動カメラ部を退避するためのカメラパラメータを求める。 In step S1501, the camera parameter calculation unit 207 obtains camera parameters of the mobile camera unit that avoid the collision because the collision with the object is predicted in step S305. That is, the camera parameters for retracting the mobile camera unit are obtained.

ステップS1502において、スイッチング部1001は、ステップS1501で回避処理を行った機動カメラ部(例えばクレーンカメラ)から、別の機動カメラ部(例えばワイヤカメラ)へのスイッチング処理を行う。 In step S1502, the switching unit 1001 performs switching processing from the mobile camera unit (eg, crane camera) that performed the avoidance processing in step S1501 to another mobile camera unit (eg, wire camera).

ここで、図16は、本実施形態に係るサッカーの試合の場面の一部を示した模式図である。図16は、選手1601がボールを蹴って、選手1602の頭上を越え、軌跡1603を通って飛んでいく様子を表している。 Here, FIG. 16 is a schematic diagram showing part of a scene of a soccer match according to this embodiment. FIG. 16 shows how a player 1601 kicks the ball over the head of a player 1602 and flies along a trajectory 1603 .

クレーンカメラ1604は、ゴールキーパー1605を追尾するように予めユーザによって設定されたカメラである。 A crane camera 1604 is a camera preset by the user to track the goalkeeper 1605 .

ワイヤカメラ1606は、クレーンカメラ1604と同様に、予めユーザによってゴールキーパー1605を追尾するように設定され、撮影を行っているカメラである。 The wire camera 1606 is a camera that is set in advance by the user to track the goalkeeper 1605 and shoots, like the crane camera 1604 .

ボールは軌跡1603を描いて、クレーンカメラ1604に接近しており、カメラパラメータ演算部207が、ステップS305の処理によって衝突が予測されると判定し、ステップS1501によって衝突を回避するカメラパラメータが求められる。例えば、クレーンカメラ1604がゴールキーパー1605の追尾を中断し、位置1607にクレーンカメラ1604を退避させるためのカメラパラメータが求められる。クレーンカメラ1604は退避するため、ステップS1502の処理においてスイッチング部1001によって映像がワイヤカメラ1606の映像に切り替えられる。そして、ワイヤカメラ1606によってゴールキーパー1605を撮影した映像を継続して出力することができる。 The ball draws a trajectory 1603 and is approaching the crane camera 1604. The camera parameter calculation unit 207 determines that a collision is predicted by the processing in step S305, and the camera parameters for avoiding the collision are obtained in step S1501. . For example, camera parameters for crane camera 1604 to stop tracking goalkeeper 1605 and to retreat to position 1607 are obtained. Since the crane camera 1604 is retracted, the image is switched to the image of the wire camera 1606 by the switching unit 1001 in the process of step S1502. Then, the video image of the goalkeeper 1605 captured by the wire camera 1606 can be continuously output.

以上説明したように、本実施形態によれば、被写体の追尾を行っている際、ある機動カメラ部(図16の例ではクレーンカメラ1604)の映像に映っていない被写体と当該機動カメラ部との衝突を回避することができる。さらに、回避によって所望の映像が撮影できなくなることを抑止することができる。 As described above, according to the present embodiment, when tracking a subject, a subject that is not captured in the image of a certain mobile camera section (the crane camera 1604 in the example of FIG. 16) and the mobile camera section can be detected. Collisions can be avoided. Furthermore, it is possible to prevent a situation in which a desired image cannot be captured due to avoidance.

なお、本実施形態では、回避と同時に他の機動カメラ部への切り替えを行っているが、これに限らない。例えば、クレーンカメラ1604が回避している間に、追尾対象となっているゴールキーパー1605をパンやチルトなどの操作によってクレーンカメラ1604で追尾可能である場合は追尾を続けてもよい。そして、追尾できなくなった場合に、他の機動カメラ部へスイッチングするように制御してもよい。 In this embodiment, switching to another mobile camera unit is performed at the same time as avoidance, but the present invention is not limited to this. For example, while the crane camera 1604 is avoiding, if the goalkeeper 1605 to be tracked can be tracked by the crane camera 1604 by panning, tilting, or the like, the tracking may be continued. Then, when tracking becomes impossible, control may be performed so as to switch to another mobile camera unit.

また、ステップS1502のスイッチング処理によって切り替えられたワイヤカメラ1606がゴールキーパー1605ではなくボールを追尾していた場合であってもスイッチングしてもよい。また、クレーンカメラ1604は、スイッチングと同時に、新たにゴールキーパー1605を追尾するように制御を変更してもよい。 Also, even if the wire camera 1606 switched by the switching process in step S1502 is tracking the ball instead of the goalkeeper 1605, the switching may be performed. Also, the crane camera 1604 may change control so as to newly track the goalkeeper 1605 at the same time as the switching.

また、位置1607に退避したクレーンカメラ1604がボールの回避を終え、再度ゴールキーパー1605の追尾を開始し、ゴールキーパー1605の撮影が可能となった際には、ワイヤカメラ1606からクレーンカメラ1604に映像をスイッチングするように制御してもよい。 In addition, when the crane camera 1604 that has retreated to the position 1607 finishes avoiding the ball and starts tracking the goalkeeper 1605 again, and it becomes possible to photograph the goalkeeper 1605, the image from the wire camera 1606 is sent to the crane camera 1604. may be controlled to switch.

また、被写体との衝突回避を行う際に切り替える映像は、特定の機動カメラ部の画像ではなく、仮想カメラの仮想視点画像であってもよい。また、この時の仮想視点画像のカメラパラメータは、クレーンカメラ1604の回避前のカメラパラメータを基準として衝突が予測されない場合に取りうるカメラパラメータとして映像生成を継続してもよい。そして、クレーンカメラ1604が衝突回避処理を終え、再度ゴールキーパー1605の追尾を開始した後に、クレーンカメラ1604の映像に切り替えるように制御してもよい。また、この時の仮想カメラからクレーンカメラ1604への映像切り替えは、クレーンカメラ1604のカメラパラメータと仮想カメラのカメラパラメータとが一致する場合に行ってもよい。 Also, the video to be switched when collision avoidance with a subject is performed may be a virtual viewpoint image of a virtual camera instead of an image of a specific mobile camera unit. In addition, the camera parameters of the virtual viewpoint image at this time may continue video generation as camera parameters that can be taken when a collision is not predicted based on the camera parameters of the crane camera 1604 before avoidance. After the crane camera 1604 finishes the collision avoidance processing and starts tracking the goalkeeper 1605 again, it may be controlled to switch to the image of the crane camera 1604 . Also, the image switching from the virtual camera to the crane camera 1604 at this time may be performed when the camera parameters of the crane camera 1604 and the camera parameters of the virtual camera match.

また、仮想カメラの仮想視点画像に切り替える場合は、すべての機動カメラ部について被写体との衝突が予測された場合であってもよい。また、仮想カメラの仮想視点画像に切り替える場合は、追尾対象の被写体が撮影画像に映っている機動カメラ部が他に存在しない場合であってもよい。 Further, when switching to the virtual viewpoint image of the virtual camera, it may be the case that the collision with the subject is predicted for all the mobile camera units. Also, when switching to the virtual viewpoint image of the virtual camera, it may be the case that there is no other mobile camera unit in which the subject to be tracked is captured in the captured image.

[各実施形態の変形例]
なお、上術の各実施形態では、サッカーの試合を例に説明を行っているが、これに限定されない。サッカー以外のスポーツやコンサートステージ、演劇や講演等、どのような対象を撮影するものであってもよい。
[Modified example of each embodiment]
In each of the above-described embodiments, a soccer match is described as an example, but the present invention is not limited to this. Any object such as sports other than soccer, a concert stage, a play, a lecture, or the like may be photographed.

また、上述の各実施形態では、動作可能範囲は、カメラ機構制御部206を用いて対象となる被写体を機動カメラ部205が実際に画像として捉えることのできる範囲であるものとして説明を行ったが、これに限定されない。動作可能範囲は、対象となる被写体を機動カメラ部205で撮影した際に、一定の条件を満たすことのできる範囲としてもよい。一定の条件とは、例えば、機動カメラ部205によって撮影される映像の画素の中心からmピクセル以内など、対象となる被写体が映像の基準となる範囲内に捉えることができる場合を示してもよい。あるいは、対象となる被写体が、実物の大きさに対して、1m辺りnピクセル以上の解像度で撮影可能な範囲など、解像度によって閾値を定めてもよい。また、解像度の基準は、被写体の形状を直接用いるだけではなく、オブジェトのバウンディングボックスを基準としてもよい。また、動作可能範囲は、ユーザによって指定された座標範囲であってもよい。 Further, in each of the above-described embodiments, the operable range is a range in which the mobile camera unit 205 can actually capture an image of the target subject using the camera mechanism control unit 206. , but not limited to. The operable range may be a range that satisfies a certain condition when the target subject is photographed by the mobile camera unit 205 . A certain condition may indicate a case in which the target subject can be captured within a reference range of the image, such as within m pixels from the center of the pixels of the image captured by the mobile camera unit 205, for example. . Alternatively, the threshold may be determined according to the resolution, such as a range in which the target object can be photographed with a resolution of n pixels or more per meter with respect to the size of the actual object. In addition, the reference of the resolution may be based on the bounding box of the object instead of directly using the shape of the subject. Also, the operable range may be a coordinate range designated by the user.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the embodiments described above, and various modifications and variations are possible without departing from the spirit and scope of the invention. Accordingly, the claims are appended to make public the scope of the invention.

100:撮影制御システム、201:仮想視点画像生成用カメラ部、202:形状推定処理部、203:被写体抽出部、204:ユーザ操作部、205:機動カメラ部、206:カメラ機構制御部、207:カメラパラメータ演算部、208:カメラ可動範囲取得部、209:仮想視点画像生成部 100: shooting control system, 201: virtual viewpoint image generation camera unit, 202: shape estimation processing unit, 203: subject extraction unit, 204: user operation unit, 205: mobile camera unit, 206: camera mechanism control unit, 207: Camera parameter calculation unit, 208: camera movable range acquisition unit, 209: virtual viewpoint image generation unit

Claims (13)

複数の撮影装置により撮影された複数の撮影画像から被写体の3次元形状を推定して前記被写体のモデル情報を生成する形状推定手段と、
前記複数の撮影画像と前記モデル情報とに基づいて仮想視点画像を生成する仮想視点画像生成手段と、
前記モデル情報に基づいて、前記複数の撮影装置とは異なる少なくとも1つの撮影手段の位置姿勢を変化させるように制御する制御手段と、
を備えることを特徴とする撮影制御システム。
a shape estimating means for estimating a three-dimensional shape of a subject from a plurality of captured images captured by a plurality of imaging devices and generating model information of the subject;
virtual viewpoint image generation means for generating a virtual viewpoint image based on the plurality of captured images and the model information;
control means for controlling to change the position and orientation of at least one photographing means different from the plurality of photographing devices based on the model information;
A shooting control system comprising:
前記3次元形状が推定された被写体の中から、ユーザ操作に基づいて被写体の指定を受け付けるユーザ操作手段をさらに備え、
前記制御手段は、前記ユーザ操作により指定された被写体を追尾するように前記撮影手段を制御することを特徴とする請求項1に記載の撮影制御システム。
further comprising user operation means for accepting designation of a subject based on a user operation from among the subjects whose three-dimensional shape has been estimated,
2. The photographing control system according to claim 1, wherein said control means controls said photographing means so as to track a subject designated by said user's operation.
前記制御手段は、前記少なくとも1つの撮影手段の位置姿勢の可動範囲内で、前記ユーザ操作により指定された被写体を追尾するように前記撮影手段を制御することを特徴とする請求項2に記載の撮影制御システム。 3. The apparatus according to claim 2, wherein said control means controls said photographing means so as to track the subject designated by said user operation within a movable range of the position and orientation of said at least one photographing means. shooting control system. 前記制御手段は、追尾対象の被写体が前記少なくとも1つの撮影手段の位置姿勢の可動範囲内にない場合、前記少なくとも1つの撮影手段が前記可動範囲内で追尾対象の被写体に最も近くなるように前記撮影手段を制御することを特徴とする請求項3に記載の撮影制御システム。 When the subject to be tracked is not within the movable range of the position and orientation of the at least one photographing means, the control means controls the at least one photographing means to be closest to the subject to be tracked within the movable range. 4. The photographing control system according to claim 3, wherein the photographing means is controlled. 前記制御手段は、前記モデル情報に基づいて、前記少なくとも1つの撮影手段の撮影画像において追尾対象の被写体が他の被写体に隠れないように前記撮影手段を制御することを特徴とする請求項1乃至4の何れか1項に記載の撮影制御システム。 3. The controlling means controls the photographing means so that the subject to be tracked is not hidden behind other subjects in the photographed image of the at least one photographing means, based on the model information. 5. The imaging control system according to any one of 4. 第1の撮影手段の撮影画像に追尾対象の被写体が映っているか否かを判定する判定手段と、
前記判定手段により前記第1の撮影手段の撮影画像に追尾対象の被写体が映っていないと判定された場合、追尾対象の被写体が映っている第2の撮影手段に切り替える切替手段と、
をさらに備えることを特徴とする請求項1乃至5の何れか1項に記載の撮影制御システム。
Determination means for determining whether or not a subject to be tracked is shown in an image captured by the first imaging means;
a switching means for switching to a second photographing means in which the subject to be tracked is shown when the judging means judges that the subject to be tracked is not shown in the photographed image of the first photographing means;
6. The imaging control system according to any one of claims 1 to 5, further comprising:
前記ユーザ操作手段により撮影手段の切り替え指示が入力された場合、追尾対象の被写体が切り替え先の撮影手段の可動範囲内にあるか否かに応じて、撮影手段の切り替え可否を制御する制御手段をさらに備えることを特徴とする請求項2乃至4の何れか1項に記載の撮影制御システム。 When an instruction to switch the photographing means is input by the user operation means, a control means for controlling whether or not the photographing means can be switched according to whether or not the subject to be tracked is within the movable range of the photographing means to be switched to. 5. The imaging control system according to any one of claims 2 to 4, further comprising: 前記制御手段は、追尾対象の被写体が切り替え先の撮影手段の可動範囲内にない場合、撮影手段の切り替えを行わないことを特徴とする請求項7に記載の撮影制御システム。 8. The photographing control system according to claim 7, wherein the control means does not switch the photographing means when the subject to be tracked is not within the movable range of the photographing means to be switched to. 前記モデル情報に基づいて、追尾対象の被写体を撮影する第1の撮影手段と、前記追尾対象の被写体及び他の被写体との少なくとも一方との衝突を予測する予測手段をさらに備え、
前記制御手段は、前記衝突が予測される場合、前記衝突を回避するように前記第1の撮影手段を退避することを特徴とする請求項1乃至5の何れか1項に記載の撮影制御システム。
further comprising: first photographing means for photographing a subject to be tracked based on the model information; and prediction means for predicting a collision with at least one of the subject to be tracked and another subject;
6. The photographing control system according to claim 1, wherein when the collision is predicted, the control means retracts the first photographing means so as to avoid the collision. .
前記制御手段により退避された前記第1の撮影手段から第2の撮影手段に切り替える切替手段をさらに備えることを特徴とする請求項9に記載の撮影制御システム。 10. The photographing control system according to claim 9, further comprising switching means for switching from said first photographing means retracted by said control means to second photographing means. 前記制御手段により退避された前記第1の撮影手段の撮影画像から、前記仮想視点画像生成手段により生成された仮想視点画像に切り替える切替手段をさらに備えることを特徴とする請求項9に記載の撮影制御システム。 10. The photographing according to claim 9, further comprising switching means for switching from the photographed image of said first photographing means saved by said control means to the virtual viewpoint image generated by said virtual viewpoint image generating means. control system. 前記切替手段は、前記第1の撮影手段を除いた他の全ての撮影手段について被写体との衝突が予測された場合、又は、追尾対象の被写体が撮影画像に映っている撮影手段が他に存在しない場合に、前記第1の撮影手段の撮影画像から前記仮想視点画像に切り替えることを特徴とする請求項11に記載の撮影制御システム。 The switching means is operated when a collision with the subject is predicted for all other photographing means except for the first photographing means, or when there is another photographing means in which the subject to be tracked appears in the photographed image. 12. The photographing control system according to claim 11, wherein the image photographed by the first photographing means is switched to the virtual viewpoint image when the image is not to be displayed. 撮影制御システムの動作方法であって、
複数の撮影装置により撮影された複数の撮影画像から被写体の3次元形状を推定して前記被写体のモデル情報を生成する形状推定工程と、
前記複数の撮影画像と前記モデル情報とに基づいて仮想視点画像を生成する仮想視点画像生成工程と、
前記モデル情報に基づいて、前記複数の撮影装置とは異なる少なくとも1つの撮影手段の位置姿勢を変化させるように制御する制御工程と、
を有することを特徴とする撮影制御システムの動作方法。
A method of operating a capture control system, comprising:
a shape estimation step of estimating a three-dimensional shape of a subject from a plurality of captured images captured by a plurality of imaging devices and generating model information of the subject;
a virtual viewpoint image generating step of generating a virtual viewpoint image based on the plurality of captured images and the model information;
a control step of controlling to change the position and orientation of at least one photographing device different from the plurality of photographing devices based on the model information;
A method of operating a photographing control system, comprising:
JP2021124672A 2021-07-29 2021-07-29 Imaging control system and operation method of the same Pending JP2023019727A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021124672A JP2023019727A (en) 2021-07-29 2021-07-29 Imaging control system and operation method of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021124672A JP2023019727A (en) 2021-07-29 2021-07-29 Imaging control system and operation method of the same

Publications (1)

Publication Number Publication Date
JP2023019727A true JP2023019727A (en) 2023-02-09

Family

ID=85159828

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021124672A Pending JP2023019727A (en) 2021-07-29 2021-07-29 Imaging control system and operation method of the same

Country Status (1)

Country Link
JP (1) JP2023019727A (en)

Similar Documents

Publication Publication Date Title
JP6918455B2 (en) Image processing equipment, image processing methods and programs
JP7349793B2 (en) Image processing device, image processing method, and program
JP6938123B2 (en) Display control device, display control method and program
JP7267753B2 (en) Control device, control method, and program
WO2020050103A1 (en) Virtual viewpoint control device and method for controlling same
US11847735B2 (en) Information processing apparatus, information processing method, and recording medium
JP7446754B2 (en) Image processing device, image processing method, and program
JP6812181B2 (en) Image processing device, image processing method, and program
US11831853B2 (en) Information processing apparatus, information processing method, and storage medium
CN110891168A (en) Information processing apparatus, information processing method, and storage medium
US11468258B2 (en) Information processing apparatus, information processing method, and storage medium
US20230353717A1 (en) Image processing system, image processing method, and storage medium
JP2022016929A (en) Information processing device, information processing method, and program
JP2023057124A (en) Image processing apparatus, method, and program
US20230074282A1 (en) Information processing apparatus, information processing method, and program
JP2023019727A (en) Imaging control system and operation method of the same
JP7322191B2 (en) Information processing device, information processing method, and program
JP7455524B2 (en) Information processing device, setting method, and program
JP2022110751A (en) Information processing device, information processing method, and program
US20240078687A1 (en) Information processing apparatus, information processing method, and storage medium
JP2022077380A (en) Image processing device, image processing method and program
US20240037843A1 (en) Image processing apparatus, image processing system, image processing method, and storage medium
US20240046552A1 (en) Generation apparatus, generation method, and non-transitory computer-readable storage medium
WO2024070762A1 (en) Information processing device, information processing method, and program
JP2023163133A (en) Image processing system, image processing method, and computer program