JP2022029567A - Control device, control method, and program - Google Patents

Control device, control method, and program Download PDF

Info

Publication number
JP2022029567A
JP2022029567A JP2020132904A JP2020132904A JP2022029567A JP 2022029567 A JP2022029567 A JP 2022029567A JP 2020132904 A JP2020132904 A JP 2020132904A JP 2020132904 A JP2020132904 A JP 2020132904A JP 2022029567 A JP2022029567 A JP 2022029567A
Authority
JP
Japan
Prior art keywords
range
camera
shooting
image
focusing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020132904A
Other languages
Japanese (ja)
Inventor
良樹 岩切
Yoshiki Iwakiri
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020132904A priority Critical patent/JP2022029567A/en
Publication of JP2022029567A publication Critical patent/JP2022029567A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

To enable the generation of a high-quality virtual viewpoint image.SOLUTION: A control device includes parameter acquisition means that acquires a shooting parameter from a shooting device used to generate a virtual viewpoint image, and range control means that controls a focusing range of the shooting device such that an image generation range included in an imaging range of the shooting device in a range for generation of a virtual viewpoint image is included in the focusing range of the shooting device specified on the basis of the acquired shooting parameter.SELECTED DRAWING: Figure 4

Description

本発明は、撮影装置を制御する技術に関する。 The present invention relates to a technique for controlling a photographing device.

従来、異なる位置に設置された複数の撮影装置によって複数の方向から実空間内の被写体等を同期して撮影し、それら撮影にて得られた複数の撮影画像を用いて仮想視点画像を生成する技術が知られている。仮想視点画像は、撮影装置の設置位置に限定されない仮想的な視点における見え方を表す画像である。 Conventionally, a plurality of photographing devices installed at different positions synchronizely photograph a subject in a real space from a plurality of directions, and a virtual viewpoint image is generated using a plurality of captured images obtained by those photographs. The technology is known. The virtual viewpoint image is an image showing the appearance from a virtual viewpoint, which is not limited to the installation position of the photographing device.

複数の撮影装置で取得された複数の撮影画像を用いて仮想視点画像を生成する場合において、各撮影装置の合焦範囲(ピントが合っている範囲)が重なっている部分の画像を用いれば、高画質の仮想視点画像を生成することができる。特許文献1には、複数の撮影装置を合焦範囲の共通部分(重なる部分)が大きくなるように制御することで、広い範囲において高画質の仮想視点画像を生成可能とする技術が開示されている。 When generating a virtual viewpoint image using a plurality of captured images acquired by a plurality of photographing devices, if the image of the part where the in-focus range (the in-focus range) of each photographing device overlaps is used, It is possible to generate a high-quality virtual viewpoint image. Patent Document 1 discloses a technique capable of generating a high-quality virtual viewpoint image in a wide range by controlling a plurality of photographing devices so that a common portion (overlapping portion) of the focusing range becomes large. There is.

特開2019-161462号公報Japanese Unexamined Patent Publication No. 2019-161462

しかしながら、仮想視点画像生成の対象になる被写体等が各撮影装置の合焦範囲から外れることがある。撮影装置の合焦範囲から外れた被写体等の画像領域は合焦度の低い低品位な画像になり、その合焦度の低い低品位な画像領域から生成される仮想視点画像の画質は低くなる虞がある。 However, the subject or the like that is the target of virtual viewpoint image generation may be out of the focusing range of each photographing device. An image area such as a subject outside the focusing range of the photographing device becomes a low-quality image with a low degree of focusing, and the image quality of a virtual viewpoint image generated from the low-quality image area having a low degree of focusing becomes low. There is a risk.

そこで、本発明は、高画質の仮想視点画像の生成を可能にすることを目的とする。 Therefore, an object of the present invention is to enable the generation of a high-quality virtual viewpoint image.

本発明の制御装置は、仮想視点画像を生成するために用いられる撮影装置から撮影パラメータを取得するパラメータ取得手段と、前記仮想視点画像の生成の対象となる範囲のうち当該撮影装置の撮像範囲に含まれる画像生成範囲が、前記取得された前記撮影パラメータに基づいて特定される撮影装置の合焦範囲に含まれるように、前記撮影装置の合焦範囲を制御する範囲制御手段と、を有することを特徴とする。 The control device of the present invention includes a parameter acquisition means for acquiring shooting parameters from a shooting device used for generating a virtual viewpoint image, and an imaging range of the shooting device in the range to be generated of the virtual viewpoint image. Having a range control means for controlling the focusing range of the imaging device so that the included image generation range is included in the focusing range of the imaging device specified based on the acquired imaging parameters. It is characterized by.

本発明によれば、高画質の仮想視点画像の生成が可能となる。 According to the present invention, it is possible to generate a high-quality virtual viewpoint image.

システム構成を示す図である。It is a figure which shows the system configuration. 複数カメラの配置例を示す図である。It is a figure which shows the arrangement example of a plurality of cameras. 制御装置のハードウェア構成を示す図である。It is a figure which shows the hardware configuration of a control device. 制御装置の機能構成を示す図である。It is a figure which shows the functional structure of a control device. カメラからの距離とボケ量の関係を示す図である。It is a figure which shows the relationship between the distance from a camera and the amount of blur. 合焦位置と合焦領域の関係を示す図である。It is a figure which shows the relationship between the focusing position and the focusing area. 合焦領域と参照空間領域の関係を示す図である。It is a figure which shows the relationship between the in-focus area and a reference space area. 画像生成範囲とボケ量の関係を示す図である。It is a figure which shows the relationship between the image generation range and the amount of blur. 合焦点の移動による合焦範囲の変化を示す図である。It is a figure which shows the change of the focusing range by the movement of a focusing focus. フォーカスレンズ調整時の制御フローチャートである。It is a control flowchart at the time of a focus lens adjustment. フォーカスレンズ調整による合焦位置の変化を示す図である。It is a figure which shows the change of the focusing position by the focus lens adjustment. フォーカス枠移動による制御フローチャートである。It is a control flowchart by moving a focus frame. フォーカス枠移動による合焦位置の変化を示す図である。It is a figure which shows the change of the focusing position by the movement of a focus frame. 画面内のフォーカス枠の位置を示す図である。It is a figure which shows the position of the focus frame in a screen. 被写界深度の変化による合焦範囲の変化を示す図である。It is a figure which shows the change of the focusing range by the change of the depth of field. 被写界深度調整による制御フローチャートである。It is a control flowchart by adjusting the depth of field.

以下、本発明の実施形態を、添付の図面に基づいて詳細に説明する。なお、以下の実施形態において示す構成は一例にすぎず、本発明は図示された構成に限定されるものではない。また同一の構成または処理については、同じ参照符号を付して説明する。
<第1の実施形態>
図1は、仮想視点画像を生成する本実施形態に係る画像処理システム10の構成の一例を示している。画像処理システム10は、複数の撮影装置(以下、カメラとする)からなるカメラ群100と、ハブ210と、UI(User Interface)部260と、制御装置220と、画像生成装置230と、仮想視点設定部240とを有する。
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. The configuration shown in the following embodiments is only an example, and the present invention is not limited to the illustrated configuration. Further, the same configuration or processing will be described with the same reference numerals.
<First Embodiment>
FIG. 1 shows an example of the configuration of the image processing system 10 according to the present embodiment that generates a virtual viewpoint image. The image processing system 10 includes a camera group 100 composed of a plurality of photographing devices (hereinafter referred to as cameras), a hub 210, a UI (User Interface) unit 260, a control device 220, an image generation device 230, and a virtual viewpoint. It has a setting unit 240.

図2は、カメラ群100に含まれる複数のカメラ101~110の配置の一例を示している。
図2に示すように、複数のカメラ101~110は、仮想視点画像の生成に用いる画像を取得する撮影装置である。これらカメラ101~110は、競技場を取り囲むように配置されている。これらカメラ101~110のレンズは、同一の注視点130に向けられ、それぞれ異なる方向から撮影を行って、仮想視点画像の生成に用いられる複数の撮影画像を取得する。本実施形態における注視点130は、複数のカメラ101~110の光軸が交わる点、すなわち複数のカメラ101~110における撮影画像の中心に対応する点であるとする。ただし、必ずしもすべてのカメラの光軸が注視点において交わらなくてもよく、少なくとも複数のカメラの撮影画像内に注視点が含まれていればよい。この場合、あるカメラの光軸上の位置のうち他のカメラの光軸に最も近接する位置が、そのカメラにとっての注視点となる。
FIG. 2 shows an example of the arrangement of a plurality of cameras 101 to 110 included in the camera group 100.
As shown in FIG. 2, the plurality of cameras 101 to 110 are photographing devices for acquiring an image used for generating a virtual viewpoint image. These cameras 101 to 110 are arranged so as to surround the stadium. The lenses of these cameras 101 to 110 are pointed at the same gaze point 130 and take pictures from different directions to acquire a plurality of captured images used for generating a virtual viewpoint image. It is assumed that the gazing point 130 in the present embodiment is a point where the optical axes of the plurality of cameras 101 to 110 intersect, that is, a point corresponding to the center of the captured image in the plurality of cameras 101 to 110. However, the optical axes of all the cameras do not necessarily have to intersect at the gazing point, and it is sufficient that the gazing points are included in the images taken by at least a plurality of cameras. In this case, the position closest to the optical axis of another camera among the positions on the optical axis of one camera is the gazing point for that camera.

カメラ群100に含まれる各カメラ101~110は、例えばデジタルカメラであるとする。なお、各カメラは、静止画像または動画像のいずれかを撮影するカメラであってもよいし、静止画像と動画像の両方を撮影するカメラであってもよい。本実施形態では、画像という文言を、特に断りがない限り静止画及び動画を含むものとして説明する。また本実施形態の説明では、各構成要素間で通信される画像データを簡略化して画像と記している。また本実施形態では、撮像センサを有する撮像部と光線を撮像センサに集めるレンズとを少なくとも含む撮影装置を、カメラと呼んでいる。画像処理システム10は、カメラ群100の各カメラ101~110でそれぞれ取得された複数の撮影画像を用いて、注視点130付近で発生するシーンの仮想視点画像を生成可能なシステムである。 It is assumed that each of the cameras 101 to 110 included in the camera group 100 is, for example, a digital camera. Each camera may be a camera that captures either a still image or a moving image, or may be a camera that captures both a still image and a moving image. In the present embodiment, the word "image" will be described as including still images and moving images unless otherwise specified. Further, in the description of the present embodiment, the image data communicated between the constituent elements is simply referred to as an image. Further, in the present embodiment, a shooting device including at least an image pickup unit having an image pickup sensor and a lens that collects light rays in the image pickup sensor is called a camera. The image processing system 10 is a system capable of generating a virtual viewpoint image of a scene generated in the vicinity of the gazing point 130 by using a plurality of captured images acquired by each of the cameras 101 to 110 of the camera group 100.

なお、本実施形態では簡略化のために注視点が1つである場合を挙げて説明するが、これに限らず、注視点は複数存在していてもよい。すなわちカメラ群100に含まれる一部のカメラは第1の注視点を向いて撮影を行い、その他のカメラは第1の注視点とは異なる第2の注視点を向いて撮影を行ってもよい。また、カメラ群100に含まれるカメラの台数は10台に限定されるものではなく、さらに多数のカメラが含まれていてもよい。また、カメラ群100に含まれる各カメラの配置は、注視点130を全方向から取り囲むような配置に限定されるものではない。また、カメラ群100の設置場所は、競技場に限らず、劇場やライブステージなどであってもよい。 In this embodiment, the case where there is only one gazing point will be described for simplification, but the present invention is not limited to this, and a plurality of gazing points may exist. That is, some cameras included in the camera group 100 may shoot with the first gazing point facing, and other cameras may shoot with the second gazing point different from the first gazing point. .. Further, the number of cameras included in the camera group 100 is not limited to 10, and a larger number of cameras may be included. Further, the arrangement of each camera included in the camera group 100 is not limited to the arrangement that surrounds the gazing point 130 from all directions. Further, the place where the camera group 100 is installed is not limited to the stadium, but may be a theater, a live stage, or the like.

カメラ群100で撮影された複数の撮影画像は、ハブ210を介して制御装置220と画像生成装置230とに送られる。
制御装置220は、カメラ群100に含まれる各カメラ101~110を制御する。本実施形態に係る制御装置220は、複数のカメラ101~110の各合焦範囲が、仮想視点画像生成の対象となる参照領域を含むように、それら各カメラ101~110の撮影パラメータを制御する。
The plurality of captured images captured by the camera group 100 are sent to the control device 220 and the image generation device 230 via the hub 210.
The control device 220 controls each of the cameras 101 to 110 included in the camera group 100. The control device 220 according to the present embodiment controls the shooting parameters of each of the cameras 101 to 110 so that each focusing range of the plurality of cameras 101 to 110 includes a reference area to be generated as a virtual viewpoint image. ..

撮影パラメータには、例えば、カメラのズーム値、フォーカス値、絞り値の、少なくとも何れかが含まれる。ただし、撮影パラメータの内容はこれらに限定されない。各カメラは、制御装置220から受信した指示に応じて撮影パラメータを変更する。第1の実施形態の場合、仮想視点画像生成の対象となる参照領域を含むようにカメラの合焦範囲を制御する際の撮影パラメータは、フォーカス値を調整するためのパラメータである。フォーカス値の調整とは、フォーカスレンズの位置を調整することであり、フォーカスレンズの位置が変更されることでカメラの合焦点は光軸に沿って移動する。 The shooting parameters include, for example, at least one of a camera zoom value, a focus value, and an aperture value. However, the contents of the shooting parameters are not limited to these. Each camera changes the shooting parameters according to the instruction received from the control device 220. In the case of the first embodiment, the shooting parameter when controlling the focusing range of the camera so as to include the reference area to be the target of virtual viewpoint image generation is a parameter for adjusting the focus value. The adjustment of the focus value is to adjust the position of the focus lens, and the focal point of the camera moves along the optical axis by changing the position of the focus lens.

また本実施形態において、仮想視点画像生成の対象となる参照領域とは、仮想視点画像生成の対象になる被写体等が存在可能な実空間領域に相当する。図2の場合、仮想視点画像生成の対象になる被写体等が存在可能な実空間領域とは、競技場のフィールド120において例えば選手や審判といった人物やボールのような、仮想視点画像生成の対象となる被写体が移動可能な実空間内の範囲である。そして第1の実施形態では、カメラの合焦範囲内に、仮想視点画像生成の対象になる被写体等が存在可能(移動可能)な実空間領域が含まれるように、カメラのフォーカス値を調整するための撮影パラメータを制御する。これらの詳細は後述する。以下の説明では、仮想視点画像生成の対象になる被写体等が存在可能(移動可能)な実空間領域を、参照空間領域と呼ぶことにする。 Further, in the present embodiment, the reference area to be generated as a virtual viewpoint image corresponds to a real space area in which a subject or the like to be generated as a virtual viewpoint image can exist. In the case of FIG. 2, the real space area in which the subject or the like to be the target of the virtual viewpoint image generation can exist is the target of the virtual viewpoint image generation such as a person such as a player or a referee or a ball in the field 120 of the stadium. It is a range in the real space where the subject can move. Then, in the first embodiment, the focus value of the camera is adjusted so that the focus range of the camera includes a real space area in which a subject or the like to be generated as a virtual viewpoint image can exist (moveable). Control the shooting parameters for. These details will be described later. In the following description, the real space area in which the subject or the like that is the target of virtual viewpoint image generation can exist (moveable) is referred to as a reference space area.

また制御装置220は、UI部260を介してユーザから指示を受け付け可能となされている。UI部260は、操作用のGUI(Graphical User Interface)を表示する表示部と、マウスやキーボード、操作ボタン、タッチパネルなどの操作部とを有し、ユーザによる操作を受け付ける。制御装置220は、UI部260からユーザ操作に応じた情報を受け取ると、その情報に基づいて、カメラ群100の各カメラに対し、それぞれ撮影に係る撮影パラメータの変更指示やカメラ位置(撮影位置)及び撮影方向の変更指示などを送信する。 Further, the control device 220 is capable of receiving instructions from the user via the UI unit 260. The UI unit 260 has a display unit that displays a GUI (Graphical User Interface) for operation, and an operation unit such as a mouse, keyboard, operation buttons, and touch panel, and accepts operations by the user. When the control device 220 receives information according to the user operation from the UI unit 260, the control device 220 gives an instruction to change the shooting parameters related to shooting and the camera position (shooting position) to each camera of the camera group 100 based on the information. And send instructions to change the shooting direction.

また、各カメラは電動型の雲台を有していてもよい。この場合、制御装置220は、各カメラの雲台を個別に制御可能であり、制御装置220からの指示によって各カメラの雲台が制御されることで、各カメラのカメラ位置や撮影方向が個別に変更される。 Further, each camera may have an electric pan head. In this case, the control device 220 can individually control the pan head of each camera, and the pan head of each camera is controlled by an instruction from the control device 220, so that the camera position and shooting direction of each camera are individually controlled. Will be changed to.

仮想視点設定部240は、ユーザによる操作に基づいて指定された仮想視点、あるいは自動で指定された仮想視点を設定する。そして、仮想視点設定部240は、その指定された仮想視点の情報を画像生成装置230に送る。
画像生成装置230は、ハブ210を介してカメラ群100から取得した複数の撮影画像と、仮想視点設定部240で設定された仮想視点の情報とを基に、仮想視点画像を生成する。
The virtual viewpoint setting unit 240 sets a virtual viewpoint designated based on an operation by the user or an automatically designated virtual viewpoint. Then, the virtual viewpoint setting unit 240 sends the information of the designated virtual viewpoint to the image generation device 230.
The image generation device 230 generates a virtual viewpoint image based on a plurality of captured images acquired from the camera group 100 via the hub 210 and information on the virtual viewpoint set by the virtual viewpoint setting unit 240.

画像生成装置230は、カメラ群100から取得した複数の撮影画像から、各撮影画像内の所定のオブジェクト領域とその他の領域とを分離する処理を実行し、その分離処理によって分離した所定のオブジェクト領域から3Dモデルを生成する。本実施形態において、所定のオブジェクト領域は、例えば、競技場内の選手や審判、ボールなどのような前景となる被写体領域である。分離処理では、撮影画像から、選手などの被写体領域である前景領域と、それ以外の領域である背景領域と、を分離する処理が行われる。これにより、画像生成装置230では、選手や審判、ボールなどの3Dモデルが生成される。 The image generation device 230 executes a process of separating a predetermined object area and other areas in each captured image from a plurality of captured images acquired from the camera group 100, and the predetermined object area separated by the separation process. Generate a 3D model from. In the present embodiment, the predetermined object area is a subject area that is a foreground such as a player, a referee, a ball, or the like in a stadium. In the separation process, a process of separating the foreground area, which is a subject area such as a player, and the background area, which is an other area, from the captured image is performed. As a result, the image generation device 230 generates 3D models of players, referees, balls, and the like.

そして、画像生成装置230は、仮想視点設定部240にて指定された仮想視点の位置及び向きを示す視点情報を取得し、その仮想視点の位置及び向きに応じて3Dモデルを用いたレンダリング処理を行う。これより、画像生成装置230では、指定された仮想視点における見えを表す仮想視点画像が生成される。本実施形態における仮想視点画像には、ユーザが任意に指定した視点に対応する任意視点画像(自由視点画像)が含まれる。また、複数の候補からユーザが指定した視点に対応する画像や、装置が自動で指定した視点に対応する画像も、仮想視点画像に含まれる。 Then, the image generation device 230 acquires viewpoint information indicating the position and orientation of the virtual viewpoint designated by the virtual viewpoint setting unit 240, and performs rendering processing using the 3D model according to the position and orientation of the virtual viewpoint. conduct. As a result, the image generation device 230 generates a virtual viewpoint image representing the appearance at the designated virtual viewpoint. The virtual viewpoint image in the present embodiment includes an arbitrary viewpoint image (free viewpoint image) corresponding to a viewpoint arbitrarily designated by the user. Further, an image corresponding to a viewpoint designated by the user from a plurality of candidates and an image corresponding to the viewpoint automatically designated by the device are also included in the virtual viewpoint image.

本実施形態のように、撮影画像から仮想視点画像を生成する処理には、Visual Hullなどの既知の方法を用いることができる。なお、仮想視点画像を生成するアルゴリズムは、これに限るものではなく、ビルボード方式など、3Dモデルを作らない方式でもよい。
そして、前述のようにして生成された仮想視点画像は、例えば視聴者が保持する視聴端末(不図示)などに送信される。これにより、その視聴端末において仮想視点画像が表示される。
As in the present embodiment, a known method such as Visual Hull can be used for the process of generating the virtual viewpoint image from the captured image. The algorithm for generating the virtual viewpoint image is not limited to this, and a method such as a billboard method that does not create a 3D model may be used.
Then, the virtual viewpoint image generated as described above is transmitted to, for example, a viewing terminal (not shown) held by the viewer. As a result, the virtual viewpoint image is displayed on the viewing terminal.

なお、画像処理システム10の構成は、図1に示した構成に限定されるものではない。カメラ群100に含まれる複数のカメラは、制御装置220や画像生成装置230に直接接続されていてもよいし、カメラ同士がデイジーチェーンで接続されていても良い。画像生成装置230は、単一の装置として構成されていてもよいし、互いに接続された複数の装置により構成されていてもよい。また、制御装置220がUI部260を内部に有していてもよいし、制御装置220と画像生成装置230とが一体となって構成されていてもよい。画像処理システム10に含まれる各装置は、有線で接続されていてもよいし、無線で接続されていてもよい。 The configuration of the image processing system 10 is not limited to the configuration shown in FIG. The plurality of cameras included in the camera group 100 may be directly connected to the control device 220 or the image generation device 230, or the cameras may be connected to each other by a daisy chain. The image generation device 230 may be configured as a single device, or may be configured by a plurality of devices connected to each other. Further, the control device 220 may have a UI unit 260 inside, or the control device 220 and the image generation device 230 may be integrally configured. Each device included in the image processing system 10 may be connected by wire or wirelessly.

図3は、制御装置220のハードウェア構成の一例を示した図である。
制御装置220は、CPU251、ROM252、RAM253、補助記憶装置254、通信I/F255、及びバス256を有する。
CPU251は、本実施形態に係るプログラムを含むコンピュータプログラムを実行することで制御装置220の全体を制御し、また各種データ処理を行う。なお、制御装置220がCPU251とは異なる1又は複数の専用のハードウェアを有し、CPU251による処理の少なくとも一部を専用のハードウェアが実行してもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。
FIG. 3 is a diagram showing an example of the hardware configuration of the control device 220.
The control device 220 includes a CPU 251 and a ROM 252, a RAM 253, an auxiliary storage device 254, a communication I / F 255, and a bus 256.
The CPU 251 controls the entire control device 220 by executing a computer program including the program according to the present embodiment, and also performs various data processing. The control device 220 may have one or more dedicated hardware different from the CPU 251 and the dedicated hardware may execute at least a part of the processing by the CPU 251. Examples of dedicated hardware include ASICs (Application Specific Integrated Circuits), FPGAs (Field Programmable Gate Arrays), and DSPs (Digital Signal Processors).

ROM252は、変更を必要としないプログラムやパラメータを格納する。RAM253は、ROM252や補助記憶装置254から供給されるプログラムやデータ、通信I/F255を介して外部から供給されるデータなどを一時記憶する。補助記憶装置254は、例えばハードディスクドライブ等で構成され、コンピュータプログラムや、画像および音声などの種々のコンテンツデータを記憶する。本実施形態に係るプログラムは、補助記憶装置254に記憶されていてもよいし、ROM252に記憶されていてもよい。本実施形態に係るプログラムは例えばRAM253に展開されてCPU251により実行される。 The ROM 252 stores programs and parameters that do not need to be changed. The RAM 253 temporarily stores programs and data supplied from the ROM 252 and the auxiliary storage device 254, data supplied from the outside via the communication I / F 255, and the like. The auxiliary storage device 254 is composed of, for example, a hard disk drive or the like, and stores computer programs and various content data such as images and sounds. The program according to this embodiment may be stored in the auxiliary storage device 254 or may be stored in the ROM 252. The program according to this embodiment is expanded to, for example, RAM 253 and executed by the CPU 251.

通信I/F255は、カメラ群100や画像生成装置230などの外部の装置との通信を行う。例えば、制御装置220が外部の装置と有線で接続される場合には、通信用のケーブルが通信I/F255に接続される。制御装置220が外部の装置と無線通信する機能を有する場合、通信I/F255はアンテナを備える。
バス256は、制御装置220の各部を繋いで情報を伝達する。
なお、制御装置220がUI部260を内部に有している場合には、図3に示す構成に加え、制御装置220は表示部や操作部を有する。
The communication I / F 255 communicates with an external device such as the camera group 100 or the image generation device 230. For example, when the control device 220 is connected to an external device by wire, a communication cable is connected to the communication I / F 255. When the control device 220 has a function of wirelessly communicating with an external device, the communication I / F 255 includes an antenna.
The bus 256 connects each part of the control device 220 to transmit information.
When the control device 220 has the UI unit 260 inside, the control device 220 has a display unit and an operation unit in addition to the configuration shown in FIG.

図示は省略するが、画像生成装置230のハードウェア構成も基本的に図3の構成と同様である。ただし、画像生成装置230の場合、CPU251は、ROM252または補助記憶装置254に記憶された仮想視点画像生成プログラムを実行することにより、前述した仮想視点画像を生成する処理を実行する。 Although not shown, the hardware configuration of the image generation device 230 is basically the same as the configuration of FIG. However, in the case of the image generation device 230, the CPU 251 executes the above-mentioned process of generating the virtual viewpoint image by executing the virtual viewpoint image generation program stored in the ROM 252 or the auxiliary storage device 254.

図4は、制御装置220の機能構成を示したブロック図である。
図4に示すように、制御装置220は、機能ブロックとして、画像取得部221、パラメータ取得部222、パラメータ設定部227、範囲取得部223、パラメータ決定部226、位置管理部225、及び領域設定部224を有する。
FIG. 4 is a block diagram showing a functional configuration of the control device 220.
As shown in FIG. 4, the control device 220 has an image acquisition unit 221, a parameter acquisition unit 222, a parameter setting unit 227, a range acquisition unit 223, a parameter determination unit 226, a position management unit 225, and an area setting unit as functional blocks. It has 224.

本実施形態において、範囲取得部223、領域設定部224、位置管理部225、パラメータ決定部226、およびパラメータ設定部227は、カメラ群100の各カメラの合焦範囲を制御する範囲制御部を構成する要素となされている。範囲制御部は、各カメラから取得された撮影パラメータに対応する各カメラの合焦範囲と、参照空間領域(仮想視点画像生成の対象になる被写体等が存在可能な実空間領域)に対応した画像生成範囲と、を基に各カメラの合焦範囲を制御する。画像生成範囲は、各カメラで異なる。画像生成範囲は、参照空間領域とカメラの撮像範囲とが重複する実空間における部分空間をいう。言い換えると、参照空間領域に対応した画像生成範囲とは、カメラの撮像範囲に含まれる参照空間領域である。また、画像生成範囲は、参照空間領域のうちカメラの撮像範囲に含まれる範囲でもある。カメラの撮像範囲には、参照空間領域のうちの一部が含まれてもよいし、参照空間領域の全部が含まれていてもよい。参照空間領域と画像生成範囲の詳細は後述する。 In the present embodiment, the range acquisition unit 223, the area setting unit 224, the position management unit 225, the parameter determination unit 226, and the parameter setting unit 227 constitute a range control unit that controls the focusing range of each camera of the camera group 100. It is an element to do. The range control unit is an image corresponding to the focusing range of each camera corresponding to the shooting parameters acquired from each camera and the reference space area (the real space area where the subject to be the target of virtual viewpoint image generation can exist). The focus range of each camera is controlled based on the generation range. The image generation range is different for each camera. The image generation range refers to a subspace in the real space where the reference space area and the image pickup range of the camera overlap. In other words, the image generation range corresponding to the reference space area is the reference space area included in the image pickup range of the camera. The image generation range is also a range included in the image pickup range of the camera in the reference space area. The image pickup range of the camera may include a part of the reference space area or may include the entire reference space area. Details of the reference space area and the image generation range will be described later.

画像取得部221は、ハブ210を介し、各カメラ101~110から撮影画像を取得してUI部260に送る。このときユーザは、UI部260により表示された画像を見ながら操作を行い、各カメラの位置及び向きの調整を指示したり、各カメラの焦点の調整を指定したりすることができる。 The image acquisition unit 221 acquires captured images from the cameras 101 to 110 via the hub 210 and sends them to the UI unit 260. At this time, the user can perform an operation while looking at the image displayed by the UI unit 260, instruct the adjustment of the position and orientation of each camera, and specify the adjustment of the focus of each camera.

パラメータ取得部222は、カメラ群100の各カメラから撮影パラメータを取得する。本実施形態の場合、パラメータ取得部222は、ハブ210を介し、各カメラ101~110から、現在のズーム値、フォーカス値、絞り値などの撮影に関する撮影パラメータを取得する。なお、フォーカス値に関しては、カメラが備えているレンズのフォーカスエンコーダ値だけでなく、画面内でフォーカスを合わせる位置を表すフォーカス枠の位置座標やフォーカス領域のコントラスト値を取得してもよい。 The parameter acquisition unit 222 acquires shooting parameters from each camera of the camera group 100. In the case of the present embodiment, the parameter acquisition unit 222 acquires shooting parameters related to shooting such as the current zoom value, focus value, and aperture value from the cameras 101 to 110 via the hub 210. Regarding the focus value, not only the focus encoder value of the lens provided in the camera but also the position coordinates of the focus frame indicating the position to be focused on the screen and the contrast value of the focus area may be acquired.

範囲取得部223は、パラメータ取得部222によってカメラ毎に取得された撮影パラメータに基づいて、カメラ毎に、合焦点の前後におけるピントが合う範囲である合焦範囲を取得する。合焦範囲の詳細は後述する。 The range acquisition unit 223 acquires an in-focus range, which is a range of focus before and after focusing, for each camera based on the shooting parameters acquired by the parameter acquisition unit 222 for each camera. The details of the focusing range will be described later.

領域設定部224は、参照空間領域を設定、すなわち仮想視点画像生成の対象になる被写体等が存在可能(移動可能)な実空間領域に関する設定を行う。本実施形態の場合、領域設定部224は、競技場のフィールド120において選手や審判といった人物やボールのような、仮想視点画像生成の対象となる被写体が移動可能な実空間内の範囲を、参照空間領域として設定する。図2の例では、競技場のフィールド120内及びそのフィールド120に描かれている線121から外側の周囲10mまでを含む範囲を底面とし、地面から高さ方向に5mの範囲までを含む、直方体形状の領域が参照空間領域に設定されるとする。 The area setting unit 224 sets the reference space area, that is, sets the real space area in which the subject or the like to be the target of the virtual viewpoint image generation can exist (moveable). In the case of the present embodiment, the area setting unit 224 refers to a range in the real space in which the subject to be the target of virtual viewpoint image generation, such as a person such as a player or a referee or a ball, can move in the field 120 of the stadium. Set as a spatial area. In the example of FIG. 2, the bottom surface is a range including the inside of the field 120 of the stadium and the area including the outer circumference of 10 m from the line 121 drawn in the field 120, and the rectangular parallelepiped including the range of 5 m in the height direction from the ground. It is assumed that the area of the shape is set as the reference space area.

なお、参照空間領域は前述の例に限定されるものではない。例えば、底面や地面からの高さは、競技に応じて異なる値になされてもよい。また、参照空間領域の形状は、直方体形状に限定されず、競技に応じて例えば球体や多面体となされてもよい。また参照空間領域の数は複数であってもよい。さらに、底面や地面からの高さ、参照空間領域の形状、及び参照空間領域の数の少なくとも一つ以上は、撮影の途中で変更されてもよい。撮影途中での参照空間領域の変更は、例えば、指定時間の到来、撮影画像内での特定被写体の検出や解析、UI部260を介したユーザ入力を、所定のトリガとして行われてもよい。本実施形態では、カメラから取得した撮影パラメータに対応する合焦範囲と、参照空間領域に対応した画像生成範囲とを基に、カメラの合焦範囲を制御するため、参照空間領域の数や形状が変われば画像生成範囲も変わることになる。また、所定のトリガに応じて参照空間領域の設定が変更される場合は、そのトリガに応じて画像生成範囲も変更される。 The reference space area is not limited to the above example. For example, the height from the bottom surface or the ground may be set to different values depending on the competition. Further, the shape of the reference space region is not limited to the rectangular parallelepiped shape, and may be, for example, a sphere or a polyhedron depending on the competition. Further, the number of reference space areas may be plural. Further, at least one of the height from the bottom surface and the ground, the shape of the reference space region, and the number of reference space regions may be changed during shooting. The change of the reference space area during shooting may be performed, for example, by the arrival of a designated time, detection and analysis of a specific subject in the shot image, and user input via the UI unit 260 as a predetermined trigger. In this embodiment, in order to control the focusing range of the camera based on the focusing range corresponding to the shooting parameters acquired from the camera and the image generation range corresponding to the reference space area, the number and shape of the reference space area are controlled. If is changed, the image generation range will also change. Further, when the setting of the reference space area is changed according to a predetermined trigger, the image generation range is also changed according to the trigger.

位置管理部225は、実空間内における各カメラ101~110のそれぞれのカメラ位置及びカメラの撮影方向を管理する。位置管理部225は、競技場内の特定の1点を世界座標(基準点)としたときの位置座標をカメラ毎のカメラ位置として管理し、また、そのカメラ位置からの撮影方向を管理する。なお、各カメラ101~110のカメラ位置及び撮影方向は、撮影の前にキャリブレーションを実施することで算出する。 The position management unit 225 manages the camera positions of the cameras 101 to 110 and the shooting direction of the cameras in the real space. The position management unit 225 manages the position coordinates when a specific point in the stadium is set as the world coordinates (reference point) as the camera position for each camera, and also manages the shooting direction from the camera position. The camera positions and shooting directions of the cameras 101 to 110 are calculated by performing calibration before shooting.

パラメータ決定部226は、カメラから取得された撮影パラメータに応じて範囲取得部223が取得した合焦範囲と、領域設定部224が設定した参照空間領域の設定情報と、位置管理部225が管理するカメラ位置座標及び撮影方向と、を取得する。さらにパラメータ決定部226は、それらを基に、参照空間領域に対応する画像生成範囲に対して適切な各カメラの合焦位置を算出する。そして、パラメータ決定部226は、カメラ毎に決定した合焦位置となるように、各カメラに対してそれぞれ設定するべき撮影パラメータを決定する。この詳細は後述する。 The parameter determination unit 226 manages the focusing range acquired by the range acquisition unit 223 according to the shooting parameters acquired from the camera, the setting information of the reference space area set by the area setting unit 224, and the position management unit 225. Acquire the camera position coordinates and the shooting direction. Further, the parameter determination unit 226 calculates an appropriate focusing position of each camera with respect to the image generation range corresponding to the reference space region based on them. Then, the parameter determination unit 226 determines the shooting parameters to be set for each camera so that the focusing position is determined for each camera. The details will be described later.

パラメータ設定部227は、パラメータ決定部226にて決定されたカメラ毎の撮影パラメータを、ハブ210を介して対応する各カメラに送ることで、それら各カメラに対してそれぞれ撮影パラメータを設定する。 The parameter setting unit 227 sends the shooting parameters for each camera determined by the parameter determination unit 226 to the corresponding cameras via the hub 210, and sets the shooting parameters for each camera.

本実施形態における各カメラの合焦範囲制御の手順について説明する前に、カメラにおける合焦点とボケ量との関係について説明する。
図5は、カメラの絞り値と合焦点を固定した場合の、当該カメラから被写体までの距離とボケ量との関係を特性曲線500により示している。合焦点340は、カメラの焦点が合っている位置(カメラからの距離)を表している。例えば固定された特定の被写体にカメラの焦点を合わせているとした場合、その被写体の位置が合焦点340となる。
Before explaining the procedure for controlling the in-focus range of each camera in the present embodiment, the relationship between the in-focus and the amount of blur in the camera will be described.
FIG. 5 shows the relationship between the distance from the camera to the subject and the amount of blur when the aperture value and the in-focus point of the camera are fixed by the characteristic curve 500. The in-focus 340 represents the in-focus position (distance from the camera) of the camera. For example, if the camera is focused on a specific fixed subject, the position of the subject is the focal point 340.

図5に示した特性曲線500では、合焦点340からカメラ側に近づく方向(図5の横軸の左方向)では、カメラからの距離の変化に応じて急激にボケ量が増加する。一方、カメラから遠ざかる方向(図5の横軸の右方向)では、カメラからの距離の変化に応じて緩やかにボケ量が増加する。本実施形態では、撮影画像から生成される仮想視点画像の画質に大きく影響しない程度のボケ量を、許容ボケ量310と定義する。そして本実施形態では、図5の縦軸に示したボケ量が許容ボケ量以下となっている横軸上の距離範囲を、カメラのピントが合っているとみなせる範囲とし、その範囲を合焦範囲350と定義する。本実施形態の場合、合焦範囲350の大きさは、例えばカメラの被写界深度に対応しているとする。なお、合焦範囲350の中心位置352は、合焦点340と比較してカメラから遠い位置となる。 In the characteristic curve 500 shown in FIG. 5, in the direction approaching the camera side from the focal point 340 (to the left of the horizontal axis in FIG. 5), the amount of blur increases sharply according to the change in the distance from the camera. On the other hand, in the direction away from the camera (to the right of the horizontal axis in FIG. 5), the amount of blur gradually increases according to the change in the distance from the camera. In the present embodiment, the allowable blur amount 310 is defined as the amount of blur that does not significantly affect the image quality of the virtual viewpoint image generated from the captured image. In the present embodiment, the distance range on the horizontal axis in which the amount of blur shown on the vertical axis of FIG. 5 is equal to or less than the allowable amount of blur is set as a range that can be regarded as being in focus of the camera, and the range is focused. Defined as range 350. In the case of the present embodiment, it is assumed that the size of the focusing range 350 corresponds to, for example, the depth of field of the camera. The center position 352 of the in-focus range 350 is a position farther from the camera than the in-focus 340.

本実施形態の場合、制御装置220の範囲取得部223は、以下のようにして合焦範囲350を取得する。
合焦範囲350のうち、カメラに近い側の端部を前端351とし、カメラから遠い側の端部を後端353とする。つまり合焦範囲350は、前端351の位置から後端353の位置までの間である。ここで、合焦範囲350の前端351からカメラまでの距離をAとし、後端353からカメラまでの距離をBとする。またカメラ位置の座標を(X,Y,Z)、合焦点の座標を(x,y,z)、カメラから合焦点までの合焦点距離をC、許容錯乱円径をD、絞り値をE、被写体距離をF、焦点距離をGとすると、距離Aと距離Bは以下の計算式で求められる。なお、焦点距離Gと絞り値Eは、パラメータ取得部222がカメラから取得した値を用いる。許容錯乱円径Dは、予め定められた固定値を用いる。各距離の単位はmmであるとする。
In the case of the present embodiment, the range acquisition unit 223 of the control device 220 acquires the focusing range 350 as follows.
Of the focusing range 350, the end closer to the camera is the front end 351 and the end farther from the camera is the rear end 353. That is, the focusing range 350 is between the position of the front end 351 and the position of the rear end 353. Here, let A be the distance from the front end 351 of the focusing range 350 to the camera, and let B be the distance from the rear end 353 to the camera. The coordinates of the camera position are (X, Y, Z), the coordinates of the focal point are (x, y, z), the focal length from the camera to the focal length is C, the permissible circle of confusion diameter is D, and the aperture value is E. Assuming that the subject distance is F and the focal length is G, the distance A and the distance B can be obtained by the following formulas. As the focal length G and the aperture value E, the values acquired by the parameter acquisition unit 222 from the camera are used. For the permissible circle of confusion diameter D, a predetermined fixed value is used. The unit of each distance is mm.

A=C-(D×E×F2)/(G2+D×E×F)
B=C+(D×E×F2)/(G2-D×E×F)
C=√((X-x)2+(Y-y)2+(Z-z)2
A = C- (D × E × F 2 ) / (G 2 + D × E × F)
B = C + (D × E × F 2 ) / (G 2 −D × E × F)
C = √ ((X-x) 2 + (Y-y) 2 + (Z-z) 2 )

図6は、地面410上にある注視点130へカメラ101を向けて焦点を合わせて、その注視点130を合焦位置440とした場合の例を示している。この図6の例の場合、注視点130と合焦位置440とは等位置であり、カメラ101における合焦範囲350に相当する領域は合焦領域450となる。すなわち図6の場合、カメラ101の合焦範囲350に相当する合焦領域450は、「カメラ101から距離Aだけ離れた位置」から「カメラ101から距離Bだけ離れた位置」までの領域となる。なお、距離Aと距離Bは、各カメラで異なる値になる。ここでは簡略化のため、カメラ群100のうちカメラ101に着目して説明を行っているが、他のカメラについても同様である。 FIG. 6 shows an example in which the camera 101 is aimed at the gazing point 130 on the ground 410 to focus on the gazing point 130 and the gazing point 130 is set to the in-focus position 440. In the case of the example of FIG. 6, the gazing point 130 and the focusing position 440 are in equal positions, and the region corresponding to the focusing range 350 in the camera 101 is the focusing region 450. That is, in the case of FIG. 6, the focusing area 450 corresponding to the focusing range 350 of the camera 101 is an area from "a position separated by a distance A from the camera 101" to "a position separated by a distance B from the camera 101". .. The distance A and the distance B have different values for each camera. Here, for the sake of simplification, the camera 101 among the camera group 100 is focused on, but the same applies to the other cameras.

図7は、合焦領域450と参照空間領域460との関係を示している。ここで、仮想視点画像の画質を担保するには、カメラ101が撮影する参照空間領域460、つまり仮想視点画像生成の対象にするために撮影する実空間領域が、当該カメラ101の被写界深度内に入っている必要がある。すなわち、カメラ101の撮影画像において参照空間領域460に対応した部分のボケ量が、被写界深度に対応した許容ボケ量以下でなければならない。さらに言い換えると、参照空間領域460が、カメラ101の合焦領域450に含まれている必要がある。 FIG. 7 shows the relationship between the focusing region 450 and the reference space region 460. Here, in order to ensure the image quality of the virtual viewpoint image, the reference space area 460 taken by the camera 101, that is, the real space area taken to be the target of the virtual viewpoint image generation, is the depth of field of the camera 101. You need to be inside. That is, the amount of blur in the portion of the image captured by the camera 101 corresponding to the reference space region 460 must be less than or equal to the allowable amount of blur corresponding to the depth of field. In other words, the reference space region 460 needs to be included in the focusing region 450 of the camera 101.

ここで、参照空間領域460が許容ボケ量以下であり、参照空間領域460が合焦領域450に含まれるかどうかは、例えば以下の2つの条件を基に判定することができる。すなわちカメラ101から参照空間領域460までの最小距離aと最大距離bとを算出し、それらが以下の条件1と条件2とを満足する場合、参照空間領域が許容ボケ量以下であり、参照空間領域が合焦領域に含まれるとの判定を下すことができる。なお、距離Aは前述したようにカメラ101から合焦範囲(合焦領域450)の前端までの距離であり、距離Bはカメラ101から合焦範囲(合焦領域450)の後端までの距離である。 Here, whether or not the reference space region 460 is equal to or less than the allowable blur amount and the reference space region 460 is included in the focusing region 450 can be determined based on, for example, the following two conditions. That is, when the minimum distance a and the maximum distance b from the camera 101 to the reference space area 460 are calculated and they satisfy the following conditions 1 and 2, the reference space area is equal to or less than the allowable blur amount, and the reference space is used. It can be determined that the area is included in the in-focus area. As described above, the distance A is the distance from the camera 101 to the front end of the focusing range (focusing region 450), and the distance B is the distance from the camera 101 to the rear end of the focusing range (focusing region 450). Is.

条件1 A≦a
条件2 B≧b
Condition 1 A ≤ a
Condition 2 B ≧ b

図7の例では、参照空間領域460のうちカメラ側に近い領域は合焦領域450に含まれていない。参照空間領域460は、前述したように例えば直方体形状の実空間領域であるため、すなわち図7の例の場合、参照空間領域460のうち例えば最小距離aの付近の領域は、合焦領域450から外れている。そのため、カメラ101の撮影画像内で、その領域に相当する画像は合焦度が低く、低品位な画質となる可能性が高い。つまりこの領域の画像を仮想視点画像の生成に用いると、低画質な画像を使うことになり、その結果、仮想視点画像の画質が低下してしまうことになる。 In the example of FIG. 7, the region of the reference space region 460 close to the camera side is not included in the focusing region 450. Since the reference space region 460 is, for example, a rectangular parallelepiped real space region as described above, that is, in the case of the example of FIG. 7, the region of the reference space region 460 near the minimum distance a, for example, is from the focusing region 450. It's off. Therefore, in the image captured by the camera 101, the image corresponding to the region has a low degree of focusing, and there is a high possibility that the image quality will be low. That is, if the image in this region is used to generate the virtual viewpoint image, a low image quality image is used, and as a result, the image quality of the virtual viewpoint image is deteriorated.

図8は、前述した図5の特性曲線500を表した図に、図7の参照空間領域460に対応した範囲を画像生成範囲360として描くことで、当該画像生成範囲360と合焦範囲350との関係を示している。画像生成範囲360は、カメラ101から参照空間領域460の最小距離aと最大距離bとの間の距離に相当する範囲を表している。図8の特性曲線500から判るように、画像生成範囲360のうちカメラ101に近い側の一部分は合焦範囲350から外れており、その部分のボケ量は許容ボケ量310を超えている。このため、カメラ101の撮影画像のうち、その許容ボケ量310を超えた部分に対応した画像の画質は低品位になる。 FIG. 8 shows the image generation range 360 and the focusing range 350 by drawing the range corresponding to the reference space region 460 of FIG. 7 as the image generation range 360 in the diagram showing the characteristic curve 500 of FIG. 5 described above. Shows the relationship. The image generation range 360 represents a range corresponding to the distance between the minimum distance a and the maximum distance b of the reference space region 460 from the camera 101. As can be seen from the characteristic curve 500 of FIG. 8, a part of the image generation range 360 on the side closer to the camera 101 is out of the focusing range 350, and the amount of blur in that part exceeds the allowable blur amount 310. Therefore, the image quality of the image corresponding to the portion of the image captured by the camera 101 that exceeds the allowable blur amount 310 is of low quality.

そこで、本実施形態の制御装置220は、例えばカメラ101の合焦点を、合焦点340よりもカメラに近い方向側へずらすようなフォーカス制御を行う。このように、カメラ101の合焦点をカメラに近い方向をずらし、画像生成範囲360のうちカメラに近い側が合焦範囲内に入るようにすることで、その部分のボケ量を許容ボケ量310以下にすることができる。 Therefore, the control device 220 of the present embodiment performs focus control so as to shift the focal point of the camera 101 toward the direction closer to the camera than the focal point 340, for example. In this way, by shifting the focal point of the camera 101 in the direction closer to the camera and making the side of the image generation range 360 closer to the camera within the focusing range, the amount of blurring in that portion is within the allowable blurring amount 310. Can be.

図9は、参照空間領域460におけるボケ量が許容ボケ量以下になるように、カメラ101の合焦点を当該カメラに近い方向側へ移動したときの特性曲線900と、合焦範囲550とを示している。なお、特性曲線500は、前述した図5及び図8に示したものである。画像生成範囲360におけるボケ量が許容ボケ量以下になるように合焦点を移動させる際には、前述した図7で説明した条件1,2を満足するようにフォーカス制御を行えばよい。特に、合焦範囲550の中心と画像生成範囲360の中心とが等しい位置になるようにすれば、画像生成範囲360におけるボケ量を最小にすることができる。この場合、例えば前述したa-Aの距離(参照空間領域の最小距離-合焦範囲の前端までの距離)とB-bの距離(合焦範囲の後端までの距離-参照空間領域の最大距離)とが正で、且つ等しくなるように合焦位置を決定すればよい。 FIG. 9 shows a characteristic curve 900 and a focusing range 550 when the focal point of the camera 101 is moved toward the direction closer to the camera so that the amount of blur in the reference space region 460 is equal to or less than the allowable blur amount. ing. The characteristic curve 500 is shown in FIGS. 5 and 8 described above. When moving the focal point so that the amount of blur in the image generation range 360 is equal to or less than the allowable amount of blur, focus control may be performed so as to satisfy the conditions 1 and 2 described with reference to FIG. In particular, if the center of the in-focus range 550 and the center of the image generation range 360 are set to be equal to each other, the amount of blur in the image generation range 360 can be minimized. In this case, for example, the distance aA (minimum distance of the reference space region-distance to the front end of the in-focus range) and B-b (distance to the rear end of the in-focus range-maximum of the reference space region) described above. The focusing position may be determined so that the distance) is positive and equal.

以上の方法によって、カメラ101の合焦点を図9に示すような新しい合焦点540へ移動した場合の新しい合焦範囲550の前端551の位置は、カメラから距離A'だけ離れた場所となる。また、新しい合焦範囲550の後端553の位置は、カメラから距離B'だけ離れた場所となる。さらに、新しい合焦範囲550の中心位置552は、画像生成範囲360の中心位置と等しくなる。 By the above method, when the in-focus of the camera 101 is moved to the new in-focus 540 as shown in FIG. 9, the position of the front end 551 of the new in-focus range 550 becomes a place separated from the camera by a distance A'. Further, the position of the rear end 553 of the new focusing range 550 is a place separated from the camera by a distance B'. Further, the center position 552 of the new focusing range 550 becomes equal to the center position of the image generation range 360.

本実施形態の制御装置220では、前述のようにして範囲取得部223が計算した新しい合焦範囲550を基に、パラメータ決定部226が合焦点340を合焦点540へ移動させる合焦位置を求める。そして、パラメータ決定部226は、その合焦位置に応じた撮影パラメータを決定し、その決定された撮影パラメータをパラメータ設定部227がカメラ101に設定する。本実施形態の制御装置220では、カメラ群100の各カメラに対して同様の処理を行う。 In the control device 220 of the present embodiment, the parameter determination unit 226 obtains the in-focus position for moving the in-focus 340 to the in-focus 540 based on the new in-focus range 550 calculated by the range acquisition unit 223 as described above. .. Then, the parameter determination unit 226 determines the shooting parameters according to the in-focus position, and the parameter setting unit 227 sets the determined shooting parameters in the camera 101. In the control device 220 of the present embodiment, the same processing is performed for each camera of the camera group 100.

図10は、制御装置220において、合焦点を移動させる移動距離を基にフォーカスレンズの位置の変更量を算出し、それを撮影パラメータの一つとして各カメラへ設定してフォーカス制御を行う際の処理の流れを示すフローチャートである。
図10に示すフローチャートの処理は、カメラ群100が設置され、仮想視点画像の生成前にそれらカメラ群100の調整を行うための指示が制御装置220に入力されたタイミングで開始される。なお、調整を行うための指示は、UI部260を介したユーザ操作により行われてもよいし、他の装置から指示が入力されてもよい。ただし、図10の処理の開始タイミングはこれに限定されない。図10に示すフローチャートの処理は、CPU251がROM252又は補助記憶装置254に記憶された本実施形態に係るプログラムをRAM253に展開して実行することで実現される。なお、図10に示す処理の少なくとも一部は、CPU251とは異なる1又は複数の専用のハードウェアにより実現されてもよい。以降の各フローチャートにおける符号の「S」は処理ステップを表しているとする。
FIG. 10 shows a case where the control device 220 calculates the amount of change in the position of the focus lens based on the moving distance for moving the focal point, sets it as one of the shooting parameters in each camera, and performs focus control. It is a flowchart which shows the flow of a process.
The processing of the flowchart shown in FIG. 10 is started at the timing when the camera group 100 is installed and an instruction for adjusting the camera group 100 is input to the control device 220 before the generation of the virtual viewpoint image. The instruction for performing the adjustment may be given by a user operation via the UI unit 260, or the instruction may be input from another device. However, the start timing of the process of FIG. 10 is not limited to this. The processing of the flowchart shown in FIG. 10 is realized by the CPU 251 expanding the program according to the present embodiment stored in the ROM 252 or the auxiliary storage device 254 into the RAM 253 and executing the program. It should be noted that at least a part of the processing shown in FIG. 10 may be realized by one or a plurality of dedicated hardware different from the CPU 251. It is assumed that the symbol "S" in each of the following flowcharts represents a processing step.

まずS700において、制御装置220はカメラ群100の中から制御対象とするカメラ(以下、対象カメラとする)を選択し、パラメータ取得部222はその対象カメラから撮影パラメータを取得する。
次にS710において、パラメータ設定部227は、注視点に対象カメラの焦点を合わせる指示を行う。
First, in S700, the control device 220 selects a camera to be controlled (hereinafter referred to as a target camera) from the camera group 100, and the parameter acquisition unit 222 acquires shooting parameters from the target camera.
Next, in S710, the parameter setting unit 227 gives an instruction to focus the target camera on the gazing point.

次にS720において、パラメータ決定部226は、図9に示したように合焦範囲550の中心位置552が画像生成範囲360の中心位置と等しくなるように、対象カメラの撮影パラメータに基づく合焦点を注視点から移動させる移動量を計算する。
さらにS730において、パラメータ決定部226は、合焦点の移動量から、対象カメラにおけるフォーカスレンズの位置の変更量(フォーカス変更量とする)を計算する。そして、パラメータ決定部226は、フォーカス変更量に応じて撮影パラメータの調整量を求め、その調整量に応じた撮影パラメータを決定する。
Next, in S720, the parameter determination unit 226 performs the focus based on the shooting parameters of the target camera so that the center position 552 of the focus range 550 becomes equal to the center position of the image generation range 360 as shown in FIG. Calculate the amount of movement to move from the gazing point.
Further, in S730, the parameter determination unit 226 calculates the amount of change in the position of the focus lens (referred to as the amount of focus change) in the target camera from the amount of movement of the in-focus focus. Then, the parameter determination unit 226 obtains the adjustment amount of the shooting parameter according to the focus change amount, and determines the shooting parameter according to the adjustment amount.

次にS740において、パラメータ設定部227は、S730で決定された撮影パラメータを対象カメラに送信することで、対象カメラの合焦点を変更する指示を行う。合焦点をこのように設定することにより、対象カメラは、撮影画像内における参照空間領域のボケ量が小さい状態で撮影することができる。 Next, in S740, the parameter setting unit 227 sends an instruction to change the in-focus of the target camera by transmitting the shooting parameter determined in S730 to the target camera. By setting the in-focus point in this way, the target camera can shoot in a state where the amount of blur in the reference space region in the captured image is small.

次にS750において、制御装置220は、カメラ群100に含まれるすべてのカメラについて、S710からS740の処理が完了したか確認し、完了していなければS700に戻って未処理のカメラを制御対象のカメラとして選択する。一方、制御装置220は、すべてのカメラについての処理が完了していれば、図10の処理を終了する。なお、ここでは制御装置220がすべてのカメラを制御する場合について説明しているが、これに限らず、制御装置220はカメラ群100に含まれるカメラのうちの一部のカメラに対してのみS710からS740の処理を行ってもよい。 Next, in S750, the control device 220 confirms whether the processing of S710 to S740 is completed for all the cameras included in the camera group 100, and if not, returns to S700 to control the unprocessed camera. Select as a camera. On the other hand, if the processing for all the cameras is completed, the control device 220 ends the processing of FIG. 10. Although the case where the control device 220 controls all the cameras is described here, the control device 220 is not limited to this, and the control device 220 is limited to S710 only for some of the cameras included in the camera group 100. From S740 may be performed.

図11は、フォーカスレンズの調整による合焦位置の変化を示している。フォーカスレンズ調整後の合焦位置640は、光軸上にある調整前の合焦位置440よりもカメラ101に近い位置となる。合焦位置640は、図9の合焦点540と同意である。このように、新しい合焦領域650は、フォーカスレンズを調整する前よりもカメラに近い方向へ移動し、カメラ101の撮影画像内における参照空間領域460の画像のボケ量は許容ボケ量以下になり、得られる画像は高精細なものとなる。 FIG. 11 shows a change in the in-focus position due to the adjustment of the focus lens. The in-focus position 640 after adjusting the focus lens is closer to the camera 101 than the in-focus position 440 before adjustment on the optical axis. The in-focus position 640 is consistent with the in-focus 540 in FIG. In this way, the new focusing region 650 moves in a direction closer to the camera than before adjusting the focus lens, and the amount of blurring of the image of the reference space region 460 in the captured image of the camera 101 becomes less than the allowable blurring amount. , The obtained image will be high-definition.

以上説明したように、第1の実施形態の制御装置220は、複数のカメラの合焦範囲が参照空間領域に相当する画像形成範囲を含むように、各カメラのフォーカスレンズを制御する。これにより、第1の実施形態の画像処理システム10では、高画質な仮想視点画像を生成することが可能となる。 As described above, the control device 220 of the first embodiment controls the focus lens of each camera so that the focusing range of the plurality of cameras includes the image forming range corresponding to the reference space region. As a result, the image processing system 10 of the first embodiment can generate a high-quality virtual viewpoint image.

<第2の実施形態>
第2の実施形態では、カメラの画面内でフォーカス合わせを行う位置を示すフォーカス枠を制御して、カメラの合焦範囲が参照空間領域に相当する画像生成範囲を含むようにする例を説明する。なお、第1の実施形態と同等の機能および処理に関しては、同一の符号を付けてそれらの説明を省略する。
<Second embodiment>
In the second embodiment, an example will be described in which a focus frame indicating a position for focusing on the screen of the camera is controlled so that the focusing range of the camera includes an image generation range corresponding to a reference space area. .. The functions and processes equivalent to those of the first embodiment are designated by the same reference numerals and the description thereof will be omitted.

図12は、第2の実施形態の制御装置220において、前述同様に求めた合焦点を移動させる距離を基に、フォーカス枠の移動量を算出し、そのフォーカス枠の移動量に応じた撮影パラメータを各カメラに設定する処理のフローチャートである。 FIG. 12 shows, in the control device 220 of the second embodiment, the movement amount of the focus frame is calculated based on the distance for moving the focused focus obtained in the same manner as described above, and the shooting parameter according to the movement amount of the focus frame is calculated. Is a flowchart of the process of setting each camera.

まずS800において、制御装置220は、カメラ群100の中から制御対象とする対象カメラを選択し、パラメータ取得部222が対象カメラから撮影パラメータを取得する。
次にS810において、パラメータ設定部227は、注視点に対象カメラの焦点を合わせる指示を行う。
次にS820において、パラメータ決定部226は、図9に示したように合焦範囲の中心位置が画像生成範囲の中心位置と等しくなるように、対象カメラの撮影パラメータに基づく合焦点を注視点から移動させる移動量を計算する。
First, in S800, the control device 220 selects a target camera to be controlled from the camera group 100, and the parameter acquisition unit 222 acquires shooting parameters from the target camera.
Next, in S810, the parameter setting unit 227 gives an instruction to focus the target camera on the gazing point.
Next, in S820, the parameter determination unit 226 focuses the focal point based on the shooting parameters of the target camera from the gazing point so that the center position of the focusing range becomes equal to the center position of the image generation range as shown in FIG. Calculate the amount of movement to move.

さらにS830において、パラメータ決定部226は、S820で求めた合焦点の移動量を基に、フォーカス枠を移動させる移動量を計算する。具体的には、カメラから地面410までの距離が合焦点540までの位置と等しくなる場所を求め、その場所についてカメラ101の撮影画像内で対応する位置を算出する。そして、パラメータ決定部226は、フォーカス枠の中心位置が当該撮影画像内の対応する位置となるように、フォーカス枠の移動量を求める。そして、パラメータ決定部226は、フォーカス枠移動量に応じて撮影パラメータの調整量を求め、その調整量に応じた撮影パラメータを決定する。 Further, in S830, the parameter determination unit 226 calculates the amount of movement to move the focus frame based on the amount of movement of the focal point obtained in S820. Specifically, a place where the distance from the camera to the ground 410 is equal to the position up to the focal point 540 is obtained, and the corresponding position in the captured image of the camera 101 is calculated for that place. Then, the parameter determination unit 226 obtains the amount of movement of the focus frame so that the center position of the focus frame is the corresponding position in the captured image. Then, the parameter determination unit 226 obtains an adjustment amount of the shooting parameter according to the amount of movement of the focus frame, and determines the shooting parameter according to the adjustment amount.

次にS840において、パラメータ設定部227は、S830で決定された撮影パラメータを対象カメラに送信する。
さらにS850において、パラメータ設定部227は、対象カメラの焦点を合わせる指示を行う。このように合焦点を設定することにより、カメラにおいて参照空間領域内をボケ量の小さい状態で撮影することができるようになる。
Next, in S840, the parameter setting unit 227 transmits the shooting parameters determined in S830 to the target camera.
Further, in S850, the parameter setting unit 227 gives an instruction to focus the target camera. By setting the in-focus point in this way, it becomes possible for the camera to take a picture in the reference space area with a small amount of blur.

その後、S860において、制御装置220は、カメラ群100に含まれるすべてのカメラについてS800からS850の処理が完了したか確認し、完了していなければS800に戻って未処理のカメラを制御対象のカメラとして選択する。一方、制御装置220は、すべてのカメラについての処理が完了していれば、図12の処理を終了する。なお、図12の例でも、制御装置220がすべてのカメラを制御する場合について説明しているが、これに限らず、制御装置220はカメラ群100に含まれるカメラのうちの一部のカメラに対してのみS800からS850の処理を行ってもよい。 After that, in S860, the control device 220 confirms whether the processing from S800 to S850 has been completed for all the cameras included in the camera group 100, and if not, returns to S800 to control the unprocessed camera. Select as. On the other hand, if the processing for all the cameras is completed, the control device 220 ends the processing shown in FIG. Although the example of FIG. 12 also describes the case where the control device 220 controls all the cameras, the control device 220 is not limited to this, and the control device 220 may be a part of the cameras included in the camera group 100. The processing of S800 to S850 may be performed only for this.

図13は、合焦点の移動距離に基づいてフォーカス枠の移動量を算出し、その算出結果に基づいてフォーカス枠を移動した時の位置を示している。ここでは、図9と同様の例を用いて説明する。フォーカス枠移動後の合焦位置840は、地面410上にあり、調整前の合焦位置440よりカメラに近い位置となる。合焦位置840は、図9の合焦点540と同意である。この移動により、新しい合焦領域650は、フォーカス枠を調整する前の領域よりカメラに近い方向へ移動し、カメラ101の撮影画像内における参照空間領域460の部分のボケ量は、許容ボケ量を超えないため、高精細な撮影画像が得られる。 FIG. 13 calculates the movement amount of the focus frame based on the movement distance of the in-focus point, and shows the position when the focus frame is moved based on the calculation result. Here, the same example as in FIG. 9 will be used for description. The in-focus position 840 after moving the focus frame is on the ground 410, and is closer to the camera than the in-focus position 440 before adjustment. The in-focus position 840 is consistent with the in-focus 540 in FIG. Due to this movement, the new focusing area 650 moves in a direction closer to the camera than the area before adjusting the focus frame, and the amount of blur in the reference space area 460 in the captured image of the camera 101 is the allowable amount of blur. Since it does not exceed, a high-definition photographed image can be obtained.

図14は、カメラにより取得された撮影画像によって例えばUI部260に表示されたカメラ画面の一例を示している。
合焦位置440は、移動前のフォーカス枠1400における合焦位置に相当する。合焦位置440は、撮影画像が表示された画面において、図7の合焦位置440が映っている箇所になる。合焦位置840は、図13のS830で算出されたフォーカス枠移動量gだけ合焦位置440から移動した後の合焦位置である。この合焦位置840の位置は、撮影画像が表示された画面において、図13の合焦位置840が映っている箇所になる。フォーカス枠1410は、合焦位置840がフォーカス枠の中心となるように移動した時のフォーカス枠である。フォーカス枠1410の状態で焦点合わせを実行すると、合焦領域は、図13に示した合焦領域650になり、カメラ101の撮影画像内における参照空間領域460の部分のボケ量は、許容ボケ量を超えないため、高精細な撮影画像が得られる。
FIG. 14 shows an example of a camera screen displayed on the UI unit 260, for example, by a photographed image acquired by the camera.
The in-focus position 440 corresponds to the in-focus position in the focus frame 1400 before movement. The in-focus position 440 is a position where the in-focus position 440 of FIG. 7 is reflected on the screen on which the captured image is displayed. The in-focus position 840 is the in-focus position after moving from the in-focus position 440 by the focus frame movement amount g calculated in S830 of FIG. The position of the in-focus position 840 is the position where the in-focus position 840 of FIG. 13 is reflected on the screen on which the photographed image is displayed. The focus frame 1410 is a focus frame when the focus position 840 is moved so as to be the center of the focus frame. When focusing is executed in the state of the focus frame 1410, the in-focus area becomes the in-focus area 650 shown in FIG. 13, and the amount of blur in the reference space area 460 in the captured image of the camera 101 is the allowable amount of blur. Since it does not exceed the above, a high-definition photographed image can be obtained.

以上のように、第2の実施形態の制御装置220は、複数のカメラの合焦範囲が参照空間領域に相当する画像形成範囲を含むように、各カメラのフォーカス枠を移動制御する。これにより、第2の実施形態の画像処理システム10では、高画質な仮想視点画像を生成することが可能となる。 As described above, the control device 220 of the second embodiment moves and controls the focus frame of each camera so that the focusing range of the plurality of cameras includes the image forming range corresponding to the reference space region. As a result, the image processing system 10 of the second embodiment can generate a high-quality virtual viewpoint image.

<第3の実施形態>
第3の実施形態では、各カメラの絞り値を制御することで、各カメラの合焦範囲が参照空間領域に相当する画像生成範囲を含むようにする例を説明する。第1の実施形態と同等の機能および処理については、同一の符号を付けてそれらの説明を省略する。
<Third embodiment>
In the third embodiment, an example will be described in which the aperture value of each camera is controlled so that the focusing range of each camera includes the image generation range corresponding to the reference space region. The functions and processes equivalent to those of the first embodiment are designated by the same reference numerals and the description thereof will be omitted.

図15は、カメラの撮影画像内の参照空間領域が許容ボケ量以下になるように絞り値を変更したときの特性曲線1500と合焦範囲950とを示している。なお、特性曲線500は、前述した図5及び図8に示したものである。第3の実施形態では、絞りを閉口側へ調整(絞りのf値が大きい値になるように調整)することで、被写界深度を深くして、合焦範囲が広くなるようにすることで、参照空間領域の全体が許容ボケ量以下になるようにする。すなわち第3の実施形態では、撮影画像内で参照空間領域に相当する画像生成範囲360におけるボケ量が許容ボケ量310より小さくなる絞り値を計算し、その絞り値にするための絞り変更量を算出して絞りを調整する。 FIG. 15 shows a characteristic curve 1500 and an in-focus range 950 when the aperture value is changed so that the reference space region in the image captured by the camera is equal to or less than the allowable blur amount. The characteristic curve 500 is shown in FIGS. 5 and 8 described above. In the third embodiment, the aperture is adjusted to the closed side (adjusted so that the f-number of the aperture becomes a large value) to deepen the depth of field and widen the focusing range. Then, make sure that the entire reference space area is less than the allowable amount of blur. That is, in the third embodiment, an aperture value in which the amount of blur in the image generation range 360 corresponding to the reference space region in the captured image is smaller than the allowable blur amount 310 is calculated, and the aperture change amount for making the aperture value is calculated. Calculate and adjust the aperture.

このように絞り調整を行うと、値調整後の合焦範囲950の新しい前端951の位置はカメラから距離A''だけ離れた場所となり、また新しい後端953の位置はカメラから距離B''だけ離れた場所となり、それらの中心は中心位置952になる。すなわち絞り値調整後の新しい合焦範囲950は、前端951から後端953までの間の範囲となる。第3の実施形態では、パラメータ決定部226は、参照空間領域が被写界深度の範囲内に入るような絞りの変化量を求め、その絞りの変化量に応じた撮影パラメータを決定する。そして、パラメータ設定部227は、その撮影パラメータを各カメラへ設定する。 When the aperture is adjusted in this way, the position of the new front end 951 of the focusing range 950 after the value adjustment becomes a distance A'' distance from the camera, and the position of the new rear end 953 is a distance B'' from the camera. Only distant places, their centers are at the center position 952. That is, the new focusing range 950 after adjusting the aperture value is a range between the front end 951 and the rear end 953. In the third embodiment, the parameter determination unit 226 obtains the amount of change in the aperture so that the reference space region falls within the range of the depth of field, and determines the photographing parameter according to the amount of change in the aperture. Then, the parameter setting unit 227 sets the shooting parameter to each camera.

図16は、第3の実施形態の制御装置220において、各カメラの合焦範囲が画像生成範囲を含むような絞り値を算出し、その絞り値にするための絞り変更量を算出して各カメラへ設定する処理の流れを示すフローチャートである。 FIG. 16 shows in the control device 220 of the third embodiment, calculating an aperture value such that the focusing range of each camera includes an image generation range, and calculating an aperture change amount for making the aperture value. It is a flowchart which shows the flow of the process which sets to a camera.

S1000において、制御装置220は、カメラ群100の中から制御対象とする対象カメラを選択し、パラメータ取得部222が対象カメラから撮影パラメータを取得する。
次にS1010において、パラメータ設定部227は、注視点に対象カメラの焦点を合わせる指示を行う。
In S1000, the control device 220 selects a target camera to be controlled from the camera group 100, and the parameter acquisition unit 222 acquires shooting parameters from the target camera.
Next, in S1010, the parameter setting unit 227 gives an instruction to focus the target camera on the gazing point.

次にS1020において、パラメータ決定部226は、図15に示したように、画像生成範囲のボケ量が許容ボケ量以下になるように、対象カメラの撮影パラメータに基づいて被写界深度の変化量を計算する。
さらにS1030において、パラメータ決定部226は、被写界深度の変化量に基づいて絞りの変更量を計算する。そして、パラメータ決定部226は、絞りの変更量に応じた撮影パラメータの調整量を求め、その調整量に応じた撮影パラメータを決定する。
Next, in S1020, as shown in FIG. 15, the parameter determination unit 226 changes the depth of field based on the shooting parameters of the target camera so that the amount of blur in the image generation range is equal to or less than the allowable amount of blur. To calculate.
Further, in S1030, the parameter determination unit 226 calculates the amount of change in the aperture based on the amount of change in the depth of field. Then, the parameter determination unit 226 obtains the adjustment amount of the shooting parameter according to the change amount of the aperture, and determines the shooting parameter according to the adjustment amount.

次にS1040において、パラメータ設定部227は、S1030で決定された撮影パラメータを対象カメラに送信する。これにより対象カメラの絞り値が調整される。そして、このように絞り値を調整することにより、カメラの撮影画像内における参照空間領域の部分をボケ量の少ない状態で撮影することができる。 Next, in S1040, the parameter setting unit 227 transmits the shooting parameters determined in S1030 to the target camera. This adjusts the aperture value of the target camera. By adjusting the aperture value in this way, it is possible to shoot a portion of the reference space region in the captured image of the camera with a small amount of blur.

その後、S1050において、制御装置220は、カメラ群100に含まれるすべてのカメラについてS1000からS1040の処理が完了したか確認し、完了していなければS1000に戻って未処理のカメラを制御対象のカメラとして選択する。一方、制御装置220は、すべてのカメラについての処理が完了していれば、図16の処理を終了する。なお本実施形態でも制御装置220がすべてのカメラを制御する場合について説明しているが、これに限らず、制御装置220はカメラ群100に含まれるカメラのうちの一部のカメラに対してのみS1000からS1040の処理を行ってもよい。 After that, in S1050, the control device 220 confirms whether the processing of S1000 to S1040 has been completed for all the cameras included in the camera group 100, and if not, returns to S1000 to control the unprocessed camera. Select as. On the other hand, if the processing for all the cameras is completed, the control device 220 ends the processing shown in FIG. Although the case where the control device 220 controls all the cameras is described in this embodiment as well, the control device 220 is not limited to this, and the control device 220 is applied only to some of the cameras included in the camera group 100. The processing of S1000 to S1040 may be performed.

以上のように、第3の実施形態の制御装置220は、複数のカメラの合焦範囲が参照空間領域に相当する画像形成範囲を含むように、各カメラの絞り値を制御する。これにより、第3の実施形態の画像処理システム10では、高画質な仮想視点画像を生成することが可能となる。 As described above, the control device 220 of the third embodiment controls the aperture value of each camera so that the focusing range of the plurality of cameras includes the image forming range corresponding to the reference space region. As a result, the image processing system 10 of the third embodiment can generate a high-quality virtual viewpoint image.

前述した各実施形態では、フォーカスレンズのフォーカス変更量、フォーカス枠移動量、絞り値の変更量をそれぞれ個別に制御したが、制御装置220は、それらの二つ以上を組み合わせてカメラを制御してもよい。 In each of the above-described embodiments, the focus change amount, the focus frame movement amount, and the aperture value change amount of the focus lens are individually controlled, but the control device 220 controls the camera by combining two or more of them. May be good.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける一つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
The above-mentioned embodiments are merely examples of embodiment in carrying out the present invention, and the technical scope of the present invention should not be construed in a limited manner by these. That is, the present invention can be implemented in various forms without departing from its technical idea or its main features.

220:制御装置、221:画像取得部、222:パラメータ取得部、223:範囲取得部、224:領域設定部、225:位置管理部、226:パラメータ決定部、227:パラメータ設定部 220: Control device, 221: Image acquisition unit 222: Parameter acquisition unit 223: Range acquisition unit 224: Area setting unit 225: Position management unit 226: Parameter determination unit 227: Parameter setting unit

Claims (9)

仮想視点画像を生成するために用いられる撮影装置から撮影パラメータを取得するパラメータ取得手段と、
前記仮想視点画像の生成の対象となる範囲のうち当該撮影装置の撮像範囲に含まれる画像生成範囲が、前記取得された前記撮影パラメータに基づいて特定される撮影装置の合焦範囲に含まれるように、前記撮影装置の合焦範囲を制御する範囲制御手段と、
を有することを特徴とする制御装置。
A parameter acquisition means for acquiring shooting parameters from a shooting device used to generate a virtual viewpoint image, and
The image generation range included in the imaging range of the photographing device among the ranges to be generated of the virtual viewpoint image is included in the focusing range of the photographing device specified based on the acquired shooting parameters. In addition, a range control means for controlling the focusing range of the photographing apparatus and
A control device characterized by having.
前記範囲制御手段は、前記画像生成範囲の中心が前記撮影装置の前記合焦範囲の中心となるように前記撮影装置の合焦範囲を制御することを特徴とする請求項1に記載の制御装置。 The control device according to claim 1, wherein the range control means controls the focusing range of the photographing device so that the center of the image generation range becomes the center of the focusing range of the photographing device. .. 前記範囲制御手段は、前記撮影装置の合焦範囲を変更する撮影パラメータを設定して前記撮影装置の合焦範囲を制御することを特徴とする請求項1または請求項2に記載の制御装置。 The control device according to claim 1 or 2, wherein the range control means controls the focusing range of the photographing device by setting an imaging parameter for changing the focusing range of the photographing device. 前記範囲制御手段は、前記撮影装置のフォーカスレンズの位置を調整するパラメータと、前記撮影装置のフォーカス枠を移動させるパラメータと、前記撮影装置の絞り値を調整するパラメータとの、少なくともいずれかの撮影パラメータを設定して前記撮影装置の合焦範囲を制御することを特徴とする請求項3に記載の制御装置。 The range control means has at least one of a parameter for adjusting the position of the focus lens of the imaging device, a parameter for moving the focus frame of the imaging device, and a parameter for adjusting the aperture value of the imaging device. The control device according to claim 3, wherein parameters are set to control the focusing range of the photographing device. 前記範囲制御手段は、
前記取得された前記撮影パラメータに対応した前記撮影装置の前記合焦範囲を取得する範囲取得手段と、
前記仮想視点画像の生成の対象になる範囲に対応した画像生成範囲を設定する領域設定手段と、
前記撮影装置が設置された実空間内の位置を管理する位置管理手段と、
前記取得された撮影パラメータに対応した前記撮影装置の前記合焦範囲と、前記画像生成範囲と、前記撮影装置の位置とに基づいて、前記撮影装置に対する撮影パラメータを決定する決定手段と、
前記決定手段にて決定された撮影パラメータを前記撮影装置に対して設定する設定手段と、
を有することを特徴とする請求項1から請求項4のいずれか1項に記載の制御装置。
The range control means is
A range acquisition means for acquiring the in-focus range of the imaging device corresponding to the acquired imaging parameter, and
An area setting means for setting an image generation range corresponding to the range to be generated of the virtual viewpoint image, and
A position management means for managing the position in the real space where the photographing device is installed, and
A determination means for determining a shooting parameter for the shooting device based on the focusing range of the shooting device corresponding to the acquired shooting parameter, the image generation range, and the position of the shooting device.
A setting means for setting a shooting parameter determined by the determination means for the shooting device, and a setting means.
The control device according to any one of claims 1 to 4, wherein the control device comprises.
前記範囲制御手段は、前記仮想視点画像の生成の対象となる範囲の形状と数の少なくとも一つを、所定のトリガに応じて変更して、前記変更した範囲に対応した前記画像生成範囲を、前記撮影装置の合焦範囲の制御に用いることを特徴とする請求項1から請求項5のいずれか1項に記載の制御装置。 The range control means changes at least one of the shape and the number of the range to be generated of the virtual viewpoint image according to a predetermined trigger, and obtains the image generation range corresponding to the changed range. The control device according to any one of claims 1 to 5, wherein the control device is used for controlling the focusing range of the photographing device. 前記パラメータ取得手段は、複数の撮影装置から前記撮影パラメータを取得し、
前記範囲制御手段は、前記複数の撮影装置の前記合焦範囲を制御することを特徴とする請求項1から請求項6のいずれか1項に記載の制御装置。
The parameter acquisition means acquires the imaging parameters from a plurality of imaging devices and obtains the imaging parameters.
The control device according to any one of claims 1 to 6, wherein the range control means controls the focusing range of the plurality of photographing devices.
撮影装置を制御する制御方法であって、
仮想視点画像を生成するために用いられる撮影装置から撮影パラメータを取得するパラメータ取得工程と、
前記仮想視点画像の生成の対象となる範囲のうち当該撮影装置の撮像範囲に含まれる画像生成範囲が、前記取得された前記撮影パラメータに基づいて特定される撮影装置の合焦範囲に含まれるように、前記撮影装置の合焦範囲を制御する範囲制御工程と、
を有することを特徴とする制御方法。
It is a control method that controls the imaging device.
A parameter acquisition process for acquiring shooting parameters from a shooting device used to generate a virtual viewpoint image, and
The image generation range included in the imaging range of the photographing device among the ranges to be generated of the virtual viewpoint image is included in the focusing range of the photographing device specified based on the acquired shooting parameters. In addition, a range control step for controlling the focusing range of the photographing apparatus and
A control method characterized by having.
コンピュータを、請求項1から請求項7のいずれか1項に記載の制御装置の各手段として機能させるためのプログラム。 A program for making a computer function as each means of the control device according to any one of claims 1 to 7.
JP2020132904A 2020-08-05 2020-08-05 Control device, control method, and program Pending JP2022029567A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020132904A JP2022029567A (en) 2020-08-05 2020-08-05 Control device, control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020132904A JP2022029567A (en) 2020-08-05 2020-08-05 Control device, control method, and program

Publications (1)

Publication Number Publication Date
JP2022029567A true JP2022029567A (en) 2022-02-18

Family

ID=80324911

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020132904A Pending JP2022029567A (en) 2020-08-05 2020-08-05 Control device, control method, and program

Country Status (1)

Country Link
JP (1) JP2022029567A (en)

Similar Documents

Publication Publication Date Title
JP6230239B2 (en) Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium
JP5456020B2 (en) Information processing apparatus and method
JP5968107B2 (en) Image processing method, image processing apparatus, and program
JP7146662B2 (en) Image processing device, image processing method, and program
CN108432230B (en) Imaging device and method for displaying an image of a scene
CN113572963A (en) System and method for fusing images
WO2019176713A1 (en) Control device, image processing system, control method, and program
KR20150050172A (en) Apparatus and Method for Selecting Multi-Camera Dynamically to Track Interested Object
WO2021134179A1 (en) Focusing method and apparatus, photographing device, movable platform and storage medium
JP2019036790A (en) Image generation apparatus, image generation method, and program
JP2019083402A (en) Image processing apparatus, image processing system, image processing method, and program
JP2013041103A (en) Image pickup apparatus, control method thereof, and program
JP2013026844A (en) Image generation method and device, program, recording medium, and electronic camera
US20120019709A1 (en) Assisting focusing method using multiple face blocks
WO2019065260A1 (en) Information processing device, information processing method, and program, and interchangeable lens
JP6700935B2 (en) Imaging device, control method thereof, and control program
WO2021031210A1 (en) Video processing method and apparatus, storage medium, and electronic device
CN114363522A (en) Photographing method and related device
JP6168220B2 (en) Image generation apparatus, image processing apparatus, image generation method, and image processing program
JP2013162416A (en) Imaging apparatus, image processing apparatus, image processing method and program
CN109923853B (en) Image processing apparatus, image processing method, and program
JP2022029567A (en) Control device, control method, and program
KR20200069078A (en) System and method for generating panorama image
CN115393182A (en) Image processing method, device, processor, terminal and storage medium
JP2022038176A (en) Control device, control method, and program