JP2022012398A - Information processor, information processing method, and program - Google Patents

Information processor, information processing method, and program Download PDF

Info

Publication number
JP2022012398A
JP2022012398A JP2020114211A JP2020114211A JP2022012398A JP 2022012398 A JP2022012398 A JP 2022012398A JP 2020114211 A JP2020114211 A JP 2020114211A JP 2020114211 A JP2020114211 A JP 2020114211A JP 2022012398 A JP2022012398 A JP 2022012398A
Authority
JP
Japan
Prior art keywords
orientation
virtual viewpoint
information processing
camera
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020114211A
Other languages
Japanese (ja)
Inventor
麻衣 小宮山
Mai Komiyama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020114211A priority Critical patent/JP2022012398A/en
Publication of JP2022012398A publication Critical patent/JP2022012398A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

To determine the position and direction of an imaging apparatus so that an appropriate virtual viewpoint image fitted to a specified virtual viewpoint can be generated.SOLUTION: An arrangement determination device 105 specifies the position and direction of a virtual viewpoint corresponding to a virtual viewpoint image generated on the basis of a plurality of images obtained by imaging an imaging object area from different positions from each other by a plurality of cameras 101. The arrangement determination device 105 determines the position and direction of the camera 101 on the basis of the position and direction of the specified virtual viewpoint.SELECTED DRAWING: Figure 1

Description

本発明は、複数の撮影装置を用いて仮想視点画像を生成する技術に関するものである。 The present invention relates to a technique for generating a virtual viewpoint image using a plurality of photographing devices.

複数の撮影装置を異なる位置に設置して同期撮影し、その撮影により得られた複数の撮影画像を用いて、視点を任意に変更可能な仮想視点画像を生成する技術がある。動画の仮想視点画像を生成する場合には、仮想視点画像に対応する仮想視点の位置や向きを経時的に変化させることもできる。しかし、仮想視点の位置や向きによっては、仮想視点画像の画質が低下する場合がある。例えば、撮影装置の位置及び向きと仮想視点の位置及び向きとが大きく異なる場合に、撮影画像に基づいて仮想視点からの見え方を十分に再現できず、仮想視点画像の画質が低下する。 There is a technique of installing a plurality of photographing devices at different positions to perform synchronous photography, and using a plurality of captured images obtained by the imaging to generate a virtual viewpoint image in which the viewpoint can be arbitrarily changed. When generating a virtual viewpoint image of a moving image, the position and orientation of the virtual viewpoint corresponding to the virtual viewpoint image can be changed over time. However, the image quality of the virtual viewpoint image may deteriorate depending on the position and orientation of the virtual viewpoint. For example, when the position and orientation of the photographing device and the position and orientation of the virtual viewpoint are significantly different, the appearance from the virtual viewpoint cannot be sufficiently reproduced based on the captured image, and the image quality of the virtual viewpoint image is deteriorated.

特許文献1には、設置された複数の撮影装置の位置及び向きを特定し、仮想視点をどのように動かせば高画質の仮想視点画像を生成できるかを示すインジケータをユーザに対して表示することが開示されている。ユーザはその表示を見ながら仮想視点を操作することで、仮想視点画像の画質の低下を抑制することができる。 In Patent Document 1, the positions and orientations of a plurality of installed photographing devices are specified, and an indicator indicating how to move the virtual viewpoint to generate a high-quality virtual viewpoint image is displayed to the user. Is disclosed. By operating the virtual viewpoint while looking at the display, the user can suppress deterioration of the image quality of the virtual viewpoint image.

特開2019-197348号公報Japanese Unexamined Patent Publication No. 2019-197348

しかしながら、特許文献1に記載の方法で高画質の仮想視点画像を生成しようとすると、仮想視点の位置や視線方向の設定可能な範囲が制限されてしまう。例えば、ユーザが所望する仮想視点の位置や視線方向が予め決まっている場合であっても、仮想視点画像の画質の低下を抑制するために、仮想視点の位置や視線方向を変更することになってしまうことが考えられる。 However, when an attempt is made to generate a high-quality virtual viewpoint image by the method described in Patent Document 1, the range in which the position of the virtual viewpoint and the line-of-sight direction can be set is limited. For example, even if the position and line-of-sight direction of the virtual viewpoint desired by the user are predetermined, the position and line-of-sight direction of the virtual viewpoint are changed in order to suppress the deterioration of the image quality of the virtual viewpoint image. It is possible that it will end up.

本発明は上記の課題に鑑みてなされたものであり、特定された仮想視点に応じた適切な仮想視点画像を生成できるように撮影装置の位置及び向きを決定することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to determine the position and orientation of a photographing device so that an appropriate virtual viewpoint image corresponding to a specified virtual viewpoint can be generated.

上述した課題を解決するために、本発明に係る情報処理装置は、例えば以下の構成を有する。すなわち、情報処理装置は、複数の撮影装置によりそれぞれ異なる位置から撮影対象領域を撮影することにより得られる複数の画像に基づいて生成される仮想視点画像に対応する仮想視点の位置及び向きを特定する特定手段と、
前記特定手段により特定された前記仮想視点の位置及び向きに基づいて、前記複数の撮影装置に含まれる撮影装置の位置及び向きを決定する決定手段と、を有する。
In order to solve the above-mentioned problems, the information processing apparatus according to the present invention has, for example, the following configuration. That is, the information processing device specifies the position and orientation of the virtual viewpoint corresponding to the virtual viewpoint image generated based on the plurality of images obtained by shooting the shooting target area from different positions by the plurality of shooting devices. Specific means and
It has a determination means for determining the position and orientation of the imaging device included in the plurality of imaging devices based on the position and orientation of the virtual viewpoint specified by the specific means.

本発明によれば、特定された仮想視点に応じた適切な仮想視点画像を生成できるように撮影装置の位置及び向きを決定することができる。 According to the present invention, the position and orientation of the photographing device can be determined so that an appropriate virtual viewpoint image corresponding to the specified virtual viewpoint can be generated.

画像処理システムの構成を示すブロック図である。It is a block diagram which shows the structure of an image processing system. 撮影装置の設置例を示す図である。It is a figure which shows the installation example of a photographing apparatus. 配置決定装置のハードウェア構成例を示す図である。It is a figure which shows the hardware configuration example of the arrangement determination apparatus. 配置決定装置の機能構成例を示す図である。It is a figure which shows the functional configuration example of the arrangement determination apparatus. 領域の重要度に応じた要求の例を示す図である。It is a figure which shows the example of the request according to the importance of a region. 配置決定装置の処理の例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of processing of an arrangement determination apparatus. 仮想カメラの撮影範囲と領域重要度の例を説明するための図である。It is a figure for demonstrating an example of the shooting range and area importance of a virtual camera. カメラ配置を示す配置情報の例を示す図である。It is a figure which shows the example of the arrangement information which shows the camera arrangement. 配置決定装置の機能構成例を示す図である。It is a figure which shows the functional configuration example of the arrangement determination apparatus. 配置決定装置の処理の例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of processing of an arrangement determination apparatus. オブジェクト領域と重要領域の例を説明するための図である。It is a figure for demonstrating an example of an object area and an important area.

[システム構成]
図1は、本実施形態に係る画像処理システム100の構成例を示すブロック図である。画像処理システム100は、図1に示されるように、複数のカメラ101、ハブ102、制御装置103、画像生成装置104、及び配置決定装置105を有する。
[System configuration]
FIG. 1 is a block diagram showing a configuration example of the image processing system 100 according to the present embodiment. As shown in FIG. 1, the image processing system 100 has a plurality of cameras 101, a hub 102, a control device 103, an image generation device 104, and an arrangement determination device 105.

画像処理システム100は、複数のカメラ101による撮影に基づく複数の画像と、指定された仮想視点に基づいて、指定された仮想視点から見た光景を表す仮想視点画像を生成するシステムである。本実施形態における仮想視点画像は、自由視点映像とも呼ばれるものであるが、ユーザが自由に(任意に)指定した視点に対応する画像に限定されず、例えば複数の候補からユーザが選択した視点に対応する画像なども仮想視点画像に含まれる。また、本実施形態では仮想視点の指定がユーザ操作により行われる場合を中心に説明するが、仮想視点の指定が画像解析の結果等に基づいて自動で行われてもよい。また、本実施形態では仮想視点画像が動画である場合を中心に説明するが、仮想視点画像は静止画であってもよい。 The image processing system 100 is a system that generates a plurality of images taken by a plurality of cameras 101 and a virtual viewpoint image representing a scene seen from a designated virtual viewpoint based on a designated virtual viewpoint. The virtual viewpoint image in the present embodiment is also called a free viewpoint image, but is not limited to an image corresponding to a viewpoint freely (arbitrarily) specified by the user, for example, a viewpoint selected by the user from a plurality of candidates. Corresponding images and the like are also included in the virtual viewpoint image. Further, in the present embodiment, the case where the virtual viewpoint is specified by the user operation will be mainly described, but the virtual viewpoint may be automatically specified based on the result of image analysis or the like. Further, in the present embodiment, the case where the virtual viewpoint image is a moving image will be mainly described, but the virtual viewpoint image may be a still image.

複数のカメラ101は、図2に示すように、オブジェクト202が位置する撮影対象領域201を囲むようにそれぞれ異なる位置に設置され、撮影対象領域201の一部又は全体をそれぞれ異なる方向から同期して撮影する。なお、複数のカメラ101は撮影対象領域201の全周にわたって設置されていなくてもよく、撮影対象領域201の周囲の一部にのみ設置されていてもよい。また、カメラ101の数は図に示す例に限定されない。カメラ101は、例えば、静止画像及び動画像を撮影可能なデジタルカメラ等であり、複数のカメラ101には、望遠カメラと広角カメラなど機能が異なるカメラが混在していても良い。 As shown in FIG. 2, the plurality of cameras 101 are installed at different positions so as to surround the shooting target area 201 in which the object 202 is located, and a part or the whole of the shooting target area 201 is synchronized from different directions. Take a picture. The plurality of cameras 101 may not be installed over the entire circumference of the photographing target area 201, or may be installed only in a part of the periphery of the photographing target area 201. Further, the number of cameras 101 is not limited to the example shown in the figure. The camera 101 is, for example, a digital camera capable of capturing still images and moving images, and the plurality of cameras 101 may include cameras having different functions such as a telephoto camera and a wide-angle camera.

なお、本実施形態では、撮影対象領域201をそれぞれ異なる位置から撮影する撮影装置として、それぞれが独立した筐体を有し単一の視点で撮影可能なカメラ101を用いる場合について説明する。ただしこれに限らず、2以上の撮影装置が同一の筐体内に構成されていてもよい。例えば、複数のレンズ群と複数のセンサを備えており複数視点から撮影可能な単体のカメラが、複数の撮影装置として設置されていてもよい。 In this embodiment, a case where a camera 101 having an independent housing and capable of shooting from a single viewpoint is used as a shooting device for shooting the shooting target area 201 from different positions will be described. However, the present invention is not limited to this, and two or more photographing devices may be configured in the same housing. For example, a single camera having a plurality of lens groups and a plurality of sensors and capable of shooting from a plurality of viewpoints may be installed as a plurality of shooting devices.

本実施形態における撮影対象領域201は、仮想視点画像を制作するための撮影が行われる撮影スタジオである。ただし撮影対象領域201はこれに限定されるものではなく、例えばスポーツ競技が行われる競技場であってもよいし、演技が行われる舞台であってもよい。 The shooting target area 201 in the present embodiment is a shooting studio where shooting for producing a virtual viewpoint image is performed. However, the shooting target area 201 is not limited to this, and may be, for example, a stadium where a sports competition is performed or a stage where a performance is performed.

複数のカメラ101で撮影された複数の画像は、ハブ102を通して、画像生成装置104へ送られる。制御装置103は、ハブ102を介して複数のカメラ101と通信可能に接続され、複数のカメラ101の撮影の制御や、複数のカメラ101の配置状況の管理などを行う。 A plurality of images taken by the plurality of cameras 101 are sent to the image generator 104 through the hub 102. The control device 103 is communicably connected to the plurality of cameras 101 via the hub 102, and controls the shooting of the plurality of cameras 101 and manages the arrangement status of the plurality of cameras 101.

画像生成装置104は、複数のカメラ101による撮影に基づく複数の画像(複数視点画像)を取得して記憶する。複数視点画像に含まれる画像は、撮影画像であってもよいし、撮影画像に対して例えば所定の領域を抽出する処理などの画像処理が行われることで得られる画像であってもよい。また、画像生成装置104は、仮想視点を指定するためのコントローラ等を用いたユーザ操作に応じた入力を受け付け、生成すべき仮想視点画像に対応する仮想視点を特定する。そして画像生成装置104は、特定された仮想視点から見た光景を表す仮想視点画像を複数視点画像に基づいて生成する。 The image generation device 104 acquires and stores a plurality of images (multiple viewpoint images) based on images taken by the plurality of cameras 101. The image included in the multi-viewpoint image may be a captured image, or may be an image obtained by performing image processing such as extraction of a predetermined region on the captured image. Further, the image generation device 104 receives an input according to a user operation using a controller or the like for designating a virtual viewpoint, and specifies a virtual viewpoint corresponding to the virtual viewpoint image to be generated. Then, the image generation device 104 generates a virtual viewpoint image representing a scene seen from the specified virtual viewpoint based on the plurality of viewpoint images.

画像生成装置104は、例えば以下の方法で仮想視点画像を生成する。まず、複数のカメラ101によりそれぞれ異なる方向から撮影することで複数の画像が取得される。次に、その複数の画像から、人物などの所定のオブジェクト202に対応する前景領域を抽出した前景画像と、前景領域以外の背景領域を抽出した背景画像が取得される。背景は例えばスタジオのセットやフィールドである。また、所定のオブジェクト202の3次元形状を表す前景モデルと前景モデルに色付けするためのテクスチャデータとが前景画像に基づいて生成される。また、スタジオや競技場などの背景の3次元形状を表す背景モデルに色づけするためのテクスチャデータが背景画像に基づいて生成される。そして、前景モデルと背景モデルに対してテクスチャデータをマッピングし、視点情報が示す仮想視点に応じてレンダリングを行うことにより、仮想視点画像が生成される。ただし、仮想視点画像の生成方法はこれに限定されず、3次元モデルを用いずに撮影画像の射影変換により仮想視点画像を生成する方法など、種々の方法を用いることができる。 The image generation device 104 generates a virtual viewpoint image by, for example, the following method. First, a plurality of images are acquired by taking pictures from different directions with the plurality of cameras 101. Next, a foreground image in which a foreground area corresponding to a predetermined object 202 such as a person is extracted and a background image in which a background area other than the foreground area is extracted are acquired from the plurality of images. The background is, for example, a studio set or field. Further, a foreground model representing the three-dimensional shape of the predetermined object 202 and texture data for coloring the foreground model are generated based on the foreground image. Further, texture data for coloring the background model representing the three-dimensional shape of the background such as a studio or a stadium is generated based on the background image. Then, a virtual viewpoint image is generated by mapping the texture data to the foreground model and the background model and performing rendering according to the virtual viewpoint indicated by the viewpoint information. However, the method of generating the virtual viewpoint image is not limited to this, and various methods such as a method of generating a virtual viewpoint image by projective transformation of the captured image without using the three-dimensional model can be used.

仮想視点画像の生成に用いられる視点情報は、仮想視点の位置及び向き(視線方向)を示す情報である。具体的には、視点情報は、仮想視点の3次元位置を表すパラメータと、パン、チルト、及びロール方向における仮想視点の向きを表すパラメータとを含む、パラメータセットである。なお、視点情報の内容は上記に限定されない。例えば、視点情報としてのパラメータセットには、仮想視点の視野の大きさ(画角)を表すパラメータが含まれてもよい。また、視点情報は複数のパラメータセットを有していてもよい。例えば、視点情報が、仮想視点画像の動画を構成する複数のフレームにそれぞれ対応する複数のパラメータセットを有し、連続する複数の時点それぞれにおける仮想視点の位置及び向きを示す情報であってもよい。 The viewpoint information used to generate the virtual viewpoint image is information indicating the position and direction (line-of-sight direction) of the virtual viewpoint. Specifically, the viewpoint information is a parameter set including a parameter representing a three-dimensional position of the virtual viewpoint and a parameter representing the direction of the virtual viewpoint in the pan, tilt, and roll directions. The content of the viewpoint information is not limited to the above. For example, the parameter set as the viewpoint information may include a parameter representing the size (angle of view) of the field of view of the virtual viewpoint. Further, the viewpoint information may have a plurality of parameter sets. For example, the viewpoint information may have a plurality of parameter sets corresponding to a plurality of frames constituting a moving image of the virtual viewpoint image, and may be information indicating the position and orientation of the virtual viewpoint at each of a plurality of consecutive time points. ..

本実施形態では、仮想カメラという概念を用いて説明を行う。仮想カメラとは、撮影対象領域201の周囲に実際に設置された複数のカメラ101とは異なる仮想的なカメラであって、仮想視点画像の生成に係る仮想視点を便宜的に説明するための概念である。すなわち、仮想視点画像は、撮影対象領域201に関連付けられる仮想空間内に設定された仮想視点から撮影した画像であるとみなすことができる。そして、仮想的な当該撮影における視点の位置及び向きは仮想カメラの位置及び姿勢として表すことができる。言い換えれば、仮想視点画像は、空間内に設定された仮想視点の位置にカメラが存在するものと仮定した場合に、そのカメラにより得られる撮影画像を模擬した画像であると言える。また本実施形態では、経時的な仮想視点の変遷の内容を示す情報を、仮想カメラパスと表記する。ただし、本実施形態の構成を実現するために仮想カメラの概念を用いることは必須ではない。すなわち、少なくとも空間内における特定の位置を表す情報と向きを表す情報とが設定され、設定された情報に応じて仮想視点画像が生成されればよい。 In this embodiment, the description will be given using the concept of a virtual camera. The virtual camera is a virtual camera different from the plurality of cameras 101 actually installed around the shooting target area 201, and is a concept for expediently explaining the virtual viewpoint related to the generation of the virtual viewpoint image. Is. That is, the virtual viewpoint image can be regarded as an image taken from a virtual viewpoint set in the virtual space associated with the shooting target area 201. Then, the position and orientation of the viewpoint in the virtual shooting can be expressed as the position and posture of the virtual camera. In other words, it can be said that the virtual viewpoint image is an image simulating the captured image obtained by the camera, assuming that the camera exists at the position of the virtual viewpoint set in the space. Further, in the present embodiment, the information indicating the content of the transition of the virtual viewpoint over time is referred to as a virtual camera path. However, it is not essential to use the concept of a virtual camera in order to realize the configuration of this embodiment. That is, at least the information indicating a specific position in the space and the information indicating the direction are set, and the virtual viewpoint image may be generated according to the set information.

配置決定装置105は、画像生成装置104において設定された仮想カメラパスに基づいて、その仮想カメラパスに応じた仮想視点画像が高画質に生成できるように、複数のカメラ101の配置を決定する。カメラ101の配置決定の詳細については後述する。配置決定装置105は、制御装置103及び画像生成装置104と有線又は無線で接続されている。 The arrangement determination device 105 determines the arrangement of a plurality of cameras 101 based on the virtual camera path set in the image generation device 104 so that the virtual viewpoint image corresponding to the virtual camera path can be generated with high image quality. Details of the arrangement determination of the camera 101 will be described later. The arrangement determination device 105 is connected to the control device 103 and the image generation device 104 by wire or wirelessly.

なお、画像処理システム100の構成は図1に示したものに限定されない。例えば、制御装置103、画像生成装置104、及び配置決定装置105のいずれか2つ又は全部が一体となって構成されていてもよい。また、上述した前景画像と背景画像は、画像生成装置104が撮影画像からそれぞれ抽出しても良いし、それ以外の装置(例えばカメラ101)が抽出しても良い。カメラ101が前景画像と背景画像を抽出する場合、複数のカメラ101のそれぞれが前景画像と背景画像の両方を抽出してもよいし、複数のカメラ101のうち一部のカメラ101が前景画像を抽出し、他の一部のカメラ101が背景画像を抽出してもよい。また、複数のカメラ101には、前景画像と背景画像のいずれも抽出しないカメラ101が含まれていてもよい。 The configuration of the image processing system 100 is not limited to that shown in FIG. For example, any two or all of the control device 103, the image generation device 104, and the arrangement determination device 105 may be integrally configured. Further, the foreground image and the background image described above may be extracted by the image generation device 104 from the captured image, or may be extracted by another device (for example, the camera 101). When the camera 101 extracts the foreground image and the background image, each of the plurality of cameras 101 may extract both the foreground image and the background image, or some of the plurality of cameras 101 may extract the foreground image. It may be extracted and the background image may be extracted by some other cameras 101. Further, the plurality of cameras 101 may include a camera 101 that does not extract either a foreground image or a background image.

[ハードウェア構成]
図3は、画像処理システム100に含まれる情報処理装置の一例としての配置決定装置105のハードウェア構成例を示す図である。なお、情報処理装置の一例としての制御装置103及び画像生成装置104の構成も、以下で説明する配置決定装置105と同様である。配置決定装置105は、CPU301、ROM302、RAM303、HDD304、操作部305、表示部306、及び通信部307を有する。
[Hardware configuration]
FIG. 3 is a diagram showing a hardware configuration example of the arrangement determination device 105 as an example of the information processing device included in the image processing system 100. The configurations of the control device 103 and the image generation device 104 as an example of the information processing device are also the same as those of the arrangement determination device 105 described below. The arrangement determination device 105 includes a CPU 301, a ROM 302, a RAM 303, an HDD 304, an operation unit 305, a display unit 306, and a communication unit 307.

CPU301は、ROM302やHDD304に記憶された制御プログラムを用いて、演算処理や各種プログラムを実行することで、配置決定装置105の各機能を実現する。なお、配置決定装置105がCPU301とは異なる1又は複数の専用のハードウェアを有し、CPU301による処理の少なくとも一部を専用のハードウェアが実行してもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。ROM302は、ブートプログラム、制御プログラム、画像生成装置104の各部に設定するパラメータ等を記憶する記憶領域を有する。RAM303は、CPU301の主メモリ、ワークエリア等の一致時記憶領域として用いられる。HDD304は、各種データやプログラムを記憶する。なお、HDD304に替えてSSDなどその他の補助記憶装置が用いられてもよい。 The CPU 301 realizes each function of the arrangement determination device 105 by executing arithmetic processing and various programs using the control programs stored in the ROM 302 and the HDD 304. The arrangement determination device 105 may have one or more dedicated hardware different from the CPU 301, and the dedicated hardware may execute at least a part of the processing by the CPU 301. Examples of dedicated hardware include ASICs (Application Specific Integrated Circuits), FPGAs (Field Programmable Gate Arrays), and DSPs (Digital Signal Processors). The ROM 302 has a storage area for storing a boot program, a control program, parameters set in each part of the image generation device 104, and the like. The RAM 303 is used as a matching storage area for the main memory, work area, etc. of the CPU 301. The HDD 304 stores various data and programs. In addition, other auxiliary storage devices such as SSD may be used instead of HDD 304.

操作部305は、例えばキーボードやマウス、ジョイスティック、タッチパネル等で構成され、ユーザによる操作を受けて各種の指示をCPU301に入力する。表示部306は、例えば液晶ディスプレイやLED等で構成され、ユーザが配置決定装置105を操作するためのGUI(Graphical User Interface)などを表示する。CPU301は、表示部306を制御する表示制御部として動作する。通信部307は、制御装置103及び画像生成装置104等の外部装置と通信する。なお、通信部307による通信は、LAN等の有線ネットワークを介して行われても良いし、無線ネットワークを介して行われても良い。 The operation unit 305 is composed of, for example, a keyboard, a mouse, a joystick, a touch panel, or the like, and inputs various instructions to the CPU 301 in response to an operation by the user. The display unit 306 is composed of, for example, a liquid crystal display, an LED, or the like, and displays a GUI (Graphical User Interface) for the user to operate the arrangement determination device 105. The CPU 301 operates as a display control unit that controls the display unit 306. The communication unit 307 communicates with an external device such as the control device 103 and the image generation device 104. The communication by the communication unit 307 may be performed via a wired network such as a LAN, or may be performed via a wireless network.

本実施形態では表示部306と操作部305が配置決定装置105の内部に存在するものとするが、表示部306と操作部305との少なくとも一方が配置決定装置105の外部に別の装置として存在していてもよい。 In the present embodiment, it is assumed that the display unit 306 and the operation unit 305 exist inside the arrangement determination device 105, but at least one of the display unit 306 and the operation unit 305 exists as another device outside the arrangement determination device 105. You may be doing it.

[配置決定装置の機能構成]
図4は、本実施形態における配置決定装置105の機能構成例を示すブロック図である。パス取得部401は、経時的な仮想視点の位置、向き、及び画角の変遷を示す仮想カメラパスを取得し、撮影範囲算出部402に送信する。パス取得部401が取得する仮想カメラパスは、画像生成装置104が仮想視点画像を生成するために生成したものである。ただし、パス取得部401が取得する仮想カメラパスは、画像生成装置104により生成されたものに限らず、別の処理システムや、外部の仮想カメラパス生成装置により生成されたものでも良い。また、仮想カメラパスは、予め想定されるオブジェクト202の動きのシミュレーション結果から生成されたものでも良く、これらに限定されない。
[Functional configuration of placement determination device]
FIG. 4 is a block diagram showing a functional configuration example of the arrangement determination device 105 in the present embodiment. The path acquisition unit 401 acquires a virtual camera path indicating changes in the position, orientation, and angle of view of the virtual viewpoint over time, and transmits the virtual camera path to the shooting range calculation unit 402. The virtual camera path acquired by the path acquisition unit 401 is generated by the image generation device 104 to generate a virtual viewpoint image. However, the virtual camera path acquired by the path acquisition unit 401 is not limited to the one generated by the image generation device 104, and may be one generated by another processing system or an external virtual camera path generation device. Further, the virtual camera path may be generated from the simulation result of the motion of the object 202 assumed in advance, and is not limited thereto.

パス取得部401は、配置決定装置105がカメラ配置を決定するために基準とする仮想カメラパスを1つ以上取得する。取得された仮想カメラパスからは、複数の時点のそれぞれにおける仮想視点の位置及び向きが特定される。パス取得部401は、画像生成装置104により過去に生成され記憶されている仮想カメラパス全てを取得しても良いし、生成された仮想カメラパスの一部のみを指定して取得しても良い。また、画質を改善したい仮想視点画像に対応する仮想カメラパスを選別して取得しても良い。また、パス取得部401は、仮想視点画像の画質が不十分であったため不採用になった仮想カメラパスを取得しても良いし、画質改善の対象となる仮想カメラパスを画質の要求値と併せて取得しても良い。また、パス取得部401は、将来生成予定の仮想視点画像に対応する仮想カメラパスを取得してもよい。パス取得部401により取得される仮想カメラパスには、同じ撮影期間に対応する複数の仮想カメラパスが含まれても良いし、スローや早送りや巻き戻しなどの時間的な加工がされた仮想カメラパスが含まれても良い。また、パス取得部401は、接続された画像生成装置104が生成した仮想カメラパスをリアルタイムで取得しても良い。 The path acquisition unit 401 acquires one or more virtual camera paths as a reference for the arrangement determination device 105 to determine the camera arrangement. From the acquired virtual camera path, the position and orientation of the virtual viewpoint at each of the plurality of time points are specified. The path acquisition unit 401 may acquire all the virtual camera paths generated and stored in the past by the image generation device 104, or may specify and acquire only a part of the generated virtual camera paths. .. Further, the virtual camera path corresponding to the virtual viewpoint image whose image quality is desired to be improved may be selected and acquired. Further, the path acquisition unit 401 may acquire a virtual camera path that has been rejected because the image quality of the virtual viewpoint image is insufficient, and sets the virtual camera path that is the target of image quality improvement as the required image quality. You may also get it. Further, the path acquisition unit 401 may acquire a virtual camera path corresponding to a virtual viewpoint image to be generated in the future. The virtual camera path acquired by the path acquisition unit 401 may include a plurality of virtual camera paths corresponding to the same shooting period, or a virtual camera that has been time-processed such as slow, fast forward, and rewind. The path may be included. Further, the path acquisition unit 401 may acquire the virtual camera path generated by the connected image generation device 104 in real time.

撮影範囲算出部402は、配置条件記憶部404から取得した情報が示す撮影対象領域201における、パス取得部401から受信した仮想カメラパスが示すフレーム毎の仮想カメラの撮影範囲を算出し、重要度算出部403に送信する。具体的には、仮想視点画像の動画を構成する各フレームに対応する各時点について、仮想カメラパスに含まれる仮想カメラの位置、姿勢、及び画角を示すパラメータに基づいて、仮想カメラの撮影範囲(仮想視点の視野に含まれる範囲)を算出する。 The shooting range calculation unit 402 calculates the shooting range of the virtual camera for each frame indicated by the virtual camera path received from the path acquisition unit 401 in the shooting target area 201 indicated by the information acquired from the arrangement condition storage unit 404, and the importance level. It is transmitted to the calculation unit 403. Specifically, the shooting range of the virtual camera is based on the parameters indicating the position, posture, and angle of view of the virtual camera included in the virtual camera path at each time point corresponding to each frame constituting the moving image of the virtual viewpoint image. (The range included in the field of view of the virtual viewpoint) is calculated.

算出される撮影範囲は、3次元領域であっても良いし、平面(例えば、z=0の床面)における2次元領域であっても良い。また、撮影範囲が2次元領域として算出される場合は、オブジェクト202の大きさや動きに応じて、平面上の各位置が撮影範囲に含まれるか否かの判断基準が異なってもよい。例えば、オブジェクト202が人物である場合に、床面からの高さが0~2mに含まれる領域が仮想カメラにより撮影可能であるような2次元位置が、撮影範囲に含まれると判断されても良い。 The calculated shooting range may be a three-dimensional region or a two-dimensional region on a plane (for example, a floor surface with z = 0). Further, when the shooting range is calculated as a two-dimensional region, the criterion for determining whether or not each position on the plane is included in the shooting range may differ depending on the size and movement of the object 202. For example, when the object 202 is a person, even if it is determined that the shooting range includes a two-dimensional position in which a region whose height from the floor is 0 to 2 m can be shot by a virtual camera. good.

また、仮想カメラにより一定以上の解像度で撮影可能な範囲を撮影範囲としてもよい。すなわち、仮想カメラの視野に含まれる位置であっても、仮想カメラから一定以上の解像度で撮影できない位置(例えば仮想カメラからの距離が所定値以上である位置)は、仮想カメラの撮影範囲に含まれないと判断されてもよい。上記の一定の解像度は、撮影内容などに応じて決定されても良いし、ユーザにより指定されても良い。 Further, the range in which the virtual camera can shoot at a certain resolution or higher may be set as the shooting range. That is, even if the position is included in the field of view of the virtual camera, the position where the virtual camera cannot shoot at a certain resolution or higher (for example, the position where the distance from the virtual camera is equal to or higher than a predetermined value) is included in the shooting range of the virtual camera. It may be determined that it cannot be done. The above-mentioned constant resolution may be determined according to the shooting content or the like, or may be specified by the user.

また、仮想カメラの撮影範囲は、撮影範囲を囲む点の座標値で表されても良いし、撮影対象領域201に含まれる各ブロック(部分領域)が撮影範囲内であるか否かを示す情報により表されても良い。ブロックの分割単位は、現実空間における所定の大きさ(例えば10cmや1m)に決められても良いし、撮影対象領域201が所定の数に等分されるように決められても良い。また、ブロックの分割単位は、撮影対象領域201の大きさや複数のカメラ101の台数や撮影内容に応じて変更されても良く、これらに限定されない。また、撮影対象領域201に対して撮影範囲を示す画像が出力されても良い。 Further, the shooting range of the virtual camera may be represented by the coordinate values of the points surrounding the shooting range, and information indicating whether or not each block (partial area) included in the shooting target area 201 is within the shooting range. May be represented by. The division unit of the block may be determined to have a predetermined size (for example, 10 cm or 1 m) in the real space, or the imaging target area 201 may be determined to be equally divided into a predetermined number. Further, the division unit of the block may be changed according to the size of the shooting target area 201, the number of a plurality of cameras 101, and the shooting content, and is not limited thereto. Further, an image showing a shooting range may be output with respect to the shooting target area 201.

重要度算出部403は、撮影範囲算出部402から受信した仮想カメラの撮影範囲を基に、撮影対象領域201内の各領域の重要度を算出する。重要度の算出方法としては、例えば、各領域が仮想カメラの撮影範囲に含まれるかがフレームごとに判断され、ある領域が仮想カメラの撮影範囲に含まれる累積時間(累積フレーム数)に応じてその領域の重要度が算出される。累積時間が長いほど重要度が高く設定されることで、仮想カメラの撮影範囲に長時間入る重要な領域が特定される。重要度は、累積時間の数値により表されても良いし、累積時間に応じて重要度高/重要度中/重要度低のように複数のレベルで表されても良い。 The importance calculation unit 403 calculates the importance of each area in the shooting target area 201 based on the shooting range of the virtual camera received from the shooting range calculation unit 402. As a method of calculating the importance, for example, it is determined for each frame whether each area is included in the shooting range of the virtual camera, and a certain area is included in the shooting range of the virtual camera according to the cumulative time (cumulative number of frames). The importance of the area is calculated. The longer the cumulative time, the higher the importance is set, so that the important area that enters the shooting range of the virtual camera for a long time is specified. The importance may be expressed by a numerical value of the cumulative time, or may be expressed by a plurality of levels such as high importance / medium importance / low importance depending on the cumulative time.

また、重要度の算出に用いられる情報は、領域が仮想カメラの撮影範囲に入る期間の長さを示す累積時間に限定されない。例えば、領域の重要度の算出に、撮影シーンの注目度が用いられてもよい。すなわち、仮想カメラが撮影するシーンの注目度に応じて、仮想カメラパス単位あるいはフレーム単位で、重要度に重み付けがされても良い。具体的には、注目度が高いシーンに対応するフレームにおいてある領域が仮想カメラの撮影範囲に含まれている場合は、注目度が低いシーンに対応するフレームにおいて撮影範囲に含まれている場合よりも、その領域の重要度の加算量を大きくしてもよい。 Further, the information used for calculating the importance is not limited to the cumulative time indicating the length of the period during which the area falls within the shooting range of the virtual camera. For example, the attention level of the shooting scene may be used to calculate the importance of the area. That is, the importance may be weighted in units of virtual camera paths or frames according to the degree of attention of the scene shot by the virtual camera. Specifically, when a certain area is included in the shooting range of the virtual camera in the frame corresponding to the scene with high attention, it is more than when it is included in the shooting range in the frame corresponding to the scene with low attention. However, the amount of addition of the importance of the area may be increased.

また、仮想カメラパスに基づいて生成された仮想視点画像の人気度が高い場合、同様の仮想カメラパスが重要であると判断できるため、そのような人気度が高い仮想カメラパスに応じた仮想カメラの撮影範囲に含まれる領域の重要度の加算量を大きくしても良い。また例えば、撮影対象領域201を照らす照明の位置及び向きに基づいて、各領域の重要度が補正されてもよい。重要度の重み付けは、重要度の加算量を調整するものに限定されない。例えば、所定の条件を満たす領域の重要度値または重要度レベルを最高値または最高レベルにしても良いし、所定の条件を満たす領域の重要度値を一定値加算したり重要度レベルを一定レベル上げたりしても良く、これらに限定されない。 Also, if the virtual viewpoint image generated based on the virtual camera path is popular, it can be determined that a similar virtual camera path is important, so a virtual camera corresponding to such a popular virtual camera path is used. You may increase the addition amount of the importance of the area included in the shooting range of. Further, for example, the importance of each area may be corrected based on the position and direction of the illumination that illuminates the image target area 201. The importance weighting is not limited to adjusting the amount of importance added. For example, the importance value or importance level of the area satisfying a predetermined condition may be set to the highest value or the highest level, the importance value of the area satisfying a predetermined condition may be added by a certain value, or the importance level may be set to a constant level. It may be raised and is not limited to these.

配置条件記憶部404は、複数のカメラ101の配置の条件に関する情報を記憶する。例えば、撮影スタジオなどの会場の情報、撮影対象領域201の情報、スタジオ内でカメラ101を設置可能な構造体とその位置に関する情報、配置可能なカメラ101の台数及びカメラ101のスペック情報などが記憶される。また、すでに設置済のカメラ101がある場合は、現在のカメラ101の配置の情報として、カメラ101の位置や設定情報、固定カメラまたは雲台カメラなどのカメラ種別の情報などが記憶される。 The arrangement condition storage unit 404 stores information regarding the arrangement conditions of the plurality of cameras 101. For example, information on a venue such as a shooting studio, information on a shooting target area 201, information on a structure in which a camera 101 can be installed in the studio and its position, the number of cameras 101 that can be placed, and spec information on the camera 101 are stored. Will be done. If there is an already installed camera 101, the position and setting information of the camera 101, the information of the camera type such as the fixed camera or the pan head camera, and the like are stored as the information of the current arrangement of the cameras 101.

要求取得部405は、領域の重要度に応じた、その領域の撮影状況に関する要求を取得する。具体的には、特定の重要度の領域に対する複数のカメラ101の位置関係に関する要求(例えばその領域から見た複数のカメラ101の間の角度の上限値)が取得される。また、特定の重要度の領域の撮影に係る解像度に関する要求(例えばカメラ101による撮影画像におけるその領域の大きさに対応する解像度の下限値)が取得される。要求取得部405は、仮想視点画像の画質に関わる要求を取得すればよく、要求の内容はこれらに限られない。 The request acquisition unit 405 acquires a request regarding the shooting status of the area according to the importance of the area. Specifically, a request regarding the positional relationship of the plurality of cameras 101 with respect to a region of a specific importance (for example, an upper limit of the angle between the plurality of cameras 101 viewed from the region) is acquired. Further, a request regarding the resolution related to the shooting of a region of a specific importance (for example, the lower limit of the resolution corresponding to the size of the region in the image captured by the camera 101) is acquired. The request acquisition unit 405 may acquire a request related to the image quality of the virtual viewpoint image, and the content of the request is not limited to these.

要求取得部405は、領域重要度に対応する上限カメラ間角度及び下限解像度を予め表として記憶しておき、その表を参照しても良い。参照される表の一例を図5に示す。図5に示したように、領域重要度が高いほど、オブジェクト202のモデル精度が高くなるように、上限カメラ間角度が小さい値になる。また、領域重要度が高いほど、オブジェクト202のモデルにマッピングされるテクスチャの解像度が高くなるように、下限解像度が大きい値になる。また、要求取得部405は、操作部305を介してオペレータにより指定された数値等に応じた要求の情報を取得しても良い。また、特定の仮想カメラパス及び特定のフレームに対して画質要求値が決められても良い。 The request acquisition unit 405 may store the upper limit camera-to-camera angle and the lower limit resolution corresponding to the area importance as a table in advance, and may refer to the table. An example of the referenced table is shown in FIG. As shown in FIG. 5, the higher the area importance, the smaller the upper limit camera-to-camera angle so that the model accuracy of the object 202 becomes higher. Further, the higher the region importance is, the higher the lower limit resolution is, so that the resolution of the texture mapped to the model of the object 202 is higher. Further, the request acquisition unit 405 may acquire request information according to a numerical value or the like specified by the operator via the operation unit 305. Further, the image quality requirement value may be determined for a specific virtual camera path and a specific frame.

配置決定部406は、重要度算出部403から受信した領域毎の重要度と、配置条件記憶部404から取得した条件と、要求取得部405から取得した要求とに基づいて、複数のカメラ101の配置を決定する。具体的には、配置条件記憶部404からは、設置済のカメラ101の情報がある場合はその前提条件、配置可能なカメラ101の設定情報や位置情報、撮影対象領域201の情報などが取得される。また、要求取得部405からは、重要度に応じた要求が取得され、領域毎に要求される上限カメラ間角度及び下限解像度が求められる。そして、領域毎の重要度に応じた上限カメラ間角度及び下限解像度の要求を満たすように、複数のカメラ101の配置が決定される。決定されたカメラ配置を示す配置情報は、表示部306や通信部307を介して、例えば画像として出力される。なお、配置決定部406は、各領域の重要度に応じた要求が満たされるように、カメラ101の位置だけでなくカメラの向き(撮影方向)やカメラの画角に対応する焦点距離を決定してもよい。本実施形態における配置情報には、カメラ101の位置、向き、及び焦点距離を示す情報が含まれてもよい。 The arrangement determination unit 406 is based on the importance of each area received from the importance calculation unit 403, the condition acquired from the arrangement condition storage unit 404, and the request acquired from the request acquisition unit 405, and the arrangement determination unit 406 of the plurality of cameras 101. Determine the placement. Specifically, if there is information on the installed camera 101, the preconditions, setting information and position information of the camera 101 that can be arranged, information on the shooting target area 201, and the like are acquired from the arrangement condition storage unit 404. To. Further, the request acquisition unit 405 acquires the request according to the importance, and obtains the upper limit camera-to-camera angle and the lower limit resolution required for each area. Then, the arrangement of the plurality of cameras 101 is determined so as to satisfy the requirements of the upper limit camera-to-camera angle and the lower limit resolution according to the importance of each area. The arrangement information indicating the determined camera arrangement is output as, for example, an image via the display unit 306 and the communication unit 307. The arrangement determination unit 406 determines not only the position of the camera 101 but also the focal length corresponding to the direction (shooting direction) of the camera and the angle of view of the camera so that the requirements according to the importance of each area are satisfied. You may. The arrangement information in the present embodiment may include information indicating the position, orientation, and focal length of the camera 101.

なお、領域毎の要求を満たすようなカメラ配置が複数パターンある場合は、複数パターンのカメラ配置が導出され、それらのうち最適なカメラ配置が決定されても良い。最適なカメラ配置は、例えば、必要なカメラ101の台数が最も少ないものであっても良いし、設置済のカメラ101の配置からの変更量が最も少ないものであっても良い。また、要求を満たす複数のカメラ配置の候補の中から、操作部305を介してオペレータの操作に応じて採用すべきカメラ配置が選択されても良い。なお、配置可能な台数のカメラ101で撮影対象領域201内のすべての領域についての要求を満たせない場合は、重要度の低い領域の要求を変更しても良い。その際は、操作部305を介して、オペレータから要求の変更指示が受け付けられても良い。 When there are a plurality of patterns of camera arrangements that satisfy the requirements for each area, a plurality of patterns of camera arrangements may be derived, and the optimum camera arrangement may be determined among them. The optimum camera arrangement may be, for example, the one in which the number of required cameras 101 is the smallest, or the one in which the amount of change from the arrangement of the installed cameras 101 is the smallest. Further, the camera arrangement to be adopted may be selected from a plurality of camera arrangement candidates satisfying the requirements according to the operation of the operator via the operation unit 305. If the number of cameras 101 that can be arranged cannot meet the requirements for all the areas in the shooting target area 201, the requirements for the less important areas may be changed. In that case, the request change instruction may be received from the operator via the operation unit 305.

[動作フロー]
次に、配置決定装置105の処理フローを、図6を用いて説明する。図6に示す処理は、配置決定装置105のCPU301がROM302に格納されたプログラムをRAM303に展開して実行することで実現される。なお、図6に示す処理の少なくとも一部を、CPU301とは異なる1又は複数の専用のハードウェアにより実現してもよい。後述する図10に示す処理についても同様である。図6に示す処理は、画像処理システム100を介してユーザにより仮想カメラパスが指定され、配置決定装置105が操作部305を介してオペレータからカメラ配置決定を行うための指示を受け付けたタイミングで開始される。この仮想カメラパスは、複数のカメラ101による撮影が行われる前に指定されてもよいし、所定の位置に設置されたカメラ101により取得された撮影画像に基づいて仮想視点画像を試作する際に指定されてもよい。なお、図6に示す処理の開始タイミングは上記に限定されない。
[Operation flow]
Next, the processing flow of the arrangement determination device 105 will be described with reference to FIG. The process shown in FIG. 6 is realized by the CPU 301 of the arrangement determination device 105 expanding the program stored in the ROM 302 into the RAM 303 and executing the program. It should be noted that at least a part of the processing shown in FIG. 6 may be realized by one or a plurality of dedicated hardware different from the CPU 301. The same applies to the process shown in FIG. 10 described later. The process shown in FIG. 6 starts when a virtual camera path is specified by the user via the image processing system 100 and the arrangement determination device 105 receives an instruction from the operator to determine the camera arrangement via the operation unit 305. Will be done. This virtual camera path may be specified before shooting by a plurality of cameras 101, or when a virtual viewpoint image is prototyped based on a shot image acquired by cameras 101 installed at predetermined positions. It may be specified. The start timing of the process shown in FIG. 6 is not limited to the above.

S601において、パス取得部401は、カメラ配置を決定する際の基準となる仮想カメラパスを取得する。S602において、撮影範囲算出部402は、S601で取得された仮想カメラパスから、フレーム毎の仮想カメラの位置、姿勢、及び画角を示すパラメータを取得し、撮影対象領域201における仮想カメラの撮影範囲を算出する。そして、撮影範囲算出部402は、仮想カメラパスに含まれる全フレーム分の仮想カメラの撮影範囲を示す情報を重要度算出部403に送信する。 In S601, the path acquisition unit 401 acquires a virtual camera path as a reference when determining the camera arrangement. In S602, the shooting range calculation unit 402 acquires parameters indicating the position, posture, and angle of view of the virtual camera for each frame from the virtual camera path acquired in S601, and the shooting range of the virtual camera in the shooting target area 201. Is calculated. Then, the shooting range calculation unit 402 transmits information indicating the shooting range of the virtual camera for all frames included in the virtual camera path to the importance calculation unit 403.

図7(A)に、S601で取得された仮想カメラパスが示す仮想カメラ701~703とS602で算出された仮想カメラの撮影範囲704~706の例を示す。図7(A)では、説明をわかりやすくするために3フレームの仮想カメラパスの例を示すが、フレーム数はこれに限るものではなく、仮想カメラパスにはより多くのフレームに対応する仮想カメラの情報が含まれてもよい。図7(A)では、撮影対象領域201の床面(z=0)における2次元領域(xy平面)の撮影範囲を示すが、算出される撮影範囲はこれに限られない。 FIG. 7A shows an example of the virtual cameras 701 to 703 indicated by the virtual camera path acquired in S601 and the shooting ranges 704 to 706 of the virtual cameras calculated in S602. In FIG. 7A, an example of a 3-frame virtual camera path is shown for the sake of clarity, but the number of frames is not limited to this, and the virtual camera path includes a virtual camera corresponding to more frames. Information may be included. FIG. 7A shows a shooting range of a two-dimensional region (xy plane) on the floor surface (z = 0) of the shooting target area 201, but the calculated shooting range is not limited to this.

S603において、重要度算出部403は、受信した仮想カメラパスに含まれる全フレーム分の仮想カメラの撮影範囲に基づいて、領域毎にその領域が撮影範囲に含まれる累積時間を算出する。図7(B)は、図7(A)に示した仮想カメラの撮影範囲704~706に基づいて算出された各領域の累積時間を示す。領域707の累積時間は3フレームであり、領域708の累積時間は2フレームであり、領域709の累積時間は1フレームである。 In S603, the importance calculation unit 403 calculates the cumulative time in which the area is included in the shooting range for each area based on the shooting range of the virtual cameras for all frames included in the received virtual camera path. FIG. 7B shows the cumulative time of each region calculated based on the shooting range 704 to 706 of the virtual camera shown in FIG. 7A. The cumulative time of the region 707 is 3 frames, the cumulative time of the region 708 is 2 frames, and the cumulative time of the region 709 is 1 frame.

S604において、重要度算出部403は、S603で算出された累積時間に基づいて各領域の重要度を算出する。図7(C)は、図7(B)で算出された累積時間と重要度の対応例を示す。図7(C)の例では、累積時間に応じて重要度を3段階にレベル分けしたが、これに限らず、累積時間と重要度の対応は、仮想カメラパスのフレーム数や累積時間のばらつき度合いに応じて決定されても良い。 In S604, the importance calculation unit 403 calculates the importance of each region based on the cumulative time calculated in S603. FIG. 7C shows an example of correspondence between the cumulative time calculated in FIG. 7B and the importance. In the example of FIG. 7C, the importance is divided into three levels according to the cumulative time, but the correspondence between the cumulative time and the importance is not limited to this, and the correspondence between the cumulative time and the importance varies in the number of frames of the virtual camera path and the cumulative time. It may be determined according to the degree.

S605において、配置決定部406は、要求取得部405から、領域の重要度に応じた要求として、上限カメラ間角度及び下限解像度を取得する。図5に示したように、予め保持された重要度と要求の対応表が取得されても良いし、S604で算出された領域重要度に対して、操作部305を介してオペレータにより要求が設定されても良い。S606において、配置決定部406は、配置条件記憶部404から、カメラ配置条件として、例えば現在のカメラ101の配置の情報、配置可能なカメラ101の情報、設置可能場所の情報、及び撮影対象領域201の情報を取得する。 In S605, the arrangement determination unit 406 acquires the upper limit camera-to-camera angle and the lower limit resolution as a request according to the importance of the area from the request acquisition unit 405. As shown in FIG. 5, the correspondence table between the importance held in advance and the request may be acquired, or the request is set by the operator via the operation unit 305 for the area importance calculated in S604. May be done. In S606, the placement determination unit 406 may use the placement condition storage unit 404 as camera placement conditions, for example, information on the placement of the current camera 101, information on the camera 101 that can be placed, information on the place where the camera can be placed, and a shooting target area 201. Get information about.

S607において、配置決定部406は、S605で取得された要求と、S606で取得されたカメラ配置条件に基づいて、カメラ配置を決定する。カメラ配置の決定方法の一例としては、まず、設置済のカメラ101の配置に応じた領域毎のカメラ間角度及び解像度が算出され、要求を満たさない領域が特定される。そして、重要度の高い領域から優先的に、要求を満たすように設置済のカメラ101の位置、姿勢、及び焦点距離の少なくとも何れかが変更される。なお、カメラ101の位置及び姿勢は雲台により制御され、焦点距離はズームレンズにより制御される。 In S607, the arrangement determination unit 406 determines the camera arrangement based on the request acquired in S605 and the camera arrangement condition acquired in S606. As an example of the method of determining the camera arrangement, first, the inter-camera angle and the resolution for each area according to the arrangement of the installed cameras 101 are calculated, and the area that does not satisfy the requirement is specified. Then, at least one of the position, the posture, and the focal length of the installed camera 101 is changed so as to satisfy the request preferentially from the region of high importance. The position and orientation of the camera 101 are controlled by the pan head, and the focal length is controlled by the zoom lens.

また、現在設置済のカメラ101の設定の変更だけでは要求を満たせない場合は、配置可能な場所に配置可能なカメラ101が追加される。設置済のカメラ101がある場合は、設置済みカメラ101の変更及びカメラ101の追加台数ができるだけ少なくなるようにカメラ配置が決定されてもよい。あるいは、設置済のカメラ101の状態は変更せず、要求を満たすように追加のカメラ101が設置されても良い。その際には、重要度の高い領域の要求が少なくとも満たされるようにしても良い。また、設置済みのカメラ101は固定され、追加のカメラ101として雲台で制御できるカメラ101を設置しておいて、これらのカメラ101が制御されてもよい。 Further, if the request cannot be satisfied only by changing the setting of the currently installed camera 101, the camera 101 that can be arranged is added to the place where the camera 101 can be arranged. If there is an installed camera 101, the camera arrangement may be determined so as to change the installed camera 101 and to reduce the number of additional cameras 101 as much as possible. Alternatively, the state of the installed camera 101 may not be changed, and an additional camera 101 may be installed so as to satisfy the request. In that case, at least the requirements of the high-importance area may be satisfied. Further, the installed camera 101 may be fixed, and a camera 101 that can be controlled by a pan head may be installed as an additional camera 101, and these cameras 101 may be controlled.

また、設置済のカメラ101がない場合には、撮影対象領域201を一定条件で撮影できるように複数のカメラ101を仮配置した後で、重要度の高い領域から要求が満たされるようにカメラ配置が変更されても良い。また、焦点距離の異なる複数種類のカメラ101がある場合、それらが組み合わせて配置されても良い。その際、重要度の高い領域の撮影には、優先的に望遠レンズのカメラが使用されてもよい。 If there is no installed camera 101, a plurality of cameras 101 are temporarily arranged so that the shooting target area 201 can be photographed under certain conditions, and then the cameras are arranged so that the demand is satisfied from the area of high importance. May be changed. Further, when there are a plurality of types of cameras 101 having different focal lengths, they may be arranged in combination. At that time, a camera with a telephoto lens may be preferentially used for photographing a region of high importance.

S608において、配置決定部406は、S607で決定されたカメラ配置を示す配置情報を出力する。配置情報は表示部306を介してオペレータやカメラ設置作業者などのユーザに提示され、ユーザはその表示を見て、S607で決定されたカメラ配置が実現されるようにカメラ101の設置や調整を行う。なお、配置情報が通信部307を介して制御装置103に送信され、制御装置103が受信した配置情報に応じてカメラ101の位置や向きを自動で変更しても良い。 In S608, the arrangement determination unit 406 outputs the arrangement information indicating the camera arrangement determined in S607. The arrangement information is presented to users such as operators and camera installation workers via the display unit 306, and the user sees the display and installs or adjusts the camera 101 so that the camera arrangement determined in S607 is realized. conduct. The arrangement information may be transmitted to the control device 103 via the communication unit 307, and the position and orientation of the camera 101 may be automatically changed according to the arrangement information received by the control device 103.

以上の処理により、仮想カメラパスに応じた適切な仮想視点画像を生成するための要求を満たすようなカメラ配置が実現される。そして、そのように配置された複数のカメラ101により取得された複数の撮影画像に基づいて、画像生成装置104は仮想カメラパスに応じた仮想視点画像を高画質に生成できる。このような方法によれば、仮想視点を自由に指定してもそれに応じてカメラ配置を決定することにより高画質な仮想視点画像を生成できるため、仮想視点の指定に係る自由度を向上させることができる。 Through the above processing, a camera arrangement that satisfies the requirements for generating an appropriate virtual viewpoint image according to the virtual camera path is realized. Then, the image generation device 104 can generate a virtual viewpoint image according to the virtual camera path with high image quality based on the plurality of captured images acquired by the plurality of cameras 101 so arranged. According to such a method, even if the virtual viewpoint is freely specified, a high-quality virtual viewpoint image can be generated by determining the camera arrangement accordingly, so that the degree of freedom related to the designation of the virtual viewpoint can be improved. Can be done.

図8に、S608で出力される配置情報の例を示す。図8(A)は、設置済のカメラ101がない場合に出力される配置情報の例を示す。図8(A)では、カメラA、カメラB、及びカメラCのそれぞれについて、カメラ位置及び注視点の3次元座標と焦点距離が示されている。なお、注視点とは、カメラ101の光軸上の位置(カメラ101の位置から撮影方向に離れた位置)であり、例えばカメラ101の光軸と撮影対象領域201の地面とが交差する位置である。カメラ101の位置と注視点が決まれば、それに応じてカメラ101の向きも決まる。なお、図8(B)に示すようなカメラ配置の全体図が配置情報として出力されても良い。 FIG. 8 shows an example of the arrangement information output in S608. FIG. 8A shows an example of arrangement information output when there is no installed camera 101. In FIG. 8A, the three-dimensional coordinates and the focal length of the camera position and the gazing point are shown for each of the camera A, the camera B, and the camera C. The gazing point is a position on the optical axis of the camera 101 (a position away from the position of the camera 101 in the shooting direction), for example, at a position where the optical axis of the camera 101 and the ground of the shooting target area 201 intersect. be. Once the position and gaze point of the camera 101 are determined, the orientation of the camera 101 is also determined accordingly. The overall view of the camera arrangement as shown in FIG. 8B may be output as the arrangement information.

図8(C)は、設置済のカメラ101がある場合に出力される配置情報の例である。図8(C)では、設定を変更すべきカメラA及びカメラCのそれぞれについて、位置、姿勢、及び焦点距離の変更量が示されている。また、図8(C)のように、設定を変更すべきカメラ101を特定可能に示すカメラ配置の全体図が配置情報として出力されても良い。 FIG. 8C is an example of arrangement information output when there is an installed camera 101. FIG. 8C shows the amount of change in position, posture, and focal length for each of camera A and camera C whose settings should be changed. Further, as shown in FIG. 8C, an overall view of the camera arrangement indicating the camera 101 whose setting should be changed may be output as arrangement information.

また、設置済のカメラ101の設定を変更することなく、重要領域を撮影するカメラ101を追加する場合もある。この場合、図8(A)のような追加すべきカメラ101の配置に関する情報と、図8(D)のような追加すべきカメラ101の位置を示すカメラ配置の全体図とが、出力される配置情報に含まれても良い。なお、配置情報の形式は図8の例に限定されない。例えば、カメラ位置が、3次元座標ではなく、カメラ101を設置可能な予め定められた位置やその位置の番号で示されても良い。また、注視点の3次元座標ではなく、カメラ101の撮影範囲を示すシミュレーション画像が表示されてもよい。 In addition, a camera 101 that captures an important area may be added without changing the settings of the installed camera 101. In this case, information regarding the arrangement of the camera 101 to be added as shown in FIG. 8A and an overall view of the camera arrangement showing the position of the camera 101 to be added as shown in FIG. 8D are output. It may be included in the placement information. The format of the arrangement information is not limited to the example of FIG. For example, the camera position may be indicated by a predetermined position where the camera 101 can be installed or a number of the position, instead of the three-dimensional coordinates. Further, a simulation image showing the shooting range of the camera 101 may be displayed instead of the three-dimensional coordinates of the gazing point.

なお、仮想カメラパスに応じた仮想カメラの撮影方向毎に領域重要度が算出されて、カメラ配置が決定されても良い。例えば、図7に示した仮想カメラパスでは、撮影対象領域201の下側からのみ仮想カメラによる撮影が行われている。そのため、仮想カメラの撮影方向の反対側にあるカメラ101(図8(D)の例におけるカメラF~J)の配置を行わない、またはカメラ台数や設定値を変更しても良い。 The area importance may be calculated for each shooting direction of the virtual camera according to the virtual camera path, and the camera arrangement may be determined. For example, in the virtual camera path shown in FIG. 7, shooting is performed by the virtual camera only from the lower side of the shooting target area 201. Therefore, the cameras 101 (cameras F to J in the example of FIG. 8D) located on the opposite side of the shooting direction of the virtual camera may not be arranged, or the number of cameras and the set value may be changed.

また、図8(B)及び図8(C)に示す配置情報の例は、決定されたカメラ配置を2次元的に示すものであるが、配置情報の例はこれに限定されず、決定されたカメラ配置を3次元的に示すものであってもよい。すなわち、出力される配置情報は、決定されたカメラ配置における各カメラ101の高さを示す図を含んでもよい。 Further, the example of the arrangement information shown in FIGS. 8B and 8C shows the determined camera arrangement two-dimensionally, but the example of the arrangement information is not limited to this and is determined. The camera arrangement may be three-dimensionally shown. That is, the output placement information may include a diagram showing the height of each camera 101 in the determined camera placement.

また、本実施形態では、撮影対象領域201のうち、仮想カメラパスに応じた仮想カメラの撮影範囲に全く含まれない領域については重要度低として、その領域についても一定の要求は満たされるようにカメラ配置が決定されるものとした。これにより、仮想カメラパスを少し変更したり追加したりしても、そのカメラパスに応じた仮想視点画像を生成できる。ただし、特定された仮想カメラパスのみを用いて仮想視点画像が生成される場合は、仮想カメラパスに応じた仮想カメラの撮影範囲に全く含まれない領域はカメラ101により撮影されないように、カメラ配置が決定されても良い。 Further, in the present embodiment, of the shooting target area 201, the area that is not included in the shooting range of the virtual camera according to the virtual camera path is regarded as low in importance, and certain requirements are satisfied for that area as well. It was assumed that the camera placement would be decided. As a result, even if the virtual camera path is slightly changed or added, a virtual viewpoint image corresponding to the camera path can be generated. However, when the virtual viewpoint image is generated using only the specified virtual camera path, the camera is arranged so that the area not included in the shooting range of the virtual camera corresponding to the virtual camera path is not captured by the camera 101. May be determined.

[変形例]
以下では、仮想カメラパスに応じた仮想カメラの撮影範囲内に存在するオブジェクトの位置に基づいてカメラ配置を決定する、画像処理システム100の変形例について説明する。本変形例においては、複数のカメラ101により取得された複数の撮影画像と指定された仮想カメラパスとに基づいて仮想視点画像が生成され、その仮想カメラパスに基づいて複数のカメラ101の配置や設定が変更される。そして、変更後の配置や設定に応じた複数のカメラ101により改めて取得された複数の撮影画像を使用することで、指定された仮想カメラパスに応じた高画質の仮想視点画像が生成される。例えば、リハーサル撮影時に指定された仮想カメラパスに基づいて、本番撮影時のカメラ配置が決定される。本番撮影時には、リハーサル撮影時に用いられたカメラ101の位置や向きを変更してもよいし、リハーサル撮影時に用いられなかったカメラ101が追加されてもよい。なお、本変形例における仮想カメラパスには、各フレームに対応する撮影時刻あるいは撮影時のタイムコード情報が含まれているものとする。以下の説明では、上述した実施形態との相違点を中心に説明する。
[Modification example]
Hereinafter, a modified example of the image processing system 100 that determines the camera arrangement based on the position of an object existing in the shooting range of the virtual camera according to the virtual camera path will be described. In this modification, a virtual viewpoint image is generated based on a plurality of captured images acquired by a plurality of cameras 101 and a designated virtual camera path, and the arrangement of the plurality of cameras 101 is performed based on the virtual camera path. The settings are changed. Then, by using the plurality of captured images re-acquired by the plurality of cameras 101 according to the changed arrangement and settings, a high-quality virtual viewpoint image corresponding to the designated virtual camera path is generated. For example, the camera arrangement at the time of actual shooting is determined based on the virtual camera path specified at the time of rehearsal shooting. At the time of actual shooting, the position and orientation of the camera 101 used at the time of rehearsal shooting may be changed, or the camera 101 not used at the time of rehearsal shooting may be added. It is assumed that the virtual camera path in this modification includes the shooting time corresponding to each frame or the time code information at the time of shooting. In the following description, the differences from the above-described embodiments will be mainly described.

図9は、本変形例における画像処理システム100の構成を示す。図9において、図4に示した処理部と同様の処理を行う処理部については、同一の符号を付与している。オブジェクト情報取得部901は、パス取得部401で取得された仮想カメラパスに応じたオブジェクト情報を取得し、オブジェクト領域算出部902に送信する。オブジェクト情報とは、撮影時(例えばリハーサル時)に撮影対象領域201内に存在するオブジェクトの種類と撮影時刻毎の形状及び位置を示す情報である。オブジェクトの種類には人物や物の種類や名称が含まれる。オブジェクトの形状及び位置を示すは、例えば、仮想視点画像を生成するために用いられるオブジェクトの3次元モデルの形状と位置を示す情報である。なお、画像認識技術を用いることで人物の顔などを特定した結果がオブジェクト情報に含まれても良い。 FIG. 9 shows the configuration of the image processing system 100 in this modification. In FIG. 9, the same reference numerals are given to the processing units that perform the same processing as that shown in FIG. The object information acquisition unit 901 acquires the object information corresponding to the virtual camera path acquired by the path acquisition unit 401 and transmits it to the object area calculation unit 902. The object information is information indicating the type of the object existing in the shooting target area 201 at the time of shooting (for example, at the time of rehearsal) and the shape and position for each shooting time. The types of objects include the types and names of people and objects. The shape and position of the object are, for example, information indicating the shape and position of the three-dimensional model of the object used to generate the virtual viewpoint image. The object information may include the result of identifying a person's face or the like by using the image recognition technique.

オブジェクト情報取得部901により取得されるオブジェクト情報は、画像生成装置104で生成されたものに限らず、別の処理システムや、外部のオブジェクト形状モデル生成装置において生成されたものでも良い。あるいは、オブジェクト情報は、予め想定されるオブジェクトの動きをシミュレーションした結果に基づいて生成されたものでも良く、これらに限定されない。オブジェクト情報取得部901は、撮影時の全フレーム分のオブジェクト情報を取得し、その中からパス取得部401で取得された仮想カメラパスに含まれるフレームに対応する撮影時刻のオブジェクト情報を抽出してもよい。あるいは、オブジェクト情報取得部901は、仮想カメラパスに含まれるフレームに対応する撮影時刻のオブジェクト情報のみを外部から取得しても良い。 The object information acquired by the object information acquisition unit 901 is not limited to the one generated by the image generation device 104, but may be generated by another processing system or an external object shape model generation device. Alternatively, the object information may be generated based on the result of simulating the movement of the object assumed in advance, and is not limited thereto. The object information acquisition unit 901 acquires object information for all frames at the time of shooting, and extracts object information at the shooting time corresponding to the frame included in the virtual camera path acquired by the path acquisition unit 401. May be good. Alternatively, the object information acquisition unit 901 may acquire only the object information of the shooting time corresponding to the frame included in the virtual camera path from the outside.

オブジェクト領域算出部902は、撮影範囲算出部402から受信した仮想カメラの撮影範囲と、オブジェクト情報取得部901から受信したオブジェクト情報に基づいて、仮想カメラの撮影範囲に含まれるオブジェクトが存在する領域を算出する。算出されたオブジェクト領域は、重要度算出部903に送信される。算出されるオブジェクト領域は、仮想カメラの撮影範囲内にあるオブジェクト全ての領域を含んでも良いし、特定のオブジェクトの領域のみを含んでも良い。特定のオブジェクトは、例えば、特定の人物や、人物の顔や、コマーシャル撮影における商品、社名や製品ロゴなどである。特定のオブジェクトは、撮影内容に応じて決定されても良いし、オペレータの指示に基づいて決定されても良い。 The object area calculation unit 902 determines an area in which an object included in the shooting range of the virtual camera exists based on the shooting range of the virtual camera received from the shooting range calculation unit 402 and the object information received from the object information acquisition unit 901. calculate. The calculated object area is transmitted to the importance calculation unit 903. The calculated object area may include the area of all the objects within the shooting range of the virtual camera, or may include only the area of a specific object. The specific object is, for example, a specific person, the face of the person, a product in commercial photography, a company name, a product logo, or the like. The specific object may be determined according to the shooting content, or may be determined based on the instruction of the operator.

重要度算出部903は、オブジェクト領域算出部902から受信したオブジェクト領域を基に、撮影対象領域201内の各領域の重要度を算出する。重要度の算出方法としては、上述した方法と同様に、撮影対象領域201内の各ブロックがオブジェクト領域に含まれるフレームの数を累積し、累積時間が長いほどそのブロックの重要度が高くなるように算出されても良い。ただしこれに限らず、オブジェクト領域に1フレーム以上含まれるブロックは全て重要領域となるように重要度が算出されても良い。 The importance calculation unit 903 calculates the importance of each area in the shooting target area 201 based on the object area received from the object area calculation unit 902. As a method of calculating the importance, as in the above method, each block in the shooting target area 201 accumulates the number of frames included in the object area, and the longer the cumulative time, the higher the importance of the block. It may be calculated in. However, the importance is not limited to this, and the importance may be calculated so that all the blocks included in the object area for one or more frames are important areas.

または、特定のオブジェクトの存在する領域のみを重要な領域としても良いし、仮想カメラの視野に含まれるオブジェクトの種類に応じて重要度に重み付けしても良い。オブジェクトに応じた重み付けの仕方については、撮影内容に応じて決定されても良いし、オペレータの指示に応じて決定されても良い。また、仮想カメラの視野におけるオブジェクトの大きさに応じて重要度に重み付けを行い、例えば、仮想カメラがオブジェクトを大きく撮影している場合ほどそのオブジェクトが位置する領域の重要度を高くしてもよい。 Alternatively, only the area where a specific object exists may be regarded as an important area, or the importance may be weighted according to the type of the object included in the field of view of the virtual camera. The weighting method according to the object may be determined according to the shooting content or may be determined according to the instruction of the operator. Further, the importance may be weighted according to the size of the object in the field of view of the virtual camera. For example, the area in which the object is located may be more important as the virtual camera shoots the object larger. ..

次に、本変形例の配置決定装置105の処理フローについて、図10を用いて説明する。図10に示す処理は、画像処理システム100を介してユーザにより仮想カメラパスが指定され、配置決定装置105が操作部305を介してオペレータからカメラ配置決定を行うための指示を受け付けたタイミングで開始される。この仮想カメラパスは、例えば、リハーサル時の撮影画像に基づいて仮想視点画像を試作する際に指定される。なお、図10に示す処理の開始タイミングは上記に限定されない。なお、図10の説明において、図6を用いて説明した処理と同様の処理については同一の符号を付与している。以下では、図6で示した処理との相違点を中心に説明する。 Next, the processing flow of the arrangement determination device 105 of this modification will be described with reference to FIG. The process shown in FIG. 10 starts at the timing when the virtual camera path is specified by the user via the image processing system 100 and the arrangement determination device 105 receives an instruction from the operator to determine the camera arrangement via the operation unit 305. Will be done. This virtual camera path is specified, for example, when prototyping a virtual viewpoint image based on a captured image at the time of rehearsal. The start timing of the process shown in FIG. 10 is not limited to the above. In the description of FIG. 10, the same reference numerals are given to the same processes as those described with reference to FIG. In the following, the differences from the processing shown in FIG. 6 will be mainly described.

S1001において、オブジェクト情報取得部901は、S601で取得された仮想カメラパスに含まれる各フレームの撮影時刻に対応するオブジェクト情報を取得する。S1002において、オブジェクト領域算出部902は、S601で取得された仮想カメラパスに含まれる各フレームについて、S1001で取得されたオブジェクト情報に基づいて、S602で算出された仮想カメラの撮影範囲内のオブジェクト領域を算出する。 In S1001, the object information acquisition unit 901 acquires the object information corresponding to the shooting time of each frame included in the virtual camera path acquired in S601. In S1002, the object area calculation unit 902 has the object area within the shooting range of the virtual camera calculated in S602 based on the object information acquired in S1001 for each frame included in the virtual camera path acquired in S601. Is calculated.

図11(A)に、仮想カメラパスが示す仮想カメラ701~703とS602で算出された仮想カメラの撮影範囲704~706、及び各フレームにおいてオブジェクトが存在する領域1101及び領域1102の例を示す。図11(A)において、領域1101は仮想カメラの撮影範囲内に位置するオブジェクトの領域であり、領域1102は仮想カメラの撮影範囲外に位置するオブジェクトの領域である。なお、1つのオブジェクトが仮想カメラの撮影範囲内外にまたがって存在する場合は、撮影範囲内にあるオブジェクトの一部の領域のみを撮影範囲内のオブジェクト領域として扱っても良い。あるいは、そのようなオブジェクト全体の領域を、撮影範囲内のオブジェクト領域または撮影範囲外の領域として扱っても良い。 FIG. 11A shows an example of the virtual cameras 701 to 703 indicated by the virtual camera path, the shooting ranges 704 to 706 of the virtual cameras calculated in S602, and the areas 1101 and 1102 in which the object exists in each frame. In FIG. 11A, the area 1101 is the area of the object located within the shooting range of the virtual camera, and the area 1102 is the area of the object located outside the shooting range of the virtual camera. When one object exists within or outside the shooting range of the virtual camera, only a part of the area of the object within the shooting range may be treated as the object area within the shooting range. Alternatively, the entire area of such an object may be treated as an object area within the shooting range or an area outside the shooting range.

S1003において、重要度算出部903は、S1002で算出された仮想カメラの撮影範囲内のオブジェクト領域を仮想カメラパスに含まれる全フレームにわたって累積することで得られる累積領域を算出する。図11(B)は、図11(A)に示した仮想カメラ撮影範囲内のオブジェクトの領域1101を累積した様子を示す。 In S1003, the importance calculation unit 903 calculates the cumulative area obtained by accumulating the object areas within the shooting range of the virtual camera calculated in S1002 over all the frames included in the virtual camera path. FIG. 11B shows a state in which the area 1101 of the object in the virtual camera shooting range shown in FIG. 11A is accumulated.

S1004において、重要度算出部903は、S1003で算出されたオブジェクト領域の累積結果に基づいて、重要領域を算出し、配置決定部406に送信する。図11(C)は、領域1101の累積領域を囲むように算出された重要領域1103を示す。すなわち、各フレームにおけるオブジェクト領域が重要領域に含まれる。ただし、重要領域1103は、図11(C)の例のような四角形でなくても良く、例えば累積領域の輪郭の形状であっても良いし、楕円形などであっても良い。また、累積領域の周囲にマージンを取るように重要領域1103が設定されてもよい。重要度算出部903は、重要領域に含まれる領域の重要度を一律に設定してもよいし、重要領域に含まれる領域のうちオブジェクト領域であったフレーム数が多い領域ほど重要度が高くなるように重要度を設定してもよい。 In S1004, the importance calculation unit 903 calculates the important area based on the cumulative result of the object area calculated in S1003, and transmits it to the arrangement determination unit 406. FIG. 11C shows the important region 1103 calculated so as to surround the cumulative region of the region 1101. That is, the object area in each frame is included in the important area. However, the important region 1103 does not have to be a quadrangle as in the example of FIG. 11C, and may be, for example, the contour shape of the cumulative region, an ellipse, or the like. Further, the important area 1103 may be set so as to take a margin around the cumulative area. The importance calculation unit 903 may uniformly set the importance of the area included in the important area, or the area included in the important area having a large number of frames, which is an object area, has a higher importance. The importance may be set as follows.

各領域の重要度が算出された後の処理は、図6を用いて説明した処理と同様であり、領域重要度に応じた要求とカメラ配置条件に基づいてカメラ配置が決定され、決定されたカメラ配置を示す配置情報が出力される。以上の処理により、仮想カメラパスに応じた仮想カメラの撮影範囲内のオブジェクト(すなわち仮想視点画像に映るオブジェクト)が仮想視点画像において高画質で表示されるための要求を満たすようなカメラ配置が実現される。そして、そのように配置された複数のカメラ101により取得された複数の撮影画像に基づいて、画像生成装置104は仮想カメラパスに応じた仮想視点画像を高画質に生成できる。 The process after the importance of each area is calculated is the same as the process described with reference to FIG. 6, and the camera arrangement is determined and determined based on the request according to the area importance and the camera arrangement condition. Placement information indicating the camera placement is output. Through the above processing, a camera arrangement that meets the requirements for high-quality display of objects within the shooting range of the virtual camera according to the virtual camera path (that is, objects reflected in the virtual viewpoint image) is realized. Will be done. Then, the image generation device 104 can generate a virtual viewpoint image according to the virtual camera path with high image quality based on the plurality of captured images acquired by the plurality of cameras 101 so arranged.

例えば、スタジオ撮影などの撮り直しが可能な状況において、撮影画像と指定された仮想カメラパスに基づいて生成された仮想視点画像の画質が不十分な場合に、その仮想カメラパスに基づいて次の撮影のためにカメラ配置を修正することができる。また、演者が既定の動きをするような撮影においては、演者の位置と動きを表すシミュレーションデータと仮想カメラパスに基づいてカメラ配置を決定することも可能である。また、スタジオ撮影に限らず、例えばスポーツ撮影においても、過去の撮影データ及び仮想カメラパスを用いることで、次回の撮影に向けてカメラ配置を改善することが可能である。 For example, in a situation where reshooting is possible such as studio shooting, if the image quality of the shot image and the virtual viewpoint image generated based on the specified virtual camera path is insufficient, the following is based on the virtual camera path. You can modify the camera placement for shooting. Further, in shooting in which the performer makes a predetermined movement, it is possible to determine the camera arrangement based on the simulation data representing the position and movement of the performer and the virtual camera path. Further, not only in studio shooting but also in sports shooting, for example, it is possible to improve the camera arrangement for the next shooting by using the past shooting data and the virtual camera path.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC等)によっても実現可能である。また、そのプログラムをコンピュータにより読み取り可能な記録媒体に記録して提供してもよい。 The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC or the like) that realizes one or more functions. Further, the program may be recorded and provided on a recording medium readable by a computer.

100 画像処理システム
101 カメラ
102 ハブ
103 制御装置
104 画像生成装置
105 配置決定装置
100 Image processing system 101 Camera 102 Hub 103 Control device 104 Image generator 105 Placement determination device

Claims (19)

複数の撮影装置によりそれぞれ異なる位置から撮影対象領域を撮影することにより得られる複数の画像に基づいて生成される仮想視点画像に対応する仮想視点の位置及び向きを特定する特定手段と、
前記特定手段により特定された前記仮想視点の位置及び向きに基づいて、前記複数の撮影装置に含まれる撮影装置の位置及び向きを決定する決定手段と、を有することを特徴とする情報処理装置。
A specific means for specifying the position and orientation of a virtual viewpoint corresponding to a virtual viewpoint image generated based on a plurality of images obtained by shooting a shooting target area from different positions by a plurality of shooting devices.
An information processing apparatus comprising: a determination means for determining the position and orientation of an imaging device included in the plurality of imaging devices based on the position and orientation of the virtual viewpoint specified by the specific means.
前記特定手段は、複数の時点のそれぞれにおける前記仮想視点の位置及び向きを特定し、
前記決定手段は、前記複数の時点のそれぞれにおける前記仮想視点の位置及び向きに基づいて、前記複数の撮影装置に含まれる撮影装置の位置及び向きを決定することを特徴とする請求項1に記載の情報処理装置。
The specific means identifies the position and orientation of the virtual viewpoint at each of a plurality of time points, and determines the position and orientation of the virtual viewpoint.
The first aspect of the present invention is characterized in that the determination means determines the position and orientation of the imaging device included in the plurality of imaging devices based on the position and orientation of the virtual viewpoint at each of the plurality of time points. Information processing equipment.
前記特定手段は、前記仮想視点の位置、向き、及び前記仮想視点に対応する画角を特定し、
前記決定手段は、前記特定手段により特定された前記仮想視点の位置、向き、及び前記仮想視点に対応する画角に基づいて、前記複数の撮影装置に含まれる撮影装置の位置、向き及び画角を決定することを特徴とする請求項1又は2に記載の情報処理装置。
The specifying means identifies the position and orientation of the virtual viewpoint, and the angle of view corresponding to the virtual viewpoint.
The determining means is a position, orientation and angle of view of the photographing apparatus included in the plurality of photographing devices based on the position and orientation of the virtual viewpoint specified by the specific means and the angle of view corresponding to the virtual viewpoint. The information processing apparatus according to claim 1 or 2, wherein the information processing apparatus is determined.
前記特定手段は、前記仮想視点の位置及び向きを指定するためのユーザ操作に応じた入力に基づいて、前記仮想視点の位置及び向きを特定することを特徴とする請求項1乃至3の何れか1項に記載の情報処理装置。 Any of claims 1 to 3, wherein the specifying means specifies the position and orientation of the virtual viewpoint based on an input corresponding to a user operation for designating the position and orientation of the virtual viewpoint. The information processing apparatus according to item 1. 前記特定手段は、前記複数の撮影装置による撮影が行われる前に指定された前記仮想視点の位置及び向きを特定することを特徴とする請求項1乃至4の何れか1項に記載の情報処理装置。 The information processing according to any one of claims 1 to 4, wherein the specific means specifies the position and orientation of the virtual viewpoint designated before the imaging by the plurality of imaging devices is performed. Device. 前記決定手段により決定された位置及び向きに応じて設置された前記複数の撮影装置による撮影により得られた複数の画像に基づいて、前記特定手段により特定された前記仮想視点の位置及び向きに応じた仮想視点画像を生成する生成手段を有することを特徴とする請求項1乃至5の何れか1項に記載の情報処理装置。 According to the position and orientation of the virtual viewpoint specified by the specific means, based on a plurality of images obtained by photographing by the plurality of photographing devices installed according to the position and orientation determined by the determination means. The information processing apparatus according to any one of claims 1 to 5, further comprising a generation means for generating a virtual viewpoint image. 前記特定手段は、第1の複数の画像に基づいて第1の仮想視点画像を生成するために指定された前記仮想視点の位置及び向きを特定し、
前記決定手段は、前記特定手段により特定された前記仮想視点の位置及び向きに応じた第2の仮想視点画像を生成するために用いられる第2の複数の画像を取得するための撮影装置の位置及び向きを決定することを特徴とする請求項1乃至4の何れか1項に記載の情報処理装置。
The specifying means identifies the position and orientation of the virtual viewpoint designated for generating the first virtual viewpoint image based on the first plurality of images.
The determination means is a position of a photographing device for acquiring a plurality of second images used for generating a second virtual viewpoint image according to the position and orientation of the virtual viewpoint specified by the specific means. The information processing apparatus according to any one of claims 1 to 4, wherein the information processing apparatus is characterized in that the orientation is determined.
前記決定手段により位置及び向きが決定される撮影装置には、前記第1の複数の画像を取得するためには用いられない撮影装置が含まれることを特徴とする請求項7に記載の情報処理装置。 The information processing according to claim 7, wherein the photographing device whose position and orientation are determined by the determining means includes a photographing device that is not used for acquiring the first plurality of images. Device. 前記決定手段は、前記第1の複数の画像を撮影するために用いられた撮影装置の位置及び向きに基づいて、前記第2の複数の画像を取得するための撮影装置の位置及び向きを決定することを特徴とする請求項7に記載の情報処理装置。 The determining means determines the position and orientation of the photographing device for acquiring the second plurality of images based on the position and orientation of the photographing device used for capturing the first plurality of images. The information processing apparatus according to claim 7, wherein the information processing apparatus is to be used. 前記決定手段により決定された撮影装置の位置及び向きの少なくとも何れかに基づいて当該撮影装置の位置及び向きの少なくとも何れかを制御する制御手段を有することを特徴とする請求項1乃至9の何れか1項に記載の情報処理装置。 Any of claims 1 to 9, further comprising a control means for controlling at least one of the positions and orientations of the photographing apparatus based on at least one of the positions and orientations of the photographing apparatus determined by the determining means. The information processing apparatus according to claim 1. 前記決定手段は、
前記撮影対象領域に含まれる部分領域であって前記特定手段により特定された前記仮想視点の位置及び向きに応じた視野に含まれる部分領域を特定し、
前記撮影装置による前記部分領域の撮影状況が所定の要求を満たすように、前記撮影装置の位置及び向きを決定することを特徴とする請求項1乃至10の何れか1項に記載の情報処理装置。
The determination means is
A partial region included in the visual field according to the position and orientation of the virtual viewpoint specified by the specific means, which is a partial region included in the imaging target region, is specified.
The information processing apparatus according to any one of claims 1 to 10, wherein the position and orientation of the photographing apparatus are determined so that the photographing condition of the partial region by the photographing apparatus satisfies a predetermined requirement. ..
前記決定手段により特定される前記部分領域は、前記撮影対象領域に存在する所定のオブジェクトが位置する領域であることを特徴とする請求項11に記載の情報処理装置。 The information processing apparatus according to claim 11, wherein the partial area specified by the determination means is an area in which a predetermined object existing in the photographing target area is located. 前記所定の要求には、前記部分領域に対する複数の撮影装置の位置関係に関する要求と、前記部分領域の撮影に係る解像度に関する要求との、少なくとも何れかが含まれることを特徴とする請求項11又は12に記載の情報処理装置。 11. The information processing apparatus according to 12. 前記特定手段は、複数の時点のそれぞれにおける前記仮想視点の位置及び向きを特定し、
前記決定手段は、前記部分領域の重要度を、前記複数の時点のうち前記仮想視点の位置及び向きに応じた視野に前記部分領域が含まれる時点の数に基づいて決定し、
前記所定の要求は、前記部分領域の重要度に応じて決まることを特徴とする請求項11乃至13の何れか1項に記載の情報処理装置。
The specific means identifies the position and orientation of the virtual viewpoint at each of a plurality of time points, and determines the position and orientation of the virtual viewpoint.
The determination means determines the importance of the partial region based on the number of time points in which the partial region is included in the visual field according to the position and orientation of the virtual viewpoint among the plurality of time points.
The information processing apparatus according to any one of claims 11 to 13, wherein the predetermined requirement is determined according to the importance of the partial region.
前記決定手段は、前記部分領域の重要度を、前記複数の時点のそれぞれにおける前記仮想視点の位置及び向きを示す仮想カメラパスに対応する撮影シーンと、当該仮想カメラパスの人気度と、当該仮想カメラパスに応じた視野に含まれるオブジェクトの種類と、当該視野における当該オブジェクトの大きさとの、少なくとも何れかに基づいて決定することを特徴とする請求項14に記載の情報処理装置。 The determining means determines the importance of the partial region, a shooting scene corresponding to a virtual camera path indicating the position and orientation of the virtual viewpoint at each of the plurality of time points, the popularity of the virtual camera path, and the virtual. The information processing apparatus according to claim 14, wherein the information processing apparatus is determined based on at least one of the type of an object included in the field of view according to the camera path and the size of the object in the field of view. 複数の撮影装置によりそれぞれ異なる位置から撮影対象領域を撮影することにより得られる複数の画像に基づいて生成される仮想視点画像に対応する仮想視点の位置及び向きを特定する特定工程と、
前記特定工程において特定された前記仮想視点の位置及び向きに基づいて、前記複数の撮影装置に含まれる撮影装置の位置及び向きを決定する決定工程と、を有することを特徴とする情報処理方法。
A specific process for specifying the position and orientation of a virtual viewpoint corresponding to a virtual viewpoint image generated based on a plurality of images obtained by shooting a shooting target area from different positions by a plurality of shooting devices.
An information processing method comprising: a determination step of determining a position and an orientation of an imaging device included in the plurality of imaging devices based on the position and orientation of the virtual viewpoint specified in the specific step.
前記特定工程においては、複数の時点のそれぞれにおける前記仮想視点の位置及び向きが特定され、
前記決定工程においては、前記複数の時点のそれぞれにおける前記仮想視点の位置及び向きに基づいて、前記複数の撮影装置に含まれる撮影装置の位置及び向きが決定されることを特徴とする請求項16に記載の情報処理方法。
In the specific step, the position and orientation of the virtual viewpoint at each of the plurality of time points are specified.
16. The determination step is characterized in that the positions and orientations of the photographing devices included in the plurality of photographing devices are determined based on the positions and orientations of the virtual viewpoints at each of the plurality of time points. Information processing method described in.
前記決定工程は、
前記撮影対象領域に含まれる部分領域であって前記特定工程において特定された前記仮想視点の位置及び向きに応じた視野に含まれる部分領域を特定し、
前記撮影装置による前記部分領域の撮影状況が所定の要求を満たすように、前記撮影装置の位置及び向きを決定することを特徴とする請求項16又は17に記載の情報処理方法。
The determination step is
A partial region included in the visual field according to the position and orientation of the virtual viewpoint specified in the specific step, which is a partial region included in the imaging target region, is specified.
The information processing method according to claim 16 or 17, wherein the position and orientation of the photographing apparatus are determined so that the photographing condition of the partial region by the photographing apparatus satisfies a predetermined requirement.
コンピュータを、請求項1乃至15の何れか1項に記載の情報処理装置の各手段として機能させるためのプログラム。 A program for making a computer function as each means of the information processing apparatus according to any one of claims 1 to 15.
JP2020114211A 2020-07-01 2020-07-01 Information processor, information processing method, and program Pending JP2022012398A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020114211A JP2022012398A (en) 2020-07-01 2020-07-01 Information processor, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020114211A JP2022012398A (en) 2020-07-01 2020-07-01 Information processor, information processing method, and program

Publications (1)

Publication Number Publication Date
JP2022012398A true JP2022012398A (en) 2022-01-17

Family

ID=80148653

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020114211A Pending JP2022012398A (en) 2020-07-01 2020-07-01 Information processor, information processing method, and program

Country Status (1)

Country Link
JP (1) JP2022012398A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115272483A (en) * 2022-07-22 2022-11-01 北京城市网邻信息技术有限公司 Image generation method and device, electronic equipment and storage medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115272483A (en) * 2022-07-22 2022-11-01 北京城市网邻信息技术有限公司 Image generation method and device, electronic equipment and storage medium
CN115272483B (en) * 2022-07-22 2023-07-07 北京城市网邻信息技术有限公司 Image generation method and device, electronic equipment and storage medium

Similar Documents

Publication Publication Date Title
KR102105189B1 (en) Apparatus and Method for Selecting Multi-Camera Dynamically to Track Interested Object
WO2019176713A1 (en) Control device, image processing system, control method, and program
KR20140100656A (en) Point video offer device using omnidirectional imaging and 3-dimensional data and method
JP2018107793A (en) Generation device, generation method and program of virtual view point image
KR20200023513A (en) Image processing system, image processing method, and storage medium
CN112311965A (en) Virtual shooting method, device, system and storage medium
JP5963006B2 (en) Image conversion apparatus, camera, video system, image conversion method, and recording medium recording program
KR101649752B1 (en) Generating method for multiview image using interface with image matrix and generating system for multiview image
US11847735B2 (en) Information processing apparatus, information processing method, and recording medium
KR101843018B1 (en) System and Method for Video Composition
JP2022012398A (en) Information processor, information processing method, and program
JP2019103126A (en) Camera system, camera control device, camera control method, and program
JP2010183384A (en) Photographic camera learning apparatus and program therefor
JP2022038176A (en) Control device, control method, and program
JP6672417B2 (en) Image processing apparatus, image processing system, image processing method, and program
JP7494153B2 (en) Generation device, generation method, and program
JP2020014177A (en) Information processing apparatus, information processing method, and program
JP2020136821A (en) Information processing device and control method thereof, and program
JP2023001850A (en) Information processing apparatus, information processing method, and program
WO2022230718A1 (en) Information processing device, information processing method, and program
US20220408069A1 (en) Information processing apparatus, information processing method, and storage medium
JP2022094907A (en) Generation device, generation method, and program
WO2021182153A1 (en) Information processing device, information processing system, information processing method, and program
WO2024042893A1 (en) Information processing device, information processing method, and program
JP2023175503A (en) Image processing apparatus and its image processing method

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20200731