JP2021027548A - Information processing device, information processing method, and program - Google Patents

Information processing device, information processing method, and program Download PDF

Info

Publication number
JP2021027548A
JP2021027548A JP2019146551A JP2019146551A JP2021027548A JP 2021027548 A JP2021027548 A JP 2021027548A JP 2019146551 A JP2019146551 A JP 2019146551A JP 2019146551 A JP2019146551 A JP 2019146551A JP 2021027548 A JP2021027548 A JP 2021027548A
Authority
JP
Japan
Prior art keywords
quality
recording time
virtual viewpoint
time zone
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019146551A
Other languages
Japanese (ja)
Inventor
孝之 小峰
Takayuki Komine
孝之 小峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019146551A priority Critical patent/JP2021027548A/en
Publication of JP2021027548A publication Critical patent/JP2021027548A/en
Pending legal-status Critical Current

Links

Images

Abstract

To facilitate a task of generating a virtual viewpoint image having given quality.SOLUTION: An information processing device for estimating the quality of virtual viewpoint images generated from a plurality of pieces of image data captured by a plurality of imaging devices includes a quality estimation unit 260 that identifies an imaging device capable of capturing image data in a recording time zone in each of a plurality of recording time zones, and estimates the quality of a virtual viewpoint image in each of the recording time zones on the basis of the identified imaging device, and a display unit 270 that displays each of the recording time zones and the estimation result of the quality of the virtual viewpoint image in association with each other.SELECTED DRAWING: Figure 3

Description

本発明は、仮想視点画像を生成するシステムに関する。 The present invention relates to a system that generates a virtual viewpoint image.

昨今、複数のカメラを異なる位置に設置して多視点で同期撮影し、当該撮影により得られた複数視点画像を用いて仮想視点画像を生成する技術が注目されている(特許文献1参照)。 Recently, a technique of installing a plurality of cameras at different positions to perform synchronous shooting from multiple viewpoints and generating a virtual viewpoint image using the multiple viewpoint images obtained by the shooting has attracted attention (see Patent Document 1).

特開2015−204512号公報Japanese Unexamined Patent Publication No. 2015-204512

品質の良い仮想視点画像を生成する為には、同じシーンを同じ時間帯に、様々な方向から撮影した画像データが求められる。一方、複数のカメラで撮影を行う場合に、故障や障害物等の影響により、特定の時間帯において一部のカメラで正常に撮影が行えない場合が考えられる。しかしながら、ユーザが、各カメラによって撮影された各時間帯の画像データを確認し、どの時間帯に品質の良い仮想視点画像を生成することが可能であるかを手作業で確認すると、ユーザの手間が増大し、且つ確認作業に時間がかかる。 In order to generate a high-quality virtual viewpoint image, image data obtained by shooting the same scene from various directions at the same time zone is required. On the other hand, when shooting with a plurality of cameras, it is conceivable that some cameras may not be able to shoot normally at a specific time zone due to the influence of a failure or an obstacle. However, if the user confirms the image data of each time zone taken by each camera and manually confirms in which time zone it is possible to generate a high-quality virtual viewpoint image, it is troublesome for the user. And it takes time to confirm.

本発明は、このような問題に鑑みてなされたものであり、その目的とするところは、所定の品質の仮想視点画像を生成するための作業を容易にすることにある。 The present invention has been made in view of such a problem, and an object of the present invention is to facilitate an operation for generating a virtual viewpoint image of a predetermined quality.

本発明の一実施形態において、複数の撮像装置によって撮像された複数の画像データから生成される仮想視点画像の品質を推定するための情報処理装置は、複数の録画時間帯のそれぞれにおいて、当該録画時間帯の画像データを撮像することができた撮像装置を特定する特定手段と、前記特定した撮像装置に基づいて、各録画時間帯における前記仮想視点画像の品質を推定する推定手段と、前記各録画時間帯と前記仮想視点画像の品質の推定結果とを対応付けて表示する表示手段とを有する。 In one embodiment of the present invention, the information processing device for estimating the quality of the virtual viewpoint image generated from the plurality of image data captured by the plurality of imaging devices is used for the recording in each of the plurality of recording time zones. A specific means for identifying an imaging device capable of capturing image data in a time zone, an estimation means for estimating the quality of the virtual viewpoint image in each recording time zone based on the specified imaging device, and each of the above. It has a display means for displaying the recording time zone and the estimation result of the quality of the virtual viewpoint image in association with each other.

本発明によれば、所定の品質の仮想視点画像を生成するための作業を容易にすることができる。 According to the present invention, it is possible to facilitate the work for generating a virtual viewpoint image of a predetermined quality.

複数のカメラの設置例を示す図である。It is a figure which shows the installation example of a plurality of cameras. システムの構成例を示す図である。It is a figure which shows the configuration example of a system. 録画リスト生成処理を説明する図である。It is a figure explaining the recording list generation process. 録画リスト生成処理のフローチャートである。It is a flowchart of a recording list generation process. 録画表の例を示す図である。It is a figure which shows the example of the recording table. 品質推定処理のフローチャートである。It is a flowchart of quality estimation processing. 品質評価結果の例を示す図である。It is a figure which shows the example of the quality evaluation result. 評価値を含む録画表の例を示す図である。It is a figure which shows the example of the recording table which includes the evaluation value. ダイジェスト画像生成処理を説明する図である。It is a figure explaining the digest image generation processing. ダイジェスト画像生成処理のフローチャートである。It is a flowchart of the digest image generation processing. ダイジェスト画像の一例を示す図である。It is a figure which shows an example of the digest image. ハードウェア構成例を示す図である。It is a figure which shows the hardware configuration example.

以下、本発明の実施形態について、図面を参照して詳細に説明する。なお、以下の実施形態は、特許請求の範囲に記載された発明を限定するものではない。また、以下の実施形態で説明されている特徴の組み合わせの全てが、本発明に必須のものとは限らない。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The following embodiments do not limit the inventions described in the claims. Moreover, not all combinations of features described in the following embodiments are essential to the present invention.

(第1の実施形態)
以下では、本実施形態の構成を、競技場(スタジアム)におけるライブ配信やリプレイ映像の生成等を例として説明する。
(First Embodiment)
In the following, the configuration of this embodiment will be described by taking live distribution at a stadium (stadium), generation of replay images, and the like as examples.

図1は、本実施形態における複数のカメラ(撮像装置)の設置例を示す。複数のカメラ100−1〜100−10は、競技場のグラウンドを取り囲むように設置されており、1つの注視点130の方向を向いている。複数のカメラ100−1〜100−10のそれぞれによって撮像された画像から、注視点130付近で発生するシーンの仮想視点画像が生成される。本実施形態では、仮想視点画像を生成する際に事前にその画像品質を評価し、評価結果を表示する。なお、図1では、説明の簡略化のために注視点130を1つに設定しているが、通常は複数の注視点が設定され、各カメラはいずれかの注視点の方向を向いている。また、カメラの台数は、図示されたように10台に限定されるものではなく、任意の台数のカメラを設定してよい。なお、本実施形態ではカメラの光軸が注視点と交わる場合を中心に説明するが、カメラが注視点の方向を向いている場合とはこれに限らず、カメラの撮影範囲に注視点が含まれていればよい。 FIG. 1 shows an installation example of a plurality of cameras (imaging devices) in the present embodiment. The plurality of cameras 100-1 to 100-10 are installed so as to surround the ground of the stadium and face the direction of one gazing point 130. From the images captured by each of the plurality of cameras 100-1 to 100-10, a virtual viewpoint image of a scene generated in the vicinity of the gazing point 130 is generated. In the present embodiment, when the virtual viewpoint image is generated, the image quality is evaluated in advance and the evaluation result is displayed. In FIG. 1, the gaze point 130 is set to one for the sake of simplification of the explanation, but usually, a plurality of gaze points are set and each camera faces one of the gaze points. .. Further, the number of cameras is not limited to 10 as shown in the figure, and any number of cameras may be set. In the present embodiment, the case where the optical axis of the camera intersects the gazing point will be mainly described, but the case where the camera is facing the gazing point is not limited to this, and the gazing range of the camera includes the gazing point. It suffices if it is.

図2は、本実施形態におけるシステムの構成例を示している。複数のカメラ100−1〜100−10は、上述したように、グラウンドを取り囲むように設置されている。また、複数のカメラ100−1〜100−10はそれぞれ、カメラアダプタ210−1〜210−10に接続されている。 FIG. 2 shows a configuration example of the system according to the present embodiment. As described above, the plurality of cameras 100-1 to 100-10 are installed so as to surround the ground. Further, each of the plurality of cameras 100-1 to 100-10 is connected to the camera adapters 210-1 to 210-10.

カメラアダプタ210−1を例として、その内部構成を説明する。カメラアダプタ210−1は、カメラ制御部211、時間管理部212、記録部213、及び通信部214を備える。カメラ制御部211は、カメラ100−1のシャッタースピード、絞り、焦点距離等を制御する。時間管理部212は、時間情報を管理する。記録部213は、カメラ100−1が撮影した画像データを記録する。通信部214は、カメラアダプタ210−1をネットワークに接続し、ネットワークを介して制御コマンドを受信したり、画像信号を送信したりする。尚、カメラアダプタ210−1〜210−10は、同一の内部構成を有することができる。また、以下では、カメラアダプタ210−1〜210−10の符号の枝番号を省略し、単にカメラアダプタ210とも称する。また、カメラ100−1〜100−10も同様に、符号の枝番号を省略し、単にカメラ100とも称する。 The internal configuration of the camera adapter 210-1 will be described as an example. The camera adapter 210-1 includes a camera control unit 211, a time management unit 212, a recording unit 213, and a communication unit 214. The camera control unit 211 controls the shutter speed, aperture, focal length, etc. of the camera 100-1. The time management unit 212 manages the time information. The recording unit 213 records the image data taken by the camera 100-1. The communication unit 214 connects the camera adapter 210-1 to the network, receives a control command, and transmits an image signal via the network. The camera adapters 210-1 to 210-10 can have the same internal configuration. Further, in the following, the branch number of the code of the camera adapter 210-1 to 210-10 is omitted, and the term is simply referred to as the camera adapter 210. Similarly, the cameras 100-1 to 100-10 also omit the branch number of the code and are also simply referred to as the camera 100.

記録部213は、後述する制御部230からネットワークを介して録画開始・終了指示を受け取り、カメラ100からの画像データを記録する。記録部213は、例えば、試合中にグラウンドの注視点のある側でプレーが行われている時間は録画を行い、グラウンドの注視点のない側でプレーが行われている時間は録画を行わないように制御することができる。記録部213で記録される録画情報は、下記のデータを含む。すなわち、カメラ100で撮影された画像データと、時間管理部212からの録画時間情報や、画像データのシーケンス番号、カメラ識別子(カメラID)等の撮影情報とを含む。 The recording unit 213 receives a recording start / end instruction from the control unit 230, which will be described later, via the network, and records the image data from the camera 100. For example, the recording unit 213 records the time during which the play is being performed on the side with the gaze point of the ground, and does not record the time during which the play is being performed on the side without the gaze point of the ground. Can be controlled as such. The recorded information recorded by the recording unit 213 includes the following data. That is, it includes image data taken by the camera 100, recording time information from the time management unit 212, and shooting information such as a sequence number of the image data and a camera identifier (camera ID).

ハブ220は、システム内の各装置をネットワークで接続する。すなわち、ハブ220は、各カメラアダプタ210と情報処理装置200とを、ネットワークを介して接続する。制御部230は、システム全体を制御する。仮想視点画像生成部240は、複数のカメラ100が撮影した画像データから仮想視点画像250を生成し、出力する。品質推定部260は、仮想視点画像生成部240で生成される仮想視点画像250の画像品質を推定し、評価する。表示部270は、品質推定部260が推定した画像品質を表示する。同期部280は、ネットワークを介して各カメラアダプタ210と接続し、各カメラアダプタ210内の時間管理部212で管理される時間を高精度に同期させる。そして、同期された時間管理部212からカメラ100へ時間情報を送ることにより、各カメラ100では撮影タイミングが高精度に同期されて撮影が行われる。 The hub 220 connects each device in the system with a network. That is, the hub 220 connects each camera adapter 210 and the information processing device 200 via a network. The control unit 230 controls the entire system. The virtual viewpoint image generation unit 240 generates and outputs a virtual viewpoint image 250 from image data taken by a plurality of cameras 100. The quality estimation unit 260 estimates and evaluates the image quality of the virtual viewpoint image 250 generated by the virtual viewpoint image generation unit 240. The display unit 270 displays the image quality estimated by the quality estimation unit 260. The synchronization unit 280 is connected to each camera adapter 210 via a network, and synchronizes the time managed by the time management unit 212 in each camera adapter 210 with high accuracy. Then, by sending the time information from the synchronized time management unit 212 to the camera 100, each camera 100 synchronizes the shooting timing with high accuracy to perform shooting.

仮想視点画像生成部240は、各カメラアダプタ210からネットワークを介して画像データを取得し、仮想視点の位置と向きに従って仮想視点画像250を生成する。具体的には、仮想視点画像生成部240は、取得した画像データをもとに、前景背景分離処理を実行し、前景から3Dモデルを生成し、3Dモデルに仮想視点から見た場合の色をレンダリングする。 The virtual viewpoint image generation unit 240 acquires image data from each camera adapter 210 via a network, and generates a virtual viewpoint image 250 according to the position and orientation of the virtual viewpoint. Specifically, the virtual viewpoint image generation unit 240 executes foreground background separation processing based on the acquired image data, generates a 3D model from the foreground, and displays the color of the 3D model when viewed from the virtual viewpoint. Render.

なお、システム構成は、上述した構成に限定されるものではなく、カメラ100が直接、制御部230や仮想視点画像生成部240に接続されていてもよい。また、本実施形態では、ネットワーク接続をスター型で説明しているがこれに限定されず、複数のカメラのデイジーチェーン接続でもよい。また、記録部213は、各カメラアダプタ210内に限定されず、仮想視点画像生成部240内に設けてもよい。また、情報処理装置200の各機能部は、単一の装置ではなく、異なる装置に実装されてもよい。 The system configuration is not limited to the above-described configuration, and the camera 100 may be directly connected to the control unit 230 or the virtual viewpoint image generation unit 240. Further, in the present embodiment, the network connection is described in a star type, but the present invention is not limited to this, and a daisy chain connection of a plurality of cameras may be used. Further, the recording unit 213 is not limited to each camera adapter 210, and may be provided in the virtual viewpoint image generation unit 240. Further, each functional unit of the information processing device 200 may be mounted on different devices instead of a single device.

図3は、本実施形態における録画リストによる仮想視点画像の品質評価とその表示方法を説明する図である。以下では、仮想視点画像を生成する際に、撮影状況によりどの程度の画像品質が確保されるかを品質推定部260が推定し、推定結果を含む録画リストを表示部270に表示する処理を説明する。 FIG. 3 is a diagram illustrating a quality evaluation of a virtual viewpoint image by a recording list and a display method thereof according to the present embodiment. In the following, a process of estimating how much image quality is secured depending on the shooting conditions when generating a virtual viewpoint image is estimated by the quality estimation unit 260, and displaying a recording list including the estimation result on the display unit 270 will be described. To do.

図3において、各録画情報は、各カメラ100−1〜100−10で撮影され、各カメラアダプタ210−1〜210−10内の各記録部213−1〜213−10に記録されている。録画情報は、上述したように、画像データと共に、録画時間情報やシーケンス番号、カメラ識別子(カメラID)等の撮影情報を含む。品質推定部260は、録画情報を、各カメラアダプタ210−1〜210−10からネットワークを介して収集する。 In FIG. 3, each recording information is photographed by each camera 100-1 to 100-10 and recorded in each recording unit 213-1 to 213-10 in each camera adapter 210-1 to 210-10. As described above, the recording information includes shooting information such as recording time information, sequence number, and camera identifier (camera ID) together with image data. The quality estimation unit 260 collects recorded information from each camera adapter 210-1 to 210-10 via a network.

品質推定部260は、リスト生成処理部310と品質推定処理部320とを含む。リスト生成処理部310は、各カメラアダプタ210−1〜210−10から収集した録画時間情報から各カメラの録画時間帯情報を生成し、各録画時間帯において各カメラが撮影した画像データのシーケンス番号を示す録画リストを生成する。尚、本実施形態において、各カメラは、制御部230からの録画開始・終了指示に従って複数の時間帯で同期撮影を行い、当該複数の時間帯における各録画情報が、各カメラアダプタ210の記録部213に記録されている。すなわち、各カメラでは、基本的に常時撮影が行われているわけではない。また、画像データのシーケンス番号は、カメラ毎に、複数の時間帯のそれぞれで記録された画像データに順番に割り当ててよい。品質推定処理部320は、リスト生成処理部310が生成した録画リストに基づいて、各録画時間帯において生成可能な仮想視点画像の画像品質を推定する。表示部270は、品質推定部260が推定した仮想視点画像の画像品質を含む録画リスト330を表示する。 The quality estimation unit 260 includes a list generation processing unit 310 and a quality estimation processing unit 320. The list generation processing unit 310 generates recording time zone information of each camera from the recording time information collected from each camera adapter 210-1 to 210-10, and the sequence number of the image data taken by each camera in each recording time zone. Generate a recording list showing. In the present embodiment, each camera performs synchronous shooting in a plurality of time zones according to a recording start / end instruction from the control unit 230, and each recording information in the plurality of time zones is recorded in the recording unit of each camera adapter 210. It is recorded in 213. That is, each camera basically does not always shoot. Further, the sequence number of the image data may be sequentially assigned to the image data recorded in each of the plurality of time zones for each camera. The quality estimation processing unit 320 estimates the image quality of the virtual viewpoint image that can be generated in each recording time zone based on the recording list generated by the list generation processing unit 310. The display unit 270 displays the recording list 330 including the image quality of the virtual viewpoint image estimated by the quality estimation unit 260.

図4は、本実施形態における録画リスト生成処理のフローチャートを示す。以下では、リスト生成処理部310がカメラ識別子(カメラID)と録画時間帯情報の対応関係を表す録画リストを生成する処理手順を説明する。フローチャートで示される一連の処理は、情報処理装置200のCPUがROMまたはHDDに格納されている制御プログラムをRAMに展開して実行することにより行われる。あるいはまた、フローチャートにおけるステップの一部または全部の機能をASICや電子回路等のハードウェアで実現してもよい。また、フローチャートの説明における記号「S」は、当該フローチャートにおける「ステップ」を意味する。その他のフローチャートについても同様である。 FIG. 4 shows a flowchart of the recording list generation process in the present embodiment. In the following, a processing procedure in which the list generation processing unit 310 generates a recording list representing the correspondence between the camera identifier (camera ID) and the recording time zone information will be described. The series of processes shown in the flowchart is performed by the CPU of the information processing device 200 expanding the control program stored in the ROM or the HDD into the RAM and executing it. Alternatively, some or all the functions of the steps in the flowchart may be realized by hardware such as an ASIC or an electronic circuit. Further, the symbol "S" in the description of the flowchart means a "step" in the flowchart. The same applies to other flowcharts.

なお、録画リストの生成処理は、同一の注視点を向いたカメラ100によって撮影された画像データを対象として行われる。 The recording list generation process is performed on the image data taken by the cameras 100 facing the same gazing point.

S401で、リスト生成処理部310は、録画リストをクリアして初期化し、新たに録画リストを生成する準備を行う。 In S401, the list generation processing unit 310 clears and initializes the recording list, and prepares to generate a new recording list.

S402で、リスト生成処理部310は、各カメラアダプタ210−1〜210−10に記録された録画時間情報から録画の開始時刻と終了時刻を取得し、各カメラの録画時間帯情報を生成する。全てのカメラアダプタ210−1〜210−10が正常に動作していた場合には、全てのカメラについて同じ録画時間帯情報が生成される。一方、例えば、1つまたは複数のカメラアダプタが正常に動作せず、かかるカメラアダプタに画像データが記録されていない時間帯がある場合には、当該カメラアダプタに記録された録画時間情報からは異なる録画時間帯情報が生成される。 In S402, the list generation processing unit 310 acquires the recording start time and the recording start time from the recording time information recorded in each camera adapter 210-1 to 210-10, and generates the recording time zone information of each camera. If all the camera adapters 210-1 to 210-10 are operating normally, the same recording time zone information is generated for all the cameras. On the other hand, for example, if one or more camera adapters do not operate normally and there is a time zone in which image data is not recorded in the camera adapter, the recording time information recorded in the camera adapter is different. Recording time zone information is generated.

S403で、リスト生成処理部310は、生成した各カメラの録画時間帯情報を、カメラ毎に順に録画リストに登録する。具体的には、S4031で、リスト生成処理部310は、生成した録画時間帯情報が録画リストに登録されているかどうか判定する。録画時間帯情報が登録されていない場合にはS4032に進み、録画リストにこの録画時間帯情報を登録する。すなわち、最初に処理するカメラについては、全ての録画時間帯情報が録画リストに登録されていないため、S4031からS4032に進み、当該カメラの全ての録画時間帯情報が録画リストに登録される。一方、2台目以降のカメラについては、録画リストに既に登録されている録画時間帯情報は新たに登録せず(S4031のYES)、録画リストに登録されていない録画時間帯情報が録画リストに新たに登録される(S4031のNO)。すなわち、処理対象のカメラにおいて、それより前に処理したカメラで撮影できなかった時間帯が存在する場合には、その時間帯が録画リストに登録される。この処理を、全てのカメラについて繰り返し行うことにより、全ての録画時間帯を含む録画リストを生成することができる。 In S403, the list generation processing unit 310 registers the recording time zone information of each generated camera in the recording list in order for each camera. Specifically, in S4031, the list generation processing unit 310 determines whether or not the generated recording time zone information is registered in the recording list. If the recording time zone information is not registered, the process proceeds to S4032, and the recording time zone information is registered in the recording list. That is, since all the recording time zone information is not registered in the recording list for the camera to be processed first, the process proceeds from S4031 to S4032, and all the recording time zone information of the camera is registered in the recording list. On the other hand, for the second and subsequent cameras, the recording time zone information already registered in the recording list is not newly registered (YES in S4031), and the recording time zone information not registered in the recording list is added to the recording list. It is newly registered (NO of S4031). That is, if there is a time zone in the camera to be processed that could not be taken by the camera processed before that, the time zone is registered in the recording list. By repeating this process for all cameras, a recording list including all recording time zones can be generated.

S404で、リスト生成処理部310は、録画リストに登録されている録画時間帯の数Tを取得する。 In S404, the list generation processing unit 310 acquires the number T of the recording time zones registered in the recording list.

S405で、リスト生成処理部310は、録画リストに登録するカメラの全台数Mを取得する。カメラの全台数Mは、例えば、撮影情報に含まれるカメラ識別子の数や、接続されているカメラアダプタ210の数などから求めることができる。本実施形態では、全台数Mは、10となる。 In S405, the list generation processing unit 310 acquires the total number M of the cameras registered in the recording list. The total number of cameras M can be obtained from, for example, the number of camera identifiers included in the shooting information, the number of connected camera adapters 210, and the like. In this embodiment, the total number M is 10.

S406で、リスト生成処理部310は、S404で取得した録画時間帯の数Tと、S405で取得したカメラの全台数Mから、T(行)×M(列)の録画リストを生成する。 In S406, the list generation processing unit 310 generates a recording list of T (row) × M (column) from the number T of the recording time zones acquired in S404 and the total number M of the cameras acquired in S405.

S407で、リスト生成処理部310は、録画リストの各録画時間帯に対して、各カメラが撮影した画像データのシーケンス番号を登録する(S4071)。 In S407, the list generation processing unit 310 registers the sequence number of the image data taken by each camera for each recording time zone of the recording list (S4071).

以上説明したように、リスト生成処理部310によって、各カメラの録画時間帯と、各カメラの画像データのシーケンス番号が登録された録画リストが生成される。 As described above, the list generation processing unit 310 generates a recording list in which the recording time zone of each camera and the sequence number of the image data of each camera are registered.

図5は、本実施形態における録画リストの一例を示す。縦軸は、録画時間帯を表し、横軸は、カメラ番号(カメラ識別子)を表す。図5の例では、録画時間帯数は9(T1〜T9)、カメラ台数は10台(cam01〜cam10)となっている。録画リストには、各録画時間帯に対して、カメラ毎の画像データのシーケンス番号が登録されている。画像データが存在しなかった録画時間帯の欄は、空欄(×印)のままとなる。 FIG. 5 shows an example of a recording list according to the present embodiment. The vertical axis represents the recording time zone, and the horizontal axis represents the camera number (camera identifier). In the example of FIG. 5, the number of recording time zones is 9 (T1 to T9), and the number of cameras is 10 (cam01 to cam10). In the recording list, the sequence number of the image data for each camera is registered for each recording time zone. The column of the recording time zone in which the image data did not exist remains blank (x mark).

図6は、本実施形態における品質推定処理のフローチャートを示す。以下では、品質推定処理部320が、上述したように生成した録画リストを使用して、各録画時間帯において、各カメラの画像データから仮想視点画像を生成した場合の画像品質の推定処理を説明する。ここでは、同じシーンを同じ時間帯で撮影したカメラの台数が多いほど、様々な角度から撮影した画像データが得られるため、仮想視点画像の品質は高くなると推定する。また、同じシーンを同じ時間帯で撮影したカメラの台数が同じ場合でも、カメラ同士の位置が離れているほど、様々な角度から撮影した画像データが得られるため、仮想視点画像の品質は高くなると推定する。 FIG. 6 shows a flowchart of the quality estimation process in the present embodiment. In the following, the image quality estimation process when the quality estimation processing unit 320 generates a virtual viewpoint image from the image data of each camera in each recording time zone by using the recording list generated as described above will be described. To do. Here, it is estimated that the higher the number of cameras that shoot the same scene in the same time zone, the higher the quality of the virtual viewpoint image because the image data taken from various angles can be obtained. Also, even if the number of cameras that shot the same scene in the same time zone is the same, the farther the cameras are, the more image data taken from various angles can be obtained, so the quality of the virtual viewpoint image will be higher. presume.

S601で、品質推定処理部320は、録画リストを参照し、録画時間帯Tに録画したカメラの台数N(T)を取得する。ここで、録画時間帯Tとは、例えば、図5の録画リストに示した録画時間帯T1〜T9のうちの1つの時間帯を指す。例えば、品質推定処理部320は、処理対象として録画時間帯T1から順に選択し、画像データのシーケンス番号が登録されているカメラの台数N(T)を求める。 In S601, the quality estimation processing unit 320 refers to the recording list and acquires the number N (T) of cameras recorded in the recording time zone T. Here, the recording time zone T refers to, for example, one of the recording time zones T1 to T9 shown in the recording list of FIG. For example, the quality estimation processing unit 320 selects in order from the recording time zone T1 as the processing target, and obtains the number N (T) of cameras in which the sequence number of the image data is registered.

S602で、品質推定処理部320は、録画時間帯Tに録画したカメラのカメラ間距離として、カメラ番号の差分値を求める。カメラ番号とは、例えば、図5の録画リストに示したカメラ識別子cam01〜cam10をそれぞれ、番号1〜10としたものである。カメラ番号は、所定のカメラを基準として配置順に付されるため、カメラ同士の相対的な位置関係を示すことになる。カメラ番号を{C1,C2,・・・Cn}とすると、カメラ間距離{D1,D2,・・・Dn}は、Dk=C(k+1)−Ckで求めることができる。kは、1〜nまでの値をとる。nは、録画時間帯Tにおいて録画に用いられたカメラの台数を表す。なお、カメラ番号Cnのカメラ間距離Dnは、カメラの全台数であるMを使用して、M+C1−Cnとする。 In S602, the quality estimation processing unit 320 obtains a difference value of the camera numbers as the inter-camera distance of the cameras recorded in the recording time zone T. The camera numbers are, for example, the camera identifiers cam01 to cam10 shown in the recording list of FIG. 5 as numbers 1 to 10, respectively. Since the camera numbers are assigned in the order of arrangement with respect to a predetermined camera, they indicate the relative positional relationship between the cameras. Assuming that the camera numbers are {C1, C2, ... Cn}, the inter-camera distance {D1, D2, ... Dn} can be obtained by Dk = C (k + 1) -Ck. k takes a value from 1 to n. n represents the number of cameras used for recording in the recording time zone T. The inter-camera distance Dn of the camera number Cn is set to M + C1-Cn by using M, which is the total number of cameras.

S603で、品質推定処理部320は、カメラ間距離の分散値D(T)を求める。分散値D(T)は、録画時間帯Tに録画できなかったカメラの台数が同じでも、それらが一か所に集まった位置にあるのか、それとも散らばった位置にあるのかで、生成する仮想視点画像の画像品質が異なることから、これを考慮する為に使用する。分散値D(T)は、録画できなかったカメラが分散している場合、カメラ間距離として大きい値が現れないので小さくなる。一方、分散値D(T)は、録画できなかったカメラが一か所に集まっている場合は、カメラ間距離として大きい値が現れるので大きくなる。 In S603, the quality estimation processing unit 320 obtains the variance value D (T) of the inter-camera distance. The variance value D (T) is a virtual viewpoint generated depending on whether the number of cameras that could not be recorded in the recording time zone T is the same, whether they are in one place or scattered positions. Since the image quality of the image is different, it is used to take this into consideration. When the cameras that could not be recorded are dispersed, the dispersion value D (T) becomes small because a large value does not appear as the distance between the cameras. On the other hand, the dispersion value D (T) becomes large because a large value appears as the distance between the cameras when the cameras that could not be recorded are gathered in one place.

S604で、品質推定処理部320は、録画時間帯Tの画像データから生成する仮想視点画像の品質推定値を求める。ここでは、品質推定値をN(T)−α×D(T)(αは定数)とする。録画したカメラの台数が多いほどN(T)は大きな値となる。また、録画したカメラの台数が同じでも、録画できなかったカメラが一か所に集まっているほど、α×D(T)は大きな値となり、その結果、品質推定値は小さくなる。 In S604, the quality estimation processing unit 320 obtains a quality estimation value of the virtual viewpoint image generated from the image data in the recording time zone T. Here, the quality estimate is N (T) −α × D (T) (α is a constant). The larger the number of recorded cameras, the larger the N (T) value. Further, even if the number of recorded cameras is the same, the larger the number of cameras that could not be recorded is gathered in one place, the larger the α × D (T) value, and as a result, the smaller the quality estimation value.

S605で、品質推定処理部320は、上記で求めた仮想視点画像の品質推定値を、所定の閾値と比較して5段階評価し、これを仮想視点画像の品質評価値とする。すなわち、品質推定値に基づいて評価値を導出する。なお、カメラの配置の分散度合いを表す値として、上述したカメラ間距離の分散値D(T)以外の値を用いてもよい。例えば、撮像領域内の特定位置からみた各カメラの位置する方向の角度差に応じた値を、カメラの配置の分散度合いを表す値として用いても、同様に仮想視点画像の品質を推定することができる。 In S605, the quality estimation processing unit 320 evaluates the quality estimation value of the virtual viewpoint image obtained above in five stages by comparing with a predetermined threshold value, and sets this as the quality evaluation value of the virtual viewpoint image. That is, the evaluation value is derived based on the quality estimation value. As a value representing the degree of dispersion of the arrangement of the cameras, a value other than the above-mentioned dispersion value D (T) of the distance between cameras may be used. For example, even if a value corresponding to the angle difference in the direction of each camera viewed from a specific position in the imaging region is used as a value indicating the degree of dispersion of the camera arrangement, the quality of the virtual viewpoint image can be estimated in the same manner. Can be done.

図7は、本実施形態における仮想視点画像の品質評価値の例を示す。ここでは、品質評価値は、A〜Eの5段階の段階評価値で示す。図7(a)に示すように、全てのカメラが録画している場合には、品質評価値はAとなる。録画できていないカメラの数が増えるほど、或いは、録画できていないカメラの分散値が大きい(すなわち、一か所に集まっている)ほど、品質推定値が下がり、これに伴い品質評価値もBからEへと段階的に下がっていく(図7(b)〜図7(e)参照)。 FIG. 7 shows an example of the quality evaluation value of the virtual viewpoint image in this embodiment. Here, the quality evaluation value is indicated by a five-stage evaluation value of A to E. As shown in FIG. 7A, when all the cameras are recording, the quality evaluation value is A. As the number of cameras that cannot record increases, or the dispersion value of cameras that cannot record increases (that is, they are gathered in one place), the quality estimation value decreases, and the quality evaluation value also becomes B. It gradually decreases from to E (see FIGS. 7 (b) to 7 (e)).

このように、本実施形態では、上述した品質評価処理を各録画時間帯に対して行うことで、録画リストの全ての録画時間帯において、仮想視点画像の品質評価を行う。 As described above, in the present embodiment, by performing the above-mentioned quality evaluation processing for each recording time zone, the quality evaluation of the virtual viewpoint image is performed in all the recording time zones of the recording list.

図8は、表示部270で表示される表示結果の一例を示す。表示部270は、図示されるように、リスト生成処理部310が生成した録画リストと、品質推定処理部320が推定して評価した仮想視点画像の品質評価値とを取得し、一覧表示する。これにより、ユーザは、各録画時間帯に仮想視点画像を生成した場合の画像品質を直感的に判断することができるようになる。 FIG. 8 shows an example of the display result displayed on the display unit 270. As shown in the figure, the display unit 270 acquires the recording list generated by the list generation processing unit 310 and the quality evaluation value of the virtual viewpoint image estimated and evaluated by the quality estimation processing unit 320, and displays the list. As a result, the user can intuitively judge the image quality when the virtual viewpoint image is generated in each recording time zone.

なお、本実施形態では、品質評価値をA〜Eの5段階で示したが、これに限定されるものではない。例えば、品質評価値を表の枠線の色や表の背景色で表してもよい。また、図8のように各カメラの画像データのシーケンス番号を示さず、単に録画時間帯と品質評価値とを表示してもよい。すなわち、各録画時間帯と品質の推定結果とを対応付けて表示できればよい。 In this embodiment, the quality evaluation value is shown in five stages of A to E, but the present invention is not limited to this. For example, the quality evaluation value may be represented by the color of the border of the table or the background color of the table. Further, as shown in FIG. 8, the sequence number of the image data of each camera may not be shown, and the recording time zone and the quality evaluation value may be simply displayed. That is, it is sufficient that each recording time zone and the quality estimation result can be displayed in association with each other.

また、本実施形態では、品質推定値から品質評価値を求め、これを表示しているが、品質推定値をそのまま表示してもよい。 Further, in the present embodiment, the quality evaluation value is obtained from the quality estimated value and displayed, but the quality estimated value may be displayed as it is.

また、リスト生成処理部310は、カメラアダプタ210から録画時間帯情報を収集して、カメラ識別子と録画時間帯情報の対応関係を表す録画リストを生成したが、これに限定されるものではない。例えば、カメラアダプタ210が撮影中の画像データを解析し、振動や鳥等の障害物を検出した場合、その時間帯の画像データは仮想視点画像の生成に使用できないという情報を記録してもよい。そして品質推定処理部320は、その情報を基に品質評価値を求めてもよい。すなわち、画像データから振動や鳥等の障害物が検出された場合、カメラはその時間帯に画像データを撮像できなかったものとみなして評価してもよい。 Further, the list generation processing unit 310 collects the recording time zone information from the camera adapter 210 and generates a recording list showing the correspondence between the camera identifier and the recording time zone information, but the present invention is not limited to this. For example, when the camera adapter 210 analyzes the image data during shooting and detects an obstacle such as vibration or a bird, it may record information that the image data in that time zone cannot be used to generate a virtual viewpoint image. .. Then, the quality estimation processing unit 320 may obtain a quality evaluation value based on the information. That is, when an obstacle such as vibration or a bird is detected from the image data, the camera may evaluate it as if the image data could not be captured during that time period.

以上説明したように、本実施形態によると、仮想視点画像を生成するための画像データの確認を容易にすることができる。
(第2の実施形態)
本実施形態では、複数のカメラのうちの特定のカメラが撮影した画像データと共に、特定の録画時間帯における仮想視点画像の品質評価結果を表示する例を説明する。
As described above, according to the present embodiment, it is possible to easily confirm the image data for generating the virtual viewpoint image.
(Second Embodiment)
In the present embodiment, an example of displaying the quality evaluation result of the virtual viewpoint image in a specific recording time zone together with the image data taken by a specific camera among the plurality of cameras will be described.

図9は、本実施形態におけるダイジェスト画像による仮想視点画像の品質評価結果の表示方法を説明する図である。本実施形態では、表示部270は、特定のカメラのダイジェスト画像の枠線に、品質評価値に対応する色を付けて表示する(表示結果910)。ダイジェスト画像とは、特定の録画時間帯の画像データから所定の時間間隔で取り出した静止画像を含む画像である。例えば、所定の時間間隔で取り出した静止画像を縮小し、縮小した静止画像をフィルムに摸して繋げてもよい。 FIG. 9 is a diagram illustrating a method of displaying a quality evaluation result of a virtual viewpoint image using a digest image in the present embodiment. In the present embodiment, the display unit 270 displays the border of the digest image of the specific camera with a color corresponding to the quality evaluation value (display result 910). The digest image is an image including still images taken out at predetermined time intervals from image data in a specific recording time zone. For example, the still images taken out at predetermined time intervals may be reduced, and the reduced still images may be imitated on a film and connected.

図10は、本実施形態における表示処理のフローチャートを示す。本実施形態では、品質推定部260による処理は第1の実施形態と同様であるが、表示部270の動作が異なるため、これを以下で説明する。 FIG. 10 shows a flowchart of the display process according to the present embodiment. In the present embodiment, the processing by the quality estimation unit 260 is the same as that in the first embodiment, but since the operation of the display unit 270 is different, this will be described below.

S1010で、表示部270は、ユーザによって選択されたカメラアダプタ210内の記録部213から、録画時間帯S1〜S2の画像データを取得する。ここで、録画時間帯S1〜S2は、リスト生成処理部310が生成した図5の録画リストのうち、録画時間帯T3〜T5に対応するものとする。 In S1010, the display unit 270 acquires the image data of the recording time zones S1 to S2 from the recording unit 213 in the camera adapter 210 selected by the user. Here, the recording time zones S1 to S2 correspond to the recording time zones T3 to T5 in the recording list of FIG. 5 generated by the list generation processing unit 310.

S1020で、表示部270は、取得した録画時間帯S1〜S2の画像データから所定の時間間隔で静止画像を取り出して縮小し、縮小した静止画像を繋げてフィルムに摸したダイジェスト画像を生成する。 In S1020, the display unit 270 extracts a still image from the acquired image data in the recording time zones S1 to S2 at predetermined time intervals and reduces the image, and connects the reduced still images to generate a digest image imitated on a film.

S1030で、表示部270は、生成したダイジェスト画像に含まれる各静止画像に対して、下記処理(S1031、S1032)を行う。 In S1030, the display unit 270 performs the following processing (S1031 and S1032) on each still image included in the generated digest image.

S1031で、表示部270は、生成したダイジェスト画像に含まれる各静止画像に対して、対応する録画時間帯の品質評価値を品質推定処理部320から取得する。そして、S1032で、表示部270は、取得した品質評価値に対応する色を各静止画像の枠に付ける。これにより、図11に示すように、各静止画像の枠に品質評価値に対応する色が付けられたダイジェスト画像を表示することができる。 In S1031, the display unit 270 acquires the quality evaluation value of the corresponding recording time zone from the quality estimation processing unit 320 for each still image included in the generated digest image. Then, in S1032, the display unit 270 attaches a color corresponding to the acquired quality evaluation value to the frame of each still image. As a result, as shown in FIG. 11, it is possible to display a digest image in which a color corresponding to the quality evaluation value is added to the frame of each still image.

以上説明したように、本実施形態によるダイジェスト画像の表示を行うことで、撮影したシーンと仮想視点画像を生成した場合の画像品質との関連が一目で分かるようになる。 As described above, by displaying the digest image according to the present embodiment, the relationship between the captured scene and the image quality when the virtual viewpoint image is generated can be understood at a glance.

図12は、本実施形態における情報処理装置200のハードウェア構成例を示す。なお、カメラアダプタ210のハードウェア構成も同様である。 FIG. 12 shows a hardware configuration example of the information processing apparatus 200 according to the present embodiment. The hardware configuration of the camera adapter 210 is the same.

情報処理装置200は、CPU1211、ROM1212、RAM1213、補助記憶装置1214、表示装置1215、操作部1216、通信I/F1217、及びバス1218を有する。 The information processing device 200 includes a CPU 1211, a ROM 1212, a RAM 1213, an auxiliary storage device 1214, a display device 1215, an operation unit 1216, a communication I / F 1217, and a bus 1218.

CPU1211は、ROM1212やRAM1213に格納されているコンピュータプログラムやデータを用いて情報処理装置200の全体を制御することで、各機能を実現する。なお、情報処理装置200がCPU1211とは異なる1又は複数の専用のハードウェアを有し、CPU1211による処理の少なくとも一部を専用のハードウェアが実行してもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。ROM1212は、変更を必要としないプログラムなどを格納する。RAM1213は、補助記憶装置1214から供給されるプログラムやデータ、及び通信I/F1217を介して外部から供給されるデータなどを一時記憶する。補助記憶装置1214は、例えばハードディスクドライブ等で構成され、画像データや音声データなどの種々のデータを記憶する。 The CPU 1211 realizes each function by controlling the entire information processing apparatus 200 by using computer programs and data stored in the ROM 1212 and the RAM 1213. The information processing device 200 may have one or more dedicated hardware different from the CPU 1211, and the dedicated hardware may execute at least a part of the processing by the CPU 1211. Examples of dedicated hardware include ASICs (application specific integrated circuits), FPGAs (field programmable gate arrays), and DSPs (digital signal processors). The ROM 1212 stores programs and the like that do not require changes. The RAM 1213 temporarily stores programs and data supplied from the auxiliary storage device 1214, data supplied from the outside via the communication I / F 1217, and the like. The auxiliary storage device 1214 is composed of, for example, a hard disk drive or the like, and stores various data such as image data and audio data.

表示装置1215は、例えば液晶ディスプレイやLED等で構成され、ユーザが情報処理装置200を操作するためのGUI(Graphical User Interface)などを表示する。操作部1216は、例えばキーボードやマウス、ジョイスティック、タッチパネル等で構成され、ユーザによる操作を受けて各種の指示をCPU1211に入力する。CPU1211は、表示装置1215を制御する表示制御部、及び操作部1216を制御する操作制御部として動作する。 The display device 1215 is composed of, for example, a liquid crystal display, an LED, or the like, and displays a GUI (Graphical User Interface) for the user to operate the information processing device 200. The operation unit 1216 is composed of, for example, a keyboard, a mouse, a joystick, a touch panel, and the like, and inputs various instructions to the CPU 1211 in response to an operation by the user. The CPU 1211 operates as a display control unit that controls the display device 1215 and an operation control unit that controls the operation unit 1216.

通信I/F1217は、情報処理装置200の外部の装置との通信に用いられる。例えば、情報処理装置200が外部の装置と有線で接続される場合には、通信用のケーブルが通信I/F1217に接続される。情報処理装置200が外部の装置と無線通信する機能を有する場合には、通信I/F1217はアンテナを備える。バス1218は、情報処理装置200の各部をつないで情報を伝達する。 The communication I / F 1217 is used for communication with an external device of the information processing device 200. For example, when the information processing device 200 is connected to an external device by wire, a communication cable is connected to the communication I / F 1217. When the information processing device 200 has a function of wirelessly communicating with an external device, the communication I / F 1217 includes an antenna. The bus 1218 connects each part of the information processing device 200 to transmit information.

本実施形態では、表示装置1215と操作部1216が情報処理装置200の内部に存在するものとするが、表示装置1215と操作部1216との少なくとも一方が情報処理装置200の外部に別の装置として存在していてもよい。 In the present embodiment, it is assumed that the display device 1215 and the operation unit 1216 exist inside the information processing device 200, but at least one of the display device 1215 and the operation unit 1216 is a separate device outside the information processing device 200. It may exist.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100−1〜100−10 カメラ
210−1〜210−10 カメラアダプタ
211 カメラ制御部
212 時間管理部
213 記録部
214 通信部
260 品質推定部
270 表示部
310 リスト生成処理部
320 品質推定処理部
100-1 to 100-10 Camera 210-1 to 210-10 Camera adapter 211 Camera control unit 212 Time management unit 213 Recording unit 214 Communication unit 260 Quality estimation unit 270 Display unit 310 List generation processing unit 320 Quality estimation processing unit

Claims (10)

複数の撮像装置によって撮像された複数の画像データから生成される仮想視点画像の品質を推定するための情報処理装置であって、
複数の録画時間帯のそれぞれにおいて、当該録画時間帯の画像データを撮像することができた撮像装置を特定する特定手段と、
前記特定した撮像装置に基づいて、各録画時間帯における前記仮想視点画像の品質を推定する推定手段と、
前記各録画時間帯と前記仮想視点画像の品質の推定結果とを対応付けて表示する表示手段と
を有することを特徴とする情報処理装置。
An information processing device for estimating the quality of a virtual viewpoint image generated from a plurality of image data captured by a plurality of image pickup devices.
Specific means for identifying an imaging device capable of capturing image data in the recording time zone in each of the plurality of recording time zones, and
An estimation means for estimating the quality of the virtual viewpoint image in each recording time zone based on the specified imaging device, and
An information processing apparatus comprising: a display means for displaying each recording time zone and an estimation result of quality of the virtual viewpoint image in association with each other.
前記推定手段は、前記特定した撮像装置の数に基づいて、前記各録画時間帯における前記仮想視点画像の品質を推定することを特徴とする請求項1に記載の情報処理装置。 The information processing device according to claim 1, wherein the estimation means estimates the quality of the virtual viewpoint image in each recording time zone based on the number of the specified imaging devices. 前記推定手段は、前記特定した撮像装置の位置関係に基づいて、前記各録画時間帯における前記仮想視点画像の品質を推定することを特徴とする請求項2に記載の情報処理装置。 The information processing device according to claim 2, wherein the estimation means estimates the quality of the virtual viewpoint image in each recording time zone based on the positional relationship of the specified imaging device. 前記表示手段は、録画時間帯を1つの軸とし、撮像装置の識別子をもう1つの軸とするリストを表示し、前記各録画時間帯において各撮像装置が撮像した画像データと、前記仮想視点画像の品質の推定結果との関連を示すことを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。 The display means displays a list with the recording time zone as one axis and the identifier of the imaging device as the other axis, and the image data captured by each imaging device in each recording time zone and the virtual viewpoint image. The information processing apparatus according to any one of claims 1 to 3, wherein the information processing apparatus is related to the estimation result of the quality of the above. 前記推定手段は、前記仮想視点画像の品質の推定結果を所定の閾値と比較して、段階評価値を導出し、
前記表示手段は、前記導出した段階評価値を表すことを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
The estimation means compares the estimation result of the quality of the virtual viewpoint image with a predetermined threshold value, and derives a grade evaluation value.
The information processing device according to any one of claims 1 to 4, wherein the display means represents the derived grade evaluation value.
前記画像データを解析して振動が検出された場合、前記推定手段は、前記振動が検出された画像データが撮像された録画時間帯に、前記撮像装置が前記画像データを撮像できなかったものとみなして前記仮想視点画像の品質を推定することを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。 When the vibration is detected by analyzing the image data, it is assumed that the estimation means cannot capture the image data during the recording time zone in which the image data in which the vibration is detected is captured. The information processing apparatus according to any one of claims 1 to 5, wherein the quality of the virtual viewpoint image is estimated. 前記画像データを解析して障害物が検出された場合、前記推定手段は、前記障害物が検出された画像データが撮像された録画時間帯に、前記撮像装置が前記画像データを撮像できなかったものとみなして前記仮想視点画像の品質を推定することを特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。 When an obstacle is detected by analyzing the image data, the estimation means cannot capture the image data during the recording time zone in which the image data in which the obstacle is detected is captured. The information processing apparatus according to any one of claims 1 to 6, wherein the quality of the virtual viewpoint image is estimated assuming that the image is of a certain value. 前記表示手段は、特定の画像データから所定の時間間隔で取り出した静止画像を含むダイジェスト画像を生成し、各静止画像に対応する録画時間帯の前記品質の推定結果を表すように前記ダイジェスト画像を表示することを特徴とする請求項1乃至7のいずれか1項に記載の情報処理装置。 The display means generates a digest image including still images taken out from specific image data at predetermined time intervals, and displays the digest image so as to represent the estimation result of the quality of the recording time zone corresponding to each still image. The information processing apparatus according to any one of claims 1 to 7, wherein the information processing apparatus is displayed. コンピュータを請求項1乃至8のいずれか1項に記載の情報処理装置として機能させるためのプログラム。 A program for causing a computer to function as the information processing device according to any one of claims 1 to 8. 複数の撮像装置によって撮像された複数の画像データから生成される仮想視点画像の品質を推定するための情報処理方法であって、
複数の録画時間帯のそれぞれにおいて、当該録画時間帯の画像データを撮像することができなかった撮像装置を特定する特定ステップと、
前記特定した撮像装置に基づいて、各録画時間帯における前記仮想視点画像の品質を推定する推定ステップと、
前記各録画時間帯と前記仮想視点画像の品質の推定結果とを対応付けて表示する表示ステップと
を含むことを特徴とする情報処理方法。
It is an information processing method for estimating the quality of a virtual viewpoint image generated from a plurality of image data captured by a plurality of imaging devices.
In each of the plurality of recording time zones, a specific step for identifying an imaging device that could not capture image data in the recording time zone, and a specific step.
An estimation step for estimating the quality of the virtual viewpoint image in each recording time zone based on the identified imaging device, and
An information processing method including a display step for displaying each recording time zone in association with an estimation result of the quality of the virtual viewpoint image.
JP2019146551A 2019-08-08 2019-08-08 Information processing device, information processing method, and program Pending JP2021027548A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019146551A JP2021027548A (en) 2019-08-08 2019-08-08 Information processing device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019146551A JP2021027548A (en) 2019-08-08 2019-08-08 Information processing device, information processing method, and program

Publications (1)

Publication Number Publication Date
JP2021027548A true JP2021027548A (en) 2021-02-22

Family

ID=74663340

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019146551A Pending JP2021027548A (en) 2019-08-08 2019-08-08 Information processing device, information processing method, and program

Country Status (1)

Country Link
JP (1) JP2021027548A (en)

Similar Documents

Publication Publication Date Title
US11032490B2 (en) Camera array including camera modules
US10958820B2 (en) Intelligent interface for interchangeable sensors
US10762653B2 (en) Generation apparatus of virtual viewpoint image, generation method, and storage medium
WO2018070121A1 (en) Image processing system, image processing device, and control method
US10742951B2 (en) Image generation apparatus and method of generating virtual view-point image
US20210183046A1 (en) Arrangement for generating head related transfer function filters
KR101767662B1 (en) Method and for synchronizing multiple camera
US11610348B2 (en) Augmented reality diagnostic tool for data center nodes
JP2016004163A (en) Controller, control method and program
JP6326892B2 (en) Imaging system, imaging method, image reproducing apparatus, and program
JP2019191989A (en) System for, method of, and program for generating virtual viewpoint image
JP2019022151A (en) Information processing apparatus, image processing system, control method, and program
JP2021027548A (en) Information processing device, information processing method, and program
JPWO2009119288A1 (en) Communication system and communication program
JP2021119459A (en) Generation device and generation method
JP7146416B2 (en) Information processing device, information processing system, information processing method, and program
US11528462B2 (en) Display control apparatus, method for controlling display control apparatus, and storage medium
JP7104504B2 (en) Image processing system, image processing device, image transmission method, and program
JP7129283B2 (en) Processing device, control method, and program
KR20150108256A (en) Method and device for automatically generating and projecting multi-surface images
JP6661312B2 (en) Monitoring system, information processing method and program
US20230370575A1 (en) Image processing apparatus, image processing method, system, and storage medium
JP2020005089A (en) Imaging system, image processing apparatus, image processing method, and program
JP7462085B2 (en) Information processing device, method, and program
JP2019140642A (en) Control device, control method and program