JP7471784B2 - Providing device, control method, and program - Google Patents

Providing device, control method, and program Download PDF

Info

Publication number
JP7471784B2
JP7471784B2 JP2019151404A JP2019151404A JP7471784B2 JP 7471784 B2 JP7471784 B2 JP 7471784B2 JP 2019151404 A JP2019151404 A JP 2019151404A JP 2019151404 A JP2019151404 A JP 2019151404A JP 7471784 B2 JP7471784 B2 JP 7471784B2
Authority
JP
Japan
Prior art keywords
virtual viewpoint
information
evaluation
imaging
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019151404A
Other languages
Japanese (ja)
Other versions
JP2021033525A (en
Inventor
大地 阿達
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019151404A priority Critical patent/JP7471784B2/en
Publication of JP2021033525A publication Critical patent/JP2021033525A/en
Application granted granted Critical
Publication of JP7471784B2 publication Critical patent/JP7471784B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Description

本発明は、仮想視点画像を生成する技術に関するものである。 The present invention relates to a technology for generating virtual viewpoint images.

近年、複数の撮像装置を異なる位置に設置して同期して撮像を行い、当該撮像に基づく複数の撮像画像を用いて仮想視点画像を生成する技術が注目されている。この技術によれば、撮像領域内における視点(仮想視点)の位置及び方向が指定されることにより、当該視点から見た画像(仮想視点画像)を生成することができる。また、このときに生成される仮想視点画像の画質は、撮像画像から得られる被写体の色情報の精度、及び仮想視点画像の解像度の高さ等に影響される。 In recent years, a technology that has attracted attention is one in which multiple imaging devices are installed in different positions, capture images synchronously, and a virtual viewpoint image is generated using the multiple captured images based on the images captured. With this technology, an image seen from a viewpoint (virtual viewpoint) within an imaging area is generated by specifying the position and direction of the viewpoint. Furthermore, the image quality of the virtual viewpoint image generated at this time is affected by the accuracy of the color information of the subject obtained from the captured images, the resolution of the virtual viewpoint image, and other factors.

特許文献1には、複数の撮像装置が撮像する三次元空間において、解像度の高い仮想視点画像を生成可能な領域を表示する内容が記載されている。 Patent document 1 describes the display of an area in a three-dimensional space captured by multiple imaging devices where a high-resolution virtual viewpoint image can be generated.

米国特許出願公報第2013/0321575号明細書US Patent Application Publication No. 2013/0321575

しかしながら、特許文献1に記載の技術を用いて、解像度の高い仮想視点画像を生成可能な領域に仮想視点を設定しても、設定される仮想視点の方向によっては、仮想視点画像の画質が悪くなる虞がある。これは、仮想視点の方向と同等の方向から撮像が行われていない場合、当該仮想視点の方向に対応する被写体の色情報が取得されないためである。したがって、高画質な仮想視点画像の生成のためには適切な仮想視点の方向が設定される必要があった。 However, even if the technology described in Patent Document 1 is used to set a virtual viewpoint in an area where a high-resolution virtual viewpoint image can be generated, the image quality of the virtual viewpoint image may deteriorate depending on the direction of the set virtual viewpoint. This is because if an image is not captured from a direction equivalent to the virtual viewpoint direction, color information of the subject corresponding to the direction of the virtual viewpoint is not obtained. Therefore, in order to generate a high-quality virtual viewpoint image, it is necessary to set an appropriate virtual viewpoint direction.

本発明は上記の課題に鑑みてなされたものである。その目的は、適切な方向の仮想視点を設定可能にすることである。 The present invention was made in consideration of the above problems. Its purpose is to make it possible to set a virtual viewpoint in an appropriate direction.

本発明に係る提供装置は、仮想視点画像を生成するために用いられる複数の撮像画像を取得するための複数の撮像装置の撮像方向を示す情報を取得する取得手段と、前記仮想視点画像の生成に用いられる仮想視点の方向が所定の方向に設定される場合における当該方向を、前記取得手段により取得された情報が示す撮像方向に基づいて評価することにより得られる評価結果に関する情報を出力する出力手段と、ユーザによる操作に基づいて、仮想視点の方向を決定する決定手段と、前記決定手段により決定される仮想視点の方向と前記所定の方向とに基づいて、前記出力手段によって出力された評価結果を通知する画面を表示手段に表示させる制御手段とを有することを特徴とする。 The providing device of the present invention is characterized in that it has an acquisition means for acquiring information indicating the imaging directions of multiple imaging devices for acquiring multiple captured images used to generate a virtual viewpoint image, an output means for outputting information regarding an evaluation result obtained by evaluating, when the direction of the virtual viewpoint used to generate the virtual viewpoint image is set to a predetermined direction, the direction based on the imaging direction indicated by the information acquired by the acquisition means , a determination means for determining the direction of the virtual viewpoint based on an operation by a user, and a control means for causing a display means to display a screen notifying the user of the evaluation result output by the output means based on the direction of the virtual viewpoint determined by the determination means and the predetermined direction .

本発明によれば、適切な方向の仮想視点が設定可能になる。 The present invention makes it possible to set a virtual viewpoint in an appropriate direction.

複数の撮像装置が配置される一例を示す図である。FIG. 1 is a diagram showing an example in which a plurality of imaging devices are arranged. 提供装置200のハードウェア構成を説明するための図である。FIG. 2 is a diagram for explaining a hardware configuration of a providing device 200. 提供装置200を含む画像処理システム1000の機能構成を説明するための図である。2 is a diagram for explaining the functional configuration of an image processing system 1000 including a providing device 200. [0023] FIG. 提供装置200が行う処理を説明するためのフローチャートである。11 is a flowchart illustrating a process performed by a providing device 200. 評価部303が行う評価処理を説明するためのフローチャートである。13 is a flowchart for explaining an evaluation process performed by an evaluation unit 303. 評価部303が生成するグラフの一例を示す図である。FIG. 13 is a diagram showing an example of a graph generated by an evaluation unit 303. 提供装置230を含む画像処理システム1100の機能構成を説明するための図である。2 is a diagram for explaining the functional configuration of an image processing system 1100 including a providing device 230. FIG. 提供装置230が行う処理を説明するためのフローチャートである。13 is a flowchart illustrating a process performed by a providing device 230. 制御部703が行う制御処理の一例を説明するための図である。7 is a diagram for explaining an example of a control process performed by a control unit 703. FIG. 提供装置240を含む画像処理システム1200の機能構成を説明するための図である。2 is a diagram for explaining the functional configuration of an image processing system 1200 including a providing device 240. FIG. 提供装置240が行う処理を説明するためのフローチャートである。13 is a flowchart illustrating a process performed by a providing device 240. 第1の実施形態の変形例を説明するための図である。FIG. 11 is a diagram for explaining a modified example of the first embodiment.

以下、本発明の実施形態について、図面を参照しながら説明する。なお、以下の実施形態に記載される構成要素は、本発明の実施の一例としての形態を示すものであり、本発明の範囲をそれらのみに限定するものではない。 The following describes an embodiment of the present invention with reference to the drawings. Note that the components described in the following embodiment are examples of the implementation of the present invention, and do not limit the scope of the present invention to these.

(第1の実施形態)
本実施形態においては、仮想視点の方向に応じた仮想視点画像の画質に関する情報を提供する提供装置200について説明する。ここで、仮想視点画像とは、複数の撮像装置による撮像に基づく複数の画像と、指定された任意の視点(仮想視点)とに基づいて、指定された仮想視点からの見えを表す画像である。複数の撮像装置は、例えば図1に示す撮像装置100のように、撮像領域を囲むように配置されうる。撮像領域は、例えばサッカーや空手などの競技が行われる競技場、もしくはコンサートや演劇が行われる舞台などである。複数の撮像装置は、このような撮像領域を取り囲むようにそれぞれ異なる位置に設置され、同期して撮像を行う。なお、複数の撮像装置は撮像領域の全周にわたって設置されていなくてもよく、設置場所の制限等によっては撮像領域の一部の方向にのみ設置されていてもよい。また、撮像装置の数は図に示す例に限定されず、例えば撮像領域をサッカーの競技場とする場合には、競技場の周囲に30台程度の撮像装置が設置されてもよい。また、望遠カメラと広角カメラなど機能が異なる撮像装置が設置されていてもよい。また、本実施形態における仮想視点画像は、自由視点映像とも呼ばれるものであるが、ユーザが自由に(任意に)指定した視点に対応する画像に限定されず、例えば複数の候補からユーザが選択した視点に対応する画像なども仮想視点画像に含まれる。本実施形態における仮想視点画像は、動画であっても静止画像であってもよい。すなわち、以降の実施形態は、動画及び静止画像のいずれにも適用可能である。
First Embodiment
In this embodiment, a providing device 200 that provides information on the image quality of a virtual viewpoint image according to the direction of the virtual viewpoint will be described. Here, the virtual viewpoint image is an image that represents the view from a specified virtual viewpoint based on multiple images based on imaging by multiple imaging devices and a specified arbitrary viewpoint (virtual viewpoint). The multiple imaging devices can be arranged to surround an imaging area, for example, as in the imaging device 100 shown in FIG. 1. The imaging area is, for example, a stadium where sports such as soccer and karate are held, or a stage where a concert or a play is held. The multiple imaging devices are installed at different positions so as to surround such an imaging area, and capture images synchronously. Note that the multiple imaging devices do not need to be installed around the entire circumference of the imaging area, and may be installed only in a partial direction of the imaging area depending on restrictions on the installation location, etc. The number of imaging devices is not limited to the example shown in the figure, and for example, when the imaging area is a soccer stadium, about 30 imaging devices may be installed around the stadium. In addition, imaging devices with different functions, such as a telephoto camera and a wide-angle camera, may be installed. In addition, the virtual viewpoint image in this embodiment is also called a free viewpoint image, but is not limited to an image corresponding to a viewpoint freely (arbitrarily) specified by the user, and for example, an image corresponding to a viewpoint selected by the user from a plurality of candidates is also included in the virtual viewpoint image. The virtual viewpoint image in this embodiment may be a moving image or a still image. That is, the following embodiments are applicable to both moving images and still images.

図2に提供装置200のハードウェア構成図を示す。提供装置200は、CPU211、ROM212、RAM213、補助記憶装置214、通信I/F215、及びバス216を有する。CPU211は、ROM212やRAM213に格納されているコンピュータプログラムやデータを用いて提供装置200の全体を制御することで、図1に示す提供装置200の各機能を実現する。なお、提供装置200がCPU211とは異なる1又は複数の専用のハードウェアを有し、CPU211による処理の少なくとも一部を専用のハードウェアが実行してもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。 Figure 2 shows a hardware configuration diagram of the providing device 200. The providing device 200 has a CPU 211, a ROM 212, a RAM 213, an auxiliary storage device 214, a communication I/F 215, and a bus 216. The CPU 211 realizes each function of the providing device 200 shown in Figure 1 by controlling the entire providing device 200 using computer programs and data stored in the ROM 212 and the RAM 213. Note that the providing device 200 may have one or more dedicated hardware pieces different from the CPU 211, and at least a part of the processing by the CPU 211 may be executed by the dedicated hardware. Examples of the dedicated hardware include an ASIC (application specific integrated circuit), an FPGA (field programmable gate array), and a DSP (digital signal processor).

ROM212は、変更を必要としないプログラムなどを格納する。RAM213は、補助記憶装置214から供給されるプログラムやデータ、及び通信I/F217を介して外部から供給されるデータなどを一時記憶する。補助記憶装置214は、例えばハードディスクドライブ等で構成され、画像データや音声データなどの種々のデータを記憶する。通信I/F215は、提供装置200の外部の装置との通信に用いられる。例えば、提供装置200が外部の装置と有線で接続される場合には、通信用のケーブルが通信I/F215に接続される。提供装置200が外部の装置と無線通信する機能を有する場合には、通信I/F215はアンテナを備える。バス216は、提供装置200の各部をつないで情報を伝達する。 The ROM 212 stores programs that do not require modification. The RAM 213 temporarily stores programs and data supplied from the auxiliary storage device 214, and data supplied from the outside via the communication I/F 217. The auxiliary storage device 214 is composed of, for example, a hard disk drive, and stores various data such as image data and audio data. The communication I/F 215 is used for communication with devices external to the providing device 200. For example, when the providing device 200 is connected to an external device via a wire, a communication cable is connected to the communication I/F 215. When the providing device 200 has a function for wireless communication with an external device, the communication I/F 215 is equipped with an antenna. The bus 216 connects each part of the providing device 200 to transmit information.

本実施形態における提供装置200は、例えば、複数の撮像装置100、出力装置217、及び入力装置218等と接続されうる。出力装置217は、例えば液晶ディスプレイやLED等で構成され、ユーザが提供装置200を操作するためのGUI(Graphical User Interface)などを表示する。入力装置218は、例えばキーボードやマウス、ジョイスティック、タッチパネル等で構成され、ユーザによる操作を受けて各種の指示をCPU211に入力する。本実施形態では出力装置217及び入力装置218が提供装置200の外部に接続されるものとするが、出力装置217と入力装置218との少なくとも一方が、出力部あるいは入力部として提供装置200の内部に存在していてもよい。また、本実施形態における補助記憶装置214は提供装置200の内部に含まれるものとするが、提供装置200の外部に接続される構成であってもよいし、内部及び外部の両方に備わっている構成であってもよい。 The providing device 200 in this embodiment may be connected to, for example, a plurality of imaging devices 100, an output device 217, an input device 218, and the like. The output device 217 is composed of, for example, a liquid crystal display or an LED, and displays a GUI (Graphical User Interface) for the user to operate the providing device 200. The input device 218 is composed of, for example, a keyboard, a mouse, a joystick, a touch panel, and the like, and inputs various instructions to the CPU 211 in response to operations by the user. In this embodiment, the output device 217 and the input device 218 are connected to the outside of the providing device 200, but at least one of the output device 217 and the input device 218 may be present inside the providing device 200 as an output unit or an input unit. In addition, the auxiliary storage device 214 in this embodiment is included inside the providing device 200, but may be configured to be connected to the outside of the providing device 200, or may be configured to be provided both inside and outside.

図3は、本実施形態における提供装置200を含む画像処理システム1000の構成を説明するための図である。画像処理システム1000は、複数の撮像装置100、提供装置200、及び表示装置304を有する。また、提供装置200は、記憶部310、視点情報取得部301、評価情報取得部302、及び評価部303を有する。以下、各構成について説明する。 Figure 3 is a diagram for explaining the configuration of an image processing system 1000 including a providing device 200 in this embodiment. The image processing system 1000 has a plurality of imaging devices 100, a providing device 200, and a display device 304. The providing device 200 also has a storage unit 310, a viewpoint information acquisition unit 301, an evaluation information acquisition unit 302, and an evaluation unit 303. Each component will be explained below.

複数の撮像装置100は、撮像領域を複数の方向から撮像する。記憶部310は、図2における補助記憶装置214に対応する処理部である。本実施形態における記憶部310は、視点情報及び評価情報を記憶する。視点情報は、複数の撮像装置100から取得されるデータであって、複数の撮像装置100に関する情報を含むデータである。視点情報は、撮像装置100に関する情報として、例えば複数の撮像装置100それぞれの三次元位置、撮像方向、視野の大きさ(画角)、及び解像度等を示すパラメータを含みうる。視点情報は、複数の撮像装置100の状態に基づき、公知のカメラキャリブレーション手法等にしたがって算出される。カメラキャリブレーションの一例として、視点情報は、複数の撮像装置100の撮像により得られる複数の撮像画像における特徴点を撮像画像どうしで対応付け、幾何計算を行うことにより算出される。なお、視点情報に含まれる情報は上記に限定されない。例えば、複数の撮像装置100全体の台数を示す情報等、上記の情報以外の情報が含まれていてもよい。また、上記の情報の中から任意の情報のみが含まれていてもよい。また、視点情報は複数のパラメータセットを有していてもよい。例えば、視点情報が、撮像装置100の撮像により得られる動画について、該動画を構成する複数のフレームにそれぞれ対応する複数のパラメータセットを有していてもよい。このときのパラメータセットは、連続する複数の時点それぞれにおける撮像装置100の位置及び撮像方向を示す情報である。評価情報は、後述する評価部303が行う評価処理の設定に関する情報を含むデータである。評価情報の詳細については、後述する。 The multiple imaging devices 100 capture the imaging area from multiple directions. The storage unit 310 is a processing unit corresponding to the auxiliary storage device 214 in FIG. 2. The storage unit 310 in this embodiment stores viewpoint information and evaluation information. The viewpoint information is data acquired from the multiple imaging devices 100 and includes information about the multiple imaging devices 100. The viewpoint information may include parameters indicating, for example, the three-dimensional position, imaging direction, field of view size (angle of view), and resolution of each of the multiple imaging devices 100 as information about the imaging device 100. The viewpoint information is calculated based on the state of the multiple imaging devices 100 according to a known camera calibration method or the like. As an example of camera calibration, the viewpoint information is calculated by associating feature points in multiple captured images obtained by capturing images of the multiple imaging devices 100 with each other and performing geometric calculations. Note that the information included in the viewpoint information is not limited to the above. For example, information other than the above information, such as information indicating the total number of the multiple imaging devices 100, may be included. In addition, only arbitrary information from the above information may be included. In addition, the viewpoint information may have multiple parameter sets. For example, the viewpoint information may have a plurality of parameter sets corresponding to a plurality of frames constituting a video obtained by imaging with the imaging device 100. In this case, the parameter set is information indicating the position and imaging direction of the imaging device 100 at each of a plurality of consecutive points in time. The evaluation information is data including information regarding the settings of the evaluation process performed by the evaluation unit 303 described later. Details of the evaluation information will be described later.

視点情報取得部301は、記憶部310に記憶された視点情報を取得し、評価部303に送信する。評価情報取得部302は、記憶部310に記憶された評価情報を取得し、評価部303に送信する。評価部303は、評価処理を行い、処理の結果に基づく情報を表示装置304に表示させる。評価処理とは、特定の位置において、該位置を所定の方向から見るような仮想視点に係る仮想視点画像について、その画質を認識可能な情報を取得するための処理である。表示装置304は、図2における出力装置217に対応する装置であり、例えばディスプレイ等である。 The viewpoint information acquisition unit 301 acquires viewpoint information stored in the storage unit 310 and transmits it to the evaluation unit 303. The evaluation information acquisition unit 302 acquires evaluation information stored in the storage unit 310 and transmits it to the evaluation unit 303. The evaluation unit 303 performs evaluation processing and causes the display device 304 to display information based on the results of the processing. The evaluation processing is processing for acquiring information that allows recognition of the image quality of a virtual viewpoint image related to a virtual viewpoint that views a specific position from a specified direction at that position. The display device 304 is a device that corresponds to the output device 217 in FIG. 2 and is, for example, a display.

図4を用いて、本実施形態における提供装置200が行う処理について説明する。CPU211がROM212または補助記憶装置214に記憶されたプログラムを読み出して実行することにより、以下の処理が行われる。なお、以下の説明においては、処理ステップを単にSと表記する。提供装置200が視点情報の送信要求を送信することにより、処理が開始される。 The processing performed by the providing device 200 in this embodiment will be described with reference to FIG. 4. The CPU 211 reads out and executes a program stored in the ROM 212 or the auxiliary storage device 214 to perform the following processing. In the following description, processing steps are simply denoted as S. The processing is started when the providing device 200 transmits a request to transmit viewpoint information.

S401において、視点情報取得部301は、記憶部310から視点情報を取得し、評価部303に送信する。S402において、評価情報取得部302は、記憶部310から評価情報を取得し、評価部303に送信する。S403において、評価部303は、送信された視点情報及び評価情報を用いて、評価処理を行う。評価処理の詳細については、図5を用いて後述する。S404において、評価部303は、処理の結果に基づく情報を表示装置304に表示させる。表示装置304が当該情報を表示すると、処理が終了する。 In S401, the viewpoint information acquisition unit 301 acquires viewpoint information from the storage unit 310 and transmits it to the evaluation unit 303. In S402, the evaluation information acquisition unit 302 acquires evaluation information from the storage unit 310 and transmits it to the evaluation unit 303. In S403, the evaluation unit 303 performs evaluation processing using the transmitted viewpoint information and evaluation information. Details of the evaluation processing will be described later with reference to FIG. 5. In S404, the evaluation unit 303 causes the display device 304 to display information based on the results of the processing. When the display device 304 displays the information, the processing ends.

次に、評価部303が行う評価処理について説明する。以降、図5を参照しながら説明する。図5は、評価部303が行う評価処理を説明するためのフローチャートである。図5のフローチャートは、図4におけるS403の詳細なフローチャートである。 Next, the evaluation process performed by the evaluation unit 303 will be described. The following description will be given with reference to FIG. 5. FIG. 5 is a flowchart for explaining the evaluation process performed by the evaluation unit 303. The flowchart in FIG. 5 is a detailed flowchart of S403 in FIG. 4.

S501において、評価部303は、評価情報取得部302から送信された評価情報に含まれる、評価位置及び評価方向に関する情報を取得する。評価情報に含まれる評価位置に関する情報(以下、評価位置情報と呼ぶ)は、複数の撮像装置100が撮像する撮像領域における特定の位置の三次元座標を示す情報である。また、評価方向に関する情報(以下、評価方向情報と呼ぶ)は、上記の評価位置をどの方向から評価するかを示す情報である。評価位置情報及び評価方向情報は、それぞれ、複数の評価位置及び複数の評価方向についての情報を含みうる。以下の説明においては、評価位置情報に含まれる情報の一例として、(x、y、z)=(-3000.0、2000.0、0)、(0.0、2000.0、0.0)、(3000.0、2000.0、0)の3つの座標を示す情報が含まれているものとする。なお、xyz軸の原点は、撮像領域内の任意の位置に設定されるものとする。また、以下の説明においては、評価方向情報に含まれる情報の一例として、評価位置を含むxy平面上に、評価位置を終点とし、且つ該評価位置の周囲に10度間隔で放射状に設定される方向ベクトルを示す情報が含まれているものとする。すなわち、評価部303は、上記の評価情報に基づき、上記の評価位置に向かう複数の評価方向(方向ベクトル)を特定し、該複数の評価方向のそれぞれについて、該評価方向を仮想視点の方向として設定した場合の仮想視点画像の画質を評価する。 In S501, the evaluation unit 303 acquires information on the evaluation position and evaluation direction included in the evaluation information transmitted from the evaluation information acquisition unit 302. The information on the evaluation position included in the evaluation information (hereinafter referred to as evaluation position information) is information indicating the three-dimensional coordinates of a specific position in the imaging area captured by the multiple imaging devices 100. Furthermore, the information on the evaluation direction (hereinafter referred to as evaluation direction information) is information indicating the direction from which the above evaluation position is evaluated. The evaluation position information and the evaluation direction information may each include information on multiple evaluation positions and multiple evaluation directions. In the following description, it is assumed that, as an example of information included in the evaluation position information, information indicating three coordinates of (x, y, z) = (-3000.0, 2000.0, 0), (0.0, 2000.0, 0.0), and (3000.0, 2000.0, 0) is included. Note that the origin of the x, y, and z axes is set at any position within the imaging area. In the following description, an example of the information included in the evaluation direction information is information indicating direction vectors that end at the evaluation position on an xy plane that includes the evaluation position and are set radially around the evaluation position at 10 degree intervals. That is, based on the evaluation information, the evaluation unit 303 identifies multiple evaluation directions (directional vectors) that point toward the evaluation position, and evaluates the image quality of the virtual viewpoint image for each of the multiple evaluation directions when the evaluation direction is set as the direction of the virtual viewpoint.

本実施形態における評価位置情報及び評価方向情報は、ユーザによって予め設定され、評価情報として記憶部310に記憶される。ただし、提供装置200の構成は上記に限定されない。例えば、ユーザによる入力装置218の入力操作等に基づいて評価位置情報及び評価方向情報の少なくともいずれかを決定する構成とすることにより、ユーザは入力操作を行うことで任意の評価位置及び評価方向を決定することができるようになる。また例えば、提供装置200は、撮像領域内に等間隔に配置される複数の評価位置を示す評価位置情報、及び評価位置に対して等間隔で放射状に配置される複数の方向ベクトルを示す評価方向情報を自動で設定する構成とすることも可能である。この構成により、評価位置及び評価方向を決定するためのユーザの負担が軽減される。またこの構成においては、評価位置情報及び評価方向情報が自動で設定される場合、提供装置200は、仮想視点の位置及び方向を設定可能な粒度に応じて、評価位置及び評価方向の配置の間隔を決定する構成であってもよい。また、評価位置及び評価方向は必ずしも等間隔に設定される必要はない。提供装置200は、ユーザが予め評価情報を設定しておくことにより、任意の位置及び方向を設定可能である。また、一つの評価位置のみが設定されたり、一つの評価位置に対して一つの評価方向のみが設定されたりしてもよい。すなわち、提供装置200は、評価情報又はユーザによる入力操作等に基づいて、一以上の任意の評価位置及び評価方向を設定可能である。 The evaluation position information and evaluation direction information in this embodiment are set in advance by the user and stored in the storage unit 310 as evaluation information. However, the configuration of the providing device 200 is not limited to the above. For example, by configuring the providing device 200 to determine at least one of the evaluation position information and the evaluation direction information based on the input operation of the input device 218 by the user, the user can determine an arbitrary evaluation position and evaluation direction by performing the input operation. For example, the providing device 200 can be configured to automatically set evaluation position information indicating a plurality of evaluation positions arranged at equal intervals in the imaging area, and evaluation direction information indicating a plurality of directional vectors arranged radially at equal intervals with respect to the evaluation positions. This configuration reduces the burden on the user for determining the evaluation position and evaluation direction. In addition, in this configuration, when the evaluation position information and evaluation direction information are automatically set, the providing device 200 may be configured to determine the intervals of the arrangement of the evaluation positions and evaluation directions according to the granularity at which the position and direction of the virtual viewpoint can be set. In addition, the evaluation positions and evaluation directions do not necessarily need to be set at equal intervals. The providing device 200 can set arbitrary positions and directions by the user setting the evaluation information in advance. Also, only one evaluation position may be set, or only one evaluation direction may be set for one evaluation position. In other words, the providing device 200 can set one or more arbitrary evaluation positions and evaluation directions based on the evaluation information or an input operation by the user, etc.

S502において、評価部303は、評価位置情報が示す複数の評価位置について、S503からS505までの処理が行われていない評価位置が存在するか否かを判定する。処理が行われていない評価位置がある場合、評価部303はS503へ処理を進める。処理が行われていない評価位置がない場合、評価部303はS507へ処理を進める。 In S502, the evaluation unit 303 determines whether or not there is an evaluation position for which the processes from S503 to S505 have not been performed for the multiple evaluation positions indicated by the evaluation position information. If there is an evaluation position for which the processes have not been performed, the evaluation unit 303 proceeds to S503. If there is no evaluation position for which the processes have not been performed, the evaluation unit 303 proceeds to S507.

S503において、評価部303は、処理が行われていない評価位置を、処理の対象として設定する。S504において、処理の対象となる評価位置に対応する複数の評価方向について、S505及びS506の処理が行われていない評価方向が存在するか否かを判定する。処理が行われていない評価方向がある場合、評価部303はS505へ処理を進める。処理が行われていない評価方向がない場合、評価部303はS502以降の処理を再度行う。 In S503, the evaluation unit 303 sets an evaluation position for which processing has not been performed as a processing target. In S504, for multiple evaluation directions corresponding to the evaluation position to be processed, it is determined whether or not there is an evaluation direction for which processing has not been performed in S505 and S506. If there is an evaluation direction for which processing has not been performed, the evaluation unit 303 proceeds to S505. If there is no evaluation direction for which processing has not been performed, the evaluation unit 303 performs the processing from S502 onwards again.

S505において、評価部303は、複数の撮像装置100の中から、評価方向に基づいて撮像装置100を特定する。まず、評価部303は、視点情報取得部301から送信された視点情報に含まれる撮像装置100の位置及び画角を示すパラメータに基づいて、評価位置の三次元座標が画角に含まれない撮像装置100を、特定する撮像装置100の候補から除外する。評価部303は、視点情報に基づき、残りの複数の撮像装置100のそれぞれについて評価方向と撮像装置100の撮像方向とのなす角の値を取得する。このときのなす角は、評価方向に対応する方向ベクトルと、撮像装置100の撮像方向に対応する方向ベクトルとがなす角のうち、180度以下の角である。本実施形態においては、一例として、評価方向のxy面内成分と撮像方向のxy面内成分とのなす角を評価処理に用いることとする。また、評価部303は、取得したなす角の値が最小となる撮像装置100を特定する。 In S505, the evaluation unit 303 identifies an imaging device 100 from among the multiple imaging devices 100 based on the evaluation direction. First, the evaluation unit 303 excludes imaging devices 100 whose three-dimensional coordinates of the evaluation position are not included in the angle of view from candidates for imaging devices 100 to be identified based on parameters indicating the position and angle of view of the imaging device 100 included in the viewpoint information transmitted from the viewpoint information acquisition unit 301. The evaluation unit 303 acquires the value of the angle between the evaluation direction and the imaging direction of the imaging device 100 for each of the remaining multiple imaging devices 100 based on the viewpoint information. The angle at this time is an angle of 180 degrees or less between the direction vector corresponding to the evaluation direction and the direction vector corresponding to the imaging direction of the imaging device 100. In this embodiment, as an example, the angle between the xy in-plane component of the evaluation direction and the xy in-plane component of the imaging direction is used for the evaluation process. The evaluation unit 303 also identifies the imaging device 100 whose acquired angle value is the smallest.

S506において、評価部303は、S505において特定された撮像装置100について、上記のなす角の値を示す情報及び該撮像装置100の空間分解能を示す情報を記憶部310に記憶させる。ここで、本実施形態における空間分解能は、撮像装置100の解像度の性能に基づいて得られる指標である。具体的には、撮像装置100の空間分解能とは、評価位置に仮想的に設置した所定の大きさ(例えば1mm四方)の単位立方体(ボクセル)が撮像装置100の投影面に投影されたときに、該投影されたボクセルがどれくらいのピクセル数で表されるかを示す。ピクセル数が多い、すなわち空間分解能が高いほど、撮像装置100は空間を細かく表現することができる。評価部303は、特定された撮像装置100に対応するなす角及び空間分解能を示す情報を、当該評価方向と対応付けて記憶部310に記憶させたのち、S503へ処理を戻す。以降、すべての評価位置に対して処理を行うまで、S503からS506までの処理を繰り返す。 In S506, the evaluation unit 303 stores information indicating the value of the angle and information indicating the spatial resolution of the imaging device 100 for the imaging device 100 identified in S505 in the storage unit 310. Here, the spatial resolution in this embodiment is an index obtained based on the resolution performance of the imaging device 100. Specifically, the spatial resolution of the imaging device 100 indicates how many pixels are used to represent a unit cube (voxel) of a predetermined size (for example, 1 mm square) virtually installed at the evaluation position when the projected voxel is projected onto the projection surface of the imaging device 100. The greater the number of pixels, i.e., the higher the spatial resolution, the more finely the imaging device 100 can represent the space. The evaluation unit 303 stores the information indicating the angle and spatial resolution corresponding to the identified imaging device 100 in the storage unit 310 in association with the evaluation direction, and then returns the process to S503. Thereafter, the processes from S503 to S506 are repeated until the processes are performed for all evaluation positions.

すべての評価位置に対して処理を行った後、S506において、評価部303は、各評価位置に対応する撮像装置100に関する情報に基づいて、仮想視点の設定に利用されるグラフを生成する。図6は、評価部303が生成するグラフの一例を示す図である。図6に示すグラフは、評価位置に対応する複数の評価方向に応じて、仮想視点画像の画質を評価した結果に基づいて生成されるグラフである。グラフ601は、評価位置(x,y,z)=(-3000.0,2000.0,0)に対応するグラフである。また、矢印602は、該評価位置における評価方向を示す方向ベクトルの一例である。評価部303は、各方向ベクトルについて、特定された撮像装置100の撮像方向とのなす角によって色分けを行う。例えば、方向ベクトルと撮像装置100の撮像方向とのなす角が10度未満の場合と、10度以上30度未満の場合と、30度以上45度未満の場合と、45度以上の場合とで4段階で色を変える。このように、評価部303は、評価方向と撮像装置100の撮像方向とのなす角が上記の閾値未満であるか否かに応じて、評価方向に対応する画質を評価する。なお、色分けの際の閾値及び色は上記に限定されない。また、色分けは異なる色による分け方に限定されず、図6に示すように淡色の濃淡により表現されてもよい。評価部303は、色分けした結果に基づいて、図6に示すようなグラフを生成する。図6のグラフは、評価位置を中心とする扇形と各評価方向とが対応付けられ、上記の色分けの結果に基づいて着色がされている。また、扇形の半径の大きさは、該扇形に対応する評価方向により特定される撮像装置100の空間分解能の高低と、対応づけられている。仮想視点画像の生成においては、仮想視点の方向と撮像装置100の撮像方向とのなす角が小さいほど、仮想視点から見た映像と仮想視点画像の生成時に使用されるテクスチャとのずれも小さくなるため、生成される仮想視点画像の画質が高くなることが期待される。また、生成される仮想視点画像は、撮像装置100の空間分解能が高いほど細かく表現されるため、画質が高くなることが期待される。今、グラフ603について、仮想視点604の方向に対応する方向ベクトルが緑、仮想視点605の方向に対応する方向ベクトルが黄色に色分けされているものとする。このとき、評価位置(x,y,z)=(3000.0,2000.0,0)においては、グラフ603が示す扇形の色及び半径に基づき、仮想視点605から評価位置を見た場合の仮想視点画像の方が仮想視点604の場合よりも画質が高いことが推定される。したがって、S506において生成されたグラフが表示装置304に表示されることにより、ユーザはグラフを見ながら、仮想視点の方向をどのように設定すれば画質の良い仮想視点画像を生成することができるかを推定できる。この結果、ユーザは画質の良い仮想視点画像を取得可能な仮想視点を設定する際に、上記のグラフを利用して適切な仮想視点の方向を設定することができる。なお、提供装置200は上記の一連の評価処理を一度のみ行うことを想定しているが、例えば複数の撮像装置100の一部が故障する等条件が変動した場合に、再度評価処理を行う構成とすることにより、評価処理の精度を向上させることも可能である。 After processing all the evaluation positions, in S506, the evaluation unit 303 generates a graph to be used for setting the virtual viewpoint based on information about the image capture device 100 corresponding to each evaluation position. FIG. 6 is a diagram showing an example of a graph generated by the evaluation unit 303. The graph shown in FIG. 6 is a graph generated based on the result of evaluating the image quality of the virtual viewpoint image according to a plurality of evaluation directions corresponding to the evaluation position. Graph 601 is a graph corresponding to the evaluation position (x, y, z) = (-3000.0, 2000.0, 0). Also, arrow 602 is an example of a direction vector indicating the evaluation direction at the evaluation position. The evaluation unit 303 colors each direction vector according to the angle it makes with the identified imaging direction of the imaging device 100. For example, the color is changed in four stages depending on whether the angle between the direction vector and the imaging direction of the imaging device 100 is less than 10 degrees, 10 degrees or more and less than 30 degrees, 30 degrees or more and less than 45 degrees, or 45 degrees or more. In this way, the evaluation unit 303 evaluates the image quality corresponding to the evaluation direction depending on whether the angle between the evaluation direction and the imaging direction of the imaging device 100 is less than the above threshold. The threshold and color for color coding are not limited to the above. Also, the color coding is not limited to the classification by different colors, and may be expressed by light shades as shown in FIG. 6. The evaluation unit 303 generates a graph as shown in FIG. 6 based on the color coding result. In the graph of FIG. 6, a sector centered on the evaluation position is associated with each evaluation direction, and coloring is performed based on the above color coding result. Also, the size of the radius of the sector is associated with the high or low spatial resolution of the imaging device 100 specified by the evaluation direction corresponding to the sector. In generating a virtual viewpoint image, the smaller the angle between the virtual viewpoint direction and the imaging direction of the imaging device 100, the smaller the deviation between the image seen from the virtual viewpoint and the texture used when generating the virtual viewpoint image, so that the image quality of the generated virtual viewpoint image is expected to be high. Also, the higher the spatial resolution of the imaging device 100, the finer the generated virtual viewpoint image is expressed, so that the image quality is expected to be high. Now, for the graph 603, it is assumed that the direction vector corresponding to the direction of the virtual viewpoint 604 is colored green, and the direction vector corresponding to the direction of the virtual viewpoint 605 is colored yellow. At this time, at the evaluation position (x, y, z) = (3000.0, 2000.0, 0), it is estimated that the image quality of the virtual viewpoint image when the evaluation position is viewed from the virtual viewpoint 605 is higher than that of the virtual viewpoint 604, based on the color and radius of the sector shown by the graph 603. Therefore, by displaying the graph generated in S506 on the display device 304, the user can estimate how to set the direction of the virtual viewpoint to generate a virtual viewpoint image with good image quality while looking at the graph. As a result, when setting a virtual viewpoint that can obtain a virtual viewpoint image with good image quality, the user can set an appropriate direction of the virtual viewpoint using the graph. Note that the providing device 200 is assumed to perform the above series of evaluation processes only once, but it is also possible to improve the accuracy of the evaluation process by configuring the evaluation process to be performed again when conditions change, such as when some of the multiple imaging devices 100 fail.

以上が、評価処理の説明である。なお、なす角及び空間分解能の表現は上記の例に限定されない。例えば、なす角及び空間分解能が色、明るさ、グラフの半径方向の大きさ、及びグラフのz軸方向の高さを用いた表現等の表現方法から、任意の表現方法を組み合わせて表現されてもよい。また、評価部303は、空間分解能が高いほどグラフが小さくなるようにグラフを生成してもよい。また、評価部303は、上記の例のようになす角を場合分けせず、各数値を色の彩度又は明度等に対応付けてグラフを生成してもよい。また、図6に示すグラフは複数の方向ベクトルのすべてについて描画されているが、これに限定されない。例えば、なす角が小さく空間分解能が高い方向ベクトルが代表の方向ベクトルとして選択され、該代表の方向ベクトルのみが描画される構成とすることにより、方向ベクトルの描画に係る処理を削減することができる。また、表示装置304に表示されるグラフは、図6のような正投影に限らず、任意の仮想視点から透視投影したグラフが表示されてもよい。このように、グラフの表現方法には種々の方法が考えられる。また、上記の実施形態においては、評価部303は、複数の撮像装置100の撮像方向及び解像度に基づいて画質を評価するものとしたが、評価部303は、少なくとも撮像装置100の撮像方向を示す情報を用いることにより画質を評価することが可能である。 The above is a description of the evaluation process. The expressions of the angle and spatial resolution are not limited to the above example. For example, the angle and spatial resolution may be expressed by a combination of any expression method, such as the expression method using color, brightness, the radial size of the graph, and the height in the z-axis direction of the graph. The evaluation unit 303 may generate a graph so that the graph becomes smaller as the spatial resolution increases. The evaluation unit 303 may generate a graph by associating each numerical value with the saturation or brightness of the color, without classifying the angle as in the above example. The graph shown in FIG. 6 is drawn for all of the multiple directional vectors, but is not limited to this. For example, a directional vector with a small angle and high spatial resolution is selected as a representative directional vector, and only the representative directional vector is drawn, thereby reducing the processing related to drawing the directional vector. The graph displayed on the display device 304 is not limited to the orthogonal projection as in FIG. 6, but may be a graph projected from an arbitrary virtual viewpoint. In this way, various methods are possible for expressing a graph. Furthermore, in the above embodiment, the evaluation unit 303 evaluates image quality based on the imaging direction and resolution of multiple imaging devices 100, but the evaluation unit 303 can evaluate image quality by using at least information indicating the imaging direction of the imaging device 100.

また、上記の実施形態においては、評価方向と撮像装置100の撮像方向とのなす角は評価方向のxy面内成分と撮像方向のxy面内成分とのなす角であるものとしたが、これに限定されない。なす角として、評価方向に対応する空間ベクトルと、撮像方向に対応する空間ベクトルとのなす角を考慮することにより、提供装置200は三次元空間に対応した評価方向についての画質を評価することが可能である。また、このときのグラフの表現方法として、評価位置を中心とする半球を生成し、仮想視点のz軸方向の高さも考慮したグラフが生成されるようにしてもよい。 In addition, in the above embodiment, the angle between the evaluation direction and the imaging direction of the imaging device 100 is the angle between the xy in-plane component of the evaluation direction and the xy in-plane component of the imaging direction, but this is not limited to this. By considering the angle between the spatial vector corresponding to the evaluation direction and the spatial vector corresponding to the imaging direction as the angle, the providing device 200 can evaluate the image quality for the evaluation direction corresponding to the three-dimensional space. In addition, as a method of expressing the graph at this time, a hemisphere centered on the evaluation position may be generated, and a graph may be generated that also takes into account the height of the virtual viewpoint in the z-axis direction.

また、上記の実施形態においては、提供装置200が有する評価部303がグラフを生成する構成について説明したが、これに限定されない。例えば、評価部303は、S502からS505までの処理に基づいて取得された情報を表示装置304に送信し、送信された情報に基づいて表示装置304がグラフを生成する構成であってもよい。また、表示装置304は別途仮想視点情報と仮想視点画像を取得してグラフを重畳表示する構成とすることにより、ユーザに仮想視点画像とグラフとを対応付けて提供することが可能である。また、表示装置304は、撮像領域における評価位置の座標と、該評価位置に対応するグラフとを対応付けて、仮想視点画像あるいは撮像領域を俯瞰する画像に重畳して表示する構成とすることができる。このとき表示装置304は、評価位置が複数ある場合に、複数のグラフが同一の仮想視点画像又は撮像領域を俯瞰する画像の各座標に配置された画面表示をする。この構成により、ユーザは、撮像領域内においてどの位置をどの方向から見るような仮想視点を設定すべきかを容易に認識することができる。 In the above embodiment, the evaluation unit 303 of the providing device 200 generates a graph, but the present invention is not limited to this. For example, the evaluation unit 303 may transmit information acquired based on the processes from S502 to S505 to the display device 304, and the display device 304 may generate a graph based on the transmitted information. The display device 304 may separately acquire virtual viewpoint information and a virtual viewpoint image and superimpose the graph to display the graph, thereby making it possible to provide the user with a virtual viewpoint image and a graph in association with each other. The display device 304 may also be configured to superimpose the coordinates of an evaluation position in the imaging area and a graph corresponding to the evaluation position, and display the graph in association with the virtual viewpoint image or the image overlooking the imaging area. In this case, when there are multiple evaluation positions, the display device 304 displays a screen in which multiple graphs are arranged at the respective coordinates of the same virtual viewpoint image or the image overlooking the imaging area. With this configuration, the user can easily recognize which position in the imaging area should be set as a virtual viewpoint from which direction.

以上説明したように、本実施形態における提供装置200は、視点情報及び評価情報に基づいて評価処理を行い、グラフを生成する。ユーザは表示装置304に表示されるグラフを見ることにより、特定の位置(評価位置)を視野に含む仮想視点の方向をどのように設定すれば画質の良い仮想視点画像を生成することができるかを容易に認識することができる。この結果、ユーザは仮想視点を設定する際に、上記のグラフを利用し、高画質な仮想視点画像を生成することができる仮想視点の方向を設定することができる。なお、本実施形態における提供装置200は、仮想視点の方向を設定するための情報として、グラフを生成する例について説明したが、提供装置が生成する情報はグラフ以外でもよい。提供装置200は、例えば、評価方向と上記のなす角とが対応付けられたテーブルを生成する構成であってもよい。 As described above, the providing device 200 in this embodiment performs evaluation processing based on viewpoint information and evaluation information to generate a graph. By looking at the graph displayed on the display device 304, the user can easily recognize how to set the direction of the virtual viewpoint that includes a specific position (evaluation position) in the field of view in order to generate a virtual viewpoint image with good image quality. As a result, when setting a virtual viewpoint, the user can use the above graph to set the direction of the virtual viewpoint that can generate a high-quality virtual viewpoint image. Note that, although an example of generating a graph as information for setting the direction of the virtual viewpoint by the providing device 200 in this embodiment has been described, the information generated by the providing device may be other than a graph. The providing device 200 may be configured to generate a table in which the evaluation direction and the above-mentioned angle are associated, for example.

(第1の実施形態の変形例)
第1の実施形態の変形例として、画質を評価する別の方法について説明する。一例として、図12を参照しながら、評価位置12に対応する画質を評価する場合について説明する。評価部303は、視点情報に基づき、複数の撮像装置100の中から評価位置12を画角に含む撮像装置100を特定する。評価部303は、特定した撮像装置100の位置と評価位置12とを結ぶ線分13を算出する。さらに、評価部303は、評価位置を中心とする円について、算出した線分13を中心とする中心角θの扇形14を算出する。なお、このときの中心角θは任意の値であり、あらかじめ定められているものとする。特定された撮像装置100が複数ある場合は、各撮像装置100について同様に扇形14を算出する。図12に示す例では、代表として一つの扇形14が図示されている。すべての扇形14を算出した後、評価部303は、すべての扇形に含まれない領域15を特定する。領域15は、当該領域の方向から評価位置12を撮像する撮像装置100がないことを示す領域である。したがって、領域15の方向から評価位置12を見る仮想視点に対応する仮想視点画像の画質が低いことが推定される。評価部303は、図12に示すような画面表示を表示装置304に表示させる。これにより、ユーザは、画質の良い仮想視点画像を取得するためにどの方向から評価位置12を見る仮想視点を設定すればよいかを容易に推定することができる。
(Modification of the first embodiment)
As a modification of the first embodiment, another method for evaluating image quality will be described. As an example, a case where image quality corresponding to the evaluation position 12 is evaluated will be described with reference to FIG. 12. The evaluation unit 303 identifies an image capture device 100 that includes the evaluation position 12 in its angle of view from among a plurality of image capture devices 100 based on viewpoint information. The evaluation unit 303 calculates a line segment 13 connecting the position of the identified image capture device 100 and the evaluation position 12. Furthermore, the evaluation unit 303 calculates a sector 14 with a central angle θ centered on the calculated line segment 13 for a circle centered on the evaluation position. Note that the central angle θ at this time is an arbitrary value and is assumed to be determined in advance. When there are a plurality of identified image capture devices 100, the sector 14 is calculated for each image capture device 100 in the same manner. In the example shown in FIG. 12, one sector 14 is illustrated as a representative. After calculating all sectors 14, the evaluation unit 303 identifies an area 15 that is not included in all sectors. The area 15 is an area indicating that there is no image capture device 100 that captures the evaluation position 12 from the direction of the area. Therefore, it is estimated that the image quality of the virtual viewpoint image corresponding to the virtual viewpoint viewing the evaluation position 12 from the direction of the area 15 is low. The evaluation unit 303 causes the display device 304 to display a screen display such as that shown in Fig. 12. This allows the user to easily estimate from which direction the virtual viewpoint should be set to view the evaluation position 12 in order to obtain a virtual viewpoint image with good image quality.

なお、上記の変形例においては、必ずしも評価方向が特定される必要はなく、評価位置と複数の撮像装置100の視点情報とに基づいて画質を評価することが可能である。また、評価部303は、各撮像装置100に対応する扇形14を算出したのち、特定の領域について扇形14がいくつ重なるか(以下、重複回数と呼ぶ)を算出し、重複回数に応じて色分けを行う構成とすることも可能である。例えば、上記の領域15はすべての扇形に含まれない領域であるため、領域15の重複回数は0である。このとき、評価部303は、例えば重複回数が所定の閾値以下である領域を領域15と同様に色分けしてもよいし、重複回数ごとに異なる色で色分けを行うようにしてもよい。このような構成とすることにより、より詳細な画質の評価が可能となる。また、評価部303は、値の異なる複数の中心角θを設定することにより、複数段階の画質を求める構成とすることも可能である。また、図12に示す画面表示は一例であり、これに限定するものではない。第1の実施形態で述べた種々の表現方法を用いることが可能である。 In the above modified example, the evaluation direction does not necessarily need to be specified, and the image quality can be evaluated based on the evaluation position and the viewpoint information of the multiple imaging devices 100. In addition, the evaluation unit 303 can be configured to calculate how many overlapping sectors 14 (hereinafter referred to as the overlapping number) of a specific region after calculating the sectors 14 corresponding to each imaging device 100, and to color-code the region according to the overlapping number. For example, since the above region 15 is not included in all sectors, the overlapping number of region 15 is 0. In this case, the evaluation unit 303 can color-code the region whose overlapping number is equal to or less than a predetermined threshold in the same way as the region 15, or can color-code the region with a different color for each overlapping number. By configuring in this way, it is possible to evaluate the image quality in more detail. In addition, the evaluation unit 303 can be configured to obtain multiple levels of image quality by setting multiple central angles θ with different values. In addition, the screen display shown in FIG. 12 is an example, and is not limited to this. Various expression methods described in the first embodiment can be used.

(第2の実施形態)
上述の第1の実施形態においては、評価処理の結果に基づく結果からグラフを生成し、表示装置304に表示させることにより、仮想視点の設定時に参考となる情報をユーザに提供する例について説明した。本実施形態においては、ユーザが仮想視点を設定する際に情報を提供する提供装置230について説明する。なお、提供装置230のハードウェア構成は第1の実施形態における提供装置200と同様であるものとする。また、以降の説明においては、第1の実施形態と同様の機能構成及び処理フローについては同じ符号を付し、説明を省略する。
Second Embodiment
In the above-described first embodiment, an example has been described in which a graph is generated from the results based on the evaluation process and displayed on the display device 304, thereby providing the user with information to be used as a reference when setting a virtual viewpoint. In this embodiment, a providing device 230 that provides information when the user sets a virtual viewpoint will be described. Note that the hardware configuration of the providing device 230 is assumed to be the same as that of the providing device 200 in the first embodiment. In the following description, the same reference numerals will be used to designate the same functional configurations and processing flows as those in the first embodiment, and description thereof will be omitted.

図7は、本実施形態における提供装置230を含む画像処理システム1100の機能構成を説明するための図である。画像処理システム1100は、画像処理システム1000の構成に加え、操作装置701、及びスピーカー704を含む。また、画像処理システム1100に含まれる提供装置230は、提供装置200の各処理部に加え、仮想視点決定部702、及び制御部703を有する。 Figure 7 is a diagram for explaining the functional configuration of an image processing system 1100 including a providing device 230 in this embodiment. In addition to the configuration of the image processing system 1000, the image processing system 1100 includes an operation device 701 and a speaker 704. Furthermore, the providing device 230 included in the image processing system 1100 has a virtual viewpoint determination unit 702 and a control unit 703 in addition to each processing unit of the providing device 200.

操作装置701は、図2における入力装置218に対応する装置であり、例えばキーボードやマウス、ジョイスティック、タッチパネル等で構成される。ユーザは操作装置701を操作することにより、仮想視点の位置、方向及び視野の広さ(画角)等を設定するための入力を行うことができる。以降の説明においては、仮想視点の位置、方向及び画角を示すパラメータを含む情報を、仮想視点情報と呼ぶ。ユーザは操作装置701を操作することにより、仮想視点情報の設定の他にも、提供装置230に対する動作命令等の種々の入力を行うことが可能である。 The operation device 701 corresponds to the input device 218 in FIG. 2 and is composed of, for example, a keyboard, a mouse, a joystick, a touch panel, etc. The user can operate the operation device 701 to perform input for setting the position, direction, and field of view (angle of view) of the virtual viewpoint. In the following explanation, information including parameters indicating the position, direction, and angle of view of the virtual viewpoint is referred to as virtual viewpoint information. In addition to setting virtual viewpoint information, the user can operate the operation device 701 to perform various inputs such as operation commands to the providing device 230.

仮想視点決定部702は、ユーザによる操作装置701の入力操作に基づき、仮想視点情報を決定する。なお、操作装置701において仮想視点情報が決定され、仮想視点決定部702に送信される構成であってもよい。また、仮想視点決定部702は、補助記憶装置214等にあらかじめ記憶された仮想視点情報を取得する構成であってもよい。仮想視点決定部702は、取得した仮想視点情報を制御部703に送信する。制御部703は、評価部303から評価処理の結果に基づく情報を取得して後述する制御処理を行い、該制御処理の結果に基づいて得られる情報を表示装置304及びスピーカー704に出力する。スピーカー704は、図2における出力装置217に対応する。スピーカー704は、制御部703から出力される情報に基づき、音声等を出力してユーザに情報を提供する。 The virtual viewpoint determination unit 702 determines virtual viewpoint information based on an input operation of the operation device 701 by the user. Note that the operation device 701 may determine virtual viewpoint information and transmit it to the virtual viewpoint determination unit 702. Alternatively, the virtual viewpoint determination unit 702 may acquire virtual viewpoint information stored in advance in the auxiliary storage device 214 or the like. The virtual viewpoint determination unit 702 transmits the acquired virtual viewpoint information to the control unit 703. The control unit 703 acquires information based on the result of the evaluation process from the evaluation unit 303, performs a control process described below, and outputs information obtained based on the result of the control process to the display device 304 and the speaker 704. The speaker 704 corresponds to the output device 217 in FIG. 2. The speaker 704 provides information to the user by outputting sound or the like based on the information output from the control unit 703.

次に、図8を参照しながら提供装置230が行う処理について説明する。図8は、提供装置230が実行する処理を説明するためのフローチャートである。なお、S401、S402、S403及びS404における処理については第1の実施形態と同様であるため、説明を省略する。 Next, the processing performed by the providing device 230 will be described with reference to FIG. 8. FIG. 8 is a flowchart for explaining the processing executed by the providing device 230. Note that the processing in S401, S402, S403, and S404 is the same as in the first embodiment, and therefore the description will be omitted.

S801において、制御部703は、S403において実行された評価処理の結果に基づく情報を評価部303から取得する。S802において、仮想視点決定部702は、ユーザによる操作装置701の入力操作に基づき、仮想視点情報を決定する。また、仮想視点決定部702は、決定した仮想視点情報を制御部703に送信する。S803において、制御部703は、取得した情報に基づいて制御処理を行う。 In S801, the control unit 703 acquires information based on the result of the evaluation process executed in S403 from the evaluation unit 303. In S802, the virtual viewpoint determination unit 702 determines virtual viewpoint information based on an input operation of the operation device 701 by the user. In addition, the virtual viewpoint determination unit 702 transmits the determined virtual viewpoint information to the control unit 703. In S803, the control unit 703 performs control processing based on the acquired information.

ここで、制御処理について説明する。図9は、制御部703が行う制御処理の一例を説明するための図である。制御部703は、仮想視点決定部702から送信される仮想視点情報と、評価部303が行う評価処理の結果に基づいて生成された情報とから、仮想視点と評価位置との位置関係を算出する。図9の例において、制御部703は、仮想視点40の画角内にある評価位置と仮想視点40の位置とを結ぶ光線901及び902を算出し、それぞれの評価位置について光線と最も近似する方向ベクトルを複数の方向ベクトルの中から選択する。制御部703は、選択された方向ベクトルに対応する画質の評価結果を参照し、該評価結果に基づいて制御値を決定する。制御値は、制御部703が表示装置304及びスピーカー704を制御するために決定される値である。また、制御値は、画質の評価結果が所定の基準に満たない場合、当該基準から離れるほど大きい値となる。例えば、所定の基準として、方向ベクトルと撮像装置100の撮像方向とのなす角が30度未満又は空間分解能が所定値(例えば0.5ピクセル)以上という基準が設定されている場合を考える。このとき、選択された方向ベクトルに対応する画質について、なす角が30度以上かつ空間分解能が0.5ピクセル未満であった場合、なす角が大きいほど、及び空間分解能が低くなるほど制御値は大きくなる。一方、選択された方向ベクトルに対応する画質が上記の基準を満たす場合、制御値は0となる。なお、基準の内容については、上記に限定されない。制御値は、あらかじめなす角及び空間分解能と制御値とを対応付けたテーブルを用意しておくことにより決定される。ただしこの方法に限定されず、制御値がなす角と空間分解能との関数を使用することにより算出されてもよい。 Here, the control process will be described. FIG. 9 is a diagram for explaining an example of the control process performed by the control unit 703. The control unit 703 calculates the positional relationship between the virtual viewpoint and the evaluation position from the virtual viewpoint information transmitted from the virtual viewpoint determination unit 702 and the information generated based on the result of the evaluation process performed by the evaluation unit 303. In the example of FIG. 9, the control unit 703 calculates rays 901 and 902 connecting the evaluation position within the angle of view of the virtual viewpoint 40 and the position of the virtual viewpoint 40, and selects a direction vector that is most similar to the ray for each evaluation position from among multiple direction vectors. The control unit 703 refers to the evaluation result of the image quality corresponding to the selected direction vector, and determines a control value based on the evaluation result. The control value is a value determined for the control unit 703 to control the display device 304 and the speaker 704. In addition, if the evaluation result of the image quality does not meet a predetermined standard, the control value becomes larger as it deviates from the standard. For example, consider a case where the predetermined criterion is that the angle between the direction vector and the imaging direction of the imaging device 100 is less than 30 degrees or the spatial resolution is a predetermined value (e.g., 0.5 pixels) or more. In this case, if the angle is 30 degrees or more and the spatial resolution is less than 0.5 pixels for the image quality corresponding to the selected direction vector, the control value increases as the angle increases and the spatial resolution decreases. On the other hand, if the image quality corresponding to the selected direction vector satisfies the above criterion, the control value becomes 0. Note that the content of the criterion is not limited to the above. The control value is determined by preparing a table in which the angle and spatial resolution are associated with the control value in advance. However, the present invention is not limited to this method, and the control value may be calculated using a function of the angle and spatial resolution.

S804において、制御部703は、制御値が0か否かを判定する。制御値が0であると判定された場合、処理が終了する。制御値が0でないと判定された場合、S805に処理を進める。S805において、制御部703は、スピーカー704に制御値に基づく信号を送信し、制御値に応じた音をスピーカー704に出力させる。スピーカー704は、例えば、制御値に応じて音量及び種類の異なる音を出力する。あるいは、一定の周期で鳴る音について、該周期が制御値に応じて異なるような音が出力されてもよい。 In S804, the control unit 703 determines whether the control value is 0 or not. If it is determined that the control value is 0, the process ends. If it is determined that the control value is not 0, the process proceeds to S805. In S805, the control unit 703 transmits a signal based on the control value to the speaker 704, and causes the speaker 704 to output a sound according to the control value. The speaker 704 outputs, for example, a sound with a different volume and type according to the control value. Alternatively, for a sound that is sounded at a fixed cycle, a sound whose cycle varies according to the control value may be output.

S806において、制御部703は、ユーザの入力操作に基づいて仮想視点情報が決定された際に、画質低下の警告を示す画面表示を表示装置304に表示させるように制御する。表示装置304は、制御部703による表示制御に従い、アイコン及びテキスト等を表示する。このとき、表示装置304は、制御値に応じてアイコン及びテキスト等の大きさ、色又は種類等を異ならせて表示する。また、制御部703は、画面全体を暗くするフィルター処理について、フィルターの大きさ、明るさ、色、又は透過率等のパラメータを変更し、表示装置304の表示に対してフィルター処理を行う構成であってもよい。また、表示装置304は、上記のような画面表示を、決定された仮想視点情報に対応する仮想視点画像に重畳させて表示する構成とすることも可能である。 In S806, when the virtual viewpoint information is determined based on the user's input operation, the control unit 703 controls the display device 304 to display a screen display indicating a warning of image quality degradation. The display device 304 displays icons, text, etc. according to the display control by the control unit 703. At this time, the display device 304 displays the icons, text, etc. with different sizes, colors, or types depending on the control values. The control unit 703 may also be configured to change parameters such as the size, brightness, color, or transmittance of the filter for filter processing that darkens the entire screen, and perform filter processing on the display of the display device 304. The display device 304 may also be configured to display the above-mentioned screen display by superimposing it on the virtual viewpoint image corresponding to the determined virtual viewpoint information.

S807において、制御部703は、制御値に応じて仮想視点情報を補正させる信号を操作装置701に送信する。例えば、図9における仮想視点41について、光線903に対応する方向ベクトルの画質が基準に満たないものとする。この場合、制御部703は、仮想視点41の画角内に当該方向ベクトルが含まれなくなるように、仮想視点の位置、方向又は画角を補正させる信号を操作装置701に出力する。操作装置701は、制御部703から送信された信号に基づき、ユーザ操作によらずに仮想視点情報を補正するための操作を行うことができる。S807が終了すると、S404へ処理が進む。 In S807, the control unit 703 transmits a signal to the operation device 701 to correct the virtual viewpoint information according to the control value. For example, for the virtual viewpoint 41 in FIG. 9, it is assumed that the image quality of the direction vector corresponding to the ray 903 does not meet the standard. In this case, the control unit 703 outputs a signal to the operation device 701 to correct the position, direction, or angle of view of the virtual viewpoint so that the direction vector is not included in the angle of view of the virtual viewpoint 41. Based on the signal transmitted from the control unit 703, the operation device 701 can perform an operation to correct the virtual viewpoint information without user operation. When S807 ends, the process proceeds to S404.

なお、S805、S806、S807及びS404の処理は必ずしもすべて実行されなくてもよく、任意の処理のみが実行される構成であってもよい。また、S805、S806、S807及びS404の処理が実行される順番についても、任意の順番で実行されて構わない。また、制御値がS805からS807までの各処理ごとに決定されてもよい。また、本実施形態においては、S404においてグラフが表示される表示装置と、S806において制御される表示装置とが同じ場合について説明したが、上記の表示装置は異なる装置であってもよい。また、本実施形態における操作装置701は提供装置230の外部に接続されるものとしたが、提供装置230の内部に含まれる構成であってもよい。 Note that the processes of S805, S806, S807, and S404 do not necessarily have to all be executed, and only optional processes may be executed. The processes of S805, S806, S807, and S404 may also be executed in any order. A control value may be determined for each process from S805 to S807. In this embodiment, the display device on which the graph is displayed in S404 and the display device controlled in S806 are the same, but the display devices may be different devices. In this embodiment, the operation device 701 is connected to the outside of the providing device 230, but may be included inside the providing device 230.

以上説明した提供装置230は、スピーカー704、表示装置304及び操作装置701を制御することにより、仮想視点の設定に利用される情報を提供する。本実施形態における提供装置230によれば、ユーザは仮想視点を設定する際に、音が鳴らなくなる、又は画質の低下を通知する表示がされなくなるように仮想視点を設定することにより、画質の良い仮想視点画像を取得することができる。また、仮想視点情報が補正されることにより、仮想視点画像の画質が低下する虞を軽減することができる。 The providing device 230 described above provides information used to set a virtual viewpoint by controlling the speaker 704, the display device 304, and the operation device 701. According to the providing device 230 of this embodiment, when setting a virtual viewpoint, the user can obtain a virtual viewpoint image with good image quality by setting the virtual viewpoint so that no sound is generated or no display is displayed notifying the user of a decrease in image quality. In addition, by correcting the virtual viewpoint information, the risk of the image quality of the virtual viewpoint image decreasing can be reduced.

(第3の実施形態)
上述した第1の実施形態においては、視点情報を参照することにより、評価情報に基づいて特定される評価位置における各評価方向に対応する画質を評価する方法について説明した。本実施形態においては、評価部303が評価処理を行う別の例について説明する。なお、本実施形態において説明する提供装置240のハードウェア構成は、第1の実施形態における提供装置200と同様であるものとする。また、以降の説明においては、第1及び第2の実施形態と同様の機能構成及び処理フローについては同じ符号を付し、説明を省略する。
Third Embodiment
In the above-described first embodiment, a method for evaluating image quality corresponding to each evaluation direction at an evaluation position specified based on evaluation information by referring to viewpoint information has been described. In this embodiment, another example in which the evaluation unit 303 performs evaluation processing will be described. Note that the hardware configuration of the providing device 240 described in this embodiment is assumed to be the same as that of the providing device 200 in the first embodiment. In the following description, the same reference numerals will be used for functional configurations and processing flows that are the same as those in the first and second embodiments, and descriptions thereof will be omitted.

図10は、本実施形態における提供装置240を含む画像処理システム1200の機能構成を説明するための図である。提供装置240は、提供装置200の各処理部に加え、撮像情報取得部1001、及び形状データ取得部1002を有する。 Figure 10 is a diagram for explaining the functional configuration of an image processing system 1200 including a providing device 240 in this embodiment. In addition to each processing unit of the providing device 200, the providing device 240 has an imaging information acquisition unit 1001 and a shape data acquisition unit 1002.

撮像情報取得部1001は、記憶部310に記憶された撮像情報を取得し、評価部303に送信する。ここで、撮像情報とは、複数の撮像装置100が撮像領域を撮像することにより得られる撮像画像に関する情報を含むデータである。撮像画像に関する情報は、撮像画像の質に関係する情報であり、例えば、撮像装置100の揺れ、撮像画像のぼけ、露出、ホワイトバランス、及び撮像画像における信号対雑音比を示す数値を含む。撮像装置100の揺れ、撮像画像のぼけ、露出、及びホワイトバランスは、外部の画像解析装置による解析、外部のセンサー、撮像装置100の設定、及び撮像画像のメタデータに含まれる情報等に基づいて取得される。また、撮像画像は、撮像装置100の感度が適切に設定されない場合に、雑音(ノイズ)を含むことがある。撮像画像における信号対雑音比は、適切な感度の設定により撮像された撮像画像を参照画像とした場合の、撮像画像におけるノイズの比率を算出することにより取得される。また、撮像装置100は、ある評価位置が撮像領域内における構造物(例えばサッカーゴール等)によって遮られることにより、該評価位置を撮像できない場合がある。また、撮像装置100は、例えば、観客、応援旗、鳥及び虫等が撮像装置100の画角内に含まれるために、撮像対象が遮蔽され、撮像対象を適切に撮像できない場合がある。上記のような状況を示すため、撮像情報は、撮像画像に関する情報として、撮像装置100が撮像する撮像対象が遮蔽されていることを示す情報を含む。撮像装置100が遮蔽されていることを示す情報は、あらかじめ補助記憶装置214等に記憶させた構造物の座標を参照する、あるいは取得された撮像画像に対し、撮像対象ではないオブジェクトが含まれるか否かについて画像解析を行うことにより取得される。なお、撮像画像に関する情報は、上記の例に限定されず、例えば任意の数の情報のみを含んでいてもよいし、上記以外の情報を含んでいてもよい。 The imaging information acquisition unit 1001 acquires the imaging information stored in the storage unit 310 and transmits it to the evaluation unit 303. Here, the imaging information is data including information about the captured image obtained by the multiple imaging devices 100 capturing the imaging area. The information about the captured image is information related to the quality of the captured image, and includes, for example, a numerical value indicating the shaking of the imaging device 100, the blur of the captured image, exposure, white balance, and the signal-to-noise ratio in the captured image. The shaking of the imaging device 100, the blur of the captured image, exposure, and white balance are acquired based on an analysis by an external image analysis device, an external sensor, the settings of the imaging device 100, and information included in the metadata of the captured image. In addition, the captured image may contain noise if the sensitivity of the imaging device 100 is not set appropriately. The signal-to-noise ratio in the captured image is acquired by calculating the ratio of noise in the captured image when the captured image captured with an appropriate sensitivity setting is used as a reference image. In addition, the imaging device 100 may not be able to capture an evaluation position because the evaluation position is blocked by a structure (e.g., a soccer goal) in the imaging area. In addition, the imaging device 100 may not be able to properly capture an imaging target because, for example, spectators, cheering flags, birds, insects, etc. are included in the angle of view of the imaging device 100, and the imaging target is blocked. In order to indicate the above-mentioned situation, the imaging information includes information indicating that the imaging target captured by the imaging device 100 is blocked as information regarding the captured image. The information indicating that the imaging device 100 is blocked is obtained by referring to the coordinates of the structure stored in advance in the auxiliary storage device 214, etc., or by performing image analysis on the captured image to determine whether or not an object that is not the imaging target is included. Note that the information regarding the captured image is not limited to the above example, and may include, for example, only any number of pieces of information, or may include information other than the above.

形状データ取得部1002は、記憶部310に記憶された形状データを取得し、評価部303に送信する。ここで、形状データとは、複数の撮像装置100が撮像する被写体の形状を示すデータである。本実施形態における形状データは、例えば、メッシュポリゴンデータ又は点群データである。メッシュポリゴンデータ及び点群データは、複数の撮像画像に基づき、公知の三次元復元手法(例えば、Structure from Motion(SfM))等を用いることにより生成される。また、被写体の形状を示すデータと、撮像領域における該被写体の位置を示す情報とが紐づけられている。なお、形状データに含まれるデータはこれに限定されない。例えば、イメージベースドレンダリングに基づくデータが含まれていてもよい。形状データは、撮像画像を用いて予め生成され、記憶部310に記憶される。 The shape data acquisition unit 1002 acquires the shape data stored in the storage unit 310 and transmits it to the evaluation unit 303. Here, the shape data is data indicating the shape of the subject captured by the multiple image capture devices 100. The shape data in this embodiment is, for example, mesh polygon data or point cloud data. The mesh polygon data and point cloud data are generated based on the multiple captured images by using a known three-dimensional restoration method (for example, Structure from Motion (SfM)). In addition, data indicating the shape of the subject is linked to information indicating the position of the subject in the captured area. Note that the data included in the shape data is not limited to this. For example, data based on image-based rendering may be included. The shape data is generated in advance using the captured images and stored in the storage unit 310.

以下、図11を参照しながら、提供装置240が行う処理について説明する。なお、処理の開始及び終了の判定、並びにS401、S402、及びS404は第1の実施形態と同様であるため説明を省略する。S1101において、撮像情報取得部1001は、記憶部310から撮像情報を取得し、評価部303に送信する。S1102において、形状データ取得部1002は、記憶部310から形状データを取得し、評価部303に送信する。 The processing performed by the providing device 240 will be described below with reference to FIG. 11. Note that the determination of the start and end of processing, as well as S401, S402, and S404, are the same as in the first embodiment, and therefore will not be described. In S1101, the imaging information acquisition unit 1001 acquires imaging information from the storage unit 310 and transmits it to the evaluation unit 303. In S1102, the shape data acquisition unit 1002 acquires shape data from the storage unit 310 and transmits it to the evaluation unit 303.

S1103において、評価部303は、形状データに基づき、評価位置を算出する。ここで、評価位置の算出方法の一例について説明する。評価部303は、形状データと、形状データに紐づけられた位置情報とに基づきクラスタリングを行い、三次元位置が近接する被写体同士の集合に分割する。評価部303は、分割されたクラスタに含まれる被写体の形状データに基づいて、各集合の重心を算出し、該重心の座標を評価位置として設定する。なお、評価位置の算出方法はこれに限定されない。例えば、評価部303は、形状データに紐づけられている位置情報のみに基づいて評価位置を算出することも可能である。また、各集合に対応する評価位置は集合の重心に限定されず、各集合の近傍に設定されていればよい。また、例えば、評価部303は、クラスタリングを行わず、被写体の位置を評価位置として設定することも可能である。上記の処理を行うことにより、評価部303は、撮像領域における複数の被写体の分布に応じて評価位置を設定することができる。 In S1103, the evaluation unit 303 calculates the evaluation position based on the shape data. Here, an example of a method for calculating the evaluation position will be described. The evaluation unit 303 performs clustering based on the shape data and the position information linked to the shape data, and divides the objects into groups of objects whose three-dimensional positions are close to each other. The evaluation unit 303 calculates the center of gravity of each group based on the shape data of the objects included in the divided clusters, and sets the coordinates of the center of gravity as the evaluation position. Note that the method for calculating the evaluation position is not limited to this. For example, the evaluation unit 303 can also calculate the evaluation position based only on the position information linked to the shape data. In addition, the evaluation position corresponding to each group is not limited to the center of gravity of the group, and may be set in the vicinity of each group. In addition, for example, the evaluation unit 303 can set the position of the object as the evaluation position without performing clustering. By performing the above processing, the evaluation unit 303 can set the evaluation position according to the distribution of multiple objects in the imaging area.

S1104において、評価部303は、取得した情報に基づき、各評価位置に対して評価処理を行う。本実施形態における評価処理は、図5に示す処理に加えて、撮像情報に基づく画質の評価を行う。評価部303は、評価方向に基づき撮像装置100を特定し、該撮像装置100に対応する撮像情報を参照する。評価部303は、撮像情報に含まれる各数値を加重加算することにより、撮像品質値を求める。加重加算に使用される重み係数はあらかじめ任意の値に設定される。また、評価部303は、撮像装置100が構造物等により遮蔽されていることを示す情報がある場合、当該撮像装置100は特定されないようにしてもよい。 In S1104, the evaluation unit 303 performs evaluation processing for each evaluation position based on the acquired information. In addition to the processing shown in FIG. 5, the evaluation processing in this embodiment performs evaluation of image quality based on imaging information. The evaluation unit 303 identifies the imaging device 100 based on the evaluation direction, and refers to the imaging information corresponding to the imaging device 100. The evaluation unit 303 obtains an imaging quality value by performing weighted addition of each numerical value included in the imaging information. The weighting coefficient used in the weighted addition is set to an arbitrary value in advance. Furthermore, if there is information indicating that the imaging device 100 is blocked by a structure or the like, the evaluation unit 303 may prevent the imaging device 100 from being identified.

以上説明したように、評価部303は、第1の実施形態において説明した評価処理に加えて上記の処理を行い、各評価位置に対応する画質の評価を行う。また、評価部303は、評価結果に基づいてグラフを生成し、表示装置304に表示させる。生成されるグラフは、なす角、空間分解能、及び撮像情報に基づく加重加算値の3種類の値が、グラフの色、明るさ、半径方向の大きさ、及びz軸方向の高さ等のいずれかにそれぞれ対応付けられたグラフとなる。あるいは、3種類の値から加重平均を算出し、1または2種類の値としてから上記の表現方法によりグラフ化されてもよい。 As described above, the evaluation unit 303 performs the above process in addition to the evaluation process described in the first embodiment, and evaluates the image quality corresponding to each evaluation position. The evaluation unit 303 also generates a graph based on the evaluation results and displays it on the display device 304. The generated graph is a graph in which three types of values, the angle, the spatial resolution, and the weighted sum based on the imaging information, are each associated with one of the graph's color, brightness, radial size, and height in the z-axis direction. Alternatively, a weighted average may be calculated from the three types of values, and then graphed using the above-mentioned expression method after being reduced to one or two types of values.

上記のように、評価部303が行う評価処理において、撮像情報に基づく画質評価の処理を加えることにより、より詳細な画質の評価が可能となる。ユーザは提供装置240によって提供されるグラフを見ることにより、特定の位置を見る仮想視点についてより適切な仮想視点の方向を推定することができる。また、評価部303が形状データに基づいて評価位置を設定することにより、被写体の近傍について、画質の評価を行うことができる。なお、本実施形態においては撮像情報及び形状データの両方が評価処理に使用される場合について説明したが、撮像情報及び形状データの一方のみが使用される構成であってもよい。 As described above, by adding image quality evaluation processing based on imaging information to the evaluation processing performed by the evaluation unit 303, a more detailed evaluation of image quality becomes possible. By looking at the graph provided by the providing device 240, the user can estimate a more appropriate virtual viewpoint direction for a virtual viewpoint viewing a specific position. Furthermore, by the evaluation unit 303 setting an evaluation position based on shape data, it is possible to evaluate image quality in the vicinity of the subject. Note that, although the present embodiment has been described with respect to a case where both imaging information and shape data are used in the evaluation processing, a configuration in which only one of imaging information and shape data is used may also be used.

(その他の実施形態)
以上説明した実施形態における提供装置は、仮想視点画像を生成するために用いられる複数の撮像画像を取得するための複数の撮像装置の撮像方向を示す情報として、視点情報を取得する。また、当該提供装置は、仮想視点の方向が所定の方向(評価方向)に設定される場合における当該方向を、撮像方向を示す情報に基づいて評価することにより得られる評価結果に関する情報を出力する。上記の実施形態によれば、適切な方向の仮想視点が設定可能になる。
Other Embodiments
The providing device in the above-described embodiment acquires viewpoint information as information indicating the imaging directions of a plurality of imaging devices for acquiring a plurality of captured images used to generate a virtual viewpoint image. In addition, the providing device outputs information on an evaluation result obtained by evaluating a predetermined direction (evaluation direction) of the virtual viewpoint based on the information indicating the imaging direction when the direction of the virtual viewpoint is set to the predetermined direction. According to the above embodiment, it is possible to set a virtual viewpoint in an appropriate direction.

なお、上記の実施形態においては、提供装置が評価方向について評価処理を行う構成であったが、これに限定されない。提供装置は、視点情報に基づいて他の装置が評価した評価結果を取得し、該評価結果に関する情報を出力する構成であってもよい。 In the above embodiment, the providing device is configured to perform the evaluation process on the evaluation direction, but the present invention is not limited to this. The providing device may be configured to obtain the evaluation results evaluated by other devices based on the viewpoint information, and output information related to the evaluation results.

また、上記の実施形態において、提供装置が提供する情報は主にユーザが仮想視点を設定する際に利用されるものとして説明したが、これに限定されない。例えば、提供装置が提供する情報に基づいて、仮想視点が自動で設定されるようにすることも可能である。この場合の実施形態について、図7に示す機能構成を参照しながら説明する。評価部303は、撮像領域における評価位置を指定可能な画面表示を表示装置304に表示させる。ユーザは、表示装置304の表示画面を見ながら操作装置701を操作し、撮像領域において仮想視点画像を見たい位置(例えば、サッカーゴール前等)を指定する。操作装置701は、ユーザによる入力操作により指定された位置を示す情報(位置情報)を評価部303に送信する。評価部303は、取得した位置情報が示す位置に対して評価処理を行い、得られた処理結果を仮想視点決定部702に送信する。仮想視点決定部702は、取得した評価処理の結果に基づいて、指定された位置の方向を向く仮想視点であって、高画質な仮想視点画像を生成可能な仮想視点を自動で決定する。このとき、ユーザによって複数の位置が指定された場合、仮想視点決定部702は、指定された複数の位置の方向を順に向くような仮想視点の移動経路を決定する。このときの移動経路の初期値として、仮想視点決定部702は、指定された複数の位置を結ぶ経路を選択する。評価部303は、指定された複数の位置のそれぞれに対して評価処理を行う。仮想視点決定部702は、評価処理の結果に基づいて、初期値として選択された経路を通る仮想視点に対応する仮想視点画像が所定の画質を満たすか否かを判定する。満たさないと判定した場合、仮想視点決定部702は、より高画質な仮想視点画像を生成可能な仮想視点の方向になるように、仮想視点の位置あるいは方向を補正する。以上説明したように、仮想視点決定部702は、評価処理の結果に基づいて、高画質な仮想視点画像を生成することができる、あるいは画質の変動が小さい仮想視点の移動経路を決定することができる。以上説明した実施形態によれば、任意の評価位置について、該評価位置を見る適切な仮想視点が自動で設定されるため、利便性が向上する。なお、評価部303は、評価情報又は形状データ等に基づいて特定される評価位置を、ユーザが指定する位置の候補として表示装置304に表示させる構成とすることも可能である。 In the above embodiment, the information provided by the providing device is mainly used when the user sets a virtual viewpoint, but the present invention is not limited to this. For example, it is also possible to automatically set the virtual viewpoint based on the information provided by the providing device. The embodiment in this case will be described with reference to the functional configuration shown in FIG. 7. The evaluation unit 303 causes the display device 304 to display a screen display that allows the user to specify an evaluation position in the imaging area. The user operates the operation device 701 while looking at the display screen of the display device 304, and specifies a position in the imaging area where the user wants to see a virtual viewpoint image (for example, in front of a soccer goal, etc.). The operation device 701 transmits information (position information) indicating the position specified by the input operation by the user to the evaluation unit 303. The evaluation unit 303 performs an evaluation process on the position indicated by the acquired position information, and transmits the obtained processing result to the virtual viewpoint determination unit 702. The virtual viewpoint determination unit 702 automatically determines a virtual viewpoint that faces the direction of the specified position and is capable of generating a high-quality virtual viewpoint image based on the acquired result of the evaluation process. At this time, when a plurality of positions are designated by the user, the virtual viewpoint determination unit 702 determines a moving path of the virtual viewpoint that faces the direction of the designated plurality of positions in order. At this time, as an initial value of the moving path, the virtual viewpoint determination unit 702 selects a path connecting the designated plurality of positions. The evaluation unit 303 performs an evaluation process for each of the designated plurality of positions. Based on the result of the evaluation process, the virtual viewpoint determination unit 702 determines whether or not a virtual viewpoint image corresponding to a virtual viewpoint passing through the path selected as the initial value satisfies a predetermined image quality. If it is determined that the image does not satisfy the predetermined image quality, the virtual viewpoint determination unit 702 corrects the position or direction of the virtual viewpoint so that the virtual viewpoint is in the direction of a virtual viewpoint that can generate a virtual viewpoint image with higher image quality. As described above, the virtual viewpoint determination unit 702 can determine a moving path of a virtual viewpoint that can generate a virtual viewpoint image with high image quality or has a small fluctuation in image quality based on the result of the evaluation process. According to the embodiment described above, for any evaluation position, an appropriate virtual viewpoint for viewing the evaluation position is automatically set, thereby improving convenience. The evaluation unit 303 can also be configured to display the evaluation position identified based on the evaluation information or shape data, etc., on the display device 304 as a candidate position designated by the user.

また、上述した実施形態については、上記のうち任意の形態を組み合わせて実施することが可能である。また、上記の実施形態において説明した各機能構成のそれぞれが、独立した処理装置として接続される構成であってもよい。 Furthermore, the above-mentioned embodiments can be implemented by combining any of the above forms. Furthermore, each of the functional configurations described in the above-mentioned embodiments may be configured to be connected as an independent processing device.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention can also be realized by supplying a program that realizes one or more of the functions of the above-mentioned embodiments to a system or device via a network or a storage medium, and having one or more processors in the computer of the system or device read and execute the program. It can also be realized by a circuit (e.g., an ASIC) that realizes one or more functions.

200 提供装置
301 視点情報取得部
303 評価部
200 Providing device 301 Viewpoint information acquiring unit 303 Evaluation unit

Claims (22)

仮想視点画像を生成するために用いられる複数の撮像画像を取得するための複数の撮像装置の撮像方向を示す情報を取得する取得手段と、
前記仮想視点画像の生成に用いられる仮想視点の方向が所定の方向に設定される場合における当該方向を、前記取得手段により取得された情報が示す撮像方向に基づいて評価することにより得られる評価結果に関する情報を出力する出力手段と
ユーザによる操作に基づいて、仮想視点の方向を決定する決定手段と、
前記決定手段により決定される仮想視点の方向と前記所定の方向とに基づいて、前記出力手段によって出力された評価結果を通知する画面を表示手段に表示させる制御手段と
を有することを特徴とする提供装置。
an acquisition means for acquiring information indicating image capturing directions of a plurality of image capturing devices for acquiring a plurality of captured images used to generate a virtual viewpoint image;
an output means for outputting information on an evaluation result obtained by evaluating a direction of a virtual viewpoint used for generating the virtual viewpoint image, when the direction of the virtual viewpoint is set to a predetermined direction, based on an imaging direction indicated by the information acquired by the acquisition means ; and
A determination means for determining a direction of a virtual viewpoint based on an operation by a user;
a control means for causing a display means to display a screen notifying the user of the evaluation result output by the output means, based on the direction of the virtual viewpoint determined by the determination means and the predetermined direction;
A providing device comprising:
前記評価結果は、前記所定の方向と、前記取得手段により取得された情報が示す撮像方向とのなす角に基づいて、前記所定の方向を評価することにより得られる評価結果であることを特徴とする請求項1に記載の提供装置。 The providing device according to claim 1, characterized in that the evaluation result is obtained by evaluating the specified direction based on the angle between the specified direction and the imaging direction indicated by the information acquired by the acquisition means. 前記評価結果は、前記なす角が所定の閾値未満であるか否かに基づいて、前記所定の方向を評価することにより得られる評価結果であることを特徴とする請求項2に記載の提供装置。 The providing device according to claim 2, characterized in that the evaluation result is obtained by evaluating the specified direction based on whether the angle formed is less than a specified threshold value. 前記評価結果に関する情報は、前記所定の方向と、当該方向に対応する前記なす角とが認識可能な情報であることを特徴とする請求項2又は3に記載の提供装置。 The provision device according to claim 2 or 3, characterized in that the information on the evaluation result is information that enables the predetermined direction and the angle corresponding to that direction to be recognized. 前記取得手段は、前記複数の撮像装置の解像度を示す情報を更に取得し、
前記出力手段は、前記取得手段により取得された情報が示す解像度に基づいて、前記所定の方向を評価することにより得られる評価結果に関する情報を出力することを特徴とする請求項1乃至4のいずれか1項に記載の提供装置。
the acquiring means further acquires information indicating resolutions of the plurality of image capture devices,
The providing device according to any one of claims 1 to 4, characterized in that the output means outputs information regarding the evaluation result obtained by evaluating the specified direction based on the resolution indicated by the information acquired by the acquisition means.
前記評価結果に関する情報は、前記所定の方向と、当該方向に基づいて特定される撮像装置の解像度とが認識可能な情報であることを特徴とする請求項5に記載の提供装置。 The providing device according to claim 5, characterized in that the information on the evaluation result is information that enables the specified direction and the resolution of the imaging device specified based on the direction to be recognized. 前記取得手段は、前記複数の撮像画像に関する情報を更に取得し、
前記出力手段は、前記取得手段により取得された複数の撮像画像に関する情報に更に基づいて、前記所定の方向を評価することを特徴とする請求項2乃至6のいずれか1項に記載の提供装置。
The acquiring means further acquires information regarding the plurality of captured images,
7. The providing device according to claim 2, wherein the output means evaluates the predetermined direction further based on information about the plurality of captured images acquired by the acquisition means.
前記撮像画像に関する情報は、撮像装置の揺れ、撮像画像のぼけ、露出、ホワイトバランス、撮像画像における信号対雑音比、及び前記撮像装置が撮像する撮像対象が遮蔽されていることを示す情報の少なくともいずれかを含むことを特徴とする請求項7に記載の提供装置。 The providing device according to claim 7, characterized in that the information about the captured image includes at least one of the following: shaking of the imaging device, blur of the captured image, exposure, white balance, signal-to-noise ratio in the captured image, and information indicating that the subject captured by the imaging device is occluded. 前記出力手段は、前記評価結果に関する情報を表示手段に出力することを特徴とする請求項1乃至8のいずれか1項に記載の提供装置。 The provision device according to any one of claims 1 to 8, characterized in that the output means outputs information about the evaluation results to a display means. 前記出力手段は、複数の所定の方向のそれぞれに対応する複数の評価結果を認識可能な表示画面を表示させるための情報を表示手段に出力することを特徴とする請求項9に記載の提供装置。 The provision device according to claim 9, characterized in that the output means outputs to the display means information for displaying a display screen on which multiple evaluation results corresponding to each of multiple predetermined directions can be recognized. 記出力手段は、前記評価結果に関する情報を前記制御手段に出力し、
前記制御手段は、前記評価結果に関する情報に基づいて、前記決定手段により決定される仮想視点の方向に応じた制御を行うことを特徴とする請求項1乃至10のいずれか1項に記載の提供装置。
The output means outputs information regarding the evaluation result to the control means;
11. The providing device according to claim 1, wherein the control means performs control according to the direction of the virtual viewpoint determined by the determination means, based on information related to the evaluation result.
前記制御手段は、前記決定手段により決定される仮想視点の方向が前記所定の方向と近似する場合、当該所定の方向に対応する評価結果をユーザに通知するための表示画面を表示手段に表示させることを特徴とする請求項11に記載の提供装置。 The provision device according to claim 11, characterized in that, when the direction of the virtual viewpoint determined by the determination means is close to the predetermined direction, the control means causes the display means to display a display screen for notifying the user of the evaluation result corresponding to the predetermined direction. 前記制御手段は、前記決定手段により決定される仮想視点の方向が前記所定の方向と近似する場合、当該所定の方向に対応する評価結果をユーザに通知するための音を出力手段に出力させることを特徴とする請求項11又は12に記載の提供装置。 The provision device according to claim 11 or 12, characterized in that, when the direction of the virtual viewpoint determined by the determination means is close to the predetermined direction, the control means causes the output means to output a sound for notifying the user of the evaluation result corresponding to the predetermined direction. 前記制御手段は、前記決定手段により決定される仮想視点の方向が前記所定の方向と近似し、且つ当該所定の方向と、前記取得手段により取得された情報が示す撮像方向とのなす角が所定の閾値未満でない場合に、前記決定手段により決定される仮想視点の方向を変更させるように前記ユーザにより操作される操作手段を制御することを特徴とする請求項11乃至13のいずれか1項に記載の提供装置。 The providing device according to any one of claims 11 to 13, characterized in that the control means controls an operation means operated by the user to change the direction of the virtual viewpoint determined by the determination means, when the direction of the virtual viewpoint determined by the determination means is approximate to the specified direction and an angle between the specified direction and the imaging direction indicated by the information acquired by the acquisition means is not less than a specified threshold. 仮想視点画像を生成するために用いられる複数の撮像画像を取得するための複数の撮像装置の撮像方向を示す情報を取得する取得手段と、
前記仮想視点画像の生成に用いられる仮想視点の方向が所定の方向に設定される場合における当該方向を、前記取得手段により取得された情報が示す撮像方向に基づいて評価することにより得られる評価結果に関する情報を出力する出力手段と、
前記評価結果に関する情報に基づいて仮想視点の方向を決定する決定手段とを有することを特徴とする提供装置。
an acquisition means for acquiring information indicating image capturing directions of a plurality of image capturing devices for acquiring a plurality of captured images used to generate a virtual viewpoint image;
an output means for outputting information on an evaluation result obtained by evaluating a direction of a virtual viewpoint used for generating the virtual viewpoint image, when the direction of the virtual viewpoint is set to a predetermined direction, based on an imaging direction indicated by the information acquired by the acquisition means; and
and determining a direction of a virtual viewpoint based on information regarding the evaluation result.
前記所定の方向は、前記複数の撮像装置により撮像される撮像領域における特定の位置を向く方向であることを特徴とする請求項1乃至15のいずれか1項に記載の提供装置。 The provision device according to any one of claims 1 to 15, characterized in that the predetermined direction is a direction toward a specific position in an imaging area captured by the multiple imaging devices. 前記特定の位置は、前記複数の撮像装置により撮像される撮像領域における被写体の位置に基づいて特定されることを特徴とする請求項16に記載の提供装置。 The providing device according to claim 16, characterized in that the specific position is identified based on the position of the subject in the imaging area captured by the multiple imaging devices. 前記特定の位置は、前記複数の撮像装置により撮像される撮像領域における複数の被写体の分布に基づいて特定されることを特徴とする請求項17に記載の提供装置。 The providing device according to claim 17, characterized in that the specific position is identified based on the distribution of multiple subjects in an imaging area captured by the multiple imaging devices. 前記特定の位置は、ユーザによる操作手段の操作に基づいて特定されることを特徴とする請求項16に記載の提供装置。 The provision device according to claim 16, characterized in that the specific position is identified based on the operation of an operating means by a user. 仮想視点画像を生成するために用いられる複数の撮像画像を取得するための複数の撮像装置の撮像方向を示す情報を取得する取得工程と、
前記仮想視点画像の生成に用いられる仮想視点の方向が所定の方向に設定される場合における当該方向を、前記取得工程において取得された情報が示す撮像方向に基づいて評価することにより得られる評価結果に関する情報を出力する出力工程と
ユーザによる操作に基づいて、仮想視点の方向を決定する決定工程と、
前記決定工程により決定される仮想視点の方向と前記所定の方向とに基づいて、前記出力工程により出力された評価結果を通知する画面を表示手段に表示させる制御工程と
を有することを特徴とする提供装置の制御方法。
an acquisition step of acquiring information indicating imaging directions of a plurality of imaging devices for acquiring a plurality of captured images used to generate a virtual viewpoint image;
an output step of outputting information on an evaluation result obtained by evaluating a direction of a virtual viewpoint used for generating the virtual viewpoint image, when the direction of the virtual viewpoint is set to a predetermined direction, based on an imaging direction indicated by the information acquired in the acquisition step ;
A determination step of determining a direction of a virtual viewpoint based on an operation by a user;
a control step of displaying on a display means a screen notifying the user of the evaluation result outputted in the output step, based on the direction of the virtual viewpoint determined in the determination step and the predetermined direction;
A method for controlling a providing device, comprising:
仮想視点画像を生成するために用いられる複数の撮像画像を取得するための複数の撮像装置の撮像方向を示す情報を取得する取得工程と、
前記仮想視点画像の生成に用いられる仮想視点の方向が所定の方向に設定される場合における当該方向を、前記取得工程において取得された情報が示す撮像方向に基づいて評価することにより得られる評価結果に関する情報を出力する出力工程と
前記評価結果に関する情報に基づいて仮想視点の方向を決定する決定手段と
を有することを特徴とする提供装置の制御方法。
an acquisition step of acquiring information indicating imaging directions of a plurality of imaging devices for acquiring a plurality of captured images used to generate a virtual viewpoint image;
an output step of outputting information on an evaluation result obtained by evaluating a direction of a virtual viewpoint used for generating the virtual viewpoint image, when the direction of the virtual viewpoint is set to a predetermined direction, based on an imaging direction indicated by the information acquired in the acquisition step ;
a determination means for determining a direction of a virtual viewpoint based on information regarding the evaluation result;
A method for controlling a providing device, comprising:
コンピュータを、請求項1乃至19のいずれか1項に記載の提供装置が有する各手段として機能させるためのコンピュータプログラム。 A computer program for causing a computer to function as each of the means possessed by the providing device according to any one of claims 1 to 19.
JP2019151404A 2019-08-21 2019-08-21 Providing device, control method, and program Active JP7471784B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019151404A JP7471784B2 (en) 2019-08-21 2019-08-21 Providing device, control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019151404A JP7471784B2 (en) 2019-08-21 2019-08-21 Providing device, control method, and program

Publications (2)

Publication Number Publication Date
JP2021033525A JP2021033525A (en) 2021-03-01
JP7471784B2 true JP7471784B2 (en) 2024-04-22

Family

ID=74677429

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019151404A Active JP7471784B2 (en) 2019-08-21 2019-08-21 Providing device, control method, and program

Country Status (1)

Country Link
JP (1) JP7471784B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023139925A (en) * 2022-03-22 2023-10-04 株式会社東京精密 Three-dimensional shape measuring device and three-dimensional shape measuring method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018206025A (en) 2017-06-02 2018-12-27 キヤノン株式会社 Information processing device and information processing method
JP2019004229A (en) 2017-06-12 2019-01-10 キヤノン株式会社 Information processing apparatus and image generating apparatus, and control method thereof, as well as program and image processing system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018206025A (en) 2017-06-02 2018-12-27 キヤノン株式会社 Information processing device and information processing method
JP2019004229A (en) 2017-06-12 2019-01-10 キヤノン株式会社 Information processing apparatus and image generating apparatus, and control method thereof, as well as program and image processing system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
石川 智也 Tomoya Ishikawa,コンピュータグラフィックス Computer Graphics,映像情報メディア学会誌 第60巻 第10号 THE JOURNAL OF THE INSTITUTE OF IMAGE INFORMATION AND TELEVISION ENGINEERS,日本,(社)映像情報メディア学会 THE INSTITUTE OF IMAGE INFORMATION AND TELEVISION ENGINEERS,第60巻

Also Published As

Publication number Publication date
JP2021033525A (en) 2021-03-01

Similar Documents

Publication Publication Date Title
JP7051457B2 (en) Image processing equipment, image processing methods, and programs
US10970915B2 (en) Virtual viewpoint setting apparatus that sets a virtual viewpoint according to a determined common image capturing area of a plurality of image capturing apparatuses, and related setting method and storage medium
KR102342668B1 (en) Image processing apparatus, image processing method and storage medium
US10699473B2 (en) System and method for generating a virtual viewpoint apparatus
US11445167B2 (en) Display control apparatus, display control method, and storage medium
JP7212519B2 (en) Image generating device and method for generating images
JP2016018560A (en) Device and method to display object with visual effect
US10448178B2 (en) Display control apparatus, display control method, and storage medium
US10951873B2 (en) Information processing apparatus, information processing method, and storage medium
JP2014059691A (en) Image processing device, method and program
US11127141B2 (en) Image processing apparatus, image processing method, and a non-transitory computer readable storage medium
US20220217322A1 (en) Apparatus, articles of manufacture, and methods to facilitate generation of variable viewpoint media
JP7471784B2 (en) Providing device, control method, and program
JP7403967B2 (en) Information processing device, video generation device, image processing system, control method and program thereof
US11430178B2 (en) Three-dimensional video processing
JP2020187529A (en) Image processing apparatus, image processing system, control method, and program
US11704820B2 (en) Image processing apparatus, image processing method, and storage medium
US11189081B2 (en) Image generation apparatus, image generation method and storage medium
JP2022012900A (en) Information processing apparatus, display method, and program
US20240233259A1 (en) Information processing apparatus, information processing method, and storage medium
EP4296961A1 (en) Image processing device, image processing method, and program
US20220408069A1 (en) Information processing apparatus, information processing method, and storage medium
US11676328B1 (en) Systems and methods for prioritized rendering and streaming based on risk maps that predict change in a three-dimensional environment
JP2019145894A (en) Image processing device, image processing method, and program
US20230245378A1 (en) Information processing apparatus, information processing method, and medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231027

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240410

R150 Certificate of patent or registration of utility model

Ref document number: 7471784

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150