JP7042561B2 - Information processing equipment, information processing method - Google Patents

Information processing equipment, information processing method Download PDF

Info

Publication number
JP7042561B2
JP7042561B2 JP2017110250A JP2017110250A JP7042561B2 JP 7042561 B2 JP7042561 B2 JP 7042561B2 JP 2017110250 A JP2017110250 A JP 2017110250A JP 2017110250 A JP2017110250 A JP 2017110250A JP 7042561 B2 JP7042561 B2 JP 7042561B2
Authority
JP
Japan
Prior art keywords
virtual viewpoint
image
virtual
information processing
evaluation result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017110250A
Other languages
Japanese (ja)
Other versions
JP2018206025A5 (en
JP2018206025A (en
Inventor
祐介 中里
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017110250A priority Critical patent/JP7042561B2/en
Publication of JP2018206025A publication Critical patent/JP2018206025A/en
Publication of JP2018206025A5 publication Critical patent/JP2018206025A5/ja
Application granted granted Critical
Publication of JP7042561B2 publication Critical patent/JP7042561B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Description

本発明は、仮想視点画像に係る技術に関するものである。 The present invention relates to a technique relating to a virtual viewpoint image.

昨今、複数の撮像装置をそれぞれ異なる位置に設置して多視点から被写体を撮像し、該撮像により得られた複数視点画像を用いて仮想視点画像や3次元モデルを生成する技術が注目されている。上記のようにして複数視点画像から仮想視点画像を生成する技術によれば、通常の画像と比較してユーザに高臨場感を与えることが出来る。特許文献1には、同一の範囲を取り囲むように複数のカメラを配置して、その同一の範囲を撮影した画像を用いて、任意の仮想視点を設定し、設定した仮想視点に対応する仮想視点画像を生成、表示する技術が開示されている。 Recently, a technique of installing a plurality of image pickup devices at different positions to image a subject from multiple viewpoints and generating a virtual viewpoint image or a three-dimensional model using the multiple viewpoint images obtained by the imaging has attracted attention. .. According to the technique of generating a virtual viewpoint image from a plurality of viewpoint images as described above, it is possible to give a user a high sense of presence as compared with a normal image. In Patent Document 1, a plurality of cameras are arranged so as to surround the same range, an arbitrary virtual viewpoint is set using an image taken in the same range, and a virtual viewpoint corresponding to the set virtual viewpoint is set. Techniques for generating and displaying images are disclosed.

特開2014-215828号公報Japanese Unexamined Patent Publication No. 2014-215828

仮想視点画像の画質は、被写体の位置や形状、撮像装置の配置などによって大きく変動する。したがって、仮想視点の位置や姿勢によっては、画質の低い画像が作られたり、画質の高い画像が作られたりする場合がある。従来は、このような仮想視点に応じた画質の評価をユーザに把握させるための技術については考慮されていなかった。 The image quality of the virtual viewpoint image varies greatly depending on the position and shape of the subject, the arrangement of the image pickup device, and the like. Therefore, depending on the position and orientation of the virtual viewpoint, an image with low image quality may be created or an image with high image quality may be created. In the past, no consideration has been given to a technique for allowing the user to understand the evaluation of image quality according to such a virtual viewpoint.

本発明はこのような問題に鑑みてなされたものであり、設定された仮想視点において生成される仮想視点画像の画質の評価結果を出力するための技術を提供する。 The present invention has been made in view of such a problem, and provides a technique for outputting an evaluation result of image quality of a virtual viewpoint image generated in a set virtual viewpoint.

本発明の一様態は、それぞれ異なる位置から撮像する複数の撮像装置により取得される複数の撮像画像に基づく仮想視点画像の生成に係る仮想視点の位置、仮想視点からの視線方向、及び、仮想視点の視野の範囲を特定する特定手段と、
前記特定手段により特定された仮想視点の位置、仮想視点からの視線方向、及び、仮想視点の視野の範囲に応じた仮想視点画像の画質に関する評価結果を示す情報をユーザに提供する提供手段と
を備えることを特徴とする。
The uniformity of the present invention describes the position of the virtual viewpoint, the direction of the line of sight from the virtual viewpoint, and the virtual viewpoint related to the generation of the virtual viewpoint image based on the plurality of captured images acquired by the plurality of imaging devices that capture images from different positions. A specific means of identifying the range of the field of view of
A means for providing a user with information indicating an evaluation result regarding the image quality of a virtual viewpoint image according to the position of the virtual viewpoint specified by the specific means, the line-of-sight direction from the virtual viewpoint, and the range of the field of view of the virtual viewpoint. It is characterized by being prepared.

本発明の構成によれば、設定された仮想視点において生成される仮想視点画像の画質の評価結果を出力することができる。 According to the configuration of the present invention, it is possible to output the evaluation result of the image quality of the virtual viewpoint image generated in the set virtual viewpoint.

情報処理装置の概要を示す図。The figure which shows the outline of an information processing apparatus. 本体装置1のハードウェア構成例を示すブロック図。The block diagram which shows the hardware configuration example of the main body apparatus 1. 本体装置1の機能構成例を示すブロック図。The block diagram which shows the functional composition example of the main body apparatus 1. 本体装置1が行う処理のフローチャート。The flowchart of the process performed by the main body apparatus 1. 表示装置1002の表示画面を説明する図。The figure explaining the display screen of the display device 1002. 本体装置1の機能構成例を示すブロック図。The block diagram which shows the functional composition example of the main body apparatus 1. 本体装置1の動作のフローチャート。The flowchart of the operation of the main body apparatus 1. 評価部203が行う処理のフローチャート。The flowchart of the process performed by the evaluation unit 203.

以下、添付図面を参照し、本発明の実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の1つである。 Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In addition, the embodiment described below shows an example when the present invention is concretely implemented, and is one of the specific examples of the configuration described in the claims.

[第1の実施形態]
本実施形態では、各位置の仮想視点における仮想視点画像の画質を予測し、該予測した画質に対する評価の結果を可視化してユーザに提示する情報処理装置の一例について説明する。先ず、本実施形態に係る情報処理装置の概要について、図1を用いて説明する。図1に示す如く、本実施形態に係る情報処理装置は、本体装置1と、表示装置1002と、ユーザインターフェースとしてのキーボード1001a及びマウス1001bと、を有する。
[First Embodiment]
In this embodiment, an example of an information processing device that predicts the image quality of a virtual viewpoint image at a virtual viewpoint at each position, visualizes the evaluation result for the predicted image quality, and presents it to the user will be described. First, an outline of the information processing apparatus according to the present embodiment will be described with reference to FIG. As shown in FIG. 1, the information processing device according to the present embodiment includes a main body device 1, a display device 1002, and a keyboard 1001a and a mouse 1001b as user interfaces.

ユーザはキーボード1001aやマウス1001bを操作することで各種の指示を本体装置1に対して入力することができる。なお、キーボード1001aやマウス1001bはユーザインターフェースの一例であり、他の種のインターフェースを用いても良い。 The user can input various instructions to the main body device 1 by operating the keyboard 1001a and the mouse 1001b. The keyboard 1001a and the mouse 1001b are examples of user interfaces, and other types of interfaces may be used.

本体装置1は、キーボード1001aやマウス1001bからの指示に応じて各種の処理を行う。更に本体装置1は、各仮想視点における仮想視点画像の画質を予測し、該予測した画質に対する評価の結果を可視化してユーザに提示するための各種の処理を行う。本体装置1による処理結果は画像や文字として表示装置1002に表示される。なお、本実施形態では、特に断りがない限り、画像という文言が、動画と静止画の概念を含むものとして説明する。すなわち、本実施形態の装置では、静止画及び動画の何れについても処理可能である。 The main body device 1 performs various processes in response to instructions from the keyboard 1001a and the mouse 1001b. Further, the main body device 1 predicts the image quality of the virtual viewpoint image at each virtual viewpoint, visualizes the evaluation result for the predicted image quality, and performs various processes for presenting it to the user. The processing result by the main body device 1 is displayed on the display device 1002 as an image or characters. In the present embodiment, unless otherwise specified, the word "image" will be described as including the concepts of moving images and still images. That is, the apparatus of this embodiment can process both still images and moving images.

表示装置1002は、CRTや液晶画面などにより構成されており、本体装置1による処理結果を画像や文字などでもって表示することができる。なお、表示装置1002はタッチパネル画面であっても良いし、壁面に画像や文字を投影する投影装置であっても良い。図1において表示装置1002に表示された内容については後述する。 The display device 1002 is composed of a CRT, a liquid crystal screen, or the like, and can display the processing result of the main body device 1 with an image, characters, or the like. The display device 1002 may be a touch panel screen or a projection device that projects an image or characters on the wall surface. The contents displayed on the display device 1002 in FIG. 1 will be described later.

次に、本体装置1のハードウェア構成例について、図2のブロック図を用いて説明する。なお、図2に示した構成は、本体装置1に適用可能なハードウェア構成の一例に過ぎず、本体装置1が行うものとして後述する各処理を実行可能な構成であれば、如何なるハードウェア構成を採用しても良い。 Next, a hardware configuration example of the main unit 1 will be described with reference to the block diagram of FIG. The configuration shown in FIG. 2 is only an example of a hardware configuration applicable to the main unit 1, and any hardware configuration can be used as long as each process described later can be executed by the main unit 1. May be adopted.

CPU11は、ROM12やRAM13に格納されているコンピュータプログラムやデータを用いて各種の処理を実行する。これによりCPU11は、本体装置1全体の動作制御を行うと共に、本体装置1が行うものとして後述する各処理を実行若しくは制御する。 The CPU 11 executes various processes using computer programs and data stored in the ROM 12 and the RAM 13. As a result, the CPU 11 controls the operation of the main body device 1 as a whole, and also executes or controls each process described later as what the main body device 1 performs.

ROM12には、書換不要のコンピュータプログラム(例えば、BIOSのプログラムやブートプログラム)やデータが格納されている。RAM13は、ROM12や記憶装置17からロードされたコンピュータプログラムやデータを格納するためのエリア、CPU11が各種の処理を実行する際に用いるワークエリアを有する。このようにRAM13は、各種のエリアを適宜提供することができる。表示I/F15には、上記の表示装置1002が接続される。入力I/F16には、上記のキーボード1001aやマウス1001bが接続される。 The ROM 12 stores computer programs (for example, BIOS programs and boot programs) and data that do not require rewriting. The RAM 13 has an area for storing computer programs and data loaded from the ROM 12 and the storage device 17, and a work area used by the CPU 11 to execute various processes. As described above, the RAM 13 can appropriately provide various areas. The display device 1002 is connected to the display I / F15. The keyboard 1001a and the mouse 1001b are connected to the input I / F16.

記憶装置17は、ハードディスクドライブ装置に代表される大容量情報記憶装置である。記憶装置17には、OS(オペレーティングシステム)や、本体装置1が行うものとして後述する各処理をCPU11に実行若しくは制御させるためのコンピュータプログラムやデータが保存されている。記憶装置17に保存されているコンピュータプログラムやデータは、CPU11による制御に従って適宜RAM13にロードされ、CPU11による処理対象となる。CPU11、ROM12、RAM13、表示I/F15、入力I/F16、記憶装置17は何れもバス18に接続されている。 The storage device 17 is a large-capacity information storage device typified by a hard disk drive device. The storage device 17 stores an OS (operating system) and computer programs and data for causing the CPU 11 to execute or control each process described later as performed by the main body device 1. The computer programs and data stored in the storage device 17 are appropriately loaded into the RAM 13 according to the control by the CPU 11, and are processed by the CPU 11. The CPU 11, ROM 12, RAM 13, display I / F 15, input I / F 16, and storage device 17 are all connected to the bus 18.

次に、本体装置1の機能構成例について、図3のブロック図を用いて説明する。図3に示した各機能部はハードウェアで実装しても良いが、本実施形態では、ソフトウェア(コンピュータプログラム)で実装する。以下では図3に示した機能部を処理の主体として説明する場合があるが、実際には、該機能部に対応するコンピュータプログラムをCPU11が実行することで、該機能部の機能が実現される。 Next, an example of the functional configuration of the main body device 1 will be described with reference to the block diagram of FIG. Each functional unit shown in FIG. 3 may be implemented by hardware, but in this embodiment, it is implemented by software (computer program). In the following, the functional unit shown in FIG. 3 may be described as the main body of the process, but in reality, the function of the functional unit is realized by the CPU 11 executing the computer program corresponding to the functional unit. ..

第1取得部101は、記憶装置17に保存されている環境情報を取得する。ここで、環境情報について説明する。例えば、サッカーやバスケットボールなどが行われる競技場に、それぞれ異なる方向から該競技場を撮像する複数の撮像装置を設置し、該撮像装置による撮像画像に基づいて仮想視点からの仮想視点画像を生成するシステムを考える。このようなシステムにとって、どのような位置姿勢の仮想視点の仮想視点画像の画質が良い/悪いのかを、システムの運用前にシミュレーションしておくことは重要である。本実施形態ではこのようなシミュレーションを行うべく、仮想プレーヤ(プレーヤの3次元形状を模した3次元モデル)が配された仮想競技場(競技場の3次元形状を模した3次元モデル)における複数の位置に仮想視点を設ける。そして、それぞれの仮想視点について仮想視点画像を生成し、該生成した仮想視点画像の画質の評価値を可視化してユーザに提示する。 The first acquisition unit 101 acquires the environmental information stored in the storage device 17. Here, the environmental information will be described. For example, in a stadium where soccer, basketball, etc. are played, a plurality of image pickup devices that image the stadium from different directions are installed, and a virtual viewpoint image from a virtual viewpoint is generated based on the images captured by the image pickup device. Think about the system. For such a system, it is important to simulate the good / bad image quality of the virtual viewpoint image of the virtual viewpoint of what position and posture before operating the system. In this embodiment, in order to perform such a simulation, a plurality of virtual players (three-dimensional models imitating the three-dimensional shape of the player) are arranged in a virtual stadium (three-dimensional model imitating the three-dimensional shape of the stadium). A virtual viewpoint is provided at the position of. Then, a virtual viewpoint image is generated for each virtual viewpoint image, and the evaluation value of the image quality of the generated virtual viewpoint image is visualized and presented to the user.

このようなシミュレーションを実現するべく、環境情報には、競技場に配置されるそれぞれの撮像装置のカメラパラメータ、上記の仮想競技場を規定する情報、上記の仮想プレーヤを規定する情報、が含まれている。環境情報とは、仮想視点画像を生成するために行われた撮影の対象や撮影の環境を示す情報である。 In order to realize such a simulation, the environmental information includes the camera parameters of each image pickup device arranged in the stadium, the information defining the virtual stadium, and the information defining the virtual player. ing. The environmental information is information indicating the shooting target and the shooting environment performed to generate the virtual viewpoint image.

仮想競技場を規定する情報には、仮想競技場の3次元形状やテクスチャを規定する情報(例えば競技場の3次元CADデータ)が含まれている。仮想プレーヤを規定する情報には、仮想プレーヤの3次元形状やテクスチャを規定する情報、仮想プレーヤの腕や足等の動きを規定する情報、仮想競技場における仮想プレーヤの動き(位置や姿勢)を規定する情報が含まれている。 The information defining the virtual stadium includes information defining the three-dimensional shape and texture of the virtual stadium (for example, three-dimensional CAD data of the stadium). The information that defines the virtual player includes information that defines the three-dimensional shape and texture of the virtual player, information that defines the movement of the arms and legs of the virtual player, and the movement (position and posture) of the virtual player in the virtual stadium. Contains information to specify.

競技場に配置されるそれぞれの撮像装置のカメラパラメータには、実際の競技場における該撮像装置の配置位置姿勢、焦点距離、画角等のパラメータを、仮想競技場が属する座標系におけるパラメータに変換したものが含まれている。 For the camera parameters of each image pickup device placed in the stadium, parameters such as the placement position / orientation, focal length, and angle of view of the image pickup device in the actual stadium are converted into parameters in the coordinate system to which the virtual stadium belongs. Is included.

なお、環境情報に含まれるそれぞれの撮像装置のカメラパラメータは、実際に配置された撮像装置のカメラパラメータに限らず、仮想的にGUI上で作成したものであっても良い。例えば、図1に示す如く、表示装置1002の画面上に表示したGUI1003(グラフィカルユーザインターフェース)を操作して撮像装置のカメラパラメータを設定することができる。このGUI1003では、「仮想競技場を規定する情報」に基づいて生成した仮想競技場を俯瞰したマップが表示されている。ユーザはキーボード1001aやマウス1001bを操作して、仮想競技場に任意の位置及び任意の姿勢でもって撮像装置を配置することができる。図1では9台の撮像装置が配置されている。例えばユーザがキーボード1001aやマウス1001bを操作して撮像装置のカメラパラメータを入力する度に、該入力されたカメラパラメータが示す配置位置姿勢の撮像装置の画像1005がマップ上に追加表示される。そしてユーザが撮像装置のカメラパラメータの設定完了指示をキーボード1001aやマウス1001bを操作して入力すると、ユーザによって入力されたそれぞれの撮像装置のカメラパラメータが環境情報に含められて記憶装置17に保存される。なお、撮像装置のカメラパラメータの設定方法や取得方法については特定の設定方法、特定の取得方法に限らない。また、ユーザは図1のGUI1003において仮想競技場の形状等を変更しても良い。 The camera parameters of each image pickup device included in the environmental information are not limited to the camera parameters of the image pickup device actually arranged, and may be virtually created on the GUI. For example, as shown in FIG. 1, the camera parameters of the image pickup device can be set by operating the GUI 1003 (graphical user interface) displayed on the screen of the display device 1002. In this GUI 1003, a map that gives a bird's-eye view of the virtual stadium generated based on "information defining the virtual stadium" is displayed. The user can operate the keyboard 1001a and the mouse 1001b to arrange the image pickup device in an arbitrary position and an arbitrary posture in the virtual stadium. In FIG. 1, nine image pickup devices are arranged. For example, every time the user operates the keyboard 1001a or the mouse 1001b to input the camera parameters of the image pickup device, the image 1005 of the image pickup device of the arrangement position posture indicated by the input camera parameters is additionally displayed on the map. Then, when the user inputs the instruction to complete the setting of the camera parameter of the image pickup device by operating the keyboard 1001a or the mouse 1001b, the camera parameter of each image pickup device input by the user is included in the environmental information and stored in the storage device 17. To. The camera parameter setting method and acquisition method of the image pickup device are not limited to the specific setting method and the specific acquisition method. Further, the user may change the shape of the virtual stadium or the like in the GUI 1003 of FIG.

第2取得部102は、画質を評価する仮想視点のカメラパラメータ(仮想競技場における該仮想視点の位置姿勢、焦点距離、画角など)をランダムに複数生成する。なお、仮想視点のカメラパラメータの生成方法はこのような生成方法に限らない。例えば、各仮想視点を、仮想競技場における一部の領域若しくは全体領域に等間隔で2次元的に配置しても良い。また、仮想視点のカメラパラメータは予め複数生成しておき、これを第2取得部102が取得するようにしても良い。なお、仮想視点のカメラパラメータは、仮想視点からの画像を生成可能なパラメータであれば、どのようなパラメータであっても良く、仮想視点の位置姿勢に加え、画角やズーム、焦点距離、解像度などのパラメータを含んでいてもよい。また、仮想視点のカメラパラメータは、仮想視点画像を生成するための視点の位置及び/または視線の方向を規定するものであってよい。 The second acquisition unit 102 randomly generates a plurality of camera parameters of the virtual viewpoint for evaluating the image quality (position / posture, focal length, angle of view, etc. of the virtual viewpoint in the virtual stadium). The method of generating the camera parameters of the virtual viewpoint is not limited to such a method. For example, each virtual viewpoint may be arranged two-dimensionally at equal intervals in a part or the whole area of the virtual stadium. Further, a plurality of virtual viewpoint camera parameters may be generated in advance and acquired by the second acquisition unit 102. The camera parameter of the virtual viewpoint may be any parameter as long as it can generate an image from the virtual viewpoint, and in addition to the position and orientation of the virtual viewpoint, the angle of view, zoom, focal length, and resolution. It may include parameters such as. Further, the camera parameters of the virtual viewpoint may define the position of the viewpoint and / or the direction of the line of sight for generating the virtual viewpoint image.

評価部103は、第1取得部101が取得した環境情報と、第2取得部102が取得した仮想視点のカメラパラメータと、を用いて、設定された仮想視点ごとに、該仮想視点における仮想視点画像の画質を評価する。出力部104は、評価部103による仮想視点ごとの評価結果を表示装置1002に画像や文字として出力する。 The evaluation unit 103 uses the environment information acquired by the first acquisition unit 101 and the camera parameters of the virtual viewpoint acquired by the second acquisition unit 102 for each virtual viewpoint set, and the evaluation unit 103 uses the virtual viewpoint in the virtual viewpoint. Evaluate the image quality. The output unit 104 outputs the evaluation result for each virtual viewpoint by the evaluation unit 103 to the display device 1002 as an image or characters.

次に、各位置の仮想視点における仮想視点画像の画質を予測し、該予測した画質に対する評価の結果を可視化してユーザに提示するために本体装置1が行う処理について、図4のフローチャートに従って説明する。 Next, the process performed by the main unit 1 to predict the image quality of the virtual viewpoint image at the virtual viewpoint at each position, visualize the evaluation result for the predicted image quality, and present it to the user will be described according to the flowchart of FIG. do.

ステップS1010では、第1取得部101は、記憶装置17に予め保存されている環境情報をRAM13に読み出す。なお、環境情報は、ネットワークを介して外部装置から受信してRAM13に格納するようにしても良いし、その取得形態は特定の取得形態に限らない。 In step S1010, the first acquisition unit 101 reads the environment information stored in advance in the storage device 17 into the RAM 13. The environmental information may be received from an external device via the network and stored in the RAM 13, and the acquisition form is not limited to the specific acquisition form.

ステップS1020では、第2取得部102は、仮想視点ごとのカメラパラメータを取得する。仮想視点ごとのカメラパラメータは、上記のように何らかの方法でもって生成することでRAM13に取得しても良いし、予め生成して記憶装置17に保存しておいたものをRAM13にロードするようにしても良いし、その取得形態は特定の取得形態に限らない。 In step S1020, the second acquisition unit 102 acquires the camera parameters for each virtual viewpoint. The camera parameters for each virtual viewpoint may be acquired in the RAM 13 by generating them by some method as described above, or the ones generated in advance and stored in the storage device 17 may be loaded in the RAM 13. However, the acquisition form is not limited to a specific acquisition form.

そしてステップS1040における処理を仮想視点ごとに行うことで、仮想視点ごとの仮想視点画像の画質の評価値を求める。以下では、着目仮想視点における仮想視点画像の画質の評価値を求める処理について説明する。 Then, by performing the processing in step S1040 for each virtual viewpoint, the evaluation value of the image quality of the virtual viewpoint image for each virtual viewpoint is obtained. Hereinafter, the process of obtaining the evaluation value of the image quality of the virtual viewpoint image in the virtual viewpoint of interest will be described.

先ず、評価部103は、着目仮想視点のカメラパラメータを用いて、該カメラパラメータを有する視点から見える仮想空間(仮想競技場及び仮想プレーヤが配置された空間)の画像(正解画像)を生成する。例えば、着目仮想視点の位置姿勢を有し且つ該着目仮想視点の焦点距離及び画角を有する視点から見える仮想空間の画像を生成する。 First, the evaluation unit 103 generates an image (correct image) of a virtual space (a space in which a virtual stadium and a virtual player are arranged) that can be seen from a viewpoint having the camera parameters, using the camera parameters of the virtual viewpoint of interest. For example, an image of a virtual space that can be seen from a viewpoint having a position and orientation of the virtual viewpoint of interest and having a focal length and an angle of view of the virtual viewpoint of interest is generated.

更に評価部103は、環境情報に含まれているそれぞれの撮像装置のカメラパラメータを用いて、該カメラパラメータを有する視点から見える仮想空間の画像を生成する(つまり、該カメラパラメータを有する撮像装置により仮想空間の画像を撮像する)。そして評価部103は、撮像装置ごとに生成した仮想空間の画像(一部でも良い)を用いて、着目仮想視点から見える仮想空間の画像、即ち該着目仮想視点における仮想視点画像を生成する。 Further, the evaluation unit 103 uses the camera parameters of each image pickup device included in the environmental information to generate an image of the virtual space that can be seen from the viewpoint having the camera parameters (that is, by the image pickup device having the camera parameters). Image of virtual space). Then, the evaluation unit 103 uses the image of the virtual space (which may be a part) generated for each image pickup device to generate an image of the virtual space that can be seen from the virtual viewpoint of interest, that is, a virtual viewpoint image at the virtual viewpoint of interest.

そして評価部103は、正解画像と仮想視点画像とに基づいて該仮想視点画像の画質に係る評価値を求める。正解画像と仮想視点画像とに基づく該仮想視点画像の画質に係る評価値を求める方法は特定の方法に限らない。例えば、評価部103は、正解画像と仮想視点画像との差分から算出したPSNR(ピーク信号対雑音比)を、正解画像に対する仮想視点画像の画質指標を示す評価値として求める。 Then, the evaluation unit 103 obtains an evaluation value related to the image quality of the virtual viewpoint image based on the correct answer image and the virtual viewpoint image. The method of obtaining the evaluation value related to the image quality of the virtual viewpoint image based on the correct answer image and the virtual viewpoint image is not limited to a specific method. For example, the evaluation unit 103 obtains the PSNR (peak signal to noise ratio) calculated from the difference between the correct answer image and the virtual viewpoint image as an evaluation value indicating the image quality index of the virtual viewpoint image with respect to the correct answer image.

評価部103はこのような処理を複数のシーンのそれぞれについて行うことで、複数のシーンのそれぞれに対する着目仮想視点の仮想視点画像の画質に対する評価値を求める。例えば評価部103は、シーンごとに仮想プレーヤの位置や姿勢、腕や足、を動かして、シーンごとに着目仮想視点の仮想視点画像及び正解画像を生成し、シーンごとの評価値を上記の方法でもって求める。そして評価部103は、着目仮想視点におけるシーンごとの評価値の平均値を、該着目仮想視点における最終的な評価値とする。なお、シーンの数は1でも良い。 By performing such processing for each of the plurality of scenes, the evaluation unit 103 obtains an evaluation value for the image quality of the virtual viewpoint image of the virtual viewpoint of interest for each of the plurality of scenes. For example, the evaluation unit 103 moves the position and posture, arms and legs of the virtual player for each scene, generates a virtual viewpoint image and a correct answer image of the virtual viewpoint of interest for each scene, and determines the evaluation value for each scene by the above method. I ask for it. Then, the evaluation unit 103 sets the average value of the evaluation values for each scene in the virtual viewpoint of interest as the final evaluation value in the virtual viewpoint of interest. The number of scenes may be 1.

そして、全ての仮想視点についてステップS1040の処理を行うと、処理はステップS1050に進む。ステップS1050では、出力部104は、仮想視点ごとの評価値を可視化して表示装置1002の表示画面に表示する。仮想視点ごとの評価値を可視化する方法は特定の方法に限らない。 Then, when the process of step S1040 is performed for all the virtual viewpoints, the process proceeds to step S1050. In step S1050, the output unit 104 visualizes the evaluation value for each virtual viewpoint and displays it on the display screen of the display device 1002. The method of visualizing the evaluation value for each virtual viewpoint is not limited to a specific method.

例えば図1に示す如く、仮想競技場を俯瞰したマップ上における各仮想視点の位置の画素の色を、該仮想視点に対する評価値に応じた色とすることで、該マップ上に評価値の2次元マップを重ねて描画する。仮想視点に対する評価値に応じた色として、「評価値が高いほど青色、低いほど赤色」となるようにする場合、評価値の最大値を青、最小値を赤とし、最大値と最小値の間の評価値に対しては、以下の式(1)の割合Rで最大値の色(青)と最小値の色(赤)を補間した色をつける。 For example, as shown in FIG. 1, by setting the color of the pixel at the position of each virtual viewpoint on the map overlooking the virtual stadium to the color corresponding to the evaluation value for the virtual viewpoint, the evaluation value 2 is displayed on the map. Draw the dimensional maps on top of each other. When the color according to the evaluation value for the virtual viewpoint is "blue as the evaluation value is higher, red as the evaluation value is lower", the maximum value of the evaluation value is blue, the minimum value is red, and the maximum value and the minimum value are set. For the evaluation value in between, a color obtained by interpolating the maximum value color (blue) and the minimum value color (red) at the ratio R of the following equation (1) is added.

R=(評価値-最小値)/(最大値-最小値) (1)
仮想視点Aと仮想視点Bとの間に位置する画素の色については、例えば、仮想視点Aの評価値に応じた色と仮想視点Bの評価値に応じた色とを用いて補間した色とする。図1では、評価値が比較的高い仮想視点の領域1006と、評価値が比較的低い仮想視点の領域1007と、が可視化されている。ユーザはこのような表示装置1002の表示画面を見れば、領域1006の内側で仮想視点のカメラパスを作るように検討すればよいことが分かるため、カメラパス決定の作業効率が向上する。なお、色の代わりに若しくは加えてα値を評価値に応じて制御しても良い。
R = (evaluation value-minimum value) / (maximum value-minimum value) (1)
Regarding the color of the pixel located between the virtual viewpoint A and the virtual viewpoint B, for example, the color interpolated using the color corresponding to the evaluation value of the virtual viewpoint A and the color corresponding to the evaluation value of the virtual viewpoint B. do. In FIG. 1, a virtual viewpoint area 1006 having a relatively high evaluation value and a virtual viewpoint area 1007 having a relatively low evaluation value are visualized. Looking at the display screen of such a display device 1002, it can be seen that the user should consider creating a camera path of a virtual viewpoint inside the area 1006, so that the work efficiency of determining the camera path is improved. In addition, instead of or in addition to the color, the α value may be controlled according to the evaluation value.

<変形例>
第1の実施形態では、仮想競技場には仮想プレーヤを配置したが、仮想プレーヤに加えて若しくは代えて他の仮想物体を配置しても良いし、仮想競技場以外の仮想物体は配置しなくても良い。また上記の通り、ユーザインターフェースとしては様々なものを用いても良く、例えば、ペンタブレットやスキャナであってもよい。また、ユーザインターフェースは表示装置1002と一体化されていても良い。
<Modification example>
In the first embodiment, the virtual player is placed in the virtual stadium, but other virtual objects may be placed in addition to or in place of the virtual player, and virtual objects other than the virtual stadium are not placed. May be. Further, as described above, various user interfaces may be used, and for example, a pen tablet or a scanner may be used. Further, the user interface may be integrated with the display device 1002.

また、表示装置1002として、プリンタや、スマートフォン、HMD(Head Mounted Display)を有するVR(Virtual Reality)システムやAR(Augmented Reality)システムを利用しても良い。これらの機器は、仮想視点における仮想視点画像の画質の評価値を可視化することができる機器の一例である。 Further, as the display device 1002, a printer, a smartphone, a VR (Virtual Reality) system having an HMD (Head Mounted Display), or an AR (Augmented Reality) system may be used. These devices are an example of devices capable of visualizing the evaluation value of the image quality of the virtual viewpoint image in the virtual viewpoint.

また、上記の環境情報は、評価部103で用いる画像を作るのに必要な物体(上記の例では仮想競技場や仮想プレーヤ)及び撮像装置のカメラパラメータを取得できれば、如何なる情報を含んでも良い。また、仮想競技場や仮想プレーヤは、コンピュータグラフィックス(CG)であっても良いし、実物体を計測して作った3次元ビデオであっても良い。撮像対象と同種のコンテンツであることが望ましいが、異なっていても良い。コンテンツは動き情報を有している方が望ましいが、有していなくても良いし、複数のシーンの集合でもよい。また、カメラパラメータに含まれている要素のうち不定の要素は可変要素とし、評価部103で評価する際に該可変要素に複数種類の値を設定してそれぞれ評価してもよい。 Further, the above environmental information may include any information as long as the object (virtual stadium or virtual player in the above example) necessary for creating an image used by the evaluation unit 103 and the camera parameters of the image pickup apparatus can be acquired. Further, the virtual stadium and the virtual player may be computer graphics (CG) or may be a three-dimensional video created by measuring a real object. It is desirable that the content is the same as the image target, but it may be different. It is desirable that the content has motion information, but it does not have to have it, and it may be a set of a plurality of scenes. Further, among the elements included in the camera parameters, an indefinite element may be a variable element, and when the evaluation unit 103 evaluates, a plurality of types of values may be set for the variable element and each may be evaluated.

また、第2取得部102は、出力部104で評価結果を出力するのに必要な仮想視点のカメラパラメータを取得できればよい。仮想視点のカメラパラメータには、仮想視点の位置姿勢、焦点距離、画角等があるが、その一部のパラメータだけでも良いし、ズーム値やROIなどの実際の撮像装置による撮像時のパラメータを含んでも良い。また注視点などの特定の位置を仮想視点が注視するように各仮想視点のカメラパラメータを生成してもよいし、過去に生成した仮想視点のカメラパスなどの情報から各仮想視点のカメラパラメータを取得するようにしても良い。 Further, the second acquisition unit 102 may acquire the camera parameters of the virtual viewpoint necessary for outputting the evaluation result by the output unit 104. The camera parameters of the virtual viewpoint include the position and orientation of the virtual viewpoint, the focal length, the angle of view, etc., but only some of the parameters may be used, and the parameters such as the zoom value and ROI at the time of imaging by the actual imaging device may be used. It may be included. In addition, the camera parameters of each virtual viewpoint may be generated so that the virtual viewpoint gazes at a specific position such as the gazing point, or the camera parameters of each virtual viewpoint are generated from the information such as the camera path of the virtual viewpoint generated in the past. You may try to get it.

また、評価部103は、仮想視点における仮想視点画像の画質に対する評価値を算出できればよい。評価値はPSNRに限るものではなく、MSE(Mean Square Error)やSSIM(Structure Similarity)など画質評価に用いられる評価値であればよい。仮想視点の評価値はシーンごとの評価値の平均値に限る必要はなく、最大値や最小値、分散値などの統計量であってもよいし、シーンの重要度に応じた重み付き和であってもよい。また、仮想視点における仮想視点画像の画質の評価値は、仮想視点画像と正解画像とを比較して求めることに限らない。例えば、現フレームより前のフレーム(前フレーム)における仮想視点画像中の特徴点が現フレームにおける仮想視点画像中のどの位置に移動するのかを、前フレームにおける撮像装置や仮想プレーヤの動きから予測する。この予測した位置を予測位置と称する。そして現フレームにおける仮想視点画像から実際に検出した特徴点の位置と該特徴点の予測位置との差(予測誤差)を求め、それぞれの特徴点について求めた予測誤差の統計量(平均や分散)を評価値とする。 Further, the evaluation unit 103 may be able to calculate an evaluation value for the image quality of the virtual viewpoint image in the virtual viewpoint. The evaluation value is not limited to PSNR, and may be any evaluation value used for image quality evaluation such as MSE (Mean Square Error) and SSIM (Structure Similarity). The evaluation value of the virtual viewpoint does not have to be limited to the average value of the evaluation values for each scene, but may be statistics such as the maximum value, the minimum value, and the variance value, or may be a weighted sum according to the importance of the scene. There may be. Further, the evaluation value of the image quality of the virtual viewpoint image in the virtual viewpoint is not limited to being obtained by comparing the virtual viewpoint image and the correct answer image. For example, the position in the virtual viewpoint image in the current frame where the feature points in the virtual viewpoint image in the frame before the current frame (previous frame) move is predicted from the movement of the image pickup device or the virtual player in the previous frame. .. This predicted position is called a predicted position. Then, the difference (prediction error) between the position of the feature point actually detected from the virtual viewpoint image in the current frame and the predicted position of the feature point is obtained, and the statistic (average or variance) of the prediction error obtained for each feature point is obtained. Is the evaluation value.

また、環境情報は、競技場に実際に配置されたそれぞれの撮像装置による撮像画像を含んでも良い。このような場合、仮想視点における仮想視点画像は、環境情報に含まれている撮像画像に基づいて生成すればよい。また、正解画像の代わりに撮像画像を用いても良い。 Further, the environmental information may include an image captured by each image pickup device actually arranged in the stadium. In such a case, the virtual viewpoint image in the virtual viewpoint may be generated based on the captured image included in the environmental information. Further, the captured image may be used instead of the correct image.

また上記のように、仮想視点画像を生成する方法は、非特許文献1に記載の方法に限らない。例えば、被写体の3次元形状の復元を行って任意の視点からの見えを再現するモデルベースの手法であっても良いし、画像の変形や合成により任意の視点からの見えを再現するイメージベースの手法であっても良い。 Further, as described above, the method for generating a virtual viewpoint image is not limited to the method described in Non-Patent Document 1. For example, it may be a model-based method that reproduces the appearance from an arbitrary viewpoint by restoring the three-dimensional shape of the subject, or an image-based method that reproduces the appearance from an arbitrary viewpoint by deforming or synthesizing the image. It may be a method.

また、仮想視点画像の生成過程において生成した仮想競技場及び仮想プレーヤ(これらを纏めて仮想物体と称する)の3次元形状の正確性を評価し、該評価に応じて撮像装置の配置を評価するようにしても良い。つまり、仮想視点から見た仮想物体の3次元形状と、該仮想視点の仮想視点画像を生成するために使用する撮像装置(対応撮像装置)の仮想空間の画像から復元した仮想物体の3次元形状と、の形状の差異を求める。そして該求めた形状の差異が大きいほど、対応撮像装置に対する評価をより低評価とし、該求めた形状の差異が小さいほど、対応撮像装置に対する評価をより高評価とする。「形状の差異」は、例えば、仮想視点から見た仮想物体の3次元形状と、上記復元した仮想物体の3次元形状と、の間で最近傍の点や面間を対応付け、対応間の距離の平均値などの統計量(形状統計量)であっても良い。また、3次元形状に付与した色も考慮し、仮想視点から見た仮想物体の3次元形状と、上記復元した仮想物体の3次元形状と、の間で対応点や対応面の色の差の平均値などの統計量(色統計量)を更に加味しても良い。そのときに、形状統計量と色統計量との重み付け和を評価値とし、該評価値が大きいほど、対応撮像装置に対する評価をより低評価とし、該評価値が小さいほど、対応撮像装置に対する評価をより高評価とする。また、上記復元した仮想物体の3次元形状の未観測の表面ボクセルの数を評価値にしても良い。また、撮像装置や仮想プレーヤの動きから予測される3次元特徴点の動きと、上記の復元した3次元形状から検出した3次元特徴点の動きと、の差の統計量(平均や分散など)を評価値としても良い。また、仮想視点に映る被写体が視界に入っている撮像装置の台数やその統計量などを評価値としてもよい。 In addition, the accuracy of the three-dimensional shapes of the virtual stadium and the virtual player (collectively referred to as virtual objects) generated in the process of generating the virtual viewpoint image is evaluated, and the arrangement of the image pickup device is evaluated according to the evaluation. You may do so. That is, the three-dimensional shape of the virtual object viewed from the virtual viewpoint and the three-dimensional shape of the virtual object restored from the image of the virtual space of the image pickup device (corresponding image pickup device) used to generate the virtual viewpoint image of the virtual viewpoint. And, the difference in shape is obtained. The larger the difference in the obtained shape, the lower the evaluation for the corresponding image pickup device, and the smaller the difference in the obtained shape, the higher the evaluation for the corresponding image pickup device. The "shape difference" is, for example, associating the nearest points or planes between the three-dimensional shape of the virtual object viewed from the virtual viewpoint and the three-dimensional shape of the restored virtual object, and the correspondence between the correspondences. It may be a statistic (shape statistic) such as an average value of distances. In addition, considering the color given to the three-dimensional shape, the difference in the color of the corresponding point and the corresponding surface between the three-dimensional shape of the virtual object seen from the virtual viewpoint and the three-dimensional shape of the restored virtual object. Statistics such as average values (color statistics) may be further added. At that time, the weighted sum of the shape statistic and the color statistic is used as the evaluation value. The larger the evaluation value, the lower the evaluation for the corresponding image pickup device, and the smaller the evaluation value, the lower the evaluation for the corresponding image pickup device. Is given a higher rating. Further, the number of unobserved surface voxels in the three-dimensional shape of the restored virtual object may be used as the evaluation value. In addition, a statistic (mean, dispersion, etc.) of the difference between the movement of the 3D feature point predicted from the movement of the image pickup device or the virtual player and the movement of the 3D feature point detected from the above-mentioned restored 3D shape. May be used as the evaluation value. Further, the number of image pickup devices in which the subject reflected in the virtual viewpoint is in the field of view, the statistic thereof, and the like may be used as the evaluation value.

出力部104による各仮想視点に対する評価結果の出力形態は特定の出力形態に限らない。例えば、ユーザがキーボード1001aやマウス1001bを操作することで仮想競技場内を移動可能な視点からの仮想空間(仮想競技場及び仮想プレーヤを含む仮想空間)の画像を生成して表示装置1002に表示する。このとき、それぞれの仮想視点の位置若しくは該位置を中心とする規定サイズの領域を該仮想視点に対する評価値に応じた色や透明度で描画する。 The output form of the evaluation result for each virtual viewpoint by the output unit 104 is not limited to a specific output form. For example, by operating the keyboard 1001a or the mouse 1001b, an image of a virtual space (a virtual space including a virtual stadium and a virtual player) from a viewpoint that can be moved in the virtual stadium is generated and displayed on the display device 1002. .. At this time, the position of each virtual viewpoint or the area of the specified size centered on the position is drawn with the color and transparency according to the evaluation value for the virtual viewpoint.

また、それぞれの仮想視点の位置姿勢を実際の競技場における位置姿勢に変換しておき、HMDの視界に入る仮想視点の位置若しくは該位置を中心とする規定サイズの領域を該仮想視点に対する評価値に応じた色や透明度で描画するようにしても良い。これにより、HMDを自身の頭部に装着したユーザは、実際の競技場を、仮想視点の位置若しくは該位置を中心とする規定サイズの領域が該仮想視点に対する評価値に応じた色や透明度で描画された状態で観察することができる。これは、HMDが光学シースルー方式であってもビデオシースルー方式であっても同様である。また、HMDの代わりにスマートフォンなどの機器であっても良い。 In addition, the position and orientation of each virtual viewpoint is converted into the position and orientation in the actual stadium, and the position of the virtual viewpoint that enters the field of view of the HMD or the area of the specified size centered on the position is evaluated as the evaluation value for the virtual viewpoint. You may draw with the color and transparency according to. As a result, the user who wears the HMD on his / her head can set the actual stadium at the position of the virtual viewpoint or the area of the specified size centered on the position with the color and transparency according to the evaluation value for the virtual viewpoint. It can be observed in the drawn state. This is the same regardless of whether the HMD is an optical see-through method or a video see-through method. Further, instead of the HMD, a device such as a smartphone may be used.

また、出力部104は、それぞれの仮想視点のカメラパラメータと、該仮想視点に対する評価値と、を対応付けたテキスト情報を記憶装置17や外部の装置に対して出力するようにしても良い。 Further, the output unit 104 may output text information in which the camera parameters of each virtual viewpoint and the evaluation value for the virtual viewpoint are associated with each other to the storage device 17 or an external device.

また、評価値に応じた色の決定方法についても、上記の式(1)に示した方法に限らない。また、評価値の最大値に対応する色、評価値の最小値に対応する色、についても第1の実施形態で説明した色に限らない。例えば、評価値が取り得る最大値から最小値までの区間を複数の部分区間に分割すると共に、それぞれの部分区間に対応する色を割りあてておく。そして、着目仮想視点に対応する色を決定する場合には、該着目仮想視点の評価値が属する部分区間を特定し、該特定した部分区間に割り当てられている色を着目仮想視点に対する色とする。なお、部分空間によっては色を割り当てなくても良い。また、評価値に応じて色を変えるのではなく、評価値に応じて網掛けなどのパターンを変えても良い。また、評価値の等高線を描いてもよい。また、評価結果を区別可能にするための点数、文字、記号または画像により示してもよい。 Further, the method of determining the color according to the evaluation value is not limited to the method shown in the above equation (1). Further, the color corresponding to the maximum value of the evaluation value and the color corresponding to the minimum value of the evaluation value are not limited to the colors described in the first embodiment. For example, the section from the maximum value to the minimum value that the evaluation value can take is divided into a plurality of subsections, and the color corresponding to each subsection is assigned. Then, when determining the color corresponding to the virtual viewpoint of interest, the partial section to which the evaluation value of the virtual viewpoint of interest belongs is specified, and the color assigned to the specified partial section is set as the color for the virtual viewpoint of interest. .. It is not necessary to assign a color depending on the subspace. Further, instead of changing the color according to the evaluation value, a pattern such as shading may be changed according to the evaluation value. Further, contour lines of evaluation values may be drawn. Further, it may be indicated by a score, a character, a symbol or an image for making the evaluation result distinguishable.

このように、本実施形態によれば、仮想視点画像の画質に対する評価値を可視化することで、作業者が画質の低い仮想視点を選ばなくなるため、仮想視点のカメラパスを決定する作業の効率が向上し、作業時間が短縮される。 As described above, according to the present embodiment, by visualizing the evaluation value for the image quality of the virtual viewpoint image, the operator does not select a virtual viewpoint having a low image quality, so that the efficiency of the work of determining the camera path of the virtual viewpoint is improved. It improves and the work time is shortened.

[第2の実施形態]
本実施形態を含め、以下の各実施形態や変形例では、第1の実施形態との差分について重点的に説明し、特に触れない限りは第1の実施形態と同様であるものとする。本実施形態では、仮想競技場に対して設定したカメラパスにおける仮想視点画像の画質に応じた指標をユーザに提示する。カメラパスの設定時にこのような指標が提示されるため、カメラパス決定の作業効率が向上する。
[Second Embodiment]
In each of the following embodiments and modifications including the present embodiment, the differences from the first embodiment will be mainly described, and unless otherwise specified, the same as the first embodiment. In the present embodiment, an index corresponding to the image quality of the virtual viewpoint image in the camera path set for the virtual stadium is presented to the user. Since such an index is presented when setting the camera path, the work efficiency of determining the camera path is improved.

本実施形態に係る本体装置1の機能構成例について、図6のブロック図を用いて説明する。入力部205は、仮想競技場における仮想視点の移動軌跡を示すカメラパスを入力する。カメラパスは、該カメラパス上のそれぞれの仮想視点の「カメラパラメータと時刻のセット」を含むものである。カメラパスは、例えば、図5に示す如く、GUI2003上で設定することができる。図5のGUI2003には、ユーザがキーボード1001aやマウス1001bを操作して設定した視点から見た仮想競技場の画像が表示されている。ユーザはキーボード1001aやマウス1001bを操作して仮想視点の移動軌跡を示すカメラパス2009を設定する。入力部205は、このようにして設定された仮想視点のカメラパスを入力する。なお、入力部205による仮想視点のカメラパスの取得方法はこのような取得方法に限らない。例えば、入力部205は、予め作成されたカメラパスを記憶装置17や外部の装置から取得するようにしても良い。 An example of the functional configuration of the main unit 1 according to the present embodiment will be described with reference to the block diagram of FIG. The input unit 205 inputs a camera path indicating the movement locus of the virtual viewpoint in the virtual stadium. The camera path includes a "set of camera parameters and time" for each virtual viewpoint on the camera path. The camera path can be set on the GUI 2003, for example, as shown in FIG. In the GUI 2003 of FIG. 5, an image of a virtual stadium seen from a viewpoint set by a user operating a keyboard 1001a or a mouse 1001b is displayed. The user operates the keyboard 1001a and the mouse 1001b to set the camera path 2009 indicating the movement locus of the virtual viewpoint. The input unit 205 inputs the camera path of the virtual viewpoint set in this way. The method of acquiring the camera path of the virtual viewpoint by the input unit 205 is not limited to such an acquisition method. For example, the input unit 205 may acquire a camera path created in advance from the storage device 17 or an external device.

評価部203は、仮想視点ごとの評価結果に加えて、カメラパスに対する評価結果を求める。出力部204は、評価部203による仮想視点ごとの評価結果に加えて、カメラパスに対する評価結果を表示装置1002に画像や文字として出力する。 The evaluation unit 203 obtains the evaluation result for the camera path in addition to the evaluation result for each virtual viewpoint. The output unit 204 outputs the evaluation result for the camera path to the display device 1002 as an image or characters in addition to the evaluation result for each virtual viewpoint by the evaluation unit 203.

次に、本実施形態に係る本体装置1の動作について、図7のフローチャートに沿って説明する。図7において図4に示した処理ステップと同じ処理ステップには同じステップ番号を付しており、該処理ステップに係る説明は省略する。 Next, the operation of the main unit 1 according to the present embodiment will be described with reference to the flowchart of FIG. 7. In FIG. 7, the same processing steps as those shown in FIG. 4 are assigned the same step numbers, and the description of the processing steps will be omitted.

ステップS2050では、入力部205は、仮想視点のカメラパスにおける各セットのうち未選択の1つを選択セットとして入力する。ここで、選択セットに対応する仮想視点を選択仮想視点、選択セットに含まれている時刻をtとする。 In step S2050, the input unit 205 inputs an unselected one of each set in the camera path of the virtual viewpoint as a selection set. Here, the virtual viewpoint corresponding to the selection set is the selection virtual viewpoint, and the time included in the selection set is t.

ステップS2060で評価部203は、ステップS1040で求めた「時刻tにおけるシーンについて求めたそれぞれの仮想視点の評価値」のうち、選択仮想視点の近傍に位置する仮想視点について求めた評価値を、選択仮想視点の評価値として取得する。若しくは評価部203は、選択仮想視点の近傍に位置する仮想視点について求めた評価値を用いて、選択仮想視点の評価値を補間する。 In step S2060, the evaluation unit 203 selects the evaluation value obtained for the virtual viewpoint located in the vicinity of the selected virtual viewpoint from the "evaluation values of each virtual viewpoint obtained for the scene at time t" obtained in step S1040. Obtained as the evaluation value of the virtual viewpoint. Alternatively, the evaluation unit 203 interpolates the evaluation value of the selected virtual viewpoint by using the evaluation value obtained for the virtual viewpoint located in the vicinity of the selected virtual viewpoint.

ステップS2070では、出力部204は、仮想視点ごとの評価値を可視化して表示装置1002の表示画面に表示すると共に、選択仮想視点の評価値を可視化して表示装置1002の表示画面に表示する。 In step S2070, the output unit 204 visualizes the evaluation value for each virtual viewpoint and displays it on the display screen of the display device 1002, and visualizes the evaluation value of the selected virtual viewpoint and displays it on the display screen of the display device 1002.

例えば、図5に示す如く、ある視点から見た仮想競技場の画像をGUI2003に表示している場合には、各仮想視点の位置に対応する画素位置における画素の色を第1の実施形態と同様に決定して描画する。図5では、評価値が比較的高い仮想視点の領域2006と、評価値が比較的低い仮想視点の領域2007と、が可視化されている。 For example, as shown in FIG. 5, when an image of a virtual stadium viewed from a certain viewpoint is displayed on the GUI 2003, the pixel color at the pixel position corresponding to the position of each virtual viewpoint is used as the first embodiment. Determine and draw in the same way. In FIG. 5, a virtual viewpoint region 2006 having a relatively high evaluation value and a virtual viewpoint region 2007 having a relatively low evaluation value are visualized.

更に本実施形態では、カメラパス2009上の各セットに対応する位置には、該セット中のカメラパラメータが示す位置姿勢でもってオブジェクト(図5では四角錐台)を配置すると共に、オブジェクト間を線で結ぶ。オブジェクトとして四角錐台を用いる場合、例えば、仮想視点の位置に、仮想視点の視野を表す四角錘台を仮想視点の向きに合わせて3次元的に描画する。また、四角錐台は、該四角錐台に対応する仮想視点について求めた評価値に応じた色で描画する。また、四角錐台間を結ぶ直線については、例えば、一端側から他端側に向けて、一端側の仮想視点の評価値の色から他端側の仮想視点の評価値の色へとグラデーションするように描画する。 Further, in the present embodiment, an object (a quadrangular pyramid in FIG. 5) is arranged at a position corresponding to each set on the camera path 2009 with the position and orientation indicated by the camera parameters in the set, and a line is drawn between the objects. Tie with. When a quadrangular frustum is used as an object, for example, a quadrangular pyramid representing the field of view of the virtual viewpoint is drawn three-dimensionally at the position of the virtual viewpoint according to the direction of the virtual viewpoint. Further, the quadrangular pyramid is drawn in a color corresponding to the evaluation value obtained for the virtual viewpoint corresponding to the quadrangular frustum. For the straight line connecting the quadrangular pyramids, for example, the color of the evaluation value of the virtual viewpoint on the one end side is graduated from the color of the evaluation value of the virtual viewpoint on the other end side from one end side to the other end side. Draw like this.

また、カメラパス2009上のそれぞれの仮想視点若しくはユーザがキーボード1001aやマウス1001bを操作して画面上で指定した仮想視点に対する評価値に応じた指標を指標2010として表示しても良い。指標2010は、例えば、評価値がθ1以上であれば「○」、θ2(θ2<θ1)未満であれば「×」、θ1未満且つθ2以上であれば「△」とする。 Further, an index corresponding to the evaluation value for each virtual viewpoint on the camera path 2009 or the virtual viewpoint designated on the screen by the user by operating the keyboard 1001a or the mouse 1001b may be displayed as the index 2010. The index 2010 is, for example, “◯” if the evaluation value is θ1 or more, “×” if it is less than θ2 (θ2 <θ1), and “Δ” if it is less than θ1 and θ2 or more.

そしてステップS2080では入力部205は、仮想視点のカメラパスにおける全てのセットを選択セットとして選択したか否かを判断する。この判断の結果、全てのセットを選択セットとして選択した場合には、図7のフローチャートに従った処理は終了する。一方、未だ選択セットとして選択していないセットが残っている場合には、処理はステップS2080を介してステップS2050に戻る。 Then, in step S2080, the input unit 205 determines whether or not all the sets in the camera path of the virtual viewpoint are selected as the selection set. As a result of this determination, when all the sets are selected as the selection set, the processing according to the flowchart of FIG. 7 ends. On the other hand, if there is still a set that has not been selected as the selection set, the process returns to step S2050 via step S2080.

ユーザはこのような表示装置1002の表示画面を見れば、領域2006の内側で仮想視点のカメラパスを作るように検討すればよいことが分かるため、カメラパス決定の作業効率が向上する。 Looking at the display screen of such a display device 1002, it can be seen that the user should consider creating a camera path of a virtual viewpoint inside the area 2006, so that the work efficiency of determining the camera path is improved.

なお、本実施形態では、時刻は、カメラパス上の各仮想視点に対応するシーンを特定するためのインデックスとして使用しているため、該時刻は厳密な時刻でなくても良いし、適当なインデックスであっても良い。 In the present embodiment, the time is used as an index for specifying the scene corresponding to each virtual viewpoint on the camera path, so that the time does not have to be an exact time and is an appropriate index. It may be.

<変形例>
仮想視点のカメラパスの入力方法は上記の通り、特定の入力方法に限らない。例えば、キーボード1001aやマウス1001bに限らず、3Dマウスやジョイスティック、ゲームのコントローラ、カメラや3次元センサなどを用いて入力しても良い。
<Modification example>
As described above, the input method of the camera path of the virtual viewpoint is not limited to the specific input method. For example, the input is not limited to the keyboard 1001a and the mouse 1001b, and may be input using a 3D mouse, a joystick, a game controller, a camera, a three-dimensional sensor, or the like.

また、カメラパス2009上の各仮想視点のカメラパラメータに含まれている時刻は、撮像装置による仮想空間の撮像と同期していればよい。然るに、時刻を一時停止させた状態で複数の仮想視点のカメラパラメータを入力してもよいし、早送りや巻き戻しをした状態で仮想視点のカメラパラメータを入力してもよい。また、ユーザがカメラパスを作成するために入力可能な仮想視点を、該仮想視点の評価値に応じて制限しても良い。例えば、ユーザが仮想視点を入力した場合、該仮想視点に対する評価値を求め、該求めた評価値が閾値以下であれば、該入力をキャンセルして、カメラパスに該入力した仮想視点が使用できないようにしても良い。また例えば閾値以下の評価値の仮想視点の入力を受け付けなくしてもよい。 Further, the time included in the camera parameters of each virtual viewpoint on the camera path 2009 may be synchronized with the imaging of the virtual space by the imaging device. However, the camera parameters of a plurality of virtual viewpoints may be input with the time paused, or the camera parameters of the virtual viewpoint may be input with the fast forward or rewind. Further, the virtual viewpoint that can be input by the user for creating the camera path may be limited according to the evaluation value of the virtual viewpoint. For example, when a user inputs a virtual viewpoint, an evaluation value for the virtual viewpoint is obtained, and if the obtained evaluation value is equal to or less than a threshold value, the input is canceled and the input virtual viewpoint cannot be used in the camera path. You may do so. Further, for example, it is not necessary to accept the input of the virtual viewpoint of the evaluation value below the threshold value.

また、出力部204による評価値の可視化方法として、第1の実施形態のように2次元的に表示しても良いし、図5のように3次元的に表示しても良い。また、指標の提示方法も図5の指標2010のような記号に限らず、他の図形や画像、テキストや音声であってもよい。また、入力した仮想視点の評価値が閾値以下のときに音や画像で警告を出力してもよい。また、指標を提示する条件も上記のような条件に限らない。例えば、評価値が閾値より低いときだけ指標を提示してもよいし、評価値に応じて指標が提示されればよい。つまり、出力部204による情報の出力形態は特定の出力形態に限らず、テキストや音声でもって出力しても良い。 Further, as a method of visualizing the evaluation value by the output unit 204, it may be displayed two-dimensionally as in the first embodiment or may be displayed three-dimensionally as shown in FIG. Further, the method of presenting the index is not limited to the symbol as shown in the index 2010 of FIG. 5, and other figures, images, texts, and voices may be used. Further, when the input evaluation value of the virtual viewpoint is equal to or less than the threshold value, a warning may be output by sound or an image. Further, the conditions for presenting the index are not limited to the above conditions. For example, the index may be presented only when the evaluation value is lower than the threshold value, or the index may be presented according to the evaluation value. That is, the output form of the information by the output unit 204 is not limited to a specific output form, and may be output by text or voice.

また、第2の実施形態に加え、不図示の仮想視点画像生成システムに、本実施形態において入力したカメラパスや仮想視点画像生成に必要なデータを入力して、仮想視点画像を生成してもよい。これは、以下の実施形態や変形例についても同様である。 Further, in addition to the second embodiment, the camera path input in the present embodiment and the data necessary for generating the virtual viewpoint image may be input to the virtual viewpoint image generation system (not shown) to generate the virtual viewpoint image. good. This also applies to the following embodiments and modifications.

[第3の実施形態]
本実施形態では、カメラパス上におけるそれぞれの仮想視点に対する評価値を、第2の実施形態とは異なる方法でもって求める。例えば、カメラパスに対する評価結果を第2の実施形態で説明した方法を用いて求めるモードA、カメラパスに対する評価結果を本実施形態に係る方法を用いて求めるモードB、の何れかを選択するための画面を表示装置1002に表示する。そしてユーザがキーボード1001aやマウス1001bを用いて該画面を操作して選択したモードに対応する方法でもってカメラパスに対する評価結果を求める。評価部203はモードAが選択された場合には、第2の実施形態で説明した動作を行うが、モードBが選択された場合には、図8のフローチャートに従った処理を行う。
[Third Embodiment]
In the present embodiment, the evaluation value for each virtual viewpoint on the camera path is obtained by a method different from that of the second embodiment. For example, in order to select either mode A in which the evaluation result for the camera path is obtained by using the method described in the second embodiment, or mode B in which the evaluation result for the camera path is obtained by using the method according to the present embodiment. Screen is displayed on the display device 1002. Then, the user operates the screen using the keyboard 1001a or the mouse 1001b to obtain the evaluation result for the camera path by the method corresponding to the selected mode. When the mode A is selected, the evaluation unit 203 performs the operation described in the second embodiment, but when the mode B is selected, the evaluation unit 203 performs the process according to the flowchart of FIG.

ステップS3020では、評価部203は、競技場に実際に設けられたそれぞれの撮像装置による撮像画像から、実際の各プレーヤの位置を動的情報として取得する。それぞれの撮像装置は同期をとって連続的に撮像を行っており、時刻t1における撮像画像、時刻t2における撮像画像、時刻t3における撮像画像、…というように各時刻におけるシーンを撮像している。評価部203は、時刻t1においてそれぞれの撮像装置が撮像した撮像画像から、例えば非特許文献2に記載の方法により、時刻t1における各プレーヤの位置を動的情報として取得する。同様にして評価部203は、時刻t2,t3,…というように各時刻における各プレーヤの位置を動的情報として取得する。 In step S3020, the evaluation unit 203 acquires the actual position of each player as dynamic information from the images captured by the respective image pickup devices actually provided in the stadium. Each image pickup device continuously captures images in synchronization with each other, and captures a scene at each time such as an image captured at time t1, an image captured at time t2, an image captured at time t3, and so on. The evaluation unit 203 acquires the position of each player at time t1 as dynamic information from the captured image captured by each image pickup device at time t1, for example, by the method described in Non-Patent Document 2. Similarly, the evaluation unit 203 acquires the position of each player at each time as dynamic information such as time t2, t3, ....

ステップS3050では、入力部205は、仮想視点のカメラパスにおける各セットのうち未選択の1つを選択セットとして入力する。ここで、選択セットに対応する仮想視点を選択仮想視点、選択セットに含まれている時刻をtとする。 In step S3050, the input unit 205 inputs an unselected one of each set in the camera path of the virtual viewpoint as a selection set. Here, the virtual viewpoint corresponding to the selection set is the selection virtual viewpoint, and the time included in the selection set is t.

ステップS3060では、評価部203は先ず、プレーヤごとに、時刻tにおいて該プレーヤを画角に含む撮像装置の数に基づいて該プレーヤの評価値を求める。着目プレーヤの場合、時刻tにおける着目プレーヤの位置を画角に含む撮像装置の台数Nを計数し、全撮像装置の台数に対する該計数した台数Nの割合を、着目プレーヤの評価値とする。着目プレーヤが撮像装置の画角に含まれているか否かについては、例えば、該撮像装置のカメラパラメータに基づいて、着目プレーヤの位置を該撮像装置の撮像面に投影した投影位置を求める。そしてこの求めた投影位置が該撮像装置の画角に含まれていれば、着目プレーヤが撮像装置の画角に含まれていると判断する。そして評価部203は、選択仮想視点の画角に入っているプレーヤの評価値の平均値を、該選択仮想視点に対する評価値として求める。 In step S3060, the evaluation unit 203 first obtains an evaluation value of the player for each player based on the number of image pickup devices including the player in the angle of view at time t. In the case of the player of interest, the number N of the image pickup devices including the position of the player of interest at the time t in the angle of view is counted, and the ratio of the counted number of units N to the number of all image pickup devices is taken as the evaluation value of the player of interest. Regarding whether or not the player of interest is included in the angle of view of the image pickup device, for example, the position of the player of interest is obtained by projecting the position of the player of interest onto the image pickup surface of the image pickup device based on the camera parameters of the image pickup device. If the obtained projection position is included in the angle of view of the image pickup device, it is determined that the player of interest is included in the angle of view of the image pickup device. Then, the evaluation unit 203 obtains the average value of the evaluation values of the players in the angle of view of the selected virtual viewpoint as the evaluation value for the selected virtual viewpoint.

<変形例>
動的情報として、撮像装置による撮像と同期した各プレーヤの位置が取得できればよい。撮影したデータの時刻は、仮想視点画像の仮想視点のカメラパスの時刻制御に合わせてあればよく、毎フレームであってもよいし、飛び飛びでもよいし、巻き戻した時刻であってもよい。
<Modification example>
As dynamic information, it suffices if the position of each player synchronized with the image pickup by the image pickup device can be acquired. The time of the captured data may be set to match the time control of the camera path of the virtual viewpoint of the virtual viewpoint image, may be every frame, may be skipped, or may be the time of rewinding.

また、競技場における各プレーヤの位置の算出方法は上記の算出方法に限らず、プレーヤの位置が取得できればよい。例えば、複数の撮像装置で撮像した撮像画像から特徴点を検出して対応付けることによってプレーヤの3次元位置を算出してもよいし、3次元センサ等でプレーヤを計測してその3次元位置を取得してもよい。また、実際のプレーヤにGPSや慣性センサ等のセンサを取り付けて、該センサから取得した計測データをプレーヤの位置として取得するようにしても良い。また、動的情報はプレーヤの位置に限らず、プレーヤの姿勢を含んでいてもよいし、3次元形状や3次元点群、RGB-Dデータであってもよい。このように、動的情報の取得方法については特定の取得方法に限らない。 Further, the method of calculating the position of each player in the stadium is not limited to the above calculation method, as long as the position of the player can be acquired. For example, the three-dimensional position of the player may be calculated by detecting and associating the feature points from the captured images captured by a plurality of imaging devices, or the player may be measured by a three-dimensional sensor or the like to acquire the three-dimensional position. You may. Further, a sensor such as a GPS or an inertial sensor may be attached to the actual player, and the measurement data acquired from the sensor may be acquired as the position of the player. Further, the dynamic information is not limited to the position of the player, and may include the posture of the player, or may be a three-dimensional shape, a three-dimensional point cloud, or RGB-D data. As described above, the method of acquiring dynamic information is not limited to a specific acquisition method.

また、評価部203による評価値の取得方法については上記の方法に限らず、動的情報に基づいて仮想視点画像の予測画質に対する評価値を取得できればよい。例えばプレーヤの位置を投影して可視判定するのではなく、プレーヤを表す3次元形状を撮像装置や仮想視点の画像面に投影し、プレーヤ同士のオクルージョンを考慮して可視判定をしてもよい。またプレーヤを大きく撮像していれば仮想視点画像でのプレーヤの解像度も高くなって画質が向上するため、プレーヤの撮影画素数に基づいて評価してもよい。例えばプレーヤの撮影画素数に対して単調増加する関数を評価関数として利用してもよいし、上記の台数に関する評価関数など複数の評価関数と重み付き加算して利用してもよい。さらに、動的情報に基づいてプレーヤの位置に仮想プレーヤを配置し、カメラパス上の各仮想視点についての評価値を、第1の実施形態のように仮想視点画像と正解画像とに基づいて求めても良い。仮想プレーヤは、CGに限らず過去に計測した3次元形状や画像を用いてもよい。このように、本実施形態によれば、カメラパス入力時に仮想視点画像の画質に関する指標が提示されるため、カメラパス決定の作業効率が向上する。 Further, the method of acquiring the evaluation value by the evaluation unit 203 is not limited to the above method, and it is sufficient that the evaluation value for the predicted image quality of the virtual viewpoint image can be acquired based on the dynamic information. For example, instead of projecting the position of the player to make a visual determination, a three-dimensional shape representing the player may be projected onto an image plane of an image pickup device or a virtual viewpoint, and the visual determination may be made in consideration of occlusion between players. Further, if the player is imaged in a large size, the resolution of the player in the virtual viewpoint image is increased and the image quality is improved, so that the evaluation may be performed based on the number of pixels taken by the player. For example, a function that monotonically increases with respect to the number of shot pixels of the player may be used as an evaluation function, or may be used by weighted addition with a plurality of evaluation functions such as the above-mentioned evaluation function for the number of units. Further, a virtual player is placed at the position of the player based on the dynamic information, and the evaluation value for each virtual viewpoint on the camera path is obtained based on the virtual viewpoint image and the correct answer image as in the first embodiment. May be. The virtual player is not limited to CG, and may use a three-dimensional shape or an image measured in the past. As described above, according to the present embodiment, since the index regarding the image quality of the virtual viewpoint image is presented at the time of inputting the camera path, the work efficiency of determining the camera path is improved.

なお、上記の実施形態や変形例は、プレーヤが存在する競技場における仮想視点画像の画質を評価するものであったが、フィールドは競技場に限らないし、フィールドに配置するものはプレーヤに限らず他の被写体であっても良い。また、上記の実施形態や変形例は、その一部若しくは全部を適宜組み合わせて使用しても良いし、選択的に使用しても良い。 In the above embodiment and modification, the image quality of the virtual viewpoint image in the stadium where the player exists is evaluated, but the field is not limited to the stadium, and the field is not limited to the player. It may be another subject. In addition, the above-mentioned embodiments and modifications may be used in combination in part or in whole, or may be selectively used.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

101:第1取得部 102:第2取得部 103:評価部 104:出力部 101: 1st acquisition unit 102: 2nd acquisition unit 103: Evaluation unit 104: Output unit

Claims (17)

それぞれ異なる位置から撮像する複数の撮像装置により取得される複数の撮像画像に基づく仮想視点画像の生成に係る仮想視点の位置、仮想視点からの視線方向、及び、仮想視点の視野の範囲を特定する特定手段と、
前記特定手段により特定された仮想視点の位置、仮想視点からの視線方向、及び、仮想視点の視野の範囲に応じた仮想視点画像の画質に関する評価結果を示す情報をユーザに提供する提供手段と
を備えることを特徴とする情報処理装置。
Specify the position of the virtual viewpoint, the line-of-sight direction from the virtual viewpoint, and the range of the field of view of the virtual viewpoint related to the generation of the virtual viewpoint image based on the plurality of captured images acquired by the plurality of image pickup devices that capture images from different positions. Specific means and
A means for providing a user with information indicating an evaluation result regarding the image quality of a virtual viewpoint image according to the position of the virtual viewpoint specified by the specific means, the line-of-sight direction from the virtual viewpoint, and the range of the field of view of the virtual viewpoint. An information processing device characterized by being provided.
仮想視点の位置、仮想視点からの視線方向、及び、仮想視点の視野の範囲を指定するユーザ操作に応じた入力を受け付ける受付手段を有し、
前記特定手段は、前記受付手段により受け付けられた入力に基づいて、前記ユーザ操作により指定された仮想視点の位置、仮想視点からの視線方向、及び、仮想視点の視野の範囲を特定することを特徴とする請求項1に記載の情報処理装置。
It has a reception means that accepts inputs according to user operations that specify the position of the virtual viewpoint, the direction of the line of sight from the virtual viewpoint, and the range of the field of view of the virtual viewpoint .
The specific means is characterized in that the position of the virtual viewpoint designated by the user operation, the line-of-sight direction from the virtual viewpoint, and the range of the field of view of the virtual viewpoint are specified based on the input received by the reception means. The information processing apparatus according to claim 1.
前記特定手段により特定された仮想視点の位置、仮想視点からの視線方向、及び、仮想視点の視野の範囲に応じた仮想視点画像を取得する取得手段と、
前記取得手段により取得された仮想視点画像の画質に関する評価を行う評価手段と
を有し、
前記提供手段は、前記評価手段による評価結果を示す情報をユーザに提供することを特徴とする請求項1又は2に記載の情報処理装置。
An acquisition means for acquiring a virtual viewpoint image according to the position of the virtual viewpoint specified by the specific means, the line-of-sight direction from the virtual viewpoint, and the range of the field of view of the virtual viewpoint.
It has an evaluation means for evaluating the image quality of the virtual viewpoint image acquired by the acquisition means.
The information processing apparatus according to claim 1 or 2, wherein the providing means provides information indicating an evaluation result by the evaluation means to a user .
前記仮想視点画像の画質に関する評価結果は、前記仮想視点画像に含まれる被写体の解像度に関する評価結果を含むことを特徴とする請求項1乃至3の何れか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 3, wherein the evaluation result regarding the image quality of the virtual viewpoint image includes an evaluation result regarding the resolution of a subject included in the virtual viewpoint image. 前記仮想視点画像の画質に関する評価結果は、前記特定手段により特定された仮想視点の位置、仮想視点からの視線方向、及び、仮想視点の視野の範囲に応じた仮想視点画像であって前記複数の撮像画像に基づいて生成された仮想視点画像と、前記仮想視点の位置、前記仮想視点からの視線方向、及び、前記仮想視点の視野の範囲に応じた他の画像であって前記仮想視点画像の画質を評価する基準となる他の画像と、の差に関する評価結果を含むことを特徴とする請求項1乃至4の何れか1項に記載の情報処理装置。 The evaluation result regarding the image quality of the virtual viewpoint image is a plurality of virtual viewpoint images according to the position of the virtual viewpoint specified by the specific means, the line-of-sight direction from the virtual viewpoint, and the range of the field of view of the virtual viewpoint. The virtual viewpoint image generated based on the captured image and other images corresponding to the position of the virtual viewpoint, the line-of-sight direction from the virtual viewpoint, and the range of the field of view of the virtual viewpoint of the virtual viewpoint image. The information processing apparatus according to any one of claims 1 to 4, wherein the information processing apparatus includes an evaluation result relating to a difference between the image quality and another image as a reference for evaluating the image quality . 前記提供手段は、文字、記号、図形、色、画像パターン、及び音の少なくとも何れかを出力することにより前記仮想視点画像の画質に関する評価結果をユーザに提供することを特徴とする請求項1乃至5の何れか1項に記載の情報処理装置。 Claim 1 is characterized in that the providing means provides a user with an evaluation result regarding the image quality of the virtual viewpoint image by outputting at least one of characters, symbols, figures, colors, image patterns, and sounds. The information processing apparatus according to any one of 5 to 5. 前記提供手段により提供される情報は、複数のシーンのそれぞれにおける仮想視点の位置、仮想視点からの視線方向、及び、仮想視点の視野の範囲に応じた仮想視点画像の画質に関する評価に基づく評価結果を示すことを特徴とする請求項1乃至の何れか1項に記載の情報処理装置。 The information provided by the providing means is an evaluation result based on the evaluation of the image quality of the virtual viewpoint image according to the position of the virtual viewpoint in each of the plurality of scenes, the line-of-sight direction from the virtual viewpoint, and the range of the field of view of the virtual viewpoint. The information processing apparatus according to any one of claims 1 to 6 , wherein the information processing apparatus is characterized by the above. 前記提供手段により提供される情報は、表示画面において複数の仮想視点のそれぞれに対応する位置に、前記仮想視点の位置、仮想視点からの視線方向、及び、仮想視点の視野の範囲に応じた仮想視点画像の画質に関する評価結果に応じた色表示された情報を含むことを特徴とする請求項1乃至の何れか1項に記載の情報処理装置。 The information provided by the providing means is virtual according to the position of the virtual viewpoint, the line-of-sight direction from the virtual viewpoint, and the range of the field of view of the virtual viewpoint at the positions corresponding to each of the plurality of virtual viewpoints on the display screen. The information processing apparatus according to any one of claims 1 to 7 , wherein the information processing apparatus includes information in which a color corresponding to an evaluation result regarding the image quality of a viewpoint image is displayed. 前記仮想視点画像の画質に関する評価結果は、該仮想視点画像における特徴点の予測誤差の統計量に基づく評価結果を含むことを特徴とする請求項1乃至の何れか1項に記載の情報処理装置。 The information processing according to any one of claims 1 to 8 , wherein the evaluation result regarding the image quality of the virtual viewpoint image includes an evaluation result based on a statistic of a prediction error of a feature point in the virtual viewpoint image. Device. 前記特定手段は、仮想視点の移動経路上における複数の仮想視点の位置、複数の仮想視点からの視線方向、及び、複数の仮想視点の視野の範囲を特定し、
前記提供手段は、前記複数の仮想視点の位置、前記複数の仮想視点からの視線方向、及び、前記複数の仮想視点の視野の範囲に応じた複数の仮想視点画像のそれぞれの画質に関する評価結果を示す情報をユーザに提供することを特徴とする請求項1乃至の何れか1項に記載の情報処理装置。
The specific means specifies the positions of a plurality of virtual viewpoints on the movement path of the virtual viewpoints, the line-of-sight directions from the plurality of virtual viewpoints, and the range of the visual fields of the plurality of virtual viewpoints.
The providing means evaluates the image quality of each of the plurality of virtual viewpoint images according to the position of the plurality of virtual viewpoints, the line-of-sight direction from the plurality of virtual viewpoints, and the range of the visual fields of the plurality of virtual viewpoints. The information processing apparatus according to any one of claims 1 to 9 , wherein the information to be shown is provided to the user .
前記移動経路上における複数の仮想視点の位置、複数の仮想視点からの視線方向、及び、複数の仮想視点の視野の範囲に応じた複数の仮想視点画像のそれぞれの画質に関する評価結果は、前記複数の仮想視点について取得ずみの評価結果に基づいて取得されることを特徴とする請求項10に記載の情報処理装置。 The evaluation results regarding the image quality of each of the plurality of virtual viewpoint images according to the positions of the plurality of virtual viewpoints on the movement path, the line-of-sight directions from the plurality of virtual viewpoints, and the range of the visual fields of the plurality of virtual viewpoints are the plurality . The information processing apparatus according to claim 10 , wherein the virtual viewpoint of the above is acquired based on the evaluation result of the acquired image. 前記提供手段により提供される情報は、前記移動経路上における複数の仮想視点の位置に、該仮想視点に対応する評価結果に応じた色のオブジェクトが配置された画像表示された情報を含むことを特徴とする請求項10または11に記載の情報処理装置。 The information provided by the providing means includes information in which an image in which an object of a color corresponding to an evaluation result corresponding to the virtual viewpoint is arranged at a position of a plurality of virtual viewpoints on the movement path is displayed. The information processing apparatus according to claim 10 or 11 . 前記提供手段により提供される情報は、前記移動経路上における複数の仮想視点に対応する評価結果に応じた指標が配置された画像を含むことを特徴とする請求項10乃至12の何れか1項に記載の情報処理装置。 One of claims 10 to 12 , wherein the information provided by the providing means includes an image in which an index corresponding to an evaluation result corresponding to a plurality of virtual viewpoints on the moving path is arranged. The information processing device described in. 前記仮想視点画像の画質に関する評価結果に応じて、前記特定手段により特定された仮想視点の位置、仮想視点からの視線方向、及び、仮想視点の視野の範囲に応じた仮想視点画像の生成を制限するための処理を行う処理手段を有することを特徴とする請求項1乃至13の何れか1項に記載の情報処理装置。 Depending on the evaluation result regarding the image quality of the virtual viewpoint image, the generation of the virtual viewpoint image according to the position of the virtual viewpoint specified by the specific means, the line-of-sight direction from the virtual viewpoint, and the range of the field of view of the virtual viewpoint is restricted. The information processing apparatus according to any one of claims 1 to 13 , further comprising a processing means for performing the processing. 前記仮想視点画像の画質に関する評価結果は、前記特定手段により特定された仮想視点の視野に含まれている被写体の評価値に基づいて取得され、
前記被写体の評価値は、該被写体を視野に含む撮像装置の台数に基づく値であることを特徴とする請求項1乃至14の何れか1項に記載の情報処理装置。
The evaluation result regarding the image quality of the virtual viewpoint image is acquired based on the evaluation value of the subject included in the visual field of the virtual viewpoint specified by the specific means.
The information processing apparatus according to any one of claims 1 to 14 , wherein the evaluation value of the subject is a value based on the number of image pickup devices including the subject in the field of view.
情報処理装置が行う情報処理方法であって、
それぞれ異なる位置から撮像する複数の撮像装置により取得される複数の撮像画像に基づく仮想視点画像の生成に係る仮想視点の位置、仮想視点からの視線方向、及び、仮想視点の視野の範囲を特定する特定工程と、
前記特定工程で特定された仮想視点の位置、仮想視点からの視線方向、及び、仮想視点の視野の範囲に応じた仮想視点画像の画質に関する評価結果を示す情報をユーザに提供する提供工程と
を備えることを特徴とする情報処理方法。
It is an information processing method performed by an information processing device.
Specify the position of the virtual viewpoint, the line-of-sight direction from the virtual viewpoint, and the range of the field of view of the virtual viewpoint related to the generation of the virtual viewpoint image based on the plurality of captured images acquired by the plurality of image pickup devices that capture images from different positions. Specific process and
A providing process of providing to the user information indicating the evaluation result regarding the image quality of the virtual viewpoint image according to the position of the virtual viewpoint specified in the specific step, the line-of-sight direction from the virtual viewpoint, and the range of the field of view of the virtual viewpoint. An information processing method characterized by being prepared.
コンピュータを、請求項1乃至15の何れか1項に記載の情報処理装置として機能させるためのコンピュータプログラム。 A computer program for causing a computer to function as the information processing apparatus according to any one of claims 1 to 15 .
JP2017110250A 2017-06-02 2017-06-02 Information processing equipment, information processing method Active JP7042561B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017110250A JP7042561B2 (en) 2017-06-02 2017-06-02 Information processing equipment, information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017110250A JP7042561B2 (en) 2017-06-02 2017-06-02 Information processing equipment, information processing method

Publications (3)

Publication Number Publication Date
JP2018206025A JP2018206025A (en) 2018-12-27
JP2018206025A5 JP2018206025A5 (en) 2020-07-27
JP7042561B2 true JP7042561B2 (en) 2022-03-28

Family

ID=64957838

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017110250A Active JP7042561B2 (en) 2017-06-02 2017-06-02 Information processing equipment, information processing method

Country Status (1)

Country Link
JP (1) JP7042561B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3712843A1 (en) 2019-03-19 2020-09-23 Koninklijke Philips N.V. Image signal representing a scene
JP7310252B2 (en) * 2019-04-19 2023-07-19 株式会社リコー MOVIE GENERATOR, MOVIE GENERATION METHOD, PROGRAM, STORAGE MEDIUM
JP6780057B1 (en) * 2019-05-17 2020-11-04 キヤノン株式会社 Information processing device, information processing method, and program
JP7471784B2 (en) * 2019-08-21 2024-04-22 キヤノン株式会社 Providing device, control method, and program
WO2021059669A1 (en) * 2019-09-25 2021-04-01 ソニー株式会社 Information processing device, video generation method, and program
WO2021131375A1 (en) * 2019-12-26 2021-07-01 富士フイルム株式会社 Information processing device, information processing method, and program
WO2021152955A1 (en) * 2020-01-30 2021-08-05 富士フイルム株式会社 Information processing device, information processing method, and program
CN115168745B (en) * 2022-09-02 2022-11-22 环球数科集团有限公司 Virtual character image recreating method and system based on image technology

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006126965A (en) 2004-10-26 2006-05-18 Sharp Corp Composite video generation system, method, program and recording medium
JP2011172169A (en) 2010-02-22 2011-09-01 Canon Inc Video processing apparatus and control method thereof
JP2013038602A (en) 2011-08-08 2013-02-21 Sony Corp Image processor, image processing method, and program
JP2015114716A (en) 2013-12-09 2015-06-22 シャープ株式会社 Image data reproducing apparatus and image data generation apparatus
JP2016126425A (en) 2014-12-26 2016-07-11 Kddi株式会社 Free viewpoint image generation device, method and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006126965A (en) 2004-10-26 2006-05-18 Sharp Corp Composite video generation system, method, program and recording medium
JP2011172169A (en) 2010-02-22 2011-09-01 Canon Inc Video processing apparatus and control method thereof
JP2013038602A (en) 2011-08-08 2013-02-21 Sony Corp Image processor, image processing method, and program
JP2015114716A (en) 2013-12-09 2015-06-22 シャープ株式会社 Image data reproducing apparatus and image data generation apparatus
JP2016126425A (en) 2014-12-26 2016-07-11 Kddi株式会社 Free viewpoint image generation device, method and program

Also Published As

Publication number Publication date
JP2018206025A (en) 2018-12-27

Similar Documents

Publication Publication Date Title
JP7042561B2 (en) Information processing equipment, information processing method
JP7164968B2 (en) IMAGE PROCESSING DEVICE, CONTROL METHOD AND PROGRAM OF IMAGE PROCESSING DEVICE
US8374396B2 (en) Augmented reality method and devices using a real time automatic tracking of marker-free textured planar geometrical objects in a video stream
KR102120046B1 (en) How to display objects
JP5818857B2 (en) Information processing apparatus and control method thereof
US11490062B2 (en) Information processing apparatus, information processing method, and storage medium
JP7238060B2 (en) Information processing device, its control method, and program
CN110648274B (en) Method and device for generating fisheye image
JP7005622B2 (en) Recognition processing device, recognition processing method and program
JP7444172B2 (en) Information processing device, video generation method and program
JP2020173529A (en) Information processing device, information processing method, and program
KR20180123302A (en) Method and Apparatus for Visualizing a Ball Trajectory
JP2016162392A (en) Three-dimensional image processing apparatus and three-dimensional image processing system
KR20110088995A (en) Method and system to visualize surveillance camera videos within 3d models, and program recording medium
TWI821220B (en) Apparatus and method of image capture
JP2021016547A (en) Program, recording medium, object detection device, object detection method, and object detection system
JP2003216973A (en) Method, program, device and system for processing three- dimensional image
JP7313811B2 (en) Image processing device, image processing method, and program
JP2021131583A (en) Information processor, method for processing information, and program
US20230306676A1 (en) Image generation device and image generation method
JP2021016081A (en) Information processing device, information processing method, and program
JP7500333B2 (en) GENERATION DEVICE, GENERATION METHOD, AND PROGRAM
US11935182B2 (en) Information processing apparatus, information processing method, and storage medium
US20240233259A1 (en) Information processing apparatus, information processing method, and storage medium
CN116385273B (en) Method, system and storage medium for moving points in stepping panoramic roaming

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200525

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200525

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210924

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220315

R151 Written notification of patent or utility model registration

Ref document number: 7042561

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151