JP7073092B2 - Image processing equipment, image processing methods and programs - Google Patents

Image processing equipment, image processing methods and programs Download PDF

Info

Publication number
JP7073092B2
JP7073092B2 JP2017246040A JP2017246040A JP7073092B2 JP 7073092 B2 JP7073092 B2 JP 7073092B2 JP 2017246040 A JP2017246040 A JP 2017246040A JP 2017246040 A JP2017246040 A JP 2017246040A JP 7073092 B2 JP7073092 B2 JP 7073092B2
Authority
JP
Japan
Prior art keywords
common area
image processing
shooting
display
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017246040A
Other languages
Japanese (ja)
Other versions
JP2018113683A (en
JP2018113683A5 (en
Inventor
貴志 花本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US15/860,768 priority Critical patent/US10970915B2/en
Publication of JP2018113683A publication Critical patent/JP2018113683A/en
Publication of JP2018113683A5 publication Critical patent/JP2018113683A5/ja
Application granted granted Critical
Publication of JP7073092B2 publication Critical patent/JP7073092B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Image Generation (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、仮想視点に関するパラメータを設定する技術に関する。 The present invention relates to a technique for setting parameters related to a virtual viewpoint.

複数台の実カメラで撮影した映像を用いて、3次元空間内に仮想的に配置した実際には存在しないカメラ(仮想カメラ)からの映像を再現する技術として、仮想視点映像技術がある。仮想視点映像の生成においては、実カメラで撮影された映像間の死角によって仮想カメラからの映像を再現できない領域が存在する。また、仮想カメラが実カメラよりも撮影シーン内の人物等(オブジェクト)に近づいた場合は、オブジェクトの解像度合いが低下するためボケた映像となる。これらを考慮せずに、仮想カメラの経路(時間軸に沿った仮想カメラの位置移動)を設定すると、得られる仮想視点映像は低画質なものになってしまう。そのため、出来上がった仮想視点映像をプレビュー画面等で確認し、仮想カメラの経路設定を幾度となくやり直す(再設定する)ことになる可能性がある。 There is a virtual viewpoint image technology as a technique for reproducing an image from a camera (virtual camera) that does not actually exist and is virtually arranged in a three-dimensional space by using images taken by a plurality of real cameras. In the generation of the virtual viewpoint image, there is a region where the image from the virtual camera cannot be reproduced due to the blind spot between the images taken by the real camera. Further, when the virtual camera is closer to a person or the like (object) in the shooting scene than the actual camera, the resolution of the object is lowered and the image becomes blurred. If the path of the virtual camera (movement of the position of the virtual camera along the time axis) is set without considering these, the obtained virtual viewpoint image will have low image quality. Therefore, there is a possibility that the completed virtual viewpoint image will be confirmed on the preview screen or the like, and the route setting of the virtual camera will be redone (reset) many times.

この点、例えば実カメラで撮影した映像間での死角の情報をユーザに提示するという技術が提案されている(特許文献1)。この特許文献1の技術においては、死角領域や観察者に見せたくない領域を2Dマップ上に可視化することで、実際に仮想視点映像を生成せずとも、事前に死角領域を確認することを可能にしていた。 In this regard, for example, a technique has been proposed in which information on blind spots between images taken by an actual camera is presented to a user (Patent Document 1). In the technique of Patent Document 1, by visualizing a blind spot area or an area that the observer does not want to see on a 2D map, it is possible to confirm the blind spot area in advance without actually generating a virtual viewpoint image. I was doing it.

特開2011-172169号公報Japanese Unexamined Patent Publication No. 2011-172169

しかしながら、上記特許文献1の手法では、仮想視点の設定前に仮想視点の位置と仮想視点映像の品質の対応関係を確認することができなかった。そこで本発明では、仮想視点の設定前に仮想視点の位置と仮想視点映像の品質の対応関係を確認することができるようにする。これにより、仮想カメラの経路設定のやり直し作業を抑制することを目的とする。 However, in the method of Patent Document 1, it was not possible to confirm the correspondence between the position of the virtual viewpoint and the quality of the virtual viewpoint image before setting the virtual viewpoint. Therefore, in the present invention, it is possible to confirm the correspondence between the position of the virtual viewpoint and the quality of the virtual viewpoint image before setting the virtual viewpoint. The purpose of this is to suppress the work of re-setting the route of the virtual camera.

本発明に係る画像処理装置は、第1の撮影装置群に含まれる複数の撮影装置が撮影する撮影領域が重複する第1の共通領域と、前記第1の撮影装置群とは異なる第2の撮影装置群に含まれる複数の撮影装置が撮影する撮影領域が重複する第2の共通領域であって前記第1の共通領域に対応する撮影画像よりも撮影画像の解像度が高い第2の共通領域とを特定する特定手段と、前記特定手段により特定される前記第1の共通領域及び前記第2の共通領域に基づく情報を表示手段に表示させる表示制御手段と、前記表示制御手段により表示手段に表示される情報に基づくユーザ入力に基づいて、前記第1の撮影装置群及び前記第2の撮影装置群に含まれる複数の撮影装置により得られる複数の撮影画像に基づいて生成される仮想視点映像に係る仮想視点を表す情報を決定する決定手段と、を有することを特徴とする。 The image processing apparatus according to the present invention has a first common area in which imaging areas captured by a plurality of imaging devices included in the first imaging device group overlap, and a second image processing apparatus different from the first imaging device group. A second common area in which the shooting areas shot by a plurality of shooting devices included in the shooting device group overlap, and the resolution of the shot image is higher than that of the shot image corresponding to the first common area. The specific means for specifying the above, the display control means for causing the display means to display information based on the first common area and the second common area specified by the specific means, and the display means for the display means. A virtual viewpoint image generated based on a plurality of captured images obtained by a plurality of imaging devices included in the first imaging device group and the second imaging device group based on user input based on the displayed information. It is characterized by having a determination means for determining information representing a virtual viewpoint according to the above.

本発明によれば、仮想カメラの経路設定において、出来上がった仮想視点映像におけるオブジェクトの解像度合いをユーザは事前に把握することができる。これにより、仮想カメラの経路設定のやり直し作業が抑制される。 According to the present invention, the user can grasp in advance the resolution of the object in the completed virtual viewpoint image in the route setting of the virtual camera. As a result, the work of re-setting the route of the virtual camera is suppressed.

仮想視点映像システムの構成の一例を示す図である。It is a figure which shows an example of the structure of a virtual viewpoint video system. (a)はカメラ配置の一例を示す図、(b)は各カメラ群に属するカメラの撮影領域を示す図である。(A) is a diagram showing an example of camera arrangement, and (b) is a diagram showing a shooting area of cameras belonging to each camera group. 仮想視点映像が生成されるまでの全体の流れを示したフローチャートである。It is a flowchart which showed the whole flow until the virtual viewpoint image is generated. 仮想カメラのパラメータ設定に使用するGUI画面が生成される過程を示すフローチャートである。It is a flowchart which shows the process of generating a GUI screen used for parameter setting of a virtual camera. カメラ群毎の共通撮影領域の導出方法を説明する図である。It is a figure explaining the derivation method of the common shooting area for each camera group. カメラ群毎の共通撮影領域がフィールドマップ上に投影された結果の一例を示す図である。It is a figure which shows an example of the result that the common shooting area for each camera group is projected on a field map. 仮想カメラのパラメータ設定処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the parameter setting process of a virtual camera. 仮想カメラのパラメータ設定用GUI画面の一例を示す図である。It is a figure which shows an example of the GUI screen for parameter setting of a virtual camera. 実施形態2に係る、仮想カメラの高さ調整処理の詳細を示したフローチャートである。It is a flowchart which showed the detail of the height adjustment process of the virtual camera which concerns on Embodiment 2. 仮想視点映像のサンプル画像の一例を示す図である。It is a figure which shows an example of the sample image of a virtual viewpoint image. (a)~(c)はいずれもサンプル画像の作成手法を説明する図である。(A) to (c) are diagrams for explaining a method for creating a sample image. 実施形態3に係る、仮想カメラおよび注視点パスの指定処理の詳細を示したフローチャートである。It is a flowchart which showed the details of the virtual camera and the gaze point path designation process which concerns on Embodiment 3. 交差判定を説明する図である。It is a figure explaining the intersection determination.

以下、本発明の実施形態について、図面を参照して説明する。なお、以下の実施形態は本発明を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。なお、同一の構成については、同じ符号を付して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. It should be noted that the following embodiments do not limit the present invention, and not all combinations of features described in the present embodiment are essential for the means for solving the present invention. The same configuration will be described with the same reference numerals.

実施形態1Embodiment 1

図1は、本実施形態における、仮想視点映像システムの構成の一例を示す図である。図1に示す仮想視点映像システムは、画像処理装置100と2種類のカメラ群109及び110とで構成される。そして、画像処理装置100は、CPU101、メインメモリ102、記憶部103、入力部104、表示部105、外部I/F106を備え、各部がバス107を介して接続されている。まず、CPU101は、画像処理装置100を統括的に制御する演算処理装置であり、記憶部103等に格納された各種プログラムを実行して様々な処理を行う。メインメモリ102は、各種処理で用いるデータやパラメータなどを一時的に格納するほか、CPU101に作業領域を提供する。記憶部103は、各種プログラムやGUI(グラフィカル・ユーザ・インターフェイス)表示に必要な各種データを記憶する大容量記憶装置で、例えばハードディスクやシリコンディスク等の不揮発性メモリが用いられる。入力部104は、キーボードやマウス、電子ペン、タッチパネル等の装置であり、様々なユーザ入力を受け付ける。表示部105は、液晶パネルなどで構成され、仮想視点映像生成時の仮想カメラの経路設定のためのGUI表示などを行う。外部I/F部106は、カメラ群109及び110を構成する各カメラとネットワーク(ここではLAN108)を介して接続され、映像データや制御信号データの送受信を行う。バス107は上述の各部を接続し、データ転送を行う。 FIG. 1 is a diagram showing an example of the configuration of a virtual viewpoint video system in the present embodiment. The virtual viewpoint video system shown in FIG. 1 includes an image processing device 100 and two types of camera groups 109 and 110. The image processing device 100 includes a CPU 101, a main memory 102, a storage unit 103, an input unit 104, a display unit 105, and an external I / F 106, and each unit is connected via a bus 107. First, the CPU 101 is an arithmetic processing device that collectively controls the image processing device 100, and executes various programs stored in the storage unit 103 or the like to perform various processes. The main memory 102 temporarily stores data and parameters used in various processes, and also provides a work area to the CPU 101. The storage unit 103 is a large-capacity storage device that stores various data necessary for displaying various programs and GUIs (graphical user interfaces), and for example, a non-volatile memory such as a hard disk or a silicon disk is used. The input unit 104 is a device such as a keyboard, a mouse, an electronic pen, and a touch panel, and accepts various user inputs. The display unit 105 is composed of a liquid crystal panel or the like, and performs GUI display for setting a route of a virtual camera at the time of generating a virtual viewpoint image. The external I / F unit 106 is connected to each camera constituting the camera groups 109 and 110 via a network (here, LAN 108), and transmits / receives video data and control signal data. The bus 107 connects each of the above-mentioned parts and performs data transfer.

上記2種類のカメラ群は、それぞれズームカメラ群109と広角カメラ群110である。ズームカメラ群109は、画角の狭いレンズ(例えば10度)を搭載した複数台のカメラで構成されている。広角カメラ群110は、画角の広いレンズ(例えば45度)を搭載した複数台のカメラで構成されている。そして、ズームカメラ群109及び広角カメラ群110を構成している各カメラはLAN108経由で画像処理装置100に接続されている。また、ズームカメラ群109及び広角カメラ群110は画像処理装置100からの制御信号をもとに、撮影の開始と停止、カメラ設定(シャッタースピード、絞りなど)の変更、撮影した映像データの転送を行う。 The above two types of cameras are a zoom camera group 109 and a wide-angle camera group 110, respectively. The zoom camera group 109 is composed of a plurality of cameras equipped with a lens having a narrow angle of view (for example, 10 degrees). The wide-angle camera group 110 is composed of a plurality of cameras equipped with a lens having a wide angle of view (for example, 45 degrees). Each of the cameras constituting the zoom camera group 109 and the wide-angle camera group 110 is connected to the image processing device 100 via the LAN 108. Further, the zoom camera group 109 and the wide-angle camera group 110 can start and stop shooting, change the camera settings (shutter speed, aperture, etc.), and transfer the shot video data based on the control signal from the image processing device 100. conduct.

なお、システム構成については、上記以外にも、様々な構成要素が存在するが、本発明の主眼ではないので、その説明は省略する。 Regarding the system configuration, there are various components other than the above, but since it is not the main subject of the present invention, the description thereof will be omitted.

図2(a)は、例えばサッカー等を行う競技場に、ズームカメラ群109と広角カメラ群110の2種類のカメラ群からなる撮像システムにおけるカメラ配置の一例を示した図である。競技を行うフィールド201上にはオブジェクト202としての選手が存在している。そして、ズームカメラ群109を構成する12台のズームカメラ203と広角カメラ群110を構成する12台の広角カメラ204がフィールド201を取り囲むように配置されている。図2(b)において点線で囲まれた領域213は、ズームカメラ203の撮影領域を示している。ズームカメラ203は画角が狭いため撮影領域は狭いが、オブジェクト202を撮影した際の解像度合いは高いという特性を持つ。また、図2(c)において点線で囲まれた領域214は、広角カメラ204の撮影領域を示している。広角カメラ204は画角が広いため撮影領域は広いが、オブジェクト202を撮影した際の解像度合いは低いという特性を持つ。なお、図2(b)では撮影領域の形状を便宜的に楕円で示しているが、後述のとおり各カメラの実際の撮影領域の形状は矩形・台形であるのが一般的である。 FIG. 2A is a diagram showing an example of camera arrangement in an imaging system including two types of camera groups, a zoom camera group 109 and a wide-angle camera group 110, in a stadium where, for example, soccer is played. A player as an object 202 exists on the field 201 in which the competition is performed. The 12 zoom cameras 203 constituting the zoom camera group 109 and the 12 wide-angle cameras 204 constituting the wide-angle camera group 110 are arranged so as to surround the field 201. The area 213 surrounded by the dotted line in FIG. 2B shows the shooting area of the zoom camera 203. Since the zoom camera 203 has a narrow angle of view, the shooting area is narrow, but the zoom camera 203 has a characteristic that the resolution when the object 202 is shot is high. Further, the area 214 surrounded by the dotted line in FIG. 2C shows the shooting area of the wide-angle camera 204. Since the wide-angle camera 204 has a wide angle of view, the shooting area is wide, but the wide-angle camera 204 has a characteristic that the resolution when the object 202 is shot is low. Although the shape of the photographing area is shown as an ellipse in FIG. 2B for convenience, the shape of the actual photographing area of each camera is generally rectangular or trapezoidal as described later.

図3は、画像処理装置100において仮想視点映像が生成されるまでの全体の流れを示したフローチャートである。この一連の処理は、CPU101が、所定のプログラムを記憶部103から読み込んでメインメモリ102に展開し、これをCPU101が実行することで実現される。 FIG. 3 is a flowchart showing the entire flow until the virtual viewpoint image is generated in the image processing device 100. This series of processes is realized by the CPU 101 reading a predetermined program from the storage unit 103, expanding it into the main memory 102, and executing this by the CPU 101.

ステップ301では、ズームカメラ群109及び広角カメラ群110に対して、撮影時の露光条件等の撮影パラメータと撮影開始の信号が送信される。各カメラ群に属する各カメラは、受信した撮影パラメータに従って撮影を開始し、得られた映像データを各カメラ内のメモリに保持する。 In step 301, shooting parameters such as exposure conditions at the time of shooting and a signal for starting shooting are transmitted to the zoom camera group 109 and the wide-angle camera group 110. Each camera belonging to each camera group starts shooting according to the received shooting parameters, and holds the obtained video data in the memory in each camera.

ステップ302では、ズームカメラ群109に属する各ズームカメラ203によって撮影された複数視点映像データ及び広角カメラ群110に属する各広角カメラ204によって撮影された複数視点映像データが取得される。取得された複数視点(ここでは各12視点)の映像データは、メインメモリ102に展開される。 In step 302, the multi-viewpoint video data taken by each zoom camera 203 belonging to the zoom camera group 109 and the multi-viewpoint video data taken by each wide-angle camera 204 belonging to the wide-angle camera group 110 are acquired. The acquired video data of the plurality of viewpoints (here, 12 viewpoints each) is expanded in the main memory 102.

ステップ303では、ステップ302で取得した複数視点映像データを用いてオブジェクトの3次元形状の推定処理が実行される。推定手法としては、オブジェクトの輪郭情報を用いるVisual-hull手法や、三角測量を用いたMulti-view stereo手法など公知の手法を適用すればよい。 In step 303, the three-dimensional shape estimation process of the object is executed using the multi-viewpoint video data acquired in step 302. As the estimation method, a known method such as a Visual-hull method using the contour information of the object or a Multi-view stereo method using triangulation may be applied.

ステップ304では、推定したオブジェクト形状データに基づき、自由始点映像の生成に必要な仮想カメラの移動経路といった各種パラメータが設定される。仮想カメラのパラメータ設定に関する処理の詳細に関しては、後に詳述する。 In step 304, various parameters such as the movement path of the virtual camera necessary for generating the free start point image are set based on the estimated object shape data. The details of the processing related to the parameter setting of the virtual camera will be described in detail later.

ステップ305では、設定された仮想カメラパラメータに従って、仮想視点映像が生成される。仮想視点映像は、推定されたオブジェクト形状に対して、設定された仮想カメラから見た映像をコンピュータグラフィックスの技術を用いることで生成することができる。 In step 305, a virtual viewpoint image is generated according to the set virtual camera parameters. The virtual viewpoint image can be generated by using computer graphics technology to generate an image viewed from a set virtual camera with respect to the estimated object shape.

ステップ306では、仮想カメラのパラメータ設定を変更して新たな仮想視点映像を生成するかどうかが判定される。この処理は、不図示のプレビュー画面に表示された仮想視点映像を見て、その画質等を確認したユーザからの指示に基づいてなされる。ユーザが仮想視点映像を生成し直したいと考えた場合は、改めて仮想カメラに関するパラメータ設定を行なう(ステップ304に戻る。)。そして、パラメータを変更すると、変更後の内容で仮想視点映像が改めて生成される。一方、生成された仮想視点映像に問題がなければ本処理を終える。以上が、本実施形態に係る、仮想視点映像が生成されるまでの大まかな流れである。 In step 306, it is determined whether or not to change the parameter settings of the virtual camera to generate a new virtual viewpoint image. This process is performed based on an instruction from the user who has confirmed the image quality and the like by looking at the virtual viewpoint image displayed on the preview screen (not shown). If the user wants to regenerate the virtual viewpoint image, the parameters related to the virtual camera are set again (return to step 304). Then, when the parameter is changed, the virtual viewpoint image is generated again with the changed content. On the other hand, if there is no problem with the generated virtual viewpoint image, this process ends. The above is a rough flow until the virtual viewpoint image is generated according to the present embodiment.

続いて、前述のステップ304における仮想カメラのパラメータ設定処理で使用するGUI画面の準備処理について説明する。図4は、仮想カメラのパラメータ設定に使用するGUI画面が生成される過程を示すフローチャートである。なお図4の処理は、図3で示す各処理に先駆けて実行されていても良いし、ステップ304が実行されるタイミングで実行されても良い。 Subsequently, the preparation process of the GUI screen used in the parameter setting process of the virtual camera in the above-mentioned step 304 will be described. FIG. 4 is a flowchart showing a process of generating a GUI screen used for setting parameters of a virtual camera. The process of FIG. 4 may be executed prior to each process shown in FIG. 3, or may be executed at the timing when step 304 is executed.

ステップ401では、すべてのカメラ群(ここではズームカメラ群と109と広角カメラ群110の2種類)のカメラ情報が取得される。カメラ情報には、各カメラ群に属するカメラの設置場所、注視点位置、画角といった情報が含まれる。本実施形態において注視点位置とは、24台のすべてのカメラの撮影の中心となる位置である。これらの情報は予め記憶部103に保持しておいたものを読み出して取得してもよいし、LAN108を介して各カメラ(或いは各カメラ群を代表する1台のカメラ)にアクセスして取得してもよい。 In step 401, the camera information of all the camera groups (here, two types of the zoom camera group, 109, and the wide-angle camera group 110) is acquired. The camera information includes information such as the installation location of the cameras belonging to each camera group, the gazing point position, and the angle of view. In the present embodiment, the gazing point position is a position that is the center of photography for all 24 cameras. These information may be acquired by reading out what is stored in the storage unit 103 in advance, or by accessing each camera (or one camera representing each camera group) via LAN 108 and acquiring the information. You may.

ステップ402では、取得した各カメラ群のカメラ情報に基づいて、略同じ画角を有する複数のカメラの撮影領域が重複する領域(共通撮影領域)が、カメラ群単位で導出される。ここで、「略同じ」と表現しているのはカメラから注視点までの距離の差によってカメラ間で微細な画角の変動が発生するためである。なお、同じカメラ群に属する各カメラの画角は完全に同じでなくてもよい。図5は、カメラ群毎の共通撮影領域の導出方法を説明する図である。いま、フィールド201に対して同じカメラ群に属する2台のカメラ501と502が同じ注視点を向いて撮影を行っている。このとき、カメラ501とカメラ502が属するカメラ群の撮影領域は、カメラ501から注視点に向けた四角錐とフィールド201との交面511と、カメラ502から注視点に向けた四角錐とフィールド201との交面512とが重複する領域513として求められる。ここでは、説明の便宜上、カメラ501と502の2台で説明を行ったが、3台以上でも考え方は同じである。こうして、各カメラ群についての共通撮影領域が導出される。 In step 402, a region (common shooting region) in which the shooting regions of a plurality of cameras having substantially the same angle of view overlap is derived for each camera group based on the acquired camera information of each camera group. Here, the expression "substantially the same" is due to the fact that the difference in the distance from the camera to the gazing point causes minute fluctuations in the angle of view between the cameras. The angles of view of the cameras belonging to the same camera group do not have to be exactly the same. FIG. 5 is a diagram illustrating a method of deriving a common shooting area for each camera group. Now, two cameras 501 and 502 belonging to the same camera group are shooting with the same gaze point with respect to the field 201. At this time, the shooting area of the camera group to which the camera 501 and the camera 502 belong is the intersection 511 of the quadrangular pyramid and the field 201 directed from the camera 501 toward the gazing point, and the quadrangular pyramid and the field 201 directed from the camera 502 toward the gazing point. It is obtained as a region 513 that overlaps with the intersecting surface 512 with. Here, for convenience of explanation, two cameras 501 and 502 have been used, but the same idea applies to three or more cameras. In this way, a common shooting area for each camera group is derived.

ステップ403では、フィールド201を含む撮影空間全体の俯瞰図(フィールドマップ)上に、導出したカメラ群毎の共通撮影領域のそれぞれが認識可能な態様で可視化して投影される。図6は、フィールドマップ上に、カメラ群毎の共通撮影領域が認識可能に投影された結果の一例を示す図である。図6において、矩形の枠600がフィールドマップを示す。そして、破線の楕円601がズームカメラ群109の共通撮影領域(以下、ズームカメラ群撮影領域)を示している。ズームカメラ群撮影領域601内では、ズームカメラ群109で撮影した複数視点映像を用いた仮想視点映像の生成が可能である。ズームカメラ群撮影領域601内では、オブジェクトの解像度合いが相対的に高いため、仮想カメラをオブジェクトに近づけても(仮想カメラの高さを低くしても)、仮想視点映像の画質を維持することが可能である。本実施形態の場合、ズームカメラ群撮影領域601は、ズームカメラ群109に属する12台全てのズームカメラ203の撮影領域が重複する領域となっている。そして、一点鎖線の楕円602が広角カメラ群110の共通撮影領域(以下、広角カメラ群撮影領域)を示している。広角カメラ群撮影領域602内では、広角カメラ群110で撮影した複数視点映像を用いた仮想視点映像の生成が可能である。広角カメラ群撮影領域602内では、オブジェクトの解像度合いが相対的に低いため、仮想カメラをオブジェクトに一定以上近づける(仮想カメラの高さを一定以下に低くする)と、仮想視点映像の画質が悪化することになる。本実施形態の場合、広角カメラ群撮影領域602は、広角カメラ群110に属する12台全ての広角カメラ204の撮影領域が重複する領域となっている。また、フィールドマップ600内の斜線で示す領域603は、本実施形態において画角の広い広角カメラ群110に属する各広角カメラ204の撮影領域が重複せず、一定の品質の仮想視点映像生成が不可能な領域(以下、仮想視点映像生成不可領域)を示している。図6の例では、ズームカメラ群撮影領域と広角カメラ群撮影領域の外縁がそれぞれ破線と一点鎖線で示され、さらに仮想視点映像生成不可領域が斜線で示されているが、これに限定されない。仮想視点映像を生成可能なカメラ群毎の共通撮影領域がユーザに認識可能なように表示されていればよく、例えば色分けなどによって各領域を示してもよい。なお、図6では、説明の便宜上、各カメラ群の共通撮影領域の形状を楕円で示しているが、実際には多角形となる。このようにして、仮想カメラのパラメータ設定処理で使用するGUI画面の準備が整う。 In step 403, each of the derived common shooting areas for each camera group is visualized and projected in a recognizable manner on a bird's-eye view (field map) of the entire shooting space including the field 201. FIG. 6 is a diagram showing an example of a result in which a common shooting area for each camera group is recognizablely projected on a field map. In FIG. 6, the rectangular frame 600 shows the field map. The broken line ellipse 601 indicates a common shooting area of the zoom camera group 109 (hereinafter referred to as a zoom camera group shooting area). Within the zoom camera group shooting area 601 it is possible to generate a virtual viewpoint image using the multi-viewpoint image taken by the zoom camera group 109. Since the resolution of the object is relatively high in the zoom camera group shooting area 601, the image quality of the virtual viewpoint image should be maintained even if the virtual camera is brought closer to the object (even if the height of the virtual camera is lowered). Is possible. In the case of the present embodiment, the zoom camera group shooting area 601 is an area where the shooting areas of all 12 zoom cameras 203 belonging to the zoom camera group 109 overlap. The ellipse 602 of the alternate long and short dash line indicates the common shooting area of the wide-angle camera group 110 (hereinafter, the wide-angle camera group shooting area). Within the wide-angle camera group shooting area 602, it is possible to generate a virtual viewpoint image using the multi-viewpoint image taken by the wide-angle camera group 110. In the wide-angle camera group shooting area 602, the resolution of the object is relatively low, so if the virtual camera is brought closer to the object than a certain level (the height of the virtual camera is lowered below a certain level), the image quality of the virtual viewpoint image deteriorates. Will be done. In the case of the present embodiment, the wide-angle camera group shooting area 602 is an area where the shooting areas of all 12 wide-angle cameras 204 belonging to the wide-angle camera group 110 overlap. Further, in the area 603 indicated by the diagonal line in the field map 600, the shooting areas of the wide-angle cameras 204 belonging to the wide-angle camera group 110 having a wide angle of view do not overlap in the present embodiment, and it is not possible to generate a virtual viewpoint image of a certain quality. The possible area (hereinafter, the area where the virtual viewpoint image cannot be generated) is shown. In the example of FIG. 6, the outer edges of the zoom camera group shooting area and the wide-angle camera group shooting area are shown by broken lines and alternate long and short dash lines, respectively, and the virtual viewpoint image generation impossible area is shown by diagonal lines, but the present invention is not limited to this. The common shooting area for each camera group capable of generating a virtual viewpoint image may be displayed so as to be recognizable by the user, and each area may be indicated by, for example, color coding. In FIG. 6, for convenience of explanation, the shape of the common shooting area of each camera group is shown by an ellipse, but it is actually a polygon. In this way, the GUI screen used in the parameter setting process of the virtual camera is ready.

次に、本実施形態に係る、仮想カメラのパラメータ設定処理について、図7のフローを参照して説明する。図7の処理は、図3のステップ304の処理に対応する。まず、ステップ701では、仮想カメラのパラメータ設定用GUI画面が表示部105に表示される。図8は、GUI画面の一例を示す図である。図8(a)に示すGUI画面800では、前述の準備処理で得られたフィールドマップ600が画面左側に表示されており、その上に前述のステップ303で推定したオブジェクト形状810がマッピングされている。 Next, the parameter setting process of the virtual camera according to the present embodiment will be described with reference to the flow of FIG. 7. The process of FIG. 7 corresponds to the process of step 304 of FIG. First, in step 701, the GUI screen for setting the parameters of the virtual camera is displayed on the display unit 105. FIG. 8 is a diagram showing an example of a GUI screen. In the GUI screen 800 shown in FIG. 8A, the field map 600 obtained in the above-mentioned preparation process is displayed on the left side of the screen, and the object shape 810 estimated in the above-mentioned step 303 is mapped on the field map 600. ..

ステップ702では、表示されたGUI画面を介して、仮想カメラの移動経路(カメラパス)や注視点の移動経路(注視点パス)の指定を受け付ける。ユーザは、ボタン801又は803を押下した後、フィールドマップ600上でマウス等を操作してカーソルを移動することで、その移動軌跡をカメラパス又は注視点パスとして指定する。図8(a)において太線の矢印811は指定されたカメラパスを、点線の矢印812は指定された注視点パスを示している。このようにして指定されたカメラパスと注視点パスとは、設定フレームにおいて整合するように対応付けられている。つまり、仮想視点映像が例えば600フレームで構成されている場合、それぞれのパスをフレーム数で分割した各分割点を矢印の開始点から順に対応させておく。ユーザがカメラパス811上の任意の位置(座標)にカーソルを移動し、マウス等のクリック操作を行うと、カーソルに最も近い分割点P0を選択・表示し、P0に対応する注視点位置Q0も表示する。このとき、仮想カメラから見た画角領域813も同時に表示される。ユーザは注視点Q0、オブジェクト810、画角領域813の位置関係を把握することができるため、注視点Q0やオブジェクト810がズームカメラ群撮影領域601、広角カメラ群撮影領域602及び仮想視点映像生成不可領域603のうち、どの領域に収まるか、すなわち、仮想視点映像がどのような解像度になるかを確認しつつ指定作業を行うことができる。そのため、カメラパス等を適切に設定することができ、指定作業のやり直し回数を抑制することができる。なお、P0、Q0をマウス等で移動させることにより、パスの修正を行うことも可能である。また、仮想カメラパスのフィールド201からの高さはデフォルト値(例えば、15m)となり、注視点パスの高さは仮想カメラパスよりも低いデフォルト値(例えば、1m)を設定する。 In step 702, the designation of the movement path (camera path) of the virtual camera and the movement path (gaze point path) of the gazing point is accepted via the displayed GUI screen. After pressing the button 801 or 803, the user operates the mouse or the like on the field map 600 to move the cursor, thereby designating the movement locus as the camera path or the gazing point path. In FIG. 8A, the thick arrow 811 indicates the designated camera path, and the dotted arrow 812 indicates the designated gaze point path. The camera path and the gaze point path specified in this way are associated with each other so as to match in the setting frame. That is, when the virtual viewpoint image is composed of, for example, 600 frames, each division point obtained by dividing each path by the number of frames is associated with each other in order from the start point of the arrow. When the user moves the cursor to an arbitrary position (coordinates) on the camera path 811 and clicks with the mouse, etc., the division point P0 closest to the cursor is selected and displayed, and the gazing point position Q0 corresponding to P0 is also displayed. indicate. At this time, the angle of view area 813 seen from the virtual camera is also displayed at the same time. Since the user can grasp the positional relationship between the gazing point Q0, the object 810, and the angle of view area 813, the gazing point Q0 and the object 810 cannot generate the zoom camera group shooting area 601 and the wide-angle camera group shooting area 602 and the virtual viewpoint image. It is possible to perform the designated work while confirming which area of the area 603 it fits in, that is, what kind of resolution the virtual viewpoint image has. Therefore, the camera path and the like can be set appropriately, and the number of times of redoing the designated work can be suppressed. It is also possible to correct the path by moving P0 and Q0 with a mouse or the like. Further, the height of the virtual camera path from the field 201 is set to a default value (for example, 15 m), and the height of the gazing point path is set to a default value lower than that of the virtual camera path (for example, 1 m).

ステップ703では、仮想カメラおよび注視点の高さ調整を行うか否かによって処理の切り分けがなされる。ユーザがカメラパス高さ編集ボタン802または、注視点パス高さ編集ボタン804を押下した場合は、ステップ704に進む。 In step 703, the processing is separated depending on whether or not the height of the virtual camera and the gazing point is adjusted. When the user presses the camera path height edit button 802 or the gaze point path height edit button 804, the process proceeds to step 704.

ステップ704では、仮想カメラおよび注視点の高さを調整する処理(高さ調整処理)が実行される。ここでは、仮想カメラの高さを調整する処理を例に説明を行う。ユーザは、カメラパス811上の任意の位置(座標)にカーソルを移動し、マウス等のクリック操作を行うことによって、高さを変更したい仮想カメラの位置(高さ編集点)を指定する。ここでも、ステップ703と同様にカーソルに最も近い分割点を高さ編集点として選択・表示する。図8(b)において、カメラパス811上に×印で示された箇所が、ユーザによって指定された高さ編集点を示している。この高さ編集点は複数個設定することが可能である。図8(b)の例では、P1とP2の2つの高さ編集点が設定されており、それに合わせて、P1とP2と対応する注視点パス812上の点Q1、Q2を表示する。また、P1とQ1、P2とQ2を結ぶ距離をGUI上に表示する。これは、仮想カメラと注視点との距離によって仮想視点映像内のオブジェクトのサイズが変化するためである。距離が近い程、オブジェクトのサイズが大きくなり、ボケた映像になりやすくなる。図8(b)の場合、P1~Q1間が24mで、P2~Q2間が20mとなっており、P2~Q2の方がよりボケやすい映像となる。高さ編集点が設定されると、GUI画面800内に高さ設定ウィンドウ820が表示され、ユーザは高さ設定ウィンドウ820内の各編集点に対応する入力欄821に任意の値(単位:m)を入力することによって当該位置における仮想カメラの高さを変更することができる。この際もユーザは、ズームカメラ群撮影領域601や広角カメラ群撮影領域602、仮想カメラと注視点との間の距離を確認しながら任意の値を指定できるため、仮想カメラの高さを適切に設定できる。なお、高さ編集点によって高度が変更された箇所以外の高さは、近接する位置の高さ編集点又はデフォルト値から補間して、高さが急激に変化しないように調整される。 In step 704, a process of adjusting the height of the virtual camera and the gazing point (height adjustment process) is executed. Here, the process of adjusting the height of the virtual camera will be described as an example. The user moves the cursor to an arbitrary position (coordinates) on the camera path 811 and specifies the position (height edit point) of the virtual camera whose height is to be changed by performing a click operation with a mouse or the like. Here, as in step 703, the division point closest to the cursor is selected and displayed as the height edit point. In FIG. 8B, a portion indicated by a cross on the camera path 811 indicates a height edit point specified by the user. It is possible to set a plurality of height edit points. In the example of FIG. 8B, two height edit points P1 and P2 are set, and points Q1 and Q2 on the gazing point path 812 corresponding to P1 and P2 are displayed accordingly. Also, the distance connecting P1 and Q1 and P2 and Q2 is displayed on the GUI. This is because the size of the object in the virtual viewpoint image changes depending on the distance between the virtual camera and the gazing point. The closer the distance, the larger the size of the object, and the more likely it is that the image will be out of focus. In the case of FIG. 8B, the distance between P1 and Q1 is 24 m, and the distance between P2 and Q2 is 20 m, and P2 and Q2 are easier to blur. When the height edit point is set, the height setting window 820 is displayed in the GUI screen 800, and the user can use an arbitrary value (unit: m) in the input field 821 corresponding to each edit point in the height setting window 820. ) Can be entered to change the height of the virtual camera at that position. In this case as well, the user can specify an arbitrary value while checking the zoom camera group shooting area 601 and the wide-angle camera group shooting area 602, and the distance between the virtual camera and the gazing point, so that the height of the virtual camera can be appropriately set. Can be set. The height other than the place where the altitude is changed by the height editing point is adjusted by interpolating from the height editing point at the adjacent position or the default value so that the height does not change suddenly.

以上が、本実施形態に係る仮想カメラのパラメータ設定処理の内容である。なお、本実施形態のGUI画面では、各カメラ群撮影領域を2次元で表示していたが、3次元表示してもよい。 The above is the content of the parameter setting process of the virtual camera according to this embodiment. In the GUI screen of this embodiment, each camera group shooting area is displayed in two dimensions, but it may be displayed in three dimensions.

以上のとおり本実施形態によれば、仮想カメラの移動経路や高さといったパラメータを、ユーザは各カメラ群の撮影領域を把握しながら設定することできる。これにより仮想視点映像生成時におけるパラメータ設定作業のやり直しを抑制することが可能となる。 As described above, according to the present embodiment, the user can set parameters such as the movement path and height of the virtual camera while grasping the shooting area of each camera group. This makes it possible to suppress redoing the parameter setting work when generating a virtual viewpoint image.

実施形態2Embodiment 2

実施形態1では、仮想カメラのパラメータ設定用GUI画面上にカメラ群毎の共通撮影領域を可視化してフィールドマップ上に投影することで、カメラパス等を適切に設定できるようにした。次に、仮想カメラの高さ調整においてオブジェクトの解像度合いを直接的にユーザが確認できるようにする態様について、実施形態2として説明する。 In the first embodiment, the common shooting area for each camera group is visualized on the GUI screen for parameter setting of the virtual camera and projected on the field map so that the camera path and the like can be set appropriately. Next, an embodiment in which the user can directly confirm the resolution of the object in adjusting the height of the virtual camera will be described as the second embodiment.

基本的なシステム構成や自視点映像生成処理の大まかな流れは実施形態1と同一であるため説明を省略し、以下では差異点を中心に説明する。 Since the basic system configuration and the general flow of the self-viewpoint video generation process are the same as those in the first embodiment, the description thereof will be omitted, and the differences will be mainly described below.

図9は、本実施形態に係る、仮想カメラの高さ調整処理(前述のステップ704)の詳細を示したフローチャートである。 FIG. 9 is a flowchart showing the details of the height adjustment process of the virtual camera (step 704 described above) according to the present embodiment.

ステップ901では、高さ編集点の指定を受け付ける。ここでも前述の図8(b)に示すようにP1とP2の2点が指定されたものとする。続くステップ902では、指定された高さ編集点における高さの下限値を取得する。高さの下限値とは、オブジェクトの解像度合いとして許容し得る最低限のレベルに対応する仮想カメラの高さを示し、仮想カメラと注視点との間の距離と、仮想カメラの画角、注視点の位置するカメラ群撮影領域の組合せで予め決定しておく。つまり、注視点が高解像度のカメラ群撮影領域に位置する場合、仮想カメラと注視点との間の距離を短くできるため、高さの下限値は低くなる。一方、注視点が低解像度のカメラ群撮影領域に位置する場合、高さの下限値は高くなる。また、画角が広い場合は高さ下限値が低くなり、画角が狭い場合は高さ下限値が高くなる。解像度合いが許容できるか否かは、例えば実カメラにおけるオブジェクトの解像度合いを下回るかどうかといった基準に依って判断される。高さ下限値の取得にあたっては、まず、指定された高さ編集点の注視点座標を取得し、当該座標に対応する各カメラ群撮影領域の分類情報、仮想カメラと注視点との間の距離及び仮想カメラの画角の情報を取得する。分類情報とは、座標位置毎に付与された、ズームカメラ群撮影領域601や広角カメラ群撮影領域602であることを示すフラグなどの情報を意味する。そして、取得したこれらの情報に基づき、指定された高さ編集点における仮想カメラの高さ下限値を取得する。 In step 901, the designation of the height edit point is accepted. Here, too, it is assumed that two points, P1 and P2, are designated as shown in FIG. 8B described above. In the following step 902, the lower limit of the height at the specified height edit point is acquired. The lower limit of height indicates the height of the virtual camera corresponding to the minimum acceptable level for the resolution of the object, the distance between the virtual camera and the gazing point, the angle of view of the virtual camera, and the note. It is determined in advance by the combination of the camera group shooting areas where the viewpoint is located. That is, when the gazing point is located in the high-resolution camera group shooting area, the distance between the virtual camera and the gazing point can be shortened, so that the lower limit of the height is low. On the other hand, when the gazing point is located in the low-resolution camera group shooting area, the lower limit of the height becomes high. Further, when the angle of view is wide, the lower limit of height is low, and when the angle of view is narrow, the lower limit of height is high. Whether or not the resolution is acceptable is determined based on criteria such as whether or not the resolution is lower than that of the object in the actual camera. To obtain the lower limit of height, first, the gazing point coordinates of the specified height editing point are acquired, the classification information of each camera group shooting area corresponding to the coordinates, and the distance between the virtual camera and the gazing point. And the information of the angle of view of the virtual camera is acquired. The classification information means information such as a flag indicating that the zoom camera group shooting area 601 or the wide-angle camera group shooting area 602 is assigned to each coordinate position. Then, based on these acquired information, the height lower limit value of the virtual camera at the specified height edit point is acquired.

ステップ903では、取得した高さ下限値に対応する仮想視点映像のサンプル画像を表示する。サンプル画像は、実カメラの映像からオブジェクトを切り出したものである。切り出し手法を、図11(a)及び(b)を用いて説明する。図11(a)は、ある実カメラで撮影した画像1101を示す。画像1101には、5人の選手に相当するオブジェクトA~Eが写っている。この画像1101に対して、オブジェクトA~Eのそれぞれの顔や背番号を既存の認識技術を用いて識別することで、オブジェクト毎にその領域を切り出したサンプル画像が得られる。得られたサンプル画像のデータは、その画素数(幅と高さ)の情報と共に記憶部103に保持する。図11(b)は、別の実カメラで撮影した画像1102を示す。この画像1102に対しても同様の処理を施してサンプル画像を取得する。そして、新たに作成したサンプル画像の画素数が、その前に作成したサンプル画像の画素数を上回るならば、新たに作成したサンプル画像で上書き(更新)するという処理を、オブジェクト単位で繰り返す。この処理を全ての実カメラで実行することにより、最も解像度の高いサンプル画像をオブジェクト毎に用意できる。サンプル画像を表示する際には、仮想カメラとオブジェクトとの距離、仮想カメラの画角に応じて、サンプル画像を縮小する。この縮小の方法を、図11(c)を用いて説明する。まず、注視点に最も近いオブジェクトを検出し、そのオブジェクトのサンプル画像のデータを記憶部103からメインメモリ102に読み込む。次に、仮想カメラとオブジェクトとの間の距離、仮想カメラの画角から、仮想視点映像におけるオブジェクト領域の画素数を算出する。具体的には、検出されたオブジェクトの位置に、選手の標準的な身長サイズの三次元モデル1122を配置し、仮想カメラ1121から見た場合のプレビュー画像1123を描画することで算出できる。そして、プレビュー画像1123におけるオブジェクト領域とサンプル画像の画素数(幅と高さ)とが一致・または近似値になるように、サンプル画像を縮小する。縮小後は、GUI画面800に表示するため、適切なサイズに単純補間で拡大する。サンプル画像は、例えば図10(a)に示すサブウインドウのような形式でGUI画面800上に表示する。これによりユーザは、高さを下限値まで下げた場合のオブジェクトの解像度合いを実際の画像で確認できる。このとき、図10(a)に示すように、対応する高さ下限値をサンプル画像と併せて表示すようにしてもよい。 In step 903, a sample image of the virtual viewpoint image corresponding to the acquired lower limit of height is displayed. The sample image is an object cut out from the image of the actual camera. The cutting method will be described with reference to FIGS. 11 (a) and 11 (b). FIG. 11A shows an image 1101 taken by a certain real camera. Image 1101 shows objects A to E corresponding to five athletes. By identifying the faces and uniform numbers of the objects A to E with respect to the image 1101 using the existing recognition technique, a sample image obtained by cutting out the area for each object can be obtained. The data of the obtained sample image is stored in the storage unit 103 together with the information on the number of pixels (width and height). FIG. 11B shows an image 1102 taken by another real camera. The same processing is performed on the image 1102 to acquire a sample image. Then, if the number of pixels of the newly created sample image exceeds the number of pixels of the previously created sample image, the process of overwriting (updating) with the newly created sample image is repeated for each object. By executing this process on all real cameras, the sample image with the highest resolution can be prepared for each object. When displaying the sample image, the sample image is reduced according to the distance between the virtual camera and the object and the angle of view of the virtual camera. The method of this reduction will be described with reference to FIG. 11 (c). First, the object closest to the gazing point is detected, and the data of the sample image of the object is read from the storage unit 103 into the main memory 102. Next, the number of pixels in the object area in the virtual viewpoint image is calculated from the distance between the virtual camera and the object and the angle of view of the virtual camera. Specifically, it can be calculated by arranging a three-dimensional model 1122 of a player's standard height size at the position of the detected object and drawing a preview image 1123 when viewed from the virtual camera 1121. Then, the sample image is reduced so that the object area in the preview image 1123 and the number of pixels (width and height) of the sample image match or approximate. After reduction, it is enlarged by simple interpolation to an appropriate size for display on the GUI screen 800. The sample image is displayed on the GUI screen 800 in a format such as the sub-window shown in FIG. 10 (a). This allows the user to check the resolution of the object in the actual image when the height is lowered to the lower limit. At this time, as shown in FIG. 10A, the corresponding lower limit of height may be displayed together with the sample image.

ステップ904では、指定された高さ編集点について、高さ設定ウィンドウ820を介して入力された高さの変更を受け付ける。続くステップ905では、変更後の高さが、高さ下限値を下回っているかどうかを判定する。変更後の高さが下限値を下回っている場合は、ステップ906に進む。一方、変更後の高さが下限値以上の場合は、本処理を抜ける。 In step 904, the height change input via the height setting window 820 is accepted for the specified height edit point. In the following step 905, it is determined whether or not the height after the change is below the lower limit of the height. If the height after the change is below the lower limit, the process proceeds to step 906. On the other hand, if the height after the change is equal to or higher than the lower limit, this process is exited.

ステップ906では、サンプル画像を変更後の高さに応じた内容、すなわち、許容の限界を超えた低解像度のサンプル画像に更新する。図10(b)は、更新後のサンプル画像の一例を示しており、高さ調整点P2に対応するサンプル画像がボケているのが分かる。この更新後のサンプル画像は、上述のステップ903と同様、設定後の仮想カメラと注視点との間の距離ならびに仮想カメラの画角に応じて、オブジェクト固有のサンプル画像を縮小・拡大表示したものである。この際、高さ下限値を下回ったことを示す、例えば「下限値を下回っています。」といったメッセージの表示(警告表示)を行ってもよい。続くステップ907では、高さの再変更の有無に応じて処理を切り替える。新たな高さの指定があった場合はステップ904に戻る。新たな高さの指定がなかった場合は本処理を抜ける。 In step 906, the sample image is updated with the content according to the height after the change, that is, the sample image having a low resolution exceeding the allowable limit. FIG. 10B shows an example of the updated sample image, and it can be seen that the sample image corresponding to the height adjustment point P2 is out of focus. The sample image after this update is a reduced / enlarged display of the sample image peculiar to the object according to the distance between the virtual camera and the gazing point after setting and the angle of view of the virtual camera, as in step 903 described above. Is. At this time, a message indicating that the height has fallen below the lower limit, for example, "It has fallen below the lower limit" may be displayed (warning display). In the following step 907, the process is switched depending on whether or not the height is changed again. If a new height is specified, the process returns to step 904. If no new height is specified, this process is exited.

なお、本実施形態では、実際の試合を撮影した実カメラの映像をサンプル画像として用いたが、例えば、練習中の映像やスタジオで撮影したポートレートなどを用いても良いし、コンピュータグラフィックスを用いて、人物をレンダリングした画像を用いてもよい。また、解像度を確認できれば良いので、実際のオブジェクトとは別のオブジェクトを用いた画像をサンプル画像としても構わない。 In this embodiment, the image of the actual camera that shot the actual game is used as a sample image, but for example, the image during practice or the portrait taken in the studio may be used, or computer graphics may be used. You may use the image which rendered the person. Further, as long as the resolution can be confirmed, an image using an object different from the actual object may be used as a sample image.

以上が、本実施形態に係る仮想カメラの高さ調整処理の内容である。本実施形態の場合、仮想カメラの高さを編集する際に、指定した高さ編集点における高さの下限値に対応するサンプル画像が可視化されて表示されるため、ユーザはより適切な高さを判断し易くなる。 The above is the content of the height adjustment process of the virtual camera according to the present embodiment. In the case of the present embodiment, when editing the height of the virtual camera, the sample image corresponding to the lower limit of the height at the specified height editing point is visualized and displayed, so that the user can use the more appropriate height. It becomes easier to judge.

実施形態3Embodiment 3

実施形態1では、仮想カメラのパラメータ設定用GUI画面上にカメラ群毎の共通撮影領域を可視化してフィールドマップ上に投影することで、カメラパス等を適切に設定できるようにした。次に、オブジェクトの解像度合いが急激に変動する領域をユーザが確認できるようにする態様について、実施形態3として説明する。 In the first embodiment, the common shooting area for each camera group is visualized on the GUI screen for parameter setting of the virtual camera and projected on the field map so that the camera path and the like can be set appropriately. Next, an embodiment in which the user can confirm the region where the resolution of the object fluctuates abruptly will be described as the third embodiment.

基本的なシステム構成や仮想視点映像生成処理の大まかな流れは実施形態1と同一であるため説明を省略し、以下では差異点を中心に説明する。 Since the basic system configuration and the general flow of the virtual viewpoint image generation process are the same as those in the first embodiment, the description thereof will be omitted, and the differences will be mainly described below.

図12は、本実施形態に係る、注視点パスの設定処理(前述のステップ702に相当)の詳細を示したフローチャートである。 FIG. 12 is a flowchart showing the details of the gazing point path setting process (corresponding to step 702 described above) according to the present embodiment.

ステップ1201では、注視点の指定を受け付けた後に、注視点パスを探索する。これは注視点の座標値がどのカメラ群の撮影領域を移動するかを調査する処理である。次に、ステップ1202では、探索によって判明した注視点パスが、複数のカメラ群の撮影領域を交差するかどうかを判定する。図13は、この交差判定を説明する図である。図13の例では、広角カメラ群撮影領域602から開始した注視点パス812が、ズームカメラ群撮影領域601を通過し、再び広角カメラ群撮影領域602に戻っている。よって、この場合は交差していると判定されることになる。このように交差しているとの判定結果の場合はステップ1203に進む。一方、交差していないとの判定結果の場合は、本処理を終了する。ステップ1203では、図13に示すように、解像度の段差マーク1301を、撮影領域と注視点パスとが交差する座標位置に表示する。これは、指定された注視点が、複数のカメラ群の撮影領域を跨ぐように移動することで、カメラの焦点距離が変化する段差マーク1301近辺で解像感が急激に変動する可能性があり、それをユーザに警告するためである。このような場合、段差マーク1301近辺では、仮想カメラを注視点から遠ざける等の処置をユーザは取る必要がある。 In step 1201, after accepting the designation of the gazing point, the gazing point path is searched. This is a process of investigating which camera group the coordinate value of the gazing point moves in. Next, in step 1202, it is determined whether or not the gazing point path found by the search intersects the shooting areas of the plurality of camera groups. FIG. 13 is a diagram illustrating this intersection determination. In the example of FIG. 13, the gazing point path 812 starting from the wide-angle camera group shooting area 602 passes through the zoom camera group shooting area 601 and returns to the wide-angle camera group shooting area 602 again. Therefore, in this case, it is determined that they intersect. If it is determined that they intersect in this way, the process proceeds to step 1203. On the other hand, if it is determined that they do not intersect, this process ends. In step 1203, as shown in FIG. 13, the step mark 1301 of the resolution is displayed at the coordinate position where the photographing area and the gazing point path intersect. This is because the specified gazing point moves so as to straddle the shooting area of a plurality of camera groups, and the resolution may change sharply in the vicinity of the step mark 1301 where the focal length of the camera changes. , To warn the user of it. In such a case, the user needs to take measures such as moving the virtual camera away from the gazing point in the vicinity of the step mark 1301.

以上が、本実施形態に係る解像感変動の警告処理の内容である。本実施形態の場合、仮想カメラや注視点パスを編集する際に、仮想視点映像の解像感の変動が可視化されるため、ユーザはより適切な仮想カメラや注視点のパス設定を判断し易くなる。 The above is the content of the warning process of the change in resolution according to the present embodiment. In the case of this embodiment, since the fluctuation of the resolution of the virtual viewpoint image is visualized when editing the virtual camera or the gazing point path, it is easy for the user to determine a more appropriate virtual camera or gazing point path setting. Become.

なお、上記の実施形態1~3においては、画像処理装置100が仮想カメラ(仮想視点)の設定用GUIの生成、当該GUIの表示、当該GUIに対するユーザ操作の受け付け、及び、仮想視点映像の生成のすべてを行う例を説明した。しかし、この例に限らない。例えば、GUIの生成・表示とユーザ操作の受け付けを行う装置と、当該ユーザ操作に基づいて仮想視点映像を生成する装置が別々の装置であっても良い。また、GUIの生成を行う(典型的には1台の)装置と、GUIの表示及びユーザ操作を受け付ける複数の装置と、仮想視点映像を生成する1又は複数の装置とを有する仮想視点映像システムに本発明を適用することも可能である。 In the above embodiments 1 to 3, the image processing device 100 generates a GUI for setting a virtual camera (virtual viewpoint), displays the GUI, accepts user operations for the GUI, and generates a virtual viewpoint image. I explained an example of doing all of the above. However, it is not limited to this example. For example, a device that generates / displays a GUI and accepts a user operation and a device that generates a virtual viewpoint image based on the user operation may be separate devices. Further, a virtual viewpoint video system having a device for generating a GUI (typically one), a plurality of devices for receiving GUI display and user operation, and one or a plurality of devices for generating a virtual viewpoint video. It is also possible to apply the present invention to.

また、上述の実施形態1~3では、ズームカメラ群109に属するすべてのカメラの撮影領域が重複する共通撮影領域と、広角カメラ群110に属するすべてのカメラの撮影領域が重複する共通撮影領域とを識別可能に表示させる例を中心に説明した。しかしこの例に限らない。例えば、ズームカメラ群109に属する12台のカメラのうち、10台以上のカメラの撮影領域が重複している領域を共通撮影領域としても良い。 Further, in the above-described embodiments 1 to 3, the common shooting area in which the shooting areas of all the cameras belonging to the zoom camera group 109 overlap and the common shooting area in which the shooting areas of all the cameras belonging to the wide-angle camera group 110 overlap are used. Was mainly explained as an example of displaying the image in an identifiable manner. However, it is not limited to this example. For example, of the 12 cameras belonging to the zoom camera group 109, the area where the shooting areas of 10 or more cameras overlap may be used as the common shooting area.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

Claims (17)

第1の撮影装置群に含まれる複数の撮影装置が撮影する撮影領域が重複する第1の共通領域と、前記第1の撮影装置群とは異なる第2の撮影装置群に含まれる複数の撮影装置が撮影する撮影領域が重複する第2の共通領域であって前記第1の共通領域に対応する撮影画像よりも撮影画像の解像度が高い第2の共通領域とを特定する特定手段と、
前記特定手段により特定される前記第1の共通領域及び前記第2の共通領域に基づく情報を表示手段に表示させる表示制御手段と、
前記表示制御手段により表示手段に表示される情報に基づくユーザ入力に基づいて、前記第1の撮影装置群及び前記第2の撮影装置群に含まれる複数の撮影装置により得られる複数の撮影画像に基づいて生成される仮想視点映像に係る仮想視点を表す情報を決定する決定手段と、
を有することを特徴とする画像処理装置。
A first common area where the shooting areas shot by the plurality of shooting devices included in the first shooting device group overlap, and a plurality of shootings included in the second shooting device group different from the first shooting device group. A specific means for identifying a second common area in which the shooting areas captured by the apparatus overlap and the resolution of the captured image is higher than that of the captured image corresponding to the first common area .
A display control means for causing the display means to display information based on the first common area and the second common area specified by the specific means.
Based on the user input based on the information displayed on the display means by the display control means, the plurality of captured images obtained by the plurality of imaging devices included in the first imaging device group and the second imaging device group can be obtained. A determination means for determining information representing a virtual viewpoint related to a virtual viewpoint image generated based on the
An image processing device characterized by having.
前記表示制御手段は、前記第1の共通領域と前記第2の共通領域とを識別可能な情報を表示手段に表示させることを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the display control means causes the display means to display information that can identify the first common area and the second common area. 前記表示制御手段は、所定の品質よりも高い品質を有する仮想視点映像の生成が不可能な領域を認識可能な情報を表示手段に表示させることを特徴とする請求項1又は2に記載の画像処理装置。 The image according to claim 1 or 2, wherein the display control means causes the display means to display recognizable information on an area in which it is impossible to generate a virtual viewpoint image having a quality higher than a predetermined quality. Processing equipment. 前記表示制御手段は、前記第1の撮影装置群及び前記第2の撮影装置群により撮影される撮影空間全体における前記第1の共通領域及び前記第2の共通領域を識別可能な情報を表示手段に表示させることを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。 The display control means displays information that can identify the first common area and the second common area in the entire shooting space shot by the first shooting device group and the second shooting device group. The image processing apparatus according to any one of claims 1 to 3, wherein the image processing apparatus is displayed on the screen. 前記特定手段は、前記第1の撮影装置群及び前記第2の撮影装置群に含まれる複数の撮影装置の画角の情報を少なくとも含む撮影情報に基づいて、前記第1の共通領域及び前記第2の共通領域を特定することを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。 The specific means has the first common area and the first common region based on the imaging information including at least the angle of view information of the plurality of imaging devices included in the first imaging apparatus group and the second imaging apparatus group. The image processing apparatus according to any one of claims 1 to 4, wherein a common area of 2 is specified. 前記撮影情報を記憶する記憶手段を有し、
前記特定手段は、前記記憶手段から取得される前記撮影情報に基づいて、前記第1の共通領域及び第2の共通領域を特定する、
ことを特徴とする請求項5に記載の画像処理装置。
It has a storage means for storing the shooting information, and has a storage means.
The specifying means identifies the first common area and the second common area based on the photographing information acquired from the storage means.
The image processing apparatus according to claim 5.
前記第1の撮影装置群及び前記第2の撮影装置群に含まれる複数の撮影装置は、ネットワークを介して接続され、
前記特定手段は、前記ネットワークを介して前記複数の撮影装置から取得される前記撮影情報に基づいて、前記第1の共通領域及び第2の共通領域を特定する、
ことを特徴とする請求項5に記載の画像処理装置。
The plurality of photographing devices included in the first photographing apparatus group and the second photographing apparatus group are connected via a network.
The specifying means identifies the first common area and the second common area based on the shooting information acquired from the plurality of shooting devices via the network.
The image processing apparatus according to claim 5.
前記表示制御手段は、前記仮想視点の位置に関する制限条件を示す情報を表示手段に表示させることを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 7, wherein the display control means causes the display means to display information indicating a restriction condition regarding the position of the virtual viewpoint. 前記表示制御手段は、前記ユーザ入力により仮想視点の位置に関する前記制限条件を満たさない仮想視点の位置が指定された場合、前記制限条件を満たさないことを示す警告表示を表示手段に表示させることを特徴とする請求項8に記載の画像処理装置。 When the position of the virtual viewpoint that does not satisfy the restriction condition regarding the position of the virtual viewpoint is specified by the user input, the display control means causes the display means to display a warning display indicating that the restriction condition is not satisfied. The image processing apparatus according to claim 8. 前記制限条件は、前記仮想視点の高さに関する条件であることを特徴とする請求項8又は9に記載の画像処理装置。 The image processing apparatus according to claim 8 or 9, wherein the limiting condition is a condition relating to the height of the virtual viewpoint. 前記表示制御手段は、前記ユーザ入力により指定される仮想視点の位置に対応するサンプル画像を表示手段に表示させることを特徴とする請求項1乃至10のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 10, wherein the display control means causes the display means to display a sample image corresponding to a position of a virtual viewpoint designated by the user input. 前記決定手段は、前記ユーザ入力に基づいて、前記仮想視点の移動経路を表す情報を決定することを特徴とする請求項1乃至11のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 11, wherein the determination means determines information representing a movement path of the virtual viewpoint based on the user input. 前記決定手段は、前記ユーザ入力に基づいて、前記仮想視点が注目する注目点の移動経路を決定することを特徴とする請求項1乃至12のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 12, wherein the determination means determines a movement path of a point of interest of interest by the virtual viewpoint based on the user input. 前記第1の撮影装置群に含まれる複数の撮影装置の画角は、前記第2の撮影装置群に含まれる複数の撮影装置の画角よりも広いことを特徴とする請求項1乃至13のいずれか1項に記載の画像処理装置。 Claims 1 to 13, wherein the angle of view of the plurality of imaging devices included in the first imaging device group is wider than the angle of view of the plurality of imaging devices included in the second imaging device group. The image processing apparatus according to any one of the following items. 前記第1の共通領域と前記第2の共通領域とは、少なくとも一部が重複することを特徴とする請求項1乃至14のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 14 , wherein at least a part of the first common area and the second common area overlap each other. 第1の撮影装置群に含まれる複数の撮影装置が撮影する撮影領域が重複する第1の共通領域と、前記第1の撮影装置群とは異なる第2の撮影装置群に含まれる複数の撮影装置が撮影する撮影領域が重複する第2の共通領域であって前記第1の共通領域に対応する撮影画像よりも撮影画像の解像度が高い第2の共通領域とを特定する特定工程と、
前記特定工程において特定される前記第1の共通領域及び前記第2の共通領域に基づく情報を表示する表示工程と、
前記表示工程において表示される情報に基づくユーザ入力に基づいて、前記第1の撮影装置群及び前記第2の撮影装置群に含まれる複数の撮影装置により得られる複数の撮影画像に基づいて生成される仮想視点映像に係る仮想視点を表す情報を決定する決定工程と、
を有することを特徴とする画像処理方法。
A first common area in which shooting areas taken by a plurality of shooting devices included in the first shooting device group overlap, and a plurality of shootings included in a second shooting device group different from the first shooting device group. A specific step of specifying a second common area in which the shooting areas taken by the apparatus overlap and the resolution of the shot image is higher than that of the shot image corresponding to the first common area .
A display step for displaying information based on the first common area and the second common area specified in the specific step, and a display step.
Based on user input based on the information displayed in the display step, it is generated based on a plurality of captured images obtained by the plurality of imaging devices included in the first imaging device group and the second imaging device group. The decision process to determine the information representing the virtual viewpoint related to the virtual viewpoint image and
An image processing method characterized by having.
コンピュータを、請求項1乃至15のいずれか1項に記載の画像処理装置として機能させるためのプログラム。 A program for operating a computer as the image processing device according to any one of claims 1 to 15.
JP2017246040A 2017-01-06 2017-12-22 Image processing equipment, image processing methods and programs Active JP7073092B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/860,768 US10970915B2 (en) 2017-01-06 2018-01-03 Virtual viewpoint setting apparatus that sets a virtual viewpoint according to a determined common image capturing area of a plurality of image capturing apparatuses, and related setting method and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017001042 2017-01-06
JP2017001042 2017-01-06

Publications (3)

Publication Number Publication Date
JP2018113683A JP2018113683A (en) 2018-07-19
JP2018113683A5 JP2018113683A5 (en) 2021-02-12
JP7073092B2 true JP7073092B2 (en) 2022-05-23

Family

ID=62912594

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017246040A Active JP7073092B2 (en) 2017-01-06 2017-12-22 Image processing equipment, image processing methods and programs

Country Status (1)

Country Link
JP (1) JP7073092B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10818077B2 (en) 2018-12-14 2020-10-27 Canon Kabushiki Kaisha Method, system and apparatus for controlling a virtual camera
JP7458731B2 (en) 2019-09-30 2024-04-01 キヤノン株式会社 Image generation system, image processing device, information processing device, image generation method, and program
CN110910482B (en) * 2019-11-29 2023-10-31 四川航天神坤科技有限公司 Method, system and readable storage medium for video data organization and scheduling
WO2021152955A1 (en) * 2020-01-30 2021-08-05 富士フイルム株式会社 Information processing device, information processing method, and program
US11431952B2 (en) * 2020-05-11 2022-08-30 Sony Interactive Entertainment Inc. User selection of virtual camera location to produce video using synthesized input from multiple cameras
CN113364975B (en) * 2021-05-10 2022-05-20 荣耀终端有限公司 Image fusion method and electronic equipment

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005348307A (en) 2004-06-07 2005-12-15 Olympus Corp Image generating method and image generating device
JP2012109719A (en) 2010-11-16 2012-06-07 Canon Inc Video processing device and control method therefor
JP2015076062A (en) 2013-10-11 2015-04-20 富士通テン株式会社 Image display device, image display system, image display method, and program
JP2016066322A (en) 2014-09-26 2016-04-28 富士通テン株式会社 Image processor and image display system
WO2016208562A1 (en) 2015-06-26 2016-12-29 京セラ株式会社 Electronic device, electronic device actuating method, and control program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005348307A (en) 2004-06-07 2005-12-15 Olympus Corp Image generating method and image generating device
JP2012109719A (en) 2010-11-16 2012-06-07 Canon Inc Video processing device and control method therefor
JP2015076062A (en) 2013-10-11 2015-04-20 富士通テン株式会社 Image display device, image display system, image display method, and program
JP2016066322A (en) 2014-09-26 2016-04-28 富士通テン株式会社 Image processor and image display system
WO2016208562A1 (en) 2015-06-26 2016-12-29 京セラ株式会社 Electronic device, electronic device actuating method, and control program

Also Published As

Publication number Publication date
JP2018113683A (en) 2018-07-19

Similar Documents

Publication Publication Date Title
JP7073092B2 (en) Image processing equipment, image processing methods and programs
US10970915B2 (en) Virtual viewpoint setting apparatus that sets a virtual viewpoint according to a determined common image capturing area of a plurality of image capturing apparatuses, and related setting method and storage medium
JP7051457B2 (en) Image processing equipment, image processing methods, and programs
CN108510595B (en) Image processing apparatus, image processing method, and storage medium
JP6849430B2 (en) Image processing equipment, image processing methods, and programs
KR102187974B1 (en) Information processing apparatus, method, and program for generation of virtual viewpoint images
US10762653B2 (en) Generation apparatus of virtual viewpoint image, generation method, and storage medium
KR102342668B1 (en) Image processing apparatus, image processing method and storage medium
JP4262014B2 (en) Image photographing apparatus and image processing method
US10917622B2 (en) Information processing apparatus, display control method, and storage medium
JP2011239361A (en) System and method for ar navigation and difference extraction for repeated photographing, and program thereof
JP7027049B2 (en) Image processing equipment, image processing methods and programs
JP2019083402A (en) Image processing apparatus, image processing system, image processing method, and program
EP3567550A1 (en) Image processing apparatus, control method of image processing apparatus, and computer-readable storage medium
CN108629799B (en) Method and equipment for realizing augmented reality
JP2020024619A (en) Information processing apparatus, information processing method, and program
JP7013144B2 (en) Image processing equipment, image processing methods and programs
KR20110088995A (en) Method and system to visualize surveillance camera videos within 3d models, and program recording medium
US20220383586A1 (en) Image processing apparatus, method for controlling the same, and non-transitory computer-readable storage medium
JP6348318B2 (en) Image processing apparatus, method, and program
JP4262013B2 (en) Image processing method and image generation apparatus
JP2019144958A (en) Image processing device, image processing method, and program
KR20220032948A (en) Method and apparatus for processing 3d object
JP2022038176A (en) Control device, control method, and program
JP2019145894A (en) Image processing device, image processing method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201222

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211012

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220511

R151 Written notification of patent or utility model registration

Ref document number: 7073092

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151