JP2023018253A - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP2023018253A
JP2023018253A JP2021122238A JP2021122238A JP2023018253A JP 2023018253 A JP2023018253 A JP 2023018253A JP 2021122238 A JP2021122238 A JP 2021122238A JP 2021122238 A JP2021122238 A JP 2021122238A JP 2023018253 A JP2023018253 A JP 2023018253A
Authority
JP
Japan
Prior art keywords
display mode
virtual viewpoint
image processing
viewpoint image
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021122238A
Other languages
Japanese (ja)
Inventor
雅大 半田
Masahiro Handa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021122238A priority Critical patent/JP2023018253A/en
Publication of JP2023018253A publication Critical patent/JP2023018253A/en
Pending legal-status Critical Current

Links

Images

Abstract

To generate a virtual viewpoint image so that an object is represented in a desired display mode.SOLUTION: A virtual viewpoint image generation apparatus 400 comprises: a display information setting unit 402 for setting a display mode of an object in a virtual viewpoint image generated based on imaged images obtained by imaging the object with a plurality of imaging apparatuses 100 based on at least the position of the object and the gesture of the object; and a virtual viewpoint image generation unit 404 for generating the virtual viewpoint image so that the object is represented in the set display mode.SELECTED DRAWING: Figure 4

Description

本開示は、仮想視点画像を生成するための技術に関する。 The present disclosure relates to technology for generating a virtual viewpoint image.

複数の撮像装置を異なる位置に設置して、複数の視点からオブジェクトを撮像して得られた複数の撮像画像を用いて、任意の視点からの仮想視点画像を生成する方法がある。 2. Description of the Related Art There is a method of generating a virtual viewpoint image from an arbitrary viewpoint by using a plurality of captured images obtained by imaging an object from a plurality of viewpoints by installing a plurality of imaging devices at different positions.

特許文献1には、オブジェクトを取り囲むように複数のカメラを配置し、オブジェクトを撮像して得られた画像を用いて、任意の視点に対応する仮想視点画像を生成する方法が開示されている。 Patent Literature 1 discloses a method of arranging a plurality of cameras so as to surround an object and generating a virtual viewpoint image corresponding to an arbitrary viewpoint using an image obtained by imaging the object.

特開2008-15756号公報JP 2008-15756 A

特許文献1の方法を用いて、例えば、スタジオを撮像して得られた撮像画像に基づいて、スタジオにいる演者を仮想視点から見た仮想視点画像を生成することが考えられる。この場合、スタジオにはスタッフ、カメラマンなどの演者以外のオブジェクトも存在するため、仮想視点画像には、演者以外のオブジェクトが映りこんでしまうことがある。演者と異なるオブジェクトが仮想視点画像に映り込んでしまうとユーザは演者に集中して仮想視点画像を見ることできなくなる虞がある。一方、演出によってはスタッフ、カメラマン等の演者以外のオブジェクトを仮想視点画像に映したいこともある。 Using the method of Patent Literature 1, for example, it is conceivable to generate a virtual viewpoint image in which the performer in the studio is viewed from a virtual viewpoint based on a captured image obtained by capturing the studio. In this case, since there are objects other than the performer, such as staff and cameramen, in the studio, the objects other than the performer may appear in the virtual viewpoint image. If an object different from the performer appears in the virtual viewpoint image, the user may not be able to concentrate on the performer and view the virtual viewpoint image. On the other hand, depending on the performance, it may be desirable to show an object other than the performer, such as a staff member or a cameraman, in the virtual viewpoint image.

本開示の技術は、本課題に鑑みてなされたものであって、オブジェクトが所望の表示態様で表されるように仮想視点画像を生成することを目的とする。 The technology of the present disclosure has been made in view of this problem, and aims to generate a virtual viewpoint image such that an object is represented in a desired display mode.

本開示の画像処理装置は、複数の撮像装置によってオブジェクトを撮像して得られた撮像画像に基づき生成される仮想視点画像における前記オブジェクトの表示態様を、前記オブジェクトの位置および前記オブジェクトのジェスチャの少なくとも一方に基づき設定する設定手段と、前記オブジェクトが前記設定された表示態様で表されるように、前記仮想視点画像を生成する生成手段と、を有することを特徴とする。 The image processing apparatus according to the present disclosure determines the display mode of the object in the virtual viewpoint image generated based on the captured images obtained by imaging the object with a plurality of imaging devices, at least from the position of the object and the gesture of the object. and a generating means for generating the virtual viewpoint image so that the object is displayed in the set display mode.

本開示の技術は、オブジェクトが所望の表示態様で表されるように仮想視点画像を生成することができる。 The technology of the present disclosure can generate a virtual viewpoint image such that an object is represented in a desired display mode.

画像処理システムの構成図。1 is a configuration diagram of an image processing system; FIG. スタジオでの撮像装置の配置を説明するための図。FIG. 2 is a diagram for explaining the arrangement of imaging devices in a studio; 仮想視点画像生成装置のハードウエア構成図。FIG. 2 is a hardware configuration diagram of a virtual viewpoint image generation device; 仮想視点画像生成装置の機能構成を説明するためのブロック図。FIG. 2 is a block diagram for explaining the functional configuration of a virtual viewpoint image generation device; レンダリング処理を説明するためのフローチャート。4 is a flowchart for explaining rendering processing; オブジェクトの表示情報の設定処理を説明するためのフローチャート。4 is a flowchart for explaining a process of setting display information of an object; オブジェクトの表示情報の設定方法の一例を示す図。FIG. 5 is a diagram showing an example of a method for setting display information of an object; オブジェクトの表示情報の設定方法の一例を示す図。FIG. 5 is a diagram showing an example of a method for setting display information of an object; オブジェクトの表示情報の設定方法の一例を示す図。FIG. 5 is a diagram showing an example of a method for setting display information of an object; オブジェクトの表示情報の設定方法の一例を示す図。FIG. 5 is a diagram showing an example of a method for setting display information of an object; レンダリングエリアの境界を跨ぐオブジェクトの表示方法を説明する図。4A and 4B are diagrams for explaining a method of displaying an object that straddles the boundary of the rendering area; FIG.

以下、添付の図面を参照して、実施形態に基づいて本開示の技術の詳細を説明する。 Hereinafter, details of the technology of the present disclosure will be described based on embodiments with reference to the accompanying drawings.

<実施形態1>
図1は、仮想視点画像を生成する画像処理システムの一例を示す図である。複数の撮像装置を異なる位置に設置することにより複数の視点で時刻同期して撮像し、その撮像により得られた複数の画像を用いて、実際の撮像装置からの視点によらない仮想視点から見た画像(仮想視点画像)を生成する方法がある。この仮想視点画像の生成は、複数の撮像装置で撮像して得られた画像をサーバ等の画像処理装置に集約し、その画像処理装置において、仮想視点に基づくレンダリング等の処理を実行することで実現される。さらに端末等の表示部に仮想視点画像を表示することで視聴者は仮想視点画像を見ることができる。なお、仮想視点画像は、動画であっても、静止画であってもよい。以下の実施形態では、仮想視点画像は動画であるものとして説明を行う。
<Embodiment 1>
FIG. 1 is a diagram illustrating an example of an image processing system that generates a virtual viewpoint image. By installing multiple imaging devices at different positions, images are taken in synchronization from multiple viewpoints, and the multiple images obtained by the imaging are used to view from a virtual viewpoint that does not depend on the viewpoint from the actual imaging device. There is a method of generating an image (virtual viewpoint image). This virtual viewpoint image is generated by consolidating images obtained by imaging with a plurality of imaging devices into an image processing device such as a server, and executing processing such as rendering based on the virtual viewpoint in the image processing device. Realized. Further, by displaying the virtual viewpoint image on a display unit of a terminal or the like, the viewer can view the virtual viewpoint image. Note that the virtual viewpoint image may be a moving image or a still image. In the following embodiments, the virtual viewpoint image will be described as a moving image.

本実施形態の説明では、仮想視点を仮想的なカメラ(仮想カメラ)に置き換えて説明する場合がある。このとき、仮想視点の位置は仮想カメラの位置、仮想視点からの視線方向は仮想カメラの向きの方向にそれぞれ対応する。また、仮想視点画像は、仮想カメラの画角内の画像に対応する。仮想カメラの位置および向きは仮想カメラの操縦者が指定することができる。このため、任意の視点からの画像を生成することが可能となる。 In the description of the present embodiment, the virtual viewpoint may be replaced with a virtual camera (virtual camera). At this time, the position of the virtual viewpoint corresponds to the position of the virtual camera, and the line-of-sight direction from the virtual viewpoint corresponds to the orientation direction of the virtual camera. Also, the virtual viewpoint image corresponds to an image within the angle of view of the virtual camera. The position and orientation of the virtual camera can be specified by the operator of the virtual camera. Therefore, it is possible to generate an image from an arbitrary viewpoint.

本実施形態の画像処理システムは、複数の撮像装置100、前景抽出装置150、三次元モデル生成装置200、ストレージ装置300、仮想視点画像生成装置400、仮想視点パス生成装置500、を有する。また、仮想視点画像表示装置600、三次元モデル選択装置700を有する。 The image processing system of this embodiment includes a plurality of imaging devices 100 , foreground extraction devices 150 , 3D model generation devices 200 , storage devices 300 , virtual viewpoint image generation devices 400 , and virtual viewpoint path generation devices 500 . It also has a virtual viewpoint image display device 600 and a three-dimensional model selection device 700 .

撮像装置100は、画像(動画)を撮像するデジタルビデオカメラなどの装置である。撮像装置100は、複数配置されており、例えばGPSまたは外部同期信号等を受けて全台の撮像装置100が同じ時刻で撮像を行う。撮像装置100は、画像に加えて、音声、その他センサ情報をキャプチャリングする装置でもよい。 The imaging device 100 is a device such as a digital video camera that captures images (moving images). A plurality of image capturing apparatuses 100 are arranged, and all the image capturing apparatuses 100 perform image capturing at the same time, for example, by receiving GPS or an external synchronization signal. The imaging device 100 may be a device that captures sound and other sensor information in addition to images.

図2は、撮像装置100の配置を説明するための図である。スタジオ10は、仮想視点画像を生成するための撮像画像を得るために、撮像装置100が撮像を行う施設である。本実施形態では、スタジオに、撮像装置100を含めた画像処理システムを構築するものとして説明するが、画像処理システムを構築する場所はスタジオに限定するわけではなく、スタジアムやアリーナ等でもよい。 FIG. 2 is a diagram for explaining the arrangement of the imaging device 100. As shown in FIG. The studio 10 is a facility in which the imaging device 100 performs imaging in order to obtain a captured image for generating a virtual viewpoint image. In this embodiment, the image processing system including the imaging device 100 is constructed in a studio, but the location for constructing the image processing system is not limited to the studio, and may be a stadium, an arena, or the like.

スタジオ10には、オブジェクトとして演者80および黒子(黒衣)51が存在するものとして説明する。演者80は、仮想視点画像内で描画されるオブジェクトである。演者80のようなオブジェクトは人に限定されるわけではなく、動物や、動かない物体でもよい。黒子51は、スタジオ内にいるカメラマン、スタッフ等の人物である。黒子51は、仮想視点画像内には表示されるように設定されるか、または表示されないように設定されるオブジェクトであるものとして説明する。黒子51のようなオブジェクトは、人に限定されるわけではなく、動物や、動かない物体でもよい。 It is assumed that the studio 10 has a performer 80 and a kuroko (kuromo) 51 as objects. A performer 80 is an object rendered in the virtual viewpoint image. An object such as the performer 80 is not limited to a person, and may be an animal or an immobile object. Kuroko 51 is a person such as a cameraman or staff in the studio. The mole 51 will be described as an object that is set to be displayed or not to be displayed in the virtual viewpoint image. Objects such as the mole 51 are not limited to humans, and may be animals or non-moving objects.

本実施形態の複数の撮像装置100は、スタジオ10内に設置され、主に、レンダリングエリア20を撮像するように配置されている。図2では、撮像装置100は14台設置している例を示しているが、撮像装置100の台数は14台に限定されない。 A plurality of imaging devices 100 according to the present embodiment are installed in the studio 10 and arranged so as to mainly capture images of the rendering area 20 . FIG. 2 shows an example in which 14 imaging devices 100 are installed, but the number of imaging devices 100 is not limited to 14 units.

レンダリングエリア20は、スタジオ10内の空間のうち、仮想視点画像が生成可能な空間であり描画空間とも記す。図2の場合は、レンダリングエリア20に存在する演者80は、仮想視点画像内に表示され得る。一方、レンダリングエリア20の外側の黒子51は、図2の場合は、仮想視点画像には表示されることはない。 The rendering area 20 is a space within the studio 10 in which a virtual viewpoint image can be generated, and is also referred to as a drawing space. In the case of FIG. 2, the performer 80 present in the rendering area 20 can be displayed within the virtual viewpoint image. On the other hand, moles 51 outside the rendering area 20 are not displayed in the virtual viewpoint image in the case of FIG.

トラッキングエリア30は、画像処理システムがスタジオ10に存在するオブジェクトである演者80および黒子51をトラッキングして夫々の位置を取得することが可能となるエリアである。トラッキングエリア30の外側にあるオブジェクトの位置はトラッキングされない。 The tracking area 30 is an area where the image processing system can track the performer 80 and the black child 51, which are objects existing in the studio 10, and obtain their respective positions. Object positions outside the tracking area 30 are not tracked.

本実施形態では、図2では、スタジオ10、トラッキングエリア30、レンダリングエリア20の大きさは、スタジオ10>トラッキングエリア30>レンダリングエリア20として図示している。他にも、スタジオ10、トラッキングエリア30、レンダリングエリア20の大きさは同じでもよい。 In this embodiment, the sizes of the studio 10, the tracking area 30, and the rendering area 20 are illustrated as studio 10>tracking area 30>rendering area 20 in FIG. Alternatively, the size of studio 10, tracking area 30, and rendering area 20 may be the same.

図1に戻りシステム構成の説明を続ける。前景抽出装置150は、撮像装置100が撮像して得られた撮像画像および当該撮像画像を撮像した時の時刻情報であるタイムコードを取得し、取得した撮像画像に対して画像処理を行う装置である。前景抽出装置150は、取得した撮像画像からオブジェクトを表す領域を前景領域として抽出する処理を実行する。具体的には、撮像画像に含まれる前景領域と非前景領域とを二値で示したシルエット画像を生成する。また、前景のテクスチャ画像を生成する。前景のシルエット画像とテクスチャ画像とをまとめて前景データと呼ぶことがある。前景は、撮像画像におけるオブジェクトが存在する画像領域を指す。どのようなオブジェクトを前景として抽出すべきかについては、ユーザ等が予め指定することができる。 Returning to FIG. 1, the description of the system configuration is continued. The foreground extraction device 150 is a device that acquires a captured image obtained by imaging by the imaging device 100 and a time code that is time information when the captured image was captured, and performs image processing on the acquired captured image. be. The foreground extraction device 150 executes a process of extracting an area representing an object from the acquired captured image as a foreground area. Specifically, a silhouette image is generated in which a foreground area and a non-foreground area included in the captured image are indicated in binary. It also generates a foreground texture image. A foreground silhouette image and a texture image are sometimes collectively referred to as foreground data. Foreground refers to the image area in which the object exists in the captured image. A user or the like can specify in advance what kind of object should be extracted as the foreground.

撮像画像から前景を抽出する方法としては、例えば、背景差分情報を用いる方法がある。この方法は、オブジェクトが存在しないスタジオを撮像して得られた撮像画像を背景画像として予め保持しておく。そして、撮像画像と背景画像との画素値の差分値が閾値より大きい領域を前景と判定する方法である。なお、前景を抽出する方法は背景差分情報を用いる方法に限られない。他にも、視差を用いる方法、特徴量を用いる方法、または機械学習を用いる方法などが用いられてもよい。生成された前景データは三次元モデル生成装置200へ出力される。 As a method for extracting the foreground from the captured image, for example, there is a method using background difference information. In this method, a captured image obtained by capturing a studio in which no object exists is stored in advance as a background image. Then, an area in which the difference value between the pixel values of the captured image and the background image is larger than a threshold value is determined as the foreground. Note that the method for extracting the foreground is not limited to the method using background difference information. Alternatively, a method using parallax, a method using feature amount, a method using machine learning, or the like may be used. The generated foreground data is output to the 3D model generation device 200 .

なお、本実施形態では、前景抽出装置150と撮像装置100とは異なる装置であるものとして説明するが、前景抽出装置150と撮像装置100とは一体型の装置でもよい。または夫々の機能ブロックが、別の装置に備えられていてもよい。 In this embodiment, the foreground extraction device 150 and the imaging device 100 are described as being different devices, but the foreground extraction device 150 and the imaging device 100 may be an integrated device. Alternatively, each functional block may be provided in another device.

三次元モデル生成装置200は、PC、ワークステーション、サーバなどのコンピュータなどで実現される装置である。三次元モデル生成装置200は、前景抽出装置150から、処理対象のタイムコードの前景データおよび撮像装置100のカメラパラメータを取得し、レンダリングエリア20の内側にいるオブジェクトの三次元形状を表す三次元モデルを生成する。三次元モデルのデータを三次元形状データとも呼ぶ。 The three-dimensional model generation device 200 is a device implemented by a computer such as a PC, workstation, or server. The 3D model generation device 200 acquires the foreground data of the time code to be processed and the camera parameters of the imaging device 100 from the foreground extraction device 150, and obtains the 3D model representing the 3D shape of the object inside the rendering area 20. to generate Three-dimensional model data is also called three-dimensional shape data.

カメラパラメータは、撮像装置100それぞれの世界座標上の三次元位置、姿勢(撮像装置の向き)、焦点距離、主点(撮像画像上の中心)を表すパラメータが含まれる。カメラパラメータはあらかじめ撮像装置100の位置を校正するための校正パターンを撮像し、校正パターンを基準として定義される三次元座標と二次元のカメラ座標との座標変換を行うことにより測定、算出されているものとする。 The camera parameters include parameters representing the three-dimensional position, orientation (orientation of the imaging device), focal length, and principal point (center on the captured image) of each imaging device 100 on the world coordinates. The camera parameters are measured and calculated by taking an image of a calibration pattern for calibrating the position of the imaging device 100 in advance, and performing coordinate conversion between the three-dimensional coordinates defined on the basis of the calibration pattern and the two-dimensional camera coordinates. It is assumed that there is

三次元モデル生成装置200は、オブジェクトの三次元モデルの生成手法であるVisualHullを用いて三次元モデルを生成するものとして説明する。VisualHullは、撮像装置の光学主点位置から前景領域の輪郭上の各点を通すように、三次元空間中に広がる錐体を求め、各撮像装置に対応する錐体領域の共通部分を三次元モデルとする方法である。演算アルゴリズムとして例えば、VIM(Volume intersection method)、およびSCM(Space carving method)がある。SCMでは、三次元空間を微小な立方体で満たし、三次元空間中の個々の立方体を、各々の撮像装置100の平面に逆投影する。そして、全ての撮像装置100の前景のシルエットの内部に逆投影される立方体は前景として残し、それ以外の立方体は削除することで三次元モデルを生成する。三次元空間中の個々の立方体を一般的にボクセルと呼び、VisualHullにおいて前景のことをシルエットと呼ぶ。 The 3D model generation device 200 will be described as generating a 3D model using VisualHull, which is a method for generating a 3D model of an object. VisualHull obtains a cone extending in three-dimensional space so as to pass each point on the contour of the foreground area from the optical principal point position of the imaging device, and extracts the common portion of the cone area corresponding to each imaging device in three dimensions. It is a method of modeling. Examples of calculation algorithms include VIM (Volume intersection method) and SCM (Space carving method). In SCM, a three-dimensional space is filled with tiny cubes, and each individual cube in the three-dimensional space is back-projected onto the plane of each imaging device 100 . Then, a three-dimensional model is generated by leaving cubes back-projected inside the foreground silhouettes of all imaging devices 100 as the foreground and deleting other cubes. Individual cubes in three-dimensional space are generally called voxels, and the foreground in VisualHull is called a silhouette.

生成された三次元モデルのデータである三次元形状データは、例えば三次元空間上のボクセルの集合である点群フォーマットとしてストレージ装置300に出力される。なお、本実施形態では三次元モデルを点群フォーマットとして出力するものとして説明するが、三次元モデルのフォーマットを限定するわけではなく、他にもメッシュフォーマットなど他の異なるフォーマットで三次元モデルが出力されてもよい。三次元モデルは付与された識別子と、位置情報とが対応付けられて出力される。 The 3D shape data, which is the data of the generated 3D model, is output to the storage device 300 as a point cloud format, which is a set of voxels in a 3D space, for example. In this embodiment, it is assumed that the 3D model is output as a point group format, but the format of the 3D model is not limited, and the 3D model can also be output in a different format such as a mesh format. may be A three-dimensional model is output in association with the given identifier and the positional information.

位置情報は、演者80や黒子51に付けたRFIDやGPS等の無線タグを用いて取得された位置情報でもよいし、または、トラッキングエリア30における世界座標上の三次元位置の座標情報でもよい。三次元モデルに対応付けられた位置情報を、三次元モデルの位置情報と記す。このように、三次元モデル(オブジェクト)の位置情報はトラッキングされていることから、三次元モデル生成装置200は、同一オブジェクトの三次元モデルには同一の識別子を付与することができる。 The position information may be position information acquired using a wireless tag such as RFID or GPS attached to the performer 80 or the black child 51, or may be coordinate information of a three-dimensional position on the world coordinates in the tracking area 30. Positional information associated with the three-dimensional model is referred to as positional information of the three-dimensional model. Since the positional information of the 3D model (object) is tracked in this way, the 3D model generation device 200 can assign the same identifier to the 3D model of the same object.

そして、三次元モデル生成装置200は、三次元モデルの生成に用いた複数の撮像画像に対応するタイムコードと、複数の撮像装置100の夫々に対応するシルエット画像およびテクスチャ画像(前景データ)と、を出力する。さらに、識別子が付与された三次元モデル(三次元形状データ)と、三次元モデルおよび識別子に対応付けられた位置情報(三次元モデルの位置情報)と、をストレージ装置300に出力する。 Then, the three-dimensional model generating device 200 generates time codes corresponding to the plurality of captured images used to generate the three-dimensional model, silhouette images and texture images (foreground data) corresponding to each of the plurality of imaging devices 100, to output Furthermore, the three-dimensional model to which the identifier is assigned (three-dimensional shape data) and positional information (positional information of the three-dimensional model) associated with the three-dimensional model and the identifier are output to the storage device 300 .

ストレージ装置300は、PC、ワークステーション、サーバなどのコンピュータなどの装置である。三次元モデル生成装置200によって生成された点群フォーマットデータである三次元モデル、夫々の三次元モデルの識別子、三次元モデルの位置情報、タイムコード、前景抽出装置150が生成した前景データを記憶する機能を有する。 The storage device 300 is a device such as a computer such as a PC, workstation, or server. Stores the 3D model, which is point group format data generated by the 3D model generation device 200, the identifier of each 3D model, the position information of the 3D model, the time code, and the foreground data generated by the foreground extraction device 150. have a function.

なお、本実施形態では、ストレージ装置300の記憶部301(図4参照)で三次元モデル生成装置200から出力されるデータを記憶するものとして説明する。他の形態として、三次元モデル生成装置200は仮想視点画像生成装置400にデータを直接出力してもよい。この場合、画像処理システムは、ストレージ装置300を有しない構成でもよい。 In this embodiment, the storage unit 301 (see FIG. 4) of the storage device 300 stores the data output from the three-dimensional model generation device 200. FIG. Alternatively, the 3D model generation device 200 may directly output data to the virtual viewpoint image generation device 400 . In this case, the image processing system may be configured without the storage device 300 .

仮想視点パス生成装置500は、PC、ワークステーション、サーバなどのコンピュータなどによって実現される装置である。仮想視点パス生成装置500は、仮想視点画像を生成するための仮想カメラの情報である仮想視点パス情報を作成する装置である。仮想視点パス情報には、フレームごとの仮想カメラの位置、向き、および画角、仮想カメラの移動スピード、再生速度などのデータが含まれる。仮想視点パス生成装置500は、生成した仮想視点パス情報を仮想視点画像生成装置400に出力する。 The virtual viewpoint path generation device 500 is a device realized by a computer such as a PC, workstation, server, or the like. The virtual viewpoint path generation device 500 is a device that generates virtual viewpoint path information, which is virtual camera information for generating a virtual viewpoint image. The virtual viewpoint path information includes data such as the position, orientation, and angle of view of the virtual camera for each frame, the movement speed of the virtual camera, and the playback speed. The virtual viewpoint path generation device 500 outputs the generated virtual viewpoint path information to the virtual viewpoint image generation device 400 .

三次元モデル選択装置700は、PC、ワークステーション、サーバなどのコンピュータでありUIを具備する装置である。ユーザの指示に基づき、トラッキングエリア30内にいるオブジェクトの表示情報(表示形態情報ともいう)の設定を行う。表示情報については後述する。 The three-dimensional model selection device 700 is a computer such as a PC, workstation, or server, and is a device having a UI. Based on the user's instruction, the display information (also referred to as display form information) of the object in the tracking area 30 is set. Display information will be described later.

仮想視点画像生成装置400は、PC、ワークステーション、サーバなどのコンピュータで実現される装置である。ストレージ装置300に記憶されている点群フォーマットのデータである三次元モデル、シルエット画像およびテクスチャ画像(前景データ)、仮想視点パス生成装置500が生成する仮想視点パス情報、ならびに指定されたタイムコードを取得する。そして、仮想視点画像生成装置400は、取得したデータに基づきレンダリングエリア20の内側にある点群フォーマットの三次元モデルにレンダリング処理等を実行することで仮想視点画像を生成する。詳細は後述する。 The virtual viewpoint image generation device 400 is a device implemented by a computer such as a PC, workstation, or server. The three-dimensional model, the silhouette image, and the texture image (foreground data), which are point cloud format data stored in the storage device 300, the virtual viewpoint path information generated by the virtual viewpoint path generation device 500, and the specified time code. get. Then, the virtual viewpoint image generation device 400 generates a virtual viewpoint image by executing rendering processing or the like on the three-dimensional model in the point group format inside the rendering area 20 based on the acquired data. Details will be described later.

仮想視点画像表示装置600は、液晶モニタや、プロジェクタなどで実現され、仮想視点画像を表示するモニタである。 The virtual viewpoint image display device 600 is implemented by a liquid crystal monitor, a projector, or the like, and is a monitor that displays a virtual viewpoint image.

三次元モデル生成装置200、前景抽出装置150、ストレージ装置300、仮想視点画像生成装置400、仮想視点パス生成装置500、三次元モデル選択装置700はLANネットワークを介して接続されている。本実施形態のネットワークトポロジはデイジーチェーン接続であるが、ネットワークトポロジはデイジーチェーン接続に限定されるものではない。他にも、Hubなどの中継装置を介した、スター、バス、メッシュ型接続でもよい。また、接続方法は、LANネットワークだけではなく、他の有線接続、無線LAN、公衆無線、インターネットを介してもよい。また、画像伝送用のインターフェースであるSDI(Serial Digital Interface)、またはDVI(Digital Visual Interface)等でもよい。 The 3D model generation device 200, the foreground extraction device 150, the storage device 300, the virtual viewpoint image generation device 400, the virtual viewpoint path generation device 500, and the 3D model selection device 700 are connected via a LAN network. Although the network topology of this embodiment is daisy chain connection, the network topology is not limited to daisy chain connection. Alternatively, a star, bus, or mesh type connection via a relay device such as a Hub may be used. Moreover, the connection method is not limited to the LAN network, but may be via another wired connection, wireless LAN, public radio, or the Internet. Also, SDI (Serial Digital Interface) or DVI (Digital Visual Interface), which is an interface for image transmission, may be used.

[ハードウエア構成]
図3は仮想視点画像生成装置400のハードウエア構成を示す図である。なお、前景抽出装置150、三次元モデル生成装置200、仮想視点パス生成装置500、および三次元モデル選択装置700のハードウエア構成も、以下で説明する仮想視点画像生成装置400の構成と同様である。
[Hardware configuration]
FIG. 3 is a diagram showing the hardware configuration of the virtual viewpoint image generation device 400. As shown in FIG. The hardware configuration of the foreground extraction device 150, the 3D model generation device 200, the virtual viewpoint path generation device 500, and the 3D model selection device 700 is also the same as the configuration of the virtual viewpoint image generation device 400 described below. .

仮想視点画像生成装置400は、CPU311、ROM312、RAM313、補助記憶装置314、表示部315、操作部316、通信I/F317、及びバス318を有する。 The virtual viewpoint image generation device 400 has a CPU 311 , a ROM 312 , a RAM 313 , an auxiliary storage device 314 , a display section 315 , an operation section 316 , a communication I/F 317 and a bus 318 .

CPU311は、ROM312やRAM313に格納されているコンピュータプログラムやデータを用いて仮想視点画像生成装置400の全体を制御することで、後述する図4に示す仮想視点画像生成装置400の各機能を実現する。なお、仮想視点画像生成装置400はCPU311とは異なる1又は複数の専用のハードウエアを有し、CPU311による処理の少なくとも一部を専用のハードウエアが実行してもよい。専用のハードウエアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。 The CPU 311 controls the entire virtual viewpoint image generation device 400 using computer programs and data stored in the ROM 312 and the RAM 313, thereby realizing each function of the virtual viewpoint image generation device 400 shown in FIG. . Note that the virtual viewpoint image generation device 400 may have one or a plurality of dedicated hardware different from the CPU 311 , and at least part of the processing by the CPU 311 may be executed by the dedicated hardware. Examples of dedicated hardware include ASICs (Application Specific Integrated Circuits), FPGAs (Field Programmable Gate Arrays), and DSPs (Digital Signal Processors).

ROM312は、変更を必要としないプログラムなどを格納する。RAM313は、補助記憶装置314から供給されるプログラムやデータ、及び通信I/F317を介して外部から供給されるデータなどを一時記憶する。補助記憶装置314は、例えばハードディスクドライブ等で構成され、画像データや音声データなどの種々のデータを記憶する。 ROM 312 stores programs that do not require modification. The RAM 313 temporarily stores programs and data supplied from the auxiliary storage device 314, data supplied from the outside via the communication I/F 317, and the like. The auxiliary storage device 314 is composed of, for example, a hard disk drive or the like, and stores various data such as image data and audio data.

表示部315は、例えば液晶ディスプレイやLED等で構成され、ユーザが仮想視点画像生成装置400を操作するためのGUI(Graphical User Interface)などを表示する。操作部316は、例えばキーボードやマウス、ジョイスティック、タッチパネル等で構成され、ユーザによる操作を受けて各種の指示をCPU311に入力する。CPU311は、表示部315を制御する表示制御部、及び操作部316を制御する操作制御部として動作する。本実施形態では表示部315と操作部316とは仮想視点画像生成装置400の内部に存在するものとして説明するが、表示部315と操作部316との少なくとも一方が仮想視点画像生成装置400の外部の別の装置として存在していてもよい。 The display unit 315 is composed of, for example, a liquid crystal display, an LED, and the like, and displays a GUI (Graphical User Interface) for the user to operate the virtual viewpoint image generation device 400 and the like. An operation unit 316 is composed of, for example, a keyboard, a mouse, a joystick, a touch panel, and the like, and inputs various instructions to the CPU 311 in response to user operations. The CPU 311 operates as a display control unit that controls the display unit 315 and as an operation control unit that controls the operation unit 316 . In this embodiment, the display unit 315 and the operation unit 316 are described as existing inside the virtual viewpoint image generation device 400 . may exist as a separate device of

通信I/F317は、仮想視点画像生成装置400の外部の装置との通信に用いられる。例えば、仮想視点画像生成装置400が外部の装置と有線で接続される場合には、通信用のケーブルが通信I/F317に接続される。仮想視点画像生成装置400が外部の装置と無線通信する機能を有する場合には、通信I/F317はアンテナを備える。バス318は、仮想視点画像生成装置400の各部をつないで情報を伝達する。 A communication I/F 317 is used for communication with a device external to the virtual viewpoint image generation device 400 . For example, when the virtual viewpoint image generation device 400 is connected to an external device by wire, a communication cable is connected to the communication I/F 317 . If the virtual viewpoint image generation device 400 has a function of wirelessly communicating with an external device, the communication I/F 317 has an antenna. A bus 318 connects each unit of the virtual viewpoint image generation device 400 and transmits information.

[機能構成]
図4は、機能構成を示すブロック図である。図4を用いてストレージ装置300、仮想視点画像生成装置400の機能について説明する。
[Function configuration]
FIG. 4 is a block diagram showing the functional configuration. Functions of the storage device 300 and the virtual viewpoint image generation device 400 will be described with reference to FIG.

仮想視点画像生成装置400は、トラッキング情報取得部401、表示情報設定部402、表示情報管理部403、および仮想視点画像生成部404を有する。 The virtual viewpoint image generation device 400 has a tracking information acquisition unit 401 , a display information setting unit 402 , a display information management unit 403 and a virtual viewpoint image generation unit 404 .

トラッキング情報取得部401は、ストレージ装置300の記憶部301に記憶されている三次元モデルの位置情報を取得する。 A tracking information acquisition unit 401 acquires position information of a three-dimensional model stored in the storage unit 301 of the storage device 300 .

表示情報設定部402は、三次元モデルの位置情報等に基づき表示情報を設定する。表示情報の設定方法については後述する。本実施形態において設定可能な仮想視点画像におけるオブジェクトの表示態様は、通常レンダリング表示または透過表示とする。なお、設定可能な表示態様は通常レンダリング表示または透過表示に限定されない。ほかにも、オブジェクトに代えてアバターを表示、半透明表示、モザイク表示、シルエット表示が含まれていてもよい。また、オブジェクトにアノテーション表示を設定可能にしてもよい。 A display information setting unit 402 sets display information based on the positional information of the three-dimensional model. A method of setting display information will be described later. The display mode of the object in the virtual viewpoint image that can be set in this embodiment is normal rendering display or transparent display. Note that the display mode that can be set is not limited to normal rendering display or transparent display. In addition, avatar display, semi-transparent display, mosaic display, and silhouette display may be included instead of the object. Also, annotation display may be settable for objects.

表示情報管理部403は、夫々の三次元モデル(オブジェクト)の表示情報を登録する。具体的には、表示情報設定部402が設定した三次元モデル(オブジェクト)の表示情報、またはユーザが設定した三次元モデルの表示情報を、三次元モデルと対応付けて記憶することで、夫々のオブジェクトに夫々の表示情報を対応付けて管理する。また、表示情報管理部403は、表示情報を変更した時のタイムコードを管理する。表示情報管理部403は、表示情報の変更履歴を管理してもよい。 The display information management unit 403 registers display information of each three-dimensional model (object). Specifically, by storing the display information of the three-dimensional model (object) set by the display information setting unit 402 or the display information of the three-dimensional model set by the user in association with the three-dimensional model, each Each display information is associated with an object and managed. Also, the display information management unit 403 manages the time code when the display information is changed. The display information management unit 403 may manage the change history of display information.

仮想視点画像生成部404は、仮想視点パス生成装置500から受け取った仮想視点の位置、仮想視点に対応する画角に基づく仮想視点画像を生成する。具体的には、表示情報管理部403で管理しているオブジェクトに対応付けられた表示情報の表示態様で、それぞれのオブジェクトが仮想視点画像上で表されるように、レンダリングエリア20の内側にあるオブジェクトの三次元モデルに対して処理を行う。詳細は、フローチャートを用いて説明する。 The virtual viewpoint image generation unit 404 generates a virtual viewpoint image based on the position of the virtual viewpoint received from the virtual viewpoint path generation device 500 and the angle of view corresponding to the virtual viewpoint. Specifically, in the display mode of the display information associated with the objects managed by the display information management unit 403, each object is displayed inside the rendering area 20 on the virtual viewpoint image. Work on the 3D model of the object. Details will be described using a flowchart.

上述した各機能部は、仮想視点画像生成装置400のCPU311が所定のプログラムを実行することにより実現されるが、これに限られるものではない。他にも例えば、演算を高速化するためのGPU(Graphics Processing Unit)、または、FPGA(Field Programmable Gate Array)などのハードウエアが利用されてもよい。各機能部は、ソフトウエアと専用ICなどのハードウエアとの協働で実現されてもよいし、一部またはすべての機能がハードウエアのみで実現されてもよい。 Each of the functional units described above is realized by executing a predetermined program by the CPU 311 of the virtual viewpoint image generation device 400, but is not limited to this. In addition, for example, hardware such as GPU (Graphics Processing Unit) or FPGA (Field Programmable Gate Array) for speeding up calculation may be used. Each functional unit may be implemented by cooperation of software and hardware such as a dedicated IC, or a part or all of the functions may be implemented by hardware alone.

ストレージ装置300は、記憶部301を有する。記憶部301は、三次元モデル生成装置200が出力した三次元モデルおよび、三次元モデルの位置情報を関連付けて記憶する機能を有する。記憶部301は例えば、揮発性メモリ、ハードディスク、SSDのいずれかで実現される。 The storage device 300 has a storage unit 301 . The storage unit 301 has a function of associating and storing the three-dimensional model output by the three-dimensional model generation device 200 and the positional information of the three-dimensional model. The storage unit 301 is implemented by, for example, a volatile memory, hard disk, or SSD.

なお、図4の各部の機能は、上記で説明した各装置において実現されるものとして説明するが、各部の機能が実現される装置は限定されない。例えば、三次元モデル生成装置200が、上記に示した機能の全てを有している形態でもよい。または、三次元モデル生成装置200または仮想視点画像生成装置400が記憶部301を有していてもよく、その場合、ストレージ装置300を介さないで、三次元モデル生成装置200と仮想視点画像生成装置400とが接続されていてもよい。 Note that the function of each unit in FIG. 4 is described as being implemented by each device described above, but the device that implements the function of each unit is not limited. For example, the 3D model generation device 200 may have all of the functions described above. Alternatively, the 3D model generation device 200 or the virtual viewpoint image generation device 400 may have the storage unit 301 . 400 may be connected.

[仮想視点画像生成処理のフロー]
図5は、仮想視点画像の生成処理の一例を説明するためのフローチャートである。図5のフローチャートで示される一連の処理は、仮想視点画像生成装置400のCPU311がROM312に記憶されているプログラムコードをRAM313に展開し実行することにより行われる。また、図5におけるステップの一部または全部の機能をASICや電子回路等のハードウエアで実現してもよい。なお、各処理の説明における記号「S」は、当該フローチャートにおけるステップであることを意味する。
[Flow of Virtual Viewpoint Image Generation Processing]
FIG. 5 is a flowchart for explaining an example of processing for generating a virtual viewpoint image. A series of processes shown in the flowchart of FIG. 5 are performed by the CPU 311 of the virtual viewpoint image generation device 400 developing the program code stored in the ROM 312 in the RAM 313 and executing the program code. Also, some or all of the functions of the steps in FIG. 5 may be realized by hardware such as ASIC and electronic circuits. Note that the symbol "S" in the description of each process means a step in the flowchart.

仮想視点画像生成部404は、仮想視点パス生成装置500から1フレームごとに仮想視点画像の生成指示を受けることによって1フレーム分の仮想視点画像の生成を実行する。S501~504は1フレーム分の仮想視点画像の生成処理である。仮想視点パス生成装置500がタイムコードを時系列で指定することにより、時系列の仮想視点画像が生成され出力されることで動画像の仮想視点画像が仮想視点画像表示装置600に表示される。なお、タイムコードは時系列だけではなく、逆再生、過去のタイムコードを指定されてもよい。 The virtual viewpoint image generation unit 404 executes the generation of the virtual viewpoint image for one frame by receiving a virtual viewpoint image generation instruction for each frame from the virtual viewpoint path generation device 500 . S501 to S504 are processing for generating a virtual viewpoint image for one frame. The virtual viewpoint path generation device 500 designates the time code in chronological order to generate and output time-series virtual viewpoint images, thereby displaying the virtual viewpoint images of the moving images on the virtual viewpoint image display device 600 . Note that the time code may be specified not only in chronological order, but also in reverse playback or in the past.

S501において仮想視点画像生成部404は、生成対象のフレームにおける仮想カメラの情報(仮想カメラの位置、向き、および画角)、およびタイムコードを仮想視点パス生成装置500から取得する。例えば、仮想視点画像生成部404は、仮想視点パス情報を仮想視点パス生成装置500から取得することで、仮想視点画像の生成対象のフレームの仮想カメラの情報が取得される。 In S<b>501 , the virtual viewpoint image generation unit 404 acquires the virtual camera information (the position, orientation, and angle of view of the virtual camera) and the time code in the generation target frame from the virtual viewpoint path generation device 500 . For example, the virtual viewpoint image generation unit 404 acquires the virtual camera information of the frame for which the virtual viewpoint image is to be generated by acquiring the virtual viewpoint path information from the virtual viewpoint path generation device 500 .

S502において仮想視点画像生成部404は、S501で取得した仮想カメラの情報に基づき、ストレージ装置300から、生成対象のフレームに対応するデータを取得する。即ち、生成対象フレームにおける仮想カメラの画角に含まれるオブジェクトの、点群フォーマットの三次元モデル、シルエット画像、およびテクスチャ画像が取得される。 In S<b>502 , the virtual viewpoint image generation unit 404 acquires data corresponding to the frame to be generated from the storage device 300 based on the virtual camera information acquired in S<b>501 . That is, the three-dimensional model in the point cloud format, the silhouette image, and the texture image of the object included in the angle of view of the virtual camera in the generation target frame are acquired.

S503おいて仮想視点画像生成部404は、仮想カメラの画角に含まれるオブジェクトに対応付けられている表示情報のうち、生成対象のフレームのタイムコードに対応する表示情報を、表示情報管理部403から取得する。 In S<b>503 , the virtual viewpoint image generation unit 404 stores the display information corresponding to the time code of the frame to be generated, among the display information associated with the object included in the angle of view of the virtual camera, in the display information management unit 403 . Get from

S504において仮想視点画像生成部404は、生成対象フレームの仮想カメラの画角内に含まれる夫々のオブジェクトが、S503で取得した表示情報が示す表示態様で表されるように生成対象のフレームの仮想視点画像を生成する。具体的には、S502で取得した三次元モデルに対して、夫々の三次元モデルに対応付けられている表示情報に対応する処理を行う。 In S504, the virtual viewpoint image generating unit 404 generates a virtual view of the generation target frame so that each object included in the field angle of the virtual camera of the generation target frame is represented in the display mode indicated by the display information acquired in S503. Generate a viewpoint image. Specifically, processing corresponding to the display information associated with each three-dimensional model is performed on the three-dimensional model acquired in S502.

本実施形態では、仮想視点画像生成部404は、表示情報に基づき、通常レンダリング処理または透過処理を行う。オブジェクトの表示情報が通常レンダリング表示である場合、仮想視点画像生成部404は、当該オブジェクトの三次元モデルに対して通常レンダリング処理を実行する。通常レンダリング処理は、撮像画像のとおりに色付けを行う方法であり、点群フォーマットの三次元モデルに、テクスチャ画像に基づきテクスチャを投影して色付けを行う処理である。 In this embodiment, the virtual viewpoint image generation unit 404 performs normal rendering processing or transparency processing based on display information. If the display information of the object is normal rendering display, the virtual viewpoint image generating unit 404 executes normal rendering processing on the 3D model of the object. The normal rendering process is a method of coloring according to a captured image, and is a process of coloring by projecting a texture based on a texture image onto a three-dimensional model in a point group format.

オブジェクトの表示情報が透過表示である場合、仮想視点画像生成部404は、当該オブジェクトの三次元モデルに対して透過処理を実行する。透過処理は、オブジェクトの点群フォーマットの三次元モデルにテクスチャの投影を行わない処理である。透過処理が行われた場合、仮想視点画像には当該オブジェクトに対応する三次元モデルが表示されないように仮想視点画像上のオブジェクトを表現することができる。 When the display information of an object is transparent display, the virtual viewpoint image generation unit 404 executes transparent processing on the three-dimensional model of the object. Transparency processing is processing that does not project textures onto a point cloud format three-dimensional model of an object. When transparency processing is performed, the object on the virtual viewpoint image can be represented so that the three-dimensional model corresponding to the object is not displayed in the virtual viewpoint image.

仮想視点画像生成部404は、S504の処理の結果を画像形式に変換して仮想視点画像表示装置600に出力する。出力する画像形式はDVIとするが、形式は問わない。DVIの他に、SDIや動画ファイルをネットワーク上にストリーミング出力する方式等がある。なお、本実施形態では仮想視点画像表示装置600に出力しているが、ストレージ装置300に出力してもよい。 The virtual viewpoint image generation unit 404 converts the processing result of S504 into an image format and outputs the image format to the virtual viewpoint image display device 600 . The image format to be output is DVI, but any format is acceptable. In addition to DVI, there are methods such as SDI and streaming output of moving image files on a network. It should be noted that although the image is output to the virtual viewpoint image display device 600 in this embodiment, it may be output to the storage device 300 .

S505において仮想視点画像生成部404は、次フレームの仮想視点画像を生成するかを判定する。次フレームがあれば、S501に戻り1フレーム分の仮想視点画像の生成処理を繰り返す。 In S505, the virtual viewpoint image generation unit 404 determines whether to generate the virtual viewpoint image of the next frame. If there is a next frame, the process returns to S501 to repeat the generation processing of the virtual viewpoint image for one frame.

[表示情報の設定処理]
図6は、仮想視点画像生成装置400で実行される表示情報の設定処理を説明するためのフローチャートである。図6のフローチャートで示される一連の処理は、仮想視点画像生成装置400のCPU311がROM312に記憶されているプログラムコードをRAM313に展開し実行することにより行われる。また、図6におけるステップの一部または全部の機能をASICや電子回路等のハードウエアで実現してもよい。
[Display information setting process]
FIG. 6 is a flowchart for explaining display information setting processing executed by the virtual viewpoint image generation device 400 . A series of processes shown in the flowchart of FIG. 6 are performed by the CPU 311 of the virtual viewpoint image generation device 400 developing the program code stored in the ROM 312 in the RAM 313 and executing the program code. Also, some or all of the functions of the steps in FIG. 6 may be realized by hardware such as ASIC and electronic circuits.

図6のフローチャートで示す表示情報の設定処理は、図5のフローチャートで示した仮想視点画像の生成処理と並行して行われるものとして説明する。例えば、ある1フレーム分の仮想視点画像を生成する場合、図5のフローチャートでは生成対象のフレームの三次元モデルが取得される。一方、図6のフローチャートの処理では後述するように生成対象のフレームにおける三次元モデルの位置情報が取得される。他にも、図6のフローチャートの処理が図5のフローチャートで示した仮想視点画像の生成処理の前に行われていてもよい。 The display information setting process shown in the flowchart of FIG. 6 will be described as being performed in parallel with the virtual viewpoint image generation process shown in the flowchart of FIG. For example, when generating a virtual viewpoint image for one frame, a three-dimensional model of the frame to be generated is acquired in the flowchart of FIG. On the other hand, in the process of the flowchart of FIG. 6, the position information of the 3D model in the frame to be generated is acquired as will be described later. Alternatively, the process of the flowchart of FIG. 6 may be performed before the virtual viewpoint image generation process shown in the flowchart of FIG.

S601においてトラッキング情報取得部401は、三次元モデル生成装置200が設定した三次元モデル(オブジェクト)を識別するそれぞれの識別子および、識別子に対応付けられた三次元モデルの位置情報を、ストレージ装置300から取得する。 In S<b>601 , the tracking information acquisition unit 401 retrieves each identifier for identifying the three-dimensional model (object) set by the three-dimensional model generation device 200 and the position information of the three-dimensional model associated with the identifier from the storage device 300 . get.

S602において表示情報設定部402は、S601で取得したオブジェクトごとの三次元モデルの位置情報に基づき、オブジェクトの表示情報を、オブジェクトごとに設定する。本ステップによる表示情報の設定の方法については後述する。 In S602, the display information setting unit 402 sets display information for each object based on the position information of the three-dimensional model of each object acquired in S601. A method of setting display information in this step will be described later.

S603において表示情報管理部403は、S602の処理の結果、管理している表示情報が変更された場合、オブジェクトに対応付けられた表示情報を、変更後の表示情報に更新する。具体的には、表示情報は、オブジェクトの三次元モデルと対応付けることで、オブジェクトと対応付けて管理されているため、三次元モデルに対応付けられた表示情報を更新する。また、表示情報管理部403は、表示情報を変更するタイミングを示す時刻情報としてタイムコードも併せて記録して管理する。なお、S603の処理は、図5のフローチャートのS503で仮想視点画像生成部404が表示情報を取得する前までに完了するように処理される。 In S603, when the managed display information is changed as a result of the process of S602, the display information management unit 403 updates the display information associated with the object to the changed display information. Specifically, the display information is managed in association with the object by associating it with the three-dimensional model of the object, so the display information associated with the three-dimensional model is updated. The display information management unit 403 also records and manages a time code as time information indicating the timing of changing the display information. Note that the processing of S603 is processed so as to be completed before the virtual viewpoint image generation unit 404 acquires the display information in S503 of the flowchart of FIG.

なお、ユーザが三次元モデル選択装置700を介して表示情報を設定していた場合は、ユーザの設定を優先してもよいし、本フローチャートで表示情報設定部402が実行した設定を優先してもよい。例えば、ユーザの設定と表示情報設定部402による設定とのどちらを優先するかを予め設定しておき、その設定に従って、表示情報が設定されてもよい。 If the user has set the display information via the 3D model selection device 700, the user's setting may be given priority, or the setting executed by the display information setting unit 402 in this flowchart may be given priority. good too. For example, it is possible to set in advance which of the user's setting and the setting by the display information setting unit 402 has priority, and display information may be set according to the setting.

S604において表示情報設定部402は、次フレームの仮想視点画像の生成指示がある否かを判定する。次フレームがある場合はS601に戻り、次フレームにおけるオブジェクトの表示情報の設定処理を続ける。 In S604, the display information setting unit 402 determines whether or not there is an instruction to generate a virtual viewpoint image of the next frame. If there is a next frame, the process returns to S601 to continue setting the display information of the object in the next frame.

図7は、S602における表示情報の設定処理を説明するための図である。図7を用いて、表示情報設定部402による表示情報の設定の方法の一例を説明する。なお、本実施形態では、平面の位置を座標(X,Y)で表す。また、高さを座標(Z)で表し、三次元空間上の位置を座標(X,Y,Z)で表すものとして説明する。 FIG. 7 is a diagram for explaining the display information setting process in S602. An example of a method for setting display information by the display information setting unit 402 will be described with reference to FIG. In this embodiment, the position of the plane is represented by coordinates (X, Y). Also, the description will be made assuming that the height is represented by coordinates (Z) and the position in the three-dimensional space is represented by coordinates (X, Y, Z).

図7のトラッキングエリア30は、平面が、座標(X,Y)=(0,0)の点Aと、座標(X,Y)=(100、50)の点Dと、で結ぶ線を対角線とする長方形である。また、トラッキングエリア30は、その高さが座標(Z)=(30)である直方体のエリア(空間)とする。 In the tracking area 30 of FIG. 7, the diagonal is a line connecting a point A with coordinates (X, Y)=(0, 0) and a point D with coordinates (X, Y)=(100, 50). is a rectangle with Also, the tracking area 30 is assumed to be a rectangular parallelepiped area (space) whose height is coordinate (Z)=(30).

図7のレンダリングエリア20は、平面が、座標(X,Y)=(10、10)の点Eと、座標(X,Y)=(90、40)の点Hと、で結ぶ線を対角線とする長方形である。また、レンダリングエリア20は、その高さが座標(Z)=(20)である直方体のエリア(空間)とする。 In the rendering area 20 of FIG. 7, the diagonal is a line connecting a point E with coordinates (X, Y)=(10, 10) and a point H with coordinates (X, Y)=(90, 40). is a rectangle with The rendering area 20 is assumed to be a rectangular parallelepiped area (space) whose height is coordinate (Z)=(20).

後述する第1の設定面720は、レンダリングエリア20内と外との境界面のうちの一部の領域であり、座標(20、10、10)の点Xと座標(30、10、0)の点Yとを結ぶ線を対角線とする長方形の領域である。レンダリングエリア20内と外との境界面のうち第1の設定面720の領域以外の境界面を第2の設定面とよぶ。図7に示す各エリアの大きさは一例であり、各エリアの大きさは図7に示すサイズに限定するわけではない。また、第1の設定面720は長方形であるが長方形に限定するわけでもない。三角形や多角形、円、任意の面でもよい。 A first set plane 720, which will be described later, is a partial area of the boundary plane between the inside and outside of the rendering area 20, and is a point X at coordinates (20, 10, 10) and a point X at coordinates (30, 10, 0). It is a rectangular area whose diagonal is a line connecting the point Y of . Of the boundary surfaces between the inside and outside of the rendering area 20, the boundary surface other than the area of the first setting surface 720 is called a second setting surface. The size of each area shown in FIG. 7 is an example, and the size of each area is not limited to the size shown in FIG. Also, although the first setting surface 720 is rectangular, it is not limited to being rectangular. Triangles, polygons, circles, or arbitrary faces are acceptable.

本実施形態では、表示情報設定部402は、三次元モデル(オブジェクト)の位置情報に基づき、オブジェクトがレンダリングエリア20に侵入した際の境界面を決定して、その境界面の位置に応じた表示態様を表示情報に設定する。 In this embodiment, the display information setting unit 402 determines the boundary surface when the object enters the rendering area 20 based on the position information of the three-dimensional model (object), and displays the image according to the position of the boundary surface. Set the mode to the display information.

オブジェクトが第1の設定面720を介してレンダリングエリア20に侵入した場合、そのオブジェクトに対応付けられた表示情報には、通常レンダリング処理によって仮想視点画像に表示されるように表示態様を設定する。即ち、そのオブジェクトの表示情報として通常レンダリング表示を設定する。 When an object enters the rendering area 20 via the first setting plane 720, the display mode is set so that the display information associated with the object is displayed in the virtual viewpoint image by normal rendering processing. That is, the normal rendering display is set as the display information of the object.

オブジェクトが第2の設定面(第1の設定面720以外の境界面)を介してレンダリングエリア20に侵入した場合、透過処理によって仮想視点画像に表示されるように、そのオブジェクトに対応する表示情報を設定する。即ち、そのオブジェクトの表示情報として透過表示を設定する。 When an object enters the rendering area 20 via a second setting plane (boundary plane other than the first setting plane 720), display information corresponding to the object is displayed in the virtual viewpoint image by transparency processing. set. That is, transparent display is set as the display information of the object.

例えば、図7では、黒子701はトラッキングエリア30から第1の設定面720を通ってレンダリングエリア20へ入っている。このため、表示情報設定部402は、通常レンダリング処理が行われるように黒子701に対応付けられている表示情報を設定する。一方、黒子702はトラッキングエリア30から第2の設定面(第1の設定面720以外の境界面)を通ってレンダリングエリア20へ入っている。このため、表示情報設定部402は、透過処理が行われるように黒子702に対応付けられている表示情報を設定する。 For example, in FIG. 7, mole 701 enters rendering area 20 from tracking area 30 through first set plane 720 . Therefore, the display information setting unit 402 sets display information associated with the mole 701 so that normal rendering processing is performed. On the other hand, the mole 702 enters the rendering area 20 from the tracking area 30 through the second setting plane (boundary plane other than the first setting plane 720). Therefore, the display information setting unit 402 sets display information associated with the mole 702 so that transparency processing is performed.

第1の設定面720および第2の設定面のサイズおよび位置は、図7に示す位置および大きさに限定されない。レンダリングエリア20とトラッキングエリア30との境界面のうちの任意の領域に第1の設定面および第2の設定面を設定してもよいし、第1の設定面を複数設定してもよい。また、第1の設定面720はレンダリングエリア20内と外との境界面のうちの一部の領域でなくてもよい。例えばレンダリングエリア20の中に第1の設定面を定義してもよい。 The size and position of the first setting surface 720 and the second setting surface are not limited to the positions and sizes shown in FIG. The first setting plane and the second setting plane may be set in an arbitrary area of the boundary plane between the rendering area 20 and the tracking area 30, or a plurality of first setting planes may be set. Also, the first setting plane 720 does not have to be a part of the boundary plane between the inside and outside of the rendering area 20 . For example, a first set plane may be defined within the rendering area 20 .

オブジェクトが第1の設定面720を介してレンダリングエリア20に侵入したかの判定方法は、例えば、オブジェクトの三次元モデルの全てが第1の設定面720を通った場合のみ、第1の設定面720を介してレンダリングエリア20に侵入したと判定する。または、三次元モデルの一部が第1の設定面720を通った場合、第1の設定面720を介してレンダリングエリア20に侵入したと判定してもよい。例えば、予め設定した三次元モデルの割合(例えば50%以上)が第1の設定面720を通った場合、第1の設定面720を介してレンダリングエリア20に侵入したと判定してもよい。 A method for determining whether an object has entered the rendering area 20 via the first setting plane 720 is, for example, only when the entire three-dimensional model of the object passes through the first setting plane 720. It is determined that the rendering area 20 has been entered via 720 . Alternatively, when a part of the three-dimensional model passes through the first setting plane 720 , it may be determined that it has entered the rendering area 20 through the first setting plane 720 . For example, when a preset percentage (for example, 50% or more) of the three-dimensional model passes through the first setting plane 720, it may be determined that the rendering area 20 has entered the rendering area 20 via the first setting plane 720.

または、第1の設定面720を通ったオブジェクトの表示情報として透過表示を設定して、第2の設定面を通ったオブジェクトの表示情報として通常レンダリング表示を設定してもよい。 Alternatively, transparent display may be set as the display information of the object passing through the first setting plane 720, and normal rendering display may be set as the display information of the object passing through the second setting plane.

また、あるオブジェクトが第1の設定面720を通った場合は、そのオブジェクトの表示情報として、現在設定されている表示態様から別の表示態様に変更してもよい。この場合、表示情報設定部402は、あるオブジェクトが第2の設定面を通った場合は、そのオブジェクトの表示情報を変更しなくてもよい。例えば、あるオブジェクトが、第1の設定面720を通る前は表示情報に通常レンダリング表示が設定されていた場合、第1の設定面720を通過後に透過表示に表示態様を変更して表示情報を設定してもよい。 Further, when a certain object passes through the first setting plane 720, the currently set display mode may be changed to another display mode as the display information of the object. In this case, the display information setting unit 402 does not have to change the display information of an object when the object passes through the second setting surface. For example, if normal rendering display is set in the display information of an object before passing through the first setting plane 720, the display mode is changed to transparent display after passing through the first setting plane 720, and the display information is displayed. May be set.

また、表示情報設定部402は、レンダリングエリア20からトラッキングエリア30に退出する際に通った境界面に基づき、退出したオブジェクトの表示情報の設定を行ってもよい。その場合、レンダリングエリア20から退出する際の第1の設定面と第2の設定面と、レンダリングエリア20に侵入する際の第1の設定面と第2の設定面と、はそれぞれ異なる位置およびサイズであってもよい。 Further, the display information setting unit 402 may set the display information of the object that has left the rendering area 20 based on the boundary surface that the object passed through when leaving the tracking area 30 . In that case, the first setting plane and the second setting plane when leaving the rendering area 20 and the first setting plane and the second setting plane when entering the rendering area 20 are different positions and It can be size.

図8は、レンダリングエリア20の境界面を介さずに新たに出現したオブジェクトに対応付ける表示情報を設定するための図である。 FIG. 8 is a diagram for setting display information associated with a newly appearing object without going through the boundary surface of the rendering area 20. In FIG.

黒子802の表示情報には透過表示が設定されているものとする。また、黒子802は、手に、例えばペットボトルの様な小物801を持っているとする。この場合、小物801は黒子802の一部として三次元モデルが生成されてもよく、小物801は黒子802の一部として黒子802と同様に透過表示がされる。 It is assumed that transparent display is set for the display information of the mole 802 . In addition, it is assumed that Kuroko 802 has an accessory 801 such as a plastic bottle in his hand. In this case, a three-dimensional model may be generated for the small item 801 as part of the mole 802 , and the small item 801 is displayed as a part of the mole 802 in a transparent manner in the same manner as the mole 802 .

黒子802が小物801を床に落とした場合、小物801は新たなオブジェクトの三次元モデルとして認識される。床に落ちた小物801を小物801aとして表す。小物801aの三次元モデルには、識別子が付与されて、表示情報が設定されて対応付けられる。このようにレンダリングエリア20に境界面を介さず新たなオブジェクトが出現して、三次元モデルが生成される場合がある。この場合は、三次元モデルの分離元の三次元モデル(オブジェクト)に対応付けられた表示情報を引き継いで、当該新たな三次元モデルの表示情報を設定する。図8の例では、小物801aの三次元モデルに対応付ける表示情報には、黒子802の表示情報として設定された透過表示が設定される。 When Kuroko 802 drops the small item 801 on the floor, the small item 801 is recognized as a three-dimensional model of a new object. A small object 801 that has fallen to the floor is represented as a small object 801a. An identifier is assigned to the three-dimensional model of the small article 801a, and display information is set and associated with the three-dimensional model. In this way, a new object may appear in the rendering area 20 without intervening a boundary surface, and a three-dimensional model may be generated. In this case, the display information associated with the 3D model (object) from which the 3D model is separated is taken over, and the display information of the new 3D model is set. In the example of FIG. 8, the transparent display set as the display information of the mole 802 is set as the display information associated with the three-dimensional model of the small item 801a.

一方、黒子802が小物801を、別のオブジェクトであるテーブル800に置いたとする。テーブル800に置かれた小物801を小物801bと表す。この場合、小物801bはテーブル800の一部のとして、テーブル800と一体で三次元モデルが生成されてもよい。オブジェクトが分離して別のオブジェクトの一部となって三次元モデルが生成された場合、結合先の三次元モデルに対応付けられた表示情報を引き継ぐように表示情報を設定してもよい。 On the other hand, it is assumed that Kuroko 802 puts the small article 801 on the table 800 which is another object. An accessory 801 placed on the table 800 is referred to as an accessory 801b. In this case, the accessory 801b may be a part of the table 800, and a three-dimensional model may be generated integrally with the table 800. FIG. When an object is separated and becomes a part of another object to generate a three-dimensional model, the display information may be set so as to take over the display information associated with the three-dimensional model to which it is combined.

テーブル800の表示情報として通常レンダリング表示が設定されているものとすると、テーブル800に結合した小物801bは通常レンダリング表示されるようにレンダリングされることになる。さらに、小物801bがテーブル800から落ちた場合、テーブル800から分離した小物801bを小物801cとして表すと、小物801cは、分離元であるテーブル800の表示形態を引き継ぐ。このため、小物801cの表示情報には、通常レンダリング表示が設定される。 Assuming that normal rendering display is set as the display information of the table 800, the accessory 801b coupled to the table 800 will be rendered as normal rendering display. Furthermore, when the small article 801b falls from the table 800, the small article 801b separated from the table 800 is represented as the small article 801c. Therefore, normal rendering display is set in the display information of the small article 801c.

なお、三次元モデル毎に重みづけを設定してもよい。そして、異なる表示態様が表示情報に設定されている複数の三次元モデルが結合した場合は、重みづけによってどちらのオブジェクトの表示形態を引き継ぐかを決定して、オブジェクトの表示情報を設定してもよい。 Note that weighting may be set for each three-dimensional model. Then, when a plurality of 3D models whose display modes are set in the display information are combined, the display mode of which object is to be inherited is determined by weighting, and the display information of the object is set. good.

なお、S602の表示情報の設定方法は、図7で説明した設定領域を用いた方法に限られない。次に、オブジェクトの位置情報に基づき表示情報を設定する他の方法を説明する。 Note that the method of setting the display information in S602 is not limited to the method using the setting area described with reference to FIG. Another method of setting display information based on object position information will now be described.

図9は、トラッキングエリア30内に設けられた表示情報の登録エリアによって三次元モデルの表示情報を設定する方法を説明するための図である。図9に示す表示情報の設定方法では、トラッキングエリア30内に、透過モデル登録エリア910、および描画モデル登録エリア920が設けられている。 FIG. 9 is a diagram for explaining a method of setting the display information of the three-dimensional model in the display information registration area provided in the tracking area 30. As shown in FIG. In the display information setting method shown in FIG. 9, a transparent model registration area 910 and a drawing model registration area 920 are provided in the tracking area 30 .

表示情報設定部402は、オブジェクトが予め設定した期間、透過モデル登録エリア910に存在した場合、そのオブジェクトの表示情報には透過表示を設定する。一方、表示情報設定部402は、オブジェクトが予め設定した期間、描画モデル登録エリア920に存在した場合、そのオブジェクトの表示情報には、通常レンダリング表示の設定をする。 When an object exists in the transparent model registration area 910 for a preset period of time, the display information setting unit 402 sets the display information of the object to transparent display. On the other hand, when an object exists in the drawing model registration area 920 for a preset period, the display information setting unit 402 sets the display information of the object to normal rendering display.

図9では、小物901は、透過モデル登録エリア910に置かれたため、表示情報に透過表示が設定されている。このためレンダリングエリア20に小物901が置かれても、小物901の三次元モデルには仮想視点画像生成部404によって透過処理される。小物902は、描画モデル登録エリア920に置かれたため、表示情報に通常レンダリング表示が設定されている。このためレンダリングエリア20に小物902が置かれると、小物902の三次元モデルには仮想視点画像生成部404によって通常レンダリング処理される。 In FIG. 9, since the accessory 901 is placed in the transparent model registration area 910, transparent display is set in the display information. Therefore, even if the small article 901 is placed in the rendering area 20 , the three-dimensional model of the small article 901 undergoes transparency processing by the virtual viewpoint image generation unit 404 . Since the accessory 902 is placed in the drawing model registration area 920, normal rendering display is set in the display information. Therefore, when the small article 902 is placed in the rendering area 20 , the three-dimensional model of the small article 902 is normally rendered by the virtual viewpoint image generation unit 404 .

図9では、透過モデル登録エリア910、および描画モデル登録エリア920は、レンダリングエリア20外に定義されている例を示しているが、レンダリングエリア20の中に定義してもよい。また、小物ではなく人物や動物など他の三次元モデルでも同様に処理される。 Although FIG. 9 shows an example in which the transparent model registration area 910 and the drawing model registration area 920 are defined outside the rendering area 20 , they may be defined within the rendering area 20 . In addition, other three-dimensional models such as people and animals are similarly processed instead of small objects.

また、表示情報に透過表示が設定されたため透過処理された小物901が、既に通常レンダリング表示が設定されたテーブル904の上に置かれた場合でも、小物901の表示情報は変更しなくてもよく、透過処理を継続させてもよい。同様に、表示情報に通常レンダリング表示が設定されたため通常レンダリング処理された小物902を既に透過表示が設定された黒子903が持った場合でも、小物902の表示情報は変更しなくてもよく、通常レンダリング処理を継続させてもよい。 Also, even if the small object 901 that has undergone transparent processing because the display information is set to transparent display is placed on the table 904 that has already been set to normal rendering display, the display information of the small object 901 does not need to be changed. , the transparency process may be continued. Similarly, even if a mole 903 that has already been set to transparent display holds the small object 902 that has undergone normal rendering processing because the normal rendering display has been set in the display information, the display information of the small object 902 does not need to be changed. Rendering may continue.

また、図9では、透過モデル登録エリア910、および描画モデル登録エリア920は、それぞれ1か所だけ設けられている例を図示しているが、複数個所、設けられてもしてもよい。 In addition, although FIG. 9 illustrates an example in which only one transmissive model registration area 910 and drawing model registration area 920 are provided, they may be provided in a plurality of places.

また、表示情報設定部402は、あるオブジェクトが所定の登録エリアに所定の期間、存在していた場合、現在設定されている表示態様から別の表示態様に変更するように、そのオブジェクトに対応付けられた表示情報を設定してもよい。例えば、ある表示情報に透過表示が設定されていたオブジェクトが、透過モデル登録エリア910に所定の期間、存在していた場合、通常レンダリング表示に表示態様を変更して表示情報を設定してもよい。 In addition, when an object exists in a predetermined registration area for a predetermined period of time, the display information setting unit 402 associates an object with the object so as to change the currently set display mode to another display mode. display information may be set. For example, if an object for which transparent display is set in certain display information exists in the transparent model registration area 910 for a predetermined period of time, the display mode may be changed to normal rendering display and the display information may be set. .

次に、S602の表示情報の設定方法として、図6、図9で説明したオブジェクトの位置情報に基づく方法以外の方法を説明する。 Next, as a method of setting display information in S602, a method other than the method based on the position information of the object described with reference to FIGS. 6 and 9 will be described.

図10は、三次元モデルから所定のジェスチャを検知して、ジェスチャに基づいて表示情報を設定する方法を説明するための図である。図10の黒子1001は手を開き横に振っている。表示情報設定部402は、手を開き横に振ったジェスチャを検知した場合、そのジェスチャを行ったオブジェクトの表示情報として通常レンダリング表示を設定する。このため、図1の黒子1001は、透過処理されていたが、通常レンダリング処理に変更されて表示されたことを示している。一方、黒子1002は、手を握った状態で縦に振っている。表示情報設定部402は、手を握って縦に振ったジェスチャを検知した場合、そのジェスチャを行ったオブジェクトの表示情報として透過表示を設定にする。このため、図10の黒子1002は、通常レンダリング処理されていたが、透過処理に変更されて仮想視点画像上に表現されたことを示している。 FIG. 10 is a diagram for explaining a method of detecting a predetermined gesture from a 3D model and setting display information based on the gesture. Kuroko 1001 in FIG. 10 is waving his hand to the side. When the display information setting unit 402 detects a gesture of opening the hand and waving it sideways, the display information setting unit 402 sets normal rendering display as the display information of the object that performed the gesture. For this reason, the mole 1001 in FIG. 1 has been subjected to transparency processing, but is displayed after being changed to normal rendering processing. On the other hand, Kuroko 1002 is shaking his hand while holding it. When the display information setting unit 402 detects a gesture of holding a hand and shaking it vertically, the display information setting unit 402 sets transparent display as the display information of the object that performed the gesture. For this reason, the mole 1002 in FIG. 10 has been normally rendered, but has been changed to transparent processing and represented on the virtual viewpoint image.

なお、表示情報を設定するためのジェスチャのパターンについては上記のパターンに限定するわけではなく、異なるジェスチャでもよい。例えばジャンプする、首をふる、回転するなど他のジェスチャでもよいし、複数のジェスチャを定義してもよい。ジェスチャは動作に限らず、手を挙げた状態など所定のポーズでもよい。また、複数のジェスチャの組み合わせによって表示形態を決定してもよい。 Note that the gesture pattern for setting display information is not limited to the above pattern, and a different gesture may be used. Other gestures, such as jumping, shaking the head, rotating, etc., may also be used, and multiple gestures may be defined. A gesture is not limited to an action, and may be a predetermined pose such as a raised hand. Also, the display mode may be determined by a combination of a plurality of gestures.

S602において表示情報設定部402が実行する表示情報の設定方法として、図7の設定面を用いる方法、図8の分離元の表示情報を引きつぐ方法、図9の登録エリアを設ける方法、図10のジェスチャに基づく方法を説明した。S602において表示情報設定部402は、図7から図10で説明した表示情報の設定方法のうちのいずれかの方法を選択して、表示情報を設定してもよいし、複数の手段を組み合わせて設定してもよい。 As the display information setting method executed by the display information setting unit 402 in S602, the method of using the setting surface of FIG. 7, the method of inheriting the display information of the separation source of FIG. 8, the method of providing the registration area of FIG. 9, and the method of FIG. described a gesture-based method for In S602, the display information setting unit 402 may set the display information by selecting one of the display information setting methods described with reference to FIGS. May be set.

以上説明したように本実施形態によれば、オブジェクトのそれぞれの表示情報を設定することができるため、演出に応じて、夫々のオブジェクトが所望の表示態様で表されるように仮想視点画像を生成することができる。 As described above, according to the present embodiment, display information for each object can be set, so that a virtual viewpoint image is generated so that each object is represented in a desired display mode in accordance with the rendering. can do.

なお、仮想カメラの画角内に表示情報が変更されたオブジェクトが存在すると、動画で仮想視点画像を表示した場合、突然、オブジェクトが出現したり消滅したりすることになる。このため、仮想カメラの画角内のオブジェクトの表示情報を変更すると、視聴者に違和感を与えてしまう虞がある。視聴者の違和感を抑制するため、表示情報が変更されるオブジェクトが映りこまないように、仮想視点画像生成部404は、仮想カメラの画角を変更し仮想視点画像を生成してもよい。 If an object whose display information has been changed exists within the angle of view of the virtual camera, the object suddenly appears or disappears when the virtual viewpoint image is displayed as a moving image. Therefore, if the display information of the object within the angle of view of the virtual camera is changed, the viewer may feel uncomfortable. In order to suppress the viewer's discomfort, the virtual viewpoint image generation unit 404 may change the angle of view of the virtual camera to generate the virtual viewpoint image so that the object whose display information is changed is not reflected.

例えば、仮想視点画像生成部404は、仮想視点パス生成装置500に表示情報が変更されるオブジェクトがいることを通知する。通知を受けた仮想視点パス生成装置500は、表示情報が変更されるオブジェクトが映りこまないように、仮想カメラの位置および方向を変更して、変更後の仮想カメラの情報を仮想視点画像生成部404に送信する。また、仮想視点パス生成装置500が表示情報の変更がされるオブジェクトが映りこまない画角の仮想カメラに変更するまで、仮想視点画像生成部404は、前のフレームから表示態様が変更されないように仮想視点画像の生成処理を実行してもよい。 For example, the virtual viewpoint image generation unit 404 notifies the virtual viewpoint path generation device 500 that there is an object whose display information is to be changed. Upon receiving the notification, the virtual viewpoint path generation device 500 changes the position and direction of the virtual camera so that the object whose display information is to be changed is not captured, and sends the changed virtual camera information to the virtual viewpoint image generation unit. 404. In addition, until the virtual viewpoint path generation device 500 changes to a virtual camera with an angle of view that does not capture the object whose display information is to be changed, the virtual viewpoint image generation unit 404 prevents the display mode from being changed from the previous frame. A virtual viewpoint image generation process may be executed.

また、フレームによっては、レンダリングエリア20内と外との境界にオブジェクトが存在する場合、境界に存在するオブジェクトに設定する表示情報を上記で説明した方法によらないで設定してもよい。 Also, depending on the frame, if an object exists on the boundary between the inside and the outside of the rendering area 20, the display information to be set for the object existing on the boundary may be set without using the above-described method.

図11は、レンダリングエリア20の境界にいるオブジェクトを示す図である。黒子1101に対応付けられた表示情報には通常レンダリング表示が設定されているものとする。また黒子1101は、レンダリングエリア20の外からレンダリングエリア20の中に入ろうとしているため、レンダリングエリア20の境界に存在しているものとする。この場合、仮想視点画像生成部404が、黒子1101の三次元モデルに対して通常レンダリング処理を行うと、レンダリングエリア20に含まれる部分のみがレンダリングされることになる。このため、レンダリングエリア20の外の中との境界にいるオブジェクトの三次元モデルに通常レンダリング処理を行って仮想視点画像を生成すると、生成された仮想視点画像は視聴者に違和感を与えることがある。 FIG. 11 is a diagram showing objects on the boundary of the rendering area 20. FIG. It is assumed that normal rendering display is set for the display information associated with the mole 1101 . Also, the mole 1101 is about to enter the rendering area 20 from outside the rendering area 20, so it is assumed to exist on the boundary of the rendering area 20. FIG. In this case, when the virtual viewpoint image generation unit 404 performs normal rendering processing on the three-dimensional model of the mole 1101, only the portion included in the rendering area 20 will be rendered. For this reason, when a virtual viewpoint image is generated by performing normal rendering processing on a three-dimensional model of an object at the boundary between the outside and the inside of the rendering area 20, the generated virtual viewpoint image may give the viewer a sense of discomfort. .

視聴者の違和感を抑制するため、表示情報設定部402は、黒子1101の三次元モデルの全てがレンダリングエリア20の中に入るまでは、黒子1101の表示情報として透過表示を設定する。そして、表示情報設定部402は、黒子1101の三次元モデルの全てがレンダリングエリア20の中に入った後、黒子1101の表示態様を通常レンダリング表示に変更するように表示情報を設定してもよい。 In order to suppress the viewer's discomfort, the display information setting unit 402 sets transparent display as the display information of the mole 1101 until the entire three-dimensional model of the mole 1101 enters the rendering area 20 . Then, the display information setting unit 402 may set the display information so that the display mode of the mole 1101 is changed to the normal rendering display after the entire three-dimensional model of the mole 1101 enters the rendering area 20. .

一方、レンダリングエリア20内の黒子が通常レンダリング表示されており、レンダリングエリア20の外にその黒子の手や足先などが出てしまった場合、黒子は、そのまま通常レンダリング表示されるのが好ましい。このため、三次元モデルの一部(一定の割合、特定の部分など)がレンダリングエリア20の中または外に出たかに応じて表示情報を変更してもよい。 On the other hand, if a mole in the rendering area 20 is displayed by normal rendering and the hand or toe of the mole is out of the rendering area 20, the mole is preferably displayed by normal rendering as it is. For this reason, the displayed information may be changed depending on whether a portion (a certain percentage, a specific portion, etc.) of the three-dimensional model is inside or outside the rendering area 20 .

例えば、レンダリングエリア20の内にある三次元モデルの体積の比率で、そのオブジェクトの表示情報に通常レンダリング表示を設定するか透過表示を設定するかを切り替えてもよい。例えば、通常レンダリング表示が設定されている三次元モデルの一部がレンダリングエリア20外に出た場合、レンダリングエリア20外に出た部分の体積が、そのオブジェクトの三次元モデルの全体の30%を超えたら透過表示に切り替えて表示情報を設定する。一方、透過表示が設定されている三次元モデルの一部がレンダリングエリア20に入った場合、レンダリングエリア20に入った部分の体積が、そのオブジェクトの三次元モデルの全体の50%を超えたら通常レンダリング表示に表示情報を変更してもよい。 For example, depending on the volume ratio of the three-dimensional model within the rendering area 20, the display information of the object may be switched between normal rendering display and transparent display. For example, if a portion of a 3D model for which normal rendering display is set goes outside the rendering area 20, the volume of the portion outside the rendering area 20 is 30% of the entire 3D model of that object. If it exceeds, switch to transparent display and set the display information. On the other hand, when part of the 3D model for which transparent display is set enters the rendering area 20, if the volume of the part entering the rendering area 20 exceeds 50% of the entire 3D model of the object, it is normal Display information may be changed to rendering display.

<その他の実施形態>
本開示は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present disclosure provides a program that implements one or more functions of the above-described embodiments to a system or device via a network or storage medium, and one or more processors in a computer of the system or device reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

100 撮像装置
400 仮想視点画像生成装置
402 表示情報設定部
404 仮想視点画像生成部
100 imaging device 400 virtual viewpoint image generation device 402 display information setting unit 404 virtual viewpoint image generation unit

Claims (18)

複数の撮像装置によってオブジェクトを撮像して得られた撮像画像に基づき生成される仮想視点画像における前記オブジェクトの表示態様を、前記オブジェクトの位置および前記オブジェクトのジェスチャの少なくとも一方に基づき設定する設定手段と、
前記オブジェクトが前記設定された表示態様で表されるように、前記仮想視点画像を生成する生成手段と、
を有することを特徴とする画像処理装置。
setting means for setting, based on at least one of a position of the object and a gesture of the object, a display mode of the object in a virtual viewpoint image generated based on captured images obtained by imaging the object with a plurality of imaging devices; ,
generating means for generating the virtual viewpoint image so that the object is represented in the set display mode;
An image processing device comprising:
前記設定手段は、オブジェクトが所定の領域を通過した場合、前記所定の領域を通過したオブジェクトに前記所定の領域に対応する表示態様を設定する
ことを特徴とする請求項1に記載の画像処理装置。
2. The image processing apparatus according to claim 1, wherein, when an object passes through a predetermined area, the setting means sets a display mode corresponding to the predetermined area to the object that has passed through the predetermined area. .
前記設定手段は、オブジェクトが所定の領域を通過した場合、前記所定の領域を通過したオブジェクトの表示態様を、現在設定されている表示態様とは別の表示態様に変更する
ことを特徴とする請求項1に記載の画像処理装置。
wherein, when the object passes through the predetermined area, the setting means changes the display mode of the object that has passed through the predetermined area to a display mode different from the currently set display mode. Item 1. The image processing apparatus according to item 1.
前記生成手段は、前記複数の撮像装置が配置された空間に含まれる描画空間に存在するオブジェクトが、該オブジェクトに設定された表示態様で表されるように前記仮想視点画像を生成する
ことを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。
The generating means generates the virtual viewpoint image such that an object existing in a rendering space included in the space in which the plurality of imaging devices are arranged is represented in a display mode set for the object. The image processing apparatus according to any one of claims 1 to 3, wherein:
前記描画空間と同じ大きさの空間または前記描画空間よりも大きな空間に存在するオブジェクトの位置を取得する取得手段をさらに有する
ことを特徴とする請求項4に記載の画像処理装置。
5. The image processing apparatus according to claim 4, further comprising acquisition means for acquiring a position of an object existing in a space having the same size as said rendering space or a space larger than said rendering space.
前記設定手段は、
オブジェクトが前記描画空間の境界に設定された所定の領域を通過して前記描画空間に入った場合、前記所定の領域を通過したオブジェクトの表示態様として第1の表示態様を設定し、オブジェクトが前記境界のうち前記所定の領域以外の他の領域を通過して前記描画空間に入った場合、前記他の領域を通過したオブジェクトの表示態様として前記第1の表示態様とは異なる第2の表示態様を設定する
ことを特徴とする請求項4または5に記載の画像処理装置。
The setting means
When an object enters the drawing space through a predetermined area set as a boundary of the drawing space, a first display mode is set as the display mode of the object that has passed through the predetermined area, and the object enters the drawing space. When the drawing space is entered by passing through an area other than the predetermined area of the boundary, a second display mode different from the first display mode is used as the display mode of the object that has passed through the other area. The image processing apparatus according to claim 4 or 5, characterized by: setting
前記設定手段は、
前記描画空間にオブジェクトの一部のみが含まれる場合、前記描画空間に前記一部のみが含まれるオブジェクトの全体のうちの前記一部の割合に基づき、該オブジェクトの表示態様を設定する
ことを特徴とする請求項4から6のいずれか1項に記載の画像処理装置。
The setting means
when only a part of an object is included in the drawing space, the display mode of the object is set based on the ratio of the part to the whole of the object whose part is included in the drawing space. 7. The image processing apparatus according to any one of claims 4 to 6.
前記設定手段は、
前記描画空間にオブジェクトの一部のみが含まれる場合、前記描画空間に前記一部のみが含まれるオブジェクトが透過して表示されるように、該オブジェクトの表示態様を設定する
ことを特徴とする請求項7のいずれか1項に記載の画像処理装置。
The setting means
wherein, when only a part of an object is included in the drawing space, a display mode of the object is set so that the object whose part is included in the drawing space is transparently displayed. Item 8. The image processing device according to any one of Item 7.
前記設定手段は、
オブジェクトが所定の領域に所定の期間、存在した場合、前記所定の領域に存在していたオブジェクトの表示態様を、現在設定されている表示態様とは別の表示態様に変更する
ことを特徴とする請求項1から8のいずれか1項に記載の画像処理装置。
The setting means
When an object exists in a predetermined area for a predetermined period of time, the display mode of the object existing in the predetermined area is changed to a display mode different from the currently set display mode. The image processing apparatus according to any one of claims 1 to 8.
前記設定手段は、
オブジェクトが第1の期間、第1の領域に存在した場合、前記第1の領域に存在していたオブジェクトの表示態様として第1の表示態様を設定し、
オブジェクトが第2の期間、前記第1の領域とは異なる第2の領域に存在した場合、前記第2の領域に存在していたオブジェクトの表示態様として前記第1の表示態様とは異なる第2の表示態様を設定する
ことを特徴とする請求項1から8のいずれか1項に記載の画像処理装置。
The setting means
setting a first display mode as a display mode of the object existing in the first area when the object exists in the first area for a first period of time;
When an object exists in a second area different from the first area for a second period, the display mode of the object existing in the second area is the second display mode different from the first display mode. The image processing apparatus according to any one of claims 1 to 8, wherein the display mode of is set.
前記生成手段は、
前記複数の撮像装置が撮像して得られた撮像画像に基づき生成されたオブジェクトの三次元形状データを取得して前記仮想視点画像を生成し、
前記設定手段は、
第1のオブジェクトと一体として前記三次元形状データが生成された第2のオブジェクトについては、前記第1のオブジェクトの一部として表示態様を設定し、
前記第1のオブジェクトから分離して前記第2のオブジェクトの前記三次元形状データが生成された場合、分離した前記第2のオブジェクトの表示形態として、前記第1のオブジェクトの表示態様と同じ表示態様を設定する
ことを特徴とする請求項1から10のいずれか1項に記載の画像処理装置。
The generating means is
Acquiring three-dimensional shape data of an object generated based on captured images obtained by imaging by the plurality of imaging devices to generate the virtual viewpoint image;
The setting means
For a second object for which the three-dimensional shape data has been generated integrally with the first object, setting a display mode as part of the first object,
When the three-dimensional shape data of the second object is generated by separating from the first object, the display mode of the separated second object is the same as the display mode of the first object. 11. The image processing apparatus according to any one of claims 1 to 10, wherein is set.
前記設定手段は、
オブジェクトが所定のジェスチャを行った場合、前記所定のジェスチャを行ったオブジェクトに、前記所定のジェスチャに対応する表示態様を設定する
ことを特徴とする請求項1から11のいずれか1項に記載の画像処理装置。
The setting means
12. The method according to any one of claims 1 to 11, wherein when an object performs a predetermined gesture, a display mode corresponding to the predetermined gesture is set for the object that performed the predetermined gesture. Image processing device.
前記設定手段がオブジェクトに設定する表示態様は、前記撮像画像のテクスチャを投影して描画することによりオブジェクトを表示する表示態様、およびオブジェクトが透過するように表す表示態様を少なくとも含む
ことを特徴とする請求項1から12のいずれか1項に記載の画像処理装置。
The display mode set for the object by the setting means includes at least a display mode in which the object is displayed by projecting and drawing the texture of the captured image, and a display mode in which the object is displayed in a transparent manner. The image processing apparatus according to any one of claims 1 to 12.
前記設定手段は、
複数のオブジェクトが存在する場合、前記複数のオブジェクトごとに表示態様を設定する
ことを特徴とする請求項1から13のいずれか1項に記載の画像処理装置。
The setting means
14. The image processing apparatus according to any one of claims 1 to 13, wherein when a plurality of objects exist, a display mode is set for each of the plurality of objects.
前記設定された表示態様を、オブジェクトの三次元形状データに対応付けて管理する管理手段をさらに有する
ことを特徴とする請求項1から14のいずれか1項に記載の画像処理装置。
15. The image processing apparatus according to any one of claims 1 to 14, further comprising managing means for managing the set display mode in association with the three-dimensional shape data of the object.
前記生成手段は、
仮想視点に対応する前記仮想視点画像を生成し、
仮想視点に対応する画角内に、表示態様が変更されるオブジェクトがある場合、前記表示態様が変更されるオブジェクトが画角に含まれない仮想視点に変更して前記仮想視点画像を生成する
ことを特徴とする請求項1から15のいずれか1項に記載の画像処理装置。
The generating means is
generating the virtual viewpoint image corresponding to the virtual viewpoint;
When there is an object whose display mode is to be changed within an angle of view corresponding to the virtual viewpoint, the virtual viewpoint image is generated by changing the virtual viewpoint to a virtual viewpoint whose angle of view does not include the object whose display mode is to be changed. The image processing apparatus according to any one of claims 1 to 15, characterized by:
複数の撮像装置によってオブジェクトを撮像して得られた撮像画像に基づき生成される仮想視点画像における前記オブジェクトの表示態様を、前記オブジェクトの位置および前記オブジェクトのジェスチャの少なくとも一方に基づき設定する設定ステップと、
前記オブジェクトが前記設定された表示態様で表されるように、前記仮想視点画像を生成する生成ステップと、
を有することを特徴とする画像処理方法。
a setting step of setting, based on at least one of a position of the object and a gesture of the object, a display mode of the object in a virtual viewpoint image generated based on captured images obtained by imaging the object with a plurality of imaging devices; ,
a generation step of generating the virtual viewpoint image such that the object is represented in the set display mode;
An image processing method characterized by comprising:
コンピュータを、請求項1から16のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the image processing apparatus according to any one of claims 1 to 16.
JP2021122238A 2021-07-27 2021-07-27 Image processing apparatus, image processing method, and program Pending JP2023018253A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021122238A JP2023018253A (en) 2021-07-27 2021-07-27 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021122238A JP2023018253A (en) 2021-07-27 2021-07-27 Image processing apparatus, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2023018253A true JP2023018253A (en) 2023-02-08

Family

ID=85158125

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021122238A Pending JP2023018253A (en) 2021-07-27 2021-07-27 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2023018253A (en)

Similar Documents

Publication Publication Date Title
US11463678B2 (en) System for and method of social interaction using user-selectable novel views
US10582191B1 (en) Dynamic angle viewing system
KR20190124766A (en) Mixed Reality Viewer System and Methods
JP2019016161A (en) Image processing device and control method thereof
US11200690B2 (en) Image processing apparatus, three-dimensional shape data generation method, and non-transitory computer readable storage medium
JP2019003428A (en) Image processing device, image processing method, and program
JP7403967B2 (en) Information processing device, video generation device, image processing system, control method and program thereof
US11195322B2 (en) Image processing apparatus, system that generates virtual viewpoint video image, control method of image processing apparatus and storage medium
JP2024019537A (en) Image processing device, image processing method, and program
JP2023018253A (en) Image processing apparatus, image processing method, and program
JP2022012900A (en) Information processing apparatus, display method, and program
JP2022039374A (en) Image processing apparatus, image processing system, image processing method, and program
US20230177767A1 (en) Image processing apparatus, image processing method, and storage medium
US20240046552A1 (en) Generation apparatus, generation method, and non-transitory computer-readable storage medium
US20220408069A1 (en) Information processing apparatus, information processing method, and storage medium
US20230334767A1 (en) Image processing apparatus, image processing method, and storage medium
JP2021018570A (en) Image processing apparatus, image processing system, image processing method and program
JP2021149192A (en) Image processing device, image processing method, and program
JP2023080290A (en) Information processing apparatus, control method of the same and program
JP2023183059A (en) Information processing device, information processing method, and computer program
JP2023084843A (en) Image processing apparatus, image processing method, and program
JP2019118042A (en) Image processing device, image processing method and program