JP2019106145A - Generation device, generation method and program of three-dimensional model - Google Patents
Generation device, generation method and program of three-dimensional model Download PDFInfo
- Publication number
- JP2019106145A JP2019106145A JP2017239891A JP2017239891A JP2019106145A JP 2019106145 A JP2019106145 A JP 2019106145A JP 2017239891 A JP2017239891 A JP 2017239891A JP 2017239891 A JP2017239891 A JP 2017239891A JP 2019106145 A JP2019106145 A JP 2019106145A
- Authority
- JP
- Japan
- Prior art keywords
- dimensional model
- foreground
- image
- mask
- mask image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 22
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 17
- 238000003786 synthesis reaction Methods 0.000 claims abstract 3
- 230000003068 static effect Effects 0.000 claims description 3
- 230000007547 defect Effects 0.000 abstract description 8
- 238000003384 imaging method Methods 0.000 abstract description 7
- 238000000926 separation method Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 7
- 230000000007 visual effect Effects 0.000 description 7
- 238000009877 rendering Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 244000025254 Cannabis sativa Species 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、画像内オブジェクトの3次元モデルの生成に関する。 The present invention relates to the generation of three-dimensional models of objects in an image.
従来、複数台のカメラによって異なる視点から同期撮影された複数視点画像を用いて、オブジェクトの3次元形状を推定する手法として、「視体積交差法(Visual Hull)」と呼ばれる手法が知られている(特許文献1)。図1の(a)〜(c)は、視体積交差法の基本原理を示す図である。あるオブジェクトを撮影した画像からは、撮像面に当該オブジェクトの2次元シルエットを表すマスク画像が得られる(図1(a))。そして、カメラの投影中心からマスク画像の輪郭上の各点を通すように、3次元空間中に広がる錐体を考える(図1(b))。この錐体のことを該当するカメラによる対象の「視体積」と呼ぶ。さらに、複数の視体積の共通領域、すなわち視体積の交差を求めることによって、オブジェクトの3次元形状(3次元モデル)が求まる(図1(c))。このように視体積交差法による形状推定では、オブジェクトが存在する可能性のある空間中のサンプリング点をマスク画像に射影し、複数の視点で共通して射影した点がマスク画像に含まれるかを検証することにより、オブジェクトの3次元形状を推定する。 Conventionally, a method called "visual volume intersection method (Visual Hull)" is known as a method of estimating a three-dimensional shape of an object using a plurality of viewpoint images synchronously shot from different viewpoints by a plurality of cameras. (Patent Document 1). (A)-(c) of FIG. 1 is a figure which shows the basic principle of the visual volume intersection method. From an image obtained by photographing an object, a mask image representing a two-dimensional silhouette of the object is obtained on the imaging surface (FIG. 1A). Then, a cone that spreads in a three-dimensional space is considered so as to pass each point on the outline of the mask image from the projection center of the camera (FIG. 1 (b)). This cone is called the "view volume" of the object by the corresponding camera. Furthermore, the three-dimensional shape (three-dimensional model) of the object is determined by finding the intersection of a plurality of viewing volumes, that is, the intersection of the viewing volumes (FIG. 1 (c)). As described above, in shape estimation by the view volume intersection method, sampling points in a space in which an object may exist are projected onto a mask image, and whether a point projected in common by a plurality of viewpoints is included in the mask image By examining, the three-dimensional shape of the object is estimated.
上述の視体積交差法では、マスク画像が対象オブジェクトのシルエットを正しく表現できている必要があり、マスク画像上のシルエットが不正確な場合は生成される3次元形状も不正確なものになってしまう。例えば、対象オブジェクトである人物の一部が、当該人物の手前に存在する構造物等の静止物体によって遮られ、マスク画像が示す人物のシルエットの一部が欠けてしまうと、生成される3次元モデルに欠損が生じてしまう。また、シルエットの一部が欠けたマスク画像については使用しないこととすると、得られる3次元モデルの形状精度が落ちてしまう。特に、構造物によって遮られている部分が相対的に小さい場合は、たとえシルエットの一部が掛けたマスク画像であっても、使用することで高い形状精度の3次元モデルが得られるので極力利用することが望ましい。 In the visual volume intersection method described above, the mask image needs to correctly represent the silhouette of the target object, and if the silhouette on the mask image is incorrect, the generated three-dimensional shape will also be incorrect. I will. For example, when a part of a person who is a target object is interrupted by a stationary object such as a structure existing in front of the person and a part of a person's silhouette indicated by a mask image is missing, a three-dimensional image is generated There will be a defect in the model. In addition, when not using a mask image in which a part of the silhouette is missing, the shape accuracy of the obtained three-dimensional model is degraded. In particular, when the portion blocked by the structure is relatively small, even if it is a mask image that is partially covered by the silhouette, it is possible to obtain a three-dimensional model with high shape accuracy, so it is used as much as possible. It is desirable to do.
本発明は、上記の課題に鑑みてなされたものであり、その目的は、対象オブジェクトの一部を遮ってしまうような構造物等が撮影シーン内に存在していても、生成される3次元モデルにおいて欠損が生じないようにすることである。 The present invention has been made in view of the above problems, and an object of the present invention is to generate a three-dimensional object even if a structure or the like that obstructs a part of a target object is present in a shooting scene. The goal is to ensure that no defects occur in the model.
本発明に係る3次元モデルの生成装置は、複数の視点で撮影した各画像内の静止しているオブジェクトである構造物の領域を示す第1マスク画像、及び前記複数の視点で撮影した各画像内の動体のオブジェクトである前景の領域を示す第2マスク画像を取得する取得手段と、取得した前記第1マスク画像と前記第2マスク画像とを合成して、前記複数の視点で撮影した画像内の前記構造物の領域と前記前景の領域とを統合した第3マスク画像を生成する合成手段と、前記第3マスク画像を用いた視体積交差法により、前記構造物と前記前景とを含む3次元モデルを生成する生成手段と、を有することを特徴とする。 A three-dimensional model generation apparatus according to the present invention includes a first mask image indicating an area of a structure which is a stationary object in each image captured at a plurality of viewpoints, and each image captured at the plurality of viewpoints Acquisition means for acquiring a second mask image indicating a foreground area that is an object of a moving object in the image, and an image photographed from the plurality of viewpoints by combining the acquired first mask image and the acquired second mask image Combining the structure and the foreground by combining means for generating a third mask image in which the area of the structure and the foreground area are integrated and the third mask image using the third mask image And generating means for generating a three-dimensional model.
本発明によれば、対象オブジェクトの一部を遮ってしまうような構造物等が撮影シーン内に存在していても、欠損のない、もしくは低減させた高品質な3次元モデルの生成が可能となる。 According to the present invention, it is possible to generate a high-quality three-dimensional model free from defects or reduced even if a structure or the like that partially blocks a target object is present in a shooting scene. Become.
以下、添付図面を参照して、本発明を実施形態に従って詳細に説明する。なお、以下の実施形態において示す構成は一例にすぎず、本発明は図示された構成に限定されるものではない。 Hereinafter, the present invention will be described in detail according to an embodiment with reference to the attached drawings. In addition, the structure shown in the following embodiment is only an example, and this invention is not limited to the illustrated structure.
本実施形態では、撮影シーンにおける前景の2次元シルエットに加え、その少なくとも一部を遮る構造物の2次元シルエットをも含むマスク画像を用いて、前景について欠損のない、もしくは低減させた3次元モデルを生成する態様について説明する。この態様では、前景の一部を遮る構造物等を含んだ3次元モデルが生成される。なお、本明細書において、「前景」とは、時系列で同じアングルから撮影を行った場合において動きのある(その絶対位置が変化し得る)、仮想的な視点から見ることが可能な、撮影画像内に存在する動的オブジェクト(動体)を指す。また、「構造物」とは、時系列で同じアングルから撮影を行った場合において動きのない(その絶対位置が変化しない、即ち静止している)、前景を遮ってしまう可能性のある、撮影画像内に存在する静的オブジェクトを指す。 In the present embodiment, a three-dimensional model with no or reduced defects in the foreground using a mask image that also includes a two-dimensional silhouette of a structure that blocks at least a part of the foreground in addition to the two-dimensional silhouette of the foreground in a shooting scene The aspect which produces | generates is demonstrated. In this aspect, a three-dimensional model including a structure that partially blocks the foreground is generated. In the present specification, “foreground” refers to imaging that can be viewed from a virtual viewpoint that moves (when its absolute position may change) when imaging is performed from the same angle in time series. It refers to a dynamic object (moving object) present in an image. In addition, “structure” refers to shooting that may block the foreground if there is no movement (the absolute position does not change, ie, it is stationary) when shooting from the same angle in chronological order Refers to a static object present in the image.
以下の説明では、サッカーの試合を撮影シーンとして仮想視点画像を生成する場合において、選手やボールといった前景(動的オブジェクト)の一部が、サッカーゴール等の構造物(静的オブジェクト)によって遮られてしまうケースを想定している。なお、仮想視点画像とは、エンドユーザ及び/又は選任のオペレータ等が自由に仮想カメラの位置及び姿勢を操作することによって生成される映像であり、自由視点画像や任意視点画像などとも呼ばれる。また、生成される仮想視点画像やその元になる複数視点画像は、動画であっても、静止画であってもよい。以下に述べる各実施形態では、動画の複数視点画像を用いて動画の仮想視点画像を生成するための3次元モデルを生成する場合を例に説明するものとする。 In the following description, when generating a virtual viewpoint image with a soccer game as a shooting scene, part of the foreground (dynamic object) such as a player or a ball is blocked by a structure (static object) such as a soccer goal. The case is assumed. The virtual viewpoint image is an image generated when the end user and / or an appointed operator freely manipulates the position and orientation of the virtual camera, and is also called a free viewpoint image or an arbitrary viewpoint image. In addition, the virtual viewpoint image to be generated and the multiple viewpoint images that are the origin of the virtual viewpoint image may be a moving image or a still image. In each embodiment described below, the case where a three-dimensional model for generating a virtual viewpoint image of a moving image is generated using a plurality of viewpoint images of the moving image will be described as an example.
本実施形態ではサッカーを撮影シーンとし、固定的に設置されたサッカーゴールを構造物として以下説明を行うものとするが、これに限定されない。例えば、さらにコーナーフラッグを構造物として扱ってもよいし、屋内スタジオなどを撮影シーンとする場合には家具や小道具を構造物として扱うこともできる。即ち、静止または静止に近い状態が継続する静止物体であればよい。 In the present embodiment, soccer is used as a shooting scene, and a soccer goal fixedly installed is described below as a structure, but the present invention is not limited to this. For example, the corner flag may be further treated as a structure, and when an indoor studio or the like is used as a shooting scene, furniture and props may be treated as a structure. That is, it may be a stationary object in which the stationary state or the near stationary state continues.
(システム構成)
図2(a)は、本実施形態に係る、3次元モデル生成装置を含む仮想視点画像生成システムの構成の一例を示すブロック図である。仮想視点画像生成システム100は、複数のカメラを含むカメラアレイ110、制御装置120、前景分離装置130、3次元モデル生成装置140、レンダリング装置150で構成される。制御装置120、前景分離装置130、3次元モデル生成装置140及びレンダリング装置150は、演算処理を行うCPU、演算処理の結果やプログラム等を記憶するメモリなどを備えた一般的なコンピュータ(情報処理装置)によって実現される。
(System configuration)
FIG. 2A is a block diagram showing an example of the configuration of a virtual viewpoint image generation system including a three-dimensional model generation device according to the present embodiment. The virtual viewpoint
図2(b)は、カメラアレイ110を構成する全8台のカメラ211〜218の配置を、フィールド200を真上から見た俯瞰図において示した図である。各カメラ211〜218は、地上からある一定の高さにフィールド200を囲むように設置されており、一方のゴール前を様々な角度から撮影して、視点の異なる複数視点画像データを取得する。芝生のフィールド200上には、サッカーコート201が(実際には白のラインで)描かれており、その左側にサッカーゴール202が置かれている。また、サッカーゴール202の前の×印203は、カメラ211〜218の共通の視線方向(注視点)を示し、破線の円204は注視点203を中心としてカメラ211〜218がそれぞれ撮影可能なエリアを示している。本実施形態では、フィールド200の1つの角を原点として、長手方向をx軸、短手方向をy軸、高さ方向をz軸とした座標系で表すこととする。カメラアレイ110の各カメラで得られた複数始点画像のデータは、制御装置120及び前景分離装置130へ送られる。なお、図2(a)では、各カメラ211〜218と、制御装置120及び前景分離装置130とは、スター型のトポロジーで接続されているがデイジーチェーン接続によるリング型やバス型のトポロジーでもよい。また、図2において、カメラ8台の例を示したが、カメラの数は、8台未満または8台を超えてもよい。
FIG. 2B is a view showing the arrangement of all eight
制御装置120は、カメラパラメータや構造物マスクを生成し、3次元モデル生成装置140に供給する。カメラパラメータは、各カメラの位置や姿勢(視線方向)を表す外部パラメータと、各カメラが備えるレンズの焦点距離や画角(撮影領域)などを表す内部パラメータからなり、キャリブレーションによって得られる。キャリブレーションは、チェッカーボードのような特定パターンを撮影した複数の画像を用いて取得した3次元の世界座標系の点とそれに対応する2次元上の点との対応関係を求める処理である。構造物マスクは、各カメラ211〜218で取得される各撮影画像中に存在する構造物の2次元シルエットを示すマスク画像である。マスク画像は、撮影画像内の抽出対象の部分がどこであるかを特定する基準画像であり、0と1で表される2値画像である。本実施形態では、サッカーゴール202を構造物として扱い、各カメラそれぞれが所定位置から所定アングルで撮影した画像内のサッカーゴール202の領域(2次元シルエット)を示すシルエット画像が構造物マスクとなる。なお、構造物マスクの元になる撮影画像は、試合の前後やハーフタイム中など、前景となる選手等が存在していないタイミングで撮影したものを使用すればよい。ただし、例えば屋外では日照変動の影響を受けるなどにより、事前・事後に撮影した画像では不適切な場合がある。このような場合、例えば選手等が写っている動画のうち所定数のフレーム(例えば連続する10秒分のフレーム)を用いて、そこから選手等を消すことで得てもよい。この場合、各フレームにおける各画素値の中央値を採用した画像に基づいて構造物マスクを得ることができる。
The
前景分離装置130は、入力される複数視点の各撮影画像それぞれに対し、フィールド200上の選手やボールに対応する前景領域とそれ以外の背景領域を判別する処理を行なう。この前景領域の判別には、予め用意した背景画像(構造物マスクの元になる撮影画像と同じでよい)を用いる。具体的には、各撮影画像について背景画像との差分を求め、当該差分に対応する領域を前景領域として特定する。これにより、撮影画像毎の前景領域を示す前景マスクを生成する。本実施形態においては、撮影画像の中の、選手やボールを表す前景領域に属する画素を“0”、それ以外の背景領域に属する画素を“1”で表す2値画像が、前景マスクとして生成されることになる。
The
3次元モデル生成装置140は、カメラパラメータや複数視点画像に基づいて、オブジェクトの3次元モデルを生成する。3次元モデル生成装置140の詳細については後述する。生成した3次元モデルのデータは、レンダリング装置150に出力される。
The three-dimensional
レンダリング装置150は、3次元モデル生成装置140から受け取った3次元モデル、制御装置120から受け取ったカメラパラメータ、前景分離装置130から受け取った前景画像、予め用意した背景画像に基づいて、仮想視点画像を生成する。具体的には、カメラパラメータから前景画像と3次元モデルとの位置関係を求め、3次元モデルに対応する前景画像をマッピングして、任意のアングルから注目オブジェクトを見た場合の仮想視点画像が生成される。こうして例えば、選手が得点を決めたゴール前の決定的シーンの仮想視点画像を得ることができる。
The
なお、図2に示した仮想視点画像生成システムの構成は一例でありこれに限定されない。例えば、1台のコンピュータが複数の装置(例えば前景分離装置130と3次元モデル生成装置140など)の機能を兼ね備えてもよい。或いは、各カメラのモジュールに前景分離装置130の機能を持たせ、各カメラから撮影画像とその前景マスクのデータを供給するように構成してもよい。
The configuration of the virtual viewpoint image generation system illustrated in FIG. 2 is an example and is not limited thereto. For example, one computer may have the functions of a plurality of devices (for example, the
(3次元モデル生成装置)
図3は、本実施形態に係る3次元モデル生成装置140の内部構成を示す機能ブロック図である。3次元モデル生成装置140は、データ受信部310、構造物マスク保存部320、マスク合成部330、座標変換部340、3次元モデル形成部350、データ出力部360で構成される。以下、各部について詳しく説明する。
(3D model generator)
FIG. 3 is a functional block diagram showing an internal configuration of the three-dimensional
データ受信部310は、カメラアレイ110を構成する各カメラのカメラパラメータ及び撮影シーン内に存在する構造物の2次元シルエットを表す構造物マスクを、制御装置120から受信する。また、カメラアレイ110の各カメラで得られた撮影画像(複数視点画像)及び各撮影画像内に存在する前景の2次元シルエットを表す前景マスクのデータを前景分離装置130から受信する。受信したデータのうち、構造物マスクは構造物マスク保存部320に、前景マスクはマスク合成部330に、複数始点画像は座標変換部340に、カメラパラメータは座標変換部340と3次元モデル形成部350に、それぞれ渡される。
The
構造物マスク保存部320は、構造物マスクをRAM等に格納・保持し、必要に応じてマスク合成部330へ供給する。
The structure
マスク合成部330は、構造物マスク保存部320から構造物マスクを読み出し、これをデータ受信部310から受け取った前景マスクと合成して、両者を1つに統合したマスク画像(以下、「統合マスク」と呼ぶ)を生成する。生成した統合マスクは、3次元モデル形成部350へ送られる。
The
座標変換部340は、データ受信部310から受け取った複数視点画像を、カメラパラメータに基づき、カメラ座標系から世界座標系に変換する。この座標変換により、視点の異なる各撮影画像が、それぞれ3次元空間上のどの領域を示しているのかを表す情報に変換される。
The coordinate conversion unit 340 converts the multi-viewpoint image received from the
3次元モデル形成部350は、世界座標系に変換された複数視点画像、各カメラに対応する統合マスクを用いて、撮影シーン内の構造物を含むオブジェクトの3次元モデルを視体積交差法により生成する。生成したオブジェクトの3次元モデルのデータは、データ出力部360を介してレンダリング装置150へ出力される。
The three-dimensional
(3次元モデルの形成処理)
図4は、本実施形態に係る、3次元モデル形成処理の流れを示すフローチャートである。この一連の処理は、3次元モデル生成装置140が備えるCPUが、ROMやHDD等の記憶媒体にされた所定のプログラムをRAMに展開してこれを実行することで実現される。以下、図4のフローに沿って説明する。
(Formation process of 3D model)
FIG. 4 is a flowchart showing a flow of three-dimensional model formation processing according to the present embodiment. This series of processing is realized by the CPU included in the three-dimensional
まず、ステップ401では、データ受信部310が、各カメラ211〜218から見た場合の構造物(ここでは、サッカーゴール202)の2次元シルエットを表す構造物マスクと、各カメラのカメラパラメータを、制御装置120から受信する。図5(a)〜(h)は、カメラアレイ110を構成するカメラ211〜222でそれぞれ撮影される画像を示している。いま、サッカーコート201上に選手(ゴールキーパ)が一人、サッカーゴール202の前に存在している。そして、図5(a)、(b)、(h)の各撮像画像においては、カメラと選手との間にサッカーゴール202が位置するため、選手の一部がサッカーゴール202によって隠れてしまっている。図5(a)〜(h)の各撮影画像からは、サッカーゴール202の領域が1(白)、それ以外の領域が0(黒)の2値で表現された、構造物マスクがそれぞれ得られることになる。図6(a)〜(h)は、図5(a)〜(h)の各撮影画像に対応する構造物マスクを示している。
First, in step 401, the
次に、ステップ402では、データ受信部310が、各カメラ211〜222で撮影された画像における前景(ここでは、選手やボール)の2次元シルエットを示す前景マスクを、その元になった複数始点画像と共に、前景分離装置130から受信する。図7(a)〜(h)は、図5(a)〜(h)の各撮影画像に対応する前景マスクをそれぞれ示している。前景分離装置130は、同じアングルから撮影された画像間で時間的に変化のある領域を前景として抽出するため、図7(a)、(b)、(h)の各図では、サッカーゴール202に隠れている選手の一部の領域は前景領域として抽出されない。受信した前景マスクのデータはマスク合成部330に送られる。
Next, in step 402, a plurality of starting points from which the
次に、ステップ403では、マスク合成部310が、構造物マスク保存部320から構造物マスクのデータを読み出し、読み出した構造物マスクと、データ受信部310から受け取った前景マスクとを合成する処理を実行する。この合成は、2値(白黒)で表される前景マスクと構造物マスクの各画素について論理和(OR)を求める演算処理である。図8(a)〜(h)は、図6(a)〜(h)に示した各構造物マスクと、図7(a)〜(h)で示した各前景マスクとをそれぞれ合成して得られた統合マスクを示している。出来上がった統合マスクにおいては、選手のシルエットに欠損は見られない。
Next, in step 403, the
そして、ステップ404において、3次元モデル形成部350が、ステップ403で得た統合マスクを元に視体積交差法を用いて3次元モデルを生成する。これにより、異なる視点から撮影された複数画像間の共通撮影領域に存在する前景と構造物の3次元形状を表すモデル(以下、「統合3次元モデル」と呼ぶ)が生成される。本実施形態の場合であれば、選手やボールに加え、サッカーゴール202を含んだ統合3次元モデルが生成されることになる。統合3次元モデルの生成は、具体的には以下のような手順で行う。まず、フィールド200上の3次元空間を一定の大きさを持つ立方体(ボクセル)で充填したボリュームデータを用意する。ボリュームデータを構成するボクセルの値は0と1で表現され、「1」は形状領域、「0」は非形状領域をそれぞれ示す。次に、各カメラ211〜218のカメラパラメータ(設置位置や視線方向など)を用いて、ボクセルの3次元座標を世界座標系からカメラ座標系に変換する。そして、統合マスクで示される構造物及び前景がそのカメラ座標系にある場合は、ボクセルによって当該構造物及び前景の3次元形状を表したモデルが生成される。なお、ボクセルそのものではなく、ボクセルの中心を示す点の集合(点群)によって、3次元形状を表現してもよい。図9は、図8で示した統合マスクを元に生成される統合3次元モデルを示しており、符号901は前景である選手の3次元形状、符号902は構造物であるサッカーゴール202の3次元形状に相当する。前述の通り、統合マスクには前景である選手のシルエットに欠損が無いため、出来上がった統合3次元モデルにおいても欠損は生じていない。図10は、従来手法による、前景マスクのみを用いて生成した3次元モデルを示している。前述の通り、図7の(a)、(b)、(h)で示す前景マスクでは、選手の一部が前景領域として表現されていないため、生成される3次元モデルにおいて当該一部が欠損してしまう。本実施形態の手法では、前景マスクと構造物マスクを合成したマスク画像を用いることで、前景の3次元モデルの一部に欠損が生じるのを回避することが可能となる。
Then, at step 404, the three-dimensional
以上が、本実施形態に係る、3次元モデル形成処理の内容である。動画の仮想視点画像を生成する場合には、上述の各ステップの処理をフレーム単位で繰り返し行い、フレーム毎の3次元モデルを生成する。ただし、構造物マスクの受信と保存(ステップ401)については、フローの開始直後にのみ行えば足り、2フレーム目以降については省略可能である。さらに、同じ撮影場所にて日時を変えて撮影を行うような場合は、構造物マスクの受信・保存を初回だけ行なってRAM等に保持しておき、次回以降は保持しておいたものを利用してもよい。 The above is the contents of the three-dimensional model formation processing according to the present embodiment. In the case of generating a virtual viewpoint image of a moving image, the processing of each step described above is repeatedly performed in frame units to generate a three-dimensional model for each frame. However, it is sufficient to receive and save the structure mask (step 401) only immediately after the start of the flow, and the second and subsequent frames can be omitted. Furthermore, in the case where shooting is performed by changing the date and time at the same shooting location, reception and storage of the structure mask are performed only for the first time, held in the RAM, etc., and those held from the next time on are used. You may
以上のとおり本実施形態によれば、前景となるオブジェクトを隠してしまう構造物が存在していても、前景に欠損のない、もしくは低減させた高精度な3次元モデルを生成することができる。 As described above, according to the present embodiment, even if there is a structure that hides the foreground object, it is possible to generate a highly accurate three-dimensional model with no or reduced loss in the foreground.
実施形態1では、撮影シーン内に存在する構造物を含む形で、欠損のない、もしくは低減させた前景の3次元モデルを生成した。次に、構造物を取り除いた、欠損のない、もしくは低減させた前景のみの3次元モデルを生成する態様を、実施形態2として説明する。なお、システム構成など実施形態1と共通する内容については説明を省略ないしは簡略化し、以下では差異点を中心に説明するものとする。 In the first embodiment, a three-dimensional model of a defect-free or reduced foreground is generated so as to include structures present in a photographed scene. Next, an aspect of generating a three-dimensional model with no defect or reduced or reduced foreground only will be described as a second embodiment. The contents common to the first embodiment, such as the system configuration, will be omitted or simplified, and in the following, differences will be mainly described.
本実施形態の3次元モデル生成装置140の構成も、実施形態1と基本的には同じであるが(図3を参照)、以下の点で異なっている。
The configuration of the three-dimensional
まず、構造部マスク保存部320に対する構造物マスクの読み出しが、マスク合成部330だけでなく、3次元モデル生成部350によってもなされる。図3における破線の矢印はこのことを表している。そして、3次元モデル生成部350では、統合マスクを用いた前景+構造物の統合3次元モデルの生成に加え、構造物マスクを用いた構造物のみの3次元モデルの生成も行う。そして、統合マスクを元に生成した統合3次元モデルと、構造物マスクを元に生成した構造物の3次元モデルとの差分を求めることで、欠損のない、もしくは低減させた前景のみの3次元モデルを抽出する。
First, readout of the structure mask from the structure
(3次元モデルの形成処理)
図11は、本実施形態に係る、3次元モデル形成処理の流れを示すフローチャートである。この一連の処理は、3次元モデル生成装置140が備えるCPUが、ROMやHDD等の記憶媒体にされた所定のプログラムをRAMに展開してこれを実行することで実現される。以下、図11のフローに沿って説明する。
(Formation process of 3D model)
FIG. 11 is a flowchart showing a flow of three-dimensional model formation processing according to the present embodiment. This series of processing is realized by the CPU included in the three-dimensional
ステップ1101〜ステップ1104は、実施形態1の図4のフローにおけるステップ401〜ステップ404にそれぞれ対応し、異なるところはないので説明を省略する。
続くステップ1105において、3次元モデル形成部350は、構造部マスク保存部320から構造物マスクを読み出し、視体積交差法により構造物の3次元モデルを生成する。
In the
次に、ステップ1106において、3次元モデル形成部350は、ステップ1104で生成した前景+構造物の合成3次元モデルとステップ1105で生成した構造物の3次元モデルとの差分を求め、前景のみの3次元モデルを抽出する。ここで、構造物の3次元モデルを3次元空間上で例えば10%程度膨張させてから統合3次元モデルとの差分を求めてもよい。これにより、統合3次元モデルから構造物に対応する部分を確実に除去することができる。このとき、構造物の3次元モデルの一部のみを膨張させるようにしてもよい。例えば、サッカーゴール202の場合であれば、サッカーコート201内には選手が存在する可能性が高いため、コート201側には膨張させないようにし、コート201と反対側のみ膨張させるといった具合に、領域に応じて膨張させる部分を決定してもよい。さらには、選手やボール等の前景となるオブジェクトが構造物からどれだけ離れているかによって膨張させる割合(膨張率)を変化させてもよい。例えば、前景となるオブジェクトが構造物から遠い位置にある場合は、膨張率を大きくすることで、確実に構造物の3次元モデルが除去されるようにする。また、前景となるオブジェクトが構造物に近い位置にあるほど膨張率を小さくすることで、前景の3次元モデルの部分までが誤って除去されないようにする。この際の膨張率は、前景からの距離に応じてリニアに変化させてもよいし、1又は複数の基準となる距離を設けて段階的に決定してもよい。
Next, at step 1106, the three-dimensional
図12(a)は、前述の図9と同じ、統合マスクを元に生成した統合3次元モデルを示している。図12(b)は、構造物マスクのみに基づいて生成した構造物の3次元モデルを示している。そして、図12(c)は、図12(a)の統合3次元モデルと図12(b)の構造物の3次元モデルとの差分により得られた、前景のみの3次元モデルを示している。 FIG. 12A shows an integrated three-dimensional model generated based on the integrated mask, as in FIG. 9 described above. FIG. 12 (b) shows a three-dimensional model of a structure generated based only on the structure mask. And FIG.12 (c) has shown the three-dimensional model of only a foreground obtained by the difference of the integrated three-dimensional model of Fig.12 (a), and the three-dimensional model of the structure of FIG.12 (b). .
以上が、本実施形態に係る、3次元モデルの形成処理の内容である。なお、動画の仮想視点画像を生成する場合は、上述の各ステップの処理をフレーム単位で繰り返し行い、フレーム毎の3次元モデルを生成する。ただし、構造物マスクの受信と保存(ステップ1101)及び構造物の3次元モデルの生成(ステップ1105)については、フローの開始直後にのみ行えば足り、2フレーム目以降については省略可能である。さらに、同じ撮影場所にて日時を変えて撮影を行うような場合は、構造物マスクの受信・保存及び構造物の3次元モデル生成を初回だけ行なってRAM等に保持しておき、次回以降は保持しておいたものを利用してもよい。 The above is the contents of the process of forming a three-dimensional model according to the present embodiment. In the case of generating a virtual viewpoint image of a moving image, the processing of each step described above is repeatedly performed in frame units to generate a three-dimensional model for each frame. However, the reception and storage of the structure mask (step 1101) and the generation of the three-dimensional model of the structure (step 1105) may be performed only immediately after the start of the flow, and may be omitted for the second and subsequent frames. Furthermore, when changing the date and time at the same shooting location and shooting, the reception and storage of the structure mask and the three-dimensional model generation of the structure are performed only for the first time and held in the RAM etc. You may use what you hold.
(変形例)
なお、本実施形態では、前景+構造物の統合3次元モデルから、構造物の3次元モデルを差し引くことで、前景のみの3次元モデルを生成したがこれに限定されない。例えば、前景+構造物の統合3次元モデルを構成するボクセル毎(或いは所定領域毎)にどのマスク画像に含まれるかをカウントし、カウント値が閾値以下の部分を統合3次元モデルから削除することで前景のみの3次元モデルを求めてもよい。この際の閾値は、全カメラ台数より少ない任意の値を、各カメラの設置位置や視線方向などを考慮して設定する。カメラ台数が全8台で図2(a)のようなカメラ配置の本実施形態の場合は、閾値として例えば“2”を設定することで、サッカーゴールのみを削除することができる。
(Modification)
In the present embodiment, the three-dimensional model of only the foreground is generated by subtracting the three-dimensional model of the structure from the integrated three-dimensional model of the foreground + the structure, but the present invention is not limited thereto. For example, it counts which mask image is included in each voxel (or each predetermined area) which composes an integrated 3D model of foreground + structure, and deletes a portion having a count value equal to or less than a threshold from the integrated 3D model The foreground only three-dimensional model may be obtained by The threshold value in this case is set to an arbitrary value smaller than the total number of cameras in consideration of the installation position of each camera, the line of sight direction, and the like. In the case of the present embodiment in which the number of cameras is eight and the camera arrangement is as shown in FIG. 2A, only the soccer goal can be deleted by setting, for example, "2" as the threshold value.
以上のとおり本実施形態によれば、前景となるオブジェクトを隠してしまう構造物が存在していても、構造物を含まない高精度な前景のみの3次元モデルを生成することができる。 As described above, according to the present embodiment, even if there is a structure that hides the foreground object, it is possible to generate a highly accurate three-dimensional model of the foreground only, which does not include the structure.
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. Can also be realized. It can also be implemented by a circuit (eg, an ASIC) that implements one or more functions.
140 3次元モデル生成装置
310 データ受信部
330 マスク合成部
350 3次元モデル形成部
140 Three-
本発明に係る生成装置は、複数の撮影方向からの撮影により得られた複数の画像内のオブジェクトの領域を示す第1領域情報を取得する第1取得手段と、前記複数の撮影方向の少なくとも一つの撮影方向からの撮影時に前記オブジェクトを遮る可能性のある構造物の領域を示す第2領域情報を取得する第2取得手段と、前記第1取得手段により取得したオブジェクトの領域を示す第1領域情報と前記第2取得手段により取得した構造物の領域を示す第2領域情報の両方に基づき、前記オブジェクトに対応する3次元形状データを生成する生成手段と、を有することを特徴とする。 The generation apparatus according to the present invention comprises: a first acquisition unit for acquiring first area information indicating an area of an object in a plurality of images obtained by photographing from a plurality of photographing directions; and at least one of the plurality of photographing directions. A second acquisition unit that acquires second area information indicating an area of a structure that may obstruct the object at the time of imaging from one imaging direction; and a first area that indicates the area of the object acquired by the first acquisition unit And generating means for generating three-dimensional shape data corresponding to the object based on both the information and the second area information indicating the area of the structure acquired by the second acquiring means.
図2(b)は、カメラアレイ110を構成する全8台のカメラ211〜218の配置を、フィールド200を真上から見た俯瞰図において示した図である。各カメラ211〜218は、地上からある一定の高さにフィールド200を囲むように設置されており、一方のゴール前を様々な角度から撮影して、視点の異なる複数視点画像データを取得する。芝生のフィールド200上には、サッカーコート201が(実際には白のラインで)描かれており、その左側にサッカーゴール202が置かれている。また、サッカーゴール202の前の×印203は、カメラ211〜218の共通の視線方向(注視点)を示し、破線の円204は注視点203を中心としてカメラ211〜218がそれぞれ撮影可能なエリアを示している。本実施形態では、フィールド200の1つの角を原点として、長手方向をx軸、短手方向をy軸、高さ方向をz軸とした座標系で表すこととする。カメラアレイ110の各カメラで得られた複数視点画像のデータは、制御装置120及び前景分離装置130へ送られる。なお、図2(a)では、各カメラ211〜218と、制御装置120及び前景分離装置130とは、スター型のトポロジーで接続されているがデイジーチェーン接続によるリング型やバス型のトポロジーでもよい。また、図2において、カメラ8台の例を示したが、カメラの数は、8台未満または8台を超えてもよい。
FIG. 2B is a view showing the arrangement of all eight
データ受信部310は、カメラアレイ110を構成する各カメラのカメラパラメータ及び撮影シーン内に存在する構造物の2次元シルエットを表す構造物マスクを、制御装置120から受信する。また、カメラアレイ110の各カメラで得られた撮影画像(複数視点画像)及び各撮影画像内に存在する前景の2次元シルエットを表す前景マスクのデータを前景分離装置130から受信する。受信したデータのうち、構造物マスクは構造物マスク保存部320に、前景マスクはマスク合成部330に、複数視点画像は座標変換部340に、カメラパラメータは座標変換部340と3次元モデル形成部350に、それぞれ渡される。
The
次に、ステップ402では、データ受信部310が、各カメラ211〜218で撮影された画像における前景(ここでは、選手やボール)の2次元シルエットを示す前景マスクを、その元になった複数視点画像と共に、前景分離装置130から受信する。図7(a)〜(h)は、図5(a)〜(h)の各撮影画像に対応する前景マスクをそれぞれ示している。前景分離装置130は、同じアングルから撮影された画像間で時間的に変化のある領域を前景として抽出するため、図7(a)、(b)、(h)の各図では、サッカーゴール202に隠れている選手の一部の領域は前景領域として抽出されない。受信した前景マスクのデータはマスク合成部330に送られる。
Next, in step 402, the
Claims (10)
取得した前記第1マスク画像と前記第2マスク画像とを合成して、前記複数の視点で撮影した画像内の前記構造物の領域と前記前景の領域とを統合した第3マスク画像を生成する合成手段と、
前記第3マスク画像を用いた視体積交差法により、前記構造物と前記前景とを含む3次元モデルを生成する生成手段と、
を有することを特徴とする3次元モデルの生成装置。 A first mask image showing a region of a structure which is a stationary object in each image photographed at a plurality of viewpoints, and a foreground region which is an object of a moving object in each image photographed at each of the plurality of viewpoints Acquisition means for acquiring a second mask image;
The acquired first mask image and the second mask image are combined to generate a third mask image in which an area of the structure and an area of the foreground in the images captured at the plurality of viewpoints are integrated. Synthesis means,
Generation means for generating a three-dimensional model including the structure and the foreground by a view volume intersection method using the third mask image;
An apparatus for generating a three-dimensional model, comprising:
前記構造物の領域は、同じアングルから時系列で前記撮影を行った場合の各画像内においてその位置が変化しない、前記前景の少なくとも一部を遮る可能性のある静的オブジェクトが存在する領域である
ことを特徴とする請求項1又は2に記載の生成装置。 The foreground area is an area in which a dynamic object whose position can change in each image when the photographing is performed in time series from the same angle is reflected,
The area of the structure is an area where there is a static object which may block at least a part of the foreground, whose position does not change in each image when the photographing is performed in time series from the same angle The generating device according to claim 1 or 2, characterized in that:
前記第1マスク画像を用いた視体積交差法により、前記構造物の3次元モデルをさらに生成し、
生成した前記構造物の3次元モデルと前記統合した3次元モデルとの差分から、前記前景の3次元モデルを生成する、
ことを特徴とする請求項1乃至3のいずれか1項に記載の生成装置。 The generation means is
A three-dimensional model of the structure is further generated by a view volume intersection method using the first mask image,
A three-dimensional model of the foreground is generated from a difference between the generated three-dimensional model of the structure and the integrated three-dimensional model.
The generator according to any one of claims 1 to 3, wherein
取得した前記第1マスク画像と前記第2マスク画像とを合成して、前記複数の視点で撮影した画像内の前記構造物の領域と前記前景の領域とを統合した第3マスク画像を生成する合成ステップと、
前記第3マスク画像を用いた視体積交差法により、前記構造物と前記前景とを含む3次元モデルを生成する生成ステップと、
を含むことを特徴とする、3次元モデルの生成方法。 Acquiring a first mask image indicating a region of a structure in each image captured at a plurality of viewpoints, and acquiring a second mask image indicating a region of a foreground in each image captured at the plurality of viewpoints;
The acquired first mask image and the second mask image are combined to generate a third mask image in which an area of the structure and an area of the foreground in the images captured at the plurality of viewpoints are integrated. A synthesis step,
Generating a three-dimensional model including the structure and the foreground by a view volume intersection method using the third mask image;
A method of generating a three-dimensional model, comprising:
Priority Applications (15)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017239891A JP6403862B1 (en) | 2017-12-14 | 2017-12-14 | Three-dimensional model generation apparatus, generation method, and program |
EP21173382.9A EP3901910A1 (en) | 2017-12-14 | 2018-12-03 | Generation device, generation method and program for three-dimensional model |
PCT/JP2018/044373 WO2019116942A1 (en) | 2017-12-14 | 2018-12-03 | Generation device, generation method and program for three-dimensional model |
EP18887303.8A EP3608873B1 (en) | 2017-12-14 | 2018-12-03 | Generation device, generation method and program for three-dimensional model |
ES18887303T ES2881320T3 (en) | 2017-12-14 | 2018-12-03 | Generation device, generation procedure and program for three-dimensional model |
CA3061699A CA3061699C (en) | 2017-12-14 | 2018-12-03 | Generation device, generation method and non-transitory computer-readable meadium storing a program for generating a three-dimensional model from an image |
KR1020197032124A KR102178239B1 (en) | 2017-12-14 | 2018-12-03 | 3D model generation device, generation method, and program |
KR1020207032192A KR102254407B1 (en) | 2017-12-14 | 2018-12-03 | 3-dimensional model generation device, method and program |
CN202110824521.9A CN113593012A (en) | 2017-12-14 | 2018-12-03 | Three-dimensional model generation device, generation method, and storage medium |
BR112019022798-9A BR112019022798A2 (en) | 2017-12-14 | 2018-12-03 | GENERATION DEVICE, GENERATION METHOD AND PROGRAM FOR THREE-DIMENSIONAL MODEL |
RU2019134216A RU2744699C1 (en) | 2017-12-14 | 2018-12-03 | Generating apparatus, method of generation and program for a three-dimensional model |
AU2018384159A AU2018384159B2 (en) | 2017-12-14 | 2018-12-03 | Generation device, generation method and program for three-dimensional model |
CN201880028645.2A CN110622215B (en) | 2017-12-14 | 2018-12-03 | Three-dimensional model generation device, generation method, and program |
US16/663,019 US11151787B2 (en) | 2017-12-14 | 2019-10-24 | Generation device, generation method and storage medium for three-dimensional model from object images and structure images |
US17/477,374 US11798233B2 (en) | 2017-12-14 | 2021-09-16 | Generation device, generation method and storage medium for three-dimensional model that remove a portion of the three-dimensional model |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017239891A JP6403862B1 (en) | 2017-12-14 | 2017-12-14 | Three-dimensional model generation apparatus, generation method, and program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018170606A Division JP2019106170A (en) | 2018-09-12 | 2018-09-12 | Three-dimensional model generation device, generation method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6403862B1 JP6403862B1 (en) | 2018-10-10 |
JP2019106145A true JP2019106145A (en) | 2019-06-27 |
Family
ID=63788232
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017239891A Active JP6403862B1 (en) | 2017-12-14 | 2017-12-14 | Three-dimensional model generation apparatus, generation method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6403862B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020068513A (en) * | 2018-10-26 | 2020-04-30 | キヤノン株式会社 | Image processing apparatus and image processing method |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7078564B2 (en) * | 2019-02-21 | 2022-05-31 | Kddi株式会社 | Image processing equipment and programs |
JP7391542B2 (en) | 2019-06-04 | 2023-12-05 | キヤノン株式会社 | Image processing system, image processing method, and program |
CN116481460B (en) * | 2023-05-26 | 2024-05-07 | 中国矿业大学 | Apparent pit defect size detection method based on three-dimensional reconstruction model |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008191072A (en) * | 2007-02-07 | 2008-08-21 | Nippon Telegr & Teleph Corp <Ntt> | Three-dimensional shape restoration method, three-dimensional shape restoring device, three-dimensional shape restoration program implemented with the method, and recording medium with the program stored |
JP2012088114A (en) * | 2010-10-18 | 2012-05-10 | Topcon Corp | Optical information processing device, optical information processing method, optical information processing system and optical information processing program |
-
2017
- 2017-12-14 JP JP2017239891A patent/JP6403862B1/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008191072A (en) * | 2007-02-07 | 2008-08-21 | Nippon Telegr & Teleph Corp <Ntt> | Three-dimensional shape restoration method, three-dimensional shape restoring device, three-dimensional shape restoration program implemented with the method, and recording medium with the program stored |
JP2012088114A (en) * | 2010-10-18 | 2012-05-10 | Topcon Corp | Optical information processing device, optical information processing method, optical information processing system and optical information processing program |
Non-Patent Citations (1)
Title |
---|
岩下 友美,外4名: "Fast Level Set Methodを用いた複数移動物体の三次元追跡", 日本ロボット学会誌, vol. 第23巻第7号通巻163号, JPN6018022803, 15 October 2005 (2005-10-15), JP, pages 47 - 54, ISSN: 0003818702 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020068513A (en) * | 2018-10-26 | 2020-04-30 | キヤノン株式会社 | Image processing apparatus and image processing method |
JP7249755B2 (en) | 2018-10-26 | 2023-03-31 | キヤノン株式会社 | Image processing system, its control method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP6403862B1 (en) | 2018-10-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11151787B2 (en) | Generation device, generation method and storage medium for three-dimensional model from object images and structure images | |
CN109561296B (en) | Image processing apparatus, image processing method, image processing system, and storage medium | |
KR102280587B1 (en) | System, method, and non-transitory computer readable storage medium for generating virtual viewpoint image | |
US20220005276A1 (en) | Generation device, generation method and storage medium for three-dimensional model | |
JP6403862B1 (en) | Three-dimensional model generation apparatus, generation method, and program | |
US10742852B2 (en) | Image processing apparatus, object shape estimation method, and storage medium | |
JP2008217593A (en) | Subject area extraction device and subject area extraction program | |
US11468258B2 (en) | Information processing apparatus, information processing method, and storage medium | |
JP2019106170A (en) | Three-dimensional model generation device, generation method and program | |
CN113763544A (en) | Image determination method, image determination device, electronic equipment and computer-readable storage medium | |
JP7265825B2 (en) | Generation device, generation method and program | |
Louis et al. | Rendering stereoscopic augmented reality scenes with occlusions using depth from stereo and texture mapping | |
JP2020004219A (en) | Apparatus, method, and program for generating three-dimensional shape data | |
CN113763545A (en) | Image determination method, image determination device, electronic equipment and computer-readable storage medium | |
JP2023080290A (en) | Information processing apparatus, control method of the same and program | |
JP2019114269A (en) | System, method and program for generating virtual viewpoint image | |
JP2019061684A (en) | Information processing equipment, information processing system, information processing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180410 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180530 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180619 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180730 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180814 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180911 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6403862 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |