JP2022103836A - Information processing device, information processing method, and program - Google Patents
Information processing device, information processing method, and program Download PDFInfo
- Publication number
- JP2022103836A JP2022103836A JP2020218722A JP2020218722A JP2022103836A JP 2022103836 A JP2022103836 A JP 2022103836A JP 2020218722 A JP2020218722 A JP 2020218722A JP 2020218722 A JP2020218722 A JP 2020218722A JP 2022103836 A JP2022103836 A JP 2022103836A
- Authority
- JP
- Japan
- Prior art keywords
- virtual viewpoint
- viewpoint image
- information processing
- image
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims description 31
- 238000003672 processing method Methods 0.000 title claims 2
- 238000000034 method Methods 0.000 claims description 69
- 238000012545 processing Methods 0.000 claims description 40
- 238000004040 coloring Methods 0.000 claims description 10
- 238000012217 deletion Methods 0.000 claims description 6
- 230000037430 deletion Effects 0.000 claims description 6
- 238000004458 analytical method Methods 0.000 description 69
- 230000007717 exclusion Effects 0.000 description 19
- 238000010586 diagram Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 8
- 239000003086 colorant Substances 0.000 description 7
- 230000000007 visual effect Effects 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 3
- 238000009877 rendering Methods 0.000 description 3
- 238000000926 separation method Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000011410 subtraction method Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
Abstract
Description
本開示の技術は、複数の撮像装置で撮影した画像から仮想視点画像を生成する技術に関する。 The technique of the present disclosure relates to a technique of generating a virtual viewpoint image from an image taken by a plurality of image pickup devices.
昨今、複数の撮像装置をそれぞれ異なる位置に設置して多視点で同期撮影し、当該撮影により得られた複数視点画像を用いて、指定された視点(仮想視点)からの見えを表す仮想視点画像を生成する技術が注目されている。仮想視点画像を生成する際は、撮像対象エリアに存在する人物等の被写体(前景オブジェクト)の三次元モデルを計算で求めることによって、撮像対象エリアを仮想視点から見たときの映像を作り出す。仮想視点画像の生成対象は種々あるが、例えばスタジアムで行われるスポーツイベントが挙げられる。このようなスポーツイベントは、放映や配信を目的に、放送局のスタッフ(カメラマン)による撮影が行われることが多い。また、規模の大きいイベントでは、ワイヤーカムと呼ばれる特殊な撮影システムが使用されることがある。ワイヤーカムは、撮影対象空間を張り渡した複数のワイヤーに撮像装置を吊り下げて撮影するシステムであり、例えばサッカーやラグビーといったフィールド競技においてダイナミックな俯瞰映像を撮影することができる。 Nowadays, multiple image pickup devices are installed at different positions to perform synchronous shooting from multiple viewpoints, and a virtual viewpoint image showing the view from a specified viewpoint (virtual viewpoint) using the multi-viewpoint image obtained by the shooting. The technology to generate is attracting attention. When generating a virtual viewpoint image, a three-dimensional model of a subject (foreground object) such as a person existing in the image capture area is calculated to create an image when the image capture area is viewed from the virtual viewpoint. There are various targets for generating virtual viewpoint images, and examples thereof include sporting events held in stadiums. Such sporting events are often filmed by broadcasting station staff (cameramen) for the purpose of broadcasting and distribution. Also, at large events, a special photography system called a wire cam may be used. The wire cam is a system for shooting by suspending an image pickup device from a plurality of wires extending over a space to be shot, and can shoot a dynamic bird's-eye view image in a field competition such as soccer or rugby.
上述したように大規模なスポーツイベント等では、放送局のカメラマンやワイヤーカムが撮影対象空間を移動する。その結果、選手等と同様にそれらが仮想視点画像に映り込んでしまい鑑賞の邪魔になるケースがある。このような本来の前景オブジェクトではない、鑑賞の妨げになる人物や物体については仮想視点画像上に表示されないことが望ましい。特許文献1には、第一のカメラで遮蔽物を検出した場合、第二のカメラによる撮影画像を視点変換処理し、それを第一のカメラの撮影画像に合成することで、遮蔽物によって遮られた被写体を確認できるようにする監視カメラシステムが提案されている。 As mentioned above, in a large-scale sporting event or the like, a cameraman or a wire cam of a broadcasting station moves in the shooting target space. As a result, there are cases in which they are reflected in the virtual viewpoint image as in the case of athletes and the like, which interferes with viewing. It is desirable that people and objects that interfere with viewing, which are not the original foreground objects, are not displayed on the virtual viewpoint image. According to Patent Document 1, when a shield is detected by the first camera, the image captured by the second camera is subjected to viewpoint conversion processing, and the image is combined with the image captured by the first camera to shield the image by the shield. A surveillance camera system has been proposed that allows the subject to be confirmed.
しかしながら、上記特許文献1の技術は、位置が固定された複数のカメラのうち遮蔽物が検出されなかったカメラの撮影画像を視点変換処理することで遮蔽物のない状態の画像を得るものである。したがって、仮想視点画像の生成にそのまま適用して、鑑賞の妨げになるオブジェクトを適切に取り除いた仮想視点画像を得ることは困難である。 However, the technique of Patent Document 1 obtains an image in a state without an obstruction by performing viewpoint conversion processing on an image taken by a camera in which an obstruction is not detected among a plurality of cameras whose positions are fixed. .. Therefore, it is difficult to obtain a virtual viewpoint image by applying it as it is to the generation of a virtual viewpoint image and appropriately removing objects that hinder viewing.
そこで、本開示の技術は、適切な仮想視点画像を生成することを目的とする。 Therefore, the technique of the present disclosure aims to generate an appropriate virtual viewpoint image.
本開示に係る情報処理装置は、視点の異なる複数の撮影画像を用いてオブジェクトの三次元形状を表す形状データを生成する第1生成手段と、前記第1生成手段が生成した形状データに係るオブジェクトが、仮想視点画像において不要なオブジェクトに該当するか否かを、少なくともオブジェクトの形状に関する条件に基づいて判定する判定手段と、前記判定手段により不要なオブジェクトと判定されたオブジェクトの表示が、前記判定手段により不要なオブジェクトと判定されなかったオブジェクトの表示よりも抑制された、仮想視点画像を生成する第2生成手段と、を有することを特徴とする。 The information processing apparatus according to the present disclosure includes a first generation means for generating shape data representing a three-dimensional shape of an object using a plurality of captured images having different viewpoints, and an object related to the shape data generated by the first generation means. However, the determination means for determining whether or not the object corresponds to an unnecessary object in the virtual viewpoint image based on at least the conditions relating to the shape of the object, and the display of the object determined to be an unnecessary object by the determination means are the determination. It is characterized by having a second generation means for generating a virtual viewpoint image, which is suppressed more than the display of an object that is not determined to be an unnecessary object by the means.
本開示の技術によれば、適切な仮想視点画像を生成することができる。 According to the technique of the present disclosure, an appropriate virtual viewpoint image can be generated.
以下、本開示の実施形態について、図面を参照して説明する。なお、以下の実施形態は本発明を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。なお、同一の構成については、同じ符号を付して説明する。 Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. It should be noted that the following embodiments do not limit the present invention, and not all combinations of features described in the present embodiment are essential for the means for solving the present invention. The same configuration will be described with the same reference numerals.
[実施形態1]
本実施形態では、オブジェクトの三次元形状を表す形状データ(以下、「三次元モデル」と呼ぶ。)を解析し、特定のオブジェクトの三次元モデルに対しては仮想視点画像において表示が不要であることを示す情報を付与する、そして、当該情報が付与された三次元モデルについては透明化処理することで、鑑賞の妨げになるオブジェクトが排除された仮想視点画像を得る。なお、仮想視点画像とは、エンドユーザ及び/又は選任のオペレータ等が自由に仮想カメラの位置及び姿勢を操作することによって生成される映像であり、自由視点映像や任意視点映像などとも呼ばれる。また、仮想視点画像は、動画であっても、静止画であってもよい。以下では、仮想視点画像が動画である場合を例に、本実施形態を実現する画像処理システムについて説明する。
[Embodiment 1]
In this embodiment, shape data representing the three-dimensional shape of an object (hereinafter referred to as "three-dimensional model") is analyzed, and the three-dimensional model of a specific object does not need to be displayed in a virtual viewpoint image. By adding information indicating that, and by making the three-dimensional model to which the information is added transparent, a virtual viewpoint image in which objects that hinder viewing are excluded is obtained. The virtual viewpoint image is an image generated by the end user and / or an appointed operator freely manipulating the position and posture of the virtual camera, and is also called a free viewpoint image or an arbitrary viewpoint image. Further, the virtual viewpoint image may be a moving image or a still image. Hereinafter, an image processing system that realizes the present embodiment will be described by taking the case where the virtual viewpoint image is a moving image as an example.
(基本的なシステム構成)
図1は、本実施形態に係る、仮想視点画像を生成する画像処理システムの構成の一例を示すブロック図である。画像処理システム100は、複数の撮像モジュール110、スイッチングハブ115、サーバ116、データベース(DB)117、制御装置118、及び表示装置119を有する。複数の撮像モジュール110のそれぞれには、撮像装置であるカメラ111とカメラアダプタ112が、それぞれ内部配線によって接続されて存在する。各撮像モジュール110は、ネットワークケーブルによって伝送を行う。スイッチングハブ(以下、「HUB」と表記)115は、各ネットワーク装置間のルーティングを行う装置である。撮像モジュール110それぞれは、ネットワークケーブル113でHUB115に接続されている。同様に、サーバ116、DB117及び制御装置118もネットワークケーブル113でそれぞれHUB115に接続されている。そして、制御装置118と表示装置119との間は、映像用ケーブル114で接続されている。各カメラ111は、同期信号に基づいて互いに高精度に同期して撮影を行う。図2に示す通り、本実施形態においては、複数の撮像モジュール110(便宜上10台のみ図示)が、撮影対象空間であるスタジアムのフィールドを囲むように設置されている。また、仮想視点画像の生成には用いない、放送用映像を撮影するためのワイヤーカム120がフィールド上空に張ったワイヤーから吊り下げられた状態で設置されている。
(Basic system configuration)
FIG. 1 is a block diagram showing an example of the configuration of an image processing system for generating a virtual viewpoint image according to the present embodiment. The
サーバ116は、撮像モジュール110で得られた撮影画像の加工、オブジェクトの三次元モデルの生成・解析、生成された三次元モデルへの色付け(「テクスチャの貼り付け」、「テクスチャマッピング」とも呼ばれる)などを行う情報処理装置である。サーバ116は、本システムの時刻同期を行うための時刻同期信号を生成するタイムサーバ機能も有している。本実施形態において三次元モデルの生成対象となるオブジェクトは、選手やボールといった動体オブジェクトである。この場合において、フィールド上空を動き回るワイヤーカム120や、フィールド周辺を移動しながら放送用映像の撮影を行うカメラマンなども形式的には動体オブジェクトに該当し、三次元モデルの生成対象となってしまうことが本開示技術における課題である。データベース(以下、「DB」と表記)117は、各撮像モジュール110で得られた撮影画像や生成された三次元モデル等のデータを蓄積したり、蓄積されているデータをサーバ116や制御装置118に提供したりする。制御装置118は、各撮像モジュール110やサーバ116を制御する情報処理装置である。また、制御装置118は、仮想カメラ(仮想視点)の設定にも利用される。表示装置119は、制御装置118においてユーザが仮想視点を指定するための設定用ユーザインタフェース画面(UI画面)の表示や、生成された仮想視点画像の閲覧用UI画面の表示などを行う。表示装置119は、例えばテレビ、コンピュータのモニタ、タブレットやスマートフォンの液晶表示部などであり、機器の種類は問わない。
The
(画像処理システムの動作)
次に、画像処理システム100における大まかな動作を説明する。撮像モジュール110にて得られた撮影画像は前景背景分離等の所定の画像処理が施された後、次の撮像モジュール110に伝送される。同様に次の撮像モジュール110では、自モジュールにて得た撮影画像を、前の撮像モジュール110から受け取った撮影画像と合わせて、さらに次の撮像モジュール110に伝送する。このような動作を続けることにより、100セット分の撮影画像(前景画像を含む)が、HUB115を介してサーバ116へ伝送される。
(Operation of image processing system)
Next, a rough operation in the
サーバ116は、すべての撮像モジュール110から取得した視点の異なる撮影画像データに基づき、オブジェクトの三次元モデルの生成やレンダリング処理を行って、仮想視点画像を生成する。また、サーバ116は、時刻及び同期信号を各撮像モジュール110に対して送信する。時刻と同期信号を受信した各撮像モジュール110は、受信した時刻及び同期信号を用いて撮像を行い、撮影画像のフレーム同期を行う。即ち、各撮像モジュール110では同じ時刻に同期してフレーム単位で撮影が行われる。なお、撮影画像データのフォーマットについては、特に限定するものではない。例えば、画素単位のビット深度(8ビット、10ビットなど)、画素単位の色を表現するフォーマット(YUV444、YUV422、RGBなど)を限定するものではない。画像ファイル形式についても限定しない。例えば、一般的なPNG(Portable Network Graphics)、やJPEG(Joint Photographic Experts Group)の形式であるとする。
The
仮想視点画像の生成に際しては、まず、視点の異なる複数の撮影画像から前景となるオブジェクト毎にそのシルエットが抽出される。次に、抽出したオブジェクトのシルエットを表す画像(前景画像)を使用して、例えばVisualHull方式(視体積交差法)によってオブジェクトの3次元モデルを生成する。最後に、生成したオブジェクトの3次元モデルに対して、各物理カメラ111の撮影画像に含まれる色情報(テクスチャ情報)を利用して色を付ける。以上のような処理により、任意の仮想視点からの見えを表す仮想視点画像が得られる。なお、仮想視点画像を生成する際に、上述のモデルベースの方式に代えて、モーフィング方式やビルボーディング方式を用いてもよい。モーフィング方式は、近接したカメラ間の映像をカメラの位置関係に応じて補間することで合成し、カメラ間の仮想視点画像を生成する方式である。また、ビルボーディング方式は、撮影画像の被写体の2次元画像を抜き出し、仮想視点に応じて3次元空間上で射影演算処理によって向きを変えることで仮想視点画像を生成する方式である。こういった、物理カメラによる複数の撮影画像を合成処理や射影変換処理することで仮想視点画像を取得する手法はイメージベースレンダリングと呼ばれる。
When generating a virtual viewpoint image, first, the silhouette of each of the foreground objects is extracted from a plurality of captured images having different viewpoints. Next, using an image (foreground image) representing the silhouette of the extracted object, a three-dimensional model of the object is generated, for example, by the Visual Hull method (visual volume crossing method). Finally, the three-dimensional model of the generated object is colored by using the color information (texture information) included in the captured image of each
(情報処理装置のハードウェア構成)
続いて、サーバ116及び制御装置118といった情報処理装置のハードウェア構成について、図3を用いて説明する。なお、撮像モジュール110a~110j内のカメラアダプタ112a~112jなども、基本的には同様のハードウェア構成を有している。情報処理装置は、CPU201、ROM202、RAM203、補助記憶装置204、通信I/F205、操作部206及びバス207を有する。
(Hardware configuration of information processing equipment)
Subsequently, the hardware configuration of the information processing device such as the
CPU201は、ROM202やRAM203に格納されているプログラムやデータを用いて情報処理装置の全体を制御する。なお、CPU201とは異なる1又は複数の専用のハードウェアを有し、CPU201による処理の少なくとも一部を専用のハードウェアが実行してもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。ROM202は、変更を必要としないプログラムなどを格納する。RAM203は、補助記憶装置204から提供されるプログラムやデータ、及び通信I/F205を介して外部から提供されるデータなどを一時記憶する。補助記憶装置204は、例えばHDDやSSD等で構成され、画像データや音声データといった入力データの他、後述の各種処理で参照されるテーブル、各種アプリケーションプログラムなど、様々なデータやプログラムを記憶する。通信I/F205は、外部装置との通信に用いられる。例えば、外部装置と有線で接続される場合には、通信用のケーブルが通信I/F205に接続され、外部装置と無線通信する機能を有する場合には、通信I/F205はアンテナを備える。操作部206は、例えばキーボードやマウス、ジョイスティック、タッチパネル等で構成され、ユーザによる操作を受けて各種の指示をCPU201に入力する。バス207は、上記各部を繋いでデータや信号を伝達する。
The
なお、本実施形態では、サーバ116にて三次元モデルの生成と仮想視点画像の生成の両方を行っているが、システム構成はこれに限定されるものではない。例えば、三次元モデルの生成を行うサーバと仮想視点画像の生成を行うサーバが別々に存在してもよい。
In this embodiment, the
(サーバのソフトウェア構成)
図4は、本実施形態に係る、サーバ116のソフトウェア構成を示すブロック図である。本開示の技術では、鑑賞の妨げになるオブジェクトの三次元モデルの特徴に基づいて、非表示にする三次元モデルを決定する。そして、非表示にすると決定された三次元モデルを透明化して表示することで、鑑賞の妨げになるオブジェクトを不可視化し、仮想視点画像の品質を高める。図4に示すようにサーバ116は、データ入力部401、三次元モデル生成部402、三次元モデル解析部403、非表示設定部404及び仮想視点画像生成部405を有する。以下、各部について順に説明する。
(Server software configuration)
FIG. 4 is a block diagram showing a software configuration of the
データ入力部401は、撮像モジュール110で撮影されDB117に格納された視点の異なる複数の撮影画像のデータを取得する。取得した複数の撮影画像のデータは、三次元モデル生成部402と仮想視点画像生成部405に送られる。また、データ入力部401は、仮想視点の位置及び姿勢、画角、焦点距離といった、仮想視点画像の生成に必要な各種パラメータから成る情報(以下、「仮想視点情報」と呼ぶ。)を制御装置118から取得する。取得した仮想視点情報は、仮想視点画像生成部405に送られる。
The
三次元モデル生成部402は、データ入力部401から受け取った撮影画像データに基づいて、各撮影画像内に存在する動体オブジェクトの三次元モデルを生成する。以下、具体的な生成手順について簡単に説明する。まず、各撮影画像を前景背景分離処理し、オブジェクトのシルエットを表す前景画像を生成する。ここでは前景背景分離の方式として背景差分法を用いることとする。背景差分法では、まず、複数フレームから成る撮影画像のうち時系列に異なるフレーム同士を比較し、画素値の差が小さい箇所を動きのない画素として特定する。そして、特定された動きのない画素を用いて背景画像を生成する。こうして生成した背景画像と撮影画像の注目するフレームとを比較することで、当該フレームにおいて背景との差分の大きい画素を前景となる画素として特定して、前景画像を生成する。以上の処理を、視点の異なる複数の撮影画像それぞれについて行う。次に、各撮影画像に対応する前景画像を用いて、視体積交差法により三次元モデルを抽出する。視体積交差法では、対象三次元空間を細かい単位立方体(ボクセル)に分割し、各ボクセルが複数の撮影画像に映る場合の画素位置を三次元計算によって求め、各ボクセルが前景の画素に該当するか否かを判断する。全ての撮像モジュールの撮影画像において前景の画素と判断された場合、そのボクセルは対象三次元空間において、オブジェクトを構成するボクセルであると特定される。こうして、特定されたボクセルのみを残し、他のボクセルを削除していく。そして、最終的に残ったボクセル群が、対象三次元空間に存在するオブジェクトの三次元形状を表す三次元モデルとなる。生成したオブジェクト毎の三次元モデルは、その基になった撮影画像データと共に、三次元モデル解析部403に送られる。
The three-dimensional
三次元モデル解析部403は、三次元モデル生成部402が生成した三次元モデルについて解析処理を行う。この解析処理では、まず、仮想視点画像から除外する特定のオブジェクト(以下、「除外オブジェクト」と呼ぶ。)の三次元モデルであるかどうかを後述の除外条件を参照して判定する。そして、除外オブジェクトに該当すると判定された三次元モデルに対しては、仮想視点画像における表示が不要であることを示す情報(例えば、表示不要な場合に「1」それ以外の場合に「0」を割り当てたフラグ。以下、「非表示フラグ」と表記。)を付与する。三次元モデル解析部403の詳細については後述する。
The three-dimensional
非表示設定部404は、除外オブジェクトが仮想視点画像上に映らないようにするための表示制御の実現に必要な設定を行う。具体的には、除外オブジェクトの非表示制御を行うかどうかの動作モード(非表示モード)の有効/無効や、どのようなオブジェクトを除外オブジェクトとするかを規定する条件(除外条件)をユーザ指示に基づいて設定する。図5(a)は、ユーザが非表示モードの設定を行うためのユーザインタフェース画面(UI画面)の一例を示している。鑑賞の妨げなる特定のオブジェクトが仮想視点画像上に表示されないようにしたいユーザは、非表示モードを有効にするためのラジオボタン501にチェックを入れてOKボタン503を押下する。すると、図5(b)に示す除外条件の設定用画面へと遷移する。この遷移後のUI画面にて、ユーザは、除外オブジェクトについての詳細な条件(ここでは、オブジェクトの色、形状、及び三次元空間における位置)を指定できる。いま、図5(b)においては、三次元空間における位置を指定するためのボタン511が選択されてポップアップウィンドウ512が表示され、地上からの高さを規定する値“3000(mm)”が入力フィールド513に入力された状態となっている。この場合、地上からの高さが3m以上のオブジェクトが除外オブジェクトとして設定されることになり、これによりフィールド上空を動き回るワイヤーカム120は解析処理において除外オブジェクトと判定されることになる。また、高さ方向の位置情報の条件としては、表示対象のオブジェクトよりも高い位置にあるものを除外オブジェクトとなるように設定してもよい。
The
ここでは三次元空間における高さ(z座標)が一定以上であることのみを位置の条件としているが、例えばx軸、y軸、z軸それぞれについて閾値を設け、各軸における座標値が閾値以上、閾値以下、閾値との差が一定値以内、といった条件を設定してもよい。また、任意のフレームに対応する仮想視点画像をプレビューエリア515に表示し、当該画像から鑑賞の妨げになるオブジェクトをマウス等でユーザに選択させ、該オブジェクトの特徴(色、形状、位置、大きさなど)が除外条件として自動で設定されるようにしてもよい。さらには、ユーザがあるオブジェクトを選択するとその特徴をリスト表示し、該リストの中から除外条件とする特徴をユーザに選択させるようにしてもよい。こうして除外オブジェクトを規定する様々な条件を指定したユーザは、最終的に非表示制御の対象にするかどうかの判定基準となる組み合わせ条件516を指定する。組み合わせ条件には、一般的なAND条件(論理積)やOR条件(論理和)といった一般的な論理演算を利用できる。例えばAND条件を使用する場合は、入力フィールド517に“AND”を入力すればよい。AND条件が指定された場合、各解析部602~604の解析結果がすべて「条件を満たす」となった三次元モデルが、仮想視点画像において非表示とする三次元モデルとして決定されることになる。同様にOR条件を使用した場合は、各解析部602~604の解析結果のいずれかが「条件を満たす」となった三次元モデルが、仮想視点画像において非表示とする三次元モデルとして決定される。制御装置118等を介して行われるこのようなユーザ指示に基づき、非表示モードの有効/無効や、除外オブジェクトを特定するための条件が設定される。
Here, the only condition for the position is that the height (z coordinate) in the three-dimensional space is above a certain level, but for example, thresholds are set for each of the x-axis, y-axis, and z-axis, and the coordinate values in each axis are above the threshold. , Below the threshold value, and the difference from the threshold value is within a certain value. Further, a virtual viewpoint image corresponding to an arbitrary frame is displayed in the
仮想視点画像生成部405は、データ入力部401から入力される撮影画像データと仮想視点情報、及び三次元モデル解析部403から入力される三次元モデルを用いて、仮想視点画像を生成する。具体的には、仮想視点情報によって特定される画角において各三次元モデルが、三次元空間上でどのように見えるかを計算し、対応する実カメラの撮影画像を用いて色付けすることで、仮想視点からの見えを表す画像を生成する。その際、非表示モードが有効であれば、除外オブジェクトの三次元モデルについてはその表示が抑制されるようにする。具体的には、通常の色付けを行わず、透過度を制御可能なアルファブレンディングなどの手法を用いて半透明化ないしは完全透明化する処理を行う。非表示モードが無効である場合は、非表示フラグの内容に関わらず全ての三次元モデルに通常の色付け処理を行って仮想視点からの見えを表す画像が生成される。こうして得られた仮想視点画像のデータは制御装置118を介して表示装置119に送られ、ユーザの視聴に供される。
The virtual viewpoint
なお、上記5つの機能部を複数の情報処理装置で分担して実現することも可能である。例えば三次元モデル解析部403の出力結果を、仮想視点画像生成部405の機能を備えた別の情報処理装置に入力するような構成でもよい。
It is also possible to share and realize the above five functional units by a plurality of information processing devices. For example, the output result of the three-dimensional
(三次元モデル解析部の詳細)
続いて、三次元モデル解析部403が行う非表示判定及び特徴情報付与について詳しく説明する。図6は、三次元モデル解析部403の内部構成を示す機能ブロック図である。図示されるように、三次元モデル解析部403は、除外条件保持部601、色解析部602、位置解析部603、形状解析部604、非表示判定部605、特徴情報付与部606を有する。
(Details of 3D model analysis unit)
Subsequently, the non-display determination and the addition of feature information performed by the three-dimensional
除外条件保持部601は、非表示設定部404によって設定された上述の除外条件を保持し、3つの解析部602~604に対し解析項目に応じた条件を出力する。すなわち、除外条件のうち、位置に関する条件を位置解析部602に、色に関する条件を色解析部603に、形状に関する条件を形状解析部604に出力する。また、除外条件保持部601は、各解析部602~604における解析結果の組み合わせ条件を保持し、非表示判定部505に対し出力する。
The exclusion
位置解析部602は、三次元モデル生成部402から提供される三次元モデルの仮想視点映像空間における位置が、除外条件の中の位置に関する条件(上述の例では地上からの高さ)に合致するか否かを判定する位置解析処理を行う。具体的には、対象三次元モデルのバウンディングボックスの下端のz座標が表す高さが、条件で指定された高さを超える場合、当該対象三次元モデルのオブジェクトは、位置に関する条件を満たすことになる。ここで、バウンディングボックスとは、オブジェクトの三次元形状を表すボクセル群の外接直方体を意味する。位置解析処理の結果は対象三次元モデルに付与されて、非表示判定部605に送られる。
In the
色解析部603は、三次元モデル生成部402から提供される三次元モデルを構成する各ボクセルに対応する色が、除外条件の中の色に関する条件に合致するか否かを判定する色解析処理を行う。いま、撮影画像の各画素が、RGBそれぞれ最大値“4095”の色輝度値で表現される色を持つとする。この場合の色に関する条件としては、RGBそれぞれの色輝度値がいずれも“100”以下といった条件を設定すればよい。この条件の場合、対象三次元モデルが黒に近い色を持つ場合、そのオブジェクトは除外オブジェクトの条件を満たすことになる。より詳細には、対象三次元モデルを構成する各ボクセルについて、各実カメラまでの距離や角度(実カメラの視線方向)などに基づき色解析処理において参照する撮影画像を決定して、対応する色を付与する。そして、付与された色を上記条件と比較し、RGBそれぞれの色輝度値が閾値以下であるかどうかが判定される。このとき、すべてのボクセルの色それぞれが上記条件に合致するかを判定してもよいし、すべてのボクセルの色の平均値が上記条件に合致するかを判定してもよい。色解析処理の結果は対象三次元モデルに付与されて、非表示判定部605に送られる。
The
形状解析部604は、三次元モデル生成部402から提供される三次元モデルの形状が、除外条件の中の形状に関する条件に合致するか否かを判定する形状解析処理を行う。図7の(a)~(l)は、三次元モデルの基礎形状パターンの一例を示している。形状に関する条件としては、例えばこのような基礎形状パターンを踏まえ、対象三次元モデルの形状が(j)人型、(k)楕円、(l)球のいずれの形状パターンにも該当しないこと、といった条件を設定すればよい。この条件の場合、対象三次元モデルの形状が例えば筒型など、人型、楕円、球以外の形状を持つ場合に、そのオブジェクトは除外オブジェクトに該当することになる。形状解析処理の結果は対象三次元モデルに付与されて、非表示判定部605に送られる。
The
非表示判定部605は、位置解析部602、色解析部603、形状解析部604における各解析処理の結果、及び条件保持部601から提供される組み合わせ条件に基づいて、仮想視点映像空間に存在する各オブジェクトの三元モデルについての非表示判定を行う。なお、各解析部602~604において使用する各種条件における閾値の設定の仕方によっては「条件を満たさない」となった対象三次元モデルを非表示にするなど、上述の組み合わせ条件以外の条件によって判定することも可能である。このような判定処理を終えた各三次元モデルは、その判定結果と共に、特徴情報付与部606に出力される。
The
特徴情報付与部606は、非表示判定部605から受け取った各三次元モデルに対し特徴情報を付与する。この特徴情報の中には、それぞれの非表示判定の結果に基づいて決まる上述の非表示フラグも含まれる。図8は、三次元モデルの特徴情報の一例を示すテーブルである。上述のとおり三次元モデルは、複数のボクセルで構成されており、1つのオブジェクトの3次元形状を表すボクセル群全体のバウンディングボックス(外接直方体)がまず定義される。そして、各三次元モデルについて、その大きさ、形状、色付けに使用される色といった各項目に対応する情報が格納される。この場合において、大きさ情報は、バンディングボックスの体積値と、実際に存在するボクセル数とする。また、形状情報は、例えば前述の図7に示す基礎形状パターンから最も近似した基礎形状パターンの情報が格納される。また、色情報は、各ボクセルに対応する色のうち一番多い色を示す代表色及びRGBそれぞれの値の平均値が格納される。
The feature
なお、上述の例では、三次元モデルの位置、色、形状の3つを解析要素としているが、解析要素はこれらに限定されない。例えばこれらに加えて、三次元モデルの大きさ(サイズ)を解析要素としてもよい。また、ある条件を満たすかどうかの判定の際には、閾値との比較において、「閾値以上」、「閾値以下」、「閾値より大きい」、「閾値より小さい」、「基準値との差が〇〇以内」、「基準値との差が△△以上」等を使用することができる。 In the above example, the position, color, and shape of the three-dimensional model are used as analysis elements, but the analysis elements are not limited to these. For example, in addition to these, the size of the three-dimensional model may be used as an analysis element. In addition, when determining whether or not a certain condition is satisfied, in comparison with the threshold value, there are "greater than or equal to the threshold value", "below the threshold value", "greater than the threshold value", "less than the threshold value", and "difference from the reference value". You can use "within 〇〇", "difference from the standard value is △△ or more", etc.
(仮想視点画像生成処理の流れ)
図9は、本実施形態に係る、サーバ116における仮想視点画像生成処理の流れを示すフローチャートである。本フローチャートが示す一連の処理は、サーバ116のCPU201がROM202や補助記憶装置204から所定のプログラムを読み出してこれを実行することで実現される。
(Flow of virtual viewpoint image generation process)
FIG. 9 is a flowchart showing the flow of the virtual viewpoint image generation process in the
以下、図9のフローチャートに従って、本実施形態に係る仮想視点画像生成処理の流れを説明する。なお、図9のフローは、制御装置118からの仮想視点画像生成の開始信号に応答してその実行が開始するものとする。そして、当該開始信号には、前述の仮想視点情報と、非表示モードの有効/無効を示すモード選択情報が付加されているものとする。また、実行開始の時点ではデータ入力部401に対し、仮想視点画像の基になる撮影画像データが入力済みであるものとする。以下の説明において記号「S」はステップを意味する。
Hereinafter, the flow of the virtual viewpoint image generation process according to the present embodiment will be described with reference to the flowchart of FIG. It is assumed that the flow of FIG. 9 starts its execution in response to the start signal of virtual viewpoint image generation from the
S901では、非表示設定部404が、制御装置118から入力されたモード選択情報に基づき、非表示モードの有効/無効を設定する。この場合において、非表示モードが有効に設定される場合には、さらに非表示制御の対象オブジェクト(除外オブジェクト)を特定するための除外条件も併せて設定される。
In S901, the
S902では、三次元モデル生成部402が、仮想視点情報に含まれる時刻情報に基づき、処理対象フレームの画像を取得する。ここで、時刻情報は、撮影画像データにおける所定期間を特定する開始時刻と終了時刻の情報である。続くS903では、三次元モデル生成部402が、処理対象フレームの画像内に存在する各オブジェクトの三次元モデルを生成する。生成したオブジェクト単位の三次元モデルは、三次元モデル解析部403に送られる。
In S902, the three-dimensional
S904では、三次元モデル解析部403が、S903にて生成されたオブジェクト毎の三次元モデルに対して前述した解析処理を行なう。すなわち、各三次元モデルについて、位置、色、形状の観点からその特徴を特定し、当該特定された特徴が除外オブジェクトの特徴と合致するかが、S901にて設定された除外条件を参照して判定される。そして、判定結果に応じた非表示フラグを含む特徴情報が、各三次元モデルに対して付与される。こうして、解析結果に従い特徴情報が付与された三次元モデルは、仮想視点画像生成部405に送られる。
In S904, the three-dimensional
S906では、S901にて設定された非表示モードの設定内容に応じて処理が振り分けられる。すなわち、非表示モードの設定が無効(オフ)の場合にはS907に進み、有効(オン)の場合にはS908に進む。 In S906, the processing is distributed according to the setting content of the non-display mode set in S901. That is, if the non-display mode setting is invalid (off), the process proceeds to S907, and if it is valid (on), the process proceeds to S908.
非表示モードがオフの場合のS907では、仮想視点画像生成部405が、処理対象フレームに存在するすべてのオブジェクトが表示された仮想視点画像を生成する。具体的には、非表示フラグの値に関わらず、入力されたすべての三次元モデルについて通常の色付けを行なって、処理対象フレームに対応する仮想視点画像を生成する。
In S907 when the non-display mode is off, the virtual viewpoint
一方、非表示モードが有効の場合のS908では、仮想視点画像生成部405が、処理対象フレームにおいて除外オブジェクトについては非表示にした仮想視点画像を生成する。具体的には、非表示フラグの値が「0」の三次元モデルについては通常の色付けを行ない、非表示フラグの値が「1」の三次元モデルについては透明化処理を行って、処理対象フレームに対応する仮想視点画像を生成する。
On the other hand, in S908 when the non-display mode is enabled, the virtual viewpoint
S909では、仮想視点画像の生成を終了するかどうかが判定される。仮想視点情報に含まれる時刻情報で指定されるすべてのフレームについて処理が完了していれば、本処理を終了する。一方、未処理のフレームがあればS902に戻り、次の処理対象フレームの画像を取得して処理を続行する。 In S909, it is determined whether or not to end the generation of the virtual viewpoint image. If the processing is completed for all the frames specified by the time information included in the virtual viewpoint information, this processing is terminated. On the other hand, if there is an unprocessed frame, the process returns to S902, the image of the next frame to be processed is acquired, and the processing is continued.
以上が、本実施形態に係る仮想視点画像生成処理の流れである。図10の(a)及び(b)は本実施形態の効果を説明する図である。図10(a)は従来手法で生成した仮想視点画像の一例、同(b)は本実施形態の手法で生成した仮想視点画像の一例である。図10(a)の従来手法の仮想視点画像の場合、ワイヤーカム120が前景オブジェクトとして扱われる結果、そのまま表示されてしまっている。これに対し、図10(b)の本実施形態の手法による仮想視点画像の場合は、ワイヤーカム120の三次元モデルが透明化処理されるので、出来上がった仮想視点画像上は視聴者が視認できないようになっている。
The above is the flow of the virtual viewpoint image generation process according to the present embodiment. FIGS. 10A and 10B are diagrams illustrating the effects of the present embodiment. FIG. 10A is an example of a virtual viewpoint image generated by the conventional method, and FIG. 10B is an example of a virtual viewpoint image generated by the method of the present embodiment. In the case of the virtual viewpoint image of the conventional method of FIG. 10A, the
なお、上述の例では、時刻情報によって特定される所定期間内の全フレームを順に処理対象フレームとして仮想視点画像を生成しているが、これに限定されない。例えば一般的なキーフレーム法を用いて仮想視点画像を生成してもよい。キーフレーム法は、任意の仮想視点を対応付けた基準となるフレーム(「キーフレーム」と呼ばれる)を複数設定し、設定した複数のキーフレーム間を補間することによって仮想視点のパス情報を得て、所定期間に対応する仮想視点画像を生成する手法である。このようなキーフレーム法による場合も本実施形態の手法は同様に適用可能である。 In the above example, the virtual viewpoint image is generated by sequentially using all the frames within the predetermined period specified by the time information as the processing target frames, but the present invention is not limited to this. For example, a virtual viewpoint image may be generated by using a general key frame method. In the key frame method, multiple reference frames (called "key frames") associated with any virtual viewpoint are set, and the path information of the virtual viewpoint is obtained by interpolating between the set multiple key frames. , Is a method of generating a virtual viewpoint image corresponding to a predetermined period. Even in the case of such a key frame method, the method of the present embodiment can be similarly applied.
また、上述の例では説明の簡単化のため、フレーム単位のループ処理の前に非表示モードの有効/無効の設定を行っているが、これに限定されない。例えば、仮想視点画像を生成途中に非表示モードの設定を変更できるようにしてもよい。 Further, in the above example, for the sake of simplification of the explanation, the non-display mode is enabled / disabled before the loop processing for each frame, but the present invention is not limited to this. For example, the setting of the non-display mode may be changed during the generation of the virtual viewpoint image.
以上のとおり本実施形態によれば、撮影画像内に存在するオブジェクトの三次元モデルの特徴に基づき、一定条件を満たすオブジェクトの三次元モデルについてはその色付け時に透明化処理されることになる。これにより、鑑賞の妨げになるオブジェクトが仮想視点画像上は視認できなくなるので、ユーザは鑑賞の妨げになるオブジェクトを気にせずに視聴することができる。 As described above, according to the present embodiment, based on the characteristics of the three-dimensional model of the object existing in the captured image, the three-dimensional model of the object satisfying a certain condition is transparentized at the time of coloring. As a result, the objects that hinder the viewing cannot be visually recognized on the virtual viewpoint image, so that the user can view the objects without worrying about the objects that hinder the viewing.
なお、ワイヤーカムを例に説明したが、鑑賞の妨げになるオブジェクトとしてはこれに限られない。例えば、鑑賞の妨げになるオブジェクトとしては、ドローンのような小型の航空機や飛翔体にカメラが取り付けられた装置であってもよい。また、鑑賞の妨げになるオブジェクトとしては、固定カメラであってもよい。 Although the wire cam has been described as an example, the object that hinders viewing is not limited to this. For example, the object that interferes with viewing may be a small aircraft such as a drone or a device in which a camera is attached to a flying object. Further, the fixed camera may be used as an object that hinders viewing.
[実施形態2]
実施形態1は、あるオブジェクトが鑑賞の妨げになる場合にその三次元モデルについては、その色付け時に透明化処理することで仮想視点画像における表示を抑制する形態であった。次に、鑑賞の妨げになる除外オブジェクトに該当した場合にはその三次元モデルを予め削除し、残った三次元モデルのみを用いてレンダリング処理を行うことで、除外オブジェクトについての仮想視点画像における表示を抑制する態様を、実施形態2として説明する。なお、画像処理システムの基本構成など実施形態1と共通する内容については説明を省略ないしは簡略化することとし、以下では差異点を中心に説明を行うこととする。
[Embodiment 2]
In the first embodiment, when an object interferes with appreciation, the three-dimensional model is transparentized at the time of coloring to suppress the display in the virtual viewpoint image. Next, if it corresponds to an excluded object that interferes with viewing, the 3D model is deleted in advance, and rendering processing is performed using only the remaining 3D model to display the excluded object in the virtual viewpoint image. The mode of suppressing the above will be described as the second embodiment. The contents common to the first embodiment, such as the basic configuration of the image processing system, will be omitted or simplified, and the differences will be mainly described below.
(サーバのソフトウェア構成)
図11は、本実施形態に係る、サーバ116のソフトウェア構成を示すブロック図である。本実施形態では、非表示にすると決定された三次元モデルを削除することで、鑑賞の妨げになるオブジェクトがそもそも存在しない仮想視点画像を生成する。図11に示すとおり、本実施形態の場合も実施形態1と同様に5つの機能部(データ入力部401’、三次元モデル生成部402’、三次元モデル解析部403’、非表示設定部404’及び仮想視点画像生成部405’)を有する。以下、実施形態1と異なる部分を中心に、各部について順に説明する。
(Server software configuration)
FIG. 11 is a block diagram showing a software configuration of the
データ入力部401’は、DB117から撮影画像のデータを取得し、制御装置118から仮想視点情報を取得すると、それらを三次元モデル生成部402’に送る。
三次元モデル生成部402’は、データ入力部401’から受け取った撮影画像データに基づいて、動体オブジェクトの三次元モデルを生成する。さらに三次元モデル生成部402’は、生成した三次元モデルを構成する各ボクセルに対し色情報を付与する処理を行う。この色情報の付与では、注目するボクセルと各実カメラとの距離や角度といった位置関係に基づいて、色情報の提供元になる撮影画像を決定し(複数の場合には必要に応じ重み付けを行なうなどして)、決定した撮影画像における対応する色のRGB値が付与される。こうしてボクセル単位で色情報が付与された三次元モデル(以下、「色付き三次元モデル」と呼ぶ。)は、三次元モデル解析部403’に送られる。
The data input unit 401'acquires captured image data from the
The three-dimensional model generation unit 402'generates a three-dimensional model of a moving object based on the captured image data received from the data input unit 401'. Further, the three-dimensional model generation unit 402'performs a process of imparting color information to each voxel constituting the generated three-dimensional model. In this color information assignment, the captured image that is the source of the color information is determined based on the positional relationship such as the distance and angle between the boxel of interest and each actual camera (in the case of a plurality of images, weighting is performed as necessary). And so on), the RGB values of the corresponding colors in the determined captured image are given. The three-dimensional model to which the color information is given in voxel units (hereinafter, referred to as "colored three-dimensional model") is sent to the three-dimensional model analysis unit 403'.
三次元モデル解析部403’は、三次元モデル生成部402’が生成した色付き三次元モデルについて、除外オブジェクトの三次元モデルであるかどうかの解析処理を行う。この際、非表示モードが有効になっている場合のみ解析処理を行えば足りる。解析処理の内容は、基本的には、実施形態1で説明したとおりである。ただし、本実施形態における色解析処理では、三次元モデルが既に色情報を持っているので、その色情報を使用して色の解析を行えばよい点で実施形態1と異なる。また、除外オブジェクトの三次元モデルを削除する本実施形態の場合、非表示フラグは不要となるので、各三次元モデルに付される特徴情報の中に非表示フラグは含まれない。そして、三次元モデル解析部403’は、解析処理によって除外条件(=組み合わせ条件)に合致していると判定された色付き三次元モデルについては、仮想視点画像生成部405’に送ることなく削除する。つまり、削除されることなく残った非除外オブジェクトの色付き三次元モデルだけが仮想視点画像生成部405’に送られる。 The three-dimensional model analysis unit 403'performs an analysis process of whether or not the colored three-dimensional model generated by the three-dimensional model generation unit 402'is a three-dimensional model of the excluded object. At this time, it is sufficient to perform the analysis process only when the non-display mode is enabled. The content of the analysis process is basically as described in the first embodiment. However, in the color analysis process in the present embodiment, since the three-dimensional model already has the color information, the color analysis may be performed using the color information, which is different from the first embodiment. Further, in the case of the present embodiment in which the three-dimensional model of the excluded object is deleted, the hidden flag is not required, so that the hidden flag is not included in the feature information attached to each three-dimensional model. Then, the three-dimensional model analysis unit 403'deletes the colored three-dimensional model determined by the analysis process to meet the exclusion condition (= combination condition) without sending it to the virtual viewpoint image generation unit 405'. .. That is, only the colored three-dimensional model of the non-excluded object that remains without being deleted is sent to the virtual viewpoint image generation unit 405'.
仮想視点画像生成部405’は、データ入力部401から入力される仮想視点情報及び三次元モデル解析部403’から入力される色付き三次元モデルを用いて、仮想視点画像を生成する。すなわち、仮想視点画像生成部405’は、入力されたすべての色付き三次元モデルに対し、各三次元モデルに付与されている色情報を用いて色付け処理を行って、仮想視点からの見えを表す画像を生成する。本実施形態の場合、鑑賞の妨げになる除外オブジェクトの三次元モデルは仮想視点画像生成部405’にそもそも入力されないので、非表示フラグによる制御は行わない。
The virtual viewpoint image generation unit 405'generates a virtual viewpoint image using the virtual viewpoint information input from the
なお、実施形態1と同様、上記5つの機能部を複数の情報処理装置で分担して実現することも可能である。例えば三次元モデル解析部403’の出力結果を、仮想視点画像生成部405’の機能を備えた別の情報処理装置に入力するような構成でもよい。特に本実施形態では、除外オブジェクトの三次元モデルは削除され不表示フラグによる表示制御は不要になるため、三次元モデルを受信して仮想視点画像を生成する汎用的な情報処理装置(仮想視点画像生成装置)との組み合わせが容易である。 As in the first embodiment, the above five functional units can be shared and realized by a plurality of information processing devices. For example, the output result of the three-dimensional model analysis unit 403'may be input to another information processing device having the function of the virtual viewpoint image generation unit 405'. In particular, in the present embodiment, the three-dimensional model of the excluded object is deleted and the display control by the non-display flag becomes unnecessary. Therefore, a general-purpose information processing device (virtual viewpoint image) that receives the three-dimensional model and generates a virtual viewpoint image. Easy to combine with a generator).
(仮想視点画像生成処理の流れ)
図12は、本実施形態に係る、サーバ116における仮想視点画像生成処理の流れを示すフローチャートである。本フローチャートが示す一連の処理は、サーバ116のCPU201がROM202や補助記憶装置204から所定のプログラムを読み出してこれを実行することで実現される。
(Flow of virtual viewpoint image generation process)
FIG. 12 is a flowchart showing the flow of the virtual viewpoint image generation process in the
以下、図12のフローチャートに従って、本実施形態に係る仮想視点画像生成処理の流れを説明する。なお、図12のフローは、実施形態1の図9のフローと同様、制御装置118からの仮想視点画像生成の開始信号に応答してその実行が開始するものとする。そして、当該開始信号には、前述の仮想視点情報と、非表示モードの有効/無効を示すモード選択情報が付加されているものとする。また、実行開始の時点ではデータ入力部401’に対し、仮想視点画像の基になる撮影画像データが入力済みであるものとする。以下、実施形態1の図9のフローと異なる点を中心に説明する。
Hereinafter, the flow of the virtual viewpoint image generation process according to the present embodiment will be described with reference to the flowchart of FIG. It should be noted that the flow of FIG. 12 is assumed to start its execution in response to the start signal of virtual viewpoint image generation from the
S1201では、非表示設定部404’が、制御装置118から入力されたモード選択情報に基づき、非表示モードの有効/無効を設定する。実施形態1のS901と同様、非表示モードが有効に設定される場合には、さらに非表示制御の対象オブジェクト(除外オブジェクト)を特定するための除外条件も併せて設定される。本実施形態では、設定された非表示モードの有効/無効の情報は、仮想視点画像生成部405’ではなく、三次元モデル解析部403’に送られる。
In S1201, the non-display setting unit 404'sets the enable / disable of the non-display mode based on the mode selection information input from the
S1202では、三次元モデル生成部402’が、仮想視点情報に含まれる時刻情報に基づき、処理対象フレームの画像を取得する。続くS1203では、三次元モデル生成部402’が、処理対象フレームの画像内に存在する各オブジェクトについて、色情報を付与した三次元モデルを生成する。生成した色付き三次元モデルは、三次元モデル解析部403’に送られる。 In S1202, the three-dimensional model generation unit 402'acquires an image of the frame to be processed based on the time information included in the virtual viewpoint information. In the following S1203, the three-dimensional model generation unit 402'generates a three-dimensional model to which color information is added to each object existing in the image of the frame to be processed. The generated colored three-dimensional model is sent to the three-dimensional model analysis unit 403'.
S1204では、非表示設定部401’から入力された非表示モードの有効/無効の情報に基づき、処理が振り分けられる。非表示モードが無効であればS1208に進む。この際、三次元モデル生成部402’から入力されたすべての色付き三次元モデルに対して非表示フラグを含まない特徴情報が付与され、三次元モデル解析部403’を介して仮想視点画像生成部405’に送られることになる。 In S1204, the processing is distributed based on the valid / invalid information of the non-display mode input from the non-display setting unit 401'. If the hidden mode is invalid, the process proceeds to S1208. At this time, feature information not including the non-display flag is given to all the colored 3D models input from the 3D model generation unit 402', and the virtual viewpoint image generation unit is added via the 3D model analysis unit 403'. It will be sent to 405'.
一方、非表示モードが有効であればS1205において、三次元モデル解析部403’が、三次元モデル生成部402’から入力された色付き三次元モデルそれぞれに対して前述した解析処理を行なう。すなわち、各色付き三次元モデルについて、位置、色、形状の観点からその特徴を特定し、当該特定された特徴が除外オブジェクトの特徴と合致するかが、S1201にて設定された除外条件を参照して判定される。 On the other hand, if the non-display mode is valid, in S1205, the three-dimensional model analysis unit 403'performs the above-mentioned analysis processing for each of the colored three-dimensional models input from the three-dimensional model generation unit 402'. That is, for each colored three-dimensional model, its characteristics are specified from the viewpoint of position, color, and shape, and whether the specified characteristics match the characteristics of the excluded object is referred to the exclusion condition set in S1201. Is judged.
S1206では、上記解析処理の結果に基づき処理が振り分けられる。除外オブジェクトと判定されたオブジェクトが存在する場合はS1207に進み、存在しなければS1208に進む。 In S1206, the processing is distributed based on the result of the analysis processing. If an object determined to be an excluded object exists, the process proceeds to S1207, and if it does not exist, the process proceeds to S1208.
S1207では、三次元モデル解析部403’が、除外オブジェクトであると判定されたオブジェクトの三次元モデルを削除する。そして、除外オブジェクトではないと判定された(つまり、削除されなかった)色付き三次元モデルに対して非表示フラグを含まない特徴情報が付与され、仮想視点画像生成部405に送られる。
In S1207, the three-dimensional model analysis unit 403'deletes the three-dimensional model of the object determined to be an excluded object. Then, the feature information not including the non-display flag is given to the colored three-dimensional model determined not to be an excluded object (that is, not deleted), and is sent to the virtual viewpoint
S1208において、仮想視点画像生成部405’が、入力されたすべての色付き三次元モデルを用いて、処理対象フレームに対応する仮想視点画像を生成する。具体的には、入力された各色付き三次元モデルについて、付与されている色情報を用いた通常の色付けを行なって、仮想視点からの見えを表す仮想視点画像を生成する。
S1209では、仮想視点画像の生成を終了するかどうかが判定される。仮想視点情報に含まれる時刻情報で指定されるすべてのフレームについて処理が完了していれば、本処理を終了する。一方、未処理のフレームがあればS1202に戻り、次の処理対象フレームの撮影画像を取得して処理を続行する。
In S1208, the virtual viewpoint image generation unit 405'generates a virtual viewpoint image corresponding to the frame to be processed by using all the input colored three-dimensional models. Specifically, each input colored three-dimensional model is normally colored using the given color information to generate a virtual viewpoint image showing the appearance from the virtual viewpoint.
In S1209, it is determined whether or not to end the generation of the virtual viewpoint image. If the processing is completed for all the frames specified by the time information included in the virtual viewpoint information, this processing is terminated. On the other hand, if there is an unprocessed frame, the process returns to S1202, the captured image of the next frame to be processed is acquired, and the processing is continued.
以上が、本実施形態に係る仮想視点画像生成処理の流れである。なお、上述の実施形態では、各三次元モデルに色情報を付与した上で除外オブジェクトの三次元モデルを削除しているが、事前に色情報を付与しておくことは必須ではない。例えば、色情報を付与しない代わりに削除フラグを付与し、削除フラグがオフの三次元モデルだけを用いて仮想視点画像を生成してもよい。この場合の色付けの際には、削除フラグがオンの三次元モデルのバウンディングボックスの情報を参照してオクルージョン判定を行うのがよい。これにより、削除されるはずの除外オブジェクトの三次元モデルの色が誤って色付け(テクスチャの貼り付け)に使用されて不自然な仮想視点画像になってしまうのを防ぐことができる。 The above is the flow of the virtual viewpoint image generation process according to the present embodiment. In the above-described embodiment, the color information is added to each three-dimensional model and then the three-dimensional model of the excluded object is deleted, but it is not essential to add the color information in advance. For example, instead of giving color information, a deletion flag may be added, and a virtual viewpoint image may be generated using only a three-dimensional model in which the deletion flag is off. When coloring in this case, it is better to make an occlusion judgment by referring to the information in the bounding box of the three-dimensional model in which the deletion flag is on. This prevents the colors of the 3D model of the excluded object that should be deleted from being mistakenly used for coloring (pasting a texture) and resulting in an unnatural virtual viewpoint image.
以上のとおり本実施形態によれば、仮想視点画像生成部405’は、削除された三次元モデルを意識することなく、仮想視点画像の生成が可能である。このように実施形態2の手法によっても、鑑賞の妨げになるオブジェクトを仮想視点画像から適切に取り除くことができる。また本実施形態2の場合、不要なオブジェクトが予め削除されるため、三次元モデルを受信して仮想視点画像を生成する情報処理装置を別装置とする場合、当該別装置は非表示フラグに基づく制御機能を有している必要がない。つまり、仮想視点画像を生成するための汎用的な情報処理装置で足りるため、システム構成をよりシンプルにできる。 As described above, according to the present embodiment, the virtual viewpoint image generation unit 405'can generate a virtual viewpoint image without being aware of the deleted three-dimensional model. As described above, even by the method of the second embodiment, the object that hinders the viewing can be appropriately removed from the virtual viewpoint image. Further, in the case of the second embodiment, since unnecessary objects are deleted in advance, when the information processing device that receives the three-dimensional model and generates the virtual viewpoint image is used as another device, the other device is based on the non-display flag. It is not necessary to have a control function. That is, since a general-purpose information processing device for generating a virtual viewpoint image is sufficient, the system configuration can be made simpler.
[その他の実施形態]
本開示の技術は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other embodiments]
The technique of the present disclosure supplies a program that implements one or more of the functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device program the program. It can also be realized by the process of reading and executing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
116 サーバ
401 データ入力部
402 三次元モデル生成部
403 三次元モデル解析部
404 非表示設定部
405 仮想視点画像生成部
Claims (14)
前記第1生成手段が生成した形状データに係るオブジェクトが、仮想視点画像において不要なオブジェクトに該当するか否かを、少なくともオブジェクトの形状に関する条件に基づいて判定する判定手段と、
前記判定手段により不要なオブジェクトと判定されたオブジェクトの表示が、前記判定手段により不要なオブジェクトと判定されなかったオブジェクトの表示よりも抑制された、仮想視点画像を生成する第2生成手段と、
を有することを特徴とする情報処理装置。 A first generation means for generating shape data representing a three-dimensional shape of an object using a plurality of captured images from different viewpoints.
A determination means for determining whether or not the object related to the shape data generated by the first generation means corresponds to an unnecessary object in the virtual viewpoint image, based on at least a condition related to the shape of the object.
A second generation means for generating a virtual viewpoint image in which the display of an object determined to be an unnecessary object by the determination means is suppressed more than the display of an object not determined to be an unnecessary object by the determination means.
An information processing device characterized by having.
前記第2生成手段は、形状データのうち前記仮想視点画像における表示が不要であることを示す情報が付与された形状データについては透明化処理を行って、前記仮想視点画像を生成する、
ことを特徴とする請求項1に記載の情報処理装置。 The determination means adds information indicating that the display in the virtual viewpoint image is unnecessary to the shape data of the object corresponding to the unnecessary object.
The second generation means performs transparency processing on the shape data to which the information indicating that the display in the virtual viewpoint image is unnecessary is added, and generates the virtual viewpoint image.
The information processing apparatus according to claim 1.
前記第2生成手段は、削除されなかった形状データに基づいて、前記仮想視点画像を生成することを特徴とする請求項1に記載の情報処理装置。 The determination means deletes the shape data of the object corresponding to the unnecessary object and deletes it.
The information processing apparatus according to claim 1, wherein the second generation means generates the virtual viewpoint image based on the shape data that has not been deleted.
前記第2生成手段は、前記第1生成手段が生成した前記形状データに付与されている色情報を用いて色付け処理を行って、前記仮想視点画像を生成する、
ことを特徴とする請求項3に記載の情報処理装置。 The first generation means generates shape data to which the color information of the object is added.
The second generation means performs a coloring process using the color information given to the shape data generated by the first generation means to generate the virtual viewpoint image.
The information processing apparatus according to claim 3.
前記第2生成手段は、形状データのうち前記削除を指示する情報が付与された形状データについては削除し、削除されずに残った形状データを用いて前記仮想視点画像を生成する、
ことを特徴とする請求項5に記載の情報処理装置。 The determination means gives information instructing deletion to the shape data of the object corresponding to the unnecessary object, and gives the information.
The second generation means deletes the shape data to which the information instructing the deletion is added among the shape data, and generates the virtual viewpoint image using the shape data remaining without being deleted.
The information processing apparatus according to claim 5.
前記第1生成ステップにて生成された形状データに係るオブジェクトが、仮想視点画像において不要なオブジェクトに該当するか否かを、少なくともオブジェクトの形状に関する条件に基づいて判定する判定ステップと、
前記判定ステップにて不要なオブジェクトと判定されたオブジェクトの表示が、前記判定ステップにて不要なオブジェクトと判定されなかったオブジェクトの表示よりも抑制された、仮想視点画像を生成する第2生成ステップと、
を有することを特徴とする情報処理方法。 The first generation step to generate shape data representing the three-dimensional shape of an object using multiple captured images from different viewpoints,
A determination step of determining whether or not the object related to the shape data generated in the first generation step corresponds to an unnecessary object in the virtual viewpoint image, at least based on the conditions related to the shape of the object.
With the second generation step of generating a virtual viewpoint image, the display of the object determined to be an unnecessary object in the determination step is suppressed more than the display of the object not determined to be an unnecessary object in the determination step. ,
An information processing method characterized by having.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020218722A JP2022103836A (en) | 2020-12-28 | 2020-12-28 | Information processing device, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020218722A JP2022103836A (en) | 2020-12-28 | 2020-12-28 | Information processing device, information processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022103836A true JP2022103836A (en) | 2022-07-08 |
JP2022103836A5 JP2022103836A5 (en) | 2023-12-25 |
Family
ID=82279417
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020218722A Pending JP2022103836A (en) | 2020-12-28 | 2020-12-28 | Information processing device, information processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022103836A (en) |
-
2020
- 2020-12-28 JP JP2020218722A patent/JP2022103836A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230377183A1 (en) | Depth-Aware Photo Editing | |
JP7051457B2 (en) | Image processing equipment, image processing methods, and programs | |
JP4879326B2 (en) | System and method for synthesizing a three-dimensional image | |
JP7146662B2 (en) | Image processing device, image processing method, and program | |
CN110720114B (en) | Image processing apparatus, image processing method, and storage medium | |
JP7387202B2 (en) | 3D face model generation method, apparatus, computer device and computer program | |
JP7023696B2 (en) | Information processing equipment, information processing methods and programs | |
US11227428B2 (en) | Modification of a live-action video recording using volumetric scene reconstruction to replace a designated region | |
KR101723210B1 (en) | Method For Producting Virtual Stereo Studio Image In Real-Time Virtual Stereo Studio System | |
JP2020008972A (en) | Information processor, information processing method, and program | |
CN112446939A (en) | Three-dimensional model dynamic rendering method and device, electronic equipment and storage medium | |
US11941729B2 (en) | Image processing apparatus, method for controlling image processing apparatus, and storage medium | |
JP6812181B2 (en) | Image processing device, image processing method, and program | |
JP4189339B2 (en) | Three-dimensional model generation method, generation apparatus, program, and recording medium | |
JP6799468B2 (en) | Image processing equipment, image processing methods and computer programs | |
US20230131418A1 (en) | Two-dimensional (2d) feature database generation | |
JP2022103836A (en) | Information processing device, information processing method, and program | |
JP2020135290A (en) | Image generation device, image generation method, image generation system, and program | |
JP7011728B2 (en) | Image data output device, content creation device, content playback device, image data output method, content creation method, and content playback method | |
JP2023153534A (en) | Image processing apparatus, image processing method, and program | |
JP2021018570A (en) | Image processing apparatus, image processing system, image processing method and program | |
JP2021144522A (en) | Image processing apparatus, image processing method, program, and image processing system | |
JP2020126393A (en) | Image processing apparatus, image processing method, and program | |
US20230291865A1 (en) | Image processing apparatus, image processing method, and storage medium | |
WO2022176719A1 (en) | Image processing device, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231215 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231215 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20241011 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20241105 |