JP2021022032A - 合成装置、方法及びプログラム - Google Patents
合成装置、方法及びプログラム Download PDFInfo
- Publication number
- JP2021022032A JP2021022032A JP2019136729A JP2019136729A JP2021022032A JP 2021022032 A JP2021022032 A JP 2021022032A JP 2019136729 A JP2019136729 A JP 2019136729A JP 2019136729 A JP2019136729 A JP 2019136729A JP 2021022032 A JP2021022032 A JP 2021022032A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- viewpoint
- subject
- occlusion
- determined
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
- Image Generation (AREA)
Abstract
Description
生成部1は、入力される多視点画像より、多視点画像に撮影されている被写体の3DCGモデルを生成して、推定部2へと出力する。ここで、生成部1が出力する3DCGモデルとは、1つ以上の被写体の3次元形状情報で構成されるものであり、その表面のテクスチャ情報は含まないものである。生成部1での3DCGモデル生成には、任意の既存手法を用いてよく、例えば視体積交差法を用いてよい。
パラメータ推定部11は、ある時刻において撮影されている映像のフィールド(所定平面)の特徴的な点(コートの白線の交点など)と実際の実空間上のフィールド上の点との対応付けを行い、N視点の各々に関してカメラパラメータ(外部パラメータ及び内部パラメータ)として算出し、モデル生成部13へと出力する。例えば、多視点映像が一般的なスポーツ映像である場合は、スポーツ種別に応じたコートのサイズが規格化されているため、このサイズの情報を事前知識として利用して、画像平面上の点が実空間上(世界座標系)のどの座標に対応するかを容易に計算することが可能である。このカメラキャリブレーションは、手動のほか、任意の既存の自動キャリブレーションに関する手法を用いても行うことができる。例えば、手動の方法としては画面上の白線の交点をユーザ操作により選択し、あらかじめ測定されたフィールドモデルとの対応付をとることで、カメラパラメータを推定できる(画面に歪みがある場合は下記の通り先に内部パラメータを推定しておく)。
マスク抽出部12は、N視点の多視点画像の各カメラciの画像より、被写体の形状を0,1の2値マスク画像として得て、このN枚の2値マスク画像をモデル生成部13へと出力する。この2値マスク画像は、各画素位置において値0が被写体に該当しない背景、値1が被写体に該当する前景として定義され、被写体の形状(領域)を表現するものである。(なお、値0,1と前景・背景の対応付けに関しては逆の定義でもよい。)
モデル生成部13は、パラメータ推定部11にて推定されたN個のカメラパラメータと、マスク抽出部12にて抽出されたN個の2値マスク画像とを用いて、後段側の描画部4において自由視点映像として合成される被写体の3DCGモデルを生成し、生成部1での最終的な出力として、推定部2へと出力する。モデル生成部13では、任意の既存の自由視点映像技術(例えば前掲の特許文献1や非特許文献1)などでも利用されている、任意の既存の視体積交差法ベースの手法で3DCGモデルを生成することができる。既知のように、視体積交差法の原理は、N個の各カメラciの位置pciより対応する2値マスク画像の前景領域(シルエット)に向かって3次元逆投影を行うことで得られるN個の錐体(視体積)の共通部分として3DCGモデルを得るというものである。
推定部2は、生成部1より得られた3DCGモデル(上記のように、ポリゴンモデルMjとして3次元世界座標で表面が定義されている)を、各カメラciの位置pciから見た際の深度マップDciを推定し、得られた深度マップDciを比較部3へと出力する。
比較部3は、各カメラci視点に関して、推定部2から得た深度マップDciの深度を、生成部1で得た3DCGモデルにおける対応する頂点vkの深度と比較することにより、比較結果としての各頂点vkが位置pciにあるカメラciから見えているか否かの情報(オクルージョン情報)を描画部4へと出力する。具体的には、以下の式(1)により各頂点vkに関する比較結果としてのフラグ情報flagci(vk)を得るようにすればよい。
・Dci(u0,v0)≒||vk1-pci||2(深度と距離が概ね等しく整合する)との判定により、
flagci(vk1)=1(頂点vk1のフラグ情報は1、すなわち頂点vk1はオクルージョン無し)
・Dci(u0,v0)<||vk2-pci||2(「深度<距離」であり整合しない)との判定により、
flagci(vk2)=1(頂点vk2のフラグ情報は0、すなわち頂点vk2はオクルージョン有り)
描画部4は、生成部1にて生成された3DCGモデルと、比較3部にて得られたオクルージョン情報とを用いて、ユーザ指定等により設定される仮想視点puから見たものとしての自由視点映像の各時刻のフレーム画像(自由視点画像)をレンダリング(描画)することにより、合成装置10からの出力としての合成映像の各時刻フレームを得る。描画部4では当該レンダリングの際に、前景として3DCGモデルの表面に貼り付けるテクスチャを生成部1に入力された元の多視点画像より取得して描画し、3DCGモデルの背景に関しては、マスク抽出部12で背景差分法を利用する場合に用いるのと同様の所定の背景情報を視点puから見たものとして描画すればよい。
以下の式(2)の通り、アルファブレンドによりマッピングを行えばよい。
当該ポリゴンgが可視であるカメラのテクスチャのみを用いてレンダリングする。すなわち式(2)において、可視であるカメラのtextureci(i=1,2のいずれか)に対応する係数a又は(1-a)の値を1とする。(c1が可視の場合a=1とし、c2が可視の場合(1-a)=1とする。)その他の形態としては、仮想視点puから見て次に近いカメラc3であってポリゴンgが可視であるものを、c1及びc2のうち不可視であるカメラの代わりとして参照する。この際、テクスチャのアルファブレンドの方法は式(2)と同様とすればよい。
仮想視点puからみてカメラc1,c2の次に近いカメラc3(その判定フラグgc3が可視とする)のテクスチャを用いてレンダリングする。この際、当該可視であるカメラc3が上記の場合(2)の可視であるものに該当するとみなして、場合(2)と同様にしてもよい。次に近いカメラc3の判定フラグgc3も不可視であった場合は、さらに次に近いカメラc4,c5,…といったように順々にカメラテクスチャを参照し、最も近く且つ可視であるものを見つけたうえで同様にすればよい。
既に述べたように合成装置10において決定部5が省略される実施形態が可能であり、この実施形態では、以上の生成部1から描画部4までの処理により、すべてのカメラ(N台)に対応するオクルージョン情報の高速な生成が可能となり、それに応じて、カメラ配置に応じた最適な参照カメラを参照することで、オクルージョンを高速且つ高品質に補間したレンダリングも可能となる。例えば、事前撮影した映像を用いたオフライン処理や、例えばN=20台程度のカメラ台数でのリアルタイム自由視点映像合成などに対応可能となる。
一方で、カメラ台数Nが極めて多い場合、生成部1から描画部4までの処理ではリアルタイムでのオクルージョン情報の推定ができない可能性がある。そこで、このような場合に対処するための別の実施形態として、決定部5を追加で利用するようにしてよい。決定部5では、ユーザ指定等で設定される仮想視点puに応じて、N台全部の中から動的にオクルージョン情報を生成する対象カメラ(L<Nとして所定数L台とする)を決定して、当該L台のカメラの情報を推定部2、比較部3及び描画部4へと出力する。
第一実施形態にて決定部5は、N個のカメラciの位置pciと指定される仮想視点の位置puとの距離d(pci,pu)を計算し、この距離が小さい側のL個のカメラciのみを限定して利用するように決定してよい。すなわち、仮想視点puへ近い側の上位L個のカメラciに決定してよい。
d(pci,pu)=||pci-pu||2+A*θ(pci,pu) …(3)
第二実施形態は、次の事情を考慮するものである。すなわち、複数のカメラの配置間隔が極めて近い場合は、オクルージョン領域のテクスチャマッピングを行う参照元のカメラとして仮想視点pu近傍のカメラよりも少し離れたカメラを用いるほうが良い場合がある。
Claims (11)
- 多視点画像より被写体の3次元モデルを生成する生成部と、
前記3次元モデルより、前記多視点画像の各カメラ視点での、被写体の深度マップを推定する推定部と、
前記3次元モデルが表す被写体の表面上の空間点に関して、前記各カメラ視点での深度マップとの間で空間位置の整合を調べ、整合していると判定される場合にはオクルージョン無しである旨を、整合していないと判定される場合にはオクルージョン無しである旨を紐づけることで、カメラ視点ごと及び空間点ごとのオクルージョン情報を求める比較部と、
前記オクルージョン情報を参照して、前記多視点画像の各カメラ視点でのテクスチャを選択して利用することにより、指定される仮想視点において被写体を描画する描画部と、を備えることを特徴とする合成装置。 - 前記比較部は、前記3次元モデルが表す被写体の表面上の空間点(vk)を前記多視点画像の各カメラ(ci)視点の画像平面(Vci)へと投影した平面点(u(vk),v(vk))を求め、前記深度マップの当該平面点での深度値(Dci(vk))が示す空間位置と、当該空間点(vk)と、を比較することで前記空間位置での整合を調べることを特徴とする請求項1に記載の合成装置。
- 前記推定部は、演算装置用のメモリ空間を利用することで、ディスプレイに表示させない対象として前記深度マップを推定することを特徴とする請求項1または2に記載の合成装置。
- 前記描画部は、指定される仮想視点において、前記3次元モデルの表面要素ごとに描画を行うことで被写体の全体を描画し、
各表面要素に対して、対応している前記3次元モデルが表す被写体の表面上の空間点を参照し、前記オクルージョン情報において当該空間点に関してオクルージョン無しである旨が紐づいているカメラ視点であって、且つ、前記多視点画像の各カメラ視点の中で仮想視点に近いと判定されるカメラ視点におけるテクスチャを選択して利用して、当該表面要素を描画することを特徴とする請求項1ないし3のいずれかに記載の合成装置。 - 前記描画部は、各表面要素を描画するに際して、前記近いと判定された各カメラ視点におけるテクスチャを、各カメラ視点と仮想視点との距離が小さいほど大きな割合でアルファブレンドして描画することを特徴とする請求項4に記載の合成装置。
- 前記全カメラ視点のうち一部分のみを、指定される仮想視点に近いと判定されるカメラ視点として決定する決定部をさらに備え、
前記推定部、比較部及び描画部では、前記多視点画像の全カメラ視点のうち、前記決定部によって決定された一部分のみを対象としてそれぞれ、前記深度マップを推定すること、前記オクルージョン情報を求めること、前記被写体を描画すること、を実施することを特徴とする請求項1ないし5のいずれかに記載の合成装置。 - 前記決定部は、前記全カメラ視点のうち一部分のみを、指定される仮想視点に近いと判定されるカメラ視点であって、且つ、被写体を撮影するカメラ視点の配置が相互に乖離していると判定されるカメラ視点として決定することを特徴とする請求項6に記載の合成装置。
- 前記決定部で決定する前記全カメラ視点のうち一部分のみの数は、前記合成装置が利用する演算装置の性能を反映した所定数であることを特徴とする請求項6または7に記載の合成装置。
- 前記生成部では、視体積交差法を用いて、被写体の3次元モデルを生成することを特徴とする請求項1ないし8のいずれかに記載の合成装置。
- 多視点画像より被写体の3次元モデルを生成する生成手順と、
前記3次元モデルより、前記多視点画像の各カメラ視点での、被写体の深度マップを推定する推定手順と、
前記3次元モデルが表す被写体の表面上の空間点に関して、前記各カメラ視点での深度マップとの間で空間位置の整合を調べ、整合していると判定される場合にはオクルージョン無しである旨を、整合していないと判定される場合にはオクルージョン無しである旨を紐づけることで、カメラ視点ごと及び空間点ごとのオクルージョン情報を求める比較手順と、
前記オクルージョン情報を参照して、前記多視点画像の各カメラ視点でのテクスチャを選択して利用することにより、指定される仮想視点において被写体を描画する描画手順と、を備えることを特徴とする合成方法。 - 多視点画像より被写体の3次元モデルを生成する生成手順と、
前記3次元モデルより、前記多視点画像の各カメラ視点での、被写体の深度マップを推定する推定手順と、
前記3次元モデルが表す被写体の表面上の空間点に関して、前記各カメラ視点での深度マップとの間で空間位置の整合を調べ、整合していると判定される場合にはオクルージョン無しである旨を、整合していないと判定される場合にはオクルージョン無しである旨を紐づけることで、カメラ視点ごと及び空間点ごとのオクルージョン情報を求める比較手順と、
前記オクルージョン情報を参照して、前記多視点画像の各カメラ視点でのテクスチャを選択して利用することにより、指定される仮想視点において被写体を描画する描画手順と、をコンピュータに実行させることを特徴とする合成プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019136729A JP7038683B2 (ja) | 2019-07-25 | 2019-07-25 | 合成装置、方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019136729A JP7038683B2 (ja) | 2019-07-25 | 2019-07-25 | 合成装置、方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021022032A true JP2021022032A (ja) | 2021-02-18 |
JP7038683B2 JP7038683B2 (ja) | 2022-03-18 |
Family
ID=74573864
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019136729A Active JP7038683B2 (ja) | 2019-07-25 | 2019-07-25 | 合成装置、方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7038683B2 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022191010A1 (ja) * | 2021-03-12 | 2022-09-15 | ソニーグループ株式会社 | 情報処理装置および情報処理方法 |
EP4161069A1 (en) | 2021-09-30 | 2023-04-05 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and program |
WO2023095250A1 (ja) * | 2021-11-25 | 2023-06-01 | 株式会社日立国際電気 | 異常検知システム |
JP7465234B2 (ja) | 2021-03-11 | 2024-04-10 | Kddi株式会社 | 3dモデル生成装置、方法及びプログラム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018116421A (ja) * | 2017-01-17 | 2018-07-26 | Kddi株式会社 | 画像処理装置および画像処理方法 |
JP2018133063A (ja) * | 2017-02-17 | 2018-08-23 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成装置および画像生成方法 |
WO2019050038A1 (ja) * | 2017-09-11 | 2019-03-14 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 画像生成方法および画像生成装置 |
JP2019121945A (ja) * | 2018-01-09 | 2019-07-22 | キヤノン株式会社 | 撮像装置、その制御方法及びプログラム |
-
2019
- 2019-07-25 JP JP2019136729A patent/JP7038683B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018116421A (ja) * | 2017-01-17 | 2018-07-26 | Kddi株式会社 | 画像処理装置および画像処理方法 |
JP2018133063A (ja) * | 2017-02-17 | 2018-08-23 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成装置および画像生成方法 |
WO2019050038A1 (ja) * | 2017-09-11 | 2019-03-14 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 画像生成方法および画像生成装置 |
JP2019121945A (ja) * | 2018-01-09 | 2019-07-22 | キヤノン株式会社 | 撮像装置、その制御方法及びプログラム |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7465234B2 (ja) | 2021-03-11 | 2024-04-10 | Kddi株式会社 | 3dモデル生成装置、方法及びプログラム |
WO2022191010A1 (ja) * | 2021-03-12 | 2022-09-15 | ソニーグループ株式会社 | 情報処理装置および情報処理方法 |
EP4161069A1 (en) | 2021-09-30 | 2023-04-05 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and program |
US11935182B2 (en) | 2021-09-30 | 2024-03-19 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and storage medium |
WO2023095250A1 (ja) * | 2021-11-25 | 2023-06-01 | 株式会社日立国際電気 | 異常検知システム |
Also Published As
Publication number | Publication date |
---|---|
JP7038683B2 (ja) | 2022-03-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7038683B2 (ja) | 合成装置、方法及びプログラム | |
US8659593B2 (en) | Image processing apparatus, method and program | |
RU2695528C2 (ru) | Визуализация изображения данных лазерного сканирования | |
US7194125B2 (en) | System and method for interactively rendering objects with surface light fields and view-dependent opacity | |
JP2017505471A (ja) | レーザスキャンデータの画像レンダリング | |
US9367943B2 (en) | Seamless fracture in a production pipeline | |
CN108230435B (zh) | 采用立方图纹理的图形处理 | |
JPH0749964A (ja) | 3次元動画像生成装置 | |
EP1634248B1 (en) | Adaptive image interpolation for volume rendering | |
US20230230311A1 (en) | Rendering Method and Apparatus, and Device | |
KR20120104071A (ko) | 입체영상 시각효과 처리 방법 | |
JP2021056679A (ja) | 画像処理装置、方法及びプログラム | |
GB2406252A (en) | Generation of texture maps for use in 3D computer graphics | |
Wang et al. | Voge: a differentiable volume renderer using gaussian ellipsoids for analysis-by-synthesis | |
El Seoud et al. | A comprehensive review on volume rendering techniques | |
Deepu et al. | 3D Reconstruction from Single 2D Image | |
Villa-Uriol et al. | Automatic creation of three-dimensional avatars | |
EP4158596A1 (en) | Geometry-aware augmented reality effects with a real-time depth map | |
Lin et al. | Filling holes in 3D scanned model base on 2D image inpainting | |
Dong et al. | Occlusion handling method for ubiquitous augmented reality using reality capture technology and GLSL | |
JP2952585B1 (ja) | 画像生成方法 | |
Johansson | Analyzing performance for lighting of tessellated grass using LOD | |
de Toledo et al. | Geometry textures | |
Clemenz et al. | Reflection Techniques in Real-Time Computer Graphics | |
Hamza | Realistic Shadows In Computer Graphics |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210226 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211126 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211201 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220126 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220216 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220308 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7038683 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |