JP2020135525A - 画像処理装置及びプログラム - Google Patents
画像処理装置及びプログラム Download PDFInfo
- Publication number
- JP2020135525A JP2020135525A JP2019029364A JP2019029364A JP2020135525A JP 2020135525 A JP2020135525 A JP 2020135525A JP 2019029364 A JP2019029364 A JP 2019029364A JP 2019029364 A JP2019029364 A JP 2019029364A JP 2020135525 A JP2020135525 A JP 2020135525A
- Authority
- JP
- Japan
- Prior art keywords
- mask
- image
- viewpoint
- unit
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
多視点画像には、所定の空間内平面(例えば図1の例における壁WLあるいは地面GRなど)が撮影されているものとする。校正部7では、多視点画像の各視点の画像における所定の空間内平面の特徴的な点(例えば、スポーツのコートの白線の交点など)と、撮影される現実空間上の空間内平面上の点との対応付けを行い、カメラパラメータ(外部パラメータ及び内部パラメータ)として校正データを算出する。例えば、多視点画像が一般的なスポーツ映像におけるものである場合は、コートのサイズが規格化されているため、これを事前知識(コートのフィールドモデル)として利用することにより、既存手法のコーナー検出や特徴点検出等によって検出される画像平面上の点が、この事前知識で与えられる実空間上(世界座標系)のどの座標に対応するかを容易に計算することが可能である。
第1抽出部1では、多視点画像の各画像における被写体(動物体)の形状を0,1の2値マスク画像として表現した第1マスクを抽出する。すなわち、多視点画像の各画像の各画素位置において、値が0となる位置は背景であって被写体が存在しないことを意味し、値が1となる位置は前景であって被写体が存在することを意味する2値マスク画像として、第1マスクが抽出される。(なお、2値のいずれが前景か背景かの規則は、この逆の規則を用いてもよい。)抽出された2値マスク画像としての第1マスクは後段側の統合部4において統合された第1マスク(統合前と同じく、2値マスク画像のデータ形式で与えられる)へと加工されたうえで生成部5に入力され、被写体の3DCGモデル形状の生成に利用される。
第2抽出部2では、第1抽出部1で第1マスクとして得る被写体マスクとは別に、多視点画像の各画像において被写体を遮蔽する前景の静止物になり得るもの(例えば、図1のスポーツクライミングのホールドHL)を前景物体としてマスクし、第2マスクを得る。第2抽出部2で第2マスクを得る処理には既存手法を利用することができ、例えば、画像を色情報などを用いて小領域に分割する領域分割技術を利用することができる。
識別部3では、第2抽出部2から出力された前景物体マスクデータとしての第2マスクに対して、これらの画像座標上での閉領域ごとのID付(ラベリング)を行うことで、識別された第2マスクデータを得る。このラベリング処理については例えば領域拡張法などの既存技術を利用してよい。
(1)校正部7にてカメラキャリブレーションにて得られたカメラパラメータとしての校正データと、第2抽出部2によって抽出された前景物体マスクデータとしての第2マスクとを用いて、視体積交差法を行い前景物体の3次元形状を取得する。この際、多視点画像の各カメラ視点の画像の全てを用いて視体積交差法を適用すればよい。視体積交差法に関しては、後述する生成部5における視体積交差法と同様に、任意の既存手法を用いてよい。なお、ホールド等の前景物体を近距離で捉えられていない等の原因により画像の品質が悪いと判定される場合や、カメラパラメータの精度が悪いカメラ視点の画像は、視体積交差法の適用対象から除外してもよい。
(2)そして、当該取得した3次元形状に対して、既存技術により連結領域ごとのラベリングを行うことで、3次元空間内において異なる物体同士の区別を付与する。
(3)その後、当該3次元形状を各カメラ画像平面(前景物体マスクデータとしての第2マスク)上に再投影し、上記3次元空間内でのラベリングにより区別された異なる物体に属するマスク領域について異なるラベルを付与する。
次の2つの閾値判定結果(a)及び(b)を得ることで、カメラC2の単一の閉領域R20が2つの異なる前景物体を含んでいるという識別情報を得る。
(a)カメラC1での光線C1-p11とカメラC2での光線C2-p20との距離が予め設定される閾値th以下であることから、領域R11と領域R20(あるいはその代表点p11とp20)とが対応している、と判定する。
(b)カメラC1での光線C1-p12とカメラC2での光線C2-p20との距離も同じ閾値th以下であることから、領域R12と領域R20(あるいはその代表点p12とp20)とが対応している、と判定する。
(ここで、例えば「光線C1-p11」という場合、C1はカメラC1の光学中心を表すものとし、光学中心C1及び点p11を通る直線としての光線が「光線C1-p11」であるものとする。)
この識別情報を得た後に、2つの異なる前景物体としてのホールドHL1及びHL2に対応する代表点p21及びp22(図3の画像P2内に白丸○で示す)を、カメラC2の画像P2内の座標として求める。具体的には、ホールドHL1及びHL2の3次元空間内での代表点としての空間座標x1及びx2(図3では不図示)を求めたうえで、光線C2-x1と画像P2(エピポーラ幾何モデルで既知のように、投影面としての画像P2)との交点として第1ホールドHL1に対応する代表点p21を求め、同様に、光線C2-x2と画像P2との交点として第2ホールドHL2に対応する代表点p22を求めることができる。なお、交点として求めた代表点p21,p22が領域R20内に含まれなかった場合には、当該求めた点の近傍で領域R20に含まれる点を改めて代表点p21,p22とすればよい。
そして、画像P2の単一の閉領域R20内の各画素位置に関して、例えば代表点p21及びp22との距離をそれぞれ計算し、代表点p21との距離の方が小さい場合にはその画素位置は第1ホールドHL1に対応するものとしてラベリングし、代表点p22との距離が小さい場合にはその画素位置は第2ホールドHL2に対応するものとしてラベリングすることができる。ここで、距離としては画像座標上のユークリッド距離のみを評価対象として用いてもよいが、さらに、色空間上での距離等も評価対象に追加することで、代表点p21,p22とテクスチャ等が類似していると判定され、且つ、代表点p21,p22にある程度近い位置にあるものとしてラベリング結果を得るようにしてもよい。色空間上での評価を行う際は、評価対象のピクセルの近傍小領域も含めてヒストグラム等で評価してもよい。以上、図4の画像P2の単一の閉領域R20の例では、2つの異なる前景物体が連結している場合に関して説明したが、3つ以上が連結している場合も全く同様にしてラベリングを行うことができる。
異なる視点のカメラ画像(第2マップ)間でエピポーラ幾何モデルを利用することで、対応する光線(カメラの光学中心と領域の代表点とを通る光線、以下同様)同士の距離の閾値判定によって個別の閉領域同士の対応関係を網羅的に求め、対応関係の重複の有無により、各カメラ画像の各閉領域に関して、3次元空間内で対応している前景物体が1個であると推測されるか、2個以上であると推測されるか、の識別情報を得る。なお、異なる視点のカメラ画像の閉領域との対応関係が得られない閉領域は、前景物体が1個であるものと推測すればよい。
2個以上の前景物体が対応していると推測された第1カメラ画像の第1閉領域に関して、これと異なる第2カメラ画像及び第3カメラ画像であって第1閉領域に対応する複数の閉領域(第2カメラ画像と第3カメラ画像とで等しい複数個数の閉領域)が、前景物体が1個であるものとそれぞれ推測されて求まっているものを参照し、第2カメラ画像及び第3カメラ画像の対応領域の代表点に対してエピポーラ幾何モデルの光線交点を求め、この光線交点を、第1カメラ画像の第1閉領域の内部で連結している複数の前景物体のそれぞれの代表点(空間座標)とする。
上記求めた複数の前景物体の代表点(空間座標)を第1カメラ画像の画像座標へと再投影した代表点を求め、第1カメラ画像の第1閉領域の各画素に、当該画素との距離(画像座標上のユークリッド距離のみでなく色空間上の距離も利用してよい)が最も近い代表点に対応するIDを付与して、ラベリング結果とする。なお、再投影した画像座標が第1閉領域に含まれない点であった場合、この再投影した画像座標の近傍で第1閉領域に含まれる点を代表点とすればよい。
統合部4は、第1抽出部1より得られた被写体マスクとしての第1マスクと、識別部3より得られたラベル付与された前景物体マスクとしての識別された第2マスクとを利用して、統合部4の後段側の生成部5にて視体積交差法を実行するための入力データとしての、統合された第1マスクを生成する。
TH1=min{r1*|Fl|, r1*|Mi|} …(4-1)
TH2=min{r2*|Fl|, r2*|Mi|} …(4-2)
L={l|TH1>|Mi∩Fl|} …(2-1)
L={l||Mi∩Fl|>TH2} …(2-2)
M1'=M1+F1 …(1-1)
M2'=M2 …(1-2)
M'=M1'+M2'
=M+F1 …(3-1)
生成部5では、被写体の3次元形状を推定し3DCGモデルを生成する。具体的な生成処理には例えば前掲の特許文献1,2や非特許文献1や、その他の任意の既存の視体積交差法を用いてよい。一般に、視体積交差法はすべてのカメラの被写体形状情報(本実施形態においては統合部4で得た統合された第1マスク)による視体積(visual cone)の積集合を取ることで、3DCGモデルの形状を得る。そのため、複数のカメラ2値マスクのうち1つでも欠損領域を含む場合、その3DCGモデル形状も欠損する。しかしながら、本実施形態においては前述の通り統合部4により、静止物体の遮蔽による欠損を埋める処理が行われているので、生成部5において欠損の影響が排除された適切な3DCGモデルを生成することが可能となる。
合成部6では、生成部5にて得られた3DCGモデルの形状に応じて最終的な仮想視点からの画像を合成する。当該合成処理には任意の既存のレンダリング手法を用いてよく、ユーザ入力等によって与えられた仮想視点の位置座標に応じて、その近傍のカメラテクスチャ(多視点画像のうちカメラ視点が仮想視点に近いもののテクスチャ)を利用して被写体3Dモデルの色情報を決定することができる。また、3DCGモデル化されていない被写体以外の背景等については、あらかじめ制作しておいた背景モデル(例えばスポーツを撮影している場合、背景としてのスポーツ会場や設備(スポーツクライミングの場合であればホールドなど)のCGモデル)などを利用し、上記3DCGモデルと重畳することで最終的な合成画像を得ることができる。
L={l|閉領域Miと閉領域Flとの位置関係が所定条件を満たす。} …(5)
Claims (10)
- 多視点画像の各画像より、被写体の領域を第1マスクとして抽出する第1抽出部と、
前記多視点画像の各画像より、前記被写体とは別の対象としての前景物体の領域を第2マスクとして抽出する第2抽出部と、
前記第2マスクにおける個別領域を識別する識別部と、
前記第1マスクに対して、前記第2マスクの前記識別された個別領域のうち、位置関係に基づいて、前記第1マスクにおいて遮蔽による欠損を発生させていると判定されるものを加算することにより、統合された第1マスクを得る統合部と、
前記多視点画像の各画像に対応する前記統合された第1マスクを用いて、前記被写体の3次元モデルを生成する生成部と、を備えることを特徴とする画像処理装置。 - 前記統合部は、前記第1マスクに対して、前記第2マスクの前記識別された個別領域のうち重複の大きさが所定条件を満たすものを、前記欠損を発生させていると判定されるものとして加算することを特徴とする請求項1に記載の画像処理装置。
- 前記所定条件は、前記重複の大きさが下側閾値より大きいことを含む請求項2に記載の画像処理装置。
- 前記所定条件は、前記重複の大きさが上側閾値より小さいことを含む請求項2または3に記載の画像処理装置。
- 前記識別部では、前記多視点画像の各画像に対応する前記第2マスクを用いて視体積交差法を適用することにより前記前景物体の3次元モデルを生成してラベル付与し、当該ラベル付与された3次元モデルを前記第2マスクに再投影することで、前記第2マスクにおける個別領域を識別することを特徴とする請求項1ないし4のいずれかに記載の画像処理装置。
- 前記識別部では、前記多視点画像の各画像に対応する前記第2マスクに対して個別の閉領域を画像座標上において識別したうえで、
エピポーラ幾何モデルを用いることにより、
前記多視点画像における異なるカメラ視点の画像間に対応する異なる第2マスク間での当該個別の閉領域の間の対応関係を求め、
当該求めた対応関係において、第1カメラ視点の1つの閉領域に対して、第2カメラ視点及び第3カメラ視点のそれぞれで複数の閉領域が対応している場合に、当該複数の閉領域にそれぞれ対応する空間座標を求め、
前記第1つの閉領域を、前記求めた複数の空間座標に基づいて、画像座標上における複数の異なる個別領域として識別することを特徴とする請求項1ないし4のいずれかに記載の画像処理装置。 - 前記第1抽出部では、背景差分法または物体認識を適用することにより、前記第1マスクを抽出することを特徴とする請求項1ないし6のいずれかに記載の画像処理装置。
- 前記第2抽出部では、前記前景物体に関して与えられている事前知識を用いて、領域分割または物体認識を適用することにより前記第2マスクを抽出することを特徴とする請求項1ないし7のいずれかに記載の画像処理装置。
- 前記被写体の3次元モデルを指定される仮想視点でレンダリングすることにより前記多視点画像に対応する自由視点画像を合成する合成部をさらに備えることを特徴とする請求項1ないし8のいずれかに記載の画像処理装置。
- コンピュータを請求項1ないし9のいずれかに記載の画像処理装置として機能させることを特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019029364A JP7078564B2 (ja) | 2019-02-21 | 2019-02-21 | 画像処理装置及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019029364A JP7078564B2 (ja) | 2019-02-21 | 2019-02-21 | 画像処理装置及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020135525A true JP2020135525A (ja) | 2020-08-31 |
JP7078564B2 JP7078564B2 (ja) | 2022-05-31 |
Family
ID=72263308
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019029364A Active JP7078564B2 (ja) | 2019-02-21 | 2019-02-21 | 画像処理装置及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7078564B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022019149A1 (ja) * | 2020-07-21 | 2022-01-27 | ソニーグループ株式会社 | 情報処理装置、3dモデル生成方法、情報処理方法およびプログラム |
WO2023149333A1 (ja) * | 2022-02-07 | 2023-08-10 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、および、コンピュータ読み取り可能な非一時的記憶媒体 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017201745A (ja) * | 2016-05-02 | 2017-11-09 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
JP6403862B1 (ja) * | 2017-12-14 | 2018-10-10 | キヤノン株式会社 | 3次元モデルの生成装置、生成方法及びプログラム |
JP2019046080A (ja) * | 2017-08-31 | 2019-03-22 | Kddi株式会社 | 情報処理装置、方法及びプログラム |
JP2019149112A (ja) * | 2018-02-28 | 2019-09-05 | Kddi株式会社 | 合成装置、方法及びプログラム |
-
2019
- 2019-02-21 JP JP2019029364A patent/JP7078564B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017201745A (ja) * | 2016-05-02 | 2017-11-09 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
JP2019046080A (ja) * | 2017-08-31 | 2019-03-22 | Kddi株式会社 | 情報処理装置、方法及びプログラム |
JP6403862B1 (ja) * | 2017-12-14 | 2018-10-10 | キヤノン株式会社 | 3次元モデルの生成装置、生成方法及びプログラム |
JP2019149112A (ja) * | 2018-02-28 | 2019-09-05 | Kddi株式会社 | 合成装置、方法及びプログラム |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022019149A1 (ja) * | 2020-07-21 | 2022-01-27 | ソニーグループ株式会社 | 情報処理装置、3dモデル生成方法、情報処理方法およびプログラム |
WO2023149333A1 (ja) * | 2022-02-07 | 2023-08-10 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、および、コンピュータ読み取り可能な非一時的記憶媒体 |
Also Published As
Publication number | Publication date |
---|---|
JP7078564B2 (ja) | 2022-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6425780B1 (ja) | 画像処理システム、画像処理装置、画像処理方法及びプログラム | |
US20200234397A1 (en) | Automatic view mapping for single-image and multi-view captures | |
Zollmann et al. | Image-based ghostings for single layer occlusions in augmented reality | |
JP5818773B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
US8094928B2 (en) | Stereo video for gaming | |
Shen et al. | Virtual mirror rendering with stationary rgb-d cameras and stored 3-d background | |
CN111325693B (zh) | 一种基于单视点rgb-d图像的大尺度全景视点合成方法 | |
US20200258309A1 (en) | Live in-camera overlays | |
JP2004537082A (ja) | 仮想現実環境における実時間バーチャル・ビューポイント | |
Meerits et al. | Real-time diminished reality for dynamic scenes | |
JP7197451B2 (ja) | 画像処理装置、方法及びプログラム | |
EP2650843A2 (en) | Image processor, lighting processor and method therefor | |
US11694313B2 (en) | Computer-generated image processing including volumetric scene reconstruction | |
Wenninger et al. | Realistic virtual humans from smartphone videos | |
US20230281912A1 (en) | Method and system for generating a target image from plural multi-plane images | |
CN112712487A (zh) | 一种场景视频融合方法、系统、电子设备及存储介质 | |
KR101652594B1 (ko) | 증강 현실 컨텐츠 제공 장치 및 방법 | |
CN109064533B (zh) | 一种3d漫游方法及系统 | |
JP7078564B2 (ja) | 画像処理装置及びプログラム | |
JP2023172882A (ja) | 三次元表現方法及び表現装置 | |
US7280685B2 (en) | Object segmentation from images acquired by handheld cameras | |
US20130194254A1 (en) | Image processing apparatus, image processing method and program | |
US10132912B2 (en) | Method and apparatus for estimating reflectance parameters and a position of a light source in a scene | |
JP2015212891A (ja) | 画像処理装置及び画像処理装置の制御方法 | |
KR20130117668A (ko) | 3차원 볼륨 데이터 생성 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210107 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220105 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220518 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220519 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7078564 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |