JP6914734B2 - シルエット抽出装置、方法およびプログラム - Google Patents

シルエット抽出装置、方法およびプログラム Download PDF

Info

Publication number
JP6914734B2
JP6914734B2 JP2017106356A JP2017106356A JP6914734B2 JP 6914734 B2 JP6914734 B2 JP 6914734B2 JP 2017106356 A JP2017106356 A JP 2017106356A JP 2017106356 A JP2017106356 A JP 2017106356A JP 6914734 B2 JP6914734 B2 JP 6914734B2
Authority
JP
Japan
Prior art keywords
silhouette
image
pixel
region
local
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017106356A
Other languages
English (en)
Other versions
JP2018205788A (ja
JP2018205788A5 (ja
Inventor
強 要
強 要
浩嗣 三功
浩嗣 三功
内藤 整
整 内藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2017106356A priority Critical patent/JP6914734B2/ja
Publication of JP2018205788A publication Critical patent/JP2018205788A/ja
Publication of JP2018205788A5 publication Critical patent/JP2018205788A5/ja
Application granted granted Critical
Publication of JP6914734B2 publication Critical patent/JP6914734B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、カメラ画像からオブジェクトのシルエットを抽出する装置、方法およびプログラムに係り、特に、カメラ画像からオブジェクトのシルエットを正確に抽出できるシルエット抽出装置、方法およびプログラムに関する。
特許文献1には、カメラごとに単眼背景差分法を採用し、ローカルの色差ヒストグラムを計算して、抽出したシルエットをさらに細かく洗練する技術が開示されている。しかしながら、グローバル閾値が画素レベルのセグメンテーションを制御するのに十分ではないため、満足できる品質のシルエットマスクを確実に得ることはできない。
特許文献2には、Visual Hullを構築するために3D Multiviewを利用する手法が採用されている。しかしながら、3D空間における各ボクセルの存在は、全ての視点に基づいて決定論的である。換言すれば、3D空間内の各ボクセルは、いずれか1つのカメラで可視でない場合、他の全てのカメラでは可視であっても非存在とみなされる。したがって、特許文献2では、自由視点合成における重要な技術課題である、3Dボクセルモデルの部分的な欠落を解消できない。
特開2016-177586号公報 米国特許第8,363,941号明細書
自由視点映像合成におけるオブジェクトの視覚品質は、各カメラ画像のシルエットマスクの精度に大きく依存する。しかしながら、シーンの照度変動、背景変動およびオブジェクトと背景との間の色類似性の影響のため、背景差分法のみでオブジェクトのシルエットを完全に抽出することは難しい。
また、背景差分法の結果に基づいてボクセルの占有率を簡単に計算すると、抽出されたオブジェクトにおける欠落領域と不要領域とのトレードオフの問題があるため、ボクセル占有の可能性の閾値を制御して設定することは困難である。たとえば、不要な領域の削除を優先させるためには尤度の閾値を高く設定すれば良いが、欠落した領域の復元を優先させるためには尤度の閾値を低くしなければならない。
さらに、3Dボクセル投影に基づくセグメンテーションのみでは、各ピクセルが個別に処理されるため、実際には滑らかなオブジェクト境界が滑らではなくなる。GrabCutによる画像セグメンテーションでは、対象オブジェクトの全体が取り込まれ、背景との類似性のためにセグメント化でオブジェクトが部分的に欠落する可能性がある。
本発明の目的は、上記の技術課題を解決し、カメラ画像からオブジェクトのシルエットを正確に抽出できるシルエット抽出装置、方法およびプログラムを提供することにある。
上記の目的を達成するために、本発明は、カメラ画像からオブジェクトのシルエットを抽出するシルエット抽出装置において、以下の構成を具備した点に特徴がある。
(1) 複数のシルエット画像に基づいてオブジェクトの3Dモデルを生成する手段と、3Dモデル内の各ボクセルをシルエット画像に投影する手段と、各シルエット画像における各ボクセルの投影先がシルエット領域であるか否かに基づいて各ボクセルの投影先がシルエット領域である確率を計算する手段と、確率が所定の閾値を下回るボクセルを排除して前記3Dモデルを修正する手段と、修正後の3Dモデル内の各ボクセルを前記各シルエット画像に投影して当該各シルエット画像を見直す第1見直し手段とを具備した。
(2) 前記確率を計算する手段は、各ボクセルの投影先およびその近隣がシルエット領域であるか否かに基づいて各ボクセルの投影先がシルエット領域である確率を計算するようにした。
(3) 第1見直し手段は、3Dモデル内の各ボクセルの投影先にシルエット領域である旨のラベル付けを行うようにした。
(4) 画像を複数のスーパーピクセルに分割する手段と、各スーパーピクセル内の各画素に対応する前記見直し後のシルエット画像の各画素がシルエット領域であるか否かに基づいて、スーパーピクセルごとに対応画素がシルエット領域である確率を計算する手段と、対応画素がシルエット領域である確率が所定の閾値を超えるスーパーピクセル内の各画素がシルエット領域となるシルエット画像を生成する手段とを具備した。
(5) 画像ごとに各画素の特徴量に基づいてグローバル統計値を計算する手段と、画像を複数の局所領域Riに分割する手段と、局所領域Riごとに各画素の特徴量に基づいてローカル統計値を計算する手段と、グローバル統計値と各局所領域Riのローカル統計値とに基づいて局所領域Riごとに閾値thiを設定する手段と、局所領域Riごとに画像の各画素の特徴量と背景画像の対応する各画素の特徴量との差分を当該局所領域Riに固有の閾値thiと比較してシルエットを抽出する手段とを具備した。
本発明によれば、以下のような効果が達成される。
(1) シルエット画像に基づいて構築した3Dモデルの各ボクセルデータを各視点のシルエット画像に投影し、投影先がシルエット内である確率の低いボクセルデータを排除することで3Dモデルの形状を見直すようにした。したがって、見直し後の3Dモデルの各ボクセルデータを各視点のシルエット画像に投影することで各シルエット画像を見直す際の精度が向上し、シルエットから不要な領域を正確に排除できるようになる。
(2) ボクセルデータを各視点のシルエット画像に投影して3Dモデルの形状を見直す際に、ボクセルデータの投影先がシルエット領域の画素であっても、その周辺画素の大部分が背景の画素である場合のように、投影先がシルエット領域内である旨のラベル付が妥当ではないと推定される場合にはシルエット内と認識しないようにしたので、外乱等の影響による誤った判断を排除できるようになる。
(3) 画像を多数のスーパーピクセルに分割し、各スーパーピクセルの境界情報を用いて各シルエット画像の境界を見直すようにしたので、シルエットの境界を精度良く修正できるようになる。
(4) 単眼の背景差分法によりカメラ等の画像と背景画像とを対応する画素値の差分に基づいて各画素がシルエット内の画素であるか否かを判断するにあたり、画像を複数の局所領域Riに分割し、局所領域Riごとに差分閾値thiを設定するようにした。したがって、局所領域Riごとに各画素の特徴量の傾向が大きく異なるような場合でもオブジェクトのシルエットを正確に抽出できるようになる。
(5) 各局所領域Riの大きさを、画像における各画素のピクセル強度の分散(グローバル分散)に応じて可変とし、グローバル分散σglobが大きいほど各局所領域Riのサイズを小さくするようにした。したがって、画像を適正数の局所領域Riに分割することが可能となり、局所領域Riの増加による処理負荷の上昇を抑えながらシルエット抽出の精度を向上させることが可能になる。
本発明の一実施形態に係るシルエット抽出装置の主要部の構成を示した機能ブロック図である。 カメラ画像の一例を示した図である。 カメラ画像を複数の局所領域Riに分割する方法を示した図である。 カメラjごとにシルエット画像S(j)を生成する方法を示したフローチャートである。 適応的閾値thiを採用して生成したシルエット画像S(j)とグローバル閾値thglobを採用して生成したシルエット画像S(j)とを比較した図である。 3Dモデルのボクセルデータを各シルエット画像S(j)に投影して対応画素のデータを取得する方法を示した図である。 スーパーピクセルの分割例を示した図である。 シルエット画像S(j)の見直し手順を示したフローチャートである。 3Dモデル修正部(40)の他の実施形態の構成を示したブロック図である。 勾配情報反映部(43)の機能を説明するための図である。
以下、図面を参照して本発明の実施の形態について詳細に説明する。図1は、本発明の一実施形態に係るシルエット抽出装置の主要部の構成を示した機能ブロック図である。このような装置は、汎用のコンピュータやサーバに各機能を実現するアプリケーション(プログラム)を実装して構成しても良いし、あるいはアプリケーションの一部がハードウェア化またはROM化された専用機や単能機として構成しても良い。
多視点画像入力部10は、オブジェクトObjを異なる視点で撮影する複数台のカメラCaj(Ca1,Ca2…)から、図2に一例を示したカメラ画像I(t)を視点ごとに所定の周期で取得する。シルエット画像生成部20は、各カメラ画像I(t)に基づいてオブジェクトのシルエットを含むシルエット画像S(j)を視点ごとに生成する。
前記シルエット画像生成部20において、背景画像取得部21は、オブジェクトObjが存在しない空舞台のカメラ画像I(t)から背景画像を取得する。グローバル統計値取得部22は、カメラ画像I(t)ごとに各画素の特徴量に基づいてカメラ画像全体の統計値(グローバル統計値)を計算する。本実施形態では、カメラ画像I(t)の全画素のピクセル強度の分散すなわちグローバル分散σglobが計算される。なお、カラー画像の場合は3原色のそれぞれについてμglobが計算される。
領域分割部23は、図3に一例を示したように、各視点のカメラ画像I(t)を複数の矩形の局所領域Riに分割する。本実施形態では、カメラ画像I(t)がk個の局所領域Riに分割されているが、各局所領域Riのサイズすなわち分割数kはグローバル分散σglobに依存し、グローバル分散σglobが大きくなるほど局所領域Riのサイズは小さくされる。
ローカル統計値取得部24は、各カメラ画像I(t)の局所領域Riごとに各画素の特徴量に基づいて各局所領域Riに固有の統計値(ローカル統計値)を計算する。本実施形態では、各局所領域Ri内の全画素のピクセル強度に基づいて各局所領域Riに固有のローカル分散σiが計算される。
ローカル閾値設定部25は、前記局所領域Riごとに、カメラ画像I(t)の各画素のピクセル強度と前記背景画像の対応する画素のピクセル強度との差分に基づいて当該局所領域Ri内の各画素がシルエット領域および背景領域のいずれであるかを判別するためのローカル閾値thiを設定する。
本実施形態では、予め用意されている標準的なグローバル閾値thglobを、次式(1)に示したように、グローバル分散σglobとローカル分散σiとの比に基づいて局所領域Riごとに増減補正することで各ローカル閾値thiが適応的に求められる。
Figure 0006914734
ここで、2つのパラメータA,Bは、グローバル分散σglobとローカル分散σiとの比α(α∈(0,1))に応じて局所閾値thiを適合させるためのオフセット値であり、一般的にA,Bはいずれも正の値をとるが、一方は「0」であっても良い。
判別部26は、局所領域Riごとに各画素のピクセル強度と前記背景画像の対応する画素のピクセル強度との差分を当該局所領域Riに固有のローカル閾値thiと比較する。そして、差分が前記ローカル閾値thiよりも大きい画素にはシルエット内である旨のラベル「1」を付し、差分値が前記ローカル閾値thiよりも小さい画素には背景である旨のラベル「0」を付する。
シルエット画像生成部27は、全ての画素にラベル「0」またはラベル「1」の付されたシルエット画像S(j)を視点(カメラ)ごとに生成する。本実施形態ではm個のシルエット画像S(1)〜S(m)が生成される。
図4は、前記シルエット画像生成部20によるシルエット画像S(j)の生成方法を示したフローチャートであり、時刻tにおいてカメラ画像I(t)ごとに同様の処理が繰り返されてm個のシルエット画像S(1)〜S(m)が生成される。
ステップS1では、オブジェクトが映っていない背景画像が、前記背景画像取得部21により取得される。ステップS2では、各カメラCaからカメラ映像I(t)が取り込まれる。ステップS3では、カメラ画像I(t)の各画素のピクセル強度に基づいて、カメラ画像全体でのピクセル強度のグローバル分散σglobが、前記グローバル統計値取得部22により計算、取得される。
ステップS4では、前記図2に示したように、カメラ画像I(t)が前記領域分割部23によりk個の局所領域R1,R2…Ri…Rkに分割される。したがって、各カメラ画像I(t)は次式(2)で表される。
Figure 0006914734
ステップS5では、局所領域Riの一つが選択される。ステップS6では、当該局所領域Riの各画素のピクセル強度に基づいて、その統計値であるピクセル強度のローカル分散σiが前記ローカル統計値取得部24により計算、取得される。
ステップS7では、前記ローカル分散σiに基づいて当該局所領域Riに固有の閾値thiが、前記ローカル閾値設定部25により上式(1)に基づいて計算される。ステップS8では、前記判別部26が局所領域Riごとに、各画素のピクセル強度と背景画像の対応する画素のピクセル強度との差分を前記適応的閾値thiと比較し、差分が閾値thiよりも大きければシルエットの画素、小さければ背景の画素と判別する。
ステップS9では、全ての局所領域Riに関して上記の識別が完了したか否が判断される。完了していなければステップS5へ戻り、次の局所領域Riに対して同様の処理が繰り返される。全ての局所領域Riの各画素について前記判別が完了するとステップS10へ進み、前記シルエット画像生成部27によりシルエット画像S(j)が生成される。
図5は、本発明に係る適応的閾値thiを採用して生成したシルエット画像S(j)[同図(a)]と、従来技術のグローバル閾値thglobを採用して生成したシルエット画像S(j)[同図(b)]とを比較した図であり、適応的閾値thiを採用することでシルエットを正確に抽出できることが判る。
本実施形態によれば、単眼の背景差分法によりカメラ画像と背景画像とを対応する画素値の差分に基づいて各画素がシルエット内の画素であるか否かを判断するにあたり、カメラ画像を複数の局所領域Riに分割し、局所領域Riごとに差分閾値thiを設定するようにした。したがって、局所領域Riごとに各画素の特徴量の傾向が大きく異なるような場合でもオブジェクトのシルエットを正確に抽出できるようになる。
また、各局所領域Riの大きさを、カメラ画像における各画素のピクセル強度の分散(グローバル分散)に応じて可変とし、グローバル分散σglobが大きいほど各局所領域Riのサイズを小さくするようにした。したがって、カメラ画像を適正数の局所領域Riに分割することが可能となり、局所領域Riの増加による処理負荷の上昇を抑えながらシルエット抽出の精度を向上させることが可能になる。
図1へ戻り、三次元形状モデル生成部30は、異なる視点ごとに生成されたシルエット画像S(j)を実空間に投影した視体積の中にオブジェクトが含まれるという制約に基づいて、視体積交差法により、各シルエット画像S(1)〜S(m)に対応する視体積の共通部分をオブジェクトの三次元形状(ボクセルデータの集合)と推定し、3次元ボクセル空間におけるオブジェクトの存在領域を示すVisual Hullを復元する。
3Dモデル修正部40は、ボクセルデータ投影部41を備え、Visual Hull内の各ボクセルデータを各視点のシルエット画像S(j)に投影する。そして、投影先がシルエット内である確率を確率計算部42により計算し、確率の低いボクセルデータを排除することで前記Visual Hullの形状を修正する。
ここで、各シルエット画像S(j)の各座標(x,y)に位置する画素をa(i)(x,y)と表記し(以下、a(i)と簡略化する)、3D空間内の各座標(x,y,z)に位置するボクセルをv(x,y,z)と表記する(以下、vと簡略化する)と、図6に示したように、各カメラが3次元空間に対してカメラパラメータC(i)により完全に較正されていれば次式(3)が成立する。
Figure 0006914734
そこで、本実施形態では3Dモデル内の全てのボクセルを上式(3)に基づいて各シルエット画像S(j)にそれぞれ投影する。a(i)の値を得る演算子をΩ(a(i))と定義すれば、各ボクセルvの投影先a(i)がシルエットである確率P2d(v)は次式(4)で求められる。
Figure 0006914734
そして、各ボクセルvの正当性を評価するための閾値γ∈(0,1)を、隣接する接続や勾配などの局所的なピクセル情報に基づいて定義し、次式(5)に基づいて各ボクセルvに有効ラベル「1」または無効ラベル「0」を付する。そして、無効ラベル「0」を付されたボクセルをVisual Hullから排除することで3Dモデルが修正される。
Figure 0006914734
シルエット画像見直し部50は、ボクセルデータ投影部51を備え、前記修正後のVisual Hull内の各ボクセルデータを各視点に投影することで修正されたシルエット画像S(j)を生成する。
シルエット画像再見直し部60は、カメラ画像I(t)を多数のスーパーピクセルに分割し、その境界情報に基づいて前記見直し後シルエット画像S(j)_rev1を更に見直し、再見直し後シルエット画像S(j)_rev2を構築する。
前記シルエット画像再見直し部60において、スーパーピクセル分割部61は、図7(a)に模式的に示したように、カメラ画像I(t)を多数のスーパーピクセルUkに分割する。ここで、スーパーピクセルとは輝度や色等の性質が比較的似ているピクセルを複数まとめた小領域であり、スーパーピクセルを算出するための手法としては、Graph-based手法、Mean Shift手法あるいはNormalized Cut手法などが知られている。各スーパーピクセルUkはオブジェクトのシルエットを定義するために有益な境界情報を有している。
判別部62は、各スーパーピクセルUk内の全画素を、前記見直し後シルエット画像S(j)_rev1の対応画素に付されたラベルに基づいてシルエット/背景のいずれかに判別する。占有率計算部63は、前記判別結果に基づいて、スーパーピクセルUkごとに全画素に占めるシルエットの占有率を計算する。
ラベリング部64は、次式(6)に示したように、スーパーピクセルUkごとに、当該スーパーピクセルUkにおけるシルエットの占有率を、総画素数Tとシルエットの画素数との比(h/T)として求め、占有率と所定の閾値βとの関係に基づいて各スーパーピクセルUkをラベル付けする。すなわち、占有率(h/T)が閾値βを超えるスーパーピクセルUkにラベル「1」が付される。
Figure 0006914734
修正部65は、ラベル「1」を付されたスーパーピクセルUkの各画素に対応する前記見直し後マスクS(j)_rev1の各画素値を「1」とする再見直し後マスクS(j)_rev2を獲得する。
図7(a),(b)は、前記シルエット画像再見直し部60の機能を模式的に表現した図であり、ここでは3つのスーパーピクセルUa,Ub,Ucに着目して説明する。
前記閾値β=0.6と仮定すると、スーパーピクセルUaではh/T>βが成立するので当該スーパーピクセルUaにはラベル「1」が付される。その結果、見直し後マスクS(j)_rev1において当該スーパーピクセルUa内の各画素の画素値が全て「1」に書き換えられる。
これに対して、スーパーピクセルUb,Ucではh/T>βが成立しないので当該各スーパーピクセルUb,Ucにはラベル「0」が付される。その結果、見直し後マスクS(j)_rev1において当該スーパーピクセルUb,Uc内の各画素の画素値が全て「0」に書き換えられる。
図8は、本実施形態におけるシルエット画像S(j)の見直し手順を示したフローチャートであり、ステップS21では、複数の視点ごとに生成された複数のシルエット画像S(j)が取得される。ステップS22では、前記三次元形状モデル生成部30において、複数のシルエット画像S(j)に基づいてオブジェクトの3Dモデル(Visual Hull)が初期化される。
ステップS23では、前記3Dモデル修正部40において、3Dモデル内の各ボクセルが各シルエット画像S(j)に投影され、ボクセルごとに投影先がシルエット内である確率P2d(v)が、前記確率計算部42により上式(4)に基づいて計算される。ステップS24では、確率P2d(v)の低いボクセルを排除することで3Dモデルの形状が修正される。
ステップS25では、前記シルエット画像見直し部50において、前記更新後の3Dモデルの各ボクセルデータを各シルエット画像S(j)に投影し、投影先の各画素にシルエットである旨のラベル「1」を付することで見直し後シルエット画像S(j)_rev1を構築する。
ステップS26では、前記シルエット画像再見直し部60において、カメラ画像I(t)が複数のスーパーピクセルUkに分割される。ステップS27では、スーパーピクセルUkごとに、見直し後シルエット画像S(j)_rev1においてシルエット内である画素に相当する画素(シルエット相当画素)の占有確率が計算される。
ステップS28では、シルエット相当画素の占有確率が所定の閾値を超えるスーパーピクセルUk内の全ての画素に対応する前記見直し後シルエット画像S(j)_rev1の各画素のラベルをシルエット「1」に書く替えることで再見直し後シルエット画像S(j)_rev2が構築される。ステップS29では、いくつかの後処理後(例えば、形態学的操作、およびフィルタリングなど)が実施されて各シルエット画像が完成する。
本実施形態によれば、シルエットに基づいて構築した3Dモデルの各ボクセルデータを各視点のシルエット画像に投影し、投影先がシルエット内の画素である確率の低いボクセルデータを排除することで前記3Dモデルを修正するようにした。したがって、見直し後の3Dモデルの各ボクセルデータを各視点のシルエット画像に投影することで各シルエットを見直す際の精度が向上し、シルエットから不要な領域を正確に排除できるようになる。
また、本実施形態によれば、カメラ画像を多数のスーパーピクセルに分割し、各スーパーピクセルの境界情報を用いて各シルエット画像の境界を見直すようにしたので、シルエットの境界を精度良く修正できるようになる。
図9は、前記3Dモデル修正部40の他の実施形態の構成を示したブロック図であり、勾配情報反映部43を更に具備した点に特徴がある。
上記の実施形態では、前記3Dモデル修正部40が3Dモデルの各ボクセルデータを各シルエット画像S(j)へ投影し、ボクセルデータの投影先がシルエット内である確率P2dに基づいて各ボクセルデータを取捨するものとして説明した。これに対して、本実施形態では投影先のみならず、その近隣画素も考慮して当該投影先がシルエット内であるか否かを判断するようにした点に特徴がある。
本実施形態では、各ボクセルの投影先画素の上方向,下方向、右方向および左方向に距離τだけ離れた各画素に付されたラベルを、それぞれ(x,y+τ),(x,y−τ),(x+τ,y),(x−τ,y)としたとき、次式(7)に基づいて勾配情報∇を求め、これを次式(8)に適用することで最終的の当該投影先がシルエット内であるか否かを判断するようにしている。ここで、τは勾配計算におけるステップであり、∇∈[0,4]である。
Figure 0006914734
Figure 0006914734
図10は、本実施形態における投影先の判別方法を、τ=1の場合を例にして模式的に示した図であり、同図(a)では、投影先がシルエット内(〇:=1)であり、その上下左右の各方向に隣接する4つの画素の全てが背景(●:=0)である。したがって、∇=4となるので投影先はシルエット内と認識されない。
同図(b)では、投影先の画素がシルエット内であり、その上下左右の各方向に隣接する4つの画素のうち、1つのみがシルエット内で他の3つは背景である。したがって、∇=3となるので投影先はシルエット内と認識されない。同様に、同図(c)の例でも∇=2となるので投影先はシルエット内と認識されない。
これに対して、同図(d)では投影先がシルエット内であり、その上下左右の各方向に隣接する4つの画素のうち3つがシルエット内なので∇=1となり、同図(e)でも、4つの隣接画素全てがシルエット内なので∇=0となる。したがって、いずれの場合も投影先はシルエット内と認識される。
本実施形態によれば、ボクセルデータの投影先がシルエット内の画素として予めラベル付けされていても、その周辺画素の大部分が背景の画素としてラベル付けされている場合のように、投影先がシルエット内である旨のラベル付が妥当ではないと推定される場合にはシルエット内と認識しないようにしたので、外乱等の影響による誤ったラベル付けの影響を排除できるようになる。
10…多視点画像入力部,20…シルエット画像生成部,21…背景画像取得部,22…グローバル統計値取得部,23…領域分割部,24…ローカル統計値取得部,25…ローカル閾値設定部,26…判別部,27…シルエット画像生成部,30…三次元形状モデル生成部,40…3Dモデル修正部,41…ボクセルデータ投影部,42…確率計算部,43…勾配情報反映部,50…シルエット画像見直し部,51…ボクセルデータ投影部,60…シルエット画像再見直し部,61…スーパーピクセル分割部,62…判別部,63…占有率計算部,64…ラベリング部,65…修正部

Claims (14)

  1. オブジェクトのシルエットを抽出するシルエット抽出装置において、
    同一のオブジェクトを異なる視点で撮影した画像からシルエット画像をそれぞれ生成する手段と、
    前記シルエット画像に基づいて3Dモデルを生成する手段と、
    前記3Dモデル内の各ボクセルを前記シルエット画像に投影する手段と、
    各ボクセルの投影先がシルエット領域であるか否かに基づいて当該ボクセルの投影先がシルエット領域である確率を計算する手段と、
    前記確率が所定の閾値を下回るボクセルを排除して前記3Dモデルを修正する手段と、
    前記修正後の3Dモデル内の各ボクセルを各シルエット画像に投影し、投影先の各画素がシルエット領域に見直された見直し後シルエット画像を構築する第1見直し手段とを具備し
    前記シルエット画像を生成する手段は、
    画像ごとに各画素の特徴量に基づいてグローバル統計値を計算する手段と、
    前記画像を複数の局所領域に分割する手段と、
    前記局所領域ごとに各画素の特徴量に基づいてローカル統計値を計算する手段と、
    前記グローバル統計値と各局所領域のローカル統計値とに基づいて局所領域ごとに閾値を設定する手段と、
    局所領域ごとに、画像の各画素の特徴量と背景画像の対応する各画素の特徴量との差分を当該局所領域に固有の閾値と比較してシルエット画像を生成する手段とを具備したことを特徴とするシルエット抽出装置。
  2. 前記確率を計算する手段は、各ボクセルの投影先およびその近隣がシルエット領域であるか否かに基づいて各ボクセルの投影先がシルエット領域である確率を計算することを特徴とする請求項1に記載のシルエット抽出装置。
  3. 前記確率を計算する手段は、各ボクセルの投影先およびその近接画素がシルエット領域であるか否かに基づいて各ボクセルの投影先がシルエット領域である確率を計算することを特徴とする請求項2に記載のシルエット抽出装置。
  4. 前記画像を複数のスーパーピクセルに分割する手段と、
    各スーパーピクセル内の各画素に対応する前記見直し後シルエット画像の各画素がシルエット領域であるか否かに基づいて、スーパーピクセルごとに各画素がシルエット領域である確率を計算する手段と、
    シルエット領域である画素の占有率が所定の閾値を超えるスーパーピクセルがシルエット領域となるシルエット画像を生成する第2見直し手段とを具備したことを特徴とする請求項1に記載のシルエット抽出装置。
  5. 前記グローバル統計値が、画像における各画素の特徴量の分散であることを特徴とする請求項に記載のシルエット抽出装置。
  6. 前記各画素の特徴量がピクセル強度であることを特徴とする請求項1ないし5のいずれかに記載のシルエット抽出装置。
  7. 前記画像を複数の局所領域に分割する際の各局所領域のサイズを、前記グローバル統計値に基づいて決定する領域サイズ決定手段を更に具備したことを特徴とする請求項1ないし6のいずれかに記載のシルエット抽出装置。
  8. 前記グローバル統計値が、画像における各画素の特徴量の分散であり、前記領域サイズ決定手段は、分散が大きいほど局所領域のサイズを小さくすることを特徴とする請求項に記載のシルエット抽出装置。
  9. コンピュータがオブジェクトのシルエットを抽出するシルエット抽出方法において、
    同一のオブジェクトを異なる視点で撮影した画像からシルエット画像をそれぞれ生成し、
    前記シルエット画像に基づいて3Dモデルを生成し、
    前記3Dモデル内の各ボクセルを前記シルエット画像に投影し、
    各ボクセルの投影先がシルエット領域であるか否かに基づいて各ボクセルの投影先がシルエット領域である確率を計算し、
    前記確率が所定の閾値を下回るボクセルを排除して前記3Dモデルを修正し、
    前記修正後の3Dモデル内の各ボクセルを各シルエット画像に投影し、投影先の各画素がシルエット領域に見直された見直し後シルエット画像を構築し、
    前記シルエット画像を生成する際に、
    画像ごとに各画素の特徴量に基づいてグローバル統計値を計算し、
    前記画像を複数の局所領域に分割し、
    前記局所領域ごとに各画素の特徴量に基づいてローカル統計値を計算し、
    前記グローバル統計値と各局所領域のローカル統計値とに基づいて局所領域ごとに閾値を設定し、
    局所領域ごとに、画像の各画素の特徴量と背景画像の対応する各画素の特徴量との差分を当該局所領域に固有の閾値と比較してシルエット画像を生成することを特徴とするシルエット抽出方法。
  10. 前記確率を計算する際に、各ボクセルの投影先およびその近隣がシルエット領域であるか否かに基づいて各ボクセルの投影先がシルエット領域である確率を計算することを特徴とする請求項に記載のシルエット抽出方法。
  11. 前記画像を複数のスーパーピクセルに分割し、
    各スーパーピクセル内の各画素に対応する前記見直し後シルエット画像の各画素がシルエット領域であるか否かに基づいて、スーパーピクセルごとに対応画素がシルエット領域である確率を計算し、
    対応画素がシルエット領域である確率が所定の閾値を超えるスーパーピクセルがシルエット領域となるシルエット画像を生成することを特徴とする請求項9または10に記載のシルエット抽出方法。
  12. オブジェクトのシルエットを抽出するシルエット抽出プログラムにおいて、
    同一のオブジェクトを異なる視点で撮影した画像からシルエット画像をそれぞれ生成する手順と、
    前記シルエット画像に基づいて3Dモデルを生成する手順と、
    前記3Dモデル内の各ボクセルを前記シルエット画像に投影する手順と、
    各ボクセルの投影先がシルエット領域であるか否かに基づいて各ボクセルの投影先がシルエット領域である確率を計算する手順と、
    前記確率が所定の閾値を下回るボクセルを排除して前記3Dモデルを修正する手順と、
    前記修正後の3Dモデル内の各ボクセルを各シルエット画像に投影し、投影先の各画素がシルエット領域に見直された見直し後シルエット画像を構築する手順とをコンピュータに実行させ
    前記シルエット画像を生成する手順が、
    画像ごとに各画素の特徴量に基づいてグローバル統計値を計算する手順と、
    前記画像を複数の局所領域に分割する手順と、
    前記局所領域ごとに各画素の特徴量に基づいてローカル統計値を計算する手順と、
    前記グローバル統計値と各局所領域のローカル統計値とに基づいて局所領域ごとに閾値を設定する手順と、
    局所領域ごとに、画像の各画素の特徴量と背景画像の対応する各画素の特徴量との差分を当該局所領域に固有の閾値と比較してシルエット画像を生成する手順とを含むことを特徴とするシルエット抽出プログラム。
  13. 前記確率を計算する手順は、各ボクセルの投影先およびその近隣がシルエット領域であるか否かに基づいて各ボクセルの投影先がシルエット領域である確率を計算することを特徴とする請求項12に記載のシルエット抽出プログラム。
  14. 前記画像を複数のスーパーピクセルに分割する手順と、
    各スーパーピクセル内の各画素に対応する前記見直し後シルエット画像の各画素がシルエット領域であるか否かに基づいて、スーパーピクセルごとに対応画素がシルエット領域である確率を計算する手順と、
    シルエット領域である画素の占有率が所定の閾値を超えるスーパーピクセルがシルエット領域となるシルエット画像を生成する手順とを含むことを特徴とする請求項12または13に記載のシルエット抽出プログラム。
JP2017106356A 2017-05-30 2017-05-30 シルエット抽出装置、方法およびプログラム Active JP6914734B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017106356A JP6914734B2 (ja) 2017-05-30 2017-05-30 シルエット抽出装置、方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017106356A JP6914734B2 (ja) 2017-05-30 2017-05-30 シルエット抽出装置、方法およびプログラム

Publications (3)

Publication Number Publication Date
JP2018205788A JP2018205788A (ja) 2018-12-27
JP2018205788A5 JP2018205788A5 (ja) 2019-08-22
JP6914734B2 true JP6914734B2 (ja) 2021-08-04

Family

ID=64957184

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017106356A Active JP6914734B2 (ja) 2017-05-30 2017-05-30 シルエット抽出装置、方法およびプログラム

Country Status (1)

Country Link
JP (1) JP6914734B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109785429B (zh) * 2019-01-25 2020-08-21 北京极智无限科技有限公司 一种三维重建的方法和装置
EP3998582A4 (en) * 2019-07-09 2022-12-07 Panasonic Intellectual Property Management Co., Ltd. METHOD FOR CREATING A THREE-DIMENSIONAL MODEL AND APPARATUS FOR CREATING A THREE-DIMENSIONAL MODEL
JP7491830B2 (ja) 2020-12-22 2024-05-28 Kddi株式会社 被写体シルエット抽出装置、方法及びプログラム
JP7509509B2 (ja) 2021-01-22 2024-07-02 Kddi株式会社 被写体シルエット抽出装置、方法及びプログラム
CN115482246B (zh) * 2021-05-31 2023-06-16 数坤(上海)医疗科技有限公司 一种图像信息提取方法、装置、电子设备和可读存储介质
JP7532314B2 (ja) 2021-06-01 2024-08-13 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
WO2024185093A1 (ja) * 2023-03-08 2024-09-12 日本電気株式会社 処理装置、処理方法、及び処理プログラム
CN117115415B (zh) * 2023-10-25 2024-02-20 厦门久凌创新科技有限公司 基于大数据分析的图像标记处理方法和系统

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006059165A (ja) * 2004-08-20 2006-03-02 Riyuukoku Univ 3次元モデリング装置、幾何学パターン、3次元モデリングデータの生成方法、3次元モデリングプログラム、記録媒体
JP2007017364A (ja) * 2005-07-11 2007-01-25 Kyoto Univ シルエット抽出装置及び該方法並びに3次元形状データ生成装置及び該方法
JP2009164951A (ja) * 2008-01-08 2009-07-23 Fujifilm Corp 撮像システム、画像処理装置、画像処理方法、およびプログラム

Also Published As

Publication number Publication date
JP2018205788A (ja) 2018-12-27

Similar Documents

Publication Publication Date Title
JP6914734B2 (ja) シルエット抽出装置、方法およびプログラム
US9773302B2 (en) Three-dimensional object model tagging
US8781161B2 (en) Image processing method and apparatus for generating a 3D model of a target object
US8340422B2 (en) Generation of depth map for an image
US11589023B2 (en) Image processing apparatus, image processing method, and storage medium
CN109816766A (zh) 图像处理装置、图像处理方法及存储介质
US11200690B2 (en) Image processing apparatus, three-dimensional shape data generation method, and non-transitory computer readable storage medium
CN114119751A (zh) 用于大规模确定rgbd相机姿势的方法和系统
EP2374107A1 (en) Devices and methods for processing images using scale space
CA2988360A1 (en) Method and apparatus for determining a depth map for an image
Bleyer et al. A stereo approach that handles the matting problem via image warping
US20230281912A1 (en) Method and system for generating a target image from plural multi-plane images
EP3816942A1 (en) An image processing method for setting transparency values and color values of pixels in a virtual image
KR20180011215A (ko) 이미지를 위한 깊이 맵을 결정하기 위한 방법 및 장치
EP2833637A1 (en) Method for processing a current image of an image sequence, and corresponding computer program and processing device
JP2018055367A (ja) 画像処理装置、画像処理方法、及びプログラム
JP7374582B2 (ja) 画像処理装置、画像生成方法およびプログラム
US11195322B2 (en) Image processing apparatus, system that generates virtual viewpoint video image, control method of image processing apparatus and storage medium
JP6811679B2 (ja) シルエット抽出装置、方法およびプログラム
JP7078564B2 (ja) 画像処理装置及びプログラム
JP7271115B2 (ja) 画像処理装置、背景画像の生成方法およびプログラム
EP2975850A1 (en) Method for correcting motion estimation between at least two frames of a video sequence, corresponding device, computer program and non-transitory computer-readable medium
JP2011113177A (ja) 被写体3次元モデルを構築する方法およびプログラム
KR101993961B1 (ko) 임의시점 영상의 홀 채움 방법
JP2020035218A (ja) 画像処理装置、方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190709

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190709

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200812

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201001

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201021

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210422

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210422

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210507

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210512

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210707

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210714

R150 Certificate of patent or registration of utility model

Ref document number: 6914734

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150