JP5036084B2 - 映像処理装置、映像処理方法、及びプログラム - Google Patents
映像処理装置、映像処理方法、及びプログラム Download PDFInfo
- Publication number
- JP5036084B2 JP5036084B2 JP2010231928A JP2010231928A JP5036084B2 JP 5036084 B2 JP5036084 B2 JP 5036084B2 JP 2010231928 A JP2010231928 A JP 2010231928A JP 2010231928 A JP2010231928 A JP 2010231928A JP 5036084 B2 JP5036084 B2 JP 5036084B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- foreground
- unit
- video
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000012545 processing Methods 0.000 title claims abstract description 76
- 238000003672 processing method Methods 0.000 title claims description 5
- 238000012937 correction Methods 0.000 claims abstract description 36
- 239000000284 extract Substances 0.000 claims abstract description 19
- 238000000034 method Methods 0.000 claims description 117
- 238000000605 extraction Methods 0.000 claims description 108
- 230000033001 locomotion Effects 0.000 claims description 69
- 238000004364 calculation method Methods 0.000 claims description 67
- 230000008569 process Effects 0.000 description 65
- 238000010586 diagram Methods 0.000 description 22
- 238000001514 detection method Methods 0.000 description 20
- 230000010354 integration Effects 0.000 description 20
- 238000009499 grossing Methods 0.000 description 17
- 230000005484 gravity Effects 0.000 description 11
- 239000011159 matrix material Substances 0.000 description 10
- 238000002372 labelling Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 6
- 238000007796 conventional method Methods 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 4
- 230000002146 bilateral effect Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 241001122767 Theaceae Species 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 241000047875 Pica hudsonia Species 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
Description
具体的には、映像中から所望の画像領域を抽出する手法として次の(1)、(2)の手法が知られている。
色情報に基づく前景画像領域の抽出手法として、例えば、クロマキー処理、非特許文献1、2、3記載の技術が知られている。
クロマキー処理とは、一定色(例えば、青色)を背景として対象物を撮影し、撮影した映像から一定色の背景部分を除くことによって、所望の対象物(前景領域)を抽出する処理である。この処理により、映像を前景画像領域の映像と背景画像領域の映像に分離する。
非特許文献1には、グレー画像を対象に、所望の画像領域(前景画像領域)に前景領域を表すマーカー、及びそれ以外の領域(背景画像領域)に背景領域を表すマーカーを、予めユーザが付け、その前景画像領域と背景画像領域に付与されたマーカーを基に、グラフカット(Graph Cuts)により前景画像領域を抽出する技術が記載されている。特許文献2には、カラー画像に対して、グラフカット(Graph Cuts)を応用し、前景画像領域を抽出する技術が記載されている。
非特許文献3には、前景画像領域、背景画像領域、及び未知画像領域(前景画像領域、背景画像領域のどちらかに属するか未決定の画像領域)の3つのマーカーを用いてマップ(トライマップと呼ばれる)を予め作成し、未知領域における前景画像領域の画素、背景画像領域の画素の混合率α(マット)を推定することで、前景画像領域を抽出する技術が記載されている。
色情報と奥行情報に基づく前景画像領域の抽出手法として、例えば、特許文献1、2記載の技術が知られている。
特許文献1には、カメラから被写体までの奥行情報の画像(距離画像)に基づいてトライマップを作成し、色情報を利用して未知領域における前景画像領域の画素、背景画像領域の画素の混合率αを推定し、前景画像領域を抽出する技術が記載されている。
特許文献2には、カメラから被写体までの奥行情報から前景画像領域を粗く抽出し、その後、色情報を基に領域分割統合法を再帰的に繰り返し、前景画像領域を抽出する技術が記載されている。
非特許文献1−3、特許文献1、2記載の従来技術では、対象物と背景領域の色分布が類似である場合や、対象物と背景領域とが類似した模様(テクスチャ)を有する場合に、領域の境界を特定できずに対象物に欠損部分が生じる。また、この場合には、背景領域を対象物として誤抽出することもある。つまり、従来技術では、対象物を確実に抽出できないという欠点があった。なお、対象物に欠損部分や背景画像領域の誤抽出部分があるとき、動画の映像の場合には、対象物の抽出形状が時間方向に不連続となることによって、対象物の画像にフリッカやちらつきが生じてしまう。
図1は、本発明の実施形態に係る映像処理装置1の構成を表すブロック図である。この図において、映像処理装置1は、映像情報取得部10、奥行情報取得部11、映像情報再生部12、ROI(Region of Interest;対象画像領域)取得部13、映像表示部14、オブジェクト抽出部15、及びマスク情報記録部16を含んで備える。
映像情報取得部10は、取得した映像情報(t)を、映像情報再生部12、ROI取得部13、及びオブジェクト抽出部15に出力する。
奥行情報取得部11は、取得した奥行情報(t)を、オブジェクト抽出部15に出力する。
ここで、映像情報再生部12は、マスク情報記録部16が記録するマスク情報(t)に基づいて、映像情報(t)の映像に、オブジェクト抽出部15が抽出したオブジェクトの画像を重畳して表示する。つまり、マスク情報(t)は、時刻tで映像情報(t)に対応付けられている。なお、マスク情報記録部16がマスク情報(t)を記録していない場合には、映像情報(t)の映像をそのまま再生する。
映像表示部14は、ユーザがディスプレイに触れながらディスプレイに表示された画像(ts)でのROIを指定することによって、ROIの位置情報(ユーザ指定ROI情報(ts)という)、つまり、ROIの位置と形状(外接形状)を示す情報を検出する。なお、映像表示部14でのユーザ指定ROI情報(ts)の検出処理の詳細は後述する。
映像表示部14は、検出したユーザ指定ROI情報(ts)をROI取得部13に出力する。
ROI取得部13は、画像特徴点(t)とROI特徴点(ts)とのマッチングを行う。具体的には、ROI取得部13は、ROI特徴点(ts)に変換行列を逐次乗算することで、画像中でROI特徴点(ts)を移動(回転含む)及び拡大・縮小させて、特徴点が一致する数(特徴点数という)を算出する。ROI取得部13は、特徴点数が予め定めた閾値以上になったと判定した場合に、そのときの変換行列を記録する。ROI取得部13は、ユーザ指定ROI情報(ts)に変換行列を乗算した位置情報をROI情報(t)とする。つまり、ROI取得部13は、ユーザ指定ROI情報(ts)の範囲内の画像が、画像(t)中のどの部分と一致するかを判定し、一致した場合に、ユーザ指定ROI情報(ts)に相当する位置情報を、ROI情報(t)とする。ROI取得部13は、抽出したROI情報(t)(ユーザ指定ROI情報(ts)を含む)を映像表示部14、及びオブジェクト抽出部15に出力する。また、ROI取得部13は、抽出したROI情報(t)をROI情報記憶部1583に記憶する。
オブジェクト抽出部15は、抽出したマスク情報(t)をマスク情報記録部16に記録する。
以下、映像表示部14が行うユーザ指定ROI情報(ts)の検出処理の詳細について説明をする。
図2は、本実施形態に係るユーザ指定ROI情報(ts)の検出処理の一例を示す概略図である。図2において、符号Aを付した四角はタッチパネル型のディスプレイ(映像表示部14)である。符号Bを付した四角は、時刻情報が示す時刻ts(図2では、ts=0.133秒)における画像(ts)である。符号Oを付したものは、ユーザが抽出したい対象物(図2では、人物)の画像を表す。また、符号Uを付したものは、ユーザの手を表す。
以下、映像処理装置1の動作について説明する。
図3は、本実施形態に係る映像処理装置1の動作の一例を示すフローチャートである。
(ステップS13)ユーザは、ステップS12で再生された映像の再生をある時刻tsで一時停止し、ROIを指定する。映像表示部14は、ユーザが指定したROIについて、ユーザ指定ROI情報(ts)を検出し、ROI取得部13に出力する。その後、ステップS14へ進む。
(ステップS15)映像情報再生部12は、マスク情報記録部16が記録するマスク情報(t)に基づいて、映像情報(t)の映像に、オブジェクト抽出部15が抽出したオブジェクトの画像を重畳して表示する。
上記の動作において、映像処理装置1は、ユーザが指定したROIについて、ユーザ指定ROI情報(ts)を検出するので、自動でROIを抽出する場合と比較して、確実にROIを抽出することができる。また、映像処理装置1は、映像表示部14は、ROI情報(t)が示す外接形状を、映像情報(t)の映像に重畳して表示するので、ユーザは所望のROIが検出されていることを把握することができる。
以下、オブジェクト抽出部15が行う処理について詳細を説明する。
図4は、本実施形態に係るオブジェクト抽出部15の構成を示す概略ブロック図である。この図において、オブジェクト抽出部15は、フィルタ部151a、151b、分布モデル推定部152、クラスタリング部153、特徴量算出部154、前景領域抽出部155、前景領域補正部156、マスク情報生成部157、及びバッファ部158を含んで構成される。バッファ部158は、映像情報記憶部1581、前景領域情報記憶部1582、ROI情報記憶部1583、ROI奥行分布情報記憶部1584、補正前景領域情報記憶部1585を含んで構成される。なお、符号I1、D1、R1、Mを付した平行四辺形は情報を示し、それぞれ、映像情報(t)、奥行情報(t)、ROI情報(t)、マスク情報(t)である。
フィルタ部151aは、平滑化フィルタによる平滑化後の映像情報(t)を、クラスタリング部153、及び特徴量算出部154に出力する。
フィルタ部151bは、平滑化フィルタによる平滑化後の奥行情報(t)を、特徴量算出部154及び分布モデル推定部152に出力する。
分布モデル推定部152は、推定したROI奥行分布情報(t)を前景領域抽出部155、及びバッファ部158に出力する。
例えば、クラスタリング部153は、特徴量空間でのクラスタリングを行う。特徴量空間によるクラスタリングとは、画像空間の各画素を特徴量空間(例えば、色、エッジ、動きベクトル)に写像し、その特徴量空間においてK-means法、Mean-Shift法、又はK最近傍探索法(近似K最近傍探索法)などの手法により行うクラスタリングである。つまり、クラスタリング部153は、処理画像(t)を、特徴量が類似する(特徴量の値が予め定めた範囲内となる)画素の集合(領域;クラス)に分割する。
クラスタリング部153は、特徴量空間でのクラスタリング処理の終了後、各領域の代表値となる画素値(例えば平均値)により、そのクラス内の画素について、元の画像空間における画素値を置き換える。クラスタリング部153は、各領域に対して領域を識別するラベルを各領域内の全画素に付与し、領域情報(t)を出力する。
以下、クラスタリング部153の詳細について説明をする。
特徴量検出部1531は、次式(3)の演算を、座標(x,y)の画素毎に行うことで、エッジ強度E2(x,y|t)を算出する。
特徴量検出部1531は、算出したエッジ強度E2(x,y|t)をシード生成部1532に出力する。
シード生成部1532は、生成したシード情報S(x,y|t)を領域成長部1533に出力する。
領域成長部1533は、広げた領域をスーパーピクセル群R1(t)とし、スーパーピクセル群R1(t)を示す情報を領域統合部1534に出力する。
領域統合部1534は、貪欲法を用いて全域最小木(Minimum Spanning Tree:MST)を構成するように、重み付無向グラフを領域統合し、スーパークセル群R2(t)を生成する。領域統合部1534は、スーパーピクセル毎に、スーパーピクセルを識別するラベルをスーパーピクセル内の全画素に付与し、ラベリング結果を領域情報(t)とし、出力する。
この図において、図6(A)は入力画像より得られたエッジ強度E2を表す画像である。また、図6(B)はエッジ強度E2より得られたシード情報Sを表す画像である。また、図6(C)はスーパーピクセル群R1(t)を示す画像、図6(D)はスーパーピクセル群R2(t)を示す画像である。
図6(A)において、明るい(白い)部分はエッジ強度が大きい領域を表し、暗い(黒い)部分はエッジ強度が小さい領域を表す。図6(B)において、明るい(白い)部分がシードを表し、暗い(黒い)部分は、どの領域(クラス)に属するかを領域成長法により決定する部分を表す。
図6(C)と図6(D)を比較すると、図6(C)のスーパーピクセル群R1(t)では多数の小さい面積を有するスーパーピクセル(領域)が存在するが、図6(D)のスーパーピクセル群R2(t)では小さい面積を有するスーパーピクセル(領域)が減少している。このように、映像処理装置1では、クラスタリング処理を実施することで、小面積のスーパーピクセル(領域)が少なく、より精度のよいクラスタリング結果を取得できる。
(1)領域間の隣接関係
(2)ROI領域の重心と各領域の重心との間の距離(以下、重心距離という)
(3)各色成分の平均値、中央値、分散及び標準偏差
(4)奥行の平均値、中央値、分散及び標準偏差
(5)領域面積
(6)領域周囲長
(7)領域の外接矩形
(1)〜(7)の特徴量の算出方法の一例について、図7〜図10を用いて説明する。図7は、特徴量算出部154の動作の一例を表すフローチャートである。図8は、説明のため、8×8画素ブロックでのラベリング(領域情報)の一例を表す図である。図9は、図8における領域間の接続関係を重みなし無向グラフ、及び隣接行列による表現の一例を表す図である。図10は、図8(A)のラベル3を例に領域の周囲長の取得方法、及び領域の外接矩形の一例を表す図である。
P1:=(XL,YT)、P2:=(XR,YT)、P3:=(XR,YB)、P4:=(XL,YB)、と表現される。また、XL、XR、YT、YBは式(7)により計算される。なお、式(7)において、符号Liは、ラベル番号を表し、符号RLiは、ラベルLiに属する画素の集合を表し、符号xj、及び符号yjは、それぞれ集合RLiに属する画素jのx座標、及びy座標を表す。
なお、本実施形態では、特徴量算出部154の動作について、ステップS154−01〜S154−10の順に説明したが、これに限定されるものではなく、本発明を実施できる範囲において変更可能である。また、本実施形態では、領域間の接続関係を表すデータ構造の一例として、隣接行列を用いているが、これに限定されるものではなく、隣接リストを用いてもよい。また、特徴量算出部154は、画像の色空間としてRGBを用いて特徴量を算出するが、本発明はこれに限らず、YCbCr(YUV)、CIE L*a*b*(エルスター、エースター、ビースター)、CIE L*u*v*(エルスター、ユースター、ブイースター)であっても良いし、他の色空間であってもよい。
前景領域抽出部155は、ROI情報(t)、特徴量情報(t)、ROI奥行分布情報(t)に基づいて、映像情報(t)から、抽出対象となる前景画像領域(t)を抽出する。前景領域抽出部155は、抽出した前景画像領域(t)を示す前景領域情報(t)を、前景領域情報記憶部1582に記憶する。また、前景領域抽出部155は、時刻t0―k(k=1、2、・・・、K;kはフレームの時刻を示す)の前景画像領域(t0−k)を示す情報を前景領域情報記憶部1582に記憶した後に、時刻t0を示す情報を前景領域補正部156に出力する。
図11は、本実施形態に係る前景領域抽出部155の動作の一例を示すフローチャートである。
(ステップS155−01)前景領域抽出部155は、前景領域を抽出するための核となる領域である基本前景領域を探索するための探索条件のパラメータ設定を行う。具体的には、前景領域抽出部155は、特徴量情報(t)各々の下限値及び上限値として、予め定めた値を設定する。前景領域抽出部155は、例えば、領域面積の下限値(最小面積という)、上限値(最大面積という)、領域周囲長の下限値(最小周囲長という)、最大値(最大周囲長という)、重心距離の上限値の初期値として、ROI領域の外接矩形に内接する円の半径の最大値(最大距離)、をパラメータとして設定する。このように基本前景領域の探索条件を設定することで、ROI内に重心があり、かつ、面積が大きい領域を検出できる。また、背景領域に属する領域を、基本前景領域として誤検出することを防止できる。その後、ステップS155−02へ進む。
(ステップS155−02)前景領域抽出部155は、重心距離の上限値以下、または、未満を満たす、領域の中から重心距離が最小となる領域を選択する。その後、ステップS155−03へ進む。
(ステップS155−04)前景領域抽出部155は、特徴量情報(t)各々の下限値から予め定めた値を減算し、又は、上限値に予め定めた値を加算することで、特徴量情報(t)各々の下限値及び上限値を更新する。その後ステップS155−02へ進む。
ここで、前景領域抽出部155は、特徴量情報(t)の差の閾値を、分布モデル推定部152より取得したROI奥行分布情報(t)に基づいて定める。具体的には、前景領域抽出部155は、次式(8)を用いて、特徴量情報(t)の差の閾値(TH_D1)を算出する。
以下、前景領域補正部156が行う補正について詳細を説明する。
移動量算出部1561は、読み出した映像情報(t0−k)、前景領域情報(t0−k)、及びROI情報(t0−k)に基づいて、前景領域情報(t0−k)が示す前景領域画像(t0−k)について、処理画像(t0)での位置から処理画像(t0−k)での位置を差し引いた移動量(t0,t0−k)(動きベクトルともいう)を算出する。つまり、移動量(t0,t0−k)は、前景領域画像(t0−k)が時刻t0−kから時刻t0までに移動した移動量を表す。具体的には、移動量算出部1561は、図13に示すテンプレートマッチング(動き探索ともいう)処理を行うことで、移動量(t0,t0−k)を算出する。
移動量算出部1561は、螺旋順に選択した座標(選択座標という)を重心として、次式(9)を用いて類似度RSADを算出し、その値が最も小さい領域を推定領域に決定する。
なお、色空間がRGBの場合、I(x,y|t0)は、RGB空間における各色成分の値、r(x,y|t0)、g(x,y|t0)、b(x,y|t0)を用いて次式(10)で表される。
前景領域確率マップ生成部1562は、K個の移動量(t0,t0−k)(k=1、2、・・・K)と前景領域情報(t0−k)、及び前景領域抽出部155より取得した時刻t0の前景領域情報(t0)とを用いて、処理画像(t0)上の各座標(x,y)が前景画像領域に含まれる確率を表す確率P(x,y|t0)を算出する。具体的には、前景領域確率マップ生成部1562は、次式(11)を用いて確率P(x,y|t0)を算出する。
前景領域確率マップ生成部1562は、算出した前景領域情報M(x,y|t0)を境界線補正部1564に出力する。
以下、前景領域補正処理の動作の詳細について説明をする。
図15は、本実施形態に係る前景領域補正処理の動作の一例を示すフローチャートである。
(ステップS207−03)移動量算出部1561は、時刻t0−1から時刻t0−Kまでの移動量(t0,t0−k)を算出したか否か(未処理のバッファはないか)を判定する。時刻t0−1から時刻t0−Kまでの移動量(t0,t0−k)を算出したと判定した場合(Yes)、ステップS207−04へ進む。一方、移動量(t0,t0−k)を算出していない時刻t0−kがあると判定した場合(Yes)、kの値を変更し、ステップS207−02へ戻る。
(ステップS207−05)前景領域確率マップ生成部1562は、ステップS207−04で算出した前景領域確率マップP(t0)に対して、式(13)を用いて、前景領域情報M(x,y|t0)を算出する。つまり、前景領域確率マップ生成部1562は、前景画像領域を前景領域情報M(x,y|t0)=1の領域として抽出する。その後、ステップS208−01へ進む。
(ステップS208−01)境界線補正部1564は、ステップ前景領域情報M(x,y|t0)が示す前景画像領域の輪郭に沿って、輪郭の補正処理を行う。その後、動作を終了する。
バッファ部158は、時刻(t0)における映像の前景領域抽出処理完了後に、以下の条件Aを満たす時刻(t)における各種データ(映像情報(t)、前景画像領域(t)を示す情報、奥行情報(t)、ROI情報(t)等)を破棄し、時刻(t0)における各種データ(映像情報(t0)、前景画像領域(t0)を示す情報、奥行情報(t0)、ROI情報(t0)等)に更新する動作を行う記憶及び更新手段である。
(1)時刻(t0)と時刻(t0−k)との時間距離が最も離れている(過去、未来の時刻を問わない)時刻tの各種データ
(2)時刻(t0)と時刻(t0−k)との形状特徴パラメータ(例えば、モーメント不変量)の類似性が最も小さい時刻tの各種データ
(ステップS158−01)バッファ部158は、時刻(t0)における各種情報を記憶するための空きバッファを検索する。その後、ステップS158−02へ進む。
(ステップS158−02)バッファ部158は、ステップS158で検索した結果、空きバッファがあるか否かを判定する。空きバッファがあると判定した場合(Yes)、ステップS158−05へ進む。一方、空きバッファがないと判定した場合(No)、ステップS158−03へ進む。
(ステップS158−04)バッファ部158は、ステップS158−03で選択した対象バッファに格納されている各種データを破棄することで、対象バッファを空にする(記憶領域をクリアする)。その後、ステップS158−05へ進む。
(ステップS158−05)バッファ部158は、対象バッファへ時刻(t)における各種データを格納し、バッファの更新制御を終了する。
オブジェクト抽出部15が行う動作について説明をする。
図17は、本実施形態に係るオブジェクト抽出部15の動作の一例を示すフローチャートである。
(ステップS202)オブジェクト抽出部15は、ROI情報(t)に含まれる抽出対象フラグが有りを示すか、無しを示すかを判定することにより、抽出対象画像が有るか否かを判定する。抽出対象画像が有ると判定した場合(Yes)、ステップS203へ進む。一方、抽出対象画像が無いと判定した場合(No)、ステップS210へ進む。
(ステップS204)分布モデル推定部152は、ステップS203で平滑化処理された奥行情報(t)及びステップS201で入力されたROI情報(t)に基づいて、ROI内のROI奥行分布情報(t)を推定する。その後、ステップS205へ進む。
(ステップS206)特徴量算出部154は、ステップS205で生成された領域情報(t)、ステップS203で平滑化処理された映像情報(t)、平滑化処理された奥行情報(t)及びROI情報(t)に基づいて、領域(ラベル)毎の特徴量を算出する。その後、ステップS207へ進む。
(ステップS208)前景領域補正部156は、ステップS207で抽出された前景領域(t)について、時刻t0における前景画像領域(t0)を、その時刻に近接する時刻t0−k(k=1、2、・・・、K)の前景画像領域(t0−k)に基づいて、補正する(前景領域補正処理)。
(ステップS210)マスク情報生成部157は、ステップS209で生成したマスク情報をマスク情報記憶部16に記憶する。
なお、図18の奥行情報(t)は、ステレオカメラにより撮影した映像に対して、左眼カメラを基準に右眼カメラとの視差のずれ量をステレオマッチングにより取得したものでる。また、奥行情報D1〜D3において、鎖線で囲まれた画像の左部分(符号U1〜U3を付した部分)は、左眼カメラから見える映像と右眼カメラから見える映像が異なるため、視差のずれ量が求まらない不定領域である。
一方、本実施形態による画像M1a、M2a、M3aでは、前景画像領域の形状が平滑化(安定化)され、画像M1b、M2b、M3bと比較して、前景画像領域の欠損部分、誤抽出部分の発生が低減されている。これにより、本実施形態では、画像M1a、M2a、M3aを時間に沿って再生した場合でも、抽出形状の不連続性によるフリッカ、ちらつきが生じることを抑制できる。
また、奥行情報(t)は、例えば、近接する複数の撮像装置で被写体を撮像し、撮像した複数の映像情報から被写体の位置等のズレを検出して奥行きを算出するステレオマッチングによって、算出された情報である。ただし、奥行情報(t)は、ステレオマッチング等のパッシブステレオ方式によって算出された情報に限られず、TOF(Time−Of−Flight)法等の光を利用した能動的3次元計測器(レンジファインダ)によって取得した情報であってもよい。
(1)Harris corner detector
(2)FAST conrner detection
(3)SUSAN(Smallest Univalue Segment Assimilating Nucleus) corner detector
(4)SURF(speed up robust features)
(5)SIFT(Scale−invariant Feature Transform)
また、上記実施形態において、フィルタ部151a、151bは、エッジ平滑化フィルタは再帰的に行ってもよい。
また、上記実施形態において、映像処理装置1は、映像情報(t)、奥行情報(t)に対するエッジ保持平滑化フィルタ処理を、オブジェクト抽出部15に入力する前に行ってもよい。
分布モデル推定部152は、クラス数Kcに予め定めたクラス数Kc’を設定し、K-means法により、クラスタリングを行う。その後、分布モデル推定部152は、クラス間距離が所定閾値以下または未満を満たすクラスCiとクラスCjがある場合は、クラスCiとクラスCjとを併合して、新たなクラスCk’とする処理を行う。分布モデル推定部152は、この処理を、クラス数が一定値へ収束するまで繰り返すことにより、クラス数Kc(≦Kc’)を決定する。
なお、分布モデル推定部152が奥行分布モデルの推定に用いる手法は、混合モデルなどのパラメトリックの推定手法に限定されず、Mean−shift法などのノンパラメトリックの推定手法であってもよい。
(a)画素結合法
例えば、クラスタリング部153は、ピクセル間の連結関係を重み付無向グラフで表し、頂点が全域最小木を構成するように連結関係を表すエッジの強度によって領域統合を行う。
(b)領域成長法(Region Growing法ともいう)
(c)領域分割統合法(Split&Merge法ともいう)
(d)(a)、(b)、(c)のいずれかを組み合わせた手法
なお、クラスタリング部153は、画像空間でのクラスタリング処理の終了後、ラベリング付けを行い、ラベリング結果を表す領域情報(t)を生成する。
移動量算出部1561は、各画像間で対応する画素の値の差の絶対値をユークリッド距離(L2−距離、L2−ノルム)で算出し、その総和RSDD(次式(16))の値が最も小さい領域を推定領域に決定する。
正規化相互相関とも称す。移動量算出部1561は、次式(17)のRNCCの値が最も1に近い領域を推定領域に決定する。
相互相関係数ともいう。移動量算出部1561は、次式(18)のRCCCの値が最も1に近い領域を推定領域に決定する。なお、式(18)中のアイバー(「I」(アイ)の上に「−」(バー))及びティーバー(「T」(ティー)の上に「−」(バー))は、それぞれが示す領域内の画素値の平均ベクトルを表す。
また、上述した実施形態における映像処理装置1の一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現しても良い。映像処理装置1の各機能ブロックは個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化しても良い。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現しても良い。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いても良い。
Claims (6)
- 映像情報が示す映像から前景の画像を示す前景領域情報を抽出する映像処理装置であって、
前記映像情報、対象画像領域を示すROI情報、及び奥行情報を用いて、前記前景領域情報を生成する抽出部と、
前記抽出部が生成した第1の時間における前景領域情報及び1又は複数の第2の時間における前景領域情報と、映像情報と、を用いて、前記第1の時間における映像中の部分が前景の画像である確率を算出し、算出した確率に基づいて第1の時間における前景領域情報を確定する前景領域決定部と
を備えることを特徴とする映像処理装置。 - 前記映像情報が示す映像には、予め定められた対象物の画像が含まれ、
前記前景領域決定部は、
第1の時間における、映像情報と前記対象物の画像を示す対象画像領域情報と前記抽出部が生成した前景領域情報、及び、第2の時間における、映像情報と前記抽出部が生成した前景領域情報と対象画像領域情報に基づいて、第1の時間における前景の画像の位置と第2の時間における前景の画像の位置を推定し、第2の時間から第1の時間の間に前記前景の画像が移動した移動量を算出する移動量算出部と、
前記抽出部が生成した第1の時間における前景領域情報と、前記移動量算出部が算出した移動量と、前記抽出部が生成した第2の時間における前景領域情報とに基づいて、第1の時間における映像中の部分が前景の画像である確率を算出する前景領域確率マップ生成部と、
前記前景画像確率マップ生成部が算出した確率に基づいて第1の時間における前景領域情報を確定する前景領域確定部と、
前記前景領域確定部が確定した前景領域情報の示す前景と背景の境界を平滑化する境界領域補正部と
を備えることを特徴とする請求項1に記載の映像処理装置。 - 前景領域確率マップ生成部は、第1の時間と第2の時間と差である時間距離に応じた重みであって、前記時間距離が大きいほど値の小さな重みに基づいて、前記確率を算出する
ことを特徴とする請求項2に記載の映像処理装置。 - 前記抽出部は、
前記映像情報が示す映像を小領域に分割するクラスタリング部と、
前記クラスタリング部が分割した小領域毎の特徴量を算出する特徴量算出部と、
前記ROI情報、及び前記奥行情報を用いて、前記ROI情報が示す対象画像領域内の奥行の分布を示すROI奥行情報を推定する分布モデル推定部と、
前記特徴量算出部が算出した小領域の特徴量、及び、前記分布モデル推定部が推定したROI奥行情報に基づいて、前記小領域が前記前景の画像の領域であるか否かを判定することで、前記前景領域情報を生成する前景領域抽出部と
を備えることを特徴とする請求項1から請求項3のいずれか一項に記載の映像処理装置。 - 映像情報が示す映像から前景の画像を示す前景領域情報を抽出する映像処理装置における映像処理方法であって、
抽出部が、前記映像情報、対象画像領域を示すROI情報、及び奥行情報を用いて、前記前景領域情報を生成する抽出ステップと、
前景領域決定部が、前記抽出ステップで生成した第1の時間における前景領域情報及び1又は複数の第2の時間における前景領域情報と、映像情報と、を用いて、前記第1の時間における映像中の部分が前景の画像である確率を算出し、算出した確率に基づいて第1の時間における前景領域情報を確定する前景領域決定ステップと
を有することを特徴とする映像処理方法。 - 映像情報が示す映像から前景の画像を示す前景領域情報を抽出する映像処理装置のコンピュータに、
前記映像情報、対象画像領域を示すROI情報、及び奥行情報を用いて、前記前景領域情報を生成する抽出手順、
前記抽出手順で生成した第1の時間における前景領域情報及び1又は複数の第2の時間における前景領域情報と、映像情報と、を用いて、前記第1の時間における映像中の部分が前景の画像である確率を算出し、算出した確率に基づいて第1の時間における前景領域情報を確定する前景領域決定手順、
を実行させるための映像処理プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010231928A JP5036084B2 (ja) | 2010-10-14 | 2010-10-14 | 映像処理装置、映像処理方法、及びプログラム |
PCT/JP2011/073639 WO2012050185A1 (ja) | 2010-10-14 | 2011-10-14 | 映像処理装置、映像処理方法、及び映像処理プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010231928A JP5036084B2 (ja) | 2010-10-14 | 2010-10-14 | 映像処理装置、映像処理方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012085233A JP2012085233A (ja) | 2012-04-26 |
JP5036084B2 true JP5036084B2 (ja) | 2012-09-26 |
Family
ID=45938406
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010231928A Expired - Fee Related JP5036084B2 (ja) | 2010-10-14 | 2010-10-14 | 映像処理装置、映像処理方法、及びプログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP5036084B2 (ja) |
WO (1) | WO2012050185A1 (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2013248207A1 (en) * | 2012-11-15 | 2014-05-29 | Thomson Licensing | Method for superpixel life cycle management |
KR101896301B1 (ko) * | 2013-01-03 | 2018-09-07 | 삼성전자주식회사 | 깊이 영상 처리 장치 및 방법 |
JP6174894B2 (ja) * | 2013-04-17 | 2017-08-02 | キヤノン株式会社 | 画像処理装置および画像処理方法 |
JP6341650B2 (ja) * | 2013-11-20 | 2018-06-13 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP6445775B2 (ja) * | 2014-04-01 | 2018-12-26 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
JP6546385B2 (ja) * | 2014-10-02 | 2019-07-17 | キヤノン株式会社 | 画像処理装置及びその制御方法、プログラム |
JP6403207B2 (ja) * | 2015-01-28 | 2018-10-10 | Kddi株式会社 | 情報端末装置 |
JP6655513B2 (ja) * | 2016-09-21 | 2020-02-26 | 株式会社日立製作所 | 姿勢推定システム、姿勢推定装置、及び距離画像カメラ |
JP7151725B2 (ja) * | 2017-12-28 | 2022-10-12 | ソニーグループ株式会社 | 制御装置、および制御方法、プログラム、並びに移動体 |
JP7094702B2 (ja) * | 2018-01-12 | 2022-07-04 | キヤノン株式会社 | 画像処理装置及びその方法、プログラム |
JP2020167441A (ja) * | 2019-03-28 | 2020-10-08 | ソニーセミコンダクタソリューションズ株式会社 | 固体撮像装置、及び電子機器 |
CN111709328B (zh) * | 2020-05-29 | 2023-08-04 | 北京百度网讯科技有限公司 | 车辆跟踪方法、装置及电子设备 |
EP4350610A1 (en) | 2021-05-24 | 2024-04-10 | Kyocera Corporation | Teaching data generation device, teaching data generation method, and image processing device |
CN117941340A (zh) * | 2021-09-21 | 2024-04-26 | 索尼集团公司 | 信息处理装置、视频处理方法和程序 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4214425B2 (ja) * | 1997-09-30 | 2009-01-28 | ソニー株式会社 | 画像抜き出し装置および画像抜き出し方法、画像符号化装置および画像符号化方法、画像復号装置および画像復号方法、画像記録装置および画像記録方法、画像再生装置および画像再生方法、並びに記録媒体 |
JP4407985B2 (ja) * | 1999-09-02 | 2010-02-03 | キヤノン株式会社 | 画像処理方法及び装置並びに記憶媒体 |
JP2002024834A (ja) * | 2000-07-11 | 2002-01-25 | Canon Inc | 画像処理装置及びその方法 |
US7359552B2 (en) * | 2004-12-15 | 2008-04-15 | Mitsubishi Electric Research Laboratories, Inc. | Foreground detection using intrinsic images |
US8265349B2 (en) * | 2006-02-07 | 2012-09-11 | Qualcomm Incorporated | Intra-mode region-of-interest video object segmentation |
-
2010
- 2010-10-14 JP JP2010231928A patent/JP5036084B2/ja not_active Expired - Fee Related
-
2011
- 2011-10-14 WO PCT/JP2011/073639 patent/WO2012050185A1/ja active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2012050185A1 (ja) | 2012-04-19 |
JP2012085233A (ja) | 2012-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5036084B2 (ja) | 映像処理装置、映像処理方法、及びプログラム | |
Gallup et al. | Piecewise planar and non-planar stereo for urban scene reconstruction | |
Zhang et al. | Shadow remover: Image shadow removal based on illumination recovering optimization | |
CN109636732B (zh) | 一种深度图像的空洞修复方法以及图像处理装置 | |
KR102031302B1 (ko) | 오브젝트 디지타이제이션 기법 | |
Crabb et al. | Real-time foreground segmentation via range and color imaging | |
KR101670282B1 (ko) | 전경-배경 제약 조건 전파를 기초로 하는 비디오 매팅 | |
EP3104332B1 (en) | Digital image manipulation | |
US9542735B2 (en) | Method and device to compose an image by eliminating one or more moving objects | |
US10249029B2 (en) | Reconstruction of missing regions of images | |
CN111563908B (zh) | 一种图像处理方法及相关装置 | |
Wang et al. | Simultaneous matting and compositing | |
CN108961304B (zh) | 识别视频中运动前景的方法和确定视频中目标位置的方法 | |
CN106295640A (zh) | 一种智能终端的物体识别方法和装置 | |
KR20170015299A (ko) | 배경 추적을 통한 오브젝트 추적 및 분할을 위한 방법 및 장치 | |
Le et al. | Object removal from complex videos using a few annotations | |
JP6611255B2 (ja) | 画像処理装置、画像処理方法、及び画像処理プログラム | |
Recky et al. | Façade segmentation in a multi-view scenario | |
JP6272071B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2005165969A (ja) | 画像処理装置、及び方法 | |
Engels et al. | Automatic occlusion removal from façades for 3D urban reconstruction | |
CN114600160A (zh) | 生成三维(3d)模型的方法 | |
Finger et al. | Video Matting from Depth Maps | |
JP2013120504A (ja) | オブジェクト抽出装置、オブジェクト抽出方法、及びプログラム | |
JP2012123567A (ja) | オブジェクト検出方法、オブジェクト検出装置およびオブジェクト検出プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120220 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120424 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120510 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120605 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120702 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150713 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |