JP2016085742A - 前景画像分割方法及び前景画像分割装置 - Google Patents
前景画像分割方法及び前景画像分割装置 Download PDFInfo
- Publication number
- JP2016085742A JP2016085742A JP2015207566A JP2015207566A JP2016085742A JP 2016085742 A JP2016085742 A JP 2016085742A JP 2015207566 A JP2015207566 A JP 2015207566A JP 2015207566 A JP2015207566 A JP 2015207566A JP 2016085742 A JP2016085742 A JP 2016085742A
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- foreground
- information
- image
- depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/174—Segmentation; Edge detection involving the use of two or more images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
Abstract
【課題】入力画像から前景対象を分割する方法、装置及びシステムを提供する。
【解決手段】該方法は、入力画像及び該入力画像の奥行き情報を取得し、入力画像の奥行き情報に基づいて、入力画像を大雑把に分割して大雑把な前景領域を取得し、入力画像の動き情報を取得し、該動き情報に基づいて該大雑把な前景領域から三色画像を生成し、生成された三色画像から前景画像を分割する。これにより、奥行き情報及び動き情報に基づいて三色画像を生成することで、該三色画像から前景対象をより正確に分離することができる。
【選択図】図1
【解決手段】該方法は、入力画像及び該入力画像の奥行き情報を取得し、入力画像の奥行き情報に基づいて、入力画像を大雑把に分割して大雑把な前景領域を取得し、入力画像の動き情報を取得し、該動き情報に基づいて該大雑把な前景領域から三色画像を生成し、生成された三色画像から前景画像を分割する。これにより、奥行き情報及び動き情報に基づいて三色画像を生成することで、該三色画像から前景対象をより正確に分離することができる。
【選択図】図1
Description
本発明はコンピュータ視覚分野に関し、さらに具体的には、画像から前景画像を分割する方法と装置に関する。
前景画像分割技術、即ち我々が通常よく言う画像切り抜き技術は、画像または動画フレーム内で前景対象を分割し、該対象のカバーする領域内の各画素の透明度、即ちAlpha値(αマスキング)を推定することを指す。
該技術は画像または動画編集応用分野にて広く応用され、ユーザーはこの技術を用いて前景を分割し、別の背景とシームレスで一つにまとめることができる。例えば、バーチャル撮影において、前景、例えば人とバーチャル背景を繋ぎ合わせて「その場に身を置いている」といった効果を上げたり、テレビ会議で参加者をもとの背景から分離して他の背景と合わせたりする。
現在の画像切抜き処理では、通常三色画像を採用する。画像合成の視点から、画像I(x、y)を前景画像F(x、y)と背景画像B(x、y)のα(x、y)値での線形結合にモデリングする、即ち方程式I=αF+(I-α)Bとすることができる。式中、α(x、y)∈[0、1]である。この問題を解くため、通常は入力画像を前景領域、背景領域及び未知領域という三つの領域、つまり三色画像に分割する。三色画像の形式はその後分割処理の基礎であり、正確な三色画像を形成することがより正確に前景対象を画像または動画の中から分割するのに役立つ。
現在の三色画像を形成するのに用いる方法のうち、一つの方法は、例えば画像上に線分を引き、画像内のどの部分が前景で、どの部分が背景かを明記するといったユーザインタラクションの方式を通じてユーザーが画像内の三色画像を指定できる。この方法はユーザーが手動で三色画像を生成する必要があり、ユーザーにとっては面倒な作業だけでなく、生成した三色画像もあまり正確ではない。別の方法は奥行き情報を取り入れることで三色画像を自動生成するのを助ける。この方法はユーザインタラクションを必要としないが、この場合、背景内の前景対象と距離がとても近い対象は依然として前景領域内に含まれる可能性がある。
さらに、三色画像を取得後、該三色画像からα値を求めるとき、通常は画像のカラー情報のみを用いて解を求めるが、画像内の前景対象と背景部分の色が近いとき、カラー情報にのみ頼っていては両者をきちんと分離するのが難しい。特に境界領域では、正確な分割結果を得難い。
上記問題から本発明を行い、画像から前景画像を正確に分割できる方法と装置を提供する。
本発明の一つの態様においては、入力画像及び該入力画像の奥行き情報を取得するステップと、前記入力画像の奥行き情報に基づいて、入力画像を分割して前景領域を取得するステップと、入力画像の動き情報を取得し、該動き情報に基づいて該前景領域から三色画像を生成するステップと、生成された三色画像から前景画像を分割するステップと、を含む、前景画像分割方法を提供する。
この態様では、前記入力画像の動き情報に基づいて該前景領域から三色画像を生成するステップは、該入力画像の直前の連続するm個のフレームの画像を取得し、該連続するm個のフレームの画像から各画素の動き情報を計算するステップと、各画素の動き情報に基づいて、該前景領域から三色画像を生成するステップと、を含み、画素の動き情報が所定しきい値より小さい場合は、該画素が背景領域に属すると決定し、画素の動き情報が該所定しきい値以上であり、かつ該画素の近傍領域内に前記前景領域に属しない画素が存在する場合は、該画素が未知領域に属すると決定し、画素の動き情報が該所定しきい値以上であり、かつ該画素の近傍領域内の全ての画素が前記前景領域に属する場合は、該画素が前景領域に属すると決定してもよい。
この態様では、前記生成された三色画像から前景画像を分割するステップは、前記未知領域の各画素のカラー情報、奥行き勾配情報及び奥行き変化情報を計算するステップと、画素のカラー情報、奥行き勾配情報及び奥行き変化情報に基づいて、該画素が前景領域に属するか否かを決定するステップと、決定結果に基づいて前景画像を取得するステップと、を含んでもよい。
この態様では、前記画素が前景領域に属するか否かを決定するステップは、前景画像の分割に用いるα値のコスト関数を構築するステップと、前記未知領域内の各画素に対して、該コスト関数を最小化し、該画素のカラー情報、奥行き勾配情報及び奥行き変化情報を用いて該画素のα値を求めるステップと、画素のα値が所定しきい値以上の場合、該画素が前景領域に属すると決定し、画素のα値が所定しきい値より小さい場合は、該画素が前景領域に属しないと決定するステップと、を含んでもよい。
この態様では、前記未知領域の各画素に対して、n×n画素の近傍領域内で該画素のカラー情報、奥行き勾配情報及び奥行き変化情報のそれぞれの正規化された加重値を計算するステップをさらに含み、前記画素のカラー情報、奥行き勾配情報及び奥行き変化情報を用いて該画素のα値を求めるステップは、該画素のカラー情報の加重値、奥行き勾配情報の加重値及び奥行き変化情報の加重値を用いて該画素のα値を求めるステップを含んでもよい。
この態様では、前記入力画像の奥行き情報に基づいて、入力画像を分割して前景領域を取得するステップは、前記入力画像の奥行き情報に基づいて、Ω形状特徴に基づいて前記入力画像から人物の頭肩部を前記前景領域として検出するステップと、前記入力画像内の該頭肩部以外の各画素の奥行き値と検出された頭肩部の奥行き値とを比較し、該画素が該前景領域に属するか否かを決定するステップと、を含み、該画素の奥行き値と頭肩部の奥行き値との差が所定しきい値以下の場合は、該画素が前景領域に属すると決定し、該画素の奥行き値と頭肩部の奥行き値との差が所定しきい値よりも大きい場合は、該画素が前景領域に属しないと決定してもよい。
この態様では、前記動き情報がオプティカルフロー情報であってもよい。
本発明の他の態様においては、入力画像及び該入力画像の奥行き情報を取得する取得手段と、前記取得手段により取得された奥行き情報に基づいて、入力画像を分割して前景領域を取得する分割手段と、入力画像の動き情報に基づいて、該前景領域から三色画像を生成する三色画像生成手段と、生成された三色画像から前景画像を分割する前景画像分割手段と、を含む、前景画像分割装置を提供する。
この態様では、前記三色画像生成手段は、前記入力画像の直前の連続するm個のフレームの画像を取得し、該連続するm個のフレームの画像から各画素の動き情報を計算する第一計算手段と、前記第一計算手段により計算された各画素の動き情報に基づいて、該前景領域から三色画像を生成する生成手段と、を含み、前記生成手段は、画素の動き情報が所定しきい値より小さい場合は、該画素が背景領域に属すると決定し、画素の動き情報が該所定しきい値以上であり、かつ該画素の近傍領域内に前記前景領域に属しない画素が存在する場合は、該画素が未知領域に属すると決定し、画素の動き情報が該所定しきい値以上であり、かつ該画素の近傍領域内の全ての画素が前記前景領域に属する場合は、該画素が前景領域に属すると決定してもよい。
この態様では、前記前景画像分割手段は、前記未知領域の各画素のカラー情報、奥行き勾配情報及び奥行き変化情報を計算する第二計算手段と、前記第二計算手段により計算された画素のカラー情報、奥行き勾配情報及び奥行き変化情報に基づいて、該画素が前景領域に属するか否かを決定する決定手段と、前記決定手段の決定結果に基づいて前景画像を取得する取得手段と、を含んでもよい。
本発明の他の態様においては、入力画像及び該入力画像の奥行き情報を取得するステップと、前記入力画像の奥行き情報に基づいて、入力画像を分割して前景領域を取得するステップと、入力画像の動き情報を取得し、該動き情報に基づいて該前景領域から三色画像を生成するステップと、生成された三色画像から前景画像を分割するステップと、をコンピュータに実行させるためのプログラムを提供する。
本発明の他の態様においては、入力画像及び該入力画像の奥行き情報を取得するステップと、前記入力画像の奥行き情報に基づいて、入力画像を分割して前景領域を取得するステップと、入力画像の動き情報を取得し、該動き情報に基づいて該前景領域から三色画像を生成するステップと、生成された三色画像から前景画像を分割するステップと、をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体を提供する。
本発明例では、入力画像の奥行き情報及び動き情報から三色画像を自動生成し、ヒューマン・コンピュータ・インタラクションを必要とすることなく、生成する三色画像がより正確になり、該三色画像に基づく前景画像分割の基礎を固めることにより、分割がより正確になる。また分割中に、カラー情報のほか空間領域上の奥行き勾配情報及び時間領域上の奥行き変化情報も考慮することにより、たとえ前景対象と背景の色が近かったとしても、正確に前景対象を分割することができる。
当業者に本発明をよりきちんと理解してもらうため、以下図面と本発明を実施するための形態を組み合わせて本発明についてさらに詳しく説明する。
図1は本発明の実施例の前景画像分割方法のフローチャートである。
図1に示すように、該分割方法は、入力画像及びその奥行き情報を取得するステップS110、入力画像の奥行き情報に基づいて、入力画像を大雑把に分割して大雑把な前景領域を取得するステップS120、入力画像の動き情報を取得し、該動き情報に基づいて該大雑把な前景領域から三色画像を生成するステップS130、及び生成した三色画像から前景画像を分割するステップS140を含むことができる。
ステップS110で取得する入力画像は、画像切抜きを行う必要のある対象のカラー画像と対応する奥行き画像を含むことができる。従来技術には、例えばPrimeSenseカメラ、Kinectまたはその他奥行きカメラといったシーンのカラー及び奥行き情報を同時に捕捉できる装置が存在する。このため、入力画像のカラー情報及び奥行き情報を同時に取得できる。当然のことながら、当分野の既知の及び将来出現する可能性のあるその他の画像のカラー情報及び奥行き情報を取得するいかなる方法も本発明に応用でき、本発明はその取得方式を特に制限しておらず、入力画像のカラー及び奥行き情報を取得できればよい。
ステップS120では、入力画像の奥行き情報に基づいて入力画像を大雑把に分割し、大雑把な前景領域を取得する。以下の文では、「人」を前景対象例として前景対象分割に関する説明を行っていくが、本発明の前景対象は人に限らない。
図2は異なる角度における人の頭肩部のモデルである。図2に示すように、異なる視角では、人の頭肩部にはすべて独特のΩ(omega)形状に類似する特徴が現れる。そのためこの特徴を採用して人の検出を行うことができる。Viola-Jones分類器とHOG特徴に基づくAdaBoost分類器(具体的にはMin Liなどによる「RAPID AND ROBUST HUMAN DETECTION AND TRACKING BASED ON OMEGA-SHAPE
FEATURES」、National Laboratory of Pattern Recognition, Institute
of Automation, Chinese Academy of Sciencesを参照、引用することでその内容をこのように合併する)を用いて、奥行き画像内でΩ形状の頭肩部を検出できる。
FEATURES」、National Laboratory of Pattern Recognition, Institute
of Automation, Chinese Academy of Sciencesを参照、引用することでその内容をこのように合併する)を用いて、奥行き画像内でΩ形状の頭肩部を検出できる。
該頭肩部の検出結果から、画素が前景または背景に属すると仮定すると、これにより大雑把な前景領域分割結果を生成できる。その過程は入力画像内の各画素に対して、その奥行き情報及び空間領域上の該頭肩部の領域との距離情報をしきい値判断し、それが「人」の領域に属するか否かを決定することを含むことができる。例えば、検出した頭肩部の領域が前景領域であると仮定すると、該領域外の画素に対して、その奥行き値と該頭肩部の領域の奥行き平均値が連続を保っている場合(例えば該画素の奥行き値と該奥行き平均値の差が所定しきい値以下の場合)、該画素は前景領域に属すると判定できる。その奥行き値と該頭肩部の領域の奥行き平均値とに明らかな差が存在する場合(例えば該画素の奥行き値と該奥行き平均値の差が所定しきい値よりも大きい場合)、該画素は該前景領域に属しないと判定する。これにより、大雑把な前景領域を分割する。
なお、以上の文では「人」を前景対象として奥行き情報に基づく大雑把な前景領域を検出する方法を説明しているが、本発明の前景対象は人に限らないことである。例えば動物または物体といったその他のいかなる対象についても、該対象の対応する形状特徴またはその他の検出可能ないずれかの特徴を予め取得または記憶している場合、これらの特徴を用いて奥行き情報に基づいて検出を行うことができ、ここでは詳しくは述べない。
通常、ステップS120では前景と背景を分離できるが、前景とシーンの中のある対象との距離が非常に近いとき、該方法が取得する結果は満足のいくものではない。例えば、図3は例示的シーン及び対応する大雑把な前景分割結果であり、図3の左図が示すように、人とシーン内の椅子の距離が非常に近い場合、両者の奥行き値も連続している。このとき、単一のフレーム画像上の奥行き情報に頼っているだけでは、前景をシーン内から正確に分割するのは難しい。図3の右図の大雑把な分割結果に示すように、その中のグレー領域が大雑把な前景領域を表している。
そのため、ステップS130では、動き情報から三色画像を生成するために、入力画像の動き情報を取得する。具体的には、該入力画像の直前の連続するm個のフレームの入力画像(現在フレーム及び現在フレームの前の連続するm-1個のフレーム)を取得し、フレームごとに各画素の動き情報を計算する。入力画像のカラー画像または奥行き画像のいずれか一つを選択して該計算を行うことができる。
具体例では、画像のオプティカルフロー情報を動き情報として計算できる。オプティカルフローは可視域内の物体運動検出に関する概念であり、観察者の運動によって起こる観察目標、表面または境界の運動を説明するのに用いる。オプティカルフロー法は実際には画像画素点の強度の時間に伴う変化を検出することで物体の移動速度および方向を推定する方法である。通常、(x、y、t)にある画素の輝度がI(x、y、t)であると仮定すると、同一画素の隣接する二つの画像フレーム間の輝度は同じであるという仮定から、テイラー級数に基づき論証を経て以下の公式(1)を導き出すことができる。
式中、VxとVyはy方向上の速度であり、つまりI(x、y、t)のオプティカルフローである。従来の例えば位相相関、ブロック相関、勾配制約などの方法を通じて、解を求め該オプティカルフロー情報を得ることができる。具体的な論証及び解を求める過程は本発明の重点ではないため、ここでは詳しくは述べない。
既知のある画素が連続する画像フレーム内でいかなる移動もしないとき、その速度、即ちオプティカルフローは0である。そのため、背景内の画素に対して、それは通常は静止したものであり、背景画素内のオプティカルフロー情報は通常0に近いか、または比較的小さな値である(ノイズなどの影響を考慮する)。一方、前景内の対象に対しては、連続撮影した複数フレーム画像内で、それは通常わずかな移動のある可能性があり、上述のオプティカルフロー法は前景画素のオプティカルフロー情報を取得できる。
例えば、図4は連続する3個のフレームの例示的入力画像及び対応するオプティカルフロー情報である。該図面では、人とシーン内の椅子の距離は非常に近く、大雑把な前景分割を通じて両者を分けるのは難しいが、取得したオプティカルフロー情報の図面からわかるように、人物の領域、特に人物の境界には、明確なオプティカルフロー情報が存在するが、椅子のところのオプティカルフロー情報はとても微弱である。そのため、オプティカルフロー情報に基づいて前景画像に属しない椅子を大雑把な前景領域内から除去することができる。
なお、上述のオプティカルフロー情報は動き情報の例に過ぎず、本発明は動き状況を反映するいかなる情報も動き情報として応用し、三色画像生成の基礎とすることができる。
具体的には、ステップS120の大雑把な前景分割結果に基づき、入力画像内の各画素の動き情報から三色画像を生成することは、画素の動き情報が所定しきい値より小さい場合、該画素が背景領域に属すると決定し、画素の動き情報が該所定しきい値以上であり、かつ該画素の近傍領域内に前記大雑把な前景領域に属しない画素が存在する場合、該画素が未知領域に属すると決定し、画素の動き情報が該所定しきい値以上であり、かつ該画素の近傍領域内の全ての画素が前記大雑把な前景領域に属する場合、該画素は前景領域に属すると決定することを含む。
該動き情報の所定しきい値は、当業者が経験または具体的な応用から設定できる。
図5は図4の例示的状況における動き情報から大雑把な前景分割結果に基づいて三色画像を生成する概念図である。そのうち、白い領域は前景領域、黒い領域は背景領域、グレー領域は未知領域を表す。
そのため、ステップS130では、上述例の椅子のような大雑把な前景領域内の前景に属しない対象をさらに除去し、それによってより正確な三色画像を取得し、その後の画像切抜きの基礎を固める。
ステップS130で三色画像を生成後、ステップ140では生成した三色画像から前景画像を分割する。
前述したように、画像内の任意の画素iはIi=αiFi+(1-αi)Biと表すことができる。そのため、以上で生成した三色画像内の未知領域内の画素に対して、画素のα値を求めるだけで、該画素が前景領域に属しているか否かを決定できる。
式中a=1/(F-B)であり、b=-B/(F-B)である。
上述の最適化問題の解を求め、該コスト関数(3)を最小化し、画素iのカラー情報Ii=[Ri,Gi,Bi]を用いて、α値を求めることができる。求めたα値に基づいて、iが前景領域に属するか否かを判断できる。
例えば、α値の所定しきい値Tを設定し、求めたα値が所定しきい値以上のとき、α=1とすることができ、これは即ち該画素は前景領域に属していることを表す。求めたα値が該しきい値Tよりも小さいとき、α=0とすることができ、これは即ち該画素は前景領域に属せず、背景領域に属していることを表す。該所定しきい値Tは当業者が経験または具体的な応用から設定できる。
そのため、本実施例の前景画像分割方法は、三色画像から前景画像を正確に分割するため、奥行き情報から入力画像を大雑把に分割し、入力画像の動き情報に基づいて該大雑把な分割結果から比較的正確な三色画像を生成できる。
分割された前景画像は表示に用いるモニタに出力するか、または該前景画像を例えば合成処理するなどのさらなる処理に用いる処理装置に出力できる。
以上実施例では、画素のカラー情報を用いて不透明度αを求めた。しかしながら、ある状況では、前景対象と背景色が近いとき、カラー情報に頼るだけでは前景と背景、特に境界領域での前景と背景をきちんと分離するのが難しい。
そのため、本発明の別の実施例では、カラー情報及び奥行き情報に基づき三色画像から前景画像を分割する方法を提出し、空間領域と時間領域上の奥行き情報を上述のコスト関数(3)に取り入れてα値を求める。
図6はこの実施例の三色画像から前景画像を分割する方法のフローチャートである。図6に示すように、該分割方法600は、未知領域の各画素のカラー情報、奥行き勾配情報及び奥行き変化情報を計算するステップS610、画素のカラー情報、奥行き勾配情報及び奥行き変化情報に基づいて、該画素が前景領域に属するか否かを決定するステップS620、及び決定結果に基づいて前景画像を取得するステップS630を含む。
ステップS610では、未知領域内の画素の上記RGBカラー情報を取得し、画素の奥行き変化情報及び奥行き勾配情報を計算する。
図7は前景対象としての人の連続する複数のフレーム画像内での奥行き変化情報例である。図7に示すように、ほとんどの場合、前景対象の境界における奥行きの変化は対照内部に比べてさらに激しい。そのため、未知領域内の画素iに対して、時間領域上でその連続するm個のフレームの入力画像上の奥行き値の変化を計算し、奥行き変化情報DCiとし、該奥行き変化情報DCiは以下の公式(4)として表すことができる。
式中、Dkiは画素iの第k個のフレーム画像上の奥行き値である。これにより、該奥行き変化情報を利用することは、前景と背景をよりきちんと分離するのに役立つ。このとき、画素iのカラー情報及び奥行き変化情報に基づいてα値を求めるため、上述のコスト関数(3)の中のIiはIi=[Ri,Gi,Bi,DCi]として表すことができる。
例えば、図5に示す生成した三色画像では、人の頭肩部の境界領域は未知領域として決定される。一方、図7に示すように連続する複数のフレームの入力する奥行き画像内では、人の頭肩部(図7の長方形の枠に示すように)の画素の奥行き値は該人物内部(例えば身体部分)の画素の奥行き値よりも変化が顕著である。そのため該領域の画素の奥行き変化情報を用いて該画素が前景対象、即ち人物であるか否かを判定する。
また、空間領域上で画素の奥行き勾配情報を計算でき、例えば入力した奥行き画像にsobel、cannyまたはその他境界検出アルゴリズムを運用し、該未知領域内の画素iの奥行き勾配情報DGiを計算できる。図8は人物に対して計算する奥行き勾配情報例である。
このとき、画素iのカラー情報及び奥行き勾配情報に基づいてα値を求めるため、上述のコスト関数(3)の中のIiはIi=[Ri,Gi,Bi,DGi]として表すことができる。または、画素iのカラー情報、奥行き変化情報及び奥行き勾配情報に基づいてα値を求めるため、上述のコスト関数(3)の中のIiはIi=[Ri,Gi,Bi,DCi,DGi]として表すことができる。
そのため、上述の方法600は、カラー情報のほか、空間領域と時間領域上からそれぞれ画素の奥行き勾配情報と奥行き変化情報計算し、該画素が前景領域に属するか否かを判断するため、コスト関数に引き入れてα値を求め、それによって前景画像を分割する。
さらに、様々な状況において、カラー情報と奥行きが異なる区分度を有し、カラー情報が比較的高い区分能力を有しているときもあれば、奥行き情報がよりきちんと前景と背景を分けることができるときもあることを考慮する。そのため、本発明の別の実施例では、上述の各成分(RGBカラー情報、奥行き勾配情報、奥行き変化情報)の適応的に対応する加重値を計算できる。
これにより、上述のコスト関数(3)の中のIiはIi=[wrniRi,wgniGi,wbniBi,wdgniDGi,wdcniDCi]として表すことができ、それによって該コスト関数を最小化してα値を求め、これにより前景を正確に画像内から分割できる。
本発明の上述の実施例の前景画像分割方法では、奥行き情報及び動き情報から三色画像を自動生成し、ヒューマン・コンピュータ・インタラクションを必要とせず、生成する三色画像はより正確になり、該三色画像に基づく前景画像分割の基礎を固めることにより、分割がより正確になる。また分割中に、カラー情報のほか空間領域上の奥行き勾配情報及び時間領域上の奥行き変化情報を考慮することにより、たとえ前景対象と背景の色が近かったとしても、正確に前景対象を分割することができる。
例として、図9は、本発明の前景画像分割方法の可能な応用シーンである。応用システム900は、奥行き撮影カメラ901、コンピュータ902、プロジェクター903及びプロジェクタースクリーン904を含むことができる。カメラ901は上述のカラー及び奥行き情報を同時に捕捉できるカメラでよい。コンピュータ902は、該カメラ901の捕捉したシーンの画像または動画フレーム及び対応するカラーと奥行き情報を受信し、その処理器を通じてカメラ901の捕えた情報を分析し、上述の前景画像分割方法を実行し、前景対象をシーン内から分離できる。分離した前景対象はその他背景と組み合わせ、異なる応用シーンに用いることができる。プロジェクター903及びプロジェクタースクリーン904は組み合わせた後の画像またはシーンを表示できる。当然のことながらプロジェクター903及びプロジェクタースクリーン904はモニタ装置の例に過ぎず、例えばテレビスクリーンなどのその他モニタ装置と入れ替えることができる。なお、ここで説明しているシステム900は例として例示的に説明しているだけであり、本発明はこれに限定するものではなく、具体的な応用の必要性に応じてシステム900の構成を変更または調整することができる。
本発明の別の面においては、前景画像分割装置を提供する。図10は本発明の実施例の前景画像分割装置の機能ブロック図である。
図10に示すように、該前景画像分割装置1000は、入力画像及びその奥行き情報を取得する取得部1010、取得部により取得された奥行き情報に基づいて、入力画像を大雑把に分割して大雑把な前景領域を取得する大雑把な分割部1020、入力画像の動き情報に基づいて、該大雑把な前景領域から三色画像を生成する三色画像生成部1030、及び生成した三色画像から前景画像を分割する前景画像分割部1040を含むことができる。
任意の実施例では、該三色画像生成部1030は、該入力画像の直前の連続するm個のフレームの画像を取得し、該連続するm個のフレームの画像から各画素の動き情報を計算する第一計算部(未図示)、第一計算部により計算された各画素の動き情報に基づいて、該大雑把な前景領域から三色画像を生成する生成部(未図示)を含むことができる。
そのうち、画素の動き情報が所定しきい値より小さい場合、該生成部は該画素が背景領域に属すると決定でき、画素の動き情報が該所定しきい値以上であり、かつ該画素の近傍領域内に前記大雑把な前景領域に属しない画素が存在する場合、該生成部は該画素が未知領域に属すると決定でき、画素の動き情報が該所定しきい値以上であり、かつ該画素の近傍領域内の全ての画素が前記大雑把な前景領域に属する場合、該生成部は該画素が前景領域に属すると決定できる。
別の任意の実施例では、該前景画像分割部1040は、前記未知領域の各画素のカラー情報、奥行き勾配情報及び奥行き変化情報を計算する第二計算部(未図示)、前記第二計算部により計算された画素のカラー情報、奥行き勾配情報及び奥行き変化情報に基づいて、該画素が前景領域に属するか否かを決定する決定部(未図示)、及び該決定部の決定結果に基づいて前景画像を取得する取得部(未図示)を含むことができる。
別の任意の実施例では、該決定部は前景画像の分割に用いるα値のコスト関数を構築でき、前記未知領域内の各画素に対して、該コスト関数を最小化し、該画素のカラー情報、奥行き勾配情報及び奥行き変化情報に基づいて該画素のα値を求める。そのうち、画素のα値が所定しきい値以上のとき、該決定部は該画素が前景領域に属すると決定でき、画素のα値が所定しきい値よりも小さいとき、該決定部は該画素が前景領域に属しないと決定できる。
別の任意の実施例では、前記未知領域の各画素に対して、該決定部はn×n画素の近傍領域内で該画素のカラー情報、奥行き勾配情報及び奥行き変化情報のそれぞれの正規化された加重値を計算し、また該画素のカラー情報の加重値、奥行き勾配情報の加重値及び奥行き変化情報の加重値を用いて該画素のα値を求めることができる。
図10に示す前景画像分割装置の各部の操作に関しては図1に示すフローチャートを組み合わせて行った説明を参考にできるため、ここでは詳しくは述べない。該前景画像分割装置から、奥行き情報に基づき入力画像を大雑把に分割し、該三色画像から正確に前景画像を分割するため、入力画像の動き情報に基づき該大雑把な分割結果から比較的正確な三色画像を生成する。これにより、奥行き情報及び動き情報から三色画像を自動生成し、ヒューマン・コンピュータ・インタラクションを必要とせず、生成する三色画像はより正確になり、該三色画像に基づく前景画像分割の基礎を固めることにより、分割がより正確になる。また前景画像分割時に、該前景画像分割装置はカラー情報のほか空間領域上の奥行き勾配情報及び時間領域上の奥行き変化情報を考慮することにより、たとえ前景対象と背景の色が近かったとしても、正確に前景対象を分割することができる。
続いて、図11を参考に本発明実施例の目標シーンの中からの前景対象の分割を実現する前景画像分割システムのハードウェア配置を説明する。図11に示すようにシステム1100は、外部から例えば上述のカラー画像とグレースケール画像といった処理すべき画像及び例えば奥行き情報といった処理すべき情報を入力するのに用い、例えばキーボード、マウス、及び通信ネットワーク及びそれに連結する遠隔入力装置などを含む入力装置1110、上述の本発明実施例の前景画像分割方法または上述の本発明実施例の前景画像分割装置を実施するのに用い、例えばコンピュータの中央処理器またはその他の処理能力を有するチップなどを含み、例えばインターネットのネットワーク(未図示)に接続でき、処理過程の必要性に応じてネットワークから入力画像などのデータを取得し、さらに分割した前景対象に合成処理などの必要な処理を行うことができる処理装置1120、例えば分割した前景画像及び前景画像の合成結果などを含む上述の前景画像分割の結果を外部に出力するのに用い、例えばモニタ、プリンタ、及び通信ネットワーク及びそれに接続する遠隔出力装置などを含む出力装置1130、及び揮発性または非揮発性の方式で上述の処理過程に関わる画像、データ、取得した結果、コマンド及び中間データなどを記憶するのに用い、例えばランダムアクセスメモリ(RAM)、読取り専用メモリ(ROM)、ハードディスク、または半導体メモリなどの各種揮発性または非揮発性メモリを含む記憶装置1140を含む。
当然のことながら、簡略化するため、図11は該システム内の本発明に関するコンポーネントの一部を表示しただけであり、例えばバス、入力/出力インターフェースなどのコンポーネントは省略している。このほか、具体的応用状況に応じて、システム1100はさらにいずれかのその他の適切なコンポーネントを含むことができる。
以上、図面を参考に本発明実施例の前景対象分割方法、装置とシステムを詳細に説明した。以上では、人を前景対象とする例を説明したが、当業者にとって本発明が応用できるのは人に限らず、その他の動物、物体などでもよいことは自明である。
本開示の中で言及している装置、設備、システムのブロック図は例示的な例に過ぎず、必ずブロック図に示す方法に従って接続、配列、配置するように要求または暗示する意図はない。当業者が知っている場合、任意の方法でこれらの装置、設備、システムを接続、配列、配置できる。例えば、「含める」「含む」「有する」などの用語は開放性用語であり、「含むが、それに限らない」を指し、互いに入れ替えて使用できる。ここで使用している用語「または」と「及び」は単語「及び/または」を指し、互いに入れ替えて使用できる。文脈で明確に指示している場合は、この限りではない。ここで使用している用語「例えば」は、連語「例えば〜だが、それに限らない」を指し、また互いに入れ替えて使用できる。
本開示の中のステップフローチャート及び以上の方法説明は例示的な例に過ぎず、必ず示した順序に従って各実施例のステップを実施するように要求または暗示する意図はない。当業者が知っている場合、任意の順序で以上の実施例内のステップの順序を行うことができる。例えば「その後」「それから」「続いて」などの用語には、ステップの順序を限定する意図はない。これらの用語は、読者にこれらの方法の説明の通読を誘導するのに用いているに過ぎない。このほか、例えば冠詞「ひとつ」「一」または「該」の使用は、単数の要素のいかなる引用に対しても該要素を単数に限定すると解釈されない。
本開示の中のステップフローチャート及び以上の方法説明は例示的な例に過ぎず、必ず示した順序に従って各実施例のステップを実施するように要求または暗示する意図はない。当業者が知っている場合、任意の順序で以上の実施例内のステップの順序を行うことができる。例えば「その後」「それから」「続いて」などの用語には、ステップの順序を限定する意図はない。これらの用語は、読者にこれらの方法の説明の通読を誘導するのに用いているに過ぎない。このほか、例えば冠詞「ひとつ」「一」または「該」の使用は、単数の要素のいかなる引用に対しても該要素を単数に限定すると解釈されない。
公開された方面の以上説明を提供することで、当業者が本発明を実行または使用できるようにしている。これら方面の各種修正は、当業者にとって非常に自明であり、またここで定義している一般原理はその他方面に応用でき、本発明の範囲を逸脱しない。そのため、本発明はここに示した方面に限定される意図はなく、ここに公開している原理と新規性の特徴に一致する最も広い範囲に従う。
Claims (12)
- 入力画像及び該入力画像の奥行き情報を取得するステップと、
前記入力画像の奥行き情報に基づいて、入力画像を分割して前景領域を取得するステップと、
入力画像の動き情報を取得し、該動き情報に基づいて該前景領域から三色画像を生成するステップと、
生成された三色画像から前景画像を分割するステップと、を含む、前景画像分割方法。 - 前記入力画像の動き情報に基づいて該前景領域から三色画像を生成するステップは、
該入力画像の直前の連続するm個のフレームの画像を取得し、該連続するm個のフレームの画像から各画素の動き情報を計算するステップと、
各画素の動き情報に基づいて、該前景領域から三色画像を生成するステップと、を含み、
画素の動き情報が所定しきい値より小さい場合は、該画素が背景領域に属すると決定し、
画素の動き情報が該所定しきい値以上であり、かつ該画素の近傍領域内に前記前景領域に属しない画素が存在する場合は、該画素が未知領域に属すると決定し、
画素の動き情報が該所定しきい値以上であり、かつ該画素の近傍領域内の全ての画素が前記前景領域に属する場合は、該画素が前景領域に属すると決定する、請求項1に記載の前景画像分割方法。 - 前記生成された三色画像から前景画像を分割するステップは、
前記未知領域の各画素のカラー情報、奥行き勾配情報及び奥行き変化情報を計算するステップと、
画素のカラー情報、奥行き勾配情報及び奥行き変化情報に基づいて、該画素が前景領域に属するか否かを決定するステップと、
決定結果に基づいて前景画像を取得するステップと、を含む、請求項2に記載の前景画像分割方法。 - 前記画素が前景領域に属するか否かを決定するステップは、
前景画像の分割に用いるα値のコスト関数を構築するステップと、
前記未知領域内の各画素に対して、該コスト関数を最小化し、該画素のカラー情報、奥行き勾配情報及び奥行き変化情報を用いて該画素のα値を求めるステップと、
画素のα値が所定しきい値以上の場合、該画素が前景領域に属すると決定し、画素のα値が所定しきい値より小さい場合は、該画素が前景領域に属しないと決定するステップと、を含む、請求項3に記載の前景画像分割方法。 - 前記未知領域の各画素に対して、n×n画素の近傍領域内で該画素のカラー情報、奥行き勾配情報及び奥行き変化情報のそれぞれの正規化された加重値を計算するステップをさらに含み、
前記画素のカラー情報、奥行き勾配情報及び奥行き変化情報を用いて該画素のα値を求めるステップは、該画素のカラー情報の加重値、奥行き勾配情報の加重値及び奥行き変化情報の加重値を用いて該画素のα値を求めるステップを含む、請求項4に記載の前景画像分割方法。 - 前記入力画像の奥行き情報に基づいて、入力画像を分割して前景領域を取得するステップは、
前記入力画像の奥行き情報に基づいて、Ω形状特徴に基づいて前記入力画像から人物の頭肩部を前記前景領域として検出するステップと、
前記入力画像内の該頭肩部以外の各画素の奥行き値と検出された頭肩部の奥行き値とを比較し、該画素が該前景領域に属するか否かを決定するステップと、を含み、
該画素の奥行き値と頭肩部の奥行き値との差が所定しきい値以下の場合は、該画素が前景領域に属すると決定し、該画素の奥行き値と頭肩部の奥行き値との差が所定しきい値よりも大きい場合は、該画素が前景領域に属しないと決定する、請求項1に記載の前景画像分割方法。 - 前記動き情報がオプティカルフロー情報である、請求項1に記載の前景画像分割方法。
- 入力画像及び該入力画像の奥行き情報を取得する取得手段と、
前記取得手段により取得された奥行き情報に基づいて、入力画像を分割して前景領域を取得する分割手段と、
入力画像の動き情報に基づいて、該前景領域から三色画像を生成する三色画像生成手段と、
生成された三色画像から前景画像を分割する前景画像分割手段と、を含む、前景画像分割装置。 - 前記三色画像生成手段は、
前記入力画像の直前の連続するm個のフレームの画像を取得し、該連続するm個のフレームの画像から各画素の動き情報を計算する第一計算手段と、
前記第一計算手段により計算された各画素の動き情報に基づいて、該前景領域から三色画像を生成する生成手段と、を含み、
前記生成手段は、
画素の動き情報が所定しきい値より小さい場合は、該画素が背景領域に属すると決定し、
画素の動き情報が該所定しきい値以上であり、かつ該画素の近傍領域内に前記前景領域に属しない画素が存在する場合は、該画素が未知領域に属すると決定し、
画素の動き情報が該所定しきい値以上であり、かつ該画素の近傍領域内の全ての画素が前記前景領域に属する場合は、該画素が前景領域に属すると決定する、請求項8に記載の前景画像分割装置。 - 前記前景画像分割手段は、
前記未知領域の各画素のカラー情報、奥行き勾配情報及び奥行き変化情報を計算する第二計算手段と、
前記第二計算手段により計算された画素のカラー情報、奥行き勾配情報及び奥行き変化情報に基づいて、該画素が前景領域に属するか否かを決定する決定手段と、
前記決定手段の決定結果に基づいて前景画像を取得する取得手段と、を含む、請求項9に記載の前景画像分割装置。 - 入力画像及び該入力画像の奥行き情報を取得するステップと、
前記入力画像の奥行き情報に基づいて、入力画像を分割して前景領域を取得するステップと、
入力画像の動き情報を取得し、該動き情報に基づいて該前景領域から三色画像を生成するステップと、
生成された三色画像から前景画像を分割するステップと、をコンピュータに実行させるためのプログラム。 - 入力画像及び該入力画像の奥行き情報を取得するステップと、
前記入力画像の奥行き情報に基づいて、入力画像を分割して前景領域を取得するステップと、
入力画像の動き情報を取得し、該動き情報に基づいて該前景領域から三色画像を生成するステップと、
生成された三色画像から前景画像を分割するステップと、をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410573559.3A CN105590309B (zh) | 2014-10-23 | 2014-10-23 | 前景图像分割方法和装置 |
CN201410573559.3 | 2014-10-23 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016085742A true JP2016085742A (ja) | 2016-05-19 |
Family
ID=55792375
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015207566A Pending JP2016085742A (ja) | 2014-10-23 | 2015-10-21 | 前景画像分割方法及び前景画像分割装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9600898B2 (ja) |
JP (1) | JP2016085742A (ja) |
CN (1) | CN105590309B (ja) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018128741A1 (en) | 2017-01-06 | 2018-07-12 | Board Of Regents, The University Of Texas System | Segmenting generic foreground objects in images and videos |
KR20180084506A (ko) * | 2017-01-17 | 2018-07-25 | 삼성전자주식회사 | 영상 처리를 위한 디스플레이 장치 및 방법 |
CN106952276A (zh) * | 2017-03-20 | 2017-07-14 | 成都通甲优博科技有限责任公司 | 一种图像抠图方法及装置 |
CN107145861A (zh) * | 2017-05-05 | 2017-09-08 | 中国科学院上海高等研究院 | 一种遗弃物自动检测方法 |
CN108961258B (zh) * | 2017-05-18 | 2021-02-23 | 北京金山云网络技术有限公司 | 一种前景图像获得方法及装置 |
CN107582001B (zh) * | 2017-10-20 | 2020-08-11 | 珠海格力电器股份有限公司 | 洗碗机及其控制方法、装置和系统 |
CN109903291B (zh) * | 2017-12-11 | 2021-06-01 | 腾讯科技(深圳)有限公司 | 图像处理方法及相关装置 |
CN108537843A (zh) * | 2018-03-12 | 2018-09-14 | 北京华凯汇信息科技有限公司 | 根据深度图像得到景深距离的方法及装置 |
CN108520259B (zh) * | 2018-04-13 | 2021-05-25 | 国光电器股份有限公司 | 一种前景目标的提取方法、装置、设备及存储介质 |
CN111882574A (zh) * | 2018-04-17 | 2020-11-03 | 芜湖岭上信息科技有限公司 | 一种视频监控设备获得图像的前景分割方法和装置 |
CN110493488B (zh) | 2018-05-15 | 2021-11-26 | 株式会社理光 | 视频稳像方法、视频稳像装置和计算机可读存储介质 |
CN110335277A (zh) * | 2019-05-07 | 2019-10-15 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、计算机可读存储介质和计算机设备 |
US11527005B2 (en) | 2019-07-22 | 2022-12-13 | Samsung Electronics Co., Ltd. | Video depth estimation based on temporal attention |
CN111462164A (zh) * | 2020-03-12 | 2020-07-28 | 深圳奥比中光科技有限公司 | 一种前景分割方法以及基于图像合成的数据增强方法 |
CN113379768A (zh) * | 2021-06-28 | 2021-09-10 | 展讯通信(天津)有限公司 | 一种图像处理方法、装置、存储介质和计算机设备 |
CN113947549B (zh) * | 2021-10-22 | 2022-10-25 | 深圳国邦信息技术有限公司 | 自拍视频修饰道具边缘处理方法及相关产品 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080181507A1 (en) * | 2007-01-29 | 2008-07-31 | Intellivision Technologies Corp. | Image manipulation for videos and still images |
CN100539698C (zh) * | 2007-07-10 | 2009-09-09 | 浙江大学 | 一种数字视频处理中交互式时空一致的视频抠图方法 |
US8787663B2 (en) * | 2010-03-01 | 2014-07-22 | Primesense Ltd. | Tracking body parts by combined color image and depth processing |
US8818028B2 (en) * | 2010-04-09 | 2014-08-26 | Personify, Inc. | Systems and methods for accurate user foreground video extraction |
US9123115B2 (en) * | 2010-11-23 | 2015-09-01 | Qualcomm Incorporated | Depth estimation based on global motion and optical flow |
CN102737370B (zh) * | 2011-04-02 | 2015-07-01 | 株式会社理光 | 检测图像前景的方法及设备 |
CN103020623B (zh) | 2011-09-23 | 2016-04-06 | 株式会社理光 | 交通标志检测方法和交通标志检测设备 |
CN103029621B (zh) | 2011-09-30 | 2016-04-06 | 株式会社理光 | 检测前方车辆的方法及设备 |
EP2706503A3 (en) * | 2012-09-11 | 2017-08-30 | Thomson Licensing | Method and apparatus for bilayer image segmentation |
CN104424649B (zh) | 2013-08-21 | 2017-09-26 | 株式会社理光 | 检测运动物体的方法和系统 |
CN104574433A (zh) | 2013-10-14 | 2015-04-29 | 株式会社理光 | 对象跟踪方法和设备、跟踪特征选择方法 |
CN104881881B (zh) | 2014-02-27 | 2018-04-10 | 株式会社理光 | 运动对象表示方法及其装置 |
US9536321B2 (en) * | 2014-03-21 | 2017-01-03 | Intel Corporation | Apparatus and method for foreground object segmentation |
AU2015203771B2 (en) * | 2014-07-08 | 2020-11-05 | Iomniscient Pty Ltd | A method and apparatus for surveillance |
-
2014
- 2014-10-23 CN CN201410573559.3A patent/CN105590309B/zh active Active
-
2015
- 2015-10-21 JP JP2015207566A patent/JP2016085742A/ja active Pending
- 2015-10-21 US US14/918,680 patent/US9600898B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
CN105590309B (zh) | 2018-06-15 |
CN105590309A (zh) | 2016-05-18 |
US9600898B2 (en) | 2017-03-21 |
US20160117832A1 (en) | 2016-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2016085742A (ja) | 前景画像分割方法及び前景画像分割装置 | |
JP6631179B2 (ja) | 前景画像分割方法及び装置、プログラム、並びに記録媒体 | |
JP6030617B2 (ja) | 画像処理装置および画像処理方法 | |
JP5156837B2 (ja) | 領域ベースのフィルタリングを使用する奥行マップ抽出のためのシステムおよび方法 | |
US9042662B2 (en) | Method and system for segmenting an image | |
GB2583676A (en) | Augmenting detected regions in image or video data | |
Yen et al. | Maintaining temporal coherence in video retargeting using mosaic-guided scaling | |
JP6278242B2 (ja) | 遮光装置および遮光方法、並びにプログラム | |
KR100987412B1 (ko) | 멀티프레임을 고려한 비디오 오브젝트 매팅 시스템 및 방법 | |
Pei et al. | All-in-focus synthetic aperture imaging using image matting | |
US20230394834A1 (en) | Method, system and computer readable media for object detection coverage estimation | |
JP2013185905A (ja) | 情報処理装置及び方法、並びにプログラム | |
CN108010058A (zh) | 一种对视频流中目标对象进行视觉跟踪的方法及系统 | |
JP2016048467A (ja) | 運動視差再現方法、装置およびプログラム | |
KR101468347B1 (ko) | 이미지 내 가상 시각 정보를 식별하는 방법 및 장치 | |
KR101682137B1 (ko) | 텍스처 및 움직임 감지를 사용한 시간적으로-일관된 변이 추정을 위한 방법 및 장치 | |
Lin et al. | Depth map enhancement on rgb-d video captured by kinect v2 | |
Parolin et al. | Bilayer video segmentation for videoconferencing applications | |
Fiore et al. | Towards achieving robust video selfavatars under flexible environment conditions | |
JP2015033047A (ja) | 複数カメラを用いた奥行き推定装置 | |
GB2566478B (en) | Probability based 360 degree video stabilisation | |
KR101629414B1 (ko) | 휴먼 팩터에 기초한 스테레오스코픽 이미지 추출 방법 및 장치 | |
KR20150047937A (ko) | 비디오 영상에서 사람과 배경을 분리하기 위한 방법, 장치 및 컴퓨터 판독 가능한 기록 매체 | |
CN113805824B (zh) | 电子装置以及在显示设备上显示图像的方法 | |
WO2016181672A1 (ja) | 画像解析装置、画像解析方法、及び、画像解析プログラム |